对话火山引擎总裁谭待:现在不看大模型带动多少云收入
12月18日,字节跳动对外发布豆包视觉理解模型,并把千tokens输入价格降至仅为3厘,比行业价格实惠公道85%。
与此同时,多款豆包大模型产品发布更新,包括全面对齐GPT-4o的豆包通用模型pro,使用价格仅为前者的1/8;音乐模型从生成60秒的简单结构,升级到生成3分钟的完整作品;文生图模型2.1版本,首次实现精准生成汉字和一句话P图的产品化能力,该模型已接入即梦AI和豆包App。
火山引擎总裁谭待透露,具备更长视频生成能力的豆包视频生成模型1.5版将于明年春季推出,豆包端到端实时语音模型也将很快上线。
在接受界面新闻等媒体采访时,谭待谈及了对业务的预期,称现在火山引擎不看大模型带动多少云的收入,看的是有多少客户用了豆包大模型,以及用得有多深。
火山引擎于2020年正式上线,是字节跳动旗下的云服务平台,有着和抖音、飞书、TikTok同等重要的地位,商业化发展得非常快。豆包大模型推出后,火山引擎会基于该模型对外提供服务。
但在激烈的市场之间的竞争中,作为后来者,火山引擎要跻身第一梯队并不是特别容易,因此更希望抓住大模型的风口,快速扩大市场份额。
谭待对火山引擎进军云计算市场表现得颇有信心。一方面,云计算的市场空间依然非常大,火山引擎因为服务抖音、今日头条等超级App建立了规模优势;另一方面,火山引擎希望在AI大模型的新技术变革中做到领先,并持续朝着这个方向前进。
问:几家国内公司都有提到在做推理模型,字节跳动是否也在布局?现在的进展如何?
谭待:字节跳动正在布局推理模型,有些能力已经具备雏形,比如解数学物理代码,但我们还需要把逻辑做得更完善了再推出,大家敬请期待,不会太久。
谭待:我认为有两个事情很重要。一是围绕大模型全软件栈,包括模型本身要越来越强,越来越丰富,成本要做到合理可持续,落地要更容易;第二,因为AI的出现,所有的基础架构从CPU转向GPU为核心之后,云原生也需要改变,我们大家都认为未来10年AI云原生是更重要的事情。从云原生到AI云原生,火山引擎希望做成这一领域的领军企业。
问:今年大模型带动了多少公有云收入?有没有达到预期?明年可能会出现哪些计划?
谭待:我现在不看带动多少云的收入,看的是有多少客户用了我们大模型以及用得有多深。从这个方面来说,我觉得做得还是可以的,我们在整个市场占有率上都做到了比较大的领先。
谭待:我们也很重视出海,很多行业的客户都在出海,我们将会把我们一些相关的经验变成工具,能更好地服务他们。
问:豆包大模型的C端(消费端)产品今年特别火,同时又在做B端(企业端)市场,大模型的未来到底是在2B还是在2C市场?
谭待:从我们的数据分析来看,工作、娱乐、生产力的场景其实是差不多的,所以我觉得大模型就是2C和2B齐头并进,因为娱乐要处理信息,获取知识要处理信息,处理工作要处理信息,企业自己运转也要处理信息,这跟以前互联网刚开始2C然后再2B时不一样。
大模型跟过去所有的技术都不一样。过去的技术C端跟B端是割裂的,但大模型C端和B端背后是同一个东西,就是那个模型本身,行业因此有了一个C端和B端协同的新方式。以前B端很多使用者是分离的,他感受技术好不好只可以通过听汇报、看实际案例,但现在他能够正常的使用C端产品产生更直观的感受。大家都愿意使用豆包App,B端客户大概率也会愿意选择豆包大模型。
谭待:第一,把规模优势做好,做好了以后每年自然就会增长,因为规模大、弹性高、成本便宜,自然而然企业会迁移过来,或者有企业选择你,这是一个很重要的因素。
第二,通过豆包App,我们把模型这个事做好也能获得很多关注,得到很多新的合作机会。
问:大模型还处于发展初期,大家现在主要以token使用量去收费。在新的商业模上,豆包有没有新的考虑?
谭待:做成扩展的服务,未来用户还能增值来使用。比如,我们跟车厂做的很多新的功能,将来会特别受用户的喜欢,甚至用户会为此额外付费。对车厂来说,他们不是卖完一次车就完了,也能够持续地跟用户产生联系去获得收入。这个在手机上已经实现了,我认为未来在汽车和其他智能硬件上也会实现,核心是一定要做出新的有黏性的出彩的功能,大模型在这方面能发挥很大的价值。