本报记者李静北京报道
千呼万唤始出来。5月15日,字节跳动豆包大模型在火山引擎原动力大会上正式发布。
2023年在OpenAI掀起的大模型浪潮之下,国内大型科技互联网公司以及一些创业型AI公司纷纷推出各种大模型,字节跳动在一年前就完成了大模型的相关备案,市场一直流传字节跳动将推出大模型的消息,但在整个2023年,字节跳动在大模型上都显得比较冷淡。
直到5月15日,字节跳动带着豆包大模型全家桶加入了大模型的浪潮中。据介绍,豆包大模型提供的是一个有多模态能力的模型家族,包括通用模型pro、通用模型lite、语音识别模型、语音合成模型、文生图模型等九款模型。
在过去一年里,豆包大模型虽然不为外人所知,但其实已经广泛服务于字节跳动内部业务,以及一些核心的共创合作伙伴。豆包大模型首次亮相就宣布正式对外开放使用,其在价格方面的定价更是在行业内外引起了关注和讨论。“豆包主力模型在企业市场的定价只有0.0008元/千Tokens,0.8厘就能处理1500多个汉字,比行业便宜99.3%。”字节跳动旗下云服务平台火山引擎总裁谭待表示。
为什么定价这么低?降价的原因是什么?字节跳动要打起大模型的价格战吗? 围绕豆包大模型的低价和商业化问题,谭待在接受《中国经营报》等媒体采访时一一作出了回应。
大模型价格进入“厘时代”
虽然姗姗来迟,但一经推出就掀起了轩然大波。
根据已经公布的价格,豆包通用模型pro-32k版,模型推理输入价格为0.0008元/千Tokens,而市面上同规格模型的定价一般为0.12元/千Tokens,是豆包模型价格的150倍。豆包通用模型pro-128k版本,推理输入价格为0.005元/千Tokens,仅是GPT4-Turbo128K (0.07元/千Tokens)定价的7%。
根据火山引擎公布的价格计算,一元钱就能买到豆包主力模型的125万Tokens,大约是200万个汉字,相当于三本《三国演义》。
针对不同的通用需求,豆包通用模型有模型pro和lite两个版本,用户可以根据自己的场景和需求选择合适的大模型产品。其中豆包通用模型pro版能够提供更加专业且泛化的能力,窗口尺寸最大可达128K,全系列可精调,具备强理解、生成、逻辑和记忆力,在问答、总结摘要、创作、文本分类、角色扮演等通用场景具备全面通用的能力。而lite版,则面向更追求性价比的客户,更加轻量,适合一些对模型能力要求不太高的场景。
据麦肯锡报告分析,到2030年,大模型有望在全球推动49万亿元人民币的经济增量。
谭待认为,降低成本是推动大模型快进到“价值创造阶段”的一个关键因素。并且大模型降价,不能只提供低价的轻量化版本,主力模型和最先进的模型也要够便宜,才能真正满足企业的复杂业务场景需求,充分验证大模型的应用价值,从而催化出超越现有产品和组织模式的创新。
降价出自对技术的信心
对于是否要打响大模型的价格战,谭待予以否认。他表示有信心通过技术优化降低成本,降价可以加速大模型的应用落地:“to B业务做的是长期生意,用亏损换收入是不可持续的事情。我们不拿补贴来做大模型这件事情,降价是对用技术优化降成本有信心”。
谭待透露,豆包大模型是通过技术手段做到的低价,在保证效果的同时把成本做低。例如通过对模型结构的优化调整、在工程上从以前的单机推理演进到现在的分布式推理、把不同负载的推理作混合调度,这些技术能够把各种各样底层算力用得更好,同时实现大幅的降低成本。“未来我们还有很多手段,还能把降低成本做得很好。”谭待说道。
零一万物CEO李开复不久前表示,(大模型)推理成本至少每年会降低十倍,这在过去两年已经发生,未来也会继续发生。所以一个公司可以试着去精准预测技术会怎么变,成本会如何下降。
谭待认同大模型的推理成本将显著降低:“除了模型本身有很多优化技巧以外,大模型的调用量越大,优化推理成本的空间也越大。”目前,豆包大模型平均每天处理1200亿Tokens文本、生成3000万张图片,其中有不同的负载,可以把不同任务混合在一起,互相错峰,通过智能调度把各种任务的利用率都跑得很高,就能明显地提升资源利用率,实现整体成本的降低。
谭待举例说,飞书的主要流量高峰在工作时间,抖音在下班后休闲时间的流量更高,这些不同业务的大模型推理,也能根据业务特点错峰使用,进而降低成本。
从大环境的角度来看,谭待认为现在大模型市场才刚刚开始,还谈不上竞争。QuestMobile的数据显示,截至今年3月,基于大模型的AIGC行业用户量为7380万,尽管同比增长了8倍,但也仅占移动互联网用户量的6%。
“这个时候大家应该一起把大模型做好,通过把成本做低,让更多更好的大模型应用能够落地,让更多的人和企业能够因为大模型受益,这些才是最关键的事。”谭待说道。