第24版:TMT 上一版3  4下一版
 
版面导航

第01版
头版

第02版
要闻

第03版
要闻
 
标题导航
首页 | 版面导航 | 标题导航
2024年05月20日 星期一
3 上一篇 放大 缩小 默认
豆包大模型降价 字节跳动称有信心优化技术降成本

    本报资料室/图

    豆包大模型发布,火山引擎总裁谭待现场解读。

    本报记者李静北京报道

    千呼万唤始出来。5月15日,字节跳动豆包大模型在火山引擎原动力大会上正式发布。

    2023年在OpenAI掀起的大模型浪潮之下,国内大型科技互联网公司以及一些创业型AI公司纷纷推出各种大模型,字节跳动在一年前就完成了大模型的相关备案,市场一直流传字节跳动将推出大模型的消息,但在整个2023年,字节跳动在大模型上都显得比较冷淡。

    直到5月15日,字节跳动带着豆包大模型全家桶加入了大模型的浪潮中。据介绍,豆包大模型提供的是一个有多模态能力的模型家族,包括通用模型pro、通用模型lite、语音识别模型、语音合成模型、文生图模型等九款模型。

    在过去一年里,豆包大模型虽然不为外人所知,但其实已经广泛服务于字节跳动内部业务,以及一些核心的共创合作伙伴。豆包大模型首次亮相就宣布正式对外开放使用,其在价格方面的定价更是在行业内外引起了关注和讨论。“豆包主力模型在企业市场的定价只有0.0008元/千Tokens,0.8厘就能处理1500多个汉字,比行业便宜99.3%。”字节跳动旗下云服务平台火山引擎总裁谭待表示。

    为什么定价这么低?降价的原因是什么?字节跳动要打起大模型的价格战吗? 围绕豆包大模型的低价和商业化问题,谭待在接受《中国经营报》等媒体采访时一一作出了回应。

    大模型价格进入“厘时代”

    虽然姗姗来迟,但一经推出就掀起了轩然大波。

    根据已经公布的价格,豆包通用模型pro-32k版,模型推理输入价格为0.0008元/千Tokens,而市面上同规格模型的定价一般为0.12元/千Tokens,是豆包模型价格的150倍。豆包通用模型pro-128k版本,推理输入价格为0.005元/千Tokens,仅是GPT4-Turbo128K (0.07元/千Tokens)定价的7%。

    根据火山引擎公布的价格计算,一元钱就能买到豆包主力模型的125万Tokens,大约是200万个汉字,相当于三本《三国演义》。

    针对不同的通用需求,豆包通用模型有模型pro和lite两个版本,用户可以根据自己的场景和需求选择合适的大模型产品。其中豆包通用模型pro版能够提供更加专业且泛化的能力,窗口尺寸最大可达128K,全系列可精调,具备强理解、生成、逻辑和记忆力,在问答、总结摘要、创作、文本分类、角色扮演等通用场景具备全面通用的能力。而lite版,则面向更追求性价比的客户,更加轻量,适合一些对模型能力要求不太高的场景。

    据麦肯锡报告分析,到2030年,大模型有望在全球推动49万亿元人民币的经济增量。

    谭待认为,降低成本是推动大模型快进到“价值创造阶段”的一个关键因素。并且大模型降价,不能只提供低价的轻量化版本,主力模型和最先进的模型也要够便宜,才能真正满足企业的复杂业务场景需求,充分验证大模型的应用价值,从而催化出超越现有产品和组织模式的创新。

    降价出自对技术的信心

    对于是否要打响大模型的价格战,谭待予以否认。他表示有信心通过技术优化降低成本,降价可以加速大模型的应用落地:“to B业务做的是长期生意,用亏损换收入是不可持续的事情。我们不拿补贴来做大模型这件事情,降价是对用技术优化降成本有信心”。

    谭待透露,豆包大模型是通过技术手段做到的低价,在保证效果的同时把成本做低。例如通过对模型结构的优化调整、在工程上从以前的单机推理演进到现在的分布式推理、把不同负载的推理作混合调度,这些技术能够把各种各样底层算力用得更好,同时实现大幅的降低成本。“未来我们还有很多手段,还能把降低成本做得很好。”谭待说道。

    零一万物CEO李开复不久前表示,(大模型)推理成本至少每年会降低十倍,这在过去两年已经发生,未来也会继续发生。所以一个公司可以试着去精准预测技术会怎么变,成本会如何下降。

    谭待认同大模型的推理成本将显著降低:“除了模型本身有很多优化技巧以外,大模型的调用量越大,优化推理成本的空间也越大。”目前,豆包大模型平均每天处理1200亿Tokens文本、生成3000万张图片,其中有不同的负载,可以把不同任务混合在一起,互相错峰,通过智能调度把各种任务的利用率都跑得很高,就能明显地提升资源利用率,实现整体成本的降低。

    谭待举例说,飞书的主要流量高峰在工作时间,抖音在下班后休闲时间的流量更高,这些不同业务的大模型推理,也能根据业务特点错峰使用,进而降低成本。

    从大环境的角度来看,谭待认为现在大模型市场才刚刚开始,还谈不上竞争。QuestMobile的数据显示,截至今年3月,基于大模型的AIGC行业用户量为7380万,尽管同比增长了8倍,但也仅占移动互联网用户量的6%。

    “这个时候大家应该一起把大模型做好,通过把成本做低,让更多更好的大模型应用能够落地,让更多的人和企业能够因为大模型受益,这些才是最关键的事。”谭待说道。

3 上一篇 放大 缩小 默认
  © 版权所有 中国经营报社 合作伙伴:方正爱读爱看网
   第01版:头版
   第02版:要闻
   第03版:要闻
   第04版:事件
   第05版:金融
   第06版:财富
   第07版:资管
   第08版:银行
   第09版:银行
   第10版:银行
   第11版:新金融
   第12版:新金融·保险
   第13版:区域·地产
   第14版:地产·物业
   第15版:地产·家电
   第16版:智造
   第17版:地产
   第18版:医药·健康
   第19版:能源·化工
   第20版:游戏
   第21版:TMT
   第22版:TMT
   第23版:TMT
   第24版:TMT
   第25版:车视界
   第26版:车视界
   第27版:车视界
   第28版:车视界
   第29版:快消
   第30版:快消
   第31版:快消
   第32版:与老板对话
左手“猫狗”右手拼多多 电商拯救B站?
豆包大模型降价 字节跳动称有信心优化技术降成本