本报记者李玉洋上海报道
在由ChatGPT掀起的新一轮人工智能(AI)竞赛中,科技巨头谷歌也得奋力追赶。
科技媒体The Information报道,谷歌确认将其专门负责AI芯片开发的团队转移至谷歌云(Google Cloud)部门,以增强云计算团队的竞争力,追赶强敌AWS和微软Azure。
《中国经营报》记者注意到,谷歌此前还宣布将DeepMind 和Google Brain两个人工智能研究实验室合并为一个叫Google Deep-Mind的部门。
全联并购公会信用管理委员会专家安光勇对记者表示:“这表明谷歌正在采取积极措施来应对竞争对手的挑战,并在AI和云计算领域继续保持领先地位。”而国内一位从事云计算代理服务的业内人士认为,这些举措能增加谷歌云的能力,“现在看来国内云计算市场不会受到影响”。
大模型是目前科技领域的新焦点,而云计算成为大模型技术落地的最佳平台和基础设施。谷歌、微软、亚马逊、阿里巴巴、百度、腾讯、华为等已发布或正在研发相关大模型产品的公司,大部分有自己的云计算平台、云产品和生态。
据了解,当前大模型的训练、推理的算力支持主要来自GPU(图形处理器),但这类芯片却供不应求。“因为AIGC和ChatGPT4近期火热,市场对GPU需求非常大,而主流GPU就是英伟达的A100或A800,这些产品供不应求,货期高达2个月。”在某国际云计算大厂工作的程前(化名)告诉记者,目前包括微软、谷歌、亚马逊以及国内BAT等大厂都在进行AI芯片开发,做AI推理或训练时,自研AI芯片能够提供比较及时的算力支持,避免对英伟达的依赖并降低运营成本。
记者还注意到,谷歌在4月初宣称将4000个第四代TPU(张量处理器,是谷歌为机器学习定制的专用芯片)串联在一起,构建起的超级计算机的运行速度要比采用英伟达A100GPU的同等机器快1.7倍,效率高出1.9倍。谷歌还表示已经部署了数十台采用第四代TPU打造的超级计算机,供内部使用和外部通过谷歌云使用。对于这一情况的更多细节,记者联系谷歌方面,截至发稿未获答复。
AI服务很大程度依托于云
谷歌把DeepMind 和Google Brain合并,可见谷歌集中优势兵力、全力投入竞赛的决心。
据悉,谷歌的AI发展历史可追溯到2000年代初期,彼时谷歌开始研究机器学习算法,通过组建或收购的方式,打造起自己的AI研发力量。其中,外界较为熟悉的是Deep-Mind和Google Brain。前者成立于2010年,2014年被谷歌以5亿美元的价格收购,其后一直作为独立部门进行运营,2016年因其研发的AlphaGo人工智能围棋程序击败了韩国围棋九段棋手李世石而声名大噪;后者也交付了不少备受瞩目的项目,其中包括Transformer大模型,它被认为是ChatGPT开发的基石。
如今谷歌把DeepMind 和GoogleBrain合并,可见谷歌集中优势兵力、全力投入竞赛的决心。“在谷歌计算资源的支持下,将所有AI人才整合成一个专注的团队,将大大加快我们在AI方面的进展。”对于将DeepMind和Google Brain合并,Alphabet首席执行官桑达尔·皮查伊(SundarPichai)此前发文说。
“AI请求本身就是基于大规模数据中心集群,未来AI服务很大程度都要依托于云,而ChatGPT本身就是部署在云上的。”资深产业分析师黄烨锋对记者表示,ChatGPT发布后,谷歌一直很着急。
安光勇认为,不管是把AI芯片转移至云计算部门,还是把两个人工智能实验室合并,目的有两个,一是应对微软和OpenAI的威胁,二是推进自身AI技术的发展。
根据TheInformation的报道,谷歌将负责AI芯片研发的工程团队转移到Google Cloud,是为了提高Google Cloud出售AI芯片给那些租用其服务器公司的能力。“Google Cloud CEO Thomas Kurian一直在向Google的高层争取更多资源,以更好地装备团队,与来自OpenAI的AI软件微软的Azure云业务以及即将加入的亚马逊云AWS开展竞争。”该报道如此提到。
根据谷歌母公司Alphabet近期发布的2023年第一季度财报,Google Cloud销售额达到75亿美元,同比增长28%,这是自2020年开始公布业绩以来,该部门首次实现盈利,营业利润为1.91亿美元。目前,Google Cloud业务合计占Alphabet总收入的10%。
根据市场调研机构Canalys发布的2022年第四季度全球云基础设施数据,AWS、微软Azure和谷歌云分别是全球前三大云服务供应商;而IDC发布的2022年下半年中国公有云市场报告显示,前五大市场份额的云厂家分别是阿里云、华为云、天翼云、腾讯云和亚马逊云。
微软、谷歌均欲加大AI投资
虽然谷歌AI的热度还无法与ChatGPT相比,但其至少已经意识到自身短板,并积极补强。
作为谷歌在新一轮AI竞赛中的劲敌,同一天发布财报的微软拿出了一张优异成绩单。财报显示,微软截至3月31日的季度收入为529亿美元,同比增长7%,好于预期。
在报告期内,微软宣布追加数十亿美元投资OpenAI,并表示将利用后者的人工智能模型开发新版必应搜索引擎,并将GPT-4接入到Office工具,推出了AI版Office“全家桶”Microsoft365Copilot。
“世界上最先进的人工智能模型与世界上最通用的用户界面——自然语言——相结合,开创了一个新的计算时代。”微软首席执行官萨蒂亚·纳德拉(SatyaNadel-la)在财报新闻稿中表示,“在整个微软云服务中,我们是帮助客户从数字支出中获得最大价值并为下一代AI进行创新的首选平台。”
在ChatGPT引领的AI浪潮的助推之下,微软智能云服务在报告期内实现了不俗的增长。
具体来看,包括Azure公共云、企业服务、SQL Server和Windows Server在内的微软智能云业务部门实现营收220.8亿美元,同比增长了16%;而包括Dy-namics、LinkedIn和Office在内的生产力和业务流程部门公布收入175.2亿美元,同比增长约11%。纳德拉表示,Teams通讯应用程序在报告期内每月有超过3亿活跃用户,高于上一季度的2.8亿。
在财报电话会上,微软CFO艾米·胡德表示,微软接下来会加大云基础设施,特别是与AI相关的投资,并且在消费者业务方面如Windows的活跃设备数量、Edge和游戏业务等不断提升市场份额。
目前,微软正在加紧将GPT向Office套件、必应搜索业务中整合,这个过程中成本可能很高,但一旦成功可能会给微软带来新的利润增长点。本就占领高地的微软不断乘胜追击,让谷歌也不得不迎头紧追。
而在今年3月,谷歌人工智能聊天机器人Bard对外开启测试,但效果不如外界预期,4月又发布了更新版本,Bard在处理常识推理和编程问题等任务时能力变强。皮查伊表示,谷歌推出Bard实际上是作为搜索业务的补充产品,未来也会将语言模型更多地引入搜索业务之中。
有消息称,谷歌正计划发布新的人工智能搜索工具,以对抗微软必应搜索引擎中ChatGPT的整合。据《纽约时报》报道,人工智能搜索功能由谷歌开发,代号为“Magi”,可能会在5月首次推出,并在秋季推出其他功能。
财报电话会上,谷歌还透露,AI是公司的发展基石,未来将继续对AI进行投资,预计在今年第二季度,谷歌的资本支出将有所提高,且后续全年都会有所增加。
虽然谷歌AI的热度还无法与ChatGPT相比,但其至少已经意识到自身短板,并积极补强。两大巨头的竞争预计会延续很长一段时间,鹿死谁手尚是未知之数。
自研AI芯片的优势
大模型竞争之外可能还有芯片选择之争。
根据英伟达公布的信息,训练一次1750亿参数的GPT-3需要34天、使用1024张A100GPU芯片,同时OpenAI可能至少需要3.24万张A100用于日常推理。
旷视科技联合创始人、CEO印奇则透露,要做成GPT大模型,至少得要1万张英伟达A100GPU芯片,硬件投入就需要20亿元,中国目前可用作大模型训练的A100芯片总共只有4万张。
据TheInformation报道,包括亚马逊、微软、Google和甲骨文等主要云计算供应商都在限制客户对云服务器的使用,一些客户称租用硬件的等待时间长达数月,核心问题仍是GPU等算力芯片供不应求。
据芯片分销平台数据,国内A100芯片现货市场价已经从7万元涨至9万元。另据财新,英伟达A800在国内也已被炒到原价的2倍多,且紧俏到脱销。
“目前,很多互联网大厂如微软、谷歌、亚马逊以及国内BAT等都在进行AI芯片开发。”程前表示,虽然每家的生产工艺和版本迭代各不相同,但这些AI芯片的诞生,能为AI推理或训练够提供比较及时的算力支持,避免对英伟达的依赖并降低运营成本。
在程前看来,自研AI芯能为云服务厂家带来多种优势。“一是云厂家可提供更多的服务器机型,为用户带来更多的选择,找到最优方案。二是多类型AI芯片供货,不完全依赖英伟达,云资源算力储备足够。三是云厂家通过上架AI芯片,全球用户更快使用到AI芯片,能更好促进AI芯片的迭代发展。最后云厂家通过加速自家AI芯片的发展,形成自己的竞争力优势,吸引更多的客户上云。”程前分析道。
除谷歌TPU外,微软也在自研AI芯片。TheInformation报道称,微软大约在5年前就开始秘密研发一种内部代号为“雅典娜(Athena)”的芯片,来节省算力开支。
此外,AI开发初创企业Mi-djourney3月称其正在使用基于谷歌云的TPU来训练其机器学习模型。这意味着,大模型竞争之外可能还有芯片选择之争。