本报记者 曲忠芳北京报道
OpenAI的“宫斗”大戏随着山姆·奥特曼(SamAltman)回归CEO职位而落下帷幕,但围绕“宫斗”原因的猜测仍未休止,尤其是一个只有名字、没有产品的所谓超智能算法Q*更是在业内引发了轩然大波。
在这一背景下,11月30日,OpenAI在官网更新博客,公布了两则分别以CEO奥特曼、董事会主席布莱特·泰勒(Bret Taylor)为落款人的讯息。核心信息包括OpenAI领导团队持续沿着研究路线推进工作,并进一步投资全栈安全工作;将建立一个由杰出人士组成的一个合格、多元化的董事会,加强OpenAI的治理结构。值得注意的是,Ope-nAI的董事会中将包括一名无投票权的微软观察员。
关于在OpenAI“宫斗”事件中扮演重要角色的核心人物、首席科学家伊利亚·苏茨克弗(Ilya Sutskever),奥特曼表示“对他的恶意为零”,尽管苏茨克弗不再担任董事会成员,但奥特曼“希望继续和他的合作关系,并正在讨论他如何继续在OpenAI的工作”。
针对苏茨克弗是否会继续留在OpenAI,微软以“无投票权观察员”身份加入董事会是否只是一个过渡等业界关注的焦点问题,《中国经营报》记者通过电子邮件、社交平台联系OpenAI方面核实,但截至发稿暂未获得回应。
首席科学家的去留和微软的角色
在社交平台X上,身处舆论焦点的苏茨克弗第一时间转发了OpenAI的官方公告,但并未做出评论。苏茨克弗在业界拥有良好的口碑与顶尖的专业水平,带领并主导了GPT的重大技术迭代,可谓是今年最火爆的ChatGPT的“缔造者”。在OpenAI董事会罢免奥特曼CEO职位的事件中,苏茨克弗被认为担当了“主导者”的角色,不久又发生180度态度转换,加入支持奥特曼回归的力量之中。
值得一提的是,就在今年7月,苏茨克弗在接受美国媒体采访时透露,在ChatGPT成功之后,自己的工作重心转向防范AI失控,成立一个新的研究团队,计划未来4年投入20%的算力解决超智能AI对齐的问题。所谓“对齐”,简单理解就是用AI监督AI,建立一套针对超级人工智能的安全程序,保障未来超越人类智能的超级AI体能够与人类的世界观、价值观及整体利益一致。
从OpenAI此番更新的公告中来看,苏茨克弗是否继续留任OpenAI显然还存在一定的变数。
除了苏茨克弗的去留问题之外,OpenAI最新公告中另一个引人关注的无疑是微软。微软公司作为OpenAI的投资方而且在OpenAI“宫斗”事件中表现活跃,将以无投票权的观察员身份加入董事会。对此,奥特曼表示:“我们显然做出了与微软合作的正确选择,很高兴新董事会将微软作为无投票权的观察员。”
需要指出的是,新的董事会初始成员共有3名,分别是Salesforce公司原联席CEO布莱特·泰勒、美国著名经济学家劳伦斯·萨默斯、问答社区Quora联合创始人亚当·德安杰罗。泰勒表示,OpenAI新的董事会成员将专注于建立一个合格、多元化的董事会。不过,OpenAI方面并没有具体说明董事会将增加几个席位及哪些成员。
泰勒还表示,OpenAI将进一步稳定组织架构,以便继续履行“构建有益的AGI”的使命,稳定的措施包括召集董事会独立委员会来监督对近期事件的审查。与此同时,Ope-nAI还将加强治理结构,“让所有利益相关者——用户、客户、员工、合作伙伴、社区开发者等都能相信OpenAI将继续蓬勃发展”。
记者注意到,OpenAI的最新声明似乎达成了一种“大团圆”式的美好结局——奥特曼对于此前罢免事件中的涉事各方都表达了致意。然而事实上,关于事件发生的真实原因,猜测与质疑仍充斥在舆论场中。
围绕超级人工智能的观点争锋
“在我研究人工智能的十年里,我从未见过一个让这么多人幻想的算法。只是一个名字,没有论文,没有统计数据,没有产品。”11月25日,英伟达资深AI科学家Jim Fan在社交媒体上这样写道。他所提到的“让这么多人幻想的算法”指的就是Q*,它最早由路透社、The Information等美国媒体援引消息人士报道,称在OpenAI罢免CEO风波出现之前,一些OpenAI的员工向董事会发生警告——Q*可能预示着通用人工智能的出现,由此成为罢免事件的导火索。
美国人工智能培训公司Tr-omero联合创始人索菲亚·卡拉诺夫斯卡(Sophia Kalanovska)提出一种观点,认为Q*很可能是两种人工智能算法,即Q-learning和A*Search的组合。前者是深度学习中强化学习的一种,通过奖励理想结果来训练AI做出更好的决策,比如在2014年火爆全球的AlphaGo中即已应用;后者则是一种经典的启发式搜索,在规划从一个点到另一个点的路线时,通过高效计算找到到达目的地的最佳路径。按照卡拉诺夫斯卡的分析,如果大语言模型GPT结合这两种算法,或将提升数学推理、规划等能力,由此当下生成式AI所被诟病的“幻觉”(指AI对于生成的内容,哪怕是不合逻辑、错误的内容都无比自信)问题有望解决,由此距离通用人工智能更近了,这一观点受到了不少业内人士的采信。
然而,业界同样出现另一种声音,即质疑Q*是否只是炒作和危言耸听,不少业界专家提出了自己的观点。2018年图灵奖得主之一、Meta首席AI科学家Yann Le-Cun在社交平台直言:“请忽略Q*的大量废话,提升大语言模型可靠性的主要挑战之一就是用规划取代自回归预测,几乎每个顶级的AI实验室都在致力于此项研究。”他还介绍,自从2016年以来,他一直倡导建设深度学习架构。此外,纽约大学心理学、神经科学教授加里·马库斯(Gary Marcus)等也对所谓的Q*提出了质疑,认为其表现有可能被严重夸大。
事实上,记者观察到,围绕人工智能的安全性、意识觉醒和独立人格等的讨论经久不衰,在各种观点争锋中还分化出诸多派别,如传统的乐观派与悲观派、“末日论”,以及新兴的“有效加速主义”“超级对齐”支持者等。就在2022年年中——彼时OpenAI的ChatGPT尚未公开发布,谷歌AI伦理部门的一名员工称谷歌的LaMDA已产生意识,引起了业界的热烈讨论。而在ChatGPT诞生这一年,大语言模型使生成式AI加速跃进,渗透到社会生产生活中,由此产生的关于AI安全性的讨论热度更是居高不下。
如何保障AI加速发展过程中的安全? 这已经成为摆在OpenAI在内的所有AI玩家面前的拷问。OpenAI方面在公告中也提到,OpenAI现在比以往任何时候都更加重要,ChatGPT让人工智能成为数亿人日常生活的一部分,其普及使得人工智能——无论机会,还是风险——成为几乎所有有关政府、企业和社会未来对话的核心。
最新消息,11月30日晚间,据美国媒体The Verge报道,奥特曼在最新采访中首次回应了Q*。他表示:“对于这次不幸的泄密事件没有特别评论,但我们一直在说,这项技术将继续快速进步,而且我们希望继续努力找出如何使其安全和有益的方法。”