作者 | Gary Marcus
原文 | https://garymarcus.substack.com/p/the-sam-altman-playbook
整理 | 王启隆
出品 | 《新程序员》编辑部
今年三月的时候,美国知名 AI 学者、纽约大学名誉教授加里·马库斯(Gary F. Marcus)曾经发布了一篇雄文《深度学习正在碰壁:人工智能要取得真正的进步需要什么?》,抨击深度学习的种种问题,表示实现 AGI 需要一次范式转变,大模型现在更多的是炒作。
这才两个月不到,深度学习的地基——多层感知器(MLP, Multilayer Perceptron)还真就受到了重大挑战,近日发布的 全新神经网络架构 KAN 似乎验证了马库斯的预言,让他本就争议性满满的这篇文章更具话题性。
作为这场 AI 浪潮最强势的反对者和批评者之一,此前马库斯还在 X 上和埃隆·马斯克(Elon Musk)打赌:“我用 100 万美元,赌你的最新预测——‘到 2025 年底,人工智能将比人类任何个体都更聪明’——是错误的。” 这场赌约后面还被投资者兼 ingk.com 首席执行官 Damion Hankejh “火上浇油”,将赌注升级至 1000 万美元。
马库斯的炮火从未停歇。近日,OpenAI CEO 萨姆·奥特曼(Sam Altman)参加了美国斯坦福大学的企业思想领袖讲坛(Entrepreneurial Thought Leaders Lecture),再度就 GPT-4、GPT-5 和 AGI 等话题发表了看法。这次演讲的观点和此前 Altman 接受知名播客 Lex Fridman 的采访 相差无几,但却引起了马库斯的“怒火”。
5 月 5 日,马库斯在自己 substack 的频道“马库斯谈人工智能”(Marcus on AI)发布了最新文章《Sam Altman 的剧本:恐惧、否认不确定性与炒作》(The Sam Altman Playbook: Fear, The Denial of Uncertainties, and Hype)。这次马库斯措辞极为严厉,攻击性很强,字里行间对 Altman 在公众媒体的“话术”进行批判;文章还引起了 HackerNews 的激烈讨论:
用户 mindwok 评论道,尽管他也对 Sam Altman 持怀疑态度,但马库斯的批评显然有些过激。
用户 godelski 表示,自己也觉得马库斯如今变得越来越极端,虽然起初有些合理的批评,但后来逐渐偏离轨道。
用户 motbus3 则表达了对 Altman 的不满,认为他的某些言论不负责任且带有边缘性欺诈性质,特别是将 OpenAI 转变为不发布模型的营利组织,并终止了对 OpenGym 等开源项目的支持,认为这种行为不诚实且可能触及法律边界。
……
读者争论不断,那么这篇文章究竟写了什么样的内容呢?我们整理了全文翻译,部分内容做删改,如下:
如何向世界证明你的创意和业务最终可能价值 7 万亿美元?
-
展示自己卓越的成就;
-
无限的畅想潜力;
-
对那些不便明言的真相轻描淡写、避而不谈。
Sam Altman 如今正穿梭于各大城市,走访世界顶尖学府,日复一日地为筹措资金和抬升估值奔走。今年,除了对 GPT-4 进行了一次小升级之外,他并没有推出新产品,因此他正在做的是销售愿景和承诺。
让我们从他的承诺开始说起。几天前,Sam 在斯坦福公开承诺,无论造价多少,通用人工智能(AGI)终将物有所值:
① 尽管当前大模型存在关于可靠性、推理、规划和幻觉的巨大已知问题;② 尽管整个 AI 领域资本雄厚,却在这一整年(实际上是几十年来)对这些难题仍束手无策;Altman 仍在这次斯坦福演讲中毫无保留地大胆宣称:“我们正在创造 AGI”。
无论 GenAI 最终是否能成为 AGI(这一点仍然是个未知数),按任何合理的标准来看,我们都还有很长的路要走——但如果听信 Sam 这样的声明,你将永远不会了解到这一点。(他当然也没有谈论最终是否由 OpenAI 或是其他人将达到 AGI,更没有提到我们将在哪个十年达到 AGI)
除了斯坦福的演讲,Altman 最近还在与麻省理工学院的《Technology Review》进行的采访中声称:“AGI Agent(通用人工智能代理)即将到来”(且他仍未提供任何迹象表明那些人工智能历史难题即将迎刃而解):
他还暗示以后会推出一种超级秘书助手(且完全忽视了人工智能秘书涉及隐私、监视和安全性的重大问题):
他的这些“假设”从未被质疑过,而针对他的反对观点也从未被考虑过。(当有人问他是否愿意在达沃斯与我辩论时,他礼貌地拒绝了)
自信也是 Sam Altman 作秀中的一个重要组成部分。在斯坦福,他言之凿凿:“我认为在未来的很多年里,我们每年都会拥有明显更有能力的系统”,仿佛此事板上钉钉,但事实并非如此。
在过去的十四个月里,我们并没有看到 OpenAI 的明显进步 —— 这已经是对他乐观预期的反证 —— 而且人们越来越担心是否有足够高质量的数据来维持 GPT 先前的进步,以及关于幻觉、推理、规划、异常值和可靠性的基本问题。
Sam 对此只字不提。
Altman 的演讲背后常暗含一种假设:“没有 AI,我们将陷入困境”。
正如 Geoffrey Miller 在 X 上所指出的那样:Altman 的潜台词往往是“我们需要 AGI 来解决衰老问题并发现长寿疗法,所以如果你不支持我们,你会死的。”也就是所谓一个巴掌一个糖:长寿是糖,死亡是 Altman 的巴掌。
为了让这一切显得可信,Sam 运用了一个独特组合:独特的个人魅力 + 温和的个人谦逊 + 对离奇言论的绝对自信。他装作自己是个很好的人,同时不切实际地暗示着解决 AGI 的方案在他的掌握之中;他没有提供证据证明这一点,并且很少考虑已经提出的对当前方法的许多批评(最好是假装它们不存在)。他看起来是如此友善,所以反驳他似乎就显得不得体了。(伸手不打笑脸人)
荒谬、傲慢的言论,往往以“救世主”的口吻亲切、温和、安静的方式提出——但从不被怀疑地审视。这就是 Sam Altman 的作风。
请对这些陈述背后的基本假设保持警惕。
接下来谈谈 Altman 的另一种“表达技巧”:给听众打预防针,含糊地承认自己对人工智能风险的担忧,但并不深入探讨。
通过科技实现丰饶——不论是智能、能源、长寿——并不能解决所有问题,也无法奇迹般地让所有人幸福。
然而,这无疑是一件伟大的事情,它拓展了我们的选择空间。在我个人看来,这就像是一种道义上的责任。
……
近期我走访大学过程中最令人诧异的发现是:这一观点在某些群体中引发了意想不到的争议。
这则推文中连一个让人警醒的大写字母都没有,温和地像一个普通人在分享他的想法。
近期我走访大学过程中最令人诧异的发现是:这一观点在某些群体中引发了意想不到的争议。
他在后面的跟帖里“装懵”,仿佛自己承认批评的存在(正如前文所述,这是在“打预防针”),事实上却未列举任何可能的批评(他可能内心在想:怎么会有人不赞同我的观点呢?)——仿佛这些批评愚蠢至极,不值一驳,且令他大感意外。
这些批评一点都不蠢。Altman 完全意识到(人工智能)存在很多潜在的风险,却选择了无视,选择歌颂人工智能“毋庸置疑的伟大” —— 那为什么不去问问那些被深度伪造技术欺骗的受害者,问问他们这项技术伟不伟大?他们或许因失业潮感到忧虑,或许丧失了幸福感,或许忧虑 AI 工具被恶意滥用,正如 OpenAI 自己在长达 60 页的 GPT-4 系统说明书中详述的那样。Sam 本人也曾向美国参议院表示,AI 可能“给世界带来重大伤害”,且存在巨大的潜在环境代价。
所以 Altman 在推文里装作“感到诧异”是彻头彻尾的演技。他并不是不知道人工智能有潜在的不利因素(甚至是巨大的不利因素),他只是暂时压抑自己的担忧,以便兜售一个故事。
人们可能还会想知道 AI 是否真的能赚钱或者延年益寿,想知道生成式人工智能(这是 OpenAI 唯一擅长的人工智能形式)是否会在这些进步中发挥实质性作用。正如《Writing Hacks》的简-罗森茨韦格(Jane Rosenzweig)今早对我说的那样:”Altman 是一个有可能让整个行业失业的人,他轻描淡写地表示自己正在做的事情是这个世界一直想要的,然后对任何人的质疑都表现得很惊讶。从某种意义上说,这真的很了不起。“
这不是 Rosenzweig 第一次对 Altman 的言论表示异议了。以下是她喜欢在写作课程上剖析的经典发言,再次展示了 Altman 那看似引人入胜的修辞手法是如何避开反论并忽视其他视角的(注释由她本人提供):
OpenAI 承诺服务全人类..……但实际上他们只卖聊天机器人。
慈善工作充其量只是这家公司整体运作的一小部分,他们最初的几百亿利润(如果有的话)中约有一半将流向微软。艺术家、作家和出版商们日复一日地被压榨(此处指 GPT 的训练数据来源),他们的作品未经补偿或同意就被使用。创作者也是“全人类”的一部分。但到目前为止,OpenAI 给这一群体带来的利益并没有拿走的利益多。
关于 GenAI 与 AGI 的“卖羊头挂狗肉”也存在。正如戴夫·特洛伊(Dave Troy)在 X 上所说的那样,知道如何构建更好(或至少更大)的 GenAI 并不一定会让我们达到 AGI:“Altman 断言「AGI」不仅是可以实现的,而且只是资金投入的函数,这显然是个逻辑谬误。而他的重复声明只会让意志薄弱者/忠实信徒更加坚信这一点。”
最后再谈谈 Sam 的经典言论:“人工智能可以创造财富,并提高全民的基本收入(UBI)”。如果他真的相信全民皆应享有基本收入,那他为什么对艺术家、作家等创作者用于训练的数据分文不给?他们中的许多人甚至失去了工作机会,一无所获。
Altman 那些极度猜测性、假设未经质疑、“我们做的一切都为人类服务”的姿态并非首次出现。其中的许多手法似曾相识于埃隆·马斯克(Elon Musk)的频繁夸大其词。几乎所有 AI 公司都是遵循同一剧本,就是少了些风采。
正如 Sigal Samuel 所指出的那样,关于 AI 的极致主张与关于宗教的极致主张之间,如今存在着一种惊人的相似性:
1. 在我们所知的生命结束之前,我们可能没有多少时间了;
2. 因此,我们需要在能够拯救我们的东西上下注;
3. 既然赌注如此之大,我们就应该挺身而出,全力以赴。
有些时候,Altman 甚至退回到神秘而不可证伪的领域:
问:“从事人工智能这么久,你对人类有何新认识?”
Sam Altman:“我早年默认将智慧视作一项极其独特且近乎神秘的人类特质。而今,我却认为它是物质的基本属性之一……这一观点颇为引人深思。随着科学探索的层层深入,我们似乎确实在远离宇宙中“主角光环”的角色定位。然而,即便我们的智慧并非独一无二,人类存在的深刻意义仍然需要我们去维护和珍视。”
谈及科幻,一旦其他招数不奏效,借用《太空堡垒卡拉狄加》(该桥段实质上取自《彼得潘》)中的台词总是可行的:
“过去发生过的事,也将会再次发生。”
Altman 经年累月地浸淫此道,巧妙融合了神秘主义、末日预警、投机性的赞美与温和谦逊的仪态,一面自我防护于巨大忧虑之外,一面暗示着未来的巨大财富:
Sam 拿在手里的牌并没有他展现的那般强大。
在过去的一年中,OpenAI 没有发布 GPT-4 的重大更新,许多竞争对手已经迎头赶上。竞争对手正在侵蚀初期的质量差距,并开始提供类似的产品,有些产品的价格甚至更低。Meta 可能会在几个月内发布一个 GPT-4 级别的模型 —— 并且免费。
我们还没有看到 OpenAI 除了早期用户以外的护城河,并且该公司目前面临来自多个出版商、艺术家、作家的大量版权诉讼尚待解决。如果 OpenAI 在法庭上输了其中一个案件,并且针对版权材料的数据训练的先例被确立,整个 AI 行业可能会陷入危险之中。
到目前为止,OpenAI 还没有净利润。正如上文所述,如果这家公司有利润的话,很长一段时间大约一半的利润都必须按照合同约定与微软分享。训练 GPT-4 是昂贵的,训练 GPT-5 可能要贵一个数量级。ChatGPT 的用户量在 2023 年 5 月之前如火箭般飙升,但自此之后基本稳定,没有显著增长。Altman 自己最近承认 GPT-4 “很糟糕”。
OpenAI 尚未演示过任何运行稳定且可靠的 Agent(智能体),到目前为止也没有曝光 GPT-5 级别的模型。谷歌 DeepMind、Anthropic、Meta 或其他公司极有可能捷足先登。
Altman 推销的并不是新产品,而是希望。
为什么要关心这些?因为机会成本。
Altman 试图为一种漏洞百出的方法攫取大量资源,间接剥夺了那些可能更可信、可靠、可解读的 AI 另类途径所需的资源。这可能会产生巨大的环境成本,并分散了资本用于更高效服务人类的其他途径。
相信 Altman 说法的人会继续投资。但最终,Altman 的历史地位将取决于他是否兑现了自己的承诺。