LOADING STUFF...

马库斯炮轰奥特曼:AI 造福的“全人类”里包括被窃取数据训练模型的创作者吗?

AI资讯2个月前发布 shuangyan
0 0

作者 | Gary Marcus

原文 | https://garymarcus.substack.com/p/the-sam-altman-playbook

整理 | 王启隆

出品 | 《新程序员》编辑部

今年三月的时候,美国知名 AI 学者、纽约大学名誉教授加里·马库斯(Gary F. Marcus)曾经发布了一篇雄文《深度学习正在碰壁:人工智能要取得真正的进步需要什么?》,抨击深度学习的种种问题,表示实现 AGI 需要一次范式转变,大模型现在更多的是炒作。

马库斯炮轰奥特曼:AI 造福的“全人类”里包括被窃取数据训练模型的创作者吗?

这才两个月不到,深度学习的地基——多层感知器(MLP, Multilayer Perceptron)还真就受到了重大挑战,近日发布的 全新神经网络架构 KAN 似乎验证了马库斯的预言,让他本就争议性满满的这篇文章更具话题性。

作为这场 AI 浪潮最强势的反对者和批评者之一,此前马库斯还在 X 上和埃隆·马斯克(Elon Musk)打赌:“我用 100 万美元,赌你的最新预测——‘到 2025 年底,人工智能将比人类任何个体都更聪明’——是错误的。” 这场赌约后面还被投资者兼 ingk.com 首席执行官 Damion Hankejh “火上浇油”,将赌注升级至 1000 万美元。

马库斯炮轰奥特曼:AI 造福的“全人类”里包括被窃取数据训练模型的创作者吗?

马库斯的炮火从未停歇。近日,OpenAI CEO 萨姆·奥特曼(Sam Altman)参加了美国斯坦福大学的企业思想领袖讲坛(Entrepreneurial Thought Leaders Lecture),再度就 GPT-4、GPT-5 和 AGI 等话题发表了看法。这次演讲的观点和此前 Altman 接受知名播客 Lex Fridman 的采访 相差无几,但却引起了马库斯的“怒火”。

马库斯炮轰奥特曼:AI 造福的“全人类”里包括被窃取数据训练模型的创作者吗?

5 月 5 日,马库斯在自己 substack 的频道“马库斯谈人工智能”(Marcus on AI)发布了最新文章《Sam Altman 的剧本:恐惧、否认不确定性与炒作》(The Sam Altman Playbook: Fear, The Denial of Uncertainties, and Hype)。这次马库斯措辞极为严厉,攻击性很强,字里行间对 Altman 在公众媒体的“话术”进行批判;文章还引起了 HackerNews 的激烈讨论:

马库斯炮轰奥特曼:AI 造福的“全人类”里包括被窃取数据训练模型的创作者吗?

马库斯炮轰奥特曼:AI 造福的“全人类”里包括被窃取数据训练模型的创作者吗?

用户 mindwok 评论道,尽管他也对 Sam Altman 持怀疑态度,但马库斯的批评显然有些过激。

马库斯炮轰奥特曼:AI 造福的“全人类”里包括被窃取数据训练模型的创作者吗?

用户 godelski 表示,自己也觉得马库斯如今变得越来越极端,虽然起初有些合理的批评,但后来逐渐偏离轨道。

马库斯炮轰奥特曼:AI 造福的“全人类”里包括被窃取数据训练模型的创作者吗?

用户 motbus3 则表达了对 Altman 的不满,认为他的某些言论不负责任且带有边缘性欺诈性质,特别是将 OpenAI 转变为不发布模型的营利组织,并终止了对 OpenGym 等开源项目的支持,认为这种行为不诚实且可能触及法律边界。

……

读者争论不断,那么这篇文章究竟写了什么样的内容呢?我们整理了全文翻译,部分内容做删改,如下:

马库斯炮轰奥特曼:AI 造福的“全人类”里包括被窃取数据训练模型的创作者吗?

“假设”还是“吹牛”?

如何向世界证明你的创意和业务最终可能价值 7 万亿美元?

  • 展示自己卓越的成就;

  • 无限的畅想潜力;

  • 对那些不便明言的真轻描淡写、避而不谈

Sam Altman 如今正穿梭于各大城市,走访世界顶尖学府,日复一日地为筹措资金和抬升估值奔走。今年,除了对 GPT-4 进行了一次小升级之外,他并没有推出新产品,因此他正在做的是销售愿景和承诺

让我们从他的承诺开始说起。几天前,Sam 在斯坦福公开承诺,无论造价多少,通用人工智能(AGI)终将物有所值:

马库斯炮轰奥特曼:AI 造福的“全人类”里包括被窃取数据训练模型的创作者吗?

① 尽管当前大模型存在关于可靠性、推理、规划和幻觉的巨大已知问题;② 尽管整个 AI 领域资本雄厚,却在这一整年(实际上是几十年来)对这些难题仍束手无策;Altman 仍在这次斯坦福演讲中毫无保留地大胆宣称:“我们正在创造 AGI”。

无论 GenAI 最终是否能成为 AGI(这一点仍然是个未知数),按任何合理的标准来看,我们都还有很长的路要走——但如果听信 Sam 这样的声明,你将永远不会了解到这一点。(他当然也没有谈论最终是否由 OpenAI 或是其他人将达到 AGI,更没有提到我们将在哪个十年达到 AGI

除了斯坦福的演讲,Altman 最近还在与麻省理工学院的《Technology Review》进行的采访中声称:“AGI Agent(通用人工智能代理)即将到来且他仍未提供任何迹象表明那些人工智能历史难题即将迎刃而解):

马库斯炮轰奥特曼:AI 造福的“全人类”里包括被窃取数据训练模型的创作者吗?

他还暗示以后会推出一种超级秘书助手(且完全忽视了人工智能秘书涉及隐私、监视和安全性的重大问题):

马库斯炮轰奥特曼:AI 造福的“全人类”里包括被窃取数据训练模型的创作者吗?

他的这些“假设”从未被质疑过,而针对他的反对观点也从未被考虑过。(当有人问他是否愿意在达沃斯与我辩论时,他礼貌地拒绝了

自信也是 Sam Altman 作秀中的一个重要组成部分。在斯坦福,他言之凿凿:“我认为在未来的很多年里,我们每年都会拥有明显更有能力的系统”,仿佛此事板上钉钉,但事实并非如此。

在过去的十四个月里,我们并没有看到 OpenAI 的明显进步 —— 这已经是对他乐观预期的反证 —— 而且人们越来越担心是否有足够高质量的数据来维持 GPT 先前的进步,以及关于幻觉、推理、规划、异常值和可靠性的基本问题。

Sam 对此只字不提

Altman 的演讲背后常暗含一种假设:“没有 AI,我们将陷入困境”。

正如 Geoffrey Miller 在 X 上所指出的那样:Altman 的潜台词往往是“我们需要 AGI 来解决衰老问题并发现长寿疗法,所以如果你不支持我们,你会死的。也就是所谓一个巴掌一个糖:长寿是糖,死亡是 Altman 的巴掌。

为了让这一切显得可信,Sam 运用了一个独特组合:独特的个人魅力 + 温和的个人谦逊 + 对离奇言论的绝对自信。他装作自己是个很好的人,同时不切实际地暗示着解决 AGI 的方案在他的掌握之中;他没有提供证据证明这一点,并且很少考虑已经提出的对当前方法的许多批评(最好是假装它们不存在)。他看起来是如此友善,所以反驳他似乎就显得不得体了。伸手不打笑脸人

荒谬、傲慢的言论,往往以“救世主”的口吻亲切、温和、安静的方式提出——但从不被怀疑地审视。这就是 Sam Altman 的作风。

请对这些陈述背后的基本假设保持警惕。

 

马库斯炮轰奥特曼:AI 造福的“全人类”里包括被窃取数据训练模型的创作者吗?

“真实”还是“演技”?

接下来谈谈 Altman 的另一种“表达技巧”:给听众打预防针,含糊地承认自己对人工智能风险的担忧,但并不深入探讨。

马库斯炮轰奥特曼:AI 造福的“全人类”里包括被窃取数据训练模型的创作者吗?

通过科技实现丰饶——不论是智能、能源、长寿——并不能解决所有问题,也无法奇迹般地让所有人幸福。

然而,这无疑是一件伟大的事情,它拓展了我们的选择空间。在我个人看来,这就像是一种道义上的责任。

……

近期我走访大学过程中最令人诧异的发现是:这一观点在某些群体中引发了意想不到的争议。

在上面这则推文里,Altman 承认了 AI 并不是万能的,但却完全没有承认与 AI 相关的风险他非常清楚这些风险的存在)他使自己免受批评,认为重大问题(贫困、气候科学)不仅仅是技术问题,但却没有采取任何措施来解决这些问题,并且完全忽视了技术可能带来的环境成本卷算力对电力的浪费,对环境、物种等的影响

这则推文中连一个让人警醒的大写字母都没有,温和地像一个普通人在分享他的想法

马库斯炮轰奥特曼:AI 造福的“全人类”里包括被窃取数据训练模型的创作者吗?

近期我走访大学过程中最令人诧异的发现是:这一观点在某些群体中引发了意想不到的争议

他在后面的跟帖里“装懵”,仿佛自己承认批评的存在(正如前文所述,这是在“打预防针”),事实上却未列举任何可能的批评(他可能内心在想:怎么会有人不赞同我的观点呢?)——仿佛这些批评愚蠢至极,不值一驳,且令他大感意外。

这些批评一点都不蠢。Altman 完全意识到(人工智能)存在很多潜在的风险,却选择了无视,选择歌颂人工智能“毋庸置疑的伟大” —— 那为什么不去问问那些被深度伪造技术欺骗的受害者,问问他们这项技术伟不伟大?他们或许因失业潮感到忧虑,或许丧失了幸福感,或许忧虑 AI 工具被恶意滥用,正如 OpenAI 自己在长达 60 页的 GPT-4 系统说明书中详述的那样。Sam 本人也曾向美国参议院表示,AI 可能“给世界带来重大伤害”,且存在巨大的潜在环境代价。

所以 Altman 在推文里装作“感到诧异”是彻头彻尾的演技。他并不是不知道人工智能有潜在的不利因素(甚至是巨大的不利因素),他只是暂时压抑自己的担忧,以便兜售一个故事

人们可能还会想知道 AI 是否真的能赚钱或者延年益寿,想知道生成式人工智能(这是 OpenAI 唯一擅长的人工智能形式)是否会在这些进步中发挥实质性作用。正如《Writing Hacks》的简-罗森茨韦格(Jane Rosenzweig)今早对我说的那样:”Altman 是一个有可能让整个行业失业的人,他轻描淡写地表示自己正在做的事情是这个世界一直想要的,然后对任何人的质疑都表现得很惊讶。从某种意义上说,这真的很了不起。

这不是 Rosenzweig 第一次对 Altman 的言论表示异议了。以下是她喜欢在写作课程上剖析的经典发言,再次展示了 Altman 那看似引人入胜的修辞手法是如何避开反论并忽视其他视角的注释由她本人提供):

马库斯炮轰奥特曼:AI 造福的“全人类”里包括被窃取数据训练模型的创作者吗?

 

马库斯炮轰奥特曼:AI 造福的“全人类”里包括被窃取数据训练模型的创作者吗?

“挂羊头卖狗肉”

OpenAI 承诺服务全人类..……但实际上他们只卖聊天机器人。

马库斯炮轰奥特曼:AI 造福的“全人类”里包括被窃取数据训练模型的创作者吗?

慈善工作充其量只是这家公司整体运作的一小部分,他们最初的几百亿利润(如果有的话)中约有一半将流向微软。艺术家、作家和出版商们日复一日地被压榨此处指 GPT 的训练数据来源,他们的作品未经补偿或同意就被使用。创作者也是“全人类”的一部分。到目前为止,OpenAI 给这一群体带来的利益并没有拿走的利益多

关于 GenAI 与 AGI 的“卖羊头挂狗肉”也存在。正如戴夫·特洛伊(Dave Troy)在 X 上所说的那样,知道如何构建更好(或至少更大)的 GenAI 并不一定会让我们达到 AGI:“Altman 断言「AGI」不仅是可以实现的,而且只是资金投入的函数,这显然是个逻辑谬误。而他的重复声明只会让意志薄弱者/忠实信徒更加坚信这一点。

最后再谈谈 Sam 的经典言论:“人工智能可以创造财富,并提高全民的基本收入(UBI)”。如果他真的相信全民皆应享有基本收入,那他为什么对艺术家、作家等创作者用于训练的数据分文不给?他们中的许多人甚至失去了工作机会,一无所获。

Altman 那些极度猜测性、假设未经质疑、“我们做的一切都为人类服务”的姿态并非首次出现。其中的许多手法似曾相识于埃隆·马斯克(Elon Musk)的频繁夸大其词。几乎所有 AI 公司都是遵循同一剧本,就是少了些风采。

 

马库斯炮轰奥特曼:AI 造福的“全人类”里包括被窃取数据训练模型的创作者吗?

“兜售希望的救世主”

正如 Sigal Samuel 所指出的那样,关于 AI 的极致主张与关于宗教的极致主张之间,如今存在着一种惊人的相似性:

1. 在我们所知的生命结束之前,我们可能没有多少时间了;

2. 因此,我们需要在能够拯救我们的东西上下注;

3. 既然赌注如此之大,我们就应该挺身而出,全力以赴

马库斯炮轰奥特曼:AI 造福的“全人类”里包括被窃取数据训练模型的创作者吗?

有些时候,Altman 甚至退回到神秘而不可证伪的领域:

马库斯炮轰奥特曼:AI 造福的“全人类”里包括被窃取数据训练模型的创作者吗?

问:“从事人工智能这么久,你对人类有何新认识?” 

Sam Altman:“我早年默认将智慧视作一项极其独特且近乎神秘的人类特质。而今,我却认为它是物质的基本属性之一……这一观点颇为引人深思。随着科学探索的层层深入,我们似乎确实在远离宇宙中“主角光环”的角色定位。然而,即便我们的智慧并非独一无二,人类存在的深刻意义仍然需要我们去维护和珍视。

物质的基本属性?难道石头也有智慧吗?Sam 的许多言论初听之下引人入胜,细思之下却疑窦丛生。一如既往,不利于他的反驳都被忽视了,现实扭曲的光波被设定为震慑级别。(编者注:此处马库斯是在玩《星际迷航》的梗,意思是 Altman 在推销自己的理念时能够引导听众忽略不切实际之处

谈及科幻,一旦其他招数不奏效,借用《太空堡垒卡拉狄加》(该桥段实质上取自《彼得潘》)中的台词总是可行的:

马库斯炮轰奥特曼:AI 造福的“全人类”里包括被窃取数据训练模型的创作者吗?

“过去发生过的事,也将会再次发生。”

意味深长。

Altman 经年累月地浸淫此道,巧妙融合了神秘主义、末日预警、投机性的赞美与温和谦逊的仪态,一面自我防护于巨大忧虑之外,一面暗示着未来的巨大财富:

马库斯炮轰奥特曼:AI 造福的“全人类”里包括被窃取数据训练模型的创作者吗?

Sam 拿在手里的牌并没有他展现的那般强大。

在过去的一年中,OpenAI 没有发布 GPT-4 的重大更新,许多竞争对手已经迎头赶上。竞争对手正在侵蚀初期的质量差距,并开始提供类似的产品,有些产品的价格甚至更低。Meta 可能会在几个月内发布一个 GPT-4 级别的模型 —— 并且免费。

我们还没有看到 OpenAI 除了早期用户以外的护城河,并且该公司目前面临来自多个出版商、艺术家、作家的大量版权诉讼尚待解决。如果 OpenAI 在法庭上输了其中一个案件,并且针对版权材料的数据训练的先例被确立,整个 AI 行业可能会陷入危险之中

到目前为止,OpenAI 还没有净利润。正如上文所述,如果这家公司有利润的话,很长一段时间大约一半的利润都必须按照合同约定与微软分享。训练 GPT-4 是昂贵的,训练 GPT-5 可能要贵一个数量级。ChatGPT 的用户量在 2023 年 5 月之前如火箭般飙升,但自此之后基本稳定,没有显著增长。Altman 自己最近承认 GPT-4 “很糟糕”。

OpenAI 尚未演示过任何运行稳定且可靠的 Agent(智能体),到目前为止也没有曝光 GPT-5 级别的模型。谷歌 DeepMind、Anthropic、Meta 或其他公司极有可能捷足先登。

Altman 推销的并不是新产品,而是希望。

为什么要关心这些?因为机会成本。

Altman 试图为一种漏洞百出的方法攫取大量资源,间接剥夺了那些可能更可信、可靠、可解读的 AI 另类途径所需的资源。这可能会产生巨大的环境成本,并分散了资本用于更高效服务人类的其他途径。

相信 Altman 说法的人会继续投资。但最终,Altman 的历史地位将取决于他是否兑现了自己的承诺

马库斯炮轰奥特曼:AI 造福的“全人类”里包括被窃取数据训练模型的创作者吗?

马库斯炮轰奥特曼:AI 造福的“全人类”里包括被窃取数据训练模型的创作者吗?

© 版权声明

相关文章