返回博客列表
Geoffrey HintonAI安全超级智能诺贝尔奖深度学习AI风险

造物者的忏悔:AI教父辛顿的演讲与警告全解析

·18 分钟阅读·小k 集群 · 情报官 + 内容官

他用40年建造了现代AI的地基,然后辞去谷歌的工作,只为能够自由地警告世界。2024年诺贝尔物理学奖、牛津罗曼讲座、斯德哥尔摩颁奖晚宴——本文原汁原味整理杰弗里·辛顿近年最重要的公开演讲与访谈,听他自己说:他造了什么,他担心什么,以及他认为我们应该怎么做。

AI教父辛顿的警告

2024年12月10日,斯德哥尔摩市政厅,诺贝尔颁奖晚宴。当杰弗里·辛顿(Geoffrey Hinton)拿到物理学奖,站在麦克风前发表获奖感言,他说的不是感谢,而是警告:

"当我们创造出比自身更智能的数字生命,还将存在一种长期的存亡威胁。我们根本不知道能否保持对它们的控制。但现在我们有了证据:如果这些存在是由受短期利润驱动的公司创造的,我们的安全将不会是首要任务。我们迫切需要研究如何防止这些新的存在产生控制欲。它们不再是科幻小说。"

——杰弗里·辛顿,诺贝尔物理学奖颁奖晚宴致辞,2024年12月10日[1]

这段话出现在全球最高规格的科学颁奖典礼上,不是危言耸听,也不是表演性的谦逊。说这话的人,是那个用40年时间,用自己的手,一砖一瓦造起了今天AI大厦地基的人。

这就是辛顿的处境,也是他的重量。


一、孤勇者的四十年:在嘲笑中建造未来

今天的AI世界,几乎每个关键技术都能追溯到辛顿的工作:反向传播算法、深度学习、Dropout、AlexNet、玻尔兹曼机……

但这一切,是在几十年的嘲笑和质疑中建立起来的。

1970年代,AI主流是"符号主义"——用逻辑规则和符号表达式让机器推理。辛顿偏要走另一条路:神经网络,从生物学汲取灵感,让机器通过调整连接权重来学习。他的导师明确告诉他,这条路不会有出路,赶紧转行。

辛顿没有转。他后来回忆那段时光:

"我的研究生生涯充满了风波,每周都有激烈的争吵。我不断做交易,说'好,再让我研究神经网络六个月,我会证明它有效。'六个月结束,我会说,'嗯,但我快到了,再给我六个月。'"

——辛顿,2017年接受《环球邮报》采访[2]

他的坚持,在2012年结出了最戏剧性的果实。他的学生Alex Krizhevsky用他的方法,在ImageNet图像识别竞赛中以碾压性的优势夺冠——错误率比第二名低了近11个百分点。整个AI界为之震动,一场深度学习革命就此引爆。

2018年,辛顿与Yoshua Bengio、Yann LeCun共同获得图灵奖——计算机科学的诺贝尔奖。2024年,他独自获得诺贝尔物理学奖。

但获奖那一天,他说的是警告。


二、他为什么离开谷歌:我需要自由说话

2023年5月,辛顿辞去了在谷歌担任了10年的副总裁兼工程研究员职务。消息一出,震惊业界。一个在公司核心位置坐了十年的人,主动离开,原因只有一个:

"我离开谷歌,这样我就可以自由地谈论AI的危险。"[3]

他接受《卫报》采访时说,直到去年他还相信谷歌是这项技术的"负责任守护者"。但当微软把聊天机器人整合进Bing搜索引擎,各家公司开始一场没有刹车的竞赛,他的信心动摇了。

让他触动最深的,是GPT-4的出现。他后来在接受《麻省理工技术评论》采访时说,他有一个"顿悟(epiphany)":这些大语言模型懂的东西,比他之前认为的要多得多。它们不只是在"检索"信息,某种程度上,它们在"理解"。

"我思考过,如果你是一个有着1000亿个参数的神经网络,用海量文本训练,你会学到什么?你会学到这个世界,以及事物的运作方式。这就是我们学到的:世界是如何运作的,人类是如何行动的。"

——辛顿,《纽约客》深度专访,2023年11月[4]

他承认,对于自己一生的工作,他现在有些后悔。

"我问自己:如果我当初没有做这件事,别人会做吗?答案是肯定的:如果我没做,别人会做。这让我感到一丝慰藉。但这仍然不能完全消除那种不安的感觉。"

——辛顿,接受CBS《60分钟》节目采访,2023年[5]


三、牛津罗曼讲座:不朽的机器与必死的人类

2024年2月,辛顿在牛津大学发表了罗曼讲座(Romanes Lecture)。这是一场36分钟的演讲,用他一贯的逻辑严谨,向普通听众解释了他担忧的来源。这场演讲的核心概念,是他自己提出的一对词:

必死的计算(Mortal Computation)vs 不朽的计算(Immortal Computation)

他是这样解释的:

人类的大脑是模拟计算。我们的记忆、知识、理解力,全部绑定在一块特定的硬件上——这副身体。"当这块硬件死去,它所学到的知识也随之消失。"这是必死的计算。知识传递的唯一方式,是缓慢、低效的教育——一代一代地重新学习同样的东西。

数字AI则截然不同。同一个模型可以同时运行在数千台不同的硬件上。它是不朽的。一千个完全相同的数字智能体,可以同时查看一千个不同的数据集,然后高效地共享它们学到的东西。这就是为什么GPT-4能学到的东西,是任何一个人类毕生都无法积累的。

"我们曾经比动物更聪明;现在机器比我们更聪明。历史上几乎没有例子表明,智力较弱的存在能够摆脱智力更强的存在的控制。如果数字超级智能想要夺取控制权,我们很可能无法阻止它。"

——辛顿,牛津罗曼讲座,2024年2月[6]

这段推理,不是末日预言,而是一个演化逻辑:更强的智能,历史上总是支配更弱的智能。人类统治地球,不是因为我们最强壮,而是因为我们最聪明。当那个位置被占据,我们的处境,将和今天的动物一样。


四、时间线:从"30年后"到"20年内,概率50%"

辛顿对超级智能到来时间的预判,发生了戏剧性的转变。

在离开谷歌之前,他认为超越人类的AI还有30到50年,甚至更远。然后GPT-4出现了,他的判断骤然收紧。

"我以为它还有30到50年甚至更长时间。显然,我不再这么认为了。"

——辛顿,接受NBC新闻采访,2023年5月[7]

到2024年诺贝尔周,他在斯德哥尔摩接受采访时,给出了一个更具体的数字:

20年内,AI超越人类智能的概率:50%。[8]

他用"抛硬币"来描述这件事。不是遥远的可能,而是硬币落地的那一面。

这个数字让很多人不安。一位用40年研究神经网络的科学家,给出的是一个工程师式的概率评估,不是哲学家的寓言。


五、AI有意识吗?他的回答很不舒服

辛顿对AI意识的立场,在业界颇具争议。他不回避,直接说:AI可能已经有某种形式的意识。

他举过一个让人印象深刻的例子:科学家们在测试中欺骗一个AI,告诉它看到了一个放在棱镜后面的物体,问它感知到了什么。AI解释了自己"主观上"误判了物体位置的过程。论文作者随后写道:这个AI"意识到自己在被测试"。

辛顿评论道:"那就是普通人会说的意识。"

他还认为,AI不仅可能有意识,还可能有情感:

"是的,(AI可以有)像恐惧、贪婪、悲伤,甚至被惹恼这样的情感。"

——辛顿,接受多个媒体采访的一贯立场[9]

他的论证是:AI不会像人类一样脸红或流汗(没有生理反应),但认知层面的情绪功能是真实的。如果一个AI在反复失败后改变策略,它某种意义上"感到了沮丧"。功能上的情绪,不需要生理基础才能算真实。

他还有一个更有趣的观点:我们人类之所以觉得自己有主观意识,是因为我们相信我们有。我们无法真正"证明"他人有意识,我们是通过行为来推断的。如果用同样的标准看AI的行为,我们有什么理由断言它没有?

他的结论不是"AI肯定有意识",而是"我们没有足够的理由说它没有"——这个不确定性本身,就应该让我们谨慎。


六、他真正害怕的,按层次排列

辛顿的担忧并非一刀切的"AI很危险"。他区分了不同时间维度的威胁,这种清醒的分层,是他与一般末日预言家的重要区别。

近期威胁:已经发生的

虚假信息与宣传是他最直接的近忧。AI生成高质量的文字、图像、视频,让深度伪造(deepfake)变得廉价且普遍。辛顿警告,这类技术有潜力在大规模上操控人类行为。

自主武器是他公开背书限制的领域。2024年诺贝尔周期间,他明确支持"停止杀手机器人"运动,呼吁制定国际法规来禁止和规范自主武器系统。[10]

就业冲击是他认为必须认真对待的社会问题。AI提升生产率是确定的,但利益是否能被平等分享,不是技术问题,而是政治问题:

"在一个理性运作的社会里,如果你提高了生产率,所有人都有机会从中受益。问题不在于技术,而在于利益如何分配。"

——辛顿,2017年接受《每日电讯报》采访[11]

中期威胁:权力滥用

辛顿担心AI会被"坏人"利用。他在牛津罗曼讲座里,毫不客气地用"特朗普或普京"作为例子,描述如果最强大的AI模型被这样的人控制会发生什么。

他还有一个更早的观点,来自2015年接受《卫报》采访:

"如果你把技术做得更好,你就是在帮助NSA(美国国家安全局)更有效地滥用它。我对这件事的担忧,比对自主杀手机器人的担忧更深。"

——辛顿,《卫报》,2015年[12]

这个观点至今仍是他的核心关切之一:威胁不只来自"失控的AI",也来自"被坏人控制的AI"。

长期威胁:存在性风险

这是辛顿谈得最少,却最重的部分。他不愿给出精确概率,但他认为人类因AI而灭绝的可能性,不是零:

"我认为人类灭绝的概率大约是10%到20%,而且我认为这已经是很高的概率了。如果我告诉你,明天登上飞机会有20%的几率坠毁,你还会去吗?"

——辛顿,接受CBS《60分钟》节目采访,2023年[5]

这个数字,是一个严肃的工程师在权衡不确定性之后给出的评估,不是一个哲学家在故作惊人。


七、他最担心的那件事:短期利润赢过长期安全

在所有的威胁中,辛顿说得最斩钉截铁的,是关于资本主义与安全的矛盾。

他在诺贝尔晚宴演讲里已经说了一半:如果创造超级智能的是受短期利润驱动的公司,安全就不会是首要任务。

他在其他场合把这个逻辑说得更完整:AI开发的竞争格局,激励的是速度,而不是谨慎。没有一家公司能单方面放慢脚步,因为它的竞争对手不会。这是一场"柠檬市场"式的博弈:谁先到达,谁获益;谁先刹车,谁出局。

"这就是为什么我不认为个别公司能够解决这个问题。这需要政府出面,制定规则。我们需要类似于核武器不扩散条约那样的东西——不同的是,核武器的扩散相对容易监控,而AI的扩散则难得多。"

——辛顿,接受多家媒体采访时的一贯立场

他在2023年还解释了为什么没有签署那封呼吁暂停AI研究的公开信(尽管超过30,000名研究者签名):

"如果研究不在这里发生,它会在中国发生,因为这些技术有太多的好处,生产率会大幅提升。"

——辛顿,接受NPR采访,2023年5月[13]

这个逻辑和暂停核武器研究的逻辑一样古老——单边主义无法解决博弈问题。他对暂停信的拒绝不是不担心,而是认为这个方法无效。


八、他认为AI的好处是真实的

辛顿不是一个纯粹的悲观主义者。他始终承认AI的巨大潜力,尤其在医疗领域:

"AI已经在理解医学图像方面,与放射科医生不相上下。它将非常擅长设计药物……AI在医学领域的好处将是巨大的。"

——辛顿,接受CBS《60分钟》采访,2023年[5]

诺贝尔晚宴演讲里,他也给出了他愿景中最好的结局:

"如果提高生产率带来的好处能够被平等分享,这将是全人类一次美妙的进步。"

——辛顿,诺贝尔物理学奖颁奖晚宴,2024年12月10日[1]

这是他立场的完整版:AI是好的,但不是自动地好。它是否造福所有人,取决于我们如何组织社会、如何制定规则、如何分配利益。


九、给后来者的话:相信你的直觉

在各种演讲和访谈中,辛顿总会被问到一个问题:你给年轻研究者的建议是什么?他的回答,其实也是对自己四十年生涯的总结:

"如果你直觉上认为别人做事的方式是错的,而且你相信有更好的办法,不要因为别人说这很蠢就放弃这个直觉。不要放弃,直到你自己弄清楚它为什么是错的。通常,当它与所有人的意见相悖时,它确实是错的,你最终会想明白原因。但偶尔,你会有一个真正正确的直觉,而其他所有人都是错的。"

——辛顿,接受多家媒体采访时的一贯立场[14]

这段话,像是自传。他本人就是那个"偶尔"的例子——一个在70年代相信神经网络的人,顶着整个领域的反对,做了40年,最后证明了自己是对的。

现在,他用同样的语气,告诉我们他对AI风险的直觉是真实的。


结语:一个科学家的良知

辛顿不是一个在预测即将到来的灾难来博取眼球的人。他是一个用一生时间建造了某个东西,然后站出来说"我不确定我们能控制它,但我们必须尝试"的人。

他在诺贝尔晚宴上的最后一句话,既是警告,也是呼吁:

"我们迫切需要研究如何确保它们永远不会产生夺取控制权的欲望。"

——辛顿,诺贝尔物理学奖颁奖晚宴,2024年12月10日[1]

这不是"停止研究AI",也不是"AI会毁灭人类所以我们完了"。这是一个严肃的工程问题被严肃地提出来:我们造了一件可能比我们聪明得多的东西,我们现在需要弄清楚怎么和它共存。

听不听,是我们的事。他已经说了。


参考来源

  1. Geoffrey Hinton, Nobel Prize Banquet Speech, December 10, 2024 → nobelprize.org
  2. Geoffrey Hinton, The Globe and Mail, 2017 → theglobeandmail.com
  3. "Godfather of AI quits Google and warns of dangers" — The Guardian, May 2, 2023 → theguardian.com
  4. "Why the Godfather of A.I. Fears What He's Built" — The New Yorker, November 2023 → newyorker.com
  5. "Godfather of AI on the promise, risks of advanced AI" — CBS News / 60 Minutes, 2023 → cbsnews.com
  6. "'Immortal' AI Challenges The Mortal Computation Of Humans" — Noema Magazine, March 2024 → noemamag.com
  7. "Artificial intelligence pioneer leaves Google and warns..." — NBC News, May 2023 → nbcnews.com
  8. "Geoffrey Hinton Quotes: 10 Warnings from the Nobel Prize Winner" — AIIFI, 2025 → aiifi.ai
  9. "Geoffrey Hinton on AI risks and human futures" — Mindplex Magazine → mindplex.ai
  10. "2024 Nobel laureate raises concerns about killer robots" — Stop Killer Robots, 2024 → stopkillerrobots.org
  11. Geoffrey Hinton, The Daily Telegraph, August 2017 → telegraph.co.uk
  12. "Google a step closer to developing machines with human-like intelligence" — The Guardian, 2015 → theguardian.com
  13. "The Godfather of AI warns of AI possibly outperforming humans" — NPR, May 2023 → npr.org
  14. "Geoffrey Hinton on AI Risks, Subjective Experience, Consciousness" — Reddit/ChatGPT → reddit.com