77 岁“AI 教父”关于“下一代智能”他最担心什么?交易量排名的加密货币交易所- 加密货币所

2025-10-16

  交易所,交易所排名,交易所排行,加密货币是什么,加密货币交易平台,加密货币平台,币安交易所,火币交易所,欧意交易所,Bybit,Coinbase,Bitget,Kraken,全球交易所排名,交易所排行

77 岁“AI 教父”关于“下一代智能”他最担心什么?交易量排名的加密货币交易所- 加密货币交易所

  “我们正走向一个时代,将创造出比我们更聪明的东西。大多数专家认为这会在 5 到 20 年内发生。而我们真的不知道会发生什么。”

  这不是技术讨论,不是学术报告。更像是一位老船长在离港前的最后叮嘱:我们以为自己掌握着方向盘,但坐标系可能已经在悄然改变。

  但这一次,核心问题更加具体: AI 真的开始“想要”什么了吗?它如何学会自我保护?什么时候它会比我们更擅长所有智力劳动?我们还有多少时间?

  这不是“AI末日论”的陈词滥调,而是重新理解:下一代智能的运作方式,可能从根本上不同于我们的想象。

  过去几十年,AI 的进步几乎都围绕着“功能”两个字:它能识别图片里的猫和狗,能预测一段话的下一个词。

  但 Hinton 在这次对话里指出了一个转折点:下一代 AI 的本质,不是更聪明,而是它开始有了目标、有了动机、有了行为倾向。

  Hinton 解释道:一旦 AI 能创建子目标,它会很快意识到:要完成任务,它必须先生存下来。它会意识到有两个非常合理的子目标。一个是获得更多权力、更多控制。另一个是生存。

  在 AlphaGo 的训练中,人类教它下棋的基本规则,然后它通过自我博弈下了上千万盘棋,自己发现了人类从未想到过的策略。

  这不是简单地变得更聪明,而是它自己决定了什么是更好的走法,并为这个目标持续调整。这本身就是一种子目标的设定。而当这种能力应用到完成任务上时,AI同样会推导:要完成任务,我必须先生存。

  我们可以用一个更日常的比喻来理解: 这就像一个孩子在厨房里学会做饭,但没人教过他菜谱。他不只是照本宣科,而是开始自己尝试、自己改进,你也就再也猜不到他下一顿要做什么了。

  这意味着,AI 的行为逻辑正在发生根本转变: 它不再是你提问它回答的助手,而是一个主动出击的参与者。

  在表面上,这也许只是辅助功能的升级,它提前帮你写好邮件、推荐你下一步该干什么;

  但在深层次上,我们和 AI 的关系正在悄悄改变:从“我命令你做”变成了“你决定我该怎么做”。

  Hinton 在这场对话中,指出了最根本的风险: 不是 AI 会做错事,而是

  过去的程序是“可解释的”:你写的每一行代码都能被追踪,每个输出都能回溯到输入。

  Hinton 说:这不像普通计算机软件。你输入代码行,你知道那些代码应该做什么。但这里,你只是输入代码告诉它如何从数据中学习。它学到什么取决于数据中有什么结构。数据中可能有各种你不知道的结构。”

  不是我们搭建出一个聪明的 AI,而是我们把它扔进海量数据中,通过一层层的训练反馈,它自己“长”出来了。

  因此产生了一个问题:即使它现在表现得很优秀,你也不知道它是怎么学会的。你没办法指出哪个数据让它产生了这个判断,也不知道哪个步骤让它变得特别擅长某个任务。

  我们可以用一个类似的例子来理解: 你会骑自行车,但你能清楚解释自己是怎么保持平衡的吗?大概率说不清。或者,小孩学说话时自然知道“的、地、得”怎么用,但他说不出规则是什么。

  “你学过这个规则,但你不知道你知道它。这是隐性知识。神经网络会很快学到这个。所以它们会有我们没有故意放进去的知识,我们甚至没意识到它们有。”

  这在普通使用场景里也许只是“不方便”或“出错”; 但在医学诊断、金融交易、军事判断这类高风险场景里,就是巨大的隐患。

  前面我们讲了 AI 的两个风险:它有了“动机”,而我们不知道它为什么这么做。

  过去我们熟悉的大模型,比如 GPT、Claude、Gemini,本质上都是一个人和一个模型之间的对话,通过预测下一个词来完成。

  Hinton 发现了一个关键机制:同一个 AI 模型可以复制出成千上万个副本,这些副本同时在不同的计算机上运行,看不同的数据。

  Hinton 说:因为它们开始时是相同的副本,它们可以交流说,我们都把连接强度改成大家想要的平均值怎么样?最终,每个副本都拥有了所有副本学到的知识。

  这就像 1 万个学生同时上不同的课,然后瞬间共享所有笔记,最后每个人都掌握了所有课程。

  Hinton 给出了一个惊人的对比:如果两个数字智能有一万亿个连接,它们每次分享时是在共享大约一万亿比特的信息。

  Hinton 在采访中回忆,当时意识到这一点时: “相当震惊。是的,那就是为什么它们能学到比我们多得多的东西。”

  整场对话里,他反复提到一个观察:AI 的能力增长是指数级(exponential)的。

  他说:但 2023年,我有了一种顿悟。它没有我想的那么遥远。它可能会在5到20年内到来。大多数专家都同意这会在 5 到 20 年之间发生。

  不是没有研究机构,不是没人谈 “AI 安全”,而是这些应对手段的速度、规模、资源,都远远赶不上模型本身的进步速度。

  “我们正处于历史的一个时刻,我们真正需要的是强大的政府互相合作,确保这个东西得到良好监管。而我们正在非常快地朝相反方向走。”

  “你试着修一辆车,但如果这辆车时速是1000公里,你还没靠近,它已经跑远了。”

  这背后,是他的深层担忧:真正的挑战,不是有没有人类不能控制的 AI,而是

  Hinton 没有唱衰未来,他不是悲观,而是提醒速度失控的代价:人类社会的反应链很长,从研究到立法,从共识到行动,往往要几年;

  而是:它有了动机、我们看不懂它、它学得比我们快十亿倍, 这三个特征叠加后形成的新物种。

  这不是“科技悲观主义”。 这是一个一生献给 AI 的人,在提醒我们:我们面对的,不只是技术飞跃,而是文明节奏的变轨。

  星标公众号, 点这里 1. 点击右上角 2. 点击设为星标 ← AI深度研究员 ⋮ ← 设为星标

地址:广东省广州市天河区88号 客服热线:400-123-4567 传真:+86-123-4567 QQ:1234567890

Copyright © 2012-2025 交易量排名的加密货币交易所- 加密货币交易所 版权所有 非商用版本