移动互联网的下一个风口,视频专访Google DeepMind CEO
Google DeepMind的首席执行官兼联合创始人Demis Hassabis(德米斯·哈萨比斯),作为AI领域的领军人物,近期在接受著名数学家Hannah Fry的采访中,深入探讨了AI的现状、潜力及其对未来的影响。
此次采访中Hassabis认为,AI代表了继移动互联网之后的下一个重大范式转变,其影响力可能超越我们的想象。过去一两年间,我们开始真正理解这一转变的含义,不仅仅是从研究的角度,还包括产品开发和其他方面。这种认知的深化让我们处于一个令人兴奋的时刻,同时也凸显了协调全球人才、负责任推进AI技术发展的重要性。在谈到当前AI系统的能力时,他用"出乎意料的有效"来形容像ChatGPT这样的大型语言模型。这些系统在给予足够数据的情况下,展现出了类似人脑的学习和泛化能力。它们不仅仅是简单地记忆信息,更表现出对所处理内容的理解能力。这种概念理解和抽象能力的自然涌现,而非通过明确编程实现,令许多专家感到惊讶。
尽管如此,也指出了AI发展的复杂性。他认为,短期内AI可能被过度炒作,一些公司和投资者追逐尚未成熟的想法。但从长远来看,AI的潜力,特别是在接近通用人工智能(AGI)阶段时,可能仍被低估。人们尚未充分认识到AGI可能带来的巨大变革,以及随之而来的责任。当前的AI系统虽然功能强大,但仍存在"幻觉"等问题。然而,即使存在这些缺陷,AI技术在某些场景中已经展现出令人瞩目的实用价值。例如,在文档摘要、邮件撰写等任务中,即便偶有小错,AI仍能大幅提高效率,为用户节省大量时间。
更令人着迷的是,Hassabis推测AGI系统可能能够理解比人类更高层次的抽象概念,有潜力揭示我们难以一次性理解的宇宙模式。然而,他也提醒我们不应低估人类智能的潜力。他认为,理论上,只要给予足够的时间和记忆资源,人类作为图灵完备的智能体,有能力理解任何可计算的概念。
当我们站在这个AI革命的十字路口,平衡技术进步的激动与责任变得尤为重要。我们需要审慎地驾驭AI的发展,充分利用其潜力,同时谨慎考虑其对社会的深远影响。
开场白: 欢迎来到 Google DeepMind 播客,我是主持人 Hannah Fry 教授。早在2017年,我们刚开始构思这个播客的时候,DeepMind 还是一个相对小型的、专注于人工智能研究的实验室。他们刚被 Google 收购,并被赋予了自由,在远离伦敦安全距离的地方进行自己的独特研究项目。随着时间的推移,情况发生了很大的变化。自上一个播客季以来,Google 重组了整个架构,将人工智能和 DeepMind 团队置于其战略的核心。Google DeepMind 继续追求赋予 AI 人类水平智能的目标,即我们所称的通用人工智能(AGI)。他们引入了一系列强大的新 AI 模型,名为 Gemini,还推出了一个名为 Project Astra 的 AI 代理,能够处理音频、视频、图像和代码。实验室还在将 AI 应用于一系列科学领域方面取得了巨大进展,包括最新的 AlphaFold 第三版,它可以预测人体内所有分子的结构,而不仅仅是蛋白质。2021年,他们还分拆出一家新公司 Isomorphic Labs,专注于发现新药以治疗疾病。Google DeepMind 还在开发强大的 AI 代理,这些代理可以通过强化学习自行学习执行任务,延续 AlphaGo 在围棋比赛中战胜人类的著名胜利的传统。当然,大家自播客开始以来一直在关注这个节目,对这些变化背后的故事都很熟悉。但如果你是第一次收听,欢迎你加入。你可以在 Google DeepMind 的 YouTube 频道或任何你喜欢的播客平台上找到我们第一季获奖的节目,那些节目详细探讨了我们将反复提到的一些主题,比如强化学习、深度学习、大型语言模型等。所以不妨去听听,哪怕是我们自己说也觉得很棒。自上一个季播之后,公众对 AI 的关注度大增,这也意味着现在有更多播客可以选择。但在这个节目中,正如我们一直以来所做的那样,我们想为你提供一些不同的内容。我们希望带你深入了解这些想法的来源,介绍那些领导我们集体未来设计的人物,没有炒作,没有旋转,只有引人入胜的讨论和宏大的科学野心。考虑到所有这些,我今天邀请了 DeepMind 的联合创始人兼现任 Google DeepMind CEO,Demis Hassabis。
主持人Hannah Fry: Demis,欢迎来到播客。
嘉宾Demis Hassabis: 谢谢你,非常高兴能参与这个节目。
AI成为全球焦点
Hannah Fry: 现在有个问题,我想知道在公众对 AI 的兴趣爆发之后,你的工作是变得更容易还是更难了?
Demis Hassabis: 我认为这是双刃剑。工作变得更难了,因为这个领域的关注度和噪音都增加了很多。我其实更喜欢当初人少一些的时候,那个时候可能更多地专注于科学研究。但这也好的一面,因为这表明技术已经准备好在现实世界中产生影响,并在许多不同的领域中积极影响人们的日常生活。所以我认为这也是令人兴奋的。
Hannah Fry: 你对公众这么快就对 AI 产生浓厚兴趣感到惊讶吗?我想你可能预料到最终会有人加入进来,对吗?
Demis Hassabis: 是的,没错。在某个时刻,我们这些在这个领域工作了多年的研究人员,甚至是几十年的研究人员,早就知道 AI 将会变得非常重要。我想总有一天公众会意识到这一点。但看到这一切真正实现,并且看到这一切真的发生了,还是有点不真实。我猜这可能是由于聊天机器人和语言模型的兴起,因为每个人都使用语言,每个人都能理解语言,所以这是一个让公众理解并衡量 AI 发展水平的简单方式。
Hannah Fry: 我听你形容这些聊天机器人是“出乎意料的有效”,我非常喜欢这个说法。事实上,我们将在播客的后面部分讨论“Transformer”,这是使我们拥有这些工具的重大突破。但首先请告诉我,你所谓的“出乎意料的有效”是什么意思?
Demis Hassabis: 我的意思是,如果我们回到5到10年前,你会发现那时我们讨论的很多问题是关于如何建立这些惊人的架构,然后进行规模化,而不是必须解决特定的问题,如概念或抽象。当时有很多争论,我们认为需要一种特殊的方法来处理抽象问题。大脑显然是这样做的。但是,尽管如此,这些系统如果给予足够的数据,比如整个互联网的数据,它们似乎确实能够从这些例子中学习和泛化,不仅仅是简单地记住,而是实际上有点理解它们在处理的内容。在某种程度上,它们的有效性有点“出乎意料”,因为我不认为在5年前会有人认为它们会如此有效。
Hannah Fry: 是啊,我想这确实令人惊讶,概念理解和抽象能力能够自然地涌现出来,而不是被明确地编程出来。
Demis Hassabis: 上次我们讨论了像概念和语言在现实世界中的落地,比如在模拟环境中或者作为机器人所具备的具身智能,或许这是理解我们周围世界所必须的。然而,当然这些系统还没达到那个水平,它们会犯很多错误,并且还没有真正具备一个关于世界的完整模型。但是它们仅仅通过语言学习所取得的进展,比我们预期的要远得多。
Hannah Fry: 是的,我猜我们可能应该解释一下“落地”是什么,以便那些没有听过第一季和第二季的听众能够理解。我们当时讨论了很多关于如何需要将语言在现实世界中落地的问题。你能不能简要解释一下什么是“落地”?
Demis Hassabis: ”落地”是指,80年代和90年代在像MIT这样的地方构建的经典AI系统,通常是大型的逻辑系统。你可以把它们想象成巨大的数据库,里面有很多单词互相关联。问题在于,你可以在数据库中找到类似“狗有四条腿”这样的句子,但当你展示一张狗的照片时,系统完全无法理解这些像素集合是指代那个符号,这就是“落地问题”。所以你有了符号表示,或者抽象表示,但在现实世界中它真正意味着什么却无法理解。后来当然人们试图修复这个问题,但总是做不到完美。而如今的系统则不同,它们直接从数据中学习,从一开始就建立了这种联系。但有趣的是,如果仅仅从语言中学习,理论上它们应该缺少很多“落地”所需的信息。理论上是这样的,因为最初的大型语言模型并不存在于现实世界中,它们没有连接到模拟器或者机器人,甚至它们最初也不是多模态的,没有接触到视觉或其他形式的输入,它们只是在语言空间中学习。所以它们是在一个抽象的领域中学习的。因此,它们能够从中推断出一些关于现实世界的东西,这一点令人惊讶。
Hannah Fry: 这可能是因为人们在与系统互动时,告诉它什么答案是正确的,什么是错误的。这种反馈将部分“落地”信息传递给了系统。
Demis Hassabis: 确实如此,如果系统在早期版本中由于缺乏“落地”信息而回答错误,比如它错误地回答了“狗会怎么叫”这样的问题,那么人们的反馈会纠正它。而这个反馈是基于我们自身的“落地”知识,所以某种程度上,系统会吸收这种信息。
Hannah Fry: 我记得有一个很好的例子是关于穿越英吉利海峡和步行穿越英吉利海峡的区别。
Demis Hassabis: 没错,这类问题如果回答错误,你会告诉它错了,然后它就会稍微推断出你不能步行穿越海峡。这些特性中的一些是意料之外的涌现。
AI是被炒作还是低估
Hannah Fry: 现在我想问你一些关于炒作的问题,你觉得目前的AI领域是被过度炒作了,还是被低估了,或者只是方向上的误导?
Demis Hassabis: 我认为更多的是后者被低估。我会说在短期内,它被过度炒作了。我认为人们声称AI可以做很多事情,而实际上它做不到。各种创业公司和风投资金在追逐一些疯狂的想法,这些想法还没有成熟。但另一方面,我觉得它还是被低估了,尤其是在我们到达通用人工智能(AGI)和后AGI阶段时,我仍然觉得人们没有真正理解那将会是多么巨大的变化,因此也没有意识到那样的责任。所以我认为在短期内有点过度炒作了,但从长远来看还是被低估了。
Hannah Fry: 好吧,那对于那些潜在的创业公司和VC投资来说,你在这个领域深耕了几十年,非常有资格识别出哪些目标是现实的,哪些是不现实的。那么,对于其他人来说,他们该如何区分什么是真实的,什么不是呢?
Demis Hassabis: 嗯,我认为首先你需要进行技术尽职调查,对技术和最新的趋势有一定的理解。其次,可以看看那些提倡这些想法的人的背景,他们有多专业?他们是不是去年刚刚进入AI领域,或者之前是在做加密货币的?这些可能是一些迹象,表明他们可能只是跟风,但这并不意味着他们不会有好的想法,很多人确实有。但这是一个更像买彩票的环境。我认为,当一个领域突然受到大量关注时,这种情况总是会发生,随后资金也会涌入,每个人都觉得自己不能错过,这就创造了一种机会主义的环境。这与我们这些在这个领域深耕几十年的人有点相反,我们更注重深度技术和科学研究,我认为这是我们在接近AGI时需要继续坚持的方向。
谷歌聊天机器人Gemini
Hannah Fry: 是的,我猜我们在这一季要讨论的一个大问题是“Gemini”,它确实来自于这种非常深层次的科学研究。那么,Gemini 与其他实验室发布的大型语言模型有何不同呢?
Demis Hassabis: 从一开始,我们在设计 Gemini 时就希望它能够从一开始就具备多模态能力,也就是说,它不仅能够处理语言,还能处理音频、视频、图像、代码,几乎任何模态。这么做的原因之一是我们认为这是让这些系统真正理解周围世界并构建更好的世界模型的方法。其实,这还是回到了我们之前讨论的“落地”问题,这次我们是基于语言的基础上进行的。
Hannah Fry: 所以“落地”仍然是关键,对吗?
Demis Hassabis: 是的,这非常重要。我们还有一个最终愿景,就是拥有一个通用助手。我们已经原型化了一个叫做 Astro 的项目,稍后我们会讨论这个项目。Astro 不仅能够理解你输入的内容,还能够理解你所处的上下文。如果你想象一下,一个个人助理或数字助理,如果它能理解更多你所提问的背景或你所处的情境,那它将会更加有用。所以我们一直认为这将是一种更有用的系统类型,因此我们从一开始就将多模态功能构建在系统中。当时这是唯一一个具备这种功能的模型,现在其他模型也在试图赶上。另一个大的创新是我们在内存方面的突破,比如长上下文的处理。现在,它可以记住一百万到两百万个词语(可以将它们视为词汇),因此你可以让它处理《战争与和平》或者整个视频、电影、甚至是讲座,然后让它回答问题或在视频流中找到你需要的东西。
Hannah Fry: Astro 项目是那个新的通用 AI 代理,它可以接收视频和音频数据。我记得在 Google I/O 大会上,你们展示了 Astro 如何帮助你记住你把眼镜放在哪里的例子。我很好奇这些技术的传承,这是否只是旧版 Google Glass 的一种高级版本?
Demis Hassabis: Google 在开发眼镜类设备方面有很长的历史,早在2012年左右就开始了。所以他们在这方面是遥遥领先的,只是可能当时缺少了这类技术,无法理解智能助手所看到的东西。现在有了这个数字助理,它可以伴随你,并理解你周围的世界,感觉非常自然。
Hannah Fry: 我想回到 Gemini 的起点,因为它来自于组织内的两个独立部门。
Demis Hassabis: 是的,实际上去年我们将 Alphabet 的两个研究部门合并了,也就是原来的 DeepMind 和 Google Brain,组成了一个我们称之为“超级单元”的部门,将公司内部的所有顶尖人才整合到一个统一的团队中。这意味着我们结合了所有研究中的最佳知识,尤其是在语言模型方面。我们有 Trin Chilla 和 Gopher 等项目,它们在构建类似 Palm 和 Lambda 的早期语言模型。这些模型各有优劣,我们将它们整合到 Gemini 中,这是合并后的第一个旗舰项目。另一个重要的因素是将所有计算资源整合在一起,这样我们就可以进行大规模的训练运行,实际上是将计算资源整合到一起。
Hannah Fry: Google Brain 和 DeepMind 的重点有所不同,这样说是否公平?
Demis Hassabis: 我认为是的,我们两者都专注于 AI 的前沿领域,已经有很多在个人研究层面上的合作,但可能在战略层面上还不够。现在合并后的团队,我将其描述为 Google 的“引擎室”。这次合作非常成功,我认为我们之间的工作方式实际上有更多的相似之处,而不是差异。我们继续加强在基础研究方面的优势,比如下一个 Transformer 架构会从哪里来?我们希望去发明它。显然,之前的 Transformer 是由 Google Brain 发明的,我们将它与 Deep Reinforcement Learning 结合,我仍然认为需要更多的创新,而我相信我们将像过去10年那样继续做到这一点,无论是 Brain 还是 DeepMind 的贡献。
Hannah Fry: 回到 Gemini 话题上来,它的表现如何?与其他模型相比怎么样?
Demis Hassabis: 我认为一些基准测试存在问题,我们需要更多更好的基准测试。我认为这是整个领域都需要改进的地方。虽然有一些著名的学术基准测试,但它们现在有点饱和,无法区分不同顶尖模型之间的细微差别。我认为目前有三种模型在前沿领域处于领先地位。现阶段前沿的模型包括我们的 Gemini,OpenAI 的 GPT 当然还有 Anthropic 的 Claude 模型,另外还有一些其他不错的模型,比如 Meta 和 Mistral 等公司开发的。它们在不同领域各有优势,例如在编程方面,Claude 可能更强,而在推理方面,也许 GPT 更胜一筹。而对于长上下文和多模态理解,则是我们 Gemini 的优势。当然,我们所有人都在不断改进我们的模型。从我们开始这个项目的起点来看,Gemini 仅仅存在了一年时间,当然是基于我们的一些其他项目,我认为我们的发展轨迹非常好。所以下次我们再谈话时,希望我们能够处于前沿位置,毕竟还有很多工作要做。
Hannah Fry: 这些模型还有一些不擅长的地方。
Demis Hassabis: 是的,确实如此,这也是当前的主要争论之一。现在这一系列的进展基本上都是基于五六年前发明的技术。问题在于,仍然有很多东西是缺失的,比如它们的准确性不高,经常会出现“幻觉”。它们在规划方面也不够好。
谷歌 AlphaGo 与 Gemini 结合的AI
Hannah Fry: 你所说的“规划”是什么意思?
Demis Hassabis: 就是说它们无法进行长期规划,不能解决长期的问题。比如你给它一个目标,它无法在现实世界中为你采取行动。它们更像是被动的问答系统,你提出问题,然后它们给出某种回答,但它们无法为你解决问题。比如说,如果你希望它作为一个数字助理,你可能会想让它帮你预订去意大利的假期,包括所有的餐厅和博物馆等,它知道你的喜好,然后为你预订航班和一切。但它目前还做不到这些。我认为这是下一代系统的目标,我们称之为“代理型系统”,具有代理行为。当然,这正是我们的专长,我们以前在开发所有的游戏代理时就做过类似的事情,比如 AlphaGo 和其他项目。所以我们现在做的很多工作就是将这些擅长的领域与新的大型多模态模型结合起来。我认为这将是下一代系统的特征,可以把它想象成将 AlphaGo 与 Gemini 结合在一起。
Hannah Fry: 因为 AlphaGo 在规划方面非常出色。
Demis Hassabis: 是的,它在规划方面非常出色,当然只是在游戏领域。所以我们需要将这种能力推广到日常工作和语言的通用领域。
Hannah Fry: 你刚才提到,Google DeepMind 现在是 Google 的动力引擎,这是一个很大的转变。相比我几年前问过的问题,现在 Google 是在你身上下注了吗?
Demis Hassabis: 是的,我想是这样。我认为 Google 一直理解 AI 的重要性。Sundar 在他担任 CEO 后早期就说 Google 是一家“AI 优先”的公司。我们在他上任初期就讨论过这个问题,他看到了 AI 作为继移动互联网之后的下一个大范式转变的潜力,而且它的影响比这些还要大。但我认为在过去一两年里,我们真正开始理解这意味着什么,不仅仅是从研究的角度,还包括产品和其他方面。所以这是一个非常令人兴奋的时刻,但我认为这是我们协调所有人才并尽最大努力推进的正确选择。
Hannah Fry: 那从另一个角度来看,对 DeepMind 来说,现在成为 Google 的引擎室,是否意味着你们必须更多地考虑商业利益,而不是纯粹的科学研究?
Demis Hassabis: 我们确实需要更多地考虑商业利益,这现在是我们职责的一部分。但实际上,有几点要说明。首先,我们会继续我们的科学工作,比如 AlphaFold,你刚刚看到 AlphaFold 3 的发布,我们在这方面的投资还在加大。我认为这是我们在 Google DeepMind 做的一件独特的事情,甚至我们的竞争对手也将这些成果视为 AI 带来的普遍好处。这一切进展得非常顺利,我们也分拆出 Isomorphic Labs 来进行药物发现。所以这一切都非常令人兴奋,我们将继续推进。同时,我们在气候变化等领域的工作也在继续。我们团队很大,所以我们可以同时做多项工作,我们还在构建我们的大型模型,比如 Gemini 等等。我们还有一个产品团队,正在将所有这些惊人的技术带到 Google 的各个平台上。能够将我们的发明立即应用于十亿用户,这是一种巨大的激励。
另一个有趣的点是,现在开发产品所需的技术和用于纯粹 AGI 研究的技术之间的差异越来越小。五年前,你可能需要为一个产品开发一些特殊的 AI,现在你可以从你的主要研究中分支出去。当然,你仍然需要做一些产品特定的工作,但这可能只占总工作量的10%。所以现在在开发 AI 产品和尝试构建 AGI 之间没有太大的紧张关系。实际上,两者的研究计划90%是相同的。最后,如果你能将产品推向市场,你会从中学到很多东西,用户的反馈可以让你更好地调整内部指标和产品表现。
AlphaFold 3 的发布
Hannah Fry: 你知道,你可以更新那些内容,这对你的研究非常有帮助。
Demis Hassabis: 绝对没错。嗯,好吧,我们将在这个播客中更多地讨论那些通过将 AI 应用于科学而取得的突破,但我想问你一个问题,就是如何知道何时是将某个东西发布给公众的正确时机。因为在 DeepMind 内部,这些工具,比如大型语言模型,最初是用于研究的,而不是作为一个潜在的商业产品来看待。。你知道的,我们从一开始就非常重视责任和安全问题,这可以追溯到我们在2010年创立公司之前。Google 也采纳了我们的一些伦理章程,并将其纳入他们的 AI 原则中。因此,我们与 Google 在这一点上始终保持一致,作为这个领域的领导者之一,我们希望在部署这些技术时保持负责任的态度。现在开始发布包含通用人工智能(AGI)的真实产品,这确实很有意思。我们在快速学习,这很好,因为当前的技术相对风险较低,还不算非常强大。但随着技术变得更强大,我们必须更加谨慎。其他团队也在学习如何测试生成技术,这是不同于普通技术的,因为它并不总是执行相同的操作。人们可以尝试无限多的操作,就像测试一个开放世界的游戏一样。因此,弄清如何进行红队测试(Red Teaming)是很有趣的。
Hannah Fry: 红队测试在这种情况下是指你们自己对抗自己,对吗?
Demis Hassabis: 是的,红队测试是指你设置一个与开发技术的团队分离的特定团队,对其进行压力测试,并尽可能地破坏它。实际上,你需要使用工具来自动化这个过程,因为即使你有成千上万的人进行测试,也无法与将技术发布给数十亿用户后他们尝试的各种操作相比。所以这很有趣,我们从中吸取教训并改进我们的流程,以便未来的发布尽可能顺利。我认为我们必须分阶段进行,先是实验阶段,然后是封闭测试,最后再发布。这有点像我们过去发布游戏的方式,每一步都在学习。另外,我认为我们需要更多地利用 AI 来帮助我们进行内部测试,自动识别一些错误或进行初步分类,以便我们的开发人员和人类测试者可以专注于那些难以解决的问题。
Hannah Fry: 你刚才提到的一个有趣的观点是,这种技术处于更具概率性的领域。如果某件事有很小的发生概率,那么在足够多的尝试中最终还是会出错。我猜想,确实有一些公开的错误案例出现,对吗?
Demis Hassabis: 是的,这就是为什么我提到,产品团队正在逐渐适应这种测试方式。虽然他们已经对这些技术进行了测试,但它们具有随机性和概率性。所以在很多情况下,如果这是一个普通的软件,你可以说我已经测试了99.999%的场景,然后推测剩下的场景不会出现问题。但在这些生成系统中,情况并非如此。它们可能会做出一些左场(意料之外)的事情,或者是超出之前测试范围的操作。如果有人聪明或具有对抗性,试图推动它做某些事情,结果可能会出乎意料。所有这些操作都是组合性的,可能与你之前对系统说过的所有内容有关,然后系统进入一种奇怪的状态,或者它的记忆被填充了特定的内容,导致输出了意外的结果。所以这里有很多复杂性,但也不是无法应对的。处理这些问题的方式比发布普通技术要复杂得多。我记得你之前说过,这是一种完全不同的计算方式,我们必须从我们完全理解的确定性技术转向这个更混乱、充满错误的概率性领域。
Hannah Fry: 你觉得公众需要改变他们对我们正在进行的这种计算类型的看法吗?
Demis Hassabis: 我认为是的。我们可能需要考虑发布一种类似原则性文件的东西,在发布某个系统之前,告诉公众对这个系统的期望是什么,它的设计目的是什么,它适合做什么,它不能做什么。我认为我们需要在这个领域更好地明确这一点,用户也需要在使用中积累更多经验。这可能也是为什么聊天机器人本身有些出乎意料的原因,甚至对于 OpenAI 来说也是如此。他们也对 ChatGPT 感到惊讶,我们也有自己的聊天机器人,Google 也有。我们在观察它们时,看到了它们仍然存在的各种缺陷,对吧?它们有时会“幻觉”出一些错误答案,等等。虽然有很多问题,但我们没有意识到的是,即使现在,这些技术在某些场景中仍然非常有用,比如总结长文档或撰写官方邮件等。填写表格等等这些用例,实际上即使有些小错误,人们也不会太介意,因为他们可以轻松修正这些错误,这样节省了大量的时间。我想这正是令人惊讶的地方,当这些技术进入普通人手中时,人们发现即便这些系统有很多我们都知道的缺陷,仍然有很多有价值的用例。
大模型开源
Hannah Fry: 好吧,我想这就引出了我想问的下一个问题——关于开源。当技术进入人们手中时,如你所说,可能会发生非常了不起的事情。我知道 DeepMind 过去开源了很多研究项目,但现在似乎这种情况有所改变。你能谈谈你对开源的看法吗?
Demis Hassabis: 当然,我们是开源和开放科学的坚定支持者。正如你所知,我们几乎发布了我们所做的所有研究,包括像 Transformer 和 AlphaGo 这样的项目,我们都在《自然》和《科学》杂志上公开了。AlphaFold 也是开源的,这些都是明智的选择。你说得对,这种方式之所以有效,是因为通过共享信息,科技和科学可以以最快的速度进步。几乎所有情况下,开源都是普遍有益的,这也是科学的运作方式。唯一的例外是当涉及到具有双重用途的技术时,比如 AGI 和强大的 AI。问题在于,你希望能够启用所有的良性用例,并且希望那些真正的科学家和技术人员能够基于这些想法进行构建和批判,从而推动社会快速进步。但如何在同一时间限制那些可能滥用这些系统的坏人,这就是问题所在。这些通用系统可能会被重新用于不良目的,比如武器系统等等。今天还好,因为我认为这些系统还不够强大,但在两三年后,尤其是当你开始获得具有代理行为的系统时,如果某人或某个流氓国家滥用它们,可能会造成严重的伤害。我现在没有解决方案,但作为一个社区,我们需要思考这对开源意味着什么。
或许未来的模型需要更多的检查,然后在它们发布一年或两年后再开源。这也是我们在 Gemini 项目中遵循的模式。我们有自己开源的 Gemini 模型,叫做 Gemma,但它们是较小的模型,不是最前沿的模型。所以它们的能力对于开发人员来说仍然非常有用,因为它们可以在笔记本电脑上运行,也因为它们的参数量较少。它们的能力在目前这个阶段已经被充分理解,因为它们并不是最新的最前沿模型。可能我们最终采取的做法是,我们会有开源模型,但它们会落后于最新的 Cutting Edge 模型一年左右,这样我们可以在用户的公开测试中真正评估这些模型的能力。开源的一个问题是,如果出了问题,你无法召回它。对于专有模型,如果坏人开始以不良方式使用它,你可以关闭它,在极端情况下甚至可以关闭整个系统。但一旦你开源了某个东西,就无法收回了,这是单向的门。所以在这样做时你必须非常非常确定。
Hannah Fry: 你认为真的可能在一个组织的“围墙”内控制住 AGI 吗?
Demis Hassabis: 这是一个完全不同的问题。我认为我们目前还不知道如何做到这一点。当你谈论 AGI 级别的强大人工智能时,尤其是具有接近人类水平的 AI,这是我们还无法完全掌控的。但对于中间阶段的 AI,我们有一些好的想法。一个方法是安全的沙盒测试环境,我们可以在一个游戏环境或不完全连接的互联网版本中测试这些具有代理行为的系统。金融科技等领域已经有很多安全工作和技术积累,我们可能会借鉴这些思路来构建这样的系统。但我们也知道,这不足以控制一个比我们更聪明的 AGI。因此,我们需要更好地理解这些系统,以便设计出适用于 AGI 的协议。当那个时刻到来时,我们会有更好的办法来控制它,可能也会使用 AI 系统和工具来监控下一代 AI 系统。
Hannah Fry: 谈到安全问题,我知道你在2023年举行的 AI 安全峰会上发挥了重要作用,这场峰会由英国政府在 Bletchley Park 主办。很多人从外部看来,认为监管就能解决所有问题。但你认为监管应该如何结构化?
Demis Hassabis: 我认为政府介入并跟上步伐是件好事,这是最近 AI 关注度爆发带来的一个好处。当然,政府正在关注这些问题,我认为这非常好。特别是英国政府,我与他们有很多接触,以及美国政府也有,他们的公务员团队现在对技术有了很好的理解。看到英国和美国设立 AI 安全研究所,我觉得很高兴,我相信很多其他国家也会跟进。我认为这些都是很好的先例和协议,可以在风险真正变高之前先行制定。我们现在处于一个验证阶段。我确实认为国际合作是必要的,特别是在监管、护栏和部署规范等方面。因为 AI 是一种数字技术,很难将其限制在国家边界内。如果英国或欧洲采取了某些措施,但其他国家没有,那对全球有帮助吗?特别是在我们接近 AGI 的时候,这实际上并没有太大的帮助。因此,我的看法是,由于技术变化如此之快,我们必须在监管上保持非常灵活和轻便的步伐,以便能够根据最新的技术发展进行调整。
如果你在五年前对 AI 进行监管,那时你所监管的东西与今天看到的完全不同,比如生成式 AI,但五年后可能又会有所不同,可能是那些具有最高风险的代理型系统。所以现在我建议首先加强已有领域的现行监管,比如在健康、交通等领域的监管,然后将其更新以适应 AI 世界。就像之前为移动互联网更新过的那些法规一样。这是我会做的第一件事,同时对前沿系统保持观察,确保理解并测试这些系统。当事情变得更加清晰时,再开始围绕这些进行监管,或许在几年后这样做会更有意义。:我们目前缺少的是基准测试,关于能力的正确测试。我们都想知道,包括行业内的人和学术界,在哪个点上能力会构成某种重大风险。目前没有答案。除了我刚才提到的代理型能力可能是下一个门槛外,没有一个公认的测试标准。你可以想象,比如测试系统是否具有欺骗能力,这是你不希望系统拥有的能力,因为一旦系统具备了欺骗能力,你就无法信任它所提供的任何信息。这是我认为最需要测试的一种新兴能力。当然,还有很多其他能力需要测试,比如实现某些目标的能力,复制的能力等等。现在有相当多的工作正在进行中,我认为安全研究所(基本上是政府机构)正在推动这些工作。当然,实验室也在贡献我们所知道的内容。
AGI 出现前的阶段
Hannah Fry: 我想知道,在你描述的这个世界图景中,机构会处于什么样的位置?如果我们进入 AI 支持所有科学研究的阶段,伟大的研究机构是否还会有存在的空间?
Demis Hassabis: 我认为是有的。我们现在处于 AGI 出现前的阶段,我认为这需要社会、学术界、政府和工业实验室之间的合作。我真的相信,这是我们最终达成目标的唯一方式。如果你在问 AGI 之后的情况,那可能是你真正想问的。AGI 当然是我一直想构建的,因为我们可以用它来回答一些关于现实本质、物理学、意识等方面的最基本问题。这取决于它将采取什么形式,是否会是人类专家与 AI 结合,我认为在探索下一个前沿的过程中,至少在一段时间内会是这样的。目前这些系统还不能自己提出猜想或假设,它们可以帮助你证明一些东西,我认为我们能够在国际数学奥林匹克竞赛中获得金牌,甚至可能解决一些著名的猜想,我认为这在现在是可以实现的。但它们没有能力自己提出假设,比如广义相对论的假设。所以这一直是我衡量真正的人工通用智能的标准,也就是它能否做到这一点或发明新的东西。我们还没有任何系统可以做到这一点,甚至我们可能都不知道如何设计一个系统来实现这个目标。
Hannah Fry: 计算机科学家 Stuart Russell 曾告诉我,他有些担心,一旦我们达到了 AGI,可能我们都会像过去的王子一样,那些从未登上王位或做任何工作的人,只是享受无忧无虑的奢华生活,没有任何目标。
Demis Hassabis: 是的,这确实是一个有趣的问题。或许这已经超越了 AGI,更像是人工超智能,有时人们称之为 ASI。到那时,我们应该会拥有极大的丰裕资源。如果我们能确保这些资源被公平分配,那么我们将处于一个更自由的状态,可以选择自己想做的事情。而“意义”将成为一个重要的哲学问题。我认为,我们可能需要哲学家,甚至神学家开始思考这个问题,社会科学家也应该现在就开始思考,什么能带来意义。我依然认为,自我实现当然是重要的,但我不认为我们都会坐在那里冥想,也许我们都在玩电子游戏,谁知道呢?但即使是这样,这又是否是一件坏事呢?我们也不知道。我认为过去的王子并没有特别好地处理这种无所事事的生活。也许我们会旅行到星际间,或者像那些极限运动爱好者一样去挑战极限。人们为什么要去爬珠穆朗玛峰呢?总之,我认为未来将会非常有趣。但这也是我之前提到的“被低估”的问题,即近期与远期的炒作之别。如果你想称之为炒作,它确实在一定程度上被低估了。我认为未来的转变将会非常大。我相信最终我们会治愈很多疾病,甚至所有疾病,解决能源问题、气候问题。但接下来要问的问题是:这一切的意义何在?
Hannah Fry: 让我们稍微回到离 AGI 更近的地方,而不是超智能。我知道你的使命是构建能够惠及所有人的人工智能,但你如何确保它确实惠及所有人?你如何纳入所有人的偏好,而不仅仅是设计者的偏好呢?
Demis Hassabis: 我认为这是必须要面对的一个问题。要在一个系统中包含所有人的偏好几乎是不可能的,因为从定义上来说,人们并不同意。我们可以看到,当前世界的状况是,国家之间不一致,政府之间不一致,甚至连处理气候问题这样的显而易见的事情都无法达成共识。所以我认为这是非常困难的。我设想的情况是,我们会有一套安全的架构,希望在此基础上可以构建个性化的 AI,每个人或者不同国家可以根据自己的偏好来使用它们,决定它们的用途以及可以做什么和不可以做什么。总的来说,这没问题,这些都可以由个人或国家自己决定,就像今天一样。但作为一个社会,我们知道这些架构是经过验证的安全架构,然后可以让它们自由发展。我认为我们需要穿过这个“针眼”,在接近 AGI 时,我们可能需要更多的合作,特别是国际合作,确保我们构建的是安全的 AGI 架构。因为我相信存在不安全的构建方式,也存在安全的构建方式。一旦我们通过了这一阶段,我们就可以重新打开大门,让每个人都可以拥有自己的个性化 AGI。
Hannah Fry: 那在安全的构建方式方面,我们是在谈论可能出现的不良行为吗?
Demis Hassabis: 是的,我们谈论的是不良的涌现行为,比如欺骗能力,这是一种你不希望系统具备的能力。如果系统具备了欺骗能力,那你就无法再信任它提供的任何信息。我们需要更好地理解这些问题,了解什么样的防护措施有效且无法被绕过。有两种情况需要关注,一种是坏人或者国家对 AI 的不良使用,另一种是随着 AI 接近 AGI,它自身可能会偏离轨道。我认为这两种问题需要不同的解决方案。回到你提到的惠及所有人这一点,我们通过 AlphaFold 和 Isomorphic Labs 等项目已经展示了方向。我认为,如果 AI 药物设计成功,我们可能在未来十到二十年内治愈大部分疾病,甚至所有疾病。届时我们还可以实现个性化药物,最大限度地减少对个体的副作用,因为这些药物是针对个人的疾病和新陈代谢进行定制的。这些都是令人惊叹的前景。再比如清洁能源、可再生能源、核聚变或者更好的太阳能,这些都在我们的掌握之中。这些技术还可以解决淡水供应问题,因为我们可以在任何地方进行海水淡化。所以我觉得,这些技术将带来巨大的好处。
Hannah Fry: 但我们也必须降低风险,你提到的一个方法是,未来会有一个时刻,你会召集科学界的“复仇者联盟”,对吗?
Demis Hassabis: 是的,完全正确。你会召集顶尖的科学家,大家一起来。我认为,如果我们能实现国际合作,那确实是最理想的情况。我希望能有一个类似 AI 的国际委员会,聚集全世界最顶尖的研究人员,专注于 AGI 项目的最后几年,把它做得非常科学、谨慎、周全。我依然认为这是最好的方式。
Hannah Fry: 你如何知道什么时候是按下按钮的合适时机?
Demis Hassabis: 这是一个大问题,因为你不能太早做这件事,否则很难获得足够的支持。今天很多人对风险的看法都不一致。你会看到一些非常有名的人说没有风险,而像 Jeff Hinton 这样的人则认为风险很大。我自己站在中间的立场。
人工大脑和神经科学
Hannah Fry: 我还想和你聊聊神经科学。神经科学现在对你们的工作还有多大的启发?我注意到最近 DeepMind 发布了一个拥有人工大脑的计算机化老鼠,它帮助我们改变了对大脑如何控制运动的理解。但在播客的第一季中,我记得我们谈了很多关于 DeepMind 如何直接从生物系统中汲取灵感。这依然是你们方法的核心吗?
Demis Hassabis: 现在已经有所演变了。我认为在过去两三年中,我们已经进入了一个更偏向工程的阶段,构建了大规模的系统和庞大的训练架构。所以我认为神经科学的影响现在稍微少了一些,但它可能会在未来回归。每当我们需要更多的发明时,我们会从神经科学中汲取灵感,但在目前这个工程主导的阶段,它的重要性有所减弱。现在我们更多地将 AI 应用于神经科学,比如你提到的虚拟老鼠大脑。我认为,随着我们接近 AGI,这将是一个非常酷的科学用例。
Hannah Fry: 这些技术似乎是阶段性发展的,从工程到创新再到应用。你们显然还在密切关注它,并从中获取其他想法。
Demis Hassabis: 是的。
Hannah Fry: 你描绘的未来图景都还比较贴近现实,但我知道你曾说过,你希望 AGI 能够探索宇宙的奥秘,比如普朗克尺度下的亚原子量子世界。你认为是否存在我们还未曾设想的可能性,比如虫洞?
Demis Hassabis: 完全有可能。我希望虫洞能够成为现实。我认为我们对物理学和现实的本质仍有很多误解。显然,量子力学与引力的统一、标准模型的问题、弦理论等等,都有许多未解之谜。我与物理学界的朋友们谈过很多,他们认为许多东西都无法很好地契合。我个人不太喜欢多元宇宙的解释,所以我认为,如果能提出新的理论并在太空中用大型设备进行测试,那将是非常棒的。我之所以对普朗克尺度的时间和空间如此痴迷,是因为它似乎是现实的极限分辨率,就像是一切可以被分割到的最小单位。所以这就是我认为我们应该进行实验的层次,特别是在拥有 AGI 和极大资源丰裕的情况下,或许我们能够设计或建造这样的实验设备。
Hannah Fry: “现实的分辨率”,真是个有趣的词汇。你是说我们目前所处的分辨率,像人类的尺度,只是一个近似值?
Demis Hassabis: 是的,没错。我们知道还有原子级的尺度,下面就是普朗克尺度,作为我们所知的最小分辨率。因此,我认为那是我们想要进行实验的分辨率层次,真正理解这里发生的一切。
Hannah Fry: 我在想,你是否也设想了存在一些超出人类理解能力的事物,AGI 会帮助我们揭示那些我们本质上无法理解的东西?
Demis Hassabis: 是的,我认为这是完全可能的。我们现在可能还未意识到一些更为深奥的科学问题,AGI 或许可以帮助我们探索这些未知领域,揭示我们无法想象的科学真相。
Hannah Fry: 我在想,如果有些事情是无法解释的或者是无法理解的,那么它们还能够被证伪吗?
Demis Hassabis: 这是个很好的问题。我认为 AGI 系统有可能理解比我们更高层次的抽象。通过神经科学的研究,我们知道人类的前额皮质负责这部分的处理,它大约可以处理六到七层的间接信息。比如,一个人可能在思考某个人在思考什么,而我们在思考这个人如何思考这些等等,但我们很容易迷失在其中。然而,我认为 AI 系统可以拥有一个任意大的“前额皮质”,因此它能够看到关于宇宙的一些我们无法一次性理解的更高层次的抽象和模式。从可解释性的角度来看,我的想法可能与其他哲学家的看法略有不同。有些人认为我们与 AGI 的智商差距可能类似于人类与蚂蚁的差距,但我认为更好的比喻是,我们是图灵完备的,拥有通用智能的能力,尽管我们的运算速度较慢,因为我们依赖于“慢速的机器”(大脑),而且我们无法无限扩展自己的大脑。但理论上,只要给我们足够的时间和记忆,我们可以理解任何可计算的事物。所以我认为这更像是 Gary Kasparov 或 Magnus Carlsen 在下象棋时下了一步惊人的棋。我自己可能想不出那一步棋,但他们可以解释为什么这是一个好棋步。我认为 AGI 系统将能够做到类似的事情。
Hannah Fry: 你曾说过 DeepMind 是一个20年的项目,现在我们走了多远?你们还在按计划推进吗?
Demis Hassabis: 是的,我们还在按计划推进,这听起来有点疯狂,因为通常20年的项目总是感觉像还差20年才能完成。但我们现在已经走了很长一段路了。我们的目标是2030年完成,我不会感到惊讶,如果在未来十年内达成目标。所以我认为我们在正轨上。
Hannah Fry: 这与你上次所说的一致,你没有改变预期,真是令人惊讶。
Demis Hassabis: 是的,确实如此。
Hannah Fry: 太感谢你了,Demis,一如既往的愉快对话。
Demis Hassabis: 不客气,和你聊天总是很有趣。
Hannah Fry: 我认为在这次对话中,有一些非常重要的内容,特别是与我们在2022年上次采访 Demis 时相比。这几年确实有一些意外出现,比如这些模型表现出真正的概念理解,这种基于语言和人类反馈的现实世界基础是其中之一。我们原本并不认为这些就足够了。还有,不完美的 AI 对普通人的日常生活竟然如此有用,这也很有趣。Demis 自己也承认他没有预见到这一点。这让我想到了那些我们尚未解决的挑战,比如长期规划、代理能力和稳健且不可破解的安全保障。在这次播客中,我们将详细讨论这些问题。几年后我们会不会发现这些挑战比我们想象的更容易解决?又有多少会比我们想象的更难?
至于 Demis 做出的那些大预测,比如未来10到20年内治愈大多数疾病,或者在本世纪末实现 AGI,或进入丰裕时代——这些听起来都像是 Demis 有些过于乐观了,不是吗?但话说回来,到目前为止,他似乎也没有出错过。