诺贝尔奖是 AI 发展的里程碑时刻!DeepMind 联创 Hassabis 获奖后最新专访
今年的诺奖将物理和化学两个领域的奖项都颁给了 AI 成果,这究竟代表着怎样的含义,又会产生怎样的影响?Demis Hassabis 在本次专访中提出了自己的见解。
10 月,DeepMind 联合创始人兼 CEO Demis Hassabis 凭借 AlphaFold 成为了诺贝尔化学奖的三位共同获奖者之一。
作为一种人工智能软件,AlphaFold 解决了一个生物学界 50 年前提出的问题:预测每种已知蛋白质的结构。
事实上,AlphaFold 这个极具开创性的模型,也仅仅是 DeepMind 成果的一部分。成立 15 年来,DeepMind 已经跻身为全球最重要的 AI 实验室之一。
尽管被谷歌收购、与 Google Brain 合并后加入了一些商业考量,但他们目前仍然专注于科学和工程中最复杂和基本的问题,最终设计出能够模仿,甚至取代人类认知能力的强大 AI。
获得诺奖后不到 24 小时,Demis Hassabis 就接受了《金融时报》记者 Madhumita Murgia 的采访,讨论了 DeepMind 下一步将要解决的重大难题、AI 对科学进步的作用,以及他本人对 AGI 之路的前景预测。
Demis Hassabis 在谷歌 DeepMind 伦敦总部
AI 4 Science 的下一个挑战
AlphaFold 3 的相关进展,就一定程度上彰显了 DeepMind 在生物学领域下一步的前进方向 —— 理解生物体内的相互作用,最终对整个通路进行建模,甚至可以构建出一个虚拟细胞。
此外,通过 DeepMind 子公司 Isomorphic 的努力,他们也在进军药物发现领域 —— 设计全新的化合物、找到结合位置,并预测出这些物质的特性、吸收性、毒性等等。
目前,Isomorphic 还与礼来、诺华等公司合作开展了 6 个药物研发计划,有望未来几年内在临床上有所进展,希望能大幅缩减药物发现所需时间,从而帮助治愈一些疾病。
除了生物学领域,Hassabis 也表示对材料设计领域的工作感到十分兴奋。
去年,他们在 Nature 上发表的一篇论文提出了名为 GNoME 的 AI 工具,实现了 AlphaFold 1 级别的材料设计,共发现了 220 万个新晶体;下一步,就需要努力达到 AlphaFold 2 级别。
论文地址:https://www.nature.com/articles/s41586-023-06735-9
数学方面,AlphaProof 和 AlphaGeometry 已经在今年达到了 IMO 银牌的水准,接下来的几年,DeepMind 将尝试借助 AI 的力量真正解决一个重要的数学猜想。
对于能源和气候领域,去年在 Science 上发表的 Graphcast 模型能在 1 分钟内以前所未有的精度预测未来 10 天的天气。
论文地址:https://www.science.org/stoken/author-tokens/ST-1550/full
这其中的技术,或许可以帮助进行气候建模,这对于应对气候变化、优化电网等领域都非常重要。
可以看出,DeepMind 的未来蓝图中,重点更多地放在应用和工程实践层面,旨在将技术进一步转化为能够影响现实世界的工作,而非纯粹的基础研究。
对此,Hassabis 表示,「蛋白质折叠」是一个「可遇不可求」的「挑战」,不能要求每个问题都有如此含金量。
「蛋白质折叠」这个问题如此核心且重要,相当于生物学领域的费马大定理,但可惜的是,没有多少问题足够重要、探索时间足够长,能够被称之为「挑战」。
诺奖将成为 AI 的分水岭
今年的诺贝尔物理和化学奖项接连颁给 AI 学者,这很有趣,但谁也说不清评奖委员会为什么会做出这样的决定。
对此,Hassabis 如何理解?
他表示,这很像是委员会特意发表的一种「声明」,也将成为 AI 的分水岭时刻,标志着它的技术成熟度得到了足够的认可,能够协助科学发现。
AlphaFold 就是最好的例子,而 Hinton 和 Hopfield 的奖项则是针对更基础、更底层的算法工作。
Hassabis 表示,希望 10 年后回顾当下时,AlphaFold 将预示着所有这些不同领域的科学发现的新黄金时代。
这也带来了一个有趣的问题:有了 AlphaFold 这样的工具,科学家们不再需要花费过多的时间和精力来进行预测,这是否意味着我们应当去开拓新的领域?甚至改变学习科学概念的方式?
需要注意的是,AI 系统是一类独特的新工具,它们具有一些内在的功能,因而不适用于传统意义上对工具的分类。
虽然 AlphaFold 等工具目前只能做到预测,但从某种意义上说,预测也是「理解」的一部分。如果你能预测,那就可以带来理解。
甚至,如果预测的输出足够重要,比如蛋白质的结构,那么它本身就是有价值的。
从更宏大的视角来看,科学中包含了很多层次的「抽象」。
比如,整个化学领域就是建立在物理学的基础上。你不需要理解量子力学等全部的物理原理,也可以谈论原子化合物,在化学自身的抽象层去理解它。
对生物学领域而言,我们可以研究生命,但仍然不知道生命是如何进化或出现的,甚至无法正确定义「生命」这个概念。
类似的,人工智能也像一个抽象层,构建程序和网络的人们在一定的物理层面上理解这一点,但随后产生的预测结果就像一种突然涌现的属性,我们可以在科学的层面上自行分析这些预测。
AGI 迫近,理解很重要
无论是自然科学,还是人工智能系统,「理解」都很重要。
人工智能是一门工程学科,这意味着你必须先建造出一个系统,之后才能研究、理解这个对象;而自然科学中的现象不需要制造,是天然存在的。
虽然 AI 系统是工程化的人造物,但这并不意味着比自然现象更容易研究,甚至可以预期到的是,它会像生物神经网络一样难以理解、分拆和解构。
现在这种情况正在发生,但我们已经取得了一些进展,比如有一个专门的领域叫作「机械解释」(mechanistic interpretation),就是使用神经科学的观念和工具来分析 AI 系统这个「虚拟大脑 」。
对于 AI 的可解释性,Hassabis 非常乐观,认为未来几年就会在理解 AI 系统这方面取得很大进展。
当然,AI 也可以学着解释自己。想象一下将 AlphaFold 与语言能力系统结合起来,它就可以一边预测,一边解释自己在做什么。
目前,很多领先的实验室正在缩小他们的探索范围,专注于对 Transformers 进行扩展。不可否认,这是一个很好的方向,也将成为最终 AGI 系统的关键组成部分,但 DeepMind 会继续坚持探索和创新研究。
事实上,对于发明下一代 Transformer 而言,DeepMind 拥有迄今为止最广泛、最深入的研究平台,这是他们科学遗产的一部分。
这些探索都是必要的,一部分原因是为了看看我们能走多远,这样就知道需要探索什么。
探索新想法,以及将令人兴奋的想法发挥到极致,这两条路都很重要。如果你不了解当前想法的绝对局限,也不会知道需要哪些突破。
LLM 的长上下文窗口就是一个很好的例子。谷歌 Gemini 1.5 Pro 做出的 2M token 上下文就是一个很酷的创新,目前没有其他人能够复制。
谷歌 DeepMind 伦敦办公室
理解 AI,才会有安全的 AGI
Hassabis 和很多科技领袖都曾预测,实现 AGI 还需要 5~20 年的时间。
如果要用科学方法实现这一目标,就意味着更多的时间、精力和思考,集中在 AI 的理解和分析工具、基准测试和评估上,需要目前投入的 10 倍。
这些投入不仅来自科技公司,还应包括 AI 安全机构,也来自学术界和民间社会。我们需要了解 AI 系统正在做什么、它们的局限性,以及如何控制和保护这些系统。
「理解」是科学方法的重要组成部分,却是纯工程中所缺少的。工程只是旁观 —— 这个方法有效吗?如果不起作用就再试一次,充满了试验和误差。
科学则是在一切发生之前就能理解的东西。理想情况下,这种理解意味着更少的错误。这对于 AI 和 AGI 来说很重要,因为在运用一项如此强大的技术时,你希望尽可能少地犯错误。
也许几年后,当我们接近 AGI 时,就会出现一个社会问题 —— 我们希望这些系统具有什么价值?我们要为它们设定什么样的目标?
这与技术问题不同。技术层面关注的是如何让系统走上正轨,朝着设定的目标前进,但并不能帮助我们决定目标应该是什么。
为了安全的 AGI 系统,技术问题和社会问题,这两件事都需要正确,但 Hassabis 认为,后者可能更难实现。
目标和价值观等一系列问题,会更多地涉及 UN 和地缘政治,甚至社会科学和哲学,需要与政府、学术界和民间社会各阶层进行广泛的讨论。
即使 AGI 还需要 10 年才能实现,我们解决这些问题的时间也并不是很多,因此这方面的讨论应该从现在开始,让各种来源、各种观点的声音呈现在桌面上。
参考资料:
https://www.ft.com/content/72d2c2b1-493b-4520-ae10-41c1a7f3b7e4
本文来自微信公众号:微信公众号(ID:null),作者:新智元
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,所有文章均包含本声明。