新智元报道
编辑:犀牛
【新智元导读】Hassabis和Dario近日罕见同框,接受《经济学人》的深度访谈。两人对AGI时间表的预测产生分歧——2026年还是更远?还探讨了AI安全的紧迫性,以及他们是否担忧成为「AI界的奥本海默」。
当今世界,谁最有可能成为「AI时代的奥本海默」?
DeepMind的创始人Hassabis与Anthropic的创始人Dario无疑是热门人选。
近日,这两位AI巨头罕见地坐到了一起,在《经济学人》的访谈中,直面AGI(通用人工智能)带来的种种争议与挑战。
想象一下,几年后,你身边出现一个比爱因斯坦还聪明的AI,能设计出围棋这样精妙游戏的规则,甚至推导出全新的科学理论。
这不是科幻,而是Hassabis和Dario正在努力的方向。Dario大胆预测AGI 2026年到来,Hassabis却谨慎表示可能还要再等等。
他们一致认同的是:AI的威力远超以往任何技术,而我们是否准备好了迎接这场变革。
AGI时间表
Dario首先明确说明了什么是他认为的AGI。
「当我们拥有一种AI模型能够做到人类能做的所有事情时,比如像坐在旁边的这位诺贝尔奖得主(Hassabis)那样,在多个领域都能做得很好,可以执行任何一个人类能远距离完成的任务,这些任务可能需要几分钟、几小时、几天或几个月的时间。」Dario说。
「我的猜测是在2026年或者2027年能够实现这一点。」
随后,Dario问Hassabis是否同意他的看法。
Hassabis则认为AGI的出现可能会更远一点,只有50%的机会在5年内出现。他定义AGI的方式是,「一个能够展示所有人类认知能力的系统。」
「我认为我们现在还没有这样的系统,能够像爱因斯坦那样利用当时可获得的信息发明广义相对论。我给出的另一个例子是,你能创造出如围棋一样的游戏吗?不只是下出第37步这样的一手妙棋或构建一个可以击败世界冠军的AlphaGo,你能否真正设计出一种同样美丽的游戏?所以我认为要达到那种能力还需要一点时间。」Hassabis说。
AI的发展与平衡
随后,主持人问,在未来几年很快达到AGI的同时,各国政府需要如何意识到所面临的利害关系?
「我认为人们还没有充分理解这一点。」Hassabis说。
Hassabis认为,虽然AI在短期内被过度炒作,但仍然低估了AI在未来中长期带来的变革程度。他认为一旦这一点得到更多理解,那么就会有更多的基础来推动国际间的合作。
Hassabis说,「我们不能单打独斗,需要一些全球性的规范。我过去曾多次谈到过类似CERN(欧洲核子研究组织)的AGI研究合作模式,基本上是一个国际研究合作,专注于我们在构建第一个AGI时所需迈出的最后几步。」
Dario形容AI是「世界上突然出现了一个新国家,拥有1000万比当今世上任何人类都要聪明的人。」
「你知道,你会问他们的意图是什么?」他说,「特别是如果他们能够自主行动的话。」
Hassabis表示。AI的开发与监管平衡点需要在中间位置。「我认为我们应该拥抱AI带来的巨大机遇。我特别热衷于科学和医学领域。我认为它将彻底改变这些领域。」他说。
但他同时也强调需要意识到存在的风险。一个是是恶意人士将这项通用技术用于不法目的,另一个是来自AGI系统自身失控,或者没有正确的价值观和目标的风险。
AI界的奥本海默
接下来,主持人问了一个比较刺激的问题,「因为你们亲自领导着可能处于这一领域前沿的公司。所以你们做出的个人决定将塑造这项技术。你有没有担心会像罗伯特·奥本海默那样?」
对于这个问题,Hassabis表示一直都在担心这种情景的发生,「看,我一直在担心那样的场景。这就是为什么我睡得不多。」
Hassabis说领导这项技术的人身上肩负着巨大的责任。他认为社会需要考虑什么样的治理机构是必要的,理想情况下,会像联合国一样。
他说,有些人可能认为我们在杞人忧天,或者认为我们是在鼓吹放慢脚步之类的。「但我从没见过有哪个领域会出现这样的情况:就是带头的研究者们自己也在提出警告。我们现在面对的东西实在是颠覆性极强,威力巨大,而且是前所未有的。」
Hassabis觉得AI它并不是「又一项新技术」那么简单。他注意到,仍然有人在谈「这是非常重要的技术,但也只是又一个技术而已」。
「可我觉得它完全不同于以往任何技术。我感觉并不是所有人都真正明白这一点。」,Hassabis表示。
Dario的想法和Hassabis完全一致。他说,「我做的几乎每一个决定都像是在刀刃上保持平衡。」
「我认为我们还是得找到一种方式来建立一个更加稳健的治理结构,不能让这个技术只掌握在少数人手中。」Dario说。
Dario说早在2023年,他们就做了一些关于AI系统能否生成在谷歌或教科书中找不到的、可用于制造生物武器的信息的工作。
他们的结论是可以。Dario表示,AI刚刚开始能够做到这一点。目前还不太危险,但是每个模型都比之前的更好。
Dario表示,AI模型的风险最好在实验室观察到,如果这种风险在现实中观察到将是一个非常糟糕的结果。
智能体与未来
最后,主持人用了一个更积极的话题来结束。
「能不能各自举出一件事,就是你们认为在未来一年里,我们会看到的一个迹象,显示我们正在往你们所期望的方向前进,以及这件事将带来什么正面的影响?」
Hassabis首先说我们会看到更多智能体的出现,这些系统可以在某种程度上自主完成任务,达成一些目标,在现实世界里行动。
他认为这会催生一整类全新的实用系统,比如助理型系统,为人节约时间,提高生产力。
Hassabis认为这些智能体系统会变得更广泛地应用于日常生活,而不再只是局限在某些小众领域。再往后看,他则希望看到AI系统真正具有创造发明能力,「不仅仅是去解决某个数学猜想,而是能够自己提出一个非常有趣的新猜想,或者提出一套新的理论。」
Dario表示会关注在AI写代码,以及AI是否能用来做AI研究这一层面。
他说假如到了今年年底,我们能「构建更强AI系统的整体生产率提高50%,甚至翻一倍,那就证明我之前所说的2026或2027年左右实现AGI的时间表还是比较可信的。」
「要是比这个速度慢很多,那我就会倾向于相信Demis的设想更有可能——虽然他的时间表依然非常激进,但相比之下还是要稍微长一点。」
参考资料:
https://www.youtube.com/watch?v=4poqjZlM8Lo