智东西
编译 陈骏达
编辑 Panken
智东西2月8日消息,今天下午,斯坦福大学教授、以人为本AI研究中心主任李飞飞发布公开信,大力支持开源AI。
近期,DeepSeek在爆火后遭遇美国乃至全球大量相关机构、企业的围追堵截,不过,也有诸如杨立昆(Yann LeCun)、马克·安德森(Marc Andreessen)等业内知名人士发出不同意见,支持开源AI。李飞飞此时就开源问题发声,似乎也从侧面回应了近期的相关讨论。
李飞飞在信中强调,AI的未来已来,但令人忧心的是,AI治理似乎缺乏一个总体框架,无法有效确保其能够造福全人类。更严重的是,一些科幻小说般、意识形态化的概念似乎正渗透到AI治理框架的制定过程中,需要用科学的观念和务实的态度极力避免。
她认为限制对先进AI系统的访问将制造障碍并减缓创新,这对学术界和人才培养来说都是极为不利的,并会最终反噬AI行业的发展。
过去一年,李飞飞除了在空间智能领域创立World Labs之外,还一直积极参与AI领域相关政策、治理框架的公开讨论,倡导公共部门加大对AI的投入,并反思了自己过去用ImageNet创造的众包AI模式的公平性问题。
以下为李飞飞公开信的完整编译:
AI治理框架,刻不容缓
AI正在以惊人的速度发展。过去需要计算模型花费数天时间完成的任务,如今仅需几分钟即可完成。尽管训练成本大幅上升,但随着开发者学会用更少的资源做更多的事情,这些成本很快就会下降。我之前说过,现在再重复一次——AI的未来已来。
对于AI领域业内人士来说,这并不令人惊讶。计算机科学家一直在努力工作,企业多年来也在不断创新。令人惊讶且引人关注的是,AI治理似乎缺乏一个总体框架。是的,AI正在快速发展——随之而来的是确保其造福全人类的必要性。
作为一名技术专家和教育工作者,我坚信全球AI生态系统中的每个人都有责任推动技术进步,并确保以人为中心的方法。这是一项艰巨的任务,需要一套结构化的指导方针。为准备下周在巴黎举行的AI行动峰会,我为未来的AI政策制定提出了三项基本原则。
首先,依靠科学,而非科幻。科学工作的基础是原则性地依赖实证数据和严谨的研究,同样的方法也应应用于AI治理。尽管未来主义的场景——无论是乌托邦还是末日——激发了我们的想象力,但有效的政策制定需要对当前现实有清晰的认识。
我们在图像识别和自然语言处理等领域取得了显著进展。聊天机器人和辅助软件程序正在以令人兴奋的势头改变工作方式——但它们只是应用了先进的数据学习和模式生成技术。它们并非具有意图、自由意志或意识的智能形式。理解这一点至关重要,能使我们免于被不切实际的场景分散注意力,并让我们能够专注于关键的挑战。
鉴于AI的复杂性,即使专注于现实也并不总是容易的。为了弥合科学进步与现实应用之间的差距,我们需要能够准确分享有关AI能力最新信息的工具。像美国国家标准与技术研究院这样的权威机构可以阐明AI在现实世界中的影响,从而制定基于技术现状的精确、可操作的政策。
其次,务实而非意识形态化。尽管AI领域发展迅速,但它仍处于起步阶段,其最大的贡献还在未来。因此,关于什么可以构建、什么不可以构建的政策必须以务实的方式制定,以尽量减少意外后果,同时激励创新。
以AI用于更准确诊断疾病为例。这有可能迅速普及高质量医疗服务的获取。然而,如果没有适当的引导,它也可能加剧当今医疗系统中存在的偏见。
开发AI技术并非易事。开发一个模型可能是出于好的意图,但该模型可能会在未来被滥用。因此,最好的治理政策应旨在战术性地减轻此类风险,同时奖励负责任的实践。政策制定者必须制定实用的责任政策,以阻止故意滥用,同时不会不公平地惩罚善意的行为。
最后,赋能AI生态系统。这项技术可以激励学生,帮助我们照顾老龄化人口,并为清洁能源创新解决方案——而最好的创新往往通过合作实现。因此,政策制定者赋能整个AI生态系统——包括开源社区和学术界——显得尤为重要。
开放获取权限的AI模型和计算工具对进步至关重要。限制访问将制造障碍并减缓创新,特别是对于资源较少的学术机构和研究人员而言。这种限制的后果当然不仅限于学术界。如果今天的计算机科学学生无法使用最佳模型进行研究,他们在进入私营部门或决定创办自己的公司时将无法理解这些复杂的系统——这是一个严重的差距。
AI革命已经到来——我对此感到兴奋。在AI驱动的世界中,我们有潜力显著改善人类的生活条件,但为了实现这一目标,我们需要以实证为基础、协作性强且深深植根于以人为中心价值观的治理体系。