世界“可能没时间”为应对尖端AI系统安全风险做准备-新华网
新华网 > > 正文
2026 01/16 15:38:02
来源:参考消息网

世界“可能没时间”为应对尖端AI系统安全风险做准备

字体:

  参考消息网1月15日报道 据英国《卫报》网站1月5日报道,英国政府科研机构的一位知名专家称,世界“可能没有时间”为应对尖端人工智能(AI)系统构成的安全风险做准备。

  英国高级研究与发明局(ARIA)项目主任、AI安全专家戴维·达尔林普尔告诉《卫报》记者,人们应当对这项技术不断增强的能力感到担忧。

  他说:“我认为我们应该对于能够完成人类所能从事的所有功能——甚至做得更好——的系统感到担忧。我们将会在所有我们需要处于支配地位——以便维持对我们的文明、社会和地球的控制——的领域中被打败。”

  达尔林普尔称,公共部门与AI公司对于即将到来的AI技术突破的影响力存在认知落差。他说:“我要忠告大家:形势发展得很快,从安全角度看,我们可能没有时间赶到它的前面。预计未来五年内大多数具有经济价值的任务将由机器以比人类更高的质量和更低的成本完成,这绝非科幻小说。”

  达尔林普尔表示,各国政府不应主观地假定先进系统是可靠的。他说:“我们不能主观地假定这些系统是可靠的。鉴于经济上的压力,相关的科学研究工作不大可能如期拿出成果。因此,接下来我们所能做的最重要的——也许是我们能够及时做到的——事情就是控制和降低其负面影响。”

  达尔林普尔称技术进步领先于安全防范的后果将是“安全和经济的去稳定化”,并表示在理解和控制先进AI系统的行为方面需要进行更多的技术性努力。

  他说:“尽管进步可能被污蔑为不利于稳定,但实际上这可能是好事,这也正是许多前沿研究者所希望的。我正在致力于试图让情况变得更好,但这存在极高的风险,人类文明正以完全的梦游状态走入这个过渡期。”

  英国政府的人工智能安全研究所(AISI)本月表示,先进AI模型的能力正在所有领域得到“迅速提升”,在某些领域中其性能每隔八个月便能提高一倍。

  据该研究所称,位居前列的人工智能模型现在执行学徒级任务的平均完成率从去年的大约10%上升到了50%。该研究所还发现,最先进的系统能够自主完成人类专家需要耗时一个多小时才能完成的任务。

  该机构还测试了先进模型的自我复制能力——该能力是一项关键的安全担忧,因为这意味着AI系统可以把自身副本扩散至其他装置中,从而变得更加难以控制。测试显示两个前沿模型实现了超过60%的自我复制成功率。

  但人工智能安全研究所强调,最坏的情况不大可能在日常环境中出现,认为任何自我复制的尝试“在真实世界条件下不大可能获得成功”。

  达尔林普尔认为,到2026年底AI系统将能够自动完成相当于一整天的研发工作任务,这将“推动其能力的进一步加速”,因为技术将能够在人工智能开发的数学和计算机科学元素层面实现自我优化。

【纠错】 【责任编辑:郭晓婷】