IT之家 1 月 5 日消息,当地时间 1 月 4 日,据英国《卫报》报道,英国先进研究与发明署(Aria Agency)项目主管、AI 安全专家 David Dalrymple 警告称,前沿 AI 系统带来的安全风险发展速度之快,可能已经让世界来不及充分准备

Dalrymple 在接受采访时指出,AI 能力的快速跃升值得高度关注。人们应当关注在现实世界中完成各类事务、并且表现优于人类的系统。“为了维持对文明、社会和地球的控制,人类需要在若干关键领域保持主导地位,而在这些领域中,人类将被全面超越。”


Dalrymple 认为,政府部门与 AI 企业之间,对即将出现的技术突破仍存在明显认知落差。从安全角度看,防护措施很可能难以跑在技术前面。在 5 年左右的时间尺度内,大多数具有经济价值的工作,可能会被机器以更低成本和更高质量完成。

他同时强调,各国政府不能假定先进 AI 系统天然可靠。“在经济压力之下,用于验证可靠性的科学方法,很可能无法及时成熟。因此,现实可行的选择,是尽可能控制并缓解潜在风险。”

他将“技术进步跑在安全前面”的后果形容为安全与经济体系的潜在失稳,并呼吁加强对先进 AI 行为的理解与控制。技术进步也可能带来积极结果,但整体风险极高,而人类社会对这场转变仍显得警觉不足

IT之家从报道中获悉,英国 AI 安全研究所本月发布的评估显示,先进 AI 模型能力在各领域持续快速提升,部分性能指标约每 8 个月翻倍。领先模型在学徒级任务中的成功率已从去年的约 10% 升至 50%,并已能够独立完成耗时超过 1 小时的专业任务。

研究所还测试了模型的自我复制能力。由于自我复制可能导致系统失控,这被视为核心安全风险之一。测试中,两款前沿模型的成功率超过 60%,但研究所同时指出,在现实环境中出现极端失控情况的概率仍然较低。

Dalrymple 进一步判断,到 2026 年末,AI 可能具备自动完成整日研发工作的能力,并在数学和计算机科学等关键领域实现自我强化,从而推动新一轮能力加速。