人工智能可能会对人类构成灭绝级威胁 加拿大准备好了吗?

加拿大都市网

【星岛都市网】一家领先的人工智能安全公司本周警告说,各国(包括加拿大)已经没有时间来设计和实施有关开发和部署先进人工智能系统的全面保障措施了。

人工智能研究人员在美国国务院委托撰写的一份题为《深度防御》的报告中写道,在最坏的情况下,追求权力的超级人工智能系统可能会逃脱其创造者的控制,并对人类构成“灭绝级”的威胁。

美国国务院坚称,作者在报告中表达的观点并不反映美国政府的观点。

但该报告所传达的信息让加拿大政府迄今为止在人工智能安全和监管方面所采取的行动再次成为人们关注的焦点–一位保守党议员警告说,政府提出的《人工智能和数据法》已经过时了。

人工智能与每个人

总部位于美国的格拉德斯通人工智能公司(Gladstone AI)编写了这份报告,该公司倡导负责任地开发安全的人工智能。其警告主要分为两类。

第一类涉及人工智能开发者失去对人工通用智能(AGI)系统控制的风险。作者将AGI定义为在所有经济和战略相关领域都能超越人类的人工智能系统。

虽然迄今为止还不存在AGI系统,但许多人工智能研究人员认为它们离我们并不遥远。

作者写道:“有证据表明,当高级人工智能接近类似AGI的人类和超人综合能力水平时,它可能会变得难以控制。具体来说,在缺乏应对措施的情况下,能力超强的人工智能系统可能会做出所谓的权力寻租行为。”

作者补充说,这些行为可能包括防止人工智能本身被关闭或其目标被修改的策略。

作者警告说,在最坏的情况下,这种失控“可能会对人类构成灭绝级的威胁”。

报告作者之一、格拉德斯通人工智能公司首席执行官杰里米·哈里斯(Jeremie Harris)周四在接受加拿大广播公司(CBC)节目采访时说:“这些系统有可能开始变得具有危险的创造力。它们能够发明出危险的创造性策略,在实现编程目标的同时,产生非常有害的副作用。这就是我们所关注的失控风险”。

报告中提到的第二类灾难性风险是先进的人工智能系统可能被用作武器。

哈里斯表示,其中一个例子就是网络风险。例如,你现在可以去让这些人工智能系统为你做一个应用程序,这是一件了不起的事情。它基本上实现了软件工程的自动化。这对整个行业是件大好事。

“但想象一下,同样的系统……你要求它进行大规模分布式拒绝服务攻击或其他网络攻击。这些功能强大的优化应用程序的准入门槛降低了,而使用这些系统的恶意行为者的破坏足迹也随着系统功能的增强而迅速扩大”。

哈里斯警告说,滥用先进的人工智能系统可能会扩展到大规模杀伤性武器领域,包括生物和化学武器。

报告提出了一系列各国(首先是美国)应采取的紧急行动,以防范这些灾难性风险,包括出口管制、法规和负责任的人工智能发展法律。

加拿大的立法是否已经失效?

加拿大目前没有专门针对人工智能的监管框架。

政府于2021年11月推出了《人工智能与数据法》(AIDA),作为C-27法案的一部分。该法案旨在为加拿大负责任地设计、开发和部署人工智能系统奠定基础。

该法案已在众议院通过二读,目前正由工业和技术委员会进行研究。

联邦政府还在2023年推出了《负责任地开发和管理高级生成式人工智能系统的自愿行为守则》,该守则的目的是在AIDA生效之前暂时为加拿大公司提供通用标准。

在周五的新闻发布会上,工业部长香槟(François-Philippe Champagne)被问及,鉴于格拉德斯通人工智能报告中警告的严重性,他为什么仍然相信政府提出的人工智能法案有能力监管这项快速发展的技术。

“每个人都在称赞C-27,”香槟说。“我有机会与七国集团的同事们交谈,……他们认为加拿大走在了人工智能的前沿,你知道,建立信任和负责任的人工智能”。
“每个人都在称赞 C-27,”香槟说。”我有机会与七国集团的同事们交谈,……他们认为加拿大在人工智能领域走在了前列,你知道,建立信任和负责任的人工智能。”

保守党议员米歇尔·伦佩尔·加纳(Michelle Rempel Garner)在接受CBC News采访时表示,香槟对C-27法案的描述是无稽之谈。

伦佩尔·加纳说:“专家们在委员会作证时并不是这么说的,这也不是现实。”

伦佩尔·加纳是议会新兴技术核心小组的联合主席,并一直在撰文讨论政府在人工智能方面加快行动的必要性。

“C-27已经过时了”。

AIDA是在世界领先的人工智能公司OpenAI于2022年推出ChatGPT之前推出的。该人工智能聊天机器人代表了人工智能技术的惊人进化。

伦佩尔·加纳说:“事实上,政府并没有实质性地解决他们在技术发生根本性变化之前就提出这项法案的问题……这有点像在印刷机广泛普及之后还试图监管抄写员。政府可能需要回到绘图板上去”。

2023年12月,格拉德斯通人工智能公司的哈里斯告诉下议院工业和技术委员会,AIDA需要修正。

“当AIDA生效时,将是2026年。前沿人工智能系统的规模将是我们今天所看到的数百到数千倍,”哈里斯告诉议员们。“AIDA的设计需要考虑到这种风险水平。”

哈里斯告诉委员会,AIDA需要明确禁止引入极端风险的系统,解决危险的强大人工智能模型的开源开发问题,并确保人工智能开发者承担确保其系统安全开发的责任–除其他外,防止系统被国家和非国家行为者窃取。

哈里斯对议员们说:“AIDA相比现状有所改进,但还需要进行重大修订,以应对不远的将来人工智能能力可能带来的全面挑战”。(都市网Rick编译,图片来源pixabay)

(ref:https://www.cbc.ca/news/politics/advanced-artificial-intelligence-risk-extinction-humans-1.7144372)

share to wechat

延伸阅读

延伸阅读

林忆莲迎58岁生日发照片被赞冻龄!

安省报告超115例与日食有关的眼部损伤!

11岁男孩被运输卡车撞倒 伤势严重!

超值价!The North Face Antora男款夹克仅售$83.98