人工智能可能會對人類構成滅絕級威脅 加拿大準備好了嗎?

加拿大都市网

【星島都市網】一家領先的人工智能安全公司本周警告說,各國(包括加拿大)已經沒有時間來設計和實施有關開發和部署先進人工智能系統的全面保障措施了。

人工智能研究人員在美國國務院委託撰寫的一份題為《深度防禦》的報告中寫道,在最壞的情況下,追求權力的超級人工智能系統可能會逃脫其創造者的控制,並對人類構成「滅絕級」的威脅。

美國國務院堅稱,作者在報告中表達的觀點並不反映美國政府的觀點。

但該報告所傳達的信息讓加拿大政府迄今為止在人工智能安全和監管方面所採取的行動再次成為人們關注的焦點–一位保守黨議員警告說,政府提出的《人工智能和數據法》已經過時了。

人工智能與每個人

總部位於美國的格拉德斯通人工智能公司(Gladstone AI)編寫了這份報告,該公司倡導負責任地開發安全的人工智能。其警告主要分為兩類。

第一類涉及人工智能開發者失去對人工通用智能(AGI)系統控制的風險。作者將AGI定義為在所有經濟和戰略相關領域都能超越人類的人工智能系統。

雖然迄今為止還不存在AGI系統,但許多人工智能研究人員認為它們離我們並不遙遠。

作者寫道:「有證據表明,當高級人工智能接近類似AGI的人類和超人綜合能力水平時,它可能會變得難以控制。具體來說,在缺乏應對措施的情況下,能力超強的人工智能系統可能會做出所謂的權力尋租行為。」

作者補充說,這些行為可能包括防止人工智能本身被關閉或其目標被修改的策略。

作者警告說,在最壞的情況下,這種失控「可能會對人類構成滅絕級的威脅」。

報告作者之一、格拉德斯通人工智能公司首席執行官傑里米·哈里斯(Jeremie Harris)周四在接受加拿大廣播公司(CBC)節目採訪時說:「這些系統有可能開始變得具有危險的創造力。它們能夠發明出危險的創造性策略,在實現編程目標的同時,產生非常有害的副作用。這就是我們所關注的失控風險」。

報告中提到的第二類災難性風險是先進的人工智能系統可能被用作武器。

哈里斯表示,其中一個例子就是網絡風險。例如,你現在可以去讓這些人工智能系統為你做一個應用程序,這是一件了不起的事情。它基本上實現了軟件工程的自動化。這對整個行業是件大好事。

「但想像一下,同樣的系統……你要求它進行大規模分佈式拒絕服務攻擊或其他網絡攻擊。這些功能強大的優化應用程序的准入門檻降低了,而使用這些系統的惡意行為者的破壞足跡也隨着系統功能的增強而迅速擴大」。

哈里斯警告說,濫用先進的人工智能系統可能會擴展到大規模殺傷性武器領域,包括生物和化學武器。

報告提出了一系列各國(首先是美國)應採取的緊急行動,以防範這些災難性風險,包括出口管制、法規和負責任的人工智能發展法律。

加拿大的立法是否已經失效?

加拿大目前沒有專門針對人工智能的監管框架。

政府於2021年11月推出了《人工智能與數據法》(AIDA),作為C-27法案的一部分。該法案旨在為加拿大負責任地設計、開發和部署人工智能系統奠定基礎。

該法案已在眾議院通過二讀,目前正由工業和技術委員會進行研究。

聯邦政府還在2023年推出了《負責任地開發和管理高級生成式人工智能系統的自願行為守則》,該守則的目的是在AIDA生效之前暫時為加拿大公司提供通用標準。

在周五的新聞發佈會上,工業部長香檳(François-Philippe Champagne)被問及,鑒於格拉德斯通人工智能報告中警告的嚴重性,他為什麼仍然相信政府提出的人工智能法案有能力監管這項快速發展的技術。

「每個人都在稱讚C-27,」香檳說。「我有機會與七國集團的同事們交談,……他們認為加拿大走在了人工智能的前沿,你知道,建立信任和負責任的人工智能」。
“每個人都在稱讚 C-27,”香檳說。”我有機會與七國集團的同事們交談,……他們認為加拿大在人工智能領域走在了前列,你知道,建立信任和負責任的人工智能。”

保守黨議員米歇爾·倫佩爾·加納(Michelle Rempel Garner)在接受CBC News採訪時表示,香檳對C-27法案的描述是無稽之談。

倫佩爾·加納說:「專家們在委員會作證時並不是這麼說的,這也不是現實。」

倫佩爾·加納是議會新興技術核心小組的聯合主席,並一直在撰文討論政府在人工智能方面加快行動的必要性。

「C-27已經過時了」。

AIDA是在世界領先的人工智能公司OpenAI於2022年推出ChatGPT之前推出的。該人工智能聊天機械人代表了人工智能技術的驚人進化。

倫佩爾·加納說:「事實上,政府並沒有實質性地解決他們在技術發生根本性變化之前就提出這項法案的問題……這有點像在印刷機廣泛普及之後還試圖監管抄寫員。政府可能需要回到繪圖板上去」。

2023年12月,格拉德斯通人工智能公司的哈里斯告訴下議院工業和技術委員會,AIDA需要修正。

「當AIDA生效時,將是2026年。前沿人工智能系統的規模將是我們今天所看到的數百到數千倍,」哈里斯告訴議員們。「AIDA的設計需要考慮到這種風險水平。」

哈里斯告訴委員會,AIDA需要明確禁止引入極端風險的系統,解決危險的強大人工智能模型的開源開發問題,並確保人工智能開發者承擔確保其系統安全開發的責任–除其他外,防止系統被國家和非國家行為者竊取。

哈里斯對議員們說:「AIDA相比現狀有所改進,但還需要進行重大修訂,以應對不遠的將來人工智能能力可能帶來的全面挑戰」。(都市網Rick編譯,圖片來源pixabay)

(ref:https://www.cbc.ca/news/politics/advanced-artificial-intelligence-risk-extinction-humans-1.7144372)

share to wechat

延伸阅读

延伸阅读

美国哥伦比亚大学报警驱逐反战学生 理事会谴责校长破坏学术自由

游泳可用!骨传导耳机自带16GB播放器特价仅售55

英国揭“阴谋论”学校 教学生“恐龙从不存在、比尔盖茨会让大家吃蟑螂”

加航选座费新政策收到大量投诉 被迫暂停实施