危及社會與人類 馬斯克與專家聯署呼籲暫停訓練更強大AI至少半年

加拿大都市网

馬斯克與AI專家聯署呼籲暫停訓練更強大AI至少半年。AP/路透

Telsa行政總裁馬斯克(Elon Musk)與一群人工智能(AI)專家、業界高層,共同發表公開信,呼籲暫停訓練比GPT-4還強大的AI系統,理由是有可能危及社會與人類。目前,這封信已有1079名科技領袖和研究人員簽名,除了馬斯克、辛頓和馬庫斯之外,還包括圖靈獎得主約書亞·本希奧(Yoshua Bengio)、《人工智能:現代方法》作者羅素(Stuart Russell)、 蘋果公司聯合創始人沃茲尼亞克(Steve Wozniak)、Stability AI首席執行官莫斯塔克(Emad Mostaque)等科技界領袖人物。

美國未來生命研究所(Future of Life Institute)29日公布一封公開信,呼籲所有AI實驗室立即暫停訓練比GPT-4更強大的AI系統至少6個月。信中寫道:廣泛的研究表明,具有與人類競爭智能的人工智能系統可能對社會和人類構成深遠的風險,這一觀點得到了頂級人工智能實驗室的承認。正如廣泛認可的「阿西洛馬人工智能原則(Asilomar AI Principles,阿西莫夫的機械人三大法則的擴展版本,於2017年由近千名人工智能和機械人專家簽署)中所述,高級AI可能代表地球生命史上的深刻變化,應該以相應的關照和資源進行規劃和管理。不幸的是,這種級別的規劃和管理並沒有發生,儘管最近幾個月人工智能實驗室陷入了一場失控的競賽,以開發和部署更強大的數字思維,沒有人(甚至他們的創造者)能理解、預測或可靠地控制。

「當代人工智能系統現在在一般任務上變得與人類具有競爭力,我們必須捫心自問:我們是否應該讓機械用宣傳和謊言充斥我們的信息渠道?我們是否應該自動化所有工作,包括令人滿意的工作?我們是否應該發展最終可能比我們更多、更聰明,淘汰並取代我們的非人類思維?我們應該冒險失去對我們文明的控制嗎?」這封信寫道,「只有當我們確信它們的影響是積極的並且風險是可控的時候,才應該開發強大的人工智能系統。這種信心必須有充分的理由,並隨着系統潛在影響的規模而增加。OpenAI最近關於通用人工智能的聲明指出,『在某些時候,在開始訓練未來的系統之前進行獨立審查可能很重要,並且對於最先進的工作來說,應該同意限制用於創建新模型的計算量增長。』我們同意。那個某些時候就是現在。」

share to wechat

延伸阅读

延伸阅读

限今天!Sorel高帮休闲鞋一律$99.98

特朗普掩口费案惊传男子庭外自焚 烧成火球情景骇人 目击者:他把易燃液体往身上泼

约克区警队本月底将举行亚裔招聘会!

25岁何超欣改变风格展示骄人身材 被同学揭美国读书时真实一面