menu-icon
anue logo
熱門時事鉅亨號鉅亨買幣
search icon

科技

憂「殺戮機械人」引爆第3次大戰 全球116名AI巨頭聯署促禁

鉅亨網新聞中心 2017-08-22 07:46


來自全球各地的 116 名人工智能 (AI) 專家和企業家,周一 (21 日) 在澳洲墨爾本舉行的人工智能國際會議 (IJCAI) 發表聯署公開信,呼籲聯合國採取行動禁止發展「殺戮機械人」(killer robots) 的致命自動武器,認為它們可引發自火藥和核武後的第 3 次軍事革命。

這封由美國電動汽車公司特斯拉 (Tesla) 行政總裁馬斯克 (Elon Musk)、Google 旗下人工智能公司 DeepMind 創辦人蘇萊曼 (Mustafa Suleyman)、中國優必選科技有限公司創始人周劍等 116 人聯署的公開信說,聯合國應像禁止生化武器一樣,禁止在戰爭中使用致命的自主武器。警告:「致命的自主武器有可能成為戰爭的第 3 次軍事革命。人工智能武器一旦發展起來,會令武裝衝突的激烈程度躍升到前所未有的層級,而且會以人類難以想像的速度進化。


公開信說,人工智能武器可以是恐怖武器,也可能被獨裁者和恐怖分子用來對付無辜平民。信中說:「我們沒有很多時間行動,這個潘朵拉的盒子一旦打開了,就很難關起來。」「殺手機械人」是一種「完全自主」的武器,毋須人類指令,便可選取及對付目標。

世上現時尚未出現「殺手機械人」,但憑藉發展一日千里的科技,「殺手機械人」遲早會面世。公開信主張盡快繼火藥和核武之後,把自動化武器納入《特定常規武器公約》(CCW) 中禁止使用的武器類目。該項公約於 1983 年生效,名單還包括化武和可致盲的雷射武器。

《星島日報》援引澳洲新南威爾士大學人工智能專家沃爾什 (Toby Walsh) 日前表示,他對全球人工智能武器軍備競賽感到十分擔憂。他說:「如果我們把人工智能武器運用到戰爭中去,最終人類將陷入一個非常危險、極其不穩定的世界。」 

他認為,人工智能具有雙面性,這項技術必須研發下去,但應建立在以全球人類安全為重的大前提下,並建基於各方在人工智能研發中必須就制衡達成的共識上。 

「殺手機械人」支持者相信現行戰爭法足以處理部署「殺手機械人」引發的問題,他們又辯稱即使「殺手機械人」出問題,也可暫禁使用,但並非完全取締。反對者相信,以「殺手機械人」作為武器會對人類帶來威脅。

香港《明報》報導,自動化武器指毋須人為判斷而能自動選取目標的武器,即包括無人飛機、無人坦克、自動化機槍等。專家指出,這場涉及中、美、俄和以色列的研發軍事競賽已然展開,預料數年內便可供部署,所以可供制止的餘裕無多。

聯合國早前表決通過予以正式討論。聯合國一個關注自動武器的小組原定周一 (21 日) 開會,但已押後至 11 月。2015 年,物理學家霍金等逾 1000 名科技界專家和學者也曾撰公開信,警告自動化武器存在危險。

2017 年人工智能國際會議在墨爾本開幕,2000 多名世界頂級人工智能專家匯聚一堂。今年大會的主題是「人工智能的自主性」,即人工智能自主規劃、自主糾錯、自主學習等能力。


Empty