menu-icon
anue logo
澳洲房產鉅亨號鉅亨買幣
search icon

科技

AI最大的障礙並非技術 微軟:是道德約束

鉅亨網新聞中心 2017-12-19 14:39


摘要:對 AI 技術未來發展最大的風險,來自演算法偏見、低品質的「飼料」數據等被忽視的道德問題。微軟主管認為,打消人們疑慮的關鍵,在於健全的道德約束,以及擴大 AI 營運的透明度,但比起監管部門的介入,他更希望由業者自行整頓。

據 Axios 報導,主責人工智慧 (AI) 與研究業務的微軟全球執行副總裁沈向洋 (Harry Shum) 日前表示,AI 讓各式科技產品得以改善,但真正的挑戰在於,如何讓人們信任、接受 AI。


所有 AI 方面的技術進步都很棒,產品也很棒... 但人們還是對他們存有戒心。

沈向洋是在舊金山接受 Axios 採訪時,做出以上表述。沈認為,打消人們疑慮的關鍵,在於健全的道德約束,以及擴大 AI 營運的透明度,微軟正致力推動這兩方面的發展。

沈向洋稱,微軟內部已經設立了 AI 道德顧問委員會,並力圖在整個行業掀起一場相關議題的大討論。

對於科幻小說描繪的 AI 超越、奴役人類的戲碼,沈倒是不擔心,「真正讓我們在意的是 AI 技術的實際應用。」在沈向洋看來,AI 技術未來發展最大的風險,來自演算法偏見、低品質的「飼料」數據等被忽視的道德問題。

什麼是「演算法偏見」?

就文化內容的創造角度而言,「演算法偏見」最直接的案例,就是今日頭條的內容推播。人民日報今年 9 月三評今日頭條所採用的「演算法推薦」,稱不能讓演算法決定內容、別被演算法困在「資訊繭房」、警惕演算法走向創新的反面,並非空穴來風。

在網路上產生內容,並推播到終端用戶的今天,技術、代碼、演算法替代了傳統內容分發過程中專門把關內容的編輯。內容能否推播、推播給誰,都是機器說了算,依據的標準就一條:能不能抓眼球、能不能吸引用戶點閱。

這種追求創造流量的模式,最終釀成了媒體業「劣幣驅逐良幣」的現實,單一的標準不僅容易忽視優質內容更豐富的面向,也增加了把關內容產品的難度和成本。即使事後不斷處罰違規的內容賬號,在利益驅動下,也無法停止劣質內容的再次生長。

低品質的「飼料」數據可能將 AI 帶入歧途

去年 3 月,微軟在推特上推出的一款線上聊天人工智慧 Tay,最初設計是用來和年輕人自然交流,並在與人互動中學習並完善自身的語言架構。

但在上線後,Tay 很快被人發現其學習演算法的弱點,被灌輸以大量種族歧視、性別歧視和同性戀歧視內容。結果是,Tay 開始面向數百萬粉絲髮出帶有不當內容的推文。

Tay 帶有不當內容的推文 來源:推特

在被問及這一事件時,沈向洋表示,

這是第一次——也希望是唯一一次——我得向全公司發出公開信並致歉。這確實是我和我的團隊的錯誤所致... 公司內外的很多人都問,「為什麼你們的中文或日文聊天機器人不會出這個問題呢?」

每個社會都是不同的,我們本應該將這種文化敏感性納入考量。

AI 道德架構的形成 應該讓科技巨頭們帶領嗎?

在被問及未來 AI 產品是否應該被納入監管時,沈向洋表示,

對於監管部門應該多快參與進來,我並沒有什麼具體的想法... 我覺得應該由行業內部像我們 (微軟) 這樣的科技龍頭企業帶領(探討監管的可能性)。

然而,制訂 AI 的道德準則架構,很可能也意味著限定了未來 AI 行業領域的遊戲規則。人工智慧不僅對頂級人才的研發水準提出了苛刻的要求;如果沒有海量數據的「投餵」,讓 AI 在深度學習的過程中不斷「試錯」,從提供量變到產生質變,就算有人才有天賦也是白搭。

Alphabet(Google 母公司),亞馬遜,蘋果,Facebook 和微軟這五大科技巨頭,還有他們的中國同行阿里、騰訊和百度,掌控着世界上所有最好的數據,若讓業者自發討論與推動 AI 道德的形成,也就意味著科技巨頭們不僅從源頭上控制了 AI 未來的發展,更可能對 AI 行業的准入門檻和數據合規造成深遠的影響。

人工智慧的技術根基和自由競爭的初創精神,可能從一開始就是一組對立的悖論。

 

 

『新聞來源/華爾街見聞』


Empty