歐盟計畫依三個級別 對AI模型和系統實施監管
鉅亨網編譯劉祥航 綜合報導 2023-10-18 14:30
據《彭博》報導,歐盟正考慮採用三層方法來監管生成式人工智慧 (AI) 模型和系統,這三個級別將為不同的基礎模型制定規則,並要求對最強大的技術進行更多的外部測試。
歐盟有望成為第一個對人工智慧制定強制規則的西方政府。 根據擬議的《人工智慧法》立法,要求預測犯罪或對工作申請進行分類的系統,必須接受風險評估。談判代表希望在 10 月 25 日的下次會議上,完善立法建議,目標是在今年年底前敲定。
根據擬議的規則,第一級將包括所有基礎模型。第二級針對「非常強大」的基礎模型,將透過用於訓練其大型語言模型的算力來區分。提案稱這些模型可能「超出了當前的技術水準,並且可能尚未被完全理解」。
最後,第三級被稱為大規模通用目的人工智慧系統,將包括最受歡迎的人工智慧工具,並以用戶總數來衡量。
自從去年 OpenAI 的 ChatGPT 發布以來,生成式 AI 工具迅速流行,並促使許多科技產業爭先恐後地開發自己的版本。
歐盟在如何使用該技術方面仍面臨許多關鍵問題,包括如何準確監管生成式人工智慧以及是否完全禁止人群中的即時臉部掃描。 歐盟議會和理事會的計畫招致批評,稱政府可能會阻礙小公司與主要科技巨頭競爭的能力。
歐盟三個機構的代表在本月稍早的一次會議上普遍支持分層方法,但技術專家提出了更具體的建議。根據彭博社看到的 10 月 16 日的文件,這些想法目前正在形成,但隨著談判的展開,它們可能會改變。
知情人士表示,此舉的目標是不讓新創公司承受過多監管負擔,同時又對大型企業進行控制。
目前所知,對三個級別的要求大致是:
1. 所有基礎模型 (All Foundational Models)
人工智慧開發人員在將任何模型投放市場之前都必須遵守透明度要求。公司必須對用於開發模型的內容以及如何管理版權問題提供「足夠詳細」的摘要,包括確保權利所有者可以選擇不將其內容用於訓練模型。 公司還必須確保人工智慧內容能夠與其他材料區分開來。
2. 非常強大的基礎模型 (Very Capable Foundation Models)
開發這一級技術的公司將遵守更嚴格的規則。公司還必須引入系統來幫助發現系統性風險。 這些模型推出市場後,歐盟將讓獨立審查員和研究人員執行合規控制,包括檢查公司是否遵守透明度規則。
非常強大的基礎模型將根據訓練它們所需的算力進行分類,確切的門檻將由歐盟委員會在稍後階段確定,並將根據需要進行更新。
3. 大規模通用目的人工智慧系統 (General Purpose AI Systems at Scale)
這些系統也必須接受外部專家的紅隊檢查以識別漏洞,結果將發送給委員會的人工智慧辦公室。 公司還必須引入風險評估和緩解系統。
大規模通用目的人工智慧和非常強大的基礎模型的附加規則將由新的人工智慧辦公室監督。 該機構可以索取文件、組織合規測試、創建註冊制度審核紅隊測試人員並進行調查。 該機構甚至可以「作為最後手段」暫停某個模型。
(本文不開放合作夥伴轉載)
- 2025這樣投資AI最穩健!
- 掌握全球財經資訊點我下載APP
延伸閱讀
上一篇
下一篇