鉅亨網編譯許家華
Meta Platforms(META-US) 正推動一項內部人工智慧訓練計畫,透過追蹤員工在電腦上的鍵盤輸入與滑鼠操作,以蒐集真實使用行為數據,涵蓋 Google、LinkedIn 及 Wikipedia 等數百個網站與應用程式,引發隱私與監控爭議。
根據內部訊息與外媒報導,該工具名為「Model Capability Initiative」(MCI),可觀察員工在工作電腦上的操作行為,包括滑鼠移動、點擊與選單操作等,並將相關數據用於 AI 模型訓練。追蹤名單除上述網站外,還包括微軟 (MSFT-US) 旗下 GitHub、Salesforce(CRM-US)的 Slack,以及 Atlassian(TEAM-US)等企業工具平台。
此外,Meta 內部產品如 Threads 及 Manus 亦列入觀察範圍,名單仍持續調整,初期甚至包含 OpenAI 的 ChatGPT 與 Anthropic 的 Claude 等 AI 應用。該計畫由 Meta 內部「超級智慧實驗室」(MSL) 主導,並透過內部備忘錄向員工說明,以緩解對監控與隱私的疑慮。
此項資料蒐集計畫被視為執行長馬克 · 祖克柏加速追趕生成式 AI 競爭的重要策略之一。Meta 目前在該領域落後於 OpenAI、Anthropic 及 Google 等競爭對手。為縮小差距,祖克柏自去年夏季起大舉投資 AI,延攬亞歷山大 · 王等業界人才,強化基礎模型研發能力。
本月稍早,Meta 發布新一代 AI 模型「Muse Spark」,為其 Muse 系列首款產品,由 MSL 團隊主導開發,象徵公司在 AI 領域的最新進展。與其他科技巨頭相同,Meta 正積極發展可執行辦公與程式任務的 AI 代理 (agent),目標取代部分白領工作流程。
Meta 發言人證實 MCI 計畫存在,並表示若要打造能協助人類完成日常電腦操作的 AI 代理,模型必須學習真實使用情境,例如滑鼠操作、點擊行為與介面導航等。公司強調,該工具設有保護機制,僅用於模型訓練,不會用於其他用途。
然而,多名 Meta 員工在內部討論中形容此計畫「反烏托邦」,並對潛在風險表達憂慮,包括可能意外暴露密碼、新產品開發細節,以及員工個人敏感資訊如移民身分、健康狀況與家庭資料。
MSL 內部文件則指出,為讓 AI 模型具備電腦操作能力,必須建立「大規模且無偏差」的資料集,並需擷取螢幕內容作為操作背景。文件強調,工具僅能讀取螢幕顯示內容,不會存取檔案或附件,且若有個人資訊被截取,亦不會被模型學習。
備忘錄同時建議員工避免在公司電腦處理私人事務,以降低個資暴露風險。整體而言,該計畫突顯科技巨頭在 AI 競賽中對數據需求的高度依賴,但也再次引發企業監控與隱私界線的討論。
上一篇
下一篇
