聯發科攜手中研院、國教院 釋出繁體中文語言生成模型
鉅亨網記者魏志豪 台北 2023-02-23 20:00
聯發科 (2454-TW) 集團轄下的前瞻技術研究單位聯發創新基地、中央研究院詞庫小組和國家教育研究院三方所組成的研究團隊,今 (23) 日開放全球第一款繁體中文語言模型到開源網站提供測試。
聯發科指出,本次公開釋出以開源語言模型 BLOOM 開發的繁體中文大型語言模型 (large language model),比目前開源可用的最大繁體中文模型大 1000 倍,所使用的訓練資料也多 1000 倍。該模型已公開讓外界下載,可應用於問答系統、文字編修、廣告文案生成、華語教學、客服系統等。
聯發創新基地負責人許大山表示,大型語言模型是近年來人工智慧技術進步的亮點,更是未來進步不可或缺的基石,聯發科向來重視創新及科技發展,此次結合中研院及國教院,成為台灣極少數能訓練大型語言模型的團隊,以透明、開放和包容的方式,善用技術、人才及資源,既發展自主訓練大型人工智慧模型的能力,也讓繁體中文的大型語言模型研究及應用更為普及。
開放原始碼釋出的大型語言模型,目前多數仍以英文為主要優化的對象,繁體中文的語言模型相對不足。為此中央研究院詞庫小組在 2019 年開發並公開 BERT 和 GPT-2 的繁體中文優化版本,但是因為資料量的差距,這些模型與主流的大型語言模型差距越來越大。
有鑑於開放原始碼繁體中文大型語言模型的重要性與迫切性,在 2022 年 5 月,聯發創新基地、中央研究院和國家教育研究院展開合作計畫,使用大型語言模型 BLOOM 的繁體中文模型再訓練與優化。目前開放系列中第一個有量級跳躍意義的繁體中文語言模型,聯發創新基地也暫備一個手機網頁的介面,供語言模型研究者試用。此模型系列的評量指標,以及參數量更大 (176B) 的模型,將會陸續開放下載。
為了建立該項語言模型,國家教育研究院提供了大量高品質的繁體中文語料,作為主要的訓練材料。聯發創新基地則建置了訓練的硬體環境,制訂各種符合國際標準的繁體中文評量指標,收集更近期的語料,並對模型進行能更有效讀懂使用者的指示(prompt)的特別訓練。中央研究院詞庫小組則針對模型生成的文字是否具有偏見或敵意等不合適的內容,進行自動偵測與改正的研究與評估。評估結果表明,這套由三方提供的一系列繁體中文語言模型,均達到開源模型前所未有的效果,較能避免具有偏見或敵意的內容。
大型語言模型近來的蓬勃發展,源自於 2019 年 Google 推出的 BERT 語言模型,以及同年 OpenAI 開始推出的一系列 GPT 語言模型。這些大型語言模型已經被證實具備相當的知識與能力,即使在少量訓練資料,甚至無訓練資料之下也依然能夠對新任務產生正確結果,已成為人工智慧往前進化不可或缺的基礎。
- 安全可靠的多資產平台!靈活槓桿 免費模擬
- 掌握全球財經資訊點我下載APP
鉅亨贏指標
了解更多#波段上揚股
延伸閱讀
上一篇
下一篇