menu-icon
anue logo
熱門時事鉅亨號鉅亨買幣
search icon


台股

鴻海自駕技術跨大步 發布多模態軌跡預測模型ModeSeq

鉅亨網記者彭昱文 台北


鴻海 (2317-TW) 旗下鴻海研究院人工智慧研究所與香港城市大學合作提出 ModeSeq 模型,近期推出改良版模型「Parallel ModeSeq」,參加 2025 年 CVPR WAD workshop 國際自動駕駛競賽 Waymo Open Dataset (WOD) Challenge - Interaction Prediction 挑戰賽獲得冠軍。

cover image of news article
鴻海自駕技術跨大步 發布多模態軌跡預測模型ModeSeq。(圖:鴻海研究院)

鴻海研究院人工智慧研究所長栗永徽表示,ModeSeq 技術能夠為自動駕駛車輛提供更準確、多樣化的交通參與者行為預測,直接提升決策系統的安全性,降低計算成本,並且具備獨特的模態外推(mode extrapolation)能力,能夠根據場景的不確定性程度動態調整預測的行為模式數量。


鴻海研究院團隊已於今年 6 月 13 日在會議上發表多模態軌跡預測模型 ModeSeq,並獲得電腦視覺與圖形辨識 CVPR 2025(IEEE Computer Vision and Pattern Recognition Conference)收錄,CVPR 是人工智慧與計算機視覺領域最具有影響力的國際學術會議。

ModeSeq 提出的方法,是使用順序模式建模並設計 Early-Match-Take-All (EMTA)損失函數來增強多模態軌跡預測。 ModeSeq 使用因式分解變換器(Factorized Transformers)進行場景編碼,並使用結合記憶變換器與因式分解變換器模組 ModeSeq 層的解碼器。

本次研究,由鴻海研究院人工智慧研究所與香港城市大學團隊、美國卡內基梅隆大學研究人員共同合作完成,在 Motion Prediction Benchmark 測試中,mAP、soft mAP 方面優於以往的方法,同時在 minADE 和 minFDE 指標上保持了可比的性能

文章標籤



Empty