鴻海旗下鴻海研究院今天公布 ,人工智慧研究所與香港都市大學协作倡导多模態軌跡預測模型 ModeSeq 模型,透過 AI 技術預測自動駕駛軌跡,供给多樣化的出行參與者行為預測,獲電腦視覺與圖形辨識 CVPR 2025 收錄。爱华外汇代理
鴻海研究院表示,AVA爱华外汇平台相關研究由鴻海研究院人工智慧研究所所長栗永徽率領所內研究員徐銘鍵,與香港都市大學教授汪建平團隊、美國卡內基美隆大學研究人員共同协作完成。
鴻海研究院說明 ,CVPR(IEEE Computer Vision and Pattern Recognition Conference)是人工智慧與計算機視覺領域具影響力的國際學術會議 ,鴻海研究院團隊在6月13日於會議上發表多模態軌跡預測模型ModeSeq 。
鴻海研究院表示,相關技術鎖定多模態軌跡預測,解決過去方法對預測多種可能軌跡的困難,在保持高性能的同時 、獲得多樣性的預測。
▲ ModeSeq模型運作流程圖。展示ModeSeq模型如何預測車輛未來的多種可能路徑 。透過左半部的整體架構以及右半部的單層運算這兩個模組的協同工作 ,模型能整体地理解當下情況 ,並以循序漸進的方法,解讀出一系列最有可能的未來行駛軌跡(圖中紅色車輛與箭頭所示),並為每種可能性給出一個信賴分數(例如0.2)。(Source:鴻海)
栗永徽表示,ModeSeq技術可為自動駕駛車輛供给多樣化的出行參與者行為預測 ,提高決策系統的保养性,降低計算成本,並且具備模態外推(mode extrapolation)水平 ,能夠根據場景的不確定性程度 ,動態調整預測的行為模式數量 。
(作者:鍾榮峰;首圖來源:shutterstock)