via 鏈新聞 ABMedia · DW 撰写
輝達、聯發科雙強聯手打造 AI 原生助理未來車

輝達 (NVIDIA)與聯發科(MediaTek)展開深度合作關係, 雙強聯手建構高效的中央運算架構,NVIDIA DRIVE AGX 運算平台將人工智慧從單一指令接收器轉化為具備推理能力的 AI 代理,整合聯發科的 Dimensity AX 座艙晶片,藉由邊緣運算與雲端資源使車輛能提供低延遲、高隱私且具備個人化 AI 代理的體驗。
車載 AI 代理混合架構處理複雜運算需求
車載 AI 代理採用混合架構(Hybrid Architecture)以應對多元化的任務需求。邊緣端由 NVIDIA DRIVE AGX 平台執行,專門處理對延遲極度敏感(反應時間低於 500 毫秒)且涉及隱私的本地任務,例如語音控制、影像辨識及車輛遙測數據分析。即使在網路收訊不穩定或中斷的情況下,本地端仍能運行參數達 7B 以上的大型語言模型與視覺語言模型(VLM),確保基本功能運作。相對地,雲端環境則扮演「AI 工廠」的角色,負責執行網頁搜尋、複雜行程規劃等高運算需求任務持續進行模型訓練、微調與驗證,隨後將優化後的成果部署回車端,達成動態的效能平衡。
AI代理編排如何優化使用者體驗?
為了確保使用者在邊緣與雲端轉換間獲得無縫體驗,系統導入代理編排(Agent Orchestration)機制。當駕駛提出複雜需求時,系統會根據當前情境自動辨識意圖,將任務路由至正確的本地或雲端代理協作。例如討論行程時,系統會調動本地導航與雲端搜尋代理共同工作。關鍵在於上下文共享(Context Sharing)技術,系統會在不同平台間同步相關背景資訊,避免使用者重複指令,確保雲端資訊能正確反饋給本地系統。這種透明化的互動邏輯(UX Transparency)能追蹤非同步任務狀態,確保系統即使在網路切換或中斷時,仍能維持穩定且連貫的服務品質,減少對駕駛的干擾。
軟體堆疊對跨平台部署的效能為何?
NVIDIA 透過 NeMo 與 TensorRT 提供統一的軟體架構,有效縮短從研發到實際部署的技術鴻溝。開發者可以在雲端環境使用 TensorRT-LLM 進行大規模推論,能無縫遷移至車載邊緣端的 TensorRT Edge-LLM 部署模型,這種一致性的工具鏈不僅確保了模型在不同環境下的效能與可靠性,也建立起「混合邊緣 X 雲端反饋循環」,透過車輛實際使用數據的累積,助理程式能不斷進行迭代進化,使其理解力與反應更趨精準,汽車製造商能更靈活地更新車載功能,使車輛具備隨使用時間自我優化的能力,大幅延長車載系統的技術生命週期。

NVIDIA 攜手聯發科實現未來 AI 原生車
NVIDIA 與聯發科合作的中央電腦架構將聯發科的 MediaTek Dimensity AX 系列座艙的晶片(SoC)與 NVIDIA DRIVE AGX 平台的 Orin 或 Thor 相結合。在此架構中,Dimensity AX 負責處理高階車內遊戲、多媒體與傳統資訊娛樂系統(IVI)的工作負載;而 NVIDIA DRIVE AGX 則專注於處理人工智慧運算,支持多模態應用與自動駕駛功能。
NVIDIA 與聯發科合作的晶片架構主要是將 MediaTek Dimensity AX 系列座艙系統單晶片(SoC)與 NVIDIA DRIVE AGX 平台相結合,構建出一種中央電腦(Central Car Computer)架構。
以下為該合作架構的關鍵細節:
- 核心組件將 MediaTek Dimensity AX C-X1(或 C 系列)座艙 SoC 與 NVIDIA 的 DRIVE AGX(如 Orin 或 Thor)配對使用。
- MediaTek Dimensity AX 負責處理高階車內遊戲、多媒體以及傳統的資訊娛樂系統(IVI)工作負載。
- NVIDIA DRIVE AGX 卸載 AI 工作負載,支援多數 AI 模型,實現豐富的多模態應用與自動駕駛。
- 聯發科的 Dimensity 平台與 NVIDIA 的 DRIVE AGX 共享 DriveOS 軟體環境。
- 兩者透過 PCIE 連結,利用 DriveOS NvStreams API 實現影片與音訊等高頻寬數據的無縫共享 2。
輝達與聯發科的合作為汽車製造商提供了極具擴展性的選擇,汽車廠商能維持現有座艙體驗的同時升級成「AI 原生」未來車款。
這篇文章 輝達、聯發科雙強聯手打造 AI 原生助理未來車 最早出現於 鏈新聞 ABMedia。
