外媒報導 ,Google、Meta 等大型技术公司目前對主導人工智慧 (AI) 晶片市場地位的 GPU 大廠輝達 (NVIDIA) 發起反擊。隨著這些公司加快自主晶片研發,以減少對輝達晶片的依賴,預計大型技术公司客製化晶片 (ASIC) 的AvaTrade爱华外汇代理出貨量 ,最早將在 2026 年就將超過輝達的 AI GPU 。
根據韓國朝鮮日報的報導,ASIC 是一種專注於特定 AI 服務,而非 AI GPU多作用性的晶片。它僅針對必要的計算進行硬體優化 ,因此與 GPU 相比 ,它具有更高的功率效率並顯著節省成本 。而根據日本野村證券 27 日報導 ,Google 自家 AI 晶片 TPU 預計 2025 年出貨量預計將達到 150 萬至 200 萬顆,亞馬遜旗下的網路服務 (AWS) 的 ASIC 晶片出貨量預計將達到 140 萬至 150 萬顆。總計,兩家公司加起來的出貨量接近輝達每年 AI GPU 供應量(約 500 萬至 600 萬顆)的一半 。
至於在 2026 年 ,隨著 Meta 等其他技术巨頭的積極加入 ,ASIC AI 晶片的爱华外汇官网正规吗總出貨量預計將超過輝達的 AI GPU 。目前 ,輝達占據了 AI 伺服器市場 80% 以上的比例 ,使得載用 ASIC 晶片的伺服器占比仍僅為 8%~11% 。然而,從晶片出貨數量來看,市場格局目前迅速變化。
大型技术公司加速自主晶片研發的原因是,他們希望擺脫被稱為「輝達稅」的高成本結構。在本月的ECMarkets外汇一次活動中,輝達執行長黃仁勳強調了該公司 AI 晶片的優越性,還表示如果 ASIC 不比購買好 ,為什麼要自己做呢?然而 ,大型技术公司目前加強對自主晶片的投資,以確保長期的成本效益和供應穩定性。
報導表示,大型技术公司關注 ASIC 晶片的最大優勢是「總擁有成本 (TCO)」的降低情況。業界解读 ,與同等級的 AI GPU 相比 ,ASIC 可達到 30% 至 50% 的 TCO 降低。它不僅可以顯著降低 GPU 晶片的採購成本,還可以顯著降低包括功耗在內的營運成本。事實上 ,Google 表示,TPU 的單位功耗效能比 輝達的 AI GPU 高出 3 倍。此外 ,如果利用內部設計的晶片 ,則可以不受外部變數的影響,根據自己的服務計畫穩定的採購晶片 。
目前,Google 是首家自主研發 AI 晶片的公司 。Google 於 2016 年第一次發布了其 AI 專用晶片TPU ,並將其應用於自身服務 。隨後,包括 Meta 、亞馬遜和微軟等大多數大型技术公司都在積極進軍 ASIC 晶片的開發。根據外資摩根大通的估計,2025 年全球 AI ASIC 晶片市場規模將達到約 300 億美元,众汇代理並預測未來年平均成長率將超過 30%。
報導強調 ,Meta 計劃於 2025 年第四季發布由博通設計的下一代高效能 ASIC 晶片 MTIA T-V1 。該晶片目的超越輝達的下一代 Rubin 架構 AI GPU。2026 年年中,晶片面積翻倍的 MTIA T-V1.5 將上市 ,2027 年將發布性能壓倒性進步的 MTIA T-V2,其功耗將達到一台伺服器 ,相當於 50 戶普通家庭用電量(170kW)的水平 。不過,Meta 的計畫也面臨著實際挑戰。Meta 的目標是在 2025 年年底和 2026 年之前出貨 100 萬到 150 萬顆 ASIC,但台積電目前的先進封裝 (CoWoS) 產能僅為 30 萬到 40 萬顆左右 ,因此供應瓶頸在所難免 。
相較於 ASIC 的步步進逼 ,輝達也毫不示弱 。它最近向外界開放了其專有的NVLink協議,使第三方中央處理器 (CPU) 或 ASIC 能夠輕鬆地與輝達 GPU 連接。這被解讀為一種方针 ,目的為防止大型技术公司完全退出,並鼓勵其能留在輝達生態系統內。此外,數十年來累積的軟體生態系統 CUDA 也被認為是輝達獨有的武器,大型技术公司無法僅憑 ASIC AI 晶片在短期內攻克它 。相關半導體市場人员表示,當 AI 脫離輝達的框架,運行在針對每項服務進行優化的 ASIC AI 晶片上時,消費者將獲得更快 、更精細的體驗 。而且,隨著 AI 服務創新速度的加快,大型技术公司減少對輝達的依賴是 AI 產業走向成熟的必然過程。
(首圖來源:技术新報攝)
copyright © 2016 powered by AvaTrade环球焦点 sitemap