AI在重新定義晶片該長什麼樣子。 晶片也在決定AI能走多遠。 有三個趨勢: 1. 從通用走向專用。 以前大家都用通用GPU跑步AI。 但現在會發現,針對大模型推理、訓練、端側部署。 晶片的設計邏輯完全不一樣。 未來3-5年,我覺得會出現更多專用AI晶片。 比如說,訓練晶片要堆算力,推理晶片要省功耗,端側晶片要低延遲。 英偉達現在也在分化產品線,H系列做訓練,L系列做推理。 國內像壁仞、燧原這些公司,也在尋找差異化定位。 未來不會一家通吃,會形成"訓練有訓練的王者,推理有推理的霸主,端側有端側的玩家" 這樣的格局。 2. 存算一體突破,解決記憶體牆問題。 現在大模型最大的瓶頸不是算力,是資料搬運。 晶片要不停地從記憶體讀取資料、算完再寫回去,這個過程太慢、太耗電。 存算一體就是把運算和儲存放在一起,資料不用來回搬了。 技術如果突破,對AI的影響巨大。 清華、中科院、還有一些新創公司都在做這個方向。 未來3-5年,如果存算一體晶片能量產。 讓大模型的推理成本降低一個數量級,很多現在做不了的應用到時就能做了。 3. 晶片和演算法一起優化。 以前演算法工程師寫程式碼,晶片工程師做晶片,兩邊各做各的。 但現在很多公司在做聯合設計。 演算法知道晶片的特性,晶片針對演算法做最佳化。 蘋果就是,他們的神經網路引擎和iOS的AI功能是一起設計的,所以iPhone上跑AI模型很流暢。 特斯拉的FSD晶片也是這樣,針對自動駕駛演算法客製的。 國內覺得華為在這方面做得比較好。 昇騰晶片和盤古大模型、鴻蒙系統是打通的。 未來這種軟硬一體的能力,將成為核心競爭力。
正在載入線程內容
正在從 X 取得原始推文,整理成清爽的閱讀畫面。
通常只需幾秒鐘,請稍候。