導讀:視覺物聯(lián)了解到,目前邊緣AI芯片架構呈現(xiàn)多元化趨勢,企業(yè)根據(jù)能效、算力、靈活性需求選擇不同方案,主要有GPU、NPU、ASIC、FPGA、RISC-V和存算一體等。
如果說深度學習是培育智能的土壤,那么大模型就是這片土壤中生長出的參天大樹。
依托深度學習的算法根基,大模型通過海量數(shù)據(jù)灌溉和算力滋養(yǎng),將特征提取、模式識別等能力推向新維度,讓人工智能從“感知”邁向“認知”新跨越。
隨著AI大模型不斷迭代升級,特別是在2025年春節(jié)期間以DeepSeek為代表的大模型技術開源化,不僅大幅拓展了人工智能的應用邊界,也為邊緣、端側AI應用發(fā)展帶來顛覆性變革。
除市場應用帶來變革之外,大模型也將對邊緣計算AI芯片的技術架構、應用場景和產業(yè)生態(tài)等方面進行重構。
那么,我們今天就來聊聊,邊緣AI芯片在大模型技術驅動下將如何進行產業(yè)升級。
視覺物聯(lián)了解到,目前邊緣AI芯片架構呈現(xiàn)多元化趨勢,企業(yè)根據(jù)能效、算力、靈活性需求選擇不同方案,主要有GPU、NPU、ASIC、FPGA、RISC-V和存算一體等。
其中,NPU因高能效占據(jù)主流,代表企業(yè)包括高通、瑞芯微、全志科技、恒玄科技、國科微和愛芯元智等。但因大模型運算使得邊緣推理算力需求指數(shù)級攀升,傳統(tǒng)單核NPU架構已無法滿足需求,企業(yè)開始紛紛創(chuàng)新升級。
例如,為解決傳統(tǒng)NPU芯片大模型推理效率不足問題,國科微創(chuàng)新提出MLPU芯片概念(面向多模態(tài)大模型的新型AI芯片架構),既能高效支持大模型推理計算,同時兼容傳統(tǒng)小模型的高效推理。
據(jù)了解,國科微基于MLPU創(chuàng)新架構設計的AI SoC產品,預計將于2026年開始逐步量產上市。該架構具有高能效、低功耗、高性價比的特點;相比于市面已有的NPU芯片,能夠更高效地支持大模型的端側部署和推理應用,從而保證模型推理效率和應用效果。
同時,基于MLPU的創(chuàng)新架構設計,國科微積極布局AI生態(tài)建設。其圍繞大模型及其大模型產品,深度優(yōu)化適配,提供從模型壓縮轉化、推理部署、應用開發(fā)端到端全棧大模型工具鏈,方便開發(fā)者和客戶能夠簡單高效地完成模型部署和應用開發(fā)。
而瑞芯微則通過Chiplet異構集成的方式,為滿足不同市場、產品應用對性能和算力的差異化需求,其在自研NPU中內置不同性能層次的CPU、GPU內核,從而幫助客戶有效縮短產品研發(fā)周期,節(jié)省研發(fā)投入。
面向AI大模型部署、大數(shù)據(jù)實時處理等場景帶來的復合算力需求,多核化、專用化、低功耗的多核異構SoC也成為多模態(tài)復雜場景下的高效處理方案。
其中,全志科技通過集成CPU、GPU、NPU、DSP等不同架構的處理核心,可以在適應不同場景功能需求的同時,提升整體計算能力,結合軟件系統(tǒng)帶來的異構基礎功能拓展衍生,構建起"分工協(xié)作"的高效計算體系,以支持更多樣化的應用。
目前,全志科技的多核異構方案已經(jīng)在大量產品場景中實際應用。例如,在消費電子產品中,通過協(xié)處理器在主核上電前預加載引導程序,異步解壓系統(tǒng)鏡像,同時延遲加載驅動至CPU啟動后執(zhí)行,使開機動時間相較傳統(tǒng)方案顯著提升,搭配低功耗控制、AI ISP視覺引擎,可將快啟差異化類法案部署在低功耗IPC、智能門鈴等產品中。
小結
大模型時代正推動邊緣AI芯片架構從“專用加速”向“智能原生”演進,企業(yè)需在架構創(chuàng)新、生態(tài)構建和場景深耕三方面同步發(fā)力,推動邊緣AI在消費電子、智能汽車和工業(yè)物聯(lián)網(wǎng)等領域的規(guī)?;涞?。未來,能效比優(yōu)化、大模型端側部署能力及生態(tài)兼容性將成為競爭關鍵。
近日,視覺物聯(lián)聯(lián)合AIoT星圖研究院即將啟動《2025邊緣計算市場調研報告》,將從技術發(fā)展與落地應用等方面展開深度調研,揭示行業(yè)基本面,洞察競爭格局,為企業(yè)戰(zhàn)略制定、投資決策、市場拓展等提供結構化的參考依據(jù),歡迎邊緣計算產業(yè)朋友一起參與到報告調研中。