AI存儲時代 Arm準備好了!三管齊下 軟硬兼施
原標題:AI存儲時代 Arm準備好了!三管齊下 軟硬兼施
近日在深圳舉辦的MemoryS 2025閃存峰會上,存儲行業的眾多龍頭企業紛紛登臺亮相,Arm的出現則可能讓很多人感到意外。

事實上,Arm作為全球領先的計算平臺公司,不僅僅服務于移動計算行業,更是以開放生態為核心,切實推動AI與存儲技術的深度融合,推動從云端到邊緣端的智能化轉型。
本屆峰會上,Arm物聯網事業部業務拓展副總裁馬健發表演講,系統性地闡述了Arm在AI計算與存儲領域的技術創新、生態共建、未來戰略,并在會后接受了快科技的采訪。
馬健指出,近30年來,Arm架構產品一直是數據存儲與網絡控制的基石,為全球存儲控制器和設備提供高性能、低功耗、安全可靠的解決方案。
—— Cortex-R系列實時處理器:擁有最快的中斷延時和實時反應速度,廣泛應用于諸多存儲設備。
—— Cortex-M系列嵌入式處理器:后端閃存和媒體控制的熱門選擇,支持自定義指令,客戶可以針對不同閃存進行深度優化。
—— Cortex-A系列應用處理器:高吞吐量流水線設計,支持最高處理性能,同時擁有機器學習、數據處理軟件、豐富操作系統的廣泛生態支持。
—— Ethos-U AI加速器:Transformer原生加速可高達每秒2048 MACs,讓存儲控制器本身變得更智能。
—— Neoverse基礎設施平臺:為數據中心量身定制,CXL采用Arm CMN(一致性網格網絡)與Neoverse組合,實現可“組成式”內存擴展,并結合近存儲計算,減少數據搬運。
其實,大量我們熟悉的存儲類產品,幕后都是Arm在默默支撐。
比如,Solidigm首發的全球最大容量122.88TB SSD D5-P5336,其主控就采用了Arm Cortex-R CPU。
慧榮科技的新一代PCIe 5.0 SSD主控芯片SM2580,用的就是Arm Cortex-R8、Cortex-M0 CPU,業界首款車用PCIe Gen4主控芯片SM2264XT-AT,同樣基于Arm CPU架構。
AI的快速發展,對基礎算力提出了新的要求,包括高性能、低功耗、靈活擴展性等,而傳統的標準通用芯片在處理計算密集型的AI工作負載時,往往顯得力不從心。
在此背景下,Arm計算平臺為新一代AI云基礎設施帶來了Neoverse CSS平臺解決方案、Total Design生態項目、CSA芯粒系統架構,具有高效、靈活、可擴展的顯著優勢,也幫助合作伙伴可以快速打造差異化的產品,滿足AI新需求。
同時,為了應對邊緣側對AI計算需求的增長,Arm還發布了全新的邊緣AI計算平臺,包括基于Armv9架構、擁有超高能效的Cortex-A320 CPU處理器,以及原生支持Transformer網絡的Ethos-U85 AI加速器。
該平臺實現CPU處理器與AI加速器的深度配合,具備強大的計算能力,是邊緣側AI設備運行大模型、復雜任務的理想解決方案,可運行10億以上規模參數的大模型。
在馬健看來,生成式AI和大模型從爆發到現在雖然才短短三年時間,但已經得到了廣泛而深入的行業規模部署,邊緣計算也在進入AI時代后發生了顯著的變化。
一是計算能力大幅提升,軟硬件協同優化。
邊緣計算節點正突破傳統的“小型網關+通用CPU”模式,向智能化方向加速演進。通過深度集成GPU、FPGA、NPU等異構計算單元,邊緣設備已經實現了更強的并行計算性能,同時具備更強的AI推理加速能力。
同時,邊緣設備的軟件棧也日益完善,越來越多廠商針對AI推理場景提供輕量化推理框架,比如ExecuTorch、TensorFlow Lite、ONNX Runtime、飛槳PaddleLite等等,從而在資源受限的環境下,運行高效的模型推理。
二是從“數據傳輸中心”轉變為“實時智能中心”。
早期的邊緣計算主要承擔數據預處理和緩存功能,大量原始數據需要輸送至云端,再進行分析和訓練。
現在,AI模型尤其是推理部分,正越來越多地在邊緣設備上實現本地化執行,以滿足實時性、隱私合規等需求。
邊緣節點不再只是數據“傳輸管道”,而是進化為提供實時智能服務的中心節點,這不僅有效減輕了云端的帶寬與存儲負擔,還使得決策過程更貼近實際應用場景,實現了毫秒級的快速響應。
三是模型生命周期管理與協作深化。
云邊之間的協作更加緊密,云端負責大模型的訓練及更新,邊緣側則專注輕量化推理與在線更新。
在此過程中,對邊緣側模型的部署與運維變得尤為重要,包括模型分發、滾動升級、A/B 測試等。
為此,需要依賴自動化的MLOps平臺在邊緣側發揮關鍵作用,確保整個模型生命周期的高效管理與無縫協作。
針對邊緣計算的未來發展趨勢,Arm正從硬件、軟件、生態三個方面協同發展,釋放邊緣AI的重要價值。
硬件方面,就是剛才說過的全新邊緣AI計算平臺。
軟件方面,Arm去年推出了Kleidi軟件庫,首先用于智能手機和服務器市場,現已擴展到了汽車和物聯網領域。
這是一套專為AI框架開發者設計的計算內核,可以在Arm CPU上獲取最佳性能,支持包括Neon、SVE2 等在內的Armv9架構的關鍵特性,大幅提升了AI計算效率。
Kleidi已集成到多個主流AI框架,包括Llama.cpp、ExecuTorch、LiteRT,可以加速Llama 3、Phi-3等主流AI大模型
生態方面,Arm已將Armv9架構Cortex處理器系列全面的性能和生態引入智能物聯領域,包括極致性能的Cortex-X925,以及適合低成本、低功耗大規模智能部署的全新Cortex-A320,因此無論邊緣AI設備的需求如何,都能找到最合適的處理器方案。
例如,Cortex-A320支持多種操作系統, FreeRTOS/Zephy等實時操作系統(RTOS),Linux、Android等功能豐富操作系統,都能提供高效支持。
Arm在邊緣計算領域一直有著廣泛的布局,不僅涵蓋CPU、GPU、NPU等IP核產品線,還深入軟件工具鏈、標準化平臺、安全解決方案等多個維度。
隨著AI技術在邊緣側應用的迅猛發展,如智能制造、智慧城市、車載計算、智能家居等,Arm正在三個方面重點發力:
一是打造CPU+GPU+NPU三大引擎組成的異構計算IP。
CPU方面,Cortex系列將不斷強化通用算力,具備卓越性能和能效的Cortex-A/R/M系列,超高性能Cortex-X系列,以及專為基礎設施設計的Neoverse系列,可以滿足更廣泛的算力需求。
比如Neoverse優化了多核心多線程、虛擬化,非常適合邊緣服務器、智能網關等場景,保持功耗優勢的同時提供高吞吐性能。
比如超高能效Cortex-A320,非常適合大規模、低成本、低功耗的智能部署。
GPU方面,Mali系列在移動端、智能終端市場應用廣泛,未來將繼續增強通用計算能力,兼顧圖形渲染和部分AI推理需求,支持流暢、自然、直觀的人機交互體驗。
NPU方面,Ethos系列AI加速器已原生支持Transformer神經網絡,可與 CPU、GPU 協同構建異構計算平臺,支持運行超過10億參數小模型。
Ethos可在有限面積與功耗下提供高效AI算力,適合在智能物聯網、智能視覺、智能可穿戴、工業控制等邊緣場景中,部署輕量化或中等規模的深度學習推理。
二是云-邊-端協同的軟件賦能。
從云基礎設施、邊緣AI計算平臺到終端AI處理,Arm KleidiAI都能為開發者提供基于Arm計算平臺的一致體驗,實現從云到端的無縫銜接。
在國內,KleidiAI已集成到騰訊混元大模型中,加速端側AI推理的速度。
阿里通義千問Qwen2-VL-2B-Instruct模型同樣集成了KleidiAI,可以在基于Arm CPU的移動設備上,運行多模態AI工作負載。
未來,Arm計劃推出更多軟件庫、計算內核、引擎集成,持續在Arm平臺上構建新的AI賦能。
三是強化安全與信任。
安全與隱私保護是邊緣AI大規模部署的重點,也是Armv9架構處理器和邊緣AI計算平臺的主要發展方向。
在硬件級安全方面,Arm在架構層面強化了TrustZone、TEE等安全機制,Armv9架構支持Secure EL2、指針驗證/分支目標識別(PACBTI)、 內存標記擴展(MTE)等安全指令,并符合PSA Certified 規范。
在軟件可信堆棧方面,針對邊緣環境OTA在線升級、遠程管理的需求,Arm將持續與各類操作系統或云平臺合作,完善從Bootloader到應用層的安全鏈條。
馬健強調,隨著邊緣AI的快速發展,將會有更多、更復雜的AI工作負載,轉向邊緣設備進行處理。
Arm重點始終是面向市場、面向合作伙伴,提供滿足當下和未來各個領域AI應用工作負載的解決方案。
投稿郵箱:lukejiwang@163.com 詳情訪問鹿財經網:http://m.cqpengren.com
頭條資訊
























