【文/網 張菁娟】據香港英文媒體《南華早報》10日報道,中國團隊近日成功研發並發布了類腦脈衝大模型,這是一款旨在降低能耗、提升性能且無需依賴英偉達芯片的人工智能係統。
該模型名為“瞬悉1.0”(SpikingBrain-1.0),是中國科學院自動化研究所李國齊、徐波團隊與沐曦MetaX合作打造的,其核心在於模仿人類大腦僅激活所需神經元的運作模式。
報道稱,與ChatGPT等主流人工智能工具不同,“瞬悉1.0”會有選擇性地對輸入信息做出響應,進而實現節能並加快響應速度。
中國科學院自動化研究所稱,“瞬悉1.0”在多個核心性能上實現突破,得益於這種設計,該模型能依托高效轉換訓練範式,以約為主流大模型2%的預訓練數據量實現與眾多開源Transformer模型在多任務語言理解(MMLU),中文多任務語言理解(CMMLU、Cevals),常識推理能力(ARC、HS)任務上相媲美的性能。在某些情況下,其運行速度比傳統模型快出100倍。
這是中國首次提出大規模類腦脈衝基礎模型架構、並首次在國產圖形處理器(GPU)算力集群上構建類腦脈衝大模型的訓練和推理框架。提出的模型解決了脈衝驅動限製下的大規模類腦模型性能退化問題,其超長序列處理能力在法律/醫學文檔分析、複雜多智能體模擬、高能粒子物理實驗、DNA序列分析、分子動力學軌跡等超長序列任務建模場景中具有顯著的潛在效率優勢。
中國科學院自動化研究所強調,這次發布的大模型為新一代人工智能發展提供了非Transformer架構的新技術路線,並將啟迪更低功耗的下一代神經形態計算理論和芯片設計。
報道指出,在美國收緊對先進人工智能芯片出口管製的背景下,這一模型具有重要的戰略意義。
目前,該研究團隊開源了SpikingBrain-1.0-7B模型並開放SpikingBrain-1.0-76B測試網址。
該係統在試用網站上介紹道,其深度融合人腦信息處理機製與脈衝計算範式,致力於通過高效、節能、國產化的類腦推理為使用者提供強大而可靠的智能服務。
網站截圖
據報道,當前最受歡迎的人工智能模型均需巨大計算能力支撐。企業為訓練這些模型,需依賴配備高端芯片的大型數據中心,而這類芯片會消耗大量電力與冷卻水。
即便完成訓練,這些係統對資源的需求依然很高。處理長輸入或生成複雜響應時,它們會因並行處理每個詞匯而非聚焦關鍵信息而變慢,同時給內存帶來壓力,這不僅推高運行成本,也加劇了對環境的影響。
相比之下,“瞬悉1.0”的研發團隊從真實神經元的工作原理中汲取靈感。該係統不會同時處理所有信息,而是有選擇性地做出反應,以更低能耗完成複雜任務,與人類大腦的工作方式高度相似。
其核心技術模仿了大腦僅在受到觸發時才快速發送信號脈衝的特性。這種由事件驅動的方式使係統大部分時間處於“靜默”狀態,有助於保持高效節能。
研究人員稱,盡管SpikingBrain所用數據僅為傳統模型的一小部分,但其性能卻與主流開源替代模型相當,並且它在處理長序列數據方麵也表現出色。
他們在論文中寫道:“這一突破性實踐不僅為國產算力平台上的高效大模型研發提供了寶貴經驗,更對未來大模型的規模化部署與應用開辟了新路徑。”
本文係網獨家稿件,未經授權,不得轉載。
關於国产AV蜜桃网站|版權聲明| 違法和不良信息舉報電話:010-84151598 | 網絡敲詐和有償刪帖舉報電話:010-84151598
Copyright © 2008-2024 by {當前域名}. all rights reserved