近日,北京大學人工智能研究院孫仲研究員團隊聯合集成電路學院研究團隊,成功研製出基於阻變存儲器的高精度、可擴展模擬矩陣計算芯片,首次實現了在精度上可與數字計算媲美的模擬計算系統。
該芯片在求解大規模MIMO信號檢測等關鍵科學問題時,計算吞吐量與能效較當前頂級數字處理器(GPU)提升百倍至千倍。相關論文於10月13日刊發於《自然·電子學》期刊。
![]()
對於大多數習慣了數字計算機(0和1)的公眾而言,“模擬計算”是一個既古老又新奇的概念,什麼是模擬計算呢?
孫仲首先用生動的比喻對其進行解釋:“現在的所有芯片都是數字計算,數據都需要先轉換成0和1的符號串。比如數字’十’,需要轉譯成’1’和’0’,計為’1010’。”如果用二進制來表示“1+1=2”,則應該記作“1+1=10”。
孫仲說,“而模擬計算則無需這層’轉譯’,它是一種’類比計算'(analogue computing),可以直接用連續的物理量(如電壓、電流)來類比數學上的數字。比如,數學上的’十’,可以直接用十伏或十毫伏的電壓來表示。”
模擬計算機在計算機發展早期(上世紀30-60年代)曾被廣泛應用,但隨著計算任務日益複雜,其精度瓶頸凸顯,逐漸被數字計算取代。孫仲指出,此次研究的核心正是要解決模擬計算“算不准”這一痛點。
![]()
課題組合影
當前的市面上的主流CPU和GPU都是數字芯片,並都採用馮諾依曼結構,將計算和存儲功能分開,通過01數字流的編譯+計算+解碼實現信息計算和傳輸。
基於阻變存儲器的模擬計算的優勢之一在於取消了“將數據轉化為二進制數字流”這一過程,同時不必進行“過程性數據存儲”,進而將數據計算過程與數據存儲合而為一,實現算力解放。
孫仲指出,與其他“存算一體”方案對比,國內外許多團隊集中於研究矩陣乘法(AI推理的核心),而他的團隊特色在於專注於更具挑戰性的矩陣方程求解(AI二階訓練的核心)。矩陣求逆操作要求的計算精度極高,時間複雜度達到了立方級。而模擬計算憑藉物理規律直接運算的方式,具有低功耗、低延遲、高能效、高並行的天然優勢,只要能夠不斷降低計算誤差,不斷提升計算精度,將為傳統GPU的算力解放帶來爆炸性突破。
![]()
高精度全模擬矩陣計算求解矩陣方程
在計算精度方面,團隊在實驗上成功實現16×16矩陣的24比特定點數精度求逆,矩陣方程求解經過10次迭代後,相對誤差可低至10⁻⁷量級。在計算性能方面,在求解32×32矩陣求逆問題時,其算力已超越高端GPU的單核性能;當問題規模擴大至128×128時,計算吞吐量更達到頂級數字處理器的1000倍以上,傳統GPU乾一天的活,這款芯片一分鐘就能搞定。
![]()
孫忠
關於應用前景,孫仲認為,模擬計算在未來AI領域的定位是強大的補充,最有可能快速落地的場景是計算智能領域,如機器人和人工智能模型的訓練。
談及與現有計算架構的關係,孫仲強調未來將是互補共存:“CPU作為通用’總指揮’因其成熟與經濟性而難以被淘汰。GPU則專注於加速矩陣乘法計算。我們的模擬計算芯片,旨在更高效地處理AI等領域最耗能的矩陣逆運算,是對現有算力體系的有力補充。”
來源:北京大學、科技日報