突破模擬計算世紀(jì)難題!北京大學(xué)團隊成功研制新型芯片
關(guān)鍵詞: 模擬矩陣計算芯片 模擬計算精度 阻變存儲器 北京大學(xué)
近日,北京大學(xué)人工智能研究院孫仲研究員團隊聯(lián)合集成電路學(xué)院研究團隊,成功研制出基于阻變存儲器的高精度、可擴展模擬矩陣計算芯片,首次實現(xiàn)了在精度上可與數(shù)字計算媲美的模擬計算系統(tǒng)。相關(guān)論文于10月13日刊發(fā)于《自然·電子學(xué)》期刊。
研究團隊成功研制出基于阻變存儲器的高精度、可擴展模擬矩陣計算芯片,首次實現(xiàn)了在精度上可與數(shù)字計算媲美的模擬計算系統(tǒng),將傳統(tǒng)模擬計算的精度提升了驚人的5個數(shù)量級。相關(guān)性能評估表明,該芯片在求解大規(guī)模MIMO信號檢測等關(guān)鍵科學(xué)問題時,計算吞吐量與能效較當(dāng)前頂級數(shù)字處理器(GPU)提升百倍至千倍。
據(jù)北京大學(xué)消息,這一成果標(biāo)志著我國突破模擬計算世紀(jì)難題,在后摩爾時代計算范式變革中取得重大突破,為應(yīng)對人工智能與6G通信等領(lǐng)域的算力挑戰(zhàn)開辟了全新路徑。

孫仲表示,現(xiàn)在的所有芯片都是數(shù)字計算,數(shù)據(jù)都需要先轉(zhuǎn)換成0和1的符號串。而模擬計算則無需這層“轉(zhuǎn)譯”,它是一種類比計算,可以直接用連續(xù)的物理量(如電壓、電流)來類比數(shù)學(xué)上的數(shù)字。
模擬計算機在計算機發(fā)展早期(上世紀(jì)30-60年代)曾被廣泛應(yīng)用,但隨著計算任務(wù)日益復(fù)雜,其精度瓶頸凸顯,逐漸被數(shù)字計算取代。孫仲指出,此次研究的核心正是要解決模擬計算“算不準(zhǔn)”這一痛點。
當(dāng)前的市面上的主流CPU和GPU都是數(shù)字芯片,并都采用馮諾依曼結(jié)構(gòu),將計算和存儲功能分開,通過01數(shù)字流的編譯+計算+解碼實現(xiàn)信息計算和傳輸。
基于阻變存儲器的模擬計算的優(yōu)勢之一在于取消了“將數(shù)據(jù)轉(zhuǎn)化為二進制數(shù)字流”這一過程,同時不必進行“過程性數(shù)據(jù)存儲”,進而將數(shù)據(jù)計算過程與數(shù)據(jù)存儲合而為一,實現(xiàn)算力解放。
孫仲指出,與其他“存算一體”方案對比,國內(nèi)外許多團隊集中于研究矩陣乘法(AI推理的核心),而他的團隊特色在于專注于更具挑戰(zhàn)性的矩陣方程求解(AI二階訓(xùn)練的核心)。矩陣求逆操作要求的計算精度極高,時間復(fù)雜度達到了立方級。而模擬計算憑借物理規(guī)律直接運算的方式,具有低功耗、低延遲、高能效、高并行的天然優(yōu)勢,只要能夠不斷降低計算誤差,不斷提升計算精度,將為傳統(tǒng)GPU的算力解放帶來爆炸性突破。

在計算精度方面,團隊在實驗上成功實現(xiàn)16×16矩陣的24比特定點數(shù)精度求逆,矩陣方程求解經(jīng)過10次迭代后,相對誤差可低至10??量級。
在計算性能方面,該技術(shù)表現(xiàn)出卓越的加速能力與能效。測試結(jié)果表明,在求解32×32矩陣求逆問題時,其算力已超越高端GPU的單核性能;當(dāng)問題規(guī)模擴大至128×128時,計算吞吐量更達到頂級數(shù)字處理器的1000倍以上,傳統(tǒng)GPU干一天的活,這款芯片一分鐘就能搞定。同時,該方案在能效方面亦表現(xiàn)突出,在相同精度下能效比傳統(tǒng)數(shù)字處理器提升超100倍,為高能效計算中心提供了關(guān)鍵技術(shù)支撐。
據(jù)人民日報報道,關(guān)于應(yīng)用前景,孫仲認(rèn)為,模擬計算在未來AI領(lǐng)域的定位是強大的補充,最有可能快速落地的場景是計算智能領(lǐng)域,如機器人和人工智能模型的訓(xùn)練。談及與現(xiàn)有計算架構(gòu)的關(guān)系,孫仲強調(diào)未來將是互補共存:“CPU作為通用‘總指揮’因其成熟與經(jīng)濟性而難以被淘汰。GPU則專注于加速矩陣乘法計算。我們的模擬計算芯片,旨在更高效地處理AI等領(lǐng)域最耗能的矩陣逆運算,是對現(xiàn)有算力體系的有力補充。”