綜上來看,內(nèi)存和帶寬是限制證明生成的主要瓶頸。對于顯卡來說,這里的內(nèi)存指的是顯存,并不是主板上的內(nèi)存,主板上的內(nèi)存主要是參與CPU的計算。當然目前有些芯片技術(shù)可以打通主板上的內(nèi)存和顯存,讓內(nèi)存為顯存計算來用。
按照官方的設想和規(guī)劃未來在Aleo上每天的交易量都是上億美金的規(guī)模,在這樣大數(shù)據(jù)量的要求下,每時每刻都有證明需要被委托出去在極短的時間內(nèi)完成證明的生產(chǎn),不可能指望顯卡能解決這個問題。就像AI大模型訓練一樣,早期數(shù)據(jù)量和參數(shù)少的情況下可以用消費級顯卡,但是現(xiàn)在更多的都是為AI訓練設計的專用芯片和機器。
為了打破英偉達一家獨大的局面,前任全球芯片老大英特爾和多年老對手AMD對標CUDA都分別推出了OneAPI和ROCm,Linux基金會更是聯(lián)合英特爾、谷歌、高通、ARM、三星等公司聯(lián)合成立了民間號稱“反CUDA聯(lián)盟”的UXL基金會,以開發(fā)全新的開源軟件套件,讓AI開發(fā)者能夠在基金會成員的任何芯片上進行編程,試圖讓其取代CUDA,成為AI開發(fā)者的開發(fā)平臺。
早在2021年,英偉達就曾公開表示過“禁止使用轉(zhuǎn)換層在其他硬件平臺上運行基于CUDA的軟件”,2024年3月,英偉達更是將其升級為“CUDA禁令”,直接添加在了CUDA的終用戶許可協(xié)議中,已禁止用轉(zhuǎn)譯層在其他GPU上運行CUDA軟件