作者:火必研究院&謝錦斌(X Research DAO)
編輯: AndyHoo(X Research DAO)
最開始的計算機每臺只能執行一個計算任務,隨著多核心多線程的CPU出現,單個計算機可以執行多個計算任務。
隨著大型網站的業務增加,單服務器模式很難進行擴容,又增加硬件成本。面向服務的架構出現,由多臺服務器組成。由服務注冊者、服務提供者和服務消費者,三者組成。
但是隨著業務增加和服務器增加,SOA模式下,點對點服務可維護性和可拓展性難度增加。類似微機原理中,總線模式出現,來協調各個服務單元。服務總線通過類似集線器的架構將所有系統連接在一起。這個組件被稱為 ESB(企業服務總線)。作為一個中間角色,來翻譯協調各個不同格式或者標準的服務協議。
隨后基于應用程序編程接口(API)的 REST 模型通信,以其簡潔、可組合性更高的特性,脫穎而出。各個服務以REST形式對外輸出接口。當客戶端通過 RESTful API 提出請求時,它會將資源狀態表述傳遞給請求者或終端。該信息或表述通過 HTTP 以下列某種格式傳輸:JSON(Javascript 對象表示法)、HTML、XLT、Python、PHP 或純文本。JSON 是最常用的編程語言,盡管它的名字英文原意為“JavaScript 對象表示法”,但它適用于各種語言,并且人和機器都能讀。
虛擬機、容器技術,以及谷歌的三篇論文:
2003年,GFS: The Google File System
2004年,MapReduce: Simplified Data Processing on Large Clusters
2006年,Bigtable: A Distributed Storage System for Structured Data
分別是分布式文件系統、分布式計算、分布式數據庫,拉開了分布式系統的帷幕。 Hadoop對谷歌論文的復現,更快更容易上手的Spark,滿足實時計算的Flink。
但是以往都是分布式系統,并不是完全意義上的Peer to peer系統。在Web3領域,完全顛覆以往的軟件架構。分布式系統的一致性,防欺詐攻擊,防粉塵交易攻擊等等一系列問題,都給去中心化計算框架帶來挑戰。
將以太坊為代表的智能合約公鏈,可以抽象理解為去中心化的計算框架,只不過EVM是有限指令集的虛擬機,無法做Web2需要的通用計算。而且鏈上資源也是極其昂貴。盡管如此,以太坊也是突破了點對點計算框架的瓶頸,點對點通信、計算結果全網一致性和數據一致性等等問題。
讀者在上面了解了分布式計算的歷史,但還是會存在很多困惑,我來替讀者列出大家可能存在的潛在疑問,如下:
從業務需求出發,為什么去中心化計算網絡很重要?整體市場規模有多大?現在處于什么階段,未來還有多少空間?哪些機會值得關注?怎么去賺錢?
1.2.1 為什么去中心化計算很重要?
在以太坊最初的愿景中,是要成為世界的計算機。在2017年,ICO大爆發之后,大家發現還是主要以資產發行為主。但是到了2020年,Defi summer出現,大量Dapp開始涌現。鏈上數據爆炸,面對越來越多復雜的業務場景,EVM越來越顯得無力。需要鏈下拓展的形式,來實現EVM無法實現的功能。諸如像預言機等等角色,都是某種程度上的去中心化計算。
我們再以拓展思路去思考,現在Dapp高速增長,數據量也在爆炸式增長,這些數據的價值都需要更加復雜的算法來去計算,挖掘其商業價值。數據的價值由計算來體現和產生。這些都是大部分智能合約平臺無法去實現的。
現在Dapp開發已經過去當初只需要完成0到1的過程,現在需要更加強大的底層設施,來支撐它完成更加復雜的業務場景。整個Web3已經從開發玩具應用階段過去,未來需要面對更加復雜的邏輯和業務場景。
Polygon開源零知識證明系統Plonky2:8月16日消息,Polygon宣布開源零知識證明系統Plonky2,另外,STARK證明器Starky也是開源的。Plonky2由Polygon于今年1月份公布,Plonky2是一種遞歸SNARK,并且與以太坊原生兼容,結合了PLONK和FRI,具有快速證明和無可信設置。[2022/8/16 12:28:58]
1.2.2 整體市場規模有多大?
如何估算市場規模呢?通過Web2領域的分布式計算業務規模來估算?乘上web3市場的滲透率?把目前市面上相應融資項目的估值相加嗎?
我們不能將Web2的分布式計算市場規模照搬到Web3,理由是:1,Web2領域的分布式計算滿足了大部分需求,Web3領域的去中心化計算是差異化滿足市場需求。如果照搬,是有悖于市場客觀背景環境。2,Web3領域的去中心化計算,未來成長出的市場業務范圍是全球化的。所以我們需要更加嚴謹得去估算市場規模。
對于Web3領域潛在賽道整體規模預算通過以下幾點出發來進行計算:
1.對行業內,其他可被納入賽道范圍內的項目估值,做為基準市值。 依據coinmarketcap網站上數據顯示,在市面上已經流通的分布式計算板塊的項目市值在67億美元。
2.營收模型來自于,代幣經濟模型的設計,例如目前比較普遍流行的代幣營收模型是,代幣作為交易時候支付手續費的手段。所以可以通過手續費收入,間接反映生態的繁榮程度,交易活躍程度。最終作為估值評斷的標準。當然,token還有其他成熟的模型,例如用于抵押挖礦,或者交易的交易對,或者是算法穩定幣的錨定資產。所以Web3項目的估值模型,區別于傳統股票市場,更像是國家貨幣。代幣可以被采用的場景會有多樣性。所以對于具體項目具體分析。我們可以嘗試探索Web3去中心化計算場景中,代幣模型應該如何進行設計。首先我們假定自己去設計一個去中心化計算框架,我們會遇到什么樣的挑戰?a).因為完全去中心化的網絡,在這樣不可信的環境中完成計算任務的執行,需要激勵資源提供者保障在線率,還要保障服務質量。在博弈機制上,需要保證激勵機制合理,還要如何防止攻擊者發起欺詐攻擊、女巫攻擊等等攻擊手段。所以需要代幣作為質押手段參與POS共識網絡,先保障所有節點的共識一致性。對于資源貢獻者,需要其貢獻的工作量來實施一定的激勵機制,代幣激勵對業務增加和網絡效率提升,必須要有正向循環增長的。b).相較于其他layer1,網絡本身也會產生大量交易,面對大量粉塵交易,每筆交易支付手續費,是經過市場驗證的代幣模型。c).如果代幣只是實際用途化,市值是很難再進一步擴大。如果作為資產組合的錨定資產,進行幾層資產嵌套組合,極大擴張金融化的效果。整體估值=質押率*Gas消耗率*(流通量的倒數)*單個價格
1.2.3 現在處于什么階段,未來還有多少空間?
2017年到現在,很多團隊都在嘗試去中心化計算方向上發展,但是都嘗試失敗,后面會具體解釋失敗的原因。探索路徑由最初類似外星人探索計劃的項目,后來發展到模仿傳統云計算的模式,再到Web3原生模式的探索。
當前整個賽道的現狀,處于在學術層面已經驗證0到1的突破,一些大型項目在工程實踐上,有了較大的進展。例如當前的zkRollup和zkEVM實現上,都是剛剛發布產品的階段。
未來還有很大空間,理由如下:1,還需提升驗證計算的高效性。2,還需要補充豐富更多指令集。3,真正不同業務場景的優化。4,以往用智能合約無法實現的業務場景,可以通過去中心化計算實現。
我們通過一個具體案例來解釋,完全去中心化的游戲。目前大部分Gamefi需要一個中心化服務做為后端,其后端作用在于管理玩家的狀態數據和一些業務邏輯,其應用前端在于用戶交互邏輯和事件觸發后傳遞到后端。當前市面上還沒有完整的解決方案,可以支撐Gamefi的業務場景。但是可被驗證的去中心化計算協議出現,后端替換為zkvm。可以真正實現去中心化的游戲。前端將用戶事件邏輯,發送到zkvm執行相關業務邏輯,被驗證后,在去中心化數據庫記錄狀態。
波卡聯合創始人:財政部很快將為零知識擴展和網絡基礎設施發展提供巨額資金:1月23日消息,波卡聯合創始人Robert Habermeier發推表示,Polkadot財政部可能很快就會為進一步發展零知識擴展和網絡基礎設施提供巨額資金。Exit-to-DAO作為一種商業模式將是2022年及以后的決定性變化。[2022/1/23 9:08:17]
當然這只是提出的一個應用場景,而Web2有很多業務場景需要計算的能力。
1.2.4 哪些機會值得關注?怎么去賺錢?
應用場景\虛擬機類型
通用型高性能虛擬機
AI虛擬機
DeFi
金融數據處理/高并發金融交易并行執行確認/高性能撮合。。。
人臉識別/信用評估/為更多借貸業務服務。。。
NFT
省Gas聚合交易/批量注冊任務
AIGC/價值估算。。
社交應用
遷移Web2的社交應用/高并發高并行的業務場景/基本的社交業務邏輯,之前智能合約無法實現的
推薦算法。。。
gamefi
去中心化游戲/多人在線網絡通信處理...
防作弊
創作者經濟
對于不同文件類型的內容創作平臺,需要支撐其業務邏輯執行的虛擬機
AIGC
目前以太坊有如下問題 :
1.整體吞吐量低。消耗了大量的算力,但是吞吐量只相當于一臺智能手機。
2.驗證積極性低。這個問題被稱為 Verifier's Dilemma。獲得打包權的節點得到獎勵,其他節點都需要驗證,但是得不到獎勵,驗證積極性低。久而久之,可能導致計算得不到驗證,給鏈上數據安全性帶來風險。
3.計算量受限 (gasLimit),計算成本較高。
有團隊嘗試采用,被Web2廣泛采用的云計算模式。用戶支付一定費用,按照計算資源使用時間來計算費用。采取這樣模式,其根本原因是因為其無法驗證計算任務是否被正確執行,只能通過可檢測的時間參數或者其他可控的參數。
最終這個模式沒有廣泛應用,沒有考慮人性的因素。大量資源被用于挖礦,以謀取最大利益。導致真正可被利用的資源較少。這是博弈系統內,各個角色謀求利益最大化的結果。
最終呈現的結果,和最開始的初衷完全背離。
而TrueBit則利用博弈體系,達到全局最優解,來保障下發的計算任務是被正確執行。
https://www.aicoin.com/article/256862.html
我們快速這種計算框架的核心要點:
1.角色:問題解決者、挑戰者和法官
2.問題解決者需要質押資金,才可以參與領取計算任務
3.挑戰者作為賞金獵人,需要重復驗證問題解決者的計算結果,和自己本地的是否一致
4.挑戰者會去抽取與兩者計算狀態一致的最近時間的計算任務,如果出現分歧點,提交分歧點的默克樹hash值
5.最后法官評判是否挑戰成功
但是這個模式存在以下幾點缺陷:
1.挑戰者可以晚時間提交,只需要完成提交任務就行。這樣導致結果是,缺少及時性。
所以如何實現,既保證計算過程可被驗證,又能保障驗證的及時性。
例如zkEVM的實現,每個區塊時間,需要提交可被驗證的zkProof。這個zkProof包含邏輯計算業務代碼生成的字節碼,再由字節碼執行生成電路代碼。這樣實現了計算業務邏輯是被正確執行,而且通過較短和固定時間來保障驗證的及時性。
動態 | 摩根大通正在測試零知識隱私解決方案:據coindesk報道,摩根大通(JPMorgan Chase)正在測試一種名為AZTEC的零知識隱私解決方案。該協議由倫敦創業公司AZTEC開發,旨在以更低的成本和更高效的方式對區塊鏈數據進行加密。摩根大通內部人士證實,該銀行的Quorum團隊正在關注AZTEC,并且一直希望將Quorum的零知識證明工業化。[2019/3/1]
雖然zkEVM只是針對智能合約執行的場景,本質還是在計算業務框架下面。如果我們將EVM邏輯順延到其他通用類型的虛擬機,例如WASM虛擬機,或者更加通用的LLVM高性能虛擬機。當然在具體落實到工程實踐上會有諸多挑戰,卻給我們更多的探索空間。
在假定條件下,有足夠高性能的零知識證明加速硬件和足夠被優化的零知識證明算法,通用計算場景可以得到充分發展。大量Web2場景下的計算業務,都可以被零知識證明通用虛擬機進行復現。就如前文所提到可賺錢的業務方向。
我們回看一下零知識證明算法歷史發展演進的路線
1.GMR85是最早起源的算法,來源于 Goldwasser、Micali 和 Rackoff 合作發表的論文:The Knowledge Complexity of Interactive Proof Systems(即 GMR85),該論文提出于 1985 年,發表于 1989 年。這篇論文主要闡釋的是在一個交互系統中,經過 K 輪交互,需要多少知識被交換,從而證明一個證言(statement)是正確的。
2.姚氏混淆電路(Yao's Garbled Circuit,GC)。一種著名的基于不經意傳輸的兩方安全計算協議,它能夠對任何函數進行求值。混淆電路的中心思想是將計算電路(我們能用與電路、或電路、非電路來執行任何算術操作)分解為產生階段和求值階段。每一方都負責一個階段,而在每一階段中電路都被加密處理,所以任何一方都不能從其他方獲取信息,但他們仍然可以根據電路獲取結果。混淆電路由一個不經意傳輸協議和一個分組密碼組成。電路的復雜度至少是隨著輸入內容的增大而線性增長的。在混淆電路發表后,Goldreich-Micali-Wigderson(GMW)將混淆電路擴展使用于多方,用以抵抗惡意的敵手。
3.sigma協議又稱為誠實驗證者的(特殊)零知識證明。即假設驗證者是誠實的。這個例子類似Schnorr身份認證協議,只是后者通常采用非交互的方式。
4.2013 年的 Pinocchio (PGHR13):Pinocchio: Nearly Practical Verifiable Computation,將證明和驗證時間壓縮到適用范圍,也是 Zcash 使用的基礎協議。
5.2016 年 的 Groth16:On the Size of Pairing-based Non-interactive Arguments,精簡了證明的大小,并提升了驗證效率,是目前應用最多的 ZK 基礎算法。
6.2017 年的 Bulletproofs (BBBPWM17) Bulletproofs: Short Proofs for Confidential Transactions and More,提出了 Bulletproof 算法,非常短的非交互式零知識證明,不需要可信的設置,6 個月以后應用于 Monero,是非常快的理論到應用的結合。
7.2018 年 的 zk-STARKs (BBHR18) Scalable, transparent, and post-quantum secure computational integrity,提出了不需要可信設置的 ZK-STARK 算法協議,這也是目前 ZK 發展另一個讓人矚目的方向,也以此為基礎誕生了 StarkWare 這個最重量級的 ZK 項目。
8.Bulletproofs的特點為:
動態 | 安永為以太坊提供零知識證明技術:據coindesk報道,會計公司安永(EY)宣布了一項工具,此工具將把私密交易帶到以太坊。其EY Ops Chain公共版原型是第一個用于以太坊的零知識證明(ZKP)技術。ZKP是一種加密技術,它允許雙方證明一個私密信息是真實的,這通常是關于交易的數據。[2018/10/31]
1)無需trusted setup的short NIZK
2)基于Pedersen commitment構建
3)支持proof aggregation
4)Prover time為:O ( N ?log ?( N ) ) O(N\cdot \log(N))O(N?log(N)),約30秒
5)Verifier time為:O ( N ) O(N)O(N),約1秒
6)proof size為:O ( log ?( N ) ) O(\log(N))O(log(N)),約1.3KB
7)基于的安全假設為:discrete log
Bulletproofs適用的場景為:
1)range proofs(僅需約600字節)
2)inner product proofs
3)MPC協議中的intermediary checks
4)aggregated and distributed (with many private inputs) proofs
9.Halo2主要特點為:
1)無需trusted setup,將accumulation scheme 與 PLONKish arithmetization高效結合。
2)基于IPA commitment scheme。
3)繁榮的開發者生態。
4)Prover time為:O ( N ?log ?N ) O(N*\log N)O(N?logN)。
5)Verifier time為:O ( 1 ) > O(1)>O(1)>Groth16。
6)Proof size為:O ( log ?N ) O(\log N)O(logN)。
7)基于的安全假設為:discrete log。
Halo2適于的場景有:
1)任意可驗證計算
2)遞歸proof composition
3)基于lookup-based Sinsemilla function的circuit-optimized hashing
Halo2不適于的場景為:
1)除非替換使用KZG版本的Halo2,否則在以太坊上驗證開銷大。
10.Plonky2主要特點為:
1)無需trusted setup,將FRI與PLONK結合。
2)針對具有SIMD的處理器進行了優化,并采用了64 byte Goldilocks fields。
3)Prover time為:O ( log ?N ) O(\log N)O(logN)。
4)Verifier time為:O ( log ?N ) O(\log N)O(logN)。
5)Proof size為:O ( N ?log ?N ) O(N*\log N)O(N?logN)。
6)基于的安全假設為:collision-resistant hash function。
Plonky2適于的場景有:
1)任意可驗證計算。
動態 | 荷蘭國際銀行推出區塊鏈隱私零知識技術:據coindesk消息,荷蘭國際銀行(ING Bank)本周在Sibos銀行會議上宣布,將發布其零知識集員(ZKSM)解決方案,將零知識技術應用于區塊鏈隱私。ZKSM允許在指定集合內驗證字母數字數據。實際上,這意味著從數字轉移到其它類型的數據,比如證明維度和地理位置。[2018/10/22]
2)遞歸proof composition。
3)使用自定義gate進行電路優化。
Plonky2不適于的場景為:
1)受限于其non-native arithmetic,不適于包含橢圓曲線運算的statements。
目前Halo2成為zkvm采用的主流算法,支持遞歸證明,支持驗證任意類型的計算。為零知識證明類型虛擬機做通用計算場景,奠定了基礎。
既然零知識證明在學術層面突飛猛進,具體落地到實際開發時候,目前進展是怎樣的呢?
我們從多個層面去觀察:
編程語言:目前有專門的編程語言,幫助開發者不需要深入了解電路代碼如何設計,這樣就可以降低開發門檻。當然也有支持將Solidity轉譯成電路代碼。開發者友好程度越來越高。
虛擬機:目前有多種實現的zkvm,第一種是自行設計的編程語言,通過自己的編譯器編譯成電路代碼,最后生成zkproof。第二種是支持solidity編程語言,通過LLVM編譯成目標字節碼,最后轉譯成電路代碼和zkproof。第三種是真正意義的EVM等效兼容,最終將字節碼的執行操作,轉譯成電路代碼和zkproof。目前是zkvm的終局之戰嗎?并沒有,不管是拓展到智能合約編程之外的通用計算場景,還是不同方案的zkvm針對自身底層指令集的補齊和優化,都還是1到N的階段。任重而道遠,大量工程上的工作需要去優化和實現。各家在學術層到工程實現上實現了落地,誰能最終成為王者,殺出一條血路。不僅需要在性能提升有大幅進展,還要能吸引大量開發者進入生態。時間點是十分重要的前提要素,先行推向市場,吸引資金沉淀,生態內自發涌現的應用,都是成功的要素。
周邊配套工具設施:編輯器插件支持、單元測試插件、Debug調試工具等等,幫助開發者更加高效的開發零知識證明應用。
零知識證明加速的基礎設施:因為整個零知識證明算法中,FFT和MSM占用了大量運算時間,可以GPU/FPGA等并行計算設備來并行執行,達到壓縮時間開銷的效果。
不同編程語言實現:例如采用更加高效或者性能表現更好的編程語言:Rust。
明星項目涌現:zkSync、Starkware等等優質項目,相繼宣布其正式產品發布的時間。說明了,零知識證明和去中心化計算結合不再是停留在理論層面,在工程實踐上逐漸成熟。
前面我們講到,關于這塊市場容量、目前行業發展情況、在技術上的實際進展,但是沒有存在一點挑戰嗎?
我們對整個zkProof生成的流程進行拆解:
在邏輯電路編譯數值化r1cs的階段,里面80%的運算量在NTT和MSM等計算業務上。另外對邏輯電路不同層級進行hash算法,隨著層級越多,Hash算法時間開銷線性增加。當然現在行業內提出時間開銷減少200倍的GKR算法。
但是NTT和MSM計算時間開銷,還是居高不下。如果希望給用戶減少等待時間,提升使用體驗效果,必須要在數學實現上、軟件架構優化、GPU/FPGA/ASIC等等層面進行加速。
下圖為各個zkSnark家族算法的證明生成時間和驗證時間的測試:
Benchmark Results
Sudoku: compile
Miden
Plonk: 3 by 3
Risc
Halo: 3 by 3
1.52 ms (?1.00x)
99.92 ms (?65.80x slower)
1.86 ms (?1.22x slower)
329.15 ms (?216.76x slower)
Sudoku: prove
477.41 ms (?1.00x)
100.52 ms ( 4.75x faster)
1.67 s (?3.49x slower)
116.74 ms ( 4.09x faster)
Sudoku: verify
2.41 ms (?1.00x)
7.28 ms (?3.02x slower)
2.79 ms (?1.15x slower)
4.39 ms (?1.82x slower)
Sudoku:
475.69 ms (?1.00x)
205.22 ms ( 2.32x faster)
1.67 s (?3.52x slower)
450.98 ms (?1.05x faster)
fibonacci: compile
Miden: iter-93
Miden: fixed-92
Miden: fixed-50
Risc0: iter-93
Risc0: iter-50
Risc0: fixed-50
Risc0: fixed-92
64.89 us (?1.00x)
55.92 us (?1.16x faster)
45.01 us (?1.44x faster)
387.69 us (?5.97x slower)
388.34 us (?5.98x slower)
391.42 us (?6.03x slower)
390.26 us (?6.01x slower)
fibonacci: prove
472.51 ms (?1.00x)
231.76 ms ( 2.04x faster)
233.25 ms ( 2.03x faster)
417.66 ms (?1.13x faster)
413.46 ms (?1.14x faster)
410.38 ms (?1.15x faster)
412.02 ms (?1.15x faster)
fibonacci: verify
2.36 ms (?1.02x faster)
2.55 ms (?1.06x slower)
fibonacci:
475.43 ms (?1.00x)
234.39 ms ( 2.03x faster)
235.84 ms ( 2.02x faster)
421.28 ms (?1.13x faster)
417.20 ms (?1.14x faster)
413.70 ms (?1.15x faster)
415.58 ms (?1.14x faster)
fibonacci large: compile
Miden: iter-1000
Risc0: iter-1000
64.91 us (?1.00x)
387.43 us (?5.97x slower)
fibonacci large: prove
4.07 s (?1.00x)
3.39 s (?1.20x faster)
fibonacci large: verify
2.66 ms (?1.00x)
2.96 ms (?1.11x slower)
fibonacci large:
3.40 s (?1.20x faster)
Blake: compile
Risc0: Library-The quick brown fox jumps over the lazy dog
466.84 us (?1.00x)
Blake: prove
3.40 s (?1.00x)
Blake: verify
4.24 ms (?1.00x)
Blake:
Blake3: compile
Miden: Library-quick brown fox
7.38 ms (?1.00x)
Blake3: prove
1.99 s (?1.00x)
Blake3: verify
3.12 ms (?1.00x)
Blake3:
2.01 s (?1.00x)
既然我們可以看到缺陷和挑戰,同時也意味著其中深藏著機會:
1.設計針對特定zkSnark算法加速或者通用zkSnark算法加速的芯片。相比其他類型的加密算法,zkSnark產生較多臨時文件,對于設備的內存和顯存存在要求。芯片創業項目,同時也面臨大量資金投入,還不一定能保障最后可以流片成功。但是一旦成功,其技術壁壘和IP保護都將是護城河。芯片項目創業,必須要足夠議價能力的渠道,拿到最低成本。以及在整體品控上做到保障。
2.顯卡加速的Saas服務,利用顯卡做加速,是支出代價小于ASIC設計,而且開發周期也較短。但是軟件創新上,在長周期上最終會被硬件加速所淘汰。
目前和一些zkRollup項目接觸,最終發現還是大內存和大顯存顯卡比較適合他們用于軟件加速。例如在Filecoin挖礦中,大量閑置的數據封裝機成為了現在熱門zkRollup項目的目標設備。在Filecoin挖礦中,在C2階段,需要將生成的電路代碼文件,生成并緩存在內存中。如果業務代碼邏輯十分復雜,其對應生成的電路代碼規模也會非常大,最終呈現形式就是體積大的臨時文件,特別涉及對電路代碼進行Hash運算,需要AMD CPU指令來加速。因為直接CPU和內存之間高速交換,效率非常高。這里面還需要涉及到NVME的固態硬盤,都會是對zkSnark運算起到加速作用。以上我們對可能存在加速實現的可能性進行探討,發現對資源要求還是非常高的。
在未來,如果想大規模普及zkSnark應用,通過不同層面優化,勢在必行。
我們觀察到所有zkRollup Layer2需要將zkProof傳遞到layer1進行驗證和存儲,因為ETH鏈上資源十分昂貴,如果大規模普及后,需要為ETH支付大量Gas。最終由用戶承擔這個成本,和技術發展的初衷。
所以很多zkp項目提出,數據有效層、利用遞歸證明壓縮提交的zkProof,這些都是為了降低Gas cost。
當前大部分zkvm面向智能合約編程的平臺,如果要更加通用的計算場景,對zkvm底層指令集有大量的補齊工作。例如zkvm虛擬機底層支持libc指令,支持矩陣運算的指令,等等其他更加復雜的計算指令。
因為智能合約平臺更多面向資產進行編程,如果我們希望更多真實業務場景可以接入到Web3,零知識證明和去中心化計算的結合帶來了契機。我們相信零知識證明將會成為主流賽道,不再是細分領域的技術。
火必研究院
個人專欄
閱讀更多
金色早8點
金色財經
去中心化金融社區
CertiK中文社區
虎嗅科技
區塊律動BlockBeats
念青
深潮TechFlow
Odaily星球日報
騰訊研究院
原文作者:Ren & Heinrich原文編譯:深潮 TechFlow在這篇文章中,我將會分享在分析 200 個頂級 DeFi 項目后所得到的見解.
1900/1/1 0:00:00金色財經報道,彭博社援引知情人士的話報道稱,Genesis很難為其貸款部門籌集現金,并警告潛在投資者,如果無法做到這一點,它可能會申請破產.
1900/1/1 0:00:00原文作者:Michael Nadeau,來源:The DeFi Report本周我們將重溫以太坊生態系統中的第 2 層擴展解決方案.
1900/1/1 0:00:00原標題:如何用AIGC撰寫研報? 釋放ChatGPT3的力量引入:如何引導Chat GPT產出研究報告本周末,OpenAI剛發布的Chat GPT3爆火科技圈.
1900/1/1 0:00:001.V神:我看好以太坊生態中的哪些應用?我對以太坊的興奮現在不再基于未被發現的未知事物的潛力,而是基于一些特定類別的應用程序,這些應用程序已經證明了自己,而且只會越來越強大.
1900/1/1 0:00:00撰寫:Kadeem Clarke區塊鏈一直在發展,每次迭代都試圖解決區塊鏈去中心化、可擴展性和安全性的三難困境.
1900/1/1 0:00:00