1. 主页 > 币圈百科

漫游以太:过去、现在、未来


欧易(OKX)交易所 - 全球顶尖数字货币交易平台

注册立即 领取价值高达 6,0000 元的数字货币盲盒,邀请码:vip1234,享受 20%手续费减免。

欧易注册 APP下载

漫游以太:过去、现在、未来
  • 在 Rollup 上提交买卖

  • 考证者将买卖增加到分片区块中

  • 信标链选择考证者以提出新的块

  • 其他的考证者组成随机的委员会并考证分片上的建议

  • 提出区块和证明倡议都需求在一个 slot 内完成,一般是 12s。每 32 个 slot 组成一个 epoch 周期,每个 epoch 将打乱考证者排序偏重新选举委员会。

    兼并后,以太坊将为共识层完成建议者-树立者区分(PBS)。Vitalik 以为,一切区块链的结局都将是具有中心化的区块消耗和去中心化的区块验证。由于分片后的以太坊区块数据十分稀疏,出于对数据可用性的高央求,区块消耗的中心化是必要的。同时,必需有一种可以维护一个去中心化的验证者集的计划,它可以验证区块并实施数据可用性采样。

    矿工和区块验证分别。矿工中止区块的树立,然后将区块提交给验证者。向验证者出价招标选择自己的区块,然后验证者投票来决议区块能否有效。

    分片是一种分区方式,能够在 P2P 网络中聚集计算权益和存储义务负载,经过这种处置方式,每个节点不用负责处置整个网络的买卖负载,只需求维护与其分区(或分片)相关的音讯就能够了。每个分片都有自己的验证者网络大约节点网络。

    分片的平安性效果:例如整个网络有 10 条分片链,破坏整个网络需求 51% 的算力,那么破坏单个分片只需求 5.1% 的算力。因尔后续的改良就包括了一个 SSF 算法,这个算法能够有效防止 51% 的算力攻击。依据vitalik总结,转向 SSF 是一个多年的路途图,即使目前做了少量任务,它也将是以太坊较晚推行的严酷变化之一,并且远在以太坊的 证明机制、分片和 Verkle 树完整推出之后。

    信标链,负责生成随机数,将节点分配给分片,捕捉单个分片的快照和其他各种功用,负责完成分片间的通讯,谐和网络的同步。

    信标链的实施方法如下:

    该路途的主要手段是促进以 Rollup 为中心的扩容。 Surge 指的是增加了以太坊分片,这是一种扩容处置计划,以太坊基金会宣称:该处置方案将进一步启用低 gas 费的二层区块链,降低 rollup 或捆绑买卖的利息,并运用户更冗杂操作保护以太坊网络的节点。

    该图依然能够经过以下简图来理解:

    以 zkrollup 运转原理为例:在 zkrollup 中分为排序器(sequencer)和聚合器(aggregator),排序器负责将用户买卖排序,并且将其打包成批次(batch),发送给聚合器。聚合器施行买卖,过去外形根(prev state root),生成后外形根(post state root),然后生成证明(proof),聚合器最后将前外形根、后外形根、买卖数据,证明发送到 L1 上的合约,合约负责校验证明能否有效,买卖数据存储在 calldata 内。Zkrollup 数据可用性可以让任何人能够依据链上存储的交易数据,恢复出账户的全局形状。

    但是运用 calldata 的费用十分高尚,因此整个EIP-4844 协议(能够随时改动)提出了将交易区块的大小改为 1~2MB,为未来的 rollup 与数据分片打下坚实基础。目前以太坊的区块大小大约是 60KB ~100KB,以 EIP-4844 为例,大约可以提升 10~34x 的区块大小极限。该区块格式被称为 blob(也可以称为数据分片 data shard)。

    该阶段 Scourge 是路途图的补充,主要用于处置 MEV 的效果。那什么是 MEV?

    MEV 全名 Miner Extractable Value / Maximal Extractable Value,这一概念最先运用在任务量证明的背景下,最后被称为“矿工可提取价值(Miner Extractable Value)”。 这是由于在任务量证明中,矿工掌握了交易的包括、清扫和次第等角色才干。 但是,在经过兼并过渡为权益证明后,验证者将负责这些角色,而挖矿将不再适用(此处引见的价值提取方法在这次过渡后仍将保管,因此需求更改称号)。为了继续使用相同的首字母缩写词以便确保继续性,同时坚持相同基本含义,现在使用“最大可提取价值(Maximal Extractable Value)”作为更具容纳性的替代词。

    套利空间包括:

    MEV 的缺陷:

    某些方式的 MEV,如夹心交易,会招致用户的体验清楚变差。 被夹在中间的用户面临更高的滑点和更差的交易执行。在网络层,一般的抢跑者和他们经常参与的矿工费拍卖(当两个或更多的先行者经过逐渐提高本人交易的矿工费,从而使他们的交易被打包到下一个区块),招致网络拥堵和试图运转一般交易的其他人的高矿工费。除了区块内发生的,MEV 也能够会在区块间发生有害的影响。 假定一个区块中可用的 MEV 大大逾越了规范区块的奖励,矿工能够会被鼓舞去重新开采区块并为自己捕捉 MEV,进而招致区块链的重新组织和共识的不坚定。

    大局部 MEV 是由称为“搜索者”的独立网络参与者提取的。 搜索者在区块链数据上运转冗杂的算法来检测盈利的 MEV 机遇,并且无机器人自动将这些盈利交易提交到网络。以太坊上的 MEV 效果触及使用机器人来使用网络交易,招致梗塞和高额费用。

    Verge 将完成“Verkle 树”(一种数学证明)和“有形状客户端”。这些技术升级将答使用户成为网络验证者,而无需在他们的机器上存储少量数据。这也是盘绕 rollup 扩容的方法之一,前文提到过 zk rollup 的简易工作原理,聚合器提交了证明,layer 1 上的验证合约只需求验证 blob 内的 KZG 许愿和生成的证明即可。这里冗杂引见一下 KZG 许愿,就是确保一切的交易都被包括了进来。由于 rollup 可以提交局部交易,生成证明,假设使用 KZG,那么一切的交易都会被确保包括进来生成证明。

    The Verge 就是确保验证非常繁杂,只需求下载 N 个字节数据,执行基本的计算就可以验证 rollup 提交的证明。

    值得一提的是,ZK rollup 有许多种方案,stark、snark 大约 bulletproof 等。各个方案关于证明和验证的方式都不尽相反,因而出现了权衡。SNARKs 目前比 STARKs 技术更易上手,技术也更完美,因此许多项目刚末尾都是使用 SNARKs,但是随着 STARKs 技术上的迭代后,最终会逐渐转向抗量子攻击的 STARKs。固然以太坊为了与 rollup 适配,EIP-4844 主要改良之一是交易格式 blob,扩展了区块容量,但目前一切的零知识证明的主要瓶颈依然在于自身证明算法,一方面经过改良算法来处置证明效果,另一方面经过堆叠硬件来提高证明效率,也因此衍生了ZK挖矿赛道。有兴味的可以转到这篇文章

    The Purge 将增加在硬盘驱动器上存储 所需的空间量,试图简化以太坊协议并且不需求节点存储历史。这样可以极大的提升网络的带宽。

    EIP-4444:

    客户端必需中止在 P2P 层上提供逾越一年的历史标头、注释和 recipient。客户端可以在外地修剪这些历史数据。保管以太坊的历史是基本,置信有各种带外方式来完成这一点。历史数据可以通过 torrent 磁力链接或 等网络打包和共享。此外,Portal Network 或 The Graph 等系统可用于获取历史数据。客户端应对应导入和导出历史数据。客户端可以提供获取 / 验证数据并自动导入它们的脚本。

    该道路主要是一些系统的优化修复,如账户笼统、EVM 优化以及随机数方案 VDF 等。

    这里提到的账户笼统(Account Abstraction,AA)一直都是 ZK 系 Layer 2 想要首先完成的目的。那什么是账户笼统?在完成账户笼统之后,一个账户也可以自动发起交易,而无需依赖“元交易”的机制(这在 EIP-4844 里被提出)。

    在以太坊内,账户分为合约账户和外部账户。目前的以太坊的事务类型只需一种,必需由外部地址发起,合约地址无法自动发起事务。因此,任何合约自身形状的改动,必需依赖于一个内部地址发起的事务,不论是一个多重签名账户,还是混币器,或是任何智能合约的配置变卦,都需要由至少一个外部账户触发。

    不论使用以太坊上的什么使用,用户都必需持有以太坊(并承当以太坊价钱坚定的风险)。其次,用户需要处理繁杂的费用逻辑,gas price,gas limit,事务梗塞,这些概念对用户来说过于复杂。许多区块链或使用试图通过产品优化提高用户体验,但效果甚微。

    以账户为中心的方案的目的是为用户创立一个基于智能合约管理的账户。实现账户笼统后的益处是:

    从而分明改善了用户与以太坊的交互体验。

    整个以太坊目前曾经出现了模块化的趋向,执行层就是由 Layer 2 负责(如arbitrum、zksync、starknet、polygon zkevm 等)。他们负责执行 L2 上用户的交易,并且提交证明。Layer 2 普通使用的是 OP 技术 / ZK 技术,ZK 技术在实践上 TPS 是远高于 OP 的,目前少量生态在 OP 系,但是未来,随着 ZK 技术的完美,会有越来越多使用迁移到 ZK 系。该部分是对路线图的精细描画与补充为什么和怎样样。

    目前以太坊只是将执行层剥兼并来,实际上,其它层级依然混作一谈。在celestia的愿景中,执行层只停止两件事:对单笔交易而言,执行交易并发生状态更改;对同批次的交易而言,计算该批次的状态根。以后以太坊执行层的一部协作作分给了 Rollup ,即我们熟知的 StarkNet 、 、 和 。

    现在不论是 optimism、polygon、starknet、zksync 等都往模块化的路途上探求。

    Optimism 提出了 bedrock / op stack,polygon 也在研发 polygon avail 作为数据可用性层,supernets 则用以简化链的创立与共享验证者集。

    结算层:可以理解为主链上的 Rollup 合约验证上文提到的前状态根、后状态根、证明的有效性(zkRollup)或狡诈证明(Optimistic Rollup)的进程。

    共识层:不管采用 、PoS 或其他共识算法,总之共识层是为了在散布式系统中对某件事达成一致,即对状态转换的有效性达成共识(前状态根经过计算转换成的后状态根)。在模块化的语境下,结算层和共识层的含义有些相近,故也有一些研讨者把结算层和共识层一致同来。

    数据可用性层:确保将交易数据完整上传到数据可用性层,验证节点能够通过该层的数据复现所有状态变卦。

    这里需要辨析的是数据可用性和数据存储的区别:

    数据可用性与数据存储是分明不同的,前者关心的是最新区块公布的数据能否可用,然后者则是触及平安地存储数据并保证在需要时可以访问它。

    从结算层看,目前以为 rollup 的焦点在 ZK 系。假设通过 ZK 系的 rollup 来改进 ZK 证明零碎的大小、gas 消耗、利息,再分别递归和并行处理的话就能够极大的拓展其 TPS。那么我们就先从 ZK rollup 末尾。

    随着以太坊扩容之路的展开,零知识证明(Zero Knowledge Proof,ZKP)技术被 Vitalik 以为是有望成为扩容之战的结局的方案。

    ZKP 的实质是让某物证明他们知道或所具有某些东西。例如,我可以证明我具有开门的钥匙,而不用将钥匙拿进去。证明知道某个账户的密码,而无需输入密码并冒着被流露的风险,这项技术对团体隐私、加密、企业甚至核裁军都有影响。通过姚氏百万富翁成绩矫正版原本加深理解:这个成绩议论了两个百万富翁爱丽丝和鲍勃,他们想在不走漏实际财富的状况下知道他们中的哪一个更富饶。

    假定公寓每月的租金为 1000 美元,若要契合出租人选的规范,则至少要支付一个月租金的 40 倍。那么我们(租客)需要证明我们的年支出要有 4 万美元上述文章内容才行。但房主不想我们找到破绽,因此选择不公布精细的租金,他的手腕是测试我们能否契合规范,而答案仅仅是契合大概不契合,而不对精密金额负责。

    现在有十个盒子,以 1 万美元为增量,标志为 10~100k 美元。每个都有一个钥匙和一个插槽。房主带着盒子走进房间毁掉 9 把钥匙,拿走标有 40k 美元盒子的钥匙。

    租客年薪抵达 7.5 万美元,银行代理人监视开具资产证明的文件,不写明精密资金,这个文件的实质是银行的资产声明可验证索赔文件。随后我们将该文件投入 10k~70k 的箱子中。那么房主使用 40k 的钥匙翻开箱子,看到外面的可验证索赔文件时,则判定该租客符合规范。

    这外面触及到的点包括,声明人(银行)出具资产达标证明,验证者(房主)通过钥匙验证租客是否具有资历。再次强调,验证结果只需两个挑选 —— 具有资历和不具有资历,并不会也不能对租客详细资产数额作出央求。

    我们仍然可以用下图作为理解,交易在 layer 2 上执行,在分片提交交易。layer 2 一般采用 rollup 的方式,也就是在 layer 2 上将多笔交易打包成一个批次来处理事务,然后再提交给 layer 1 的 rollup 智能合约。这里包括新旧状态根,layer 1 上的合约会验证两个状态根是否婚配,假设婚配那么主链上的旧状态根就会改换为新状态根。那如何验证批次处理后取得的状态根是准确的呢,这里就衍生出了 optimistic rollup 和 zk rollup。区分使用狡诈证明和zk技术停止交易确实认以及状态根的验证。

    这里的 layer 2(rollup)就相当于上文例子中的声明人(银行),其打包操作就是这份声明操作,并不会对详细数额作出声明,而是确认是否抵达标准。打包后提交给 layer 1 的就是这份可索赔的声明文件。验证新旧状态根就是房主通过钥匙验证自己希冀的租客经济实力是否达标。状态根验证成绩就是银行提交的声明,该如何停止声明才干使问题可信。

    基于 optimistic 也就是狡诈证明的 rollup 来说,主链的 Rollup 合约记载了该 Rollup 外部状态根变卦的完整记载,以及每个(触发状态根变卦的)批次处理的哈希值。假如有人发觉某个批次处理对应的新状态根是过失的,他们可以在主链上公布一个证明,证明该批次处理生成的新状态根是过失的。合约校验该证明,假如校验通过则对该批次处理之后的所有批次处理交易局部回滚。

    这里的验证方式相当于声明人(银行)提交了可验证资产声明文件,然后将资产文件部分公开到链上,并且数据也要公开到链上,其他应战者依据原始数据进行计算看可验证的资产文件是否具有过失或假造的状况,假如有问题,则提出应战,应打败利则向银行索赔。这里最主要的问题就是需要预留时间给应战者搜罗数据并且验证该份文件的真实性。

    关于使用零知识证明(Zero Knowledge Proof,ZKP)技术的 Rollup 来说,其每个批次处理中包括一个称为 ZK-SNARK 的密码学证明。银行通过密码学证明技术来生成资产声明文件。这样就不需要预留时间给挑战者,从而也就没有挑战者这一角色具有了。

    目前 polygon 系的 hermez 曾经发布,zksync dev 主网、starknet 主网也已经上线。但是他们的交易速度似乎与我们实践上还相差过大,特地是 starknet 的用户能分明感知到,其主网速度慢的令人惊讶。究其缘由还是在于零知识证明技术生成证明难度仍然很大,利息开支仍然很高,还有需要对以太坊的兼容性和 zkevm 功用上的权衡。 团队也招认:“Polygon zkEVM 的测试网版本也具有有限的吞吐才干,这意味着它远不是作为优化扩展机器的最终方式。

    以太坊的笼统执行方法如下所示:

    在以太坊的去中心化进程中,我们也可以在 The Merge 路线图上看到 —— 去中心化验证者。其中最主要的就是实现客户端的多样性以及降低机器的入门门槛,添加验证者的人数。因此有些机器不达标的验证者想要参与网络,就可以使用轻客户端,轻节点的运转原理是通过临近的全节点索要区块头,轻节点只需要下载和验证区块头即可。如果轻节点不参与进来,那么所有的交易都需要全节点去执行验证,因此全节点需要下载和验证区块中的每笔交易,同时随着交易量的添加,全节点承压也越来越大,因此节点网络逐渐倾向于高功用、中心化。

    但是这里的问题是,恶意的全节点可以给予缺失 / 无效的区块头,但是轻节点没方法证伪,对此问题有两种方法,刚末尾是使用狡诈证明,需要一个可信的全节点来监控区块的有效性,在发觉无效区块后结构一个狡诈证明,在一段时间内未收到欺诈证明则判定为有效区块头。但是这里分明需要一个可信的全节点,即需要可信设置或许老实假定。但是区块消费者能够隐藏部分交易,欺诈证明就分明失效,由于老实的节点,也依赖于区块消费者的数据,若数据自身就被隐藏,那么可信节点就以为提交的数据是部分数据,那么自然也不会生成欺诈证明。

    Mustarfa AI-Bassam 和 Vitalik 在合著的论文中提出了新的处理方案 —— 纠删码。采用纠删码来处理数据可用性的问题,比如 celestia,polygon avail 均采用的是 reed-solomon 纠删码。但是如何确保传输的数据是残缺的数据呢,分别 KZG 许愿 / 欺诈证明即可。

    在 KZG 承诺 / 欺诈证明中,能够确保区块消费者发布完好的数据,不会躲藏交易,然后将数据通过纠删码进行编码,再通过数据可用性采样,这样就可以让轻节点准确地验证数据。

    Rollup 内聚合器提交的数据都是以 calldata 方式存储在链上的,这是由于 calldata 数据相关于其它存储区域更廉价。

    Calldata cost in gas=Transaction size × 16 gas per byte

    每笔交易主要的开支在 calldata 本钱,因为在链上存储费用极端高尚,该部分占到 rollup 本钱的 80%~95% 之多。

    由于这个问题,我们才提出了 EIP-4844 的新交易格式 blob,扩展区块容量,降低提交到链上所需的 gas 费。

    那么如何解决链上数据高尚的问题呢?有以下几种方法:

    通过数据可用性寄存的位置,我们将其分为下图所示:

    Validium 的方案:将数据可用性放在链下,那么这些交易数据就由中心化的运营商来保护,用户就需要可信设置,但成本会很低,但同时平安性简直没有。之后 starkex 和 arbitrum nova 都提出成立 DAC 来负责交易数据的存储。DAC 成员都是知名且在法律管辖区内的团体或组织,怀疑假定是他们不会串通和作恶。

    Zkporter 提出 guardians(zksync token 持有者)来质押维护数据可用性,如果发生了数据可用性缺陷,那么质押的资金将被罚没。Volition 则是用户自己选择链上 / 链下数据可用性,根据需求,在平安与成本之间选择。

    这时分,celestia 和 polygon avail 就出现了。如果 validium 有链下数据可用性的需求,又惧怕去中心化水平低,从而引发相似桥的私钥攻击,那么去中心化的通用 DA 方案则可以解决这个问题。 和 polygon avail 通过成为一条独自的链,来为 validium 提供链下 DA 的解决方案。但是通过独自的链,固然晋升的安全性,但相应会提高成本。

    Rollup 的拓展理论上有两部分,一部分是聚合器的执行速度,另一方面则需要数据可用层的协作,目前聚合器是中心化的效力器来运转,假定交易执行的速度能到达有限大的水平,那么主要拓展困境在于其遭终究层数据可用性解决方案的数据吞吐量的影响。如果 rollup 要最大化其交易吞吐量,则如何最大化数据可用性解决方案的数据空间吞吐量是至关主要的。

    再回到扫尾,使用 KZG 承诺或许欺诈证明来确保数据的完整性,通过纠删码来拓展交易数据辅佐轻节点进行数据可用性采样,进一步确保轻节点能够准确验证数据。

    或许你也想问,终究 KZG 承诺是如何运转来确保其数据的完整性的呢?大约可以稍微解答一下:

    Celestia 恳求验证者下载整个区块,现在的 danksharding 则应用数据可用性采样技术。

    由于区块具有部分可用的状况,因此任何时分我们都需要在重构区块的时分保证同步。在区块确实部分可用时,节点之间通讯,将区块拼凑进去。

    KZG 承诺和数据欺诈证明的比拟:

    可以看到 KZG 承诺能确保拓展和数据是准确的,而欺诈证明引入第三方进行观察。最分明的区别是,欺诈证明需要一个时间距离来给观察者进行反应,然后再演讲欺诈,这时分需要满意节点直接的同步,从而整个网络能够及时收到欺诈证明。KZG 则明显的比欺诈证明更快,其使用数学方法来确保数据的正确,而不需要一个等候时间。

    它能够证明数据以及其拓展是正确的。但是由于一维 KZG 承诺需要消耗更大的资源,因此以太坊选择二维 KZG 承诺。

    比如 100 行 × 100 列,那就是 100,00 个份额(shares)。但每采样一次,都不是万分之一的保证。那么扩展四倍意味着在整个份额中至少要有 1/4 的份额不可用,你才干够抽到一个不可用的份额, 才表示真正不可用,因为恢复不出来。只要在 1/4 不可用的情况下才恢复不出来,才是真正有效的觉察过失,所以抽一次的概率大概是 1/4。抽十屡次,十五次,可以到达 99% 的牢靠性保证。现在在 15–20 次的范围之内做选择。

    在 proto-danksharding 实现中,所有验证者和用户仍然必需直接验证完整数据的可用性。

    Proto-danksharding 引入的主要特征是新的交易类型,我们称之为照应 blob 的交易。照应 blob 的事务相似于惯例事务,不同之处在于它还照应一个称为blob的额外数据。Blob 非常大(~125 kB),并且比类似数量的调用数据廉价得多。但是,这些 blob 无法从 EVM 访问(只要对 blob 的承诺)。并且blob 由共识层(信标链)而不是执行层存储。这里其实就是数据分片概念逐渐成型的末尾。

    因为验证者和客户端仍然需要下载完整的 blob 方式,所以 proto-danksharding 中的数据带宽目的为每个插槽 1 MB,而不是完整的 16 MB。但是,由于这些数据没有与现有以太坊交易的 gas 使用量协作,因此仍然有很大的可扩展性收益。

    固然实现全分片(使用数据可用性采样等)是一项复杂的权益,并且在 proto-danksharding 之后仍然是一项复杂的义务,但这种复杂性包括在共识层中。一旦 proto-danksharding 推出,执行层客户端团队、rollup 开拓人员和用户不需要做进一步的工作来完成向全分片的过渡。Proto-danksharding 还将 blob 数据与 calldata 分别,使客户端更简单在更短的时间内存储 blob 数据。

    值得留意的是,所有工作都是由共识层更改,不需要执行客户端团队、用户或 Rollup 开拓人员的任何额外工作。

    EIP-4488 和 proto-danksharding 都招致每个插槽(12 秒)的暂时最大使用量约为 1 MB。这相当于每年大约 2.5 TB,远高于以太坊明天所需的增加率。

    在 EIP-4488 的情况下,解决此问题需要历史记载到期提案EIP-4444(路线图部分有提及),其中不再恳求客户端存储逾越某个时间段的历史记载。

    在这里,将尽能够多的以小白的视角讲分明以太坊扩容进程中自己都在议论的问题。所以我们回到分片,再次强调一下关于分片的片面概念:简单理解就是水平联系数据库以聚集负载的过程。

    在这里,我们的数据分片有一个很主要的问题就是,在 PBS 中(建议者与区块建立者分别,路线图 The Merge 处有提及),在分片中,每个节点群只处理该分片内的交易,交易在分片间会相对独立,那么 AB 两用户处于不同分片上,相互转账该如何处理呢?那这里就需要很好的跨片通讯的才干。

    过来的方式是数据可用性层分片,每个分片都有独立的建议者(proposers)和委员会(committee)。在验证者集合,每个验证者轮番验证分片的数据,他们将数据部分下载下去进行验证。

    缺陷是:

    第二种方法是坚持完整的数据验证,而是采用数据可用性采样的方法(该方法在 The Surge 前期实现)。这里又分为两种随机采样方式,1)区块随机采样,对部分数据分片采样,如果验证通事前,验证者进行签名。但是这里的问题是,可能会出现遗漏交易的情况。2)通过纠删码将数据重新注释为多项式,再应用特定条件下多项式能够复原数据的特性,来确保数据的完整可用性。

    “分片" 关键就是验证者不负责下载所有数据,而这就是为什么 Proto-danksharding 不被以为是 "分片的" 的缘由(固然它的名字里有 "分片 sharding")。Proto-danksharding 请求每个验证者完整地下载所有分片 blob 来验证它们的可用性;Danksharding 则随后将引入采样,单个验证者只需下载分片 blob 的片段。

    三、以太坊的未来之 Layer 3

    被视为以太坊拓展未来的 ZK 系 Layer 2 如 zksync、starknet 都纷繁提出了 Layer 3 的概念。简单理解就是 Layer 2 的 Layer 2。

    以太坊上高昂的交易成本正在促进它(L3)成为 L2 的结算层。置信在不久的未来,由于交易成本显着降低、对 工具的支持不时添加以及 L2 提供的活动性增加,最终用户将在 L2 上进行大部分活动,而以太坊逐步成为结算层。

    L2 通过降低每笔交易的 gas 成本和提高交易率来提高可扩展性。同时,L2s 保管了去中心化、通用逻辑和可组合性的益处。但是,某些应用次第需要特定的定制,这可能更好地由一个新的独立层提供效力:L3!

    L3 与 L2 相关,就像 L2 与 L1 相关一样。只需 L2 能够支持验证者(Verifier )智能合约,L3 就可以使用有效性证明来实现。当 L2 也使用提交给 L1 的有效性证明时,就像 StarkNet 所做的那样,这将成为一个非常粗俗的递归构造,其中 L2 证明的紧缩优势乘以 L3 证明的紧缩优势。实际上说,如果每一层都实现了例如 1000 倍的成本降低,那么 L3 可以比 L1 降低 1,000,000 倍 —— 同时仍然坚持 L1 的安全性。这也是 starknet 引以为豪的递归证明的真适用例。

    这里需要用到《数据可用性层的链上与链下》部分知识。整个 Layer 3 包括了:

    Rollup(链上数据可用性),validium(链下数据可用性)。两种辨别对应不同的应用需求。对价钱、数据愚钝的 web2 企业可以使用 validium,将数据放在链下,这样极大的降低了链上 gas 费用,并且可以不公开用户数据实现隐私性,让企业完成自己对数据的掌控力,使用自定义的数据格式,以前企业的数据商业方式仍然能够跑通。

    关于 dApp 的来说,在基础装备上可以有以下几种选择:

    我们对比一下三种情况:

    难度/费用:Alt-layer 1 > Rollup > Cosmos

    安全性:Rollup > Cosmos > Alt-layer 1

    生态/用户:Rollup > Cosmos > Alt-layer 1

    掌握权:Alt-layer 1 > Cosmos > Rollup

    作为一个 dApp 的开发者,如果想承袭以太坊上的安全性和流量,那就不能重新开发一条链,那只能选择 rollup 。但是自己开发一个 layer 2 rollup 又非常贵,那么适宜的解决方案就变成了应用 layer 3 SDK 开发一个自己的应用公用的 Rollup(application-specific rollup),即 Layer 3。

    四、Layer 2 的未来展开

    由于以太坊是基于账户模型想象的,所有的用户均处在一整个状态树内,因此无法进行并行,因此以太坊本身的桎梏就让其需要剥离执行操作,将 rollup 的多笔交易合成为一笔交易,作为结算层的具有。现在所有的问题就集合在 layer 2 的吞吐量的晋升上。不只仅是用 Layer 3 可以提高交易的吞吐量,还有在 Layer 2 上施行并行处理,也可以极大提高整个网络的吞吐量。

    并行化问题 starknet 也在主动探求,虽然目前证明算法仍然是桎梏,但是估量未来将不会成为阻力。潜在的瓶颈包括:

    在 starknet 社区中,成员也提出了aptos 的并行处理方式非常不错。就 Starknet 而言,目前也在推进排序器内部 tx 并行排序的才干。

    五、总结

    以太坊正在将执行层剥离,所有的行为都朝着其“全球”结算层愿景的方向行进。目前整个以太坊虽然进度缓慢,也就是由于其部分过于庞大,每次更新都牵扯了许多利益与衡量。但不可招认的是,以太坊正在阅历严酷革新,以太坊少量的链上活动、经济机制改进以及以太坊 2.0 可扩展性,其引领的创新 ICO、Defi、 等很多东西值得以太坊社区冷静与等候。置信随同着越来越多国度布置以太坊的节点,比如阿根廷首都政府方案在 2023 年布置以太坊验证节点,在不久的未来,以太坊真的能够实现其宏伟愿景。

    原文链接

                    

    本文来自网络,不代表币圈之家立场,如有侵权请联系我们删除,转载请注明出处:https://www.110btc.com/baike/50039.html

    联系我们

    在线咨询:点击这里给我发消息

    微信号:AB100082

    工作日:9:30-18:30,节假日休息