以太坊基金会(EF)阐述了其愿景、角色和优先事项,旨在维护以太坊作为人类共享世界计算机的地位,并促进生态系统的繁荣发展。EF通过战略性地介入和退出,支持关键基础设施、协议升级和社区主导的倡议,以实现以太坊的长期成功和价值守护,最大化以太坊的使用人数和技术及社会基础设施的弹性。
本文档详细介绍了如何运行 Wormhole Guardian 节点,包括连接的链、所需节点的要求(如 Solana、以太坊、Terra 等)、wormchain 的配置和使用。强调了安全性,建议从源代码构建 guardiand 二进制文件,并详细说明密钥生成、部署、监控、原生代币转账(NTT)及跨链查询(CCQ)的配置步骤,同时鼓励 Guardian 节点公开 API 端点以提高协议的鲁棒性。
以太坊官方博客宣布第二届Ethereum.org Translatathon成功举办,共有327位贡献者参与,翻译了70种语言的253万字内容,为ethereum.org增加了大量多语言内容,包括135万新翻译的单词、55种语言的3173个新增或更新页面以及6种全新语言。此外,还介绍了ETHGlossary工具,旨在创建一个多语言的以太坊术语表。
本文将深入探讨如何在不依赖于任何框架的情况下手动发起一笔交易
本文介绍了如何使用Web3.js连接到以太坊区块链并获取最新区块号。它详细阐述了所需的前提条件、安装步骤、QuickNode设置以及示例代码,使读者能够迅速上手以太坊开发。
本文档详细介绍了 ZKEVM 的设计和实现,包括状态证明和 EVM 证明两个主要部分。状态证明负责验证状态操作的正确性,而 EVM 证明则验证 EVM 指令的正确执行,以及状态证明与 EVM 指令的一致性。此外,文章还深入探讨了Bus Mapping、存储、内存、堆栈等关键概念,并提供了一些伪代码示例,清晰阐述了 ZKEVM 的运作原理。
以太坊基金会推出了客户端激励计划,旨在长期激励客户端团队维护以太坊核心网络。该计划向客户端团队提供以ETH计价的奖励,这些奖励会随着时间解锁,前提是他们继续构建满足主网性能和安全要求的软件。参与计划的团队将获得144个验证器(4608 ETH),用于在主网上运行,并根据客户端的性能和对以太坊社区路线图的贡献逐步释放提款凭证。
本文主要介绍了区块提议和 MEV-Boost 处理区块的一般过程
本文讨论了以太坊生态系统中链重组(reorgs)对所有参与者的负面影响,以及Flashbots为何不支持重组游戏。文章介绍了重组带来的多个风险,包括对网络安全的侵蚀、矿工收入的降低和市场不稳定,并提出相应的缓解措施。同时,Flashbots承诺会致力于保护MEV市场的民主化与可持续性,避免重组行为对以太坊的破坏。最后,Flashbots鼓励社区参与研究与合作,共同维护生态系统的稳定性。
以太坊基金会和Mina基金会发布提案征集(RfP),旨在设计并实现一种在以太坊上验证Pickles SNARK的机制。目标是实现Mina区块链在以太坊上的完全验证,从而实现两个链之间的互操作,并使应用程序更广泛地在以太坊上使用递归SNARK。该提案详细介绍了验证过程中的关键步骤,包括哈希计算、算术方程检查和多标量乘法(MSM),并提出了使用辅助证明系统来验证计算密集型步骤的方案。
Scroll 是一个新的 Layer-2 解决方案,旨在提供无限的可扩展性、极快的确认延迟、完全的去中心化和无需信任的隐私。它通过构建在 zk-Rollup 和高性能的链下分布式系统之上来实现这一点,并进行了一些关键改进,包括新的分层零知识证明系统架构、Layer 2上的 DApp 的一种新交互模型和一个新的Layer 2 挖矿机制。
本文介绍了开源工具Safeguard,这是一款用于监控以太坊智能合约的运行时安全性工具。Safeguard通过实时监测协议的不变量,帮助开发者在潜在金融损失发生之前识别和修复漏洞,从而增强DeFi协议的安全性。文章还指出该工具与现有监控框架的不同之处,并提到未来的功能扩展计划。
本文详细介绍了以太坊测试网Goerli和Sepolia的异同,并提供了如何使用QuickNode创建Sepolia测试网端口的步骤。文章还包含了获取测试ETH和测试端口的操作指南。
本文介绍了以太坊侧链和Layer 2解决方案,它们旨在解决以太坊的可扩展性问题。侧链是独立于以太坊主链运行的区块链网络,通过双向锚定系统与主链连接,而Layer 2协议则是在以太坊链内运行的二级框架,通过将大量交易处理移至链下,从而减轻主链的拥堵。文章还概述了Layer 2的几种主要扩展方案,包括状态通道、Rollup(ZK Rollup 和 Optimistic Rollup)以及Plasma。
本文介绍了如何使用QuickNode的Streams功能来获取以太坊历史数据,特别是ERC-20代币转移数据,并将其存储到Postgres数据库中进行进一步分析。文章详细说明了如何创建Stream、过滤数据、设置数据库以及查询数据。