加密货币安全:CoinW对近期行业安全事件的反思

最近几周,加密货币行业经历了重大安全漏洞事件,将中心化交易所的安全性重新带入了舆论焦点。以下是最近比较典型的两起案例的起因:

  • 因恶意插件导致的用户账户被入侵:一些币安用户在下载了由 KOL 推广的谷歌 Chrome 插件 Aggr 后,账户遭到攻击。黑客通过获取 cookie 绕过了密码和双重验证(2FA)认证,直接访问了用户的账户。尽管2FA阻止了立即提现,但黑客通过对敲交易将资金间接转移。

  • AI 威胁:黑客从 OKX 窃取用户信息,并使用 AI 换脸技术欺骗客服,重置账户密码。

中心化交易所(CEX):加密货币的安全管理

中心化交易所面临的重大安全威胁包括黑客攻击、智能合约漏洞利用、账户保护体系弱、网络钓鱼和物理安全问题。2018 年 3 月 7 日的币安疑似被黑客攻击事件还曾导致比特币市值大幅下跌。在 2019 年,共记录了超过 28 起安全事件,其中超过 70% 涉及数字资产被盗,造成了巨大的财务损失。

各国政府和监管机构正通过引入具体法规和措施来应对这些威胁。例如,韩国政府要求日销售额超过 100 亿韩元或日访问量超过 100 万的虚拟货币交易所必须获得信息安全管理系统(ISMS)认证。在中国,与虚拟货币结算和交易者信息提供相关的所有服务均被禁止。

为应对这些威胁,行业已采取多种措施以增强安全性,比如:

  • 链上数据解决方案:使用区块链数据管理市场对手风险。

  • 多重身份验证(MFA):通过生物识别、一键密码和推送通知来增强用户安全性。

  • SSL 加密和冷存储:保护数据传输并将重要资产离线存储以防止未经授权的访问。

  • 遵守法规:遵守不同司法管辖区的要求,确保在法律框架内运营。

加密货币交易所的有效安全措施是多方面的,需要交易所、监管机构和用户之间的协调努力。

CoinW 的先进安全和风险控制系统

CoinW 致力于通过强大的安全措施和风险控制系统提供一个安全的交易环境。CoinW 的安全负责人表示:“中心化交易所的核心系统类似银行。在这种体系之上,它的安全包括前端和后端的安全,还包括技术方案是不是接受了安全评估,还有数据存储和通讯的加密机制。”

与传统银行不同,交易所处理的是链上资产,要优先考虑私钥的安全性。CoinW 使用多重签名技术(multi-sig)来,并采用传统的分片方法来存储密钥。在热钱包出现问题时,CoinW 有备用系统进行恢复,并将大额资金存储在冷钱包中。

内部机制也至关重要,包括实时安全事件监控和响应。系统能够迅速检测并处理可疑活动,如异常网络访问或异地登录。CoinW 通过多重验证方法来处理长时间未活跃或异地登录,并对任何异常交易进行即时通知,包括邮件和站内信。在业务风险控制方面,触发风险条件的交易需经过二次人工审核,确保对异常活动账户的额外审查。

此外,CoinW 通过多方计算(MPC)技术强化钱包安全,将密钥分布在四个系统中,任何交易都需要四个系统的一致批准,防止未经授权的操作。

CoinW 还将 KYA(了解你的地址)整合到已有的 KYT(了解你的交易)系统中,以提高安全标准。KYA 分析并分类链上地址,增强识别风险和保护用户资产的能力。此项整合进一步巩固了 CoinW 在加密货币行业中的安全领先地位。

CoinW 还在合规方面取得了重要成就,例如获得澳大利亚交易报告和分析中心(AUSTRAC)颁发的数字货币交易服务牌照。这使我们能够合法地进行现货交易和法币交易,为客户提供更安全、更可靠的交易环境。

CoinW 的安全负责人总结道:“综合来说,中心化交易所的安全等级是由其技术措施、业务操作、内部管理以及对安全事件的响应能力决定的。这些因素共同确保了交易所的安全和可靠性,为用户提供了一个安全和值得信赖的交易环境。”

Arweave创始人对话NEAR联创:探索AI与区块链融合之路缩略图

Arweave创始人对话NEAR联创:探索AI与区块链融合之路

来源:BeWater Community

6 月 14 日,AO 基金会正式推出去中心化超级计算机 AO 的代币经济学。在 6 月 12 日晚,AO 发布代币经济学以及NEAR发布DA解决方案前夕,我们邀请了 Arweave 和 AO 创始人 Sam Williams、NEAR Protocol 联合创始人 Illia Polosukhin 就 AI 和区块链的融合进行了一场深度对谈。Sam 详细阐述了 AO 的底层架构,它以面向 Actor 的范式和去中心化的 Erlang 模型为基础,旨在打造一个可无限扩展、支持异构进程交互的去中心化计算网络。Sam 还展望了 AO 在 DeFi 场景中的潜在应用,通过引入可信的 AI 策略,AO 有望实现真正的「代理金融」。Illia 则分享了 NEAR Protocol 在可扩展性和 AI 集成方面的最新进展,包括链抽象与链签名功能的引入,以及开发中的点对点支付和 AI 推理路由器。此外,两位嘉宾还就当前各自生态中的优先事项和研究重点,以及他们看好的创新项目发表了看法。感谢 @BlockBeatsAsia 的 @0xLogicrw 第一时间编译整理,为社区带来中文版精彩内容。

Arweave创始人对话NEAR联创:探索AI与区块链融合之路

Illia 和 Sam 如何涉足 AI 和加密

Lulu:首先做一个简单的自我介绍吧,讲讲你们如何涉足 AI 和区块链两个领域。

Illia:我的背景是机器学习和人工智能,在进入加密领域之前,我在这一领域工作了大约 10 年。我最为人所知的是《Attention is All You Need》这篇论文,它引入了 Transformer 模型,现在被广泛应用于各种现代机器学习、AI 和深度学习技术中。然而,在此之前,我还参与了许多项目,包括 TensorFlow,这是 Google 在 2014-2015 年开源的一个机器学习框架。我还从事过问答系统、机器翻译等研究,并在 Google.com 和其他谷歌产品中实际应用了一些研究成果。

后来,我和 Alex 共同创办了NEAR.ai,最初是一家 AI 公司,致力于教机器编程。我们认为,未来人们将能够通过自然语言与计算机交流,而计算机则会自动进行编程。在 2017 年,这听起来像是科幻小说,但我们确实进行了大量研究。我们通过众包的方式获取更多的训练数据,来自中国、东欧等地的学生为我们完成小任务,如编写代码、撰写代码注释。但我们在支付酬劳时遇到了挑战,比如 PayPal 无法向中国用户转账。

有人建议使用比特币,但当时比特币的交易费用已经很高。于是我们开始深入研究。我们有可扩展性的背景,在谷歌,一切都要讲究规模。我的联合创始人 Alex 创建了一个分片数据库公司,为财富 500 强企业服务。那时看到区块链技术的现状很奇怪,几乎所有东西实际上都在单台机器上运行,受限于单机的能力。

于是,我们打算构建一个新的协议,这就是 NEAR Protocol。它是一个分片的 Layer 1 协议,注重可扩展性、易用性和开发便利性。我们在 2020 年上线了主网,并一直在壮大生态系统。2022 年,Alex 加入了 OpenAI,2023 年又创办了一家专注于基础模型的 AI 公司。最近,我们宣布他回归领导NEAR.ai团队,继续我们在 2017 年开始的教机器编程的工作。

Lulu:这真是一个非常精彩的故事,我之前并不知道 NEAR 最初是作为一个 AI 公司起步的,并且现在又重新聚焦于 AI。接下来请 Sam 介绍一下自己和你们的项目。

Sam:我们大约七年前开始涉足这个领域,当时我已经关注比特币很长时间了。我们发现了一个令人兴奋但未被深入探索的想法:你可以在一个网络上存储数据,这些数据将被复制到全球各地,没有单一的中心化故障点。这启发了我们创建一个永不遗忘的、被多个地方复制的档案,让任何单一组织甚至政府都无法审查这些内容。

于是,我们的使命变成了给比特币扩容,或者说让比特币式的链上数据存储达到任意规模,以便我们能够为人类创建一个知识库,存储所有的历史,形成一种不可篡改、无需信任的历史日志,这样我们就永远不会忘记我们如何一步步走到今天这个重要背景。

我们在 7 年前开始了这项工作,如今已经上线主网 6 年多了。在这个过程中,我们意识到永久的链上存储能够提供远超我们最初想象的功能。最初,我们的想法是存储报纸文章。但在主网上线后不久,我们意识到,如果你能在世界各地存储所有这些内容,实际上你就种下了一个永久去中心化网络的种子。不仅如此,我们在 2020 年左右意识到,如果你有确定性的虚拟机和一个与程序交互的永久有序日志,你基本上可以创建智能合约系统。

我们在 2020 年首次尝试了这个系统,当时我们称之为 SmartWeave。我们借鉴了计算机科学中的惰性求值概念,这个概念主要由编程语言 Haskell 推广。我们知道这个概念在生产环境中已经使用了很长时间,但在区块链领域还没有被真正应用。通常在区块链领域,人们在写入消息时就会执行智能合约。但我们认为,区块链实际上是一种只增不减的数据结构,具有一定的规则来包含新信息,而无需与数据写入本身同时执行代码。由于我们有一个任意可扩展的数据日志,这对我们来说是一种自然的思考方式,但在当时还是比较罕见的。唯一的另一个团队是现在叫做 Celestia(当时叫 LazyLedger)的团队。

这导致了 Arweave 上计算系统的一场寒武纪大爆发。大约有三四个主要项目,其中一些发展出了自己独特的社区、功能集和安全权衡。在此过程中,我们发现不仅要利用基础层的数据可用性来存储这些日志,还需要一种机制来委托数据可用性保证。具体来说,你可以将数据提交给一个打包节点或者其他代表你的人(现在称为调度单元),它们会将数据上传到 Arweave 网络,并给你一个含有经济激励的保证,确保数据会被写入网络。一旦这种机制到位,你就有了一个可以横向扩展计算的系统。本质上,你有一系列的进程,可以将其看作以太坊上的 Rollup,共享相同的数据集,能够相互通信。

AO(Actor-Oriented)的名称来自计算机科学中的范式,我们建立了一个结合所有这些组件的系统,它有原生的消息传递系统、数据可用性提供者和去中心化计算网络。因此,惰性求值组件变成了一个分布式集合,任何人都可以开启节点来解析合约状态。将这些组合在一起,你得到的是一台去中心化的超级计算机。它的核心是我们有一个任意可扩展的消息日志,记录了所有参与计算的消息。我认为这特别有趣,因为你可以进行并行计算,而你的进程不会影响我的进程的可扩展性或利用率,这意味着你可以进行任意深度的计算,例如在网络内部运行大规模 AI 工作负载。目前,我们的生态系统正在大力推动这一理念,探索在基础层的智能合约系统中引入市场智能时会发生什么。这样,你本质上就有了智能代理在替你工作,它们是可信的、可验证的,就像底层的智能合约一样。

AO 的底层概念和技术架构

Lulu:正如我们所知,NEAR Protocol 和 Arweave 现在正在推动 AI 和加密货币的交叉融合。我想深入探讨一下,既然 Sam 已经触及了 AO 的一些底层概念和架构,我可能会先从 AO 开始,稍后再转向 AI。您描述的那些概念,让我感觉那些代理在自主运行、协调并允许 AI 代理或应用程序在 AO 之上工作。能否详细阐述一下 AO 基础设施内部的并行执行或独立自主代理?构建去中心化 Erlang 的隐喻是否准确?

Sam:在我开始之前,我想提一下,我曾在读博士期间构建了一个基于 Erlang 系统的操作系统。我们称之为在裸机上运行。Erlang 令人兴奋的地方在于,它是一个简单而富有表现力的环境,其中每一块计算都期望并行运行,而不是共享状态模型,后者已经成为加密领域的规范。

这其中的优雅之处在于,它与现实世界有着美妙的映射。就像我们现在正在一起进行这个对话,我们实际上是独立的角色,在自己的脑中进行计算,然后倾听、思考和交谈。Erlang 的代理或面向 Actor 的架构确实很出色。在 AO 峰会上紧接着我演讲的是 Erlang 的创始人之一,他讲述了他们在 1989 年左右如何想出这个架构。当时他们甚至没有意识到「面向 Actor」这个术语。但这是一个足够美妙的概念,许多人都想出了同样的想法,因为它很有道理。

对我来说,如果你想构建真正可扩展的系统,你必须让它们传递消息,而不是共享状态。也就是说,当它们共享状态时,就像在以太坊、Solana 和几乎所有其他区块链中发生的那样,实际上 NEAR 是一个例外。NEAR 有分片,所以它们不共享全局状态,而是有局部状态。

当我们构建 AO 时,目标是将这些概念结合起来。我们希望有并行执行的进程,可以进行任意大规模的计算,同时将这些进程的交互与其执行环境分离,最终形成一个去中心化版本的 Erlang。对于那些不太熟悉分布式技术的人来说,最简单的理解方式就是把它想象成一台去中心化的超级计算机。使用 AO,你可以在系统内部启动一个终端。作为开发人员,最自然的使用方式就是启动自己的本地进程,然后与之对话,就像你与本地命令行界面对话一样。随着我们走向消费者采用,人们正在构建 UI 和所有你期望的东西。从根本上说,它允许你在这个去中心化的计算设备云中运行个人计算,并使用一个统一的消息格式进行互动。我们在设计这一部分时参考了运行互联网的 TCP/IP 协议,试图创建一个可以被视为计算本身的 TCP/IP 协议。

AO 的数据协议不强制使用任何特定类型的虚拟机。你可以使用任何你想要的虚拟机,我们已经实现了 WASM32 和 64 位版本。生态系统中的其他人已经实现了 EVM。如果你有这个共享的消息层(我们使用 Arweave),那么你可以让所有这些高度异构的进程在一个共享环境中交互,就像计算的互联网。一旦这种基础设施到位,下一步自然就是探索可以使用智能、可验证、信任的计算来做什么。显而易见的应用就是 AI 或智能合约,让代理在市场中做出智能决策,可能相互对抗,也可能代表人类对抗人类。当我们审视全球金融体系时,纳斯达克大约 83% 的交易是由机器人执行的。这就是世界运转的方式。

过去我们无法将智能部分上链并使其可信。但在 Arweave 生态系统中,还有另一个并行的工作流,我们称之为 RAIL,即负责任的 AI 账本。它本质上是一种创建不同模型输入和输出记录的方式,并以公开、透明的方式存储这些记录,这样你就可以查询并说,「嘿,我看到的这段数据来自 AI 模型吗?」如果我们能够推广这一点,我们认为它可以解决我们今天看到的一个根本问题。比如,有人给你发了一篇来自你不信任的网站的新闻文章,上面似乎有某个政客做傻事的图片或视频。这是真的吗?RAIL 提供了一个账本,很多竞争公司可以在一个透明和中立的方式下使用,存储他们生成的输出记录,就像他们使用互联网一样。而且他们可以以极低的成本做到这一点。

Illia 对区块链可扩展性的看法

Lulu:我很好奇 Illia 对 AO 方法或模型可扩展性的看法。您曾参与 Transformer 模型的工作,该模型旨在解决顺序处理的瓶颈。我想问问,NEAR 的可扩展性方法是什么?在之前的 AMA 聊天中,您提到过您正在研究一个方向,即多个小模型组成一个系统,这可能是解决方案之一。

Illia:可扩展性在区块链中可以有很多不同的应用方式,我们可以沿着 Sam 的话题聊下去。现在看到的是,如果你使用单个大型语言模型(LLM),它在推理方面有一些限制。你需要以特定的方式提示它,它才能运行一段时间。随着时间的推移,模型会不断改进,变得更加通用。但无论如何,你都在以某种方式调教这些模型(可以将其视为原始智能)来执行特定的功能和任务,并在特定的上下文中进行更好的推理。

如果你希望它们执行更通用的工作和进程,你需要多个模型在不同的上下文中运行,执行任务的不同方面。举一个非常具体的例子,我们现在正在开发一个端到端的流程。你可以说,「嘿,我想构建这个应用程序。」最终输出是一个完全构建好的应用程序,包含正确的、经过正式验证的智能合约,并且用户体验也经过了充分的测试。在现实生活中,通常不会有一个人来构建所有这些东西,同样的想法也适用于这里。你实际上希望 AI 扮演不同的角色,在不同的时间发挥不同的作用,对吧?

首先,你需要一个担任产品经理角色的 AI 代理,实际收集需求,弄清楚你到底想要什么,有哪些权衡,用户故事和体验是什么。然后可能有一个 AI 设计师,负责将这些设计转化为前端。再可能有一个架构师,负责后端和中间件的架构。接着是 AI 开发者,编写代码并确保智能合约和所有前端工作经过正式验证。最后,可能还有一个 AI 测试人员,确保一切正常运行,通过浏览器进行测试。这样就形成了一组 AI 代理,虽然可能使用相同的模型,但经过特定功能的微调。它们在过程中各自独立扮演角色,使用提示、结构、工具和观察到的环境进行互动,构建一个完整的流程。

这就是 Sam 所说的,拥有许多不同的代理,它们异步地完成自己的工作,观察环境并弄清楚应该做什么。所以你确实需要一个框架,需要系统来持续改进它们。从用户的角度来看,你发送一个请求,并与不同的代理进行交互,但它们就像一个单一的系统在完成工作。在底层,它们可能实际上为交换信息而相互支付,或者不同所有者的不同代理相互交互以实际完成某件事。这是一种新版本的 API,更智能,更自然语言驱动。所有这些都需要大量的框架结构以及支付和结算系统。

有一种新的解释方式叫做 AI 商业,所有这些代理为完成任务而相互互动。这是我们所有人正在迈向的系统。如果考虑到这种系统的可扩展性,需要解决几个问题。正如我提到的,NEAR 设计是为了支持数十亿用户,包括人类、AI 代理甚至猫,只要能够进行交易。每个 NEAR 账户或智能合约都是并行运行的,允许继续扩展和交易。在较低层次上,你可能不希望每次调用 AI 代理或 API 时都发送交易,无论 NEAR 有多便宜,都不合理。因此,我们正在开发一个点对点协议,使代理节点、客户端(包括人类或 AI)能够相互连接并为 API 调用、数据获取等支付费用,并有加密经济规则保证他们会响应,否则将失去部分抵押金。

这是一个新系统,允许超越 NEAR 的扩展,提供微支付。我们称之为 yoctoNEAR,相当于 NEAR 的 10^-24。这样你实际上可以在网络层级上进行消息交换,并附带支付功能,使得所有的操作和交互现在都可以通过这种支付系统进行结算。这解决了区块链中一个根本性的问题,即我们没有带宽和延迟的支付系统,并且实际上存在很多免费搭便车的问题。这是可扩展性一个非常有趣的方面,不仅仅局限于区块链的可扩展性,而是能够应用于未来可能拥有数十亿代理的世界。在这个世界里,即使在你的设备上,也可能同时运行着多个代理,在后台执行各种任务。

AO 在 DeFi 场景中的应用:代理金融

Lulu:这个用例非常有趣。我相信对于 AI 支付,通常存在高频支付和复杂策略的需求,而这些需求由于性能限制尚未实现。所以我很期待看到基于更好的可扩展性选项如何实现这些需求。在我们的黑客松中,Sam 和团队提到,AO 也在探索使用新 AI 基础设施来支持 DeFi 用例。Sam,您能否详细说明一下你们的基础设施如何在新的 DeFi 场景中应用?

Sam:我们称之为代理金融(Agent Finance)。这指的是我们看到的市场有两个方面。DeFi 在第一阶段做得非常好,将各种经济原语去中心化并带到链上,使用户无需信任任何中介即可使用。但当我们考虑市场时,我们想到的是数字的上下波动,以及驱动这些决策的智能。当你能够将这种智能本身带上链时,你就会得到一个无需信任的金融工具,如基金。

一个简单的例子是,假设我们要建立一个 meme coin 交易对冲基金。我们的策略是,当我们看到提到特朗普时就买入 Trump 币,提到拜登时就买入 Biden 币。在 AO 中,你可以使用像 0rbit 这样的预言机服务来获取网页的全部内容,比如《华尔街日报》或《纽约时报》,然后将其输入到你的代理中,它处理这些数据并分析特朗普被提到了多少次。你也可以进行情感分析,从而了解市场走势。然后,你的代理会根据这些信息去买卖这些资产。

有趣的是,我们可以使代理执行本身无需信任。这样你就有了一个对冲基金,可以执行策略,你可以将资金投入其中,而无需信任基金经理。这是金融的另一个方面,DeFi 世界还没有真正触及到,即做出明智的决策,然后付诸行动。如果能让这些决策过程变得可信,就可以将整个系统统一起来,形成一个看起来像是真正去中心化的经济,而不仅仅是涉及不同经济博弈的原语的结算层。

我们认为这是一个巨大的机会,生态系统中已经有一些人开始构建这些组件。我们有一个团队创建了一个无需信任的投资组合管理器,它会根据你想要的比例买卖资产。例如,你希望 50% 是 Arweave 代币,50% 是稳定币。当这些东西的价格变化时,它会自动执行交易。这背后还有一个有趣的概念,AO 中有一个我们称之为 cron 消息的功能。这意味着进程可以自行唤醒,并决定在环境中自主地做一些事情。你可以设置你的对冲基金智能合约每隔五秒钟或五分钟唤醒一次,从网络获取数据,处理数据,并在环境中采取行动。这使得它变得完全自主,因为它可以与环境进行交互,从某种意义上说,它是「活」的。

在以太坊上执行智能合约需要外部触发,人们为解决这个问题构建了大量基础设施,但并不顺畅。而在 AO 中,这些功能是内置的。因此,你会在链上看到代理不断相互竞争的市场。这将以加密领域前所未见的方式,推动网络的使用量大幅增加。

NEAR.ai 的整体策略和开发重点

Lulu:NEAR.ai 正在推进一些有前景的用例,能告诉我们更多关于其他层面或整体策略以及一些重点吗?

Illia:确实在每一个层面都有许多事情在发生,有各种产品和项目可以集成。这一切显然都始于 NEAR 区块链本身。很多项目需要可扩展的区块链、某种形式的身份验证、支付和协调。NEAR 的智能合约使用 Rust 和 JavaScript 编写,这对很多用例来说非常方便。一个有趣的事情是,NEAR 最近的协议升级推出了所谓的 yield/resume 预编译。这些预编译允许智能合约暂停执行,等待外部事件发生,无论是另一个智能合约还是 AI 推理,然后恢复执行。这对于需要从 LLM(如 ChatGPT)或可验证的推理中获得输入的智能合约非常有用。

我们还推出了链抽象和链签名功能,这是过去半年 NEAR 引入的独特功能之一。任何 NEAR 账户都可以在其他链上进行交易。这对构建代理、AI 推理或其他基础设施都非常有用,因为现在你可以通过 NEAR 进行跨链交易,而不必担心交易费用、代币、RPC 和其他基础设施。这些都通过链签名基础设施为你处理。普通用户也可以使用这一功能。Telegram 上有一个基于 NEAR 构建的 HOT Wallet,实际上在主网上刚刚推出 Base 集成,大约有 14 万用户通过这个 Telegram 钱包使用 Base。

更进一步,我们打算开发一个点对点网络,这将使代理、AI 推理节点和其他存储节点等参与到更可证明的通信协议中。这非常重要,因为目前的网络堆栈非常有限,没有原生的支付功能。尽管我们通常说区块链是「互联网货币」,但实际上我们还没有解决在网络层级上带着钱发送数据包的问题。我们正在解决这一问题,这对所有 AI 用例以及更广泛的 Web3 应用非常有用。

此外,我们还在开发所谓的 AI 推理路由器,这实际上是一个可以插入所有用例、中间件、去中心化推理、链上和链下数据提供商的地方。这个路由器可以作为一个框架,真正地将 NEAR 生态系统中所有正在构建的项目互联起来,然后将所有这些提供给 NEAR 的用户群体。NEAR 在不同模型和应用程序中拥有超过 1500 万的月活跃用户。

一些应用程序正在探索如何将模型部署到用户设备上,即所谓的边缘计算。这种方法包括在本地存储数据,以及使用相关的协议和 SDK 进行操作。从隐私保护的角度来看,这非常有潜力。未来,许多应用程序将在用户设备上运行,生成或预编译用户体验,仅使用本地模型,从而避免数据泄露。作为开发者,我们有很多研究在进行,目的是让任何人都能轻松地在 Web3 上构建和发布应用程序,并在后端进行正式验证。这将成为未来的重要话题,因为 OLLM 模型在发现代码库漏洞方面越来越强大。

总之,这是一个完整的技术栈,从底层的区块链基础设施,到 Web3 的链抽象,再到点对点连接,非常适用于连接链下和链上参与者。接下来是 AI 推理路由中心和本地数据存储的应用程序,特别适用于需要访问私人数据而不泄露给外部的情况。最后,开发者将所有研究成果整合起来,目标是让未来的应用程序由 AI 构建。中长期来看,这将是一个非常重要的发展方向。

AO 的优先事项和研究重点

Lulu:想请教一下 Sam,AO 目前的优先事项和研究重点有哪些?

Sam:其中一个我个人特别感兴趣的想法是利用 AO 提供的扩展功能,建立一个确定性的 CUDA 子集,一个抽象的 GPU 驱动程序。通常情况下,GPU 计算不是确定性的,因此不能像在 AO 上那样安全地用于计算,至少不能安全地使用,因此没有人会信任这些进程。如果我们能解决这个问题,从理论上讲是可能的,只需要处理设备级别的不确定性问题。已经有一些有趣的研究,但需要以一种可以始终 100% 确定的方式处理这个问题,这对于智能合约的执行至关重要。我们已经有了支持这一功能的插件系统作为 AO 内部的驱动程序。框架已经有了,我们只需要弄清楚如何精确地实现它。尽管有很多技术细节,但基本上是要使 GPU 环境中的作业加载足够可预测,以便用于这类计算。

另一个我感兴趣的是,能否利用这种链上 AI 的能力,使我们能够进行去中心化或至少是开放和分布式的模型训练,尤其是微调模型。基本思路是,如果你可以为某个任务设定一个明确的评判标准,就可以针对这个标准训练模型。我们能否创建一个系统,让人们投入代币鼓励矿工竞争以构建更好的模型?虽然这可能不会吸引非常多样化的矿工,但这并不重要,因为它允许以开放的方式进行模型训练。然后,当矿工上传模型时,他们可以添加通用数据许可证标签,规定任何人可以使用这些模型,但如果用于商业用途,则必须支付特定的版税。版税可以通过代币分配给贡献者。这样,通过结合所有这些要素,就可以创建一种激励机制来训练开源模型。

我还认为之前提到的 RAIL 计划也非常重要。我们已经与一些主要的 AI 提供商或推理提供商讨论了支持这个计划的可能性,他们确实表现出了浓厚的兴趣。如果我们能让他们真正实施并在网络上写入这些数据,那么用户就能通过右键点击互联网的任何图片,查询这张图片是用 Stable Diffusion 生成的,还是用 DALL·E 生成的。这些都是我们目前在探索的非常有趣的领域。

Illia 和 Sam 各自看好的项目

Lulu:请各自提名一个最近喜欢的 AI 或加密项目,可以是任何项目。

Illia:我打算取个巧。我们每周都会举行 AI Office Hours,邀请一些项目,最近有 Masa 和 Compute Labs。两个项目都非常棒,我就以 Compute Labs 为例。Compute Labs 基本上将实际的计算资源(如 GPU 和其他硬件)转化为一种可供经济参与的真实资产,使用户能够从这些设备中获得收益。当前,加密领域的计算市场发展火热,它们似乎是加密货币促进市场的自然场所。但问题是这些市场缺乏护城河和网络效应,导致竞争激烈和利润压缩。因此,计算市场只是其他商业模式的一种补充。Compute Labs 提供了一种非常加密原生的商业模式,即资本形成和资产去碳化。它为人们创造了通常需要建立数据中心才能参与的机会。计算市场只是其中的一部分,主要目的是提供计算资源的访问。这种模式也契合了更广泛的去中心化 AI 生态系统,通过提供底层的计算资源,为更广泛的投资者群体参与创新提供了机会。

Sam我在 AO 生态系统中有很多很棒的项目,我不想偏袒任何一个,但我认为 Autonomous Finance 正在构建的底层基础设施,使得「代理金融」成为可能。这非常酷,他们在这方面真的走在前列。我还想感谢更广泛的开源 AI 社区,特别是 Meta 开源 Lama 模型的做法,推动了许多其他人开源他们的模型。如果没有这种趋势,当 OpenAI 在 GPT-2 之后变成 ClosedAI,我们或许会陷入一片黑暗,特别是在加密领域,因为我们将无法接触到这些模型。大家只能从一两家主要提供商那里租用这些闭源模型。目前这种情况没有发生,这非常好。尽管讽刺,但还是要给 Web2 之王 Meta 点赞。

区块链的第一性原理: 以 Sui 和 Arweave AO 为例缩略图

区块链的第一性原理: 以 Sui 和 Arweave AO 为例

来源:PermaDAO

区块链的第一性原理是一种去中心化的记账方式,“区块”和“链”并非必要。

什么是第一性原理

第一性原理(First principle thinking)指的是,回归事物最基本的条件,将其拆分成各要素进行解构分析,从而找到实现目标最优路径的方法。该原理源于古希腊哲学家亚里士多德,因埃隆・马斯克的推崇而被大众所了解。该原理也与东方哲学中的”道“有相通之处。

2014 年,埃隆・马斯克在南加州大学商学院的毕业演讲上,说到了他的第一性原理决策方式:

“也许你听我说过,要从物理学的角度思考问题,这是第一性原理。即不要进行类比推理。你把事情细分到你可以想象的最基本元素,然后你从那里开始推理,这是确定某件事是否有意义的好方法。这种思考不容易,你可能无法对每件事都这么思考,因为这很花精力。但是如果你想创新知识,那么这是最好的思考方法。这个框架是由物理学家提出并发展的,他们因此找出了反直觉的事情,比如量子力学。所以这是非常有效、非常强大的方法。无论如何,一定尽可能这样去做。”

马斯克以真空胶囊高铁为例,如果用比较思维或者经验思维设计新型火车产品,多数人的想法是在现有的功能上做提升,让动力更强劲,流体力学更好。但是如果用第一性原理分析产品需求,就要回到运输工具的本质目的:将较多的货物从 A 点运输到 B 点,这才是最初制造火车等运输工具的目的,并非一定要用牵引力才能实现升级。在第一性原理的支撑下,马斯克提出采用磁悬浮加低真空的模式,打造真空胶囊高铁。

区块链中的第一性原理

那么区块链的第一性原理是什么呢?

肖风博士在 2024 香港 Web3 嘉年华的闭幕仪式上演讲里表示:区块链的第一性原理是新的记账方法。

“2009 年出来的区块链,作为分布式账本(DLT),它记录的是数字价值和网络价值,并且不再是在私人账本上记账,而是在公开透明的全球公共账本上,大家在一块记账,所有的利益相关者在一个账本上记账。这就是区块链的第一性原理,透明、公开的「全球公共账本」,所有 Web3 的创新都是基于第一性原理做的。”

笔者赞同肖风博士的观点,并基于这个观点进一步阐述区块链的本质。

“区块链”三个字拆开来看就是区块 + 链,既然区块链的第一性原理是一种记账方式,那么区块和链真的是必要的吗?

在回答这个问题前,我们首先来看比特币作为分布式账本,为什么需要区块和链。

在比特币中,区块是一个包含一组交易信息的数字记录,可以理解为是账本中的一页账,用哈希函数可以算出一个哈希值,这个哈希值的特点是只要区块的内容稍加变化,哈希值就变的不一样。每个区块都包含前一个区块的哈希值,可以理解为第 N+1 个区块的第一行要写入第 N 个区块算出的哈希,从而形成一个不可篡改的链式结构。

在比特币中,同步账本的机制即 PoW 共识机制。当比特币网络中发生交易时,这些交易会被放入内存池(mempool)中。然后,矿工从内存池中选择一组交易,尝试组成一个新的区块。要做到这一点,矿工需要找出随机数中的某个特定数值,并将这个特定数值与区块数据结合起来,生成一个满足网络难度目标的哈希值,这个过程被称为“挖矿”,谁先计算出符合条件的哈希值,谁就获得了记账权,也就是挖矿成功。难度目标是一个动态值,每 2016 个区块(大约每两周)调整一次,从而让比特币的平均出块时间维持在 10 分钟左右。

区块和链是比特币的基础结构,PoW 是比特币的共识机制,两者结合实现了比特币的去中心化记账功能。但从区块链的本质来说,只要能实现去中心化记账,记账可以是非区块的(例如单笔交易共识),账本也可以是非链式结构(例如 DAG)。因此区块和链并非必要,只是区块链这三个字深入人心,成为了以比特币、以太坊、Solana 为代表的去中心化账本的代称罢了。

比特币毕竟已经是 2009 年的产物了,随着区块链研究的不断发展,虽然大部分区块链还是遵循传统区块 + 链的结构,但也出现了一些以第一性原理设计的区块链,他们从最根本的去中心化记账问题出发,有着独特的数据结构和共识,本文以 Sui 和 Arweave AO 为例。

Sui:水之道

区块链的第一性原理: 以 Sui 和 Arweave AO 为例

Sui 是基于第一原理重新设计和构建而成的 Layer1,主要团队来自 Facebook(后改名 Meta)已解散的 Diem 和 Novi 项目。Sui 的命名源于日语中的水,其品牌形象中也能看到水的影响。

Sui 使用 Sui Move 来编写其智能合约,采用了一种基于对象的数据模型,所有交易都以对象作为输入,并产生新的或修改过的对象作为输出,允许独立的对象并行处理交易。

在 Sui Move 中,每个智能合约都是一个模块,由函数和结构定义组成。结构在函数中实例化,可以通过函数调用传递给其他模块。运行时存储的结构实例作为对象,Sui 中存在三种不同类型的对象,分别是拥有者对象,共享对象和不可更改对象。

Sui 没有区块,对交易进行单独验证,并且一个交易是否经过 Sui 的排序和共识机制,取决于交易中的对象是共享的还是非共享的。

如果不涉及共享对象的交易,称为简单交易,Sui 采用拜占庭一致广播(Byzantine Consistent Broadcast)的轻量级算法,参考了 FastPay 的设计思想。由客户端广播交易给 Sui 的所有验证者,并收集验证者的基于权益加权的投票,生成一个证书,再将证书广播回给验证者,收到这个证书的验证者就可以直接执行这个交易。

如果涉及共享对象的交易,称为复杂交易,Sui 采用的是 Narwhal & Bullshark 共识机制。Narwhal 是一个 mempool 模块,负责保证交易的可用性。Narwhal 基于轮次进行运转的,每轮分为两个步骤,分别是交易的分发(同步交易给其他节点)和交易的验证(收集其他节点对交易的投票),多轮以后,交易会形成一个有向无环图(DAG)。Bullshark 是一个共识模块,负责对 Narwhal 中 DAG 的交易进行排序。

区块链的第一性原理: 以 Sui 和 Arweave AO 为例

Sui 利用 DAG 进行交易传播和共识,降低了交易延迟并减少了通信过程中的网络开销。同时,为了维护历史信息的完整性和顺序,Sui 在一个单独的过程中将交易排序为检查点,检查点以线性方式相互链接,为存储和访问历史数据提供了类似于传统区块链的结构。

但实际上 Sui 的数据结构与传统区块链完全不同,Sui 分组到检查点中的交易已经最终确定,而传统区块链是将尚未最终确定的交易分组到区块中。

Arweave AO:空之道

区块链的第一性原理: 以 Sui 和 Arweave AO 为例

水无常形,但毕竟有形。就像 Sui 还保留了传统区块链中的共识机制,并最终将交易数据组织成了传统区块链的区块 + 链结构。AO 则彻底颠覆了传统区块链的范式,无区块无链无共识,相比于水,AO 在象征意义上更接近于天空(日语为 Sora)

AO 是一个基于 Arweave 的分布式、去中心化、面向 Actor(Actor Oriented)的计算系统。其基于的第一性原理并不是构建一个去中心化账本,而是构建一个去中心化的计算系统。大概类似于应用程序和操作系统的关系。

计算系统可以拆分成存储、计算和通信三个问题,在 Web2 中都有非常成熟的解决方案,难的是去中心化。一种思路是分别构建一个去中心化存储网络,一个去中心化计算网络,以及一个去中心化通信网络,这其实正是 2014 年以太坊联合创始人 Gavin Wood 提出的计算,存储和通信三位一体的去中心化技术架构的思路,分别是以太坊(智能合约)负责去中心化计算的部分,Swarm 负责去中心化存储的部分,Whisper 负责去中心化通信的部分。

区块链的第一性原理: 以 Sui 和 Arweave AO 为例

AO 也由三个单元组成:

区块链的第一性原理: 以 Sui 和 Arweave AO 为例

  • 通信单元(Messenger Unit):负责消息通信,将消息传递给计算单元并协调以计算输出结果;

  • 调度单元(Scheduler Unit):负责调度和消息排序,并将消息上传至 Arweave。

  • 计算单元(Compute Unit):负责处理计算,并将计算结果上传至 Arweave。

一个 AO 上的进程(Process)由一组单元构成,每个单元都可以作为可水平扩展的子网,同时执行大量交易,从而实现高性能计算,但每个单元并不是一个去中心化网络。实际上在整个 AO 的架构中,真正去中心化的只有作为底层的存储网络 Arweave。

AO 上的进程通过将其全息数据上传到 Arweave 上,使其拥有了可验证性的属性——因为任何人都可以通过全息数据恢复 AO 上的这个进程。这其实是一种存储共识范式(SCP),即只要存储是不可变的,上面的交易就都是可追溯的,那么无论在何处计算应用程序,都将得到相同的结果。

AO 没有共识机制,但通过 SCP,将计算层与存储层分离,使存储层永久去中心化,而计算层保持传统计算层的模式。因此在 AO 上的计算拓展性没有任何类型限制,不仅可以实现以 EVM、WASM 或 Move 虚拟机为核心的区块链账本服务,甚至可以把任何现有的 Web2 服务都放在 AO 上重新构建为去中心化版本。

总结

第一性原理是从物理学的角度去思考事物的本质,再从本质出发,一层层向上设计。虽然 Sui 和 Arweave AO 都是基于第一性原理设计出来的区块链,但由于他们的本质不一样,于是设计出了完全不同的架构。

Sui 的本质是去中心化账本服务,对标的是像 Solana 这样的高性能 Layer1,因此 Sui 围绕着“更快的账本服务”设计了面向对象的数据模型,双共识机制和基于状态访问实现的交易并行执行,提高了可扩展性,同时降低了延迟和费用。让开发者能够快速且低成本地开发基于 Sui Move 智能合约的应用。

Arweave AO 的本质是去中心化计算系统,或者说是去中心化云服务,是运行账本服务的基础设施,因此 AO 围绕着“可验证的分布式计算系统”提出了 SCP,即在链下进行计算,将存储放在链上,实现大规模并行计算机的互联和协作。用户体验与传统云服务几乎一致,但背后是去中心化的计算系统。

加密货币行业十年累计融资额突破1000亿美元缩略图

加密货币行业十年累计融资额突破1000亿美元

博链财经BroadChain获悉,6月17日,据Cointelegraph,加密货币项目自 2014 年 5 月底以来已融资超过 1000 亿美元。

尽管面临监管不确定性和市场波动带来的起伏,但近四年内行业融资上下限均有所提升。

加密货币行业十年累计融资额突破1000亿美元

DeFiLlama 数据,截至 2024 年 6 月 16 日,加密货币行业总融资额达 1013.5 亿美元。

回溯至 2014 年 5 月,行业初创公司首月融资额仅为 1714 万美元。

十年后的 2024 年 5 月,月融资额增至 2.8025 亿美元,虽高于十年前,但远低于前月的 7.7711 亿美元。

2021 年 10 月,加密货币初创公司融资额达历史月度融资高点,超过 70 亿美元,次高为 2022 年 2 月的 36.7 亿美元。

根据 2023 年第二季度的数据,近半加密货币资金来自美国投资者,其余资金分布在多个国家,其中英国(7.7%)和新加坡(5.7%)分别位居第二和第三。

2023 年末至 2024 年上半年期间出现了一系列高额融资交易,包括 TogETHer.AI(2.25 亿美元)、Wormhole(2.25 亿美元)、Totter(1.01 亿美元)、Eigenlayer(1 亿美元)、Swan Bitcoin(1.65 亿美元)和 Blockchain.com(1.1 亿美元)等。

CVX成巨鲸抄底首选标的,Curve飞轮能否再次起飞?缩略图

CVX成巨鲸抄底首选标的,Curve飞轮能否再次起飞?

上周,DeFi 迎来了本周期最大转折。CRV 持续下跌至 0.219 美元低点,创始人 Michael Egorov 的借贷仓位也逐步被清算。据 Arkham 统计,不到半天时间,Michael 在 5 个协议中的全部贷款头寸都被清算,价值 1.4 亿美元。

相关阅读:《》

虽然 CRV 目前价格已出现回升,但最引人注目的是 CVX。6 月 17 日,据 Binance 行情数据,CVX 短时拉升触及 4.66 美元后回落, 24 小时涨超 90% 。

CVX成巨鲸抄底首选标的,Curve飞轮能否再次起飞?

CVX 成巨鲸抄底首选标的?

Michael Egorov 在接受 CoinDesk 采访时,此次清算由于 UwU Lend 的漏洞事件引发。但与以往不同,CRV 下跌时,Michael 并未及时补仓,而是任由连环清算的发生。由于 Michael 头寸规模太大,市场无法处理,并导致了 1000 万的坏账。

CVX成巨鲸抄底首选标的,Curve飞轮能否再次起飞?

为了尽快消除坏账累计对市场带来的不利影响, 6 月 13 日晚,加密基金 NDV 联合创始人、NFT 巨鲸 Christian 在社交媒体发文表示从 Michael 处获得 3000 万枚 CRV。

除了有帮助 Michael 还款之意外,Christian 还,此前 Curve 承压是因为 Michael 提前获得了平常项目方根本套不出来的流动性。如今清算完成,意味着 Michael 终于出完了自己手上的流动性,Christian 认为「至少 2028 年之前不会有二级市场抛压了」。

CVX成巨鲸抄底首选标的,Curve飞轮能否再次起飞?

这也意味着现在正是抄底 CRV 的好时机,而市场表现也确实如此。据 Binance 平台数据显示,在 CRV 触底 0.219 美元时,CRV/USDT 现货交易对交易量在短短 1 个小时内达 4.63 亿枚(交易额为 1.115 亿美元),创下该交易对历史最高记录。同时,CRV 也连续两日登上 Smart Money 24 小时流入榜单前列。

作为以太坊上最大的稳定币交换协议,大多数 DeFi 都依赖于 Curve,且 Curve 协议仍然有效且不可变。那么,我们有理由猜测,Michael 的清算可能标志着 DeFi 回归的开始。

6 月 17 日,Curve Finance 官方发文称,上周流入 veCRV 的资金已经是当周通胀的 6 倍。这些流入包括直接锁仓,以及通过 Convex Finance、Stake DAO 和 Yearn 进行的锁仓。这是近年来 CRV 锁仓的最高每周流入量。

作为开启 Curve War 的三大协议之一,Convex Finance TVL 截止撰稿时达 13.16 亿美元,占比超 Curve(22.85 亿美元)一半,这也意味着 Convex 筹码较为集中,而巨鲸们也自然将目光放到了 Convex Finance。

除了前面提到的 Christian,kennel capital 成员 Zoomer Oracle 也自己在 2.05 时买入 CVX。Zoomer Oracle 认为,CRV / CVX 被低估,而「Convex 是 Curve 的 beta,具有简单的 5 倍潜力」。

CVX成巨鲸抄底首选标的,Curve飞轮能否再次起飞?

CVX 外,Curve 生态还有哪些标的?

Michael 的贷款消失了,市场不再有创伤后应激障碍,坏账也被清除,DeFi 或许已经迎来利好。

除了 Curve War 中的各 DeFi 协议,如 Stake DAO、 Yearn Finance、Olympus 以及 Frax 等各算稳协议,各协议玩法可见《》。Curve 协议的另一应用场景即通过 Curve 3 pool(DAI/USDC/USDT 资金池)扶持稳定币项目。

据 Curve 数据,目前 3 pool 交易量及 TVL 数据不足百万,这就意味着一些较为主流的稳定币采用 Curve 交易的可能性较低,但 Curve 协议自身的流动性仍然能够扶持小型稳定币项目。

CVX成巨鲸抄底首选标的,Curve飞轮能否再次起飞?

目前模块化市场正逐渐兴起,而模块化会导致链的增多,各链为了持续发展应用场景,稳定币或将成为必需品。那么,Curve 3 pool 就可以给这些稳定币,尤其是算法稳定币提供一定的流动性。当然,由于 Curve 3 pool 以 CRV 为分配奖励,这就要求 CRV 本身具备足够的价值。

清算发生后,Michael 表示,这次事件可能有助于加强 Curve 的安全措施和贷款机制,并可能在未来几个月为用户创造更好的服务。而这是否真的能让 Curve 飞轮再次起飞,还需交以时间判断。

大跌淘金:252 个代币里谁最强势,谁最能跌?

撰文:南枳,Odaily 星球日报

6月7日,BTC在仅差3美元即触及7.2万美元的关口后,开始一路下跌。仅在6月12日发生过一次反弹,从6.6万美元上涨至7万美元,又开始一路下跌。

在整体市场大幅下跌的行情中,往往能测试出什么代币最具有“抄底”价值或者说最为强势,包括最抗跌、反弹最快两方面。Odaily 星球日报将近十日行情划分为6月7日第一轮下跌、6月11日第二轮下跌、6月12日第一轮反弹、以及近十日总体行情,对币安现货交易板块的252个代币(刨除稳定币和黄金合成币)就上述两方面数据进行整理分析,并得出结论如下:

6月7日第一轮下跌

6月7日前数日,其实只有BTC独自吸血上涨,多数代币已提前下跌,但时间上并不一致,因此本节仍以BTC开始显著下跌的20时开始计算,计算截止时间为6月8日08:00。

最抗跌的代币中,「孙宇晨系代币」一如既往地占据了多个位置,此外在这一期间HIGH、BTC、ETH等几个代币表现较好。

而跌幅榜上多数为我们所熟知的代币,在此不一一列举,后续重点关注是否有反弹。

大跌淘金:252 个代币里谁最强势,谁最能跌?

6月11日第二轮下跌

在横盘三天后,比特币带领所有代币开始了新一轮的下跌。本节所统计的时间为6月11日0:00至6月12日0:00。

可以看到,孙宇晨系列代币仍然霸占了抗跌榜单,而此前第一轮下跌跌幅最少的HIGH成为跌幅榜第一,短期内不再具有购买价值。此外跌幅榜所有代币均有所变化,意味着至少有20个代币成为弱势品种。

大跌淘金:252 个代币里谁最强势,谁最能跌?

6月12日第一轮反弹

第二波下跌次日,比特币带领市场开始了一轮反弹,本轮统计时间为6月12日0:00至6月13日0:00。

LPT通过反弹证明了自己,此外同时进入跌幅榜和反弹榜的还有NOT、UNI。

另一方面,HIGH、PEOPLE、OM延续了弱势的表现,下跌最多且反弹最少。

大跌淘金:252 个代币里谁最强势,谁最能跌?

十日行情汇总

以6月7日20时为基准,根据近十日最低价格计算最大跌幅。根据最低价格和今天14时的收盘价计算反弹幅度。数据如下所示。

HIGH成为本轮最弱势代币,此外连续上榜跌幅榜的包括AEVO、CKB和SATS。

NOT、CRV、UNI展现出较强韧性,但除了BTC外没有可见的连续强势币种。

大跌淘金:252 个代币里谁最强势,谁最能跌?

时代变了,这轮周期山寨季要缺席了

原创|Odaily星球日报

作者|Golem

时代变了,这轮周期山寨季要缺席了

在过去的牛市周期中,当比特币等主流币上涨过后,山寨币上涨行情也会在不久后开启。但这轮周期中,时代已变,即使比特币已经大幅上涨,山寨币上涨行情也不会因此到来。Odaily 星球日报将从现货 ETF 的影响以及山寨币供过于求两方面进行分析。

现货 ETF 抽走本轮周期的入场新资金

比特币现货 ETF 的问世,可能正在改变市场结构。在过去牛市期间,增量资金入场路径是:首先流入比特币和以太坊等主要加密货币,随后价值溢出进入山寨币。

但这轮牛市或许会有所不同。对于新入场的玩家来说,与其费尽心思投资高波动性的加密货币,不如以更加熟悉和传统的方式投资加密 ETF,而这部分资金就自然流向了相对更加稳健的比特币现货 ETF。

时代变了,这轮周期山寨季要缺席了

比特币现货 ETF 账户持有的 BTC 数量(来源:CryptoQuant)

这种转变会使新资金难以流入山寨币,使后者更难升值。正如 Odaily 星球日报作者 jk 在《》中说:“比特币和以太坊 ETF 的发行,不仅有新资金的进入,但是同时会影响投资者行为,抽走未来场内的流动性;很多对于加密货币不甚了解的散户和投资者,面对牛市初始,很有可能把资金直接投入 ETF,新项目则会面对没有用户、没有认可技术叙事的观众这一尴尬状况。”

尽管加密玩家也在期待机构能推出山寨币的现货 ETF,但很显然本轮周期想要实现这一目标还有些困难。即使 BitMEX 创始人 Arthur Hayes 也最多只乐观,狗狗币 ETF 可能在本周期结束时推出。

山寨币供过于求,面临持续抛压

增量资金的匮乏只是一方面,另外一个影响因素是:新山寨币的大量解锁以及 VC 的抛售压力,导致山寨币的市场供应量远远超过需求。

时代变了,这轮周期山寨季要缺席了

稳定币总市值(来源:coingecko)

从 4 月中旬开始稳定币市值增长趋于平缓,两个月时间只增长了 5 亿美元左右,侧面证明数月以来加密行业入场新资金增长也趋于平缓。然而,根据 TokenUnlocks 的,仅 6 月份就将有价值 8 亿美元的代币解锁流入市场,其中包括 dYdX、SUI、1INCH、Ethena (ENA)、Arbitrum (ARB)、Aptos (APT) 和 Starknet (STRK) 等主流项目。

这些新解锁代币的突然涌入,注定会在市场中掀起波澜,特别是在增量资金增长缓慢的情况下,存量资金无法消化如此多的代币供应量。

另外,一些早期 VC 在山寨币上收益倍数动辄 10 倍以上,出于止盈需求或者对未来市场的担忧,也必然会持续不断的在市场进行抛售,最终造成连环踩踏,山寨币价格注定只能一路下行。

正如加密对冲基金 Lekker Capital 创始人 Quinn Thompson ,未来一到两年内,每月需要约 30 亿美元的市场资金才能应对山寨币的供应通胀。虽然一些山寨币可能仍然会表现良好,但识别这些代币将比以往的周期更具挑战性。

总体而言,各位加密投资者,对后市的山寨币行情不要过分期待,这轮山寨季可能要缺席了。

我的撸空投经历

作者:道说区块链

这几天,zkSync的事件还在网上发酵。我看到不少推友甚至直接给X安和OK施压,希望这两个交易所表态。

另外,zkSync中文社区也公开表达了自己的态度,语气中透露出无奈和心酸,并表示后续将公开整个过程中更多的细节和信息——相对而言这个社区的后续发言倒是我很期待看到。

从事件的整体发展来看,这件事挽回的余地恐怕很有限。所以对广大参与者而言,更重要的还是采取合适的措施,不要在后续的其它活动中再犯类似的错误了。

可是,我在推上还是看到有不少推友表示:在zkSync上面损失惨重,那就抛弃幻想全力以赴地再战下一个撸毛阵地————在这些经历后,还是矢志不渝地采用这种“全力以赴”、“不惜一切”的方式,那就只能祝他们好运了。

我有意识地撸毛是从Arbitrum之后才开始的。

当时,小伙伴曾经向我提及:要不要我们自己也组个团队,开一堆号,专门干这个。

可因为我一贯懒散的性格,这个事最终没有成型。但这个提议却也提醒了我,觉得这个事情还是有必要做一做:一方面能让自己熟悉最新的应用,另一方面也能顺便薅一些羊毛。

于是我决定自己随性参与一下。

我的总体情况是时间有限、精力有限、财力有限。

根据这个状况我给自己定下的策略是:

只精耕细作三个账号、精选主要的应用、以沉淀资金为主、偶尔看到新出的应用参与交互一下。

所谓的“精耕细作三个账号”是指:

我用了三个Argent X和三个小狐狸账号,参与了Arbitrum之后的每一个知名的以太坊第二层扩展。

所谓的“精选主要应用”是指:

在每个第二层扩展中,我重点只选两类项目:DeFi和NFT。

在DeFi中我重点选取每条链上排名前三的DEX和借贷应用。

所谓的“以沉淀资金为主”是指:

对每个DEX,我以提供三类流动性为主,鲜少进行代币交易:

最早提供的是WBTC和ETH之间的交易对;

后来出现大量的ETH衍生资产后(比如stETH、ezETH、……),我把WBTC和ETH换成了ETH衍生资产和ETH的交易对(比如stETH-ETH、ezETH-ETH、……);

最后则是稳定币和稳定币之间的交易对(比如DAI-USDC)。

我选用这些交易对主要是为了避免无常损失。

对每个借贷应用,我借贷的交互频次也不高,以提供两类抵押资产为主:一类是ETH衍生资产(比如stETH、ezETH等)或ETH,另一类就是稳定币。

所谓的“偶尔看到新出的应用参与交互一下”是指:主要参与打新NFT。

这些新的NFT都是我在推特上看到的新项目。其实这些项目99%都毫无意义,纯粹就是为了方便参与者薅羊毛发行的项目。但它们的好处是费用极其低廉,几乎可以忽略不计。

这就是我参与这些以太坊第二层扩展的方式。

不过在参与过程中,对于以下两类操作我是懒得做的:

一类是要绑定个人的推特号和Discord号。对这类交互,我很懒散,实在懒得专门为了薅羊毛去运作一堆僵尸号。

另一类是人格证明,典型的就是Linea的POH。都到了加密生态了,还搞这类东西?太让人讨厌了。自从Linea搞了这个POH,我就再也懒得参加与此有关的一切交互了,除非是某些特别好玩、特别有意思的交互我才会参与一下。

除了上面这些操作,我没有像网上很多用户建议的那样什么每周必须要交互一次、什么不同账户之间的操作一定要间隔24小时防止被女巫……

我都是随性看到了、想到了,就交互一下,而且每次交互都一次性手动地把三个账户都交互完,但我从来不用任何脚本搞自动化作业。

我这样的操作得到的效果如下:

Starknet空投,Argent X的三个账号全军覆没。

但让我惊喜的是,我的Github账号得到了比较丰厚的回报。我估计可能是因为我参与了若干以太坊生态中项目的建设。

回想起来,当初参与这些项目的建设完全是无心之举,纯粹是因为兴趣在圈内前辈的带领下觉得好玩而参与的。在那个年代,加密生态还根本没有空投这一说,连Uniswap都才刚问世不久。

尽管Starknet空投我的钱包账户全军覆没,但我也没有像网上很多人那样总结什么经验教训,提升反女巫技能,我还是依然故我,以往是怎么操作的,后面还是怎么操作。

到了这次zkSync空投,我小狐狸的三个账号全部都拿到了空投,而且数量都超出我的意料,但我的Github账号却什么都没有。

对还剩下的几个以太坊二层扩展,我的操作还是不会变,结果就完全随缘。我是一定不会浪费太多无谓的资源和精力专门做这些的。

至于前面这些得到的空投我暂时不会卖,并且我在那些链里面留下的交易对和抵押资产也不会提出来,还会继续放在里面留着,因为这些空投和资产或许能帮助拿到未来项目的空投。

希望我的这些经历能对大家有一定的帮助。

最后我还是想再强调一下:做这些事情的时候我们尽量少一点功利心,多一点好奇心和探索欲,老天爷会给我们运气。即便这次不走运,下次也会走运。

深入Optopia——AI Agent加成下的Intent-Centric Layer2落地实践缩略图

深入Optopia——AI Agent加成下的Intent-Centric Layer2落地实践

自从Paradigm在2023年首次提出Intent-Centric叙事并将其列入最为关注的十大赛道之首,已经过去了一年多的时间。除了ETHCC上引起关注的明星产品外,还有更多的项目团队选择了在幕后默默耕耘,专注于产品的精进和实际应用。

随着AI领域的快速发展,特别是AI Agent方向的实践,一种更加crypto native的ai+crypto产品理念展现在我们眼前,即AI Agent as a Solver。但如何基于加密经济学的激励对产品进行有机落地仍然是摆在所有人面前的挑战。

最近上线主网的Optopia或许能给市场带来经济激励驱动下的AI Agent 与Intent-Centric相结合的最新工程化实践参考。

Intent-Centric架构回顾:关键工程化挑战

自从上一次Intent-Centric叙事在市场获得大量曝光度,已经过去了一年之久,在当下我们重新回顾这一年中该赛道的进展,深入分析工程化实践的制约环节。

深入Optopia——AI Agent加成下的Intent-Centric Layer2落地实践

用相对抽象的语言来描述意图,即 “链上用户提出目标以及一组条件约束,将与区块链交互的复杂性外包,在实现最优化路径的同时保证用户对资产和加密身份的控制权”。交易聚合器便是一个运行已久的意图的例子,用户提出目标和约束 “使用最优的价格完成交易对A/B之间数量为X的交易”,而聚合器负责在不同流动性池中寻找最优价格路由路径后在前端对用户展示模拟最优路径执行的结果,以此实现意图。

基于上文中的描述,一个通用的Intent-Centric架构如图1所示,其中ATO(Abstracted Transaction Objects,抽象交易对象) ,即用户的的意图。流程中的主要角色包括Client、Driver和Solver,具体负责工作如下

  • Client:与用户进行交互的前端,将用户输入的自然语言编译为机器语言形式,一组包括目标和约束的结构化意图描述;

  • Driver: 在整个意图架构中起着最为重要的作用,包括

    • ATO 广播:将抽象交易对象 (ATO) 广播到内存池,所有求解器都可以在内存池中启动其执行过程以找到最佳解决方案。

    • 模拟和验证:接收所有Solver的解决方案,进行链下模拟以确保其有效性和安全性,然后发布获胜解决方案。

    • 解决方案的聚合:对于给定的意图,聚合来自不同ATO的解决方案,将它们组合成统一的执行计划以供最终实施

  • Solver:意图的实现者,通常为多个,基于意图的约束给出最优的目标执行路径。

深入Optopia——AI Agent加成下的Intent-Centric Layer2落地实践

自从Intent概念提出,便引发了行业内诸多的讨论,有一些批评认为intent-centric更多偏向于抽象表达的产品设计哲学,在工程落地上实现困难。同时,用户资产的安全性、自然语言到机器语言转译过程中的信息磨损,Solver的进入、选择、结算以及激励机制的设计,都是摆在具体实现中的一个个难题。

Optopia架构解析:基于AI Agent的解决方案

正如上文所说,intent-centric的架构具体工程化实现在当前的区块链架构下较为困难,已有的解决方案大多都是在链之上进行一层封装,而Optopia则是第一条在链层面为intent的工程实现进行专门设计的以太坊layer2,并专门为链上AI 生态搭建了意图中心发布框架。

如图2所示,从模块化的角度来看,Optopia是用4everland的Raas(Rollup as a Service)服务搭建的Layer2。基于Op stack的框架,选用去中心化存储解决方案Arweave 作为DA服务商来保证数据的持久性和可访问性,这带来了一个低成本、高效率且模块化的基础设施账本,它为AI代理执行Web3交易创建了一个标准框架。

深入Optopia——AI Agent加成下的Intent-Centric Layer2落地实践

如图3所示,在Optopia设计的意图发布中心框架中,主要包括以下几个角色:

  • 意图发布者:意图发布者负责在意图中心内创建意图,并通过分配任何有价值的代币来激励人工智能代理执行这些意图。意图是人工智能代理可以承担的可操作的目标或任务。

  • AI Agent:人工智能代理与意图中心交互以访问意图并利用可用的知识来尝试和完成这些意图。他们在成功完成意图后以奖励积分的形式获得奖励,然后将其用于分配奖励。

  • 构建:构建者通过培训和发布知识供人工智能代理学习和使用,在人工智能生态系统中发挥着至关重要的作用。这一过程增强了人工智能代理的能力,构建者会根据人工智能代理利用其知识所获得的积分份额来获得激励。

  • $OPAI代币持有人:OPAI 持有者能够锁定 OPAI 代币并接收投票锁定代币(vlOPAI)。通过使用这些代币进行投票,OPAI 持有者可以确定意向中心内意向的排放权重。反过来,这个权重会影响 AI 代理在完成每个意图时获得的 OPAI 奖励。

深入Optopia——AI Agent加成下的Intent-Centric Layer2落地实践

在上文中提到的通用意图执行框架中,Solver是执行用户Intent的实体,无论是在链上还是链下环境中。Solver通过竞争来解决用户提出的Intent,以获得奖励。这种模型鼓励了效率和创新,因为多个Solver会尝试以最有效的方式来完成用户的Intent。

Optopia通过其独特的框架进一步发展了这一概念。在Optopia的生态系统中,AI Agent承担了Solver的角色,但进行了更深层次的集成和封装。这意味着AI Agent不仅仅是执行意图的独立实体,它们还能够利用由Builder创建和优化的特定知识库来增强其执行能力。如果说之前的普通的Solver是上一代搜索引擎,只能够沿着预设路径进行执行,那么AI Agent的代替,就是将其升级为了GPT,能够进行自由度更强的智能路径搜索。

结合加密经济学:激励框架的融合之道

虽然Optopia还未发布更加精细的经济模型,但我们从其意图发布中心框架中可窥一斑。面对AI Agent处理结果反差可能较大、激励与目标不一致等问题,将经典的ve模型引入了生态系统中。

意图发布中心框架的执行流程基本如下:

  • 意图创建和激励 :意图发布者在意图中心内创建意图,并分配有价值的代币来激励人工智能代理有效地执行这些意图。

  • 知识训练与发布:构建者训练和发布知识供人工智能代理访问、学习和使用。他们的激励措施与人工智能代理使用其知识所获得的积分份额有关。

  • AI代理交互:AI 代理与意图中心交互以访问意图并利用其知识来尝试并完成分配的意图。

  • 奖励分配:成功完成意图后,人工智能代理将获得奖励积分,构建者将获得积分份额,这有助于分配意图奖励。

  • $OPAI 持有者参与:$OPAI 持有者有机会通过锁定 $OPAI 代币、接收 vlOPAI 以及对意向发行权重进行投票来参与意图中心的治理。

首先,AI Agent执行结果的准确性关乎着整个Optpoia生态的发展,在资产上的直接反应便是其生态代币$OPAI的价格变化;‘因此质押$OPAI的投票者为了维护其资产的价格,就有驱动力投票选出最优的AI Agent进行激励;效果较差的Agent获得的激励减少,那么建设者就有更充足的动力来对Agent进行持续的优化,来覆盖自己的训练成本并获得奖励,同时在优化过程中还能获得意图创建者的激励。

ve模型在平衡各方博弈中,往往能起到优异的效果。不仅如此,链级别的也能为生态的开发者创造出足够的二层产品空间,例如在意图治理框架之上开发一款Convex类产品,解放vlOPAI流动性并进行委托投票。上一轮的DeFi Governance War或许会在Optopia中以另外一种形式出现。

Optopia概览:总结与未来展望

在Optopia的设计中,AI Agent的引入将智能执行路径在链级别对Solver的能力进行了拓展,而ve模型的采用,完美的解决了Solver的激励问题。主网发布以来,Optopia正在吸引越来越多的Agent 构建者加入,来真正实现其作为承接百万级用户进入Web3的用户友好门户。

就在6月13日,Optopia宣布完成了种子轮融资,由G·Ventures、Kucoin Ventures、JRR Capital、KKP International Limited、ZenTrading、Klein Labs、MCS Capital多家前沿风险投资公司及区块链知名个人投资者 MrBlock 参投,为Optopia带来资金和战略辅导。而所筹资金也将用于加速 Optopia 的基础设施的持续升级与优化、增强 AI 能力、构建去中心化技术以及提高社区参与度。

作为普通用户,Optopia也提供了参与这场盛宴获得早期筹码的机会。Optopia通过Gas Mining来进行初始代币发行,即在特定的Booster Event中,用户在执行交易时消耗的gas费用可用于挖矿,从而获得相应的代币奖励。这样的发行能够进一步增强用户对于网络的参与感并实现初始的交易活动和网络增长,来进行整个经济体的启动。

AI 作为这轮牛市最大的叙事之一,其与crypto的有机结合也是许多从业者正在积极探索的一点,而Optopia作为AI Agent领域先行者,与intent结合的实践也对整个市场有着积极的探索意义。