CertiK位列TON官方SAP首选:全面解析顶级安全审计合作

CertiK位列TON官方SAP首选:全面解析顶级安全审计合作

在区块链安全领域,CertiK以卓越的审计能力和业界领先的形式化验证技术,获得了The Open Network (TON)的高度认可,在TON官方推荐的安全审计服务提供商(Security Assurance Providers,SAP)的名单中位列第一。这不仅彰显了CertiK在区块链安全领域的专业水平,而且也体现了对双方长期密切合作的肯定。

CertiK位列TON官方SAP首选:全面解析顶级安全审计合作

https://docs.ton.org/develop/companies/auditors

本文将回顾CertiK与TON之间的合作历程,介绍其中的重要节点和关键细节,展示该合作如何助力TON在区块链行业中不断迈向新的高度。

2022年11月,CertiK完成了对TON的初步审计工作。此次审计着重于TON核心协议的安全性评估,涉及智能合约的代码安全、漏洞检测和潜在风险评估。通过细致的代码审查与形式化验证,CertiK团队成功发现并修复了若干潜在安全漏洞,确保了TON网络的安全性与稳定性。

2023年1月,CertiK与TON正式宣布建立合作。此次合作不仅是对CertiK审计工作成果的肯定,也是双方未来深化协作的起点。CertiK的审计报告为TON提供了明确的安全现状评估,并帮助TON团队了解并解决了系统中的关键安全问题。这次合作涵盖了TON的多个子项目,保障了整体系统的安全性与稳定性。在此期间,CertiK总结了在审计TON过程中获取的经验,撰写了《Secure Smart Contract Programming in FunC: Top 10 Tips for TON Developers》一文,为开发人员提供了一份详尽的指南,同时为TON团队提供了值得信赖的参考材料。

CertiK位列TON官方SAP首选:全面解析顶级安全审计合作

https://www.certik.com/zh-CN/resources/blog/secure-smart-contract-programming-in-func-top-10-tips-for-ton-developers

2023年11月,TON进行了压力测试,并刷新了世界纪录,被认证为全球最快公链。CertiK作为其安全合作伙伴,不仅验证并确认了本次测试生成的数据,还协助TON基金会验证了其网络的速度。

CertiK与TON的合作不仅体现在技术和审计层面,更包括紧密的社区互动。CertiK与TON社区保持积极沟通,共同推进项目发展。2024年4月,CertiK发布了一篇关于TON的案例展示,阐述了TON如何凭借全球最快的区块链速度、顶级安全性及强大的社区治理,确立了区块链技术的新标准。TON对安全的承诺通过多次全面的审计得以体现,TON在Skynet平台上获得了92.19分的AA级CertiK评分(此为动态评分)。

CertiK位列TON官方SAP首选:全面解析顶级安全审计合作

https://x.com/CertiK/status/1781372748096229603

随着CertiK与TON合作的不断深化,我们见证了TON在区块链领域的创新和成长。CertiK的专业能力和对安全的持续追求,为TON提供了坚实的安全保障,使其能够在竞争激烈的区块链行业中稳步前行。双方的合作不仅体现在技术层面的紧密协作,更在于共同推动社区发展和知识共享的愿景。CertiK将继续发挥其专业优势,为更多区块链项目提供全面的安全保护,推动行业的安全标准和实践,促进Web3.0生态系统的健康发展。

为你的聪穿上限量装备:ARC-20染色币的另一比喻视角

过去我们总用黄金和金饰来类比BTC和染色币,很多人听完会觉得这个比喻在强调ARC20的保值作用,而忽视了附加价值的天花板。

今天和朋友交流讨论之后,找到了另一个传统网游的比喻视角,一个可穿卸、可升级的限量“装备”,或许更能突出染色聪之于白聪的溢价原理。

普通的聪,我们称为白聪,这是未经过任何染色的比特币最小单位(0.00000001 BTC)

“染色”的过程,是在让一个白聪,穿上稀有、限量的“装备”。(在传统网游上,类似的比喻也可以是皮肤、时装、钢印等等)

有人把染色聪类比为一种稀有聪,其实二者逻辑是不一样的。

一方面是来源,先天和后天的区别;另一方面则是“穿戴装备”的特性——一件装备,穿在一个聪上,它的状态是“灵魂绑定”的,不可以直接卸下不用,但可以通过“去染色”销毁它,也可以换给其他聪穿,还可以一个聪同时穿多个装备(这个比较复杂,现阶段不尝试)。

最后,我们手上得到的这些染色聪,正是附着了各具特色的稀缺装备之“高级聪”。

这里的“装备”,有几个特点:

1、获取成本:一开始获取这些装备,是需要成本的,创造装备、并且让装备穿到聪上,这个过程就是mint(染色)。

2、一币一聪:装备必须穿在聪上,才能得以发挥价值。一币天然对应一聪,即使装备烂了,聪也有价值,而如果装备很好,自然“装备+聪”的组合也会更具价值。

3、系列分化:一个同系列的装备,例如名为Quark的装备,不同的Quark装备之间总是同质化的(FT);而不同的FT之间,例如Atom和Quark,则属于不同系列的装备,有完全不同的价值。

4、限定总量:每个系列的装备,一经发行制造,便限定了总量,如atom装备有2100万件,quark装备有100亿件。今天一件atom装备加上聪值4.3u,一件quark装备加上聪值0.0023u。

5、附加价值:过去我们把染色币比喻为金饰,或许更强调保值作用,但如果从“聪+装备”的视角来看,聪用于保值,而装备的价值是没有天花板的,由叙事、应用等多方面决定其自铸造以后的无尽升级、进阶。

当你部署了一个新的ARC20代币,例如叫做xxx,21000张,一张1000币,其实你是作为一家限定装备工厂,生产了2100万件传奇装备;其他人mint的过程,就是把这些装备穿到白聪身上的过程,mint成功一张,就是为自己的1000个白聪穿上了外观为“xxx”的装备。

这个“xxx”装备的附属价值如何,由大众去定义,它可以是纯粹的meme时装,也可以带有各种各样的叙事,它可以在社区加持下得到升级(赋能),让一个最初只具外观的装备,逐步锤炼、进阶、升级。

当我们对xxx装备加以有趣的叙事,例如我们说这是雷神认可的装备,那么所有人的xxx装备都会得到内在价值提升,推动共识认可;当我们对xxx装备予以赋能,开发应用,那么所有人的xxx装备都会得到外在功能性完善,提升实用性价值。

装备,既然稀缺,自然可以炒作。

论其本身,以“时装”、“皮肤”角度,有美观度之分(叙事),这也是作为奢侈品、稀缺工艺品的最直接的价值角度;当然,论以“防御”、“耐久”角度,也有赋能、应用、权益这些方面的属性值加成(加点无上限)。

以上。把“染色”和“聪”分开理解,或许也是阐释染色币的一个有趣视角。

——

当我把这个思路告诉朋友,他对概念很认可,但提了一个问题——怎么为装备“加点”呢?

我说,这个思路对头了,装备加点,才是凸显其附加价值的地方。也是强调染色币不只是保值,而是还能升值的部分。

当我们代入到“升级装备”的目标里,其实我们也可以将社区代入新的角色。我们说一个代币社区要坚持做事、坚持Build。其实“Build”这件事就是在为装备属性“加点”。

写文章的,为它写了一篇又一篇的文章,汇聚起了前前后后的磅礴叙事(提升耐久度);输出MEME文化的,以可视化的图片、可社群传播的文化基因,凝聚起了恒久远的共识(提升美观度、魅力值);应用赋能,基于代币的功能性建设,赋予了更多定向的实用价值(提升特殊效果、被动技能);跨项目与跨赛道开发联动、多项目间的合作权益等等,让人在代币得到出乎预料的收益回报(提升掉落物加成、经验加成);资金充裕者,做市、护盘,又是最直接的市场推动(提升攻防、法力);在经年累月的布道下,为一个可能爆发的营销点提前埋伏,每一步的建设都有其意义(提升暴击率)……

其实Build在哪都能Build,这些事情换任何一个代币都可以做。但当且仅当我们把“染色”理解为“穿装备”的时候,Build便拥有了更让人心动的解读。

这样看的话,铸造装备、囤积装备、打磨装备,让你的“聪”军团越发强大,何尝不是一个“好玩”的路线?

生于边缘:去中心化算力网络如何赋能Crypto与AI?缩略图

生于边缘:去中心化算力网络如何赋能Crypto与AI?

作者:Jane Doe, Chen Li,通讯作者:Youbi投资团队

1 AI与Crypto的交点

5月23日,芯片巨头英伟达发布了2025财年第一季度财报。财报显示,英伟达第一季度营收为260亿美元。其中,数据中心营收较去年增长427%,达到惊人的226亿美元。英伟达能够凭借一己之力拯救美股大盘的财务表现背后,反映的是全球科技公司为了角逐AI赛道而爆发的算力需求。越是顶尖的科技公司在AI赛道布局的野心越大,相应的,这些公司对于算力的需求也呈指数级增长。根据TrendForce的预测,2024年美国四大主要云服务提供商:微软、谷歌、AWS和Meta的对于高端AI服务器的需求预计分别将占全球需求的20.2%、16.6%、16%和10.8%,总计超60%。

生于边缘:去中心化算力网络如何赋能Crypto与AI?

图片来源: https://investor.nvidia.com/financial-info/financial-reports/default.aspx

  “芯片紧缺“连续成为近几年的年度热词。一方面,大语言模型(LLM)的training和inference需要大量算力支撑;并且随着模型的迭代,算力成本和需求呈指数级增加。另一方面,像Meta这样的大公司会采购巨量的芯片,全球的算力资源都向这些科技巨头倾斜,使得小型企业越来越难以获得所需的算力资源。小型企业面临的困境不仅来自于激增的需求导致的芯片供给不足,还来自于供给的结构性矛盾。目前,在供给端仍存在着大量闲置的GPU,比如,一些数据中心存在大量闲置的算力(使用率仅在12% – 18%),加密挖矿中由于利润的减少也闲置出来大量的算力资源。虽然这些算力并非都适合AI训练等专业的应用场景,但消费级硬件在其他领域,如AI inference、云游戏渲染、云手机等领域仍然可以发挥巨大作用。整合并利用这部分算力资源的机会是巨大的。

把视线从AI转到crypto,在加密市场沉寂了三年之后,终于又迎来了又一轮牛市,比特币价格屡创新高,各种memecoin层出不穷。虽然AI和Crypto作为buzzword火了这些年,但人工智能和区块链作为两项重要技术仿佛两条平行线,迟迟没有找到一个“交点”。今年年初,Vitalik发表了一篇名为“The promise and challenges of crypto + AI applications” 的文章,讨论了未来AI和crypto相结合的场景。Vitalik在文中提到了很多的畅想,包括利用区块链和MPC等加密技术对AI进行去中心化的training和inference,可以将machine learning的黑箱打开,从而让AI model更加trustless等等。这些愿景若要实现还有很长一段路要走。但其中Vitalik提到的其中一个用例——利用crypto的经济激励来赋能AI,也是一个重要且在短时间内可以实现的一个方向。去中心化算力网络便是现阶段AI + crypto最合适的场景之一。

2 去中心化算力网络

目前,已经有不少项目在去中心化算力网络的赛道上发展。这些项目的底层逻辑是相似的,可以概括为: 利用token激励算力持有者参与网络提供算力服务,这些零散的算力资源可以汇集成有一定规模的去中心化算力网络。这样既能提高闲置算力的利用率,又能以更低的成本满足客户的算力需求,实现买方卖方双方的共赢。

为了使读者在短时间内获得对此赛道的整体把握,本文将从微观—宏观两个视角对具体的项目和整个赛道进行解构,旨在为读者提供分析视角去理解每个项目的核心竞争优势以及去中心化算力赛道整体的发展情况。笔者将介绍并分析五个项目: Aethir、io.net、Render Network、Akash Network、Gensyn,并对项目情况和赛道发展进行总结和评价。

 从分析框架而言,如果聚焦于一个具体的去中心化算力网络,我们可以将其拆解成四个核心的构成部分:

  • 硬件网络:将分散的算力资源整合在一起,通过分布在全球各地的节点来实现算力资源的共享和负载均衡,是去中心化算力网络的基础层。

  • 双边市场:通过合理的定价机制和发现机制将算力提供者与需求者进行匹配,提供安全的交易平台,确保供需双方的交易透明、公平和可信。

  • 共识机制:用于确保网络内节点正确运行并完成工作。共识机制主要用于监测两个层面:1)监测节点是否在线运行,处于可以随时接受任务的活跃状态;2)节点工作证明:该节点接到任务后有效正确地完成了任务,算力没有被用于其他目的而占用了进程和线程。

  • 代币激励:代币模型用于激励更多的参与方提供/使用服务,并且用token捕获这种网络效应,实现社区收益共享。

如果鸟瞰整个去中心化算力赛道,Blockworks Research的研报提供了一个很好的分析框架,我们可以将此赛道的项目position分为三个不同的layer。

  • Bare metal layer: 构成去中心化计算栈的基础层,主要的任务是收集原始算力资源并且让它们能够被API调用。

  • Orchestration layer: 构成去中心化计算栈的中间层,主要的任务是协调和抽象,负责算力的调度、扩展、操作、负载均衡和容错等。主要作用是“抽象”底层硬件管理的复杂性,为终端用户提供一个更加高级的用户界面,服务特定的客群。

  • Aggregation layer: 构成去中心化计算栈的顶层,主要的任务是整合,负责提供一个统一的界面让用户可以在一处实现多种计算任务,比如AI训练、渲染、zkML等等。相当于多个去中心化计算服务的编排和分发层。

生于边缘:去中心化算力网络如何赋能Crypto与AI?

图片来源:Youbi Capital

根据以上两个分析框架,我们将对选取的五个项目做一个横向的对比,并从四个层面——核心业务、市场定位、硬件设施和财务表现对其进行评价。

生于边缘:去中心化算力网络如何赋能Crypto与AI?

2.1 核心业务

从底层逻辑来讲,去中心化算力网络是高度同质化的,即利用token激励闲置算力持有者提供算力服务。围绕这个底层逻辑,我们可以从三个方面的差异来理解项目核心业务的不同:

  • 闲置算力的来源

    • 市面上闲置算力有两种主要的来源:1)data centers, 矿商等企业手里闲置算力;2)散户手里的闲置算力。数据中心的算力通常是专业级别的硬件,而散户通常会购买消费级别的芯片。

    • Aethir、Akash Network和Gensyn的算力主要是从企业收集的从企业收集算力的好处在于:1)企业和数据中心通常拥有更高质量的硬件和专业维护团队,算力资源的性能和可靠性更高;2)企业和数据中心的算力资源往往更同质化,并且集中的管理和监控使得资源的调度和维护更加高效。但相应的,这种方式对于项目方的要求较高,需要项目方有与掌握算力的企业有商业联系。同时,可扩展性和去中心化程度会受到一定程度的影响。

    • Render Network和io.net主要是激励散户提供手中的闲置算力。从散户手中收集算力的好处在于:1)散户的闲置算力显性成本较低,能提供更加经济的算力资源;2)网络的可扩展性和去中心化程度更高,增强了系统的弹性和稳健性。而缺点在于,散户资源分布广泛且不统一,管理和调度变得复杂,增加了运维难度。并且依靠散户算力去形成初步的网络效应会更加困难(更难kickstart)。最后,散户的设备可能存在更多的安全隐患,会带来数据泄露和算力被滥用的风险。

  • 算力消费者

    • 从算力消费者来讲,Aethir、io.net、Gensyn的目标客户主要是企业。对于B端客户来说,AI和游戏实时渲染需要高性能计算需求。这类工作负载对算力资源的要求极高,通常需要高端 GPU 或专业级硬件。此外,B端客户对算力资源的稳定性和可靠性要求很高,因此必须提供高质量的服务级别协议,确保项目正常运行并提供及时的技术支持。同时,B端客户的迁移成本很高,如果去中心化网络没有成熟的SDK能够让项目方快速deploy(比如Akash Network需要用户自己基于远程端口进行开发),那么很难让客户进行迁移。如果不是及其显著的价格优势,客户迁移的意愿是非常低的。

    • Render Network和Akash Network主要为散户提供算力服务。为C端用户提供服务,项目需要设计简单易用的界面和工具,为消费者提供良好的消费体验。并且消费者对于对价格很敏感,因此项目需要提供有竞争力的定价。

  • 硬件类型

    • 常见的计算硬件资源包括CPU、FPGA、GPU、ASIC和SoC等。这些硬件在设计目标、性能特性和应用领域上有显著区别。总结来说,CPU更擅长通用计算任务,FPGA的优势在于高并行处理和可编程性,GPU在并行计算中表现出色,ASIC在特定任务中效率最高,而SoC则集成多种功能于一体,适用于高度集成的应用。选择哪种硬件取决于具体应用的需求、性能要求和成本考虑。我们讨论的去中心化算力项目多为收集GPU算力,这是由项目业务类型和GPU的特点决定的。因为GPU在AI训练、并行计算、多媒体渲染等方面有着独特优势。

    • 虽然这些项目大多涉及到GPU的集成,但是不同的应用对硬件规格的要求不同,因此这些硬件有异质化的优化核心和参数。这些参数包括parallelism/serial dependencies,内存,延迟等等。例如渲染工作负载实际上更适合于消费级 GPU,而不适合性能更强的data center GPU,因为渲染对于光线追踪等要求高,消费级芯片如4090s等强化了RT cores,专门为光线追踪任务做了计算类优化。AI training和inference则需要专业级别的GPU。因此Render Network 可从散户那里汇集 RTX 3090s 和 4090s等消费级GPU,而IO.NET需要更多的H100s、 A100s等专业级别GPU,以满足AI初创公司的需求。

2.2 市场定位

对于项目的定位来讲,bare metal layer、orchestration layer和aggregation layer需要解决的核心问题、优化重点和价值捕获的能力不同。

  • Bare metal layer 关注的是物理资源的收集和利用,Orchestration layer 关注算力的调度和优化,将物理硬件按照客户群体的需求进行最佳优化设计。Aggregation layer是general purpose的,关注不同资源的整合和抽象。从价值链来讲,各个项目应该从bare metal层起,努力向上进行攀升。

  • 从价值捕获的角度来讲,从bare metal layer、orchestration layer 到aggregation layer,价值捕获的能力是逐层递增的。Aggregation layer能够捕获最多的价值,原因在于aggregation platform能够获得最大的网络效应,还能直接触及最多的用户,相当于去中心化网络的流量入口,从而在整个算力资源管理栈中占据最高的价值捕获位置。

  • 相应的,想要构建一个aggregation platform的难度也是最大的,项目需要综合解决技术复杂性、异构资源管理、系统可靠性和可扩展性、网络效应实现、安全性和隐私保护以及复杂的运维管理等多方面的问题。这些挑战不利于项目的冷启动,并且取决于赛道的发展情况和时机。在orchestration layer还未发展成熟吃下一定市场份额时,做aggregation layer是不太现实的。

  • 目前,Aethir、Render Network、Akash Network和Gensyn都属于Orchestration layer,他们旨在为特定的目标和客户群体提供服务。Aethir目前的主营业务是为云游戏做实时渲染,并为B端客户提供一定的开发和部署环境和工具; Render Network主营业务是视频渲染,Akash Network的任务是提供一个类似于淘宝的交易平台,而Gensyn深耕于AI training领域。io.net的定位是Aggregation layer,但目前io实现的功能还离aggregation layer的完整功能还有一段距离,虽然已经收集了Render Network和Filecoin的硬件,但对于硬件资源的抽象和整合还未完成。

2.3 硬件设施

  • 目前,不是所有项目都公布了网络的详细数据,相对来说,io.net explorer的UI做的是最好的,上面可以看到GPU/CPU数量、种类、价格、分布、网络用量、节点收入等等参数。但是4月末时io.net的前端遭到了攻击,由于io没有对 PUT/POST 的接口做 Auth,黑客篡改了前端数据。这为其他项目的隐私、网络数据可靠性也敲响了警钟。

  • 从GPU的数量和model来说,作为聚合层的io.net收集的硬件数量理应是最多的。Aethir紧随其后,其他项目的硬件情况没有那么透明。从GPU model上可以看到,io既有A100这样的专业级GPU,也有4090这样的消费级GPU,种类繁多,这符合io.net aggregation的定位。io可以根据具体任务需求选择最合适的GPU。但不同型号和品牌的GPU可能需要不同的驱动和配置,软件也需要进行复杂的优化,这增加了管理和维护的复杂性。目前io各类任务分配主要是靠用户自主选择。

  • Aethir发布了自己的矿机,五月时,高通支持研发的Aethir Edge正式推出。它将打破远离用户的单一集中化的GPU集群部署方式,将算力部署到边缘。Aethir Edge将结合H100的集群算力,共同为AI场景服务,它可以部署训练好的模型,以最优的成本为用户提供推理计算服务。这种方案离用户更近,服务更快速,性价比也更高。

  • 从供给和需求来看,以Akash Network为例,其统计数据显示,CPU总量约为16k,GPU数量为378个,按照网络租赁需求,CPU和GPU的利用率分别是11.1%和19.3%。其中只有专业级GPU H100的租用率是比较高的,其他的model大多处于闲置状态。其他网络面临的情况大体与Akash一致,网络总体需求量不高,除了如A100、H100等热门芯片,其他算力大多处于闲置的状态。

  • 从价格优势来看,与除云计算市场巨头而言,与其他传统服务商相比成本优势并不突出。

生于边缘:去中心化算力网络如何赋能Crypto与AI?

2.4 财务表现

  • 不管token model如何设计,一个健康的tokenomics都需要满足以下几个基本条件:1)用户对于网络的需求需要体现在币价上,也就是说代币是可以实现价值捕获的;2)各个参与者,不管是开发者、节点、用户都需要得到长期的公平的激励;3)保证去中心化的治理,避免内部人士过度持有;4)合理的通胀和通缩机制和代币释放周期,避免大幅波动的币价影响网络的稳健型和持续性。

  • 如果把代币模型笼统地分为BME(burn and mint equilibrium)和SFA(stake for access),这两种模式的代币通缩压力来源不同:BME模型在用户购买服务后会燃烧代币,因此系统的通缩压力是由需求决定的。而SFA要求服务提供者/节点质押代币以获得提供服务的资格,因此通缩压力是由供给带来的。BME的好处在于更加适合用于非标准化商品。但如果网络的需求不足,可能面临着持续通胀的压力。各项目的代币模型在细节上有差异,但总体来说,Aethir更偏向于SFA,而io.net,Render Network和Akash Network更偏向于BME,Gensyn尚未可知。

  • 从收入来看,网络的需求量会直接反映在网络整体收入上(这里不讨论矿工的收入,因为矿工除了完成任务所获的报酬还有来自于项目的补贴。)从公开的数据上来看io.net的数值是最高的。Aethir的收入虽然还未公布,但从公开信息来看,他们宣布已经与很多B端客户签下了订单。

  • 从币价来说,目前只有Render Network和Akash Network进行了ICO。Aethir和io.net也在近期发币,价格表现需要再观察,在这不做过多讨论。Gensyn的计划还不清楚。从发币的两个项目以及同一个赛道但没有包含在本文讨论范围内的已经发币的项目,综合来讲,去中心化算力网络都有非常亮眼的价格表现,一定程度体现了巨大的市场潜力和社区的高期望。

2.5 总结

  • 去中心化算力网络赛道总体发展很快,已经有很多项目可以依靠产品服务客户,并产生一定收入。赛道已经脱离了纯叙事,进入可以提供初步服务的发展阶段。

  • 需求疲软是去中心化算力网络所面临的共性问题,长期的客户需求没有被很好地验证和挖掘。但需求侧并没有过多影响币价,已经发币的几个项目表现亮眼。

  • AI是去中心化算力网络的主要叙事,但并不是唯一的业务。除了应用于AI training和inference之外,算力还可被用于云游戏实时渲染,云手机服务等等。

  • 算力网络的硬件异质化程度较高,算力网络的质量和规模需要进一步提升。

  • 对于C端用户来说,成本优势不是十分明显。而对于B端用户来说,除了节约成本之外,还需考虑服务的稳定性、可靠性、技术支持、合规和法律支持等等方面,而Web3的项目普遍在这些方面做得不够好。

3 Closing thoughts

AI的爆发式增长带来的对于算力的巨量需求是毋庸置疑的。自 2012 年以来,人工智能训练任务中使用的算力正呈指数级增长,其目前速度为每3.5个月翻一倍(相比之下,摩尔定律是每18个月翻倍)。自2012 年以来,人们对于算力的需求增长了超过300,000倍,远超摩尔定律的12倍增长。据预测,GPU市场预计将在未来五年内以32%的年复合增长率增长至超过2000亿美元。AMD的估计更高,公司预计到2027年GPU芯片市场将达到4000亿美元。生于边缘:去中心化算力网络如何赋能Crypto与AI?

图片来源: https://www.stateof.ai/

因为人工智能和其他计算密集型工作负载(如AR/VR渲染)的爆发性增长暴露了传统云计算和领先计算市场中的结构性低效问题。理论上去中心化算力网络能够通过利用分布式闲置计算资源,提供更灵活、低成本和高效的解决方案,从而满足市场对计算资源的巨大需求。因此,crypto与AI的结合有着巨大的市场潜力,但同时也面临与传统企业激烈的竞争、高进入门槛和复杂的市场环境。总的来说,纵观所有crypto赛道,去中心化算力网络是加密领域中最有希望获得真实需求的的垂直领域之一。

生于边缘:去中心化算力网络如何赋能Crypto与AI?

图片来源:https://vitalik.eth.limo/general/2024/01/30/cryptoai.html

前途是光明的,道路是曲折的。想要达到上述的愿景,我们还需要解决众多的问题与挑战,总结来说:现阶段如果单纯提供传统的云服务,项目的profit margin很小。从需求侧来分析,大型企业一般会自建算力,纯C端开发者大多会选择云服务,真正使用去中心化算力网络资源的中小型企业是否会有稳定需求还需要进一步挖掘和验证。另一方面,AI是一个拥有极高上限和想象空间的广阔市场,为了更广阔的市场,未来去中心化算力服务商也需要向模型/AI服务进行转型,探索更多的crypto + AI的使用场景,扩大项目能够创造的价值。但目前来说,想要进一步发展到AI领域还存在很多问题和挑战:

  • 价格优势并不突出:通过之前的数据对比可以看出,去中心化算力网络的成本优势并没有得到体现。可能的原因在于对于需求大的专业芯片H100、A100等,市场机制决定了这部分硬件的价格不会便宜。另外,去中心化网络虽然能收集闲置的算力资源,但去中心化带来的规模经济效应的缺乏、高网络和带宽成本以及极大的管理和运维的复杂性等隐形成本会进一步增加算力成本。

  • AI training的特殊性:利用去中心化的方式进行AI trainning在现阶段有着巨大的技术瓶颈。这种瓶颈从GPU的工作流程当中可以直观体现,在大语言模型训练中,GPU首先接收预处理后的数据批次,进行前向传播和反向传播计算以生成梯度。接下来,各GPU会聚合梯度并更新模型参数,确保所有GPU同步。这个过程将不断重复,直到训练完成所有批次或达到预定轮数。这个过程中涉及到大量的数据传输和同步。使用什么样的并行和同步策略,如何优化网络带宽和延迟,降低通讯成本等等问题,目前都还未得到很好的解答。现阶段利用去中心化算力网络对AI进行训练还不太现实。

  • 数据安全和隐私:大语言模型的训练过程中,各个涉及数据处理和传输的环节,比如数据分配、模型训练、参数和梯度聚合都有可能影响数据安全和隐私。并且数据隐私币模型隐私更加重要。如果无法解决数据隐私的问题,就无法在需求端真正规模化。

从最现实的角度考虑,一个去中心化算力网络需要同时兼顾当下的需求发掘和未来的市场空间。找准产品定位和目标客群,比如先瞄准非AI或者Web3原生项目,从比较边缘的需求入手,建立起早期的用户基础。同时,不断探索AI与crypto结合的各种场景,探索技术前沿,实现服务的转型升级。

参考文献

https://www.stateof.ai/

https://vitalik.eth.limo/general/2024/01/30/cryptoai.html

https://foresightnews.pro/article/detail/34368

https://app.blockworksresearch.com/unlocked/compute-de-pi-ns-paths-to-adoption-in-an-ai-dominated-market?callback=%2Fresearch%2Fcompute-de-pi-ns-paths-to-adoption-in-an-ai-dominated-market

https://research.web3caff.com/zh/archives/17351?ref=1554

ZK 空投争议有感:无脑撸毛致富的黄金时代已逝

作者:gm365 来源:X,@gm365

ZK 的空投代表了一个时代的落幕

一波未平,一波又起。

创造了“史上最大女巫库”的 L0 CEO 还沉浸在对抗女巫集群无法自拔的当口,“史上最大反撸” ZK 降生了。

一时哀鸿遍野,近乎天怒人怨。

为何?

那个你抱有期望最多最大的,往往伤害你最深。感情如此,Web3 竟然也如出一辙。堪称 L2 最后的希望的 zkSync,苦等4年,等来的只是一句无情的 “Unfortunately, YOU are not eligible for the airdrop”。

不查女巫的“反女巫”

1000万地址、4亿条tx,秉承“天下为公、不查女巫”的“初心”,筛选“真实用户”,怎么做?

zkSync 选择用冷酷严苛的数学法则来帮忙。

大体分三个步骤:初筛、分配、加成。

能够进入积分池进行初筛的7条标准,说实话非常宽松。比如 10条tx、存过DeFi项目、持有神灯、Lite捐款等。绝大多数“认真”交互的人,相信都能入池。

分配环节是重头戏,也是绝大多数用户被晒出去的“大过滤器”。因为这里的分配不是根据你钱包的月活、交易额、tx数量等等这些“行业黄金标准”,而是和 DeFi 存款项目一致的“资金留存”。

类似 EtehrFi 这里质押项目要求资金留存相当正常,但一个 L2 使用类似规则过滤用户,则让绝大多数人感到“无法接受”,甚至“大逆不道”。

至于“加成”环节,属于锦上添花的范畴,对于那些“老OG”、精品账户、深度用户定向倾斜。

但这并不是很多人在意的地方,因为大家发现碗里的饭都没了,谁还在意有没有鸡腿呢?

所以,这里的核心就是:一条所有人抱有最大期望的 L2,使用卡资金留存的 DeFi 项目类似的规则,过滤掉了超过90%的用户地址,导致了史上最大的反撸惨案发生。

相形之下,至于最大分配与低保户的比例悬殊、分配规则不透明、为何不让 NanSen 查女巫等,这都属于次要问题了。

主要问题还是贫下中农没吃上饭,才对地主老爷大鱼大肉更加恨之入骨。

反撸复盘

N年时间精力的浪费且暂不提,单单 gas 的反撸都让人难以忍受,所以才会有人喊着让 ZK 退 gas。

情绪化的表达确实可以让你找到共鸣、舒缓胸中愤懑,但这对你接下来怎么走、如何持续在行业赚到钱于事无补。分析原因、查漏补缺、修正方针策略,这才是正途。

对于口口声声说“社区就是一切”的项目方为何选择了触怒90%用户的反女巫方式,这点无须过于深究。你把自己代入项目方视角,再去审视前面提到的“分配”环节的具体规则,会发现项目方仅仅通过这一条数学公式,就把工业化女巫集群,以及普通用户低保户,统统排除在外。

为什么选择资金留存、DeFi 存款/LP 2倍加成的方式反女巫?

两个原因:

1、对 L2 而言,TVL 是命根子

2、项目方十分了解普通用户对”空投规则“的猜测(其实是误判)

之前 ARB、STARK 空投时,有大V说空投太容易被工业化 Farming,因为规则实在太好猜了,无非那几条。

大家也是这么想的,KOL也是这么教的,人们自觉不自觉的也在按部就班的照做,甚至还有一堆第三方工具帮大家统计相关数据,并煞有介事的搞出来了地址排名。

一波波的推波助澜,犹如温水煮青蛙,让所有人失去了警惕之心,以为你小小的孙猴子 ZK,还是跳不出我如来佛祖的手掌心,拿捏你的空投,那还不是板上钉钉的事情。

结果呢?ZK 偏不按常理出牌。一招金额留存,干翻所有照本宣科的老实人。

有人说,ZK的空投规则,过滤了所有低端的工业化女巫手段的工作室和普通散户,分配给了精品用户和高端女巫工作室(财大气粗、精品女巫地址)。

这个观察很到位,实际来看,确实如此。

比如那个 L0 女巫集群,同一天批量分发 0.6 ETH,最终拿了上百万 ZK 的女巫集群,这个就是高端女巫集群的典型案例。

换句话说,这次没撸到 ZK,核心在于对空投规则的严重误判(轻敌导致的)、人人都想上多号奈何资金不够雄厚的双重绞杀。

工业化 Farming 现状

如果以 ARB 乃至 STARK 的空投规则来评判,这次被筛掉的 90% 用户,绝大多数都是符合标准,甚至能上升到“精品号”范畴,拿到一个好结果的。

但为什么到了 ZK 这里就偏偏不灵了呢?

很简单,时代变了。其核心便是:

工业化 Farming 体系的过于繁荣昌盛。

EVM 生态的过于成熟 + GPT4 的AI工具加成,导致了批量起号与交互的门槛急剧降低,继而造就了账号数量、tx的严重通货膨胀。

这是时代的演进路径,不以个人意志为转移。

像极了工业革命初期那些娴熟的女纺织工人被机器纺纱所替代的场景,手工业者赖以安身立命的技能,在机器化生产者的眼里,根本不值一提。效率低、成本高、易出错,哪是无情工作、任劳任怨的机器所能比拟的。

彼时彼刻,恰如此时此刻。

工业化 Farming 的时代已来,能上多号已经算不上任何优势,分分钟被 GPT4 所能生成的交互代码所追平、赶超,甩到身后。

不过这个情况,不光你知我知,项目方也知道、VC也知道、交易所也知道。

地址数、tx数都是注水的,这点大家都心照不宣,也许只是在注水比例上观点有所不同。

但 TVL 这个指标则比较难造假,因为需要堆砌真金白银。

于是精明的项目方便选了这个最难造假的指标来作为空投分发的核心规则。

这一点上,和雄性孔雀华丽的尾巴有异曲同工之妙。

雄性孔雀的尾巴极其引人注目,给自己生活都带来诸多不便,甚至于可能陷入生命危险。大自然为何要进化出来如此“无用且危险”的累赘呢?

因为这才是最难以造假的“信号”,才是让雌孔雀信服且愿意委身于对方的“黄金标准”。能轻易被造假的信号,都不值得被采信。

同理。只要你愿意,设定好程序参数,你可以给自己的地址集群打造完美的日活、周活、月活数据、超高的tx数、超高的交易额。反正无情的撸毛机器会任劳任怨的替你交互到地老天荒。

但要保持每个账户几百 U 的资金留存,可就不是任何程序和 GPT 能帮你搞定的了。

金钱再次流入了那些不缺钱的大撸子手中。连 Web3 都还是和 Web2 一样的不公平,MD。

敢问路在何方

Gas 费低到忽略不计、工业化女巫蔚然的时代,撸毛群体何去何从?Web3 是否还会奖励我们这些西部淘金的勇者?

可以肯定的是:

▪️ Web3 依然还在早

▪️ 大额融资项目也会层出不穷

▪️ 空投永不落幕

▪️ Web3 赚钱的机遇和数额依然远超传统 Web2

不一样的是:

▪️ 时代不一样了

▪️ 规则永远在变

▪️ 过于成熟的生态,竞争太过激烈以至于对普通人而言成了鸡肋之选

要相信时代的选择,当下而言,你我这样的普通人,逆天改命的机会不在别处,就在这里,就在 Web3。

从赚钱的概率与 ROI 上来说,空投依然是最适合普通人掘取第一桶金的赛道。但很不幸,由于行业变化神速,以及 AI 加持等因素,导致难度陡增。

如果说以前只需要跟着 KOL 们的教程无脑操作就能收获满满的话,接下来恐怕就更加考验你的智慧了:

选择生态、选择项目、选择交互方式、如何平衡资金与数量、如何最大化产出。

无脑撸毛暴富的时代落幕了,撸毛致富的时代就在当下。

HTX流动性位居行业第四 致力成为优质资产代名词缩略图

HTX流动性位居行业第四 致力成为优质资产代名词

近日,加密数据公司Kaiko发布2024年第二季度交易所流动性报告。在其统计的43家主流中心化交易所中,HTX评级为AA,流动性排名位居并列第四,平均交易量高达605亿美元。

HTX流动性位居行业第四 致力成为优质资产代名词

图片来源:Kaiko2024第二季度交易所流动性报告

据悉,该报告针对交易量、交易量贡献、+/-1 市场深度、变异系数(CV)离散度和市场质量5项交易所流动性指标进行评分。HTX方面回应称,将始终坚持安全合规,聚焦全球市场,为更多用户提供全面、安全、便捷的加密货币交易服务。

2024上半年:HTX成绩斐然

回顾过去6个月,HTX成绩斐然。

HTX流动性位居行业第四 致力成为优质资产代名词

图片为2024.5.27-2024.6.3的统计数据,仅供参考

HTX坚持“用户第一”的上币原则,以巨大的财富效应凸显“人民交易所”的核心竞争力。在新资产的发现与发行方面,其深耕Meme、AI、公链、L2等不同赛道的潜力币种和优质资产。据不完全不统计,仅2024年Q1,HTX就已上新59个项目代币,其中历史最高涨幅过千的占近50%,名列涨幅榜一的是WIF——来自Solana链上的Meme项目,涨幅高达12039%。

HTX流动性位居行业第四 致力成为优质资产代名词

图片截自:HTX官网 – 资产审计页面

此外,截至2024年6月1日,HTX已更新默克尔树资产审计报告20次。HTX最新储备金率为:USDT100%(HTX钱包资产610,174,986)、BTC100%(HTX钱包资产25,735)、ETH101%(HTX钱包资产92,631)、HTX105%(HTX钱包资产360,938,524,569,165)、TRX105%(HTX钱包资产9,754,300,787)。其中USDT和ETH数据已包含stUSDT及stETH等资产。

另外值得市场和社区关注的是,HTX DAO人民委员会的组建。成立1个月有余,HTX DAO人民委员会现已作为社区中坚力量,着眼于社区长期利益,推进并落实着HTX的去中心化探索和民主自治。

基于种种成绩,HTX全球顾问委员会成员孙宇晨近日也在社交媒体发文:1. HTX上新表现不错, 每周都会有十倍币。2. 平台内资金已经持续六个月净流入,证明用户对于HTX的服务是满意的。3. 平台盈利水平有显著提升(超100%),HTX会做好回购。

HTX希望成为优质资产代名词

HTX商务负责人、资深投资分析师六爷表示,Kaiko的这份报告是对HTX过去一段时间艰难爬坡后的一次美景奖励,既使其对后面的路程满怀信心,也心存敬畏。

据六爷介绍,未来HTX将继续朝着以下方向努力:

1. 优质资产上新。HTX对新资产上线有严格要求,有非常专业的筛选项目团队,HTX全球顾问委员会成员孙宇晨就是其中一员。HTX的目标是成为优质资产平台的代名词。

2. 产品细节优化。HTX听取了很多用户声音,在各项产品体验上加强了改进,如出金流程繁琐的问题,现已得到妥善解决。HTX的活动产品设计也一改以往的复杂,朝着用户友好的方向优化。

3. 持续做好深度,吸引更多优质做市商、经纪商团队,为用户提供丝滑的交易体验。

4. 安全,是平台的安身立命之本。去年黑客事件过后,HTX做了一系列改善提升工作。硬件方面:与国际一流安全公司FearOff合作,在安全上下足功夫;软件方面:为用户做出100%资金保障的承诺。

六爷总结称:“HTX整体都在向好的方向努力,让时间给出答案。请相信HTX。”

诚然,交易所是加密行业最赚钱的生意之一,更是争夺最激烈的赛道。从第一个加密交易所诞生至今,交易所业态风云变幻,兴与衰都在转瞬之间。尽管Coinbase 、币安占据龙头位置,但是交易所的业态格局依然未定。

HTX,这个伴随加密市场走过近11年风雨的老兵,见证了无数的起伏和变迁。如今已不仅是一个交易平台,更是一段传奇,承载着无数投资者的梦想与回忆。HTX坚信,真正的价值不在于短期的涨跌,而在于长远的发展和贡献。未来,HTX将继续携手全球合作伙伴,共同推动加密货币和区块链技术的发展,为用户创造更多价值,迎接更加开放、包容、充满活力的加密新世界。

*声明:企业通稿非陀螺科技官方稿,法律问题一切与陀螺科技无关。

Berachain V2革新之路:验证节点质押与削减机制

原文作者:

原文编译:深潮 TechFlow

Berachain V2革新之路:验证节点质押与削减机制

今年一月,,从那时起,生态系统一直在稳步上升。开发人员、用户和验证器操作员都参与了测试,帮助对网络进行压力测试并指导 Berachain 的设计决策。V1测试网验证了核心概念,如流动性证明,但也发现了改进的空间,这就是V2的用武之地。我们将尽力总结 Berachain 核心开发人员的最新成果。

简要说明

  • 验证节点现在需要质押 69, 420 个 BERA,而不是 BGT,以提高经济安全性。

  • BGT 委托者不再会被削减。

  • 所有验证节点都有平等的机会生产区块。

  • 验证节点数量上限已增加,以改善去中心化。

  • 核心技术栈从 Polaris 更改为 BeaconKit,以提高性能和 EVM 兼容性。

  • 即将推出公开的 Infrared 测试网部署。

V2的新变化

BERA 质押和削减变化

V2中的一个关键经济变化是引入了更大的验证节点保证金,即质押在 BERA 中的数量。简单来说,验证节点保证金是验证节点开始生产区块时必须质押的代币数量。

在V2中,验证节点保证金从少量的 BGT 增加到 69, 420 个 BERA。这确保了验证节点有更高的经济投入,通过增加潜在攻击的成本来提高网络的安全性。这一变化意味着验证节点承担更多责任,同时在不影响 BGT 在流动性证明中的角色的情况下增加了 BERA 的实用性。

BERA 质押的变化也影响了验证节点削减,这是对行为不当或表现不佳的验证节点的惩罚。如果验证节点被削减,一部分质押的代币将被扣除,这是一个不理想的结果。

在V1中,削减可能影响到验证节点和 BGT 委托者。在V2中,只有验证节点的 BERA 质押才会被削减。这保护了 BGT 委托者,并将更多责任放在验证节点身上,确保用户和协议在使用他们的 BGT 参与流动性证明时更加安心。

更公平的区块生产

在V1中,验证节点生产新区块的机会随着委托给他们的 BGT 数量的增加而增加。在V2中,区块生产得到了改进,所有验证节点现在都有平等的机会生产新区块,区块奖励将根据他们的委托 BGT 成比例增加。这确保了更公平的奖励分配,并鼓励更多验证节点加入网络,同时仍保持 BGT 委托的重要性。

验证节点数量上限

验证节点数量上限已从 100 增加到 128 ,未来可能还会更多。众所周知,增加更多验证节点的上限可以改善去中心化和网络安全。去中心化很重要!

架构升级

最后,Berachain V2从 Polaris 架构迁移到 BeaconKit,这将提高网络性能。BeaconKit 允许使用任何以太坊执行客户端,如 Reth、Geth 或 Nethermind,使 Berachain 与 EVM 完全兼容。此升级解决了V1中遇到的瓶颈,确保了更顺畅的交易处理。如果您想了解更多,请阅读。

这些变化对 Infrared 的影响

V2引入的变化是网络向前迈出的重要一步。Berachain V2将为用户、开发人员和验证节点提供更好的体验,使整个生态系统受益。

BGT 转向纯粹的经济角色,通过明确 BGT 的价值主张,增强了围绕 iBGT 构建的生态系统。我们已经看到许多协议采用 iBGT 来构建飞轮,并期望这一趋势在改进的 BGT 设计下继续发展。

关于验证节点的 BERA 质押,我们正在计划一些令人兴奋的事情,很快会与大家分享。

接下来是什么?

我们正在全力完成新的、公开的 Infrared 测试网部署,希望尽快上线供用户和合作伙伴使用。

资产荒时代 4E一站式交易助你寻找新机遇缩略图

资产荒时代 4E一站式交易助你寻找新机遇

在全球经济动荡的背景下,国内资产荒现象日益凸显,投资者面临资金无处可投的困境。4E平台以其一站式的金融产品交易服务,为投资者提供了多元化的资产配置和风险管理策略,帮助投资者在资产荒时代实现更好的投资回报。

资产荒时代 4E一站式交易助你寻找新机遇

一、资产荒现象解析

“资产荒”是指市场上可投资的低风险高收益产品日益稀缺,而货币供应量却持续增加,导致资金追逐资产的现象。这种现象的出现,与我国经济告别高增长进入新常态、投融资需求下降、货币政策宽松等因素密切相关。在资产荒的背景下,不仅高收益低风险的资产难觅踪迹,连低风险理财产品的收益也持续走低。

二、资产配置的挑战与机遇

面对资产荒,投资者需要重新审视和调整自己的资产配置策略。传统的投资渠道,如房地产市场、股市、基金理财等,由于市场波动和政策影响,风险和收益预期均发生了变化。因此,寻求多元化的资产配置,利用不同市场间的不完全相关性,成为应对资产荒的有效策略。

资产荒时代 4E一站式交易助你寻找新机遇

三、4E平台的一站式服

4E平台作为一家金融资产交易平台,为全球用户提供了加密货币、外汇、股票、大宗商品、指数等多种金融产品。这些产品覆盖了不同的市场和风险等级,为投资者提供了丰富的选择。

1. 加密货币:作为新兴的资产类别,加密货币市场具有高波动性和潜在的高收益,适合风险承受能力较强的投资者。

2. 外汇市场:外汇交易提供了全球货币对的交易机会,投资者可以通过外汇市场的波动获取收益,同时外汇市场的流动性和交易时间长也是其优势。

3. 股票投资:尽管股市面临低迷,但长期来看,优质股票仍然是资产配置的重要组成部分,尤其是美股市场,其成熟度和多样性为投资者提供了长期投资的机会。

4. 大宗商品:大宗商品市场与宏观经济周期密切相关,通过投资大宗商品,投资者可以对冲通胀风险,同时获取周期性收益。

5. 指数投资:指数基金提供了跟踪市场整体表现的机会,适合追求市场平均收益的稳健型投资者。

资产荒时代 4E一站式交易助你寻找新机遇

四、利用不同市场间的不完全相关性成新方向

在宏观经济告别高增长的背景下,国内正逐步步入资产荒时代。央行持续降息以化解债务压力,但这也导致了大类资产收益率罕见地低于3%。房地产和股票投资面临亏损,而存款、国债收益率也持续下降。在这种情况下,保险、基金和银行理财的收益率也不断下降。与此同时,加密货币、美股、指数、黄金大宗等却在不断突破新高。这种境内外收益率的差异驱动着资金正在寻找新的出口。

因此,寻求多元化的资产配置,利用不同市场间的不完全相关性,成为应对资产荒的有效策略。4E平台作为一家金融资产交易平台,为全球用户提供了加密货币、外汇、股票、大宗商品、指数等多种金融产品。这些产品覆盖了不同的市场和风险等级,为投资者提供了丰富的选择。

通过合理利用4E平台的资源,投资者可以在保持风险敞口不变的情况下,实现资产收益的最大化,从而在资产荒的挑战中寻找到新的机遇。

FMG 深度研报:DePIN 赛道从下至上的 5 个机会缩略图

FMG 深度研报:DePIN 赛道从下至上的 5 个机会

作者:EO@codeboymadif, Lisa@lisal1l1, Ryan@Ryan0xfmg, Kelv@KelvinYuan13, Simon 来源:FutureMoney Group

Part 01 What and Why DePIN

利用加密经济部署现实世界物理基础设施其实由来已久,一些典型项目成立时间可以追溯到 2013 年,他们从通信、存储、计算等领域进行了非常有价值的探索,直到今天这种模式拓展到更多领域,如 AI、能源、数据收集等,生态也迎来阶段性繁荣。

DePIN 代表了一种去中心化应用的范式:节点经济,矿工模式,改造现实世界。

· 相比中心化基础设施,DePIN 拥有较高单位经济效应。DePIN 的智能合约、设备标准化、经济模型取代 CePIN 硬件铺设、运营、管理,将带来 75%-90% 的成本节约。

· 代币经济是节点网络拓展以及形成网络效应的关键,当代币价格上涨时,经济激励使得节点规模快速增长。

· 如果说 Web2.0 通过各种输入设备,让人类实现和互联网的交互,Web3.0 则是通过 DePIN,让物理硬件实现和区块链的交互。

我们经历过 DeFi Summer、NFT 和元宇宙狂热。下一波热潮是否会转向 DePIN?2020-2021 年间,DeFi 的市值增长了近 100 倍,从 17.5 亿美元最高增长至 1722 亿美元。假设在这轮牛市中,DeFi 总市值增长 10 倍,DePIN 的总市值达到 DeFi 的 50%,那么 DePIN 的总市值将达到 5000 亿美元,至少还有 20 倍的增长空间。根据 Messari 预估 2028 年 DePIN 市值达到 3.5 万亿美元,DePIN 潜在增长空间有 120 倍

FMG 深度研报:DePIN 赛道从下至上的 5 个机会

我们认为 DePIN 架构从下至上存在以下 5 个机会:

1.DePIN 区块链底层设施。DePIN 区块链底层设施充当 DePIN 应用的结算层,为交易、代币经济模型运转提供支持。

2.DePIN 中间件。DePIN 中间件连接底层基础设施和上层应用的中间件层,提供标准化的接口和工具。这一层是 DePIN 生态系统的关键枢纽。

3.DePIN 上层应用。DePIN 上层应用是基于 DePIN 基础设施和中间件层构建的各类应用程序,为用户提供实际的服务和价值。这是 DePIN 生态系统的前端和落地场景。

4.衍生机会:边缘 AI。边缘 AI 是 DePIN 生态系统的一个重要延伸方向,利用 DePIN 网络部署边缘计算和 AI 应用,在本地处理数据并提供智能服务。

5.衍生机会:RWA。将 DePIN 与现实世界资产 (Real World Assets, RWA) 相结合,创造新的金融产品和服务。

FMG 深度研报:DePIN 赛道从下至上的 5 个机会

Part 02 DePIN 底层设施存在的机会

未来可能受益于 DePIN 生态的 L1/L2

· DePIN 是 Solana OPOS(Only Possible On Solana)概念主打的赛道,受益于这一定位,Solana 从 FTX 阴霾中绝地反击,市值从最低 36 亿美元增长至 898 亿美元,增长了 25 倍。未来 DePIN 仍然会是 Solana 的重要叙事。头部项目的选择往往代表一种趋势,Helium 将主网迁移到 Solana 起到明显示范效应。根据这一逻辑,Polygon、Arbitrum 都是未来可能受益于 DePIN 增长的底层链。

· 提供 DePIN 模块化基础设施的专有链将受益于生态和头部应用的增长,譬如 IoTeX 和 Peaq。

· 和 AI 概念紧密结合的公链,其生态必然延伸至上游 DePIN 板块。譬如 Near 围绕 AI 展开公链叙事,Aptos 与微软合作,尝试将 AI 与 Web3 的产品结合起来。

FMG 深度研报:DePIN 赛道从下至上的 5 个机会

通用型中间件是 DePIN 皇冠明珠

将物理基础设施与区块链无缝连接起来需要强大的中间件。目前可信硬件主要通过官方授权控制,防作弊则通过治理和矿工管理工具的方式实现。

通用型中间件发展难点:

· 技术难度较大,仅凭技术很难防止作弊和可信数据上链。

· 整体 DePIN 市场规模有限,导致中间件市场空间有限。

一旦通用型中间件突破,将大大降低 DePIN 应用门槛,并促进生态繁荣,而中间件将是直接受益者。

FMG 深度研报:DePIN 赛道从下至上的 5 个机会

DePIN 矿工服务层:矿工的无国界公会,人民的网络

矿工服务层位于 DePIN 生态最底层,是 DePIN 应用必不可少的组件,主要分为硬件生产和节点运维两大类:

· 硬件生产商负责提供构建网络所需的物理设备,如服务器、存储和网络设备等。硬件生产商通过创新和改进产品来满足特定需求,可以开拓新的市场,是 DePIN 生态增长的直接受益者。因此实力强大的硬件生产商会以多种形式参与 DePIN 生态,除了硬件支持,还包括资金支持。种种原因使得硬件生产商成为 DePIN 发展中一股重要的推动力量。

· 硬件运维项目帮助节点进行部署及运维,从中收取一定服务费用,该模式在牛市后期将有较好的表现。在 DePIN 飞轮效应下,牛市后期代币价格高涨,节点回本周期将非常快,普通用户通过支付服务费用,能快速开始盈利。

潜在机会:

1、具有全球分布、快速生产可信设备的硬件生产商。

2、无需许可的 DePIN 节点部署平台将扮演类似链游公会角色。

3、期待更好的 DePIN 工具层项目出现、并捕获价值。设备数据聚合平台是优质的用户入口。目前 DePIN 数据仍然不够透明,一些判断项目发展情况的关键数据难以获取,譬如设备节点数、矿工回报对比、需求端用户数和收入,导致决策难度高,DePIN 工具层存在空缺机会。

FMG 深度研报:DePIN 赛道从下至上的 5 个机会

Part 03 DePIN 应用价值评估逻辑:找到不变的规律

DePIN Protocol 是一个双边市场,供给端提供服务,需求端贡献收入,因此应该从供需两端进行价值评估。

FMG 深度研报:DePIN 赛道从下至上的 5 个机会

需求端价值判断

相比从概念、行业和供给端去划分,我们认为对需求市场的判断更加重要,因此我们尤其关注面向 C 端市场的项目。

对需求端的两个判断:

· 面向 C 端的应用,高利润场景更多,想象空间更大。

· 面向 AI 数据需求的应用,还处于非常早期。

FMG 深度研报:DePIN 赛道从下至上的 5 个机会

需求端终局大胆猜测:Web3 手机和新型共享经济

1、加密手机将是突破 C 端市场的关键

通过定制化手机,手机可以内置 DePIN 应用,并通过空投激励,实现快速增长。面向 C 端往往需要通过补贴获取市场。以 Helium Mobile 为例,收入为用户支付的 20 美元套餐。由于需要向 T-mobile 支付合作费用,当 70-80% 下载服务由 Helium 自身网络提供时,刚好到盈利点(Messari,截至 2023 年 12 月迈阿密的比例是 55%),一旦超过盈利点,项目将实现自造血,DePIN 飞轮将运转的更好。

2、打造 Web3 版本的共享经济网络

依托 Web3 移动端应用,通过有效代币激励,未来可实现大规模的共享经济/社交网络。

FMG 深度研报:DePIN 赛道从下至上的 5 个机会

供给端价值判断

过去二十年里,硬件设备价格急剧下降,使个人也能够充当基础设施服务提供商。

我们对供给市场的判断标准:

· 产品是否容易标准化?产品越标准化则越容易金融化,譬如算力根据时长定价,配置不同价格不同。

· 设备成本是否够低?成本越低,潜在供给规模越大,且越去中心化。

FMG 深度研报:DePIN 赛道从下至上的 5 个机会

供给端终局:关注可以快速规模化和标准化的项目

· 6 个赛道的节点设备成本大多为中等($300-$1000),可以达到消费级。其中算力中高端 GPU(A100、H100)较昂贵,而 AI 需要专业性我们也将其定义为高成本,能源中部分设备超过 $1000。

· 而在产品标准化方面,普遍面临标准化低的问题,Wireless 中带宽属于标准化产品,其他细分领域如 5G、WiFi 均为非标产品。

FMG 深度研报:DePIN 赛道从下至上的 5 个机会

Part04 DePIN 应用层潜力分析

根据 Messari 统计,到 2023 年,DePIN 应用已经有超过 650 个项目,涵盖六个子赛道:计算、AI、无线网络、传感器、能源和服务。

FMG 深度研报:DePIN 赛道从下至上的 5 个机会

01 计算是 DePIN 发展最成熟的板块

计算(算力+存储)是 TAM 最大的赛道,2023 年企业云服务收入达到 2700 亿美元(Synery Research)。

· 需求端:计算板块需求来自中小企业以及个人,其中受益于 AI 的增长,GPU 需求最旺盛。

· 供给端:Akash 拥有包括 CPU、GPU 和存储在内的多样化硬件网络,Render 有大量的 GPU。io.net 从自己的网络以及其他平台获取了大量的 GPU。

FMG 深度研报:DePIN 赛道从下至上的 5 个机会

计算板块 2 个趋势判断:

1、GPU 算力市场是目前最有想象空间的细分领域,我们认为该领域存在更多二级市场机会,并且未来会走向头部集中和横向整合。

GPU 算力平台增长逻辑:

1、全球范围的 GPU 短缺,需求飞涨

2、与 AI 概念同频共振

3、地缘冲突下的世界算力货币

去中心化 GPU 平台发展趋势是通过 Token 激励吸引算力头部项目,以及资源横向整合。目前面临需求和供给匹配失效的风险,需要需求增长或者模式创新支撑当前市值。未来去中心化 GPU 平台增长点,供给端在于绕开 B 端,向 C 端算力拓展,构建边缘计算网络,需求端在于和下游需求端紧密结合或者自建应用场景。

FMG 深度研报:DePIN 赛道从下至上的 5 个机会

2、存储板块将走向存算一体,成为一种独特的 Layer1。

一些大型存储 DePIN 在叠加计算之后,会成为独特的 Layer1——可以提供去中心化存储和计算能力的区块链。相比当前的区块链,这种独特的 Layer1 能大幅降低链上存储和计算成本,一些需要大规模存储和复杂逻辑的应用都可以在这里实现,如内容平台、社交、游戏等。

FMG 深度研报:DePIN 赛道从下至上的 5 个机会

02 DePIN AI 通过去中心化方式实现开放的 AI 模型平台、AI 数据、AI Agent

Bittensor 是 DePIN AI 的典型模式,它创建了一个去中心化的机器学习 (ML) 网络,激励人工智能的发展和去中心化。Bittensor 在 Web3 AI 大模型赛道具有先发优势,是该领域龙头项目,其模式迭代和生态构建正在稳步发展。预期在 AI 叙事爆发或者优质的子网带动下,Bittensor 有望再进一个台阶。

FMG 深度研报:DePIN 赛道从下至上的 5 个机会

ORA 有着比 Bittensor 更强大的可拓展性。Bittensor 的子网目前申请成本巨大,需要质押相当量级的 TAO 代币,而实现了链上 AI 预言机的 ORA,将会有更多的生态 (AI Agent / AIGC NFT / AI-powered Protocol 等项目) 在其链上 AI 技术上绽放。

FMG 深度研报:DePIN 赛道从下至上的 5 个机会

03 传感器:最有增长潜力、AI 驱动的新板块

目前传感器类,特别是以数据为重点的项目较少,这意味着更多的一级市场机会。

传感器板块价值分析:

市场空间是否足够大?下游需求市场的规模决定了项目天花板。

数据价值是否足够高?数据的独特性和应用场景决定了传感器类 DePIN 应用的价值。

传感器板块的增长逻辑:

1、AI 驱动的新板块

2、从底层逻辑上需要去中心化

3、自带矿机供应链提供了更丰富的资金来源,盈利周期更长。

FMG 深度研报:DePIN 赛道从下至上的 5 个机会

04 无线网络:竞争激烈,运营难度高

FMG 深度研报:DePIN 赛道从下至上的 5 个机会

DePIN 通过去中心化基站、路由器等物理设备,为物联网、终端用户提供信息传输服务。主要难点在于,需求分散,去中心化网络难以满足需求。需要借助传统运营商网络力量拓展市场,譬如 DePIN 作为传统运营商的补充、或者为他们提供数据。因此无线通信领域核心竞争力在于和传统运营商的合作。(Helium Mobile 在市场冷启动阶段借助了 T-mobile 的力量)。

05 能源网络:需要借助中心化网络实现最小可行产品

DePIN 能源网络通过分布式供电减少能源传输,提高能源利用效率,最终实现 VPP 虚拟电厂。随着能源采集和储能技术的发展,个人可以成为能源供应者,但传输则面临较高成本。智能电网通过用电数据采集,可以指导供电网络的构建,构建相对容易。因此 DePIN 能源发展最快的细分领域会是智能电网。和无线通信网络类似,发电类项目需要通过和中心化电网合作实现模式运转。

我们对于 DePIN 能源的判断:

· VPP(Virtual Power Plant,VPP)虚拟电厂是 DePIN 能源终局:通过 DePIN 激励模式,将小型供电网络和需求端连接起来,形成良性循环,最终实现 VPP 虚拟电厂。

· 目前 DePIN 能源项目正逐步实现 VPP 的部分环节,如数据、电表或者发电。

06 DePIN + 消费级产品:营销模式新革命

自从 DePIN 赛道去年十月份爆火以来,市场上涌现出大量的 DePIN 消费级产品,包括手表,戒指,电子烟,充电宝,游戏机等等,通过 DePIN 激励的方式,促进设备的销售和高频使用。

DePIN + 消费级产品的特点:

· 市场规模天花板高:消费级设备市场空间巨大,在 Web2 世界当中估计在数万亿美元至上百万亿美元之间,包括各种消费品。

· 触达 C 端用户:Web3 用户大多是交易型用户,与现实世界的联系相对较少,缺乏与用户生活的密切关联。然而,DePIN 消费品的商业模式和运营方式可以让 Web3 的应用融入到现实生活中,与用户建立联系并增加用户黏性,从而使其真正融入现实世界。

· 高回报预期促进传统品牌 Web3 转型:新型 Web3 营销模式让商品不仅有使用价值,还有盈利属性,这种模式有助于产品快速占领市场,从而显著提升盈利能力。

消费级 DePIN 硬件潜在风险和不足:

受制于单一的代币激励,买硬件撸毛用户居多,而非有真实需求用户,和目前 DePIN 硬件设备和软件之间存在验证问题类似,需要有更多的防作弊解决方案来攻克。

FMG 深度研报:DePIN 赛道从下至上的 5 个机会

Part 05 DePIN 衍生的两大新机会

01 DePIN 供应端下半场突破口在 Edge AI:手机和 PC 端

手机和 PC 是最普及的硬件设备,无需加密货币经验,是绝佳的破圈入口。可以通过两种方式加入 DePIN 网络:

· 运行节点程序,成为 DePIN 硬件的控制端。

· 直接提供传感器数据或者计算资源。

FMG 深度研报:DePIN 赛道从下至上的 5 个机会

加密手机崛起的机会:4 大应用场景,通过潜在收益撬动市场

· 移动端加密 App。加密手机内置的加密应用市场,是 dAPP 绝佳的用户入口。手机作为人们日常使用最多的设备,给加密应用的普及提供了平台。

· 边缘计算。边缘计算是一种明确的发展趋势。数据处理和分析任务从中心化数据中心转移到更靠近数据源的地方,从而提高效率、降低成本。代币经济激励结合加密手机可以加速边缘计算发展进程。

· 代币空投。对于手机购买者而言,空投可以带来经济回报。对于项目方而言,以加密手机为对象进行空投,使得代币持有分散度高,有利于 Meme 传播或者消费级应用冷启动。

· DePIN 挖矿。对于 DePIN 项目而言,加密手机的传感器、计算模块是天然的供给端。手机作为 DePIN 设备可以参与 DePIN 经济,获得奖励。

加密手机竞争关键

· 手机硬件生产壁垒较小,手机生产供应链成熟, 生产周期短、成本可控,使得售价低,目前推出的加密手机定价 100 美元到 1000 美元不等。

· 手机交付的难点在于销售网络。具有互联网销售和线下地推网络的项目将更容易获取市场。

· 应用生态是加密手机形成壁垒的关键,一旦形成网络就会有机会成为 Web3 的流量入口。

· 其他考验:硬件迭代,考验项目的资金实力和运营能力。

FMG 深度研报:DePIN 赛道从下至上的 5 个机会

加密手机终局:DePIN + 共享经济

Web2 时代,通过互联网,个人汽车、房屋聚集起来形成庞大的服务市场,使个人资产实现变现。

Web3 时代,通过代币经济,将闲置和分散个人硬件设备组织起来形成生产力,使个人硬件设备变现。基于 Web3 手机的软件还将构建 Web3 服务基础设施,革新 Web2 共享经济模式,覆盖餐饮、出行、住宿等各个方面,手机端 Web3 应用具有以下特点:通过加密经济进行营销创新、代币空投、高频社交和消费级产品。

FMG 深度研报:DePIN 赛道从下至上的 5 个机会

02 DePIN 硬件和数据资产借助 RWA 模式,实现链上金融化

DePIN 物理硬件代币化:

· 释放 DePIN 硬件流动性。DePIN 物理硬件代币化后,可以实现收益分离、抵押借贷等 RWA 衍生项目,无需采用实物交割即可对 DePIN 收益权进行交易。

· DePIN 收益为稳定币提供生息来源。

· DePIN 硬件资产区块链资产证券化,发行传统金融类似 Reits 模式的产品,例如将 GPU 打包上链,做成 GPU Index。

数据资产(NFT)代币化:

· 将数据资产标准化、代币化是促进其在市场上流动的关键。

· DePIN 数据资产赋能链上金融。在数据资产代币化基础上可以创建以数据为支持的金融产品,从而实现创新应用,譬如,DIMO 的汽车数据可以用于链上车贷。

FMG 深度研报:DePIN 赛道从下至上的 5 个机会

总结与预测

· 区块链向现实世界拓展是一个必然趋势,DePIN 代表了一种去中心化应用的范式:节点经济,矿工模式,改造现实世界。按照 Messari 去年的预估,2028 年 DePIN 市值达到 3.5 万亿美元,按照当前 Coingecko 上 DePIN 类别 300 亿美元的规模,可以得出,潜在增长空间 20-120 倍的结论。

· Layer1/2 是生态增长最确定以及稳定的受益者,本轮周期支持 DePIN 生态的公链将获得最大红利。

· 目前中间件主要是 DePIN 专用 Layer1 的一个重要组件,尽管通用型中间件技术难度较大,我们仍然期待有所突破,这将大大促进 DePIN 应用繁荣,而中间件会是繁荣的直接受益者。

· 和游戏公会类似,DePIN 矿工服务层有望发展出无国界硬件矿工公会,当前潜在机会是全球硬件供应链和节点部署服务,DePIN 数据聚合工具层也存在空缺机会。

· 计算板块中,GPU 是发展最快、最成熟的细分领域,未来 GPU 平台将走向横向整合和垂直打通;此外基于存储叠加计算的「算存一体」将是新的叙事,传统存储如 Filecoin、Arweave 将焕发新生机。

· DePIN AI 发展现状:以 Bittensor 为首的 AI 大语言模型利用先发优势逐渐吸纳众多赛道龙头项目,同时类似 Fetch.ai 的其他大模型也在积极布局当中,竞争激烈,格局不明朗,未来会像 2000 年互联网爆发一样,迎来千模大战,各家都有机会。

· 传感器是 AI 激活的潜力板块,专有设备销售收入将给传感器项目提供更多创新空间和抗风险能力。

· 无线网络和能源网络的模式逻辑类似。无线网络终局在于绑定大型运营商,更可能从第三世界突破;能源网络终局是虚拟电厂(VPP),目前项目从 VPP 各个环节入手进行探索,赛道仍处于发展早期。

· 基于手机和 PC 的 Edge AI 是 DePIN 发展下一个趋势,通用型 Web3 终端设备也将催生新型 Web3 共享经济,更多面向 C 端的高频消费级 Web3 应用将逐步涌现。

· DePIN 是一种新的 RWA 资产发行方式,与链上 DeFi 结合将释放 DePIN 硬件和数据的流动性。

报告原文:https://docsend.com/v/x2zdt/futureofdepincn

感谢支持: DePhy、Exabits、Ora、EthStorage、Hotspotty、IoTeX、DePIN Hub 对本报告的提供的指导和建议。

Reference:

https://messari.io/report/state-of-depin-2023

https://public.bnbstatic.com/static/files/research/depin-an-emerging-narrative.pdf

https://mirror.xyz/sevenxventures.eth/Hx4AScWLZf4HrCl1IoumFTq1L20e3SzF-9XEkgWmrG4

https://www.galaxy.com/insights/research/understanding-intersection-crypto-ai/

https://gpus.llm-utils.org/nvidia-h100-gpus-supply-and-demand/

https://messari.io/report/the-depin-sector-map

坎昆升级四个月之后,Layer2们发展如何?缩略图

坎昆升级四个月之后,Layer2们发展如何?

原文标题:Explanation and analysis of the Ethereum update「Dencun」 4 months after its implementation

原文作者:Filippo Pozzi,DeFi 研究员

原文编译:白话区块链

在名为「Dencun」的更新之前,Layer 2 已经在生态系统中扮演了重要角色。然而,在这个著名更新的推出后,Layer 2 的爆发已经达到了之前难以想象的水平,使其成为整个生态系统扩展和效率提升中不可或缺的元素。今天我们专注于分析这个更新的实际效果,大约在其正式发布四个月后。这段时间使我们能够检查大量的数据,并评估更新的实际成功或失败。

1.什么是 Dencun

「Dencun」是于 2024 年 3 月 13 日发布的以太坊更新,它将执行层(Execution Layer)的「Cancun」提案和共识层(Consensus Layer)的「Deneb」结合在一起。该更新引入了一系列以太坊改进提案(EIPs),旨在改善以太坊网络的不同方面。其中,EIP-4844 ,也被称为 Proto-Danksharding,在 Layer 2 的可扩展性方面具有重要意义,通过创建增加网络内数据管理可能性的 Blobs。如何实现呢?

在不涉及太多技术细节的情况下,我们可以将「blobs」视为数据包(256 KB),代表在 Layer 2 上发生的一系列交易。然后,这些数据包被打包并随后发送到以太坊网络进行验证。通过 txcity.io,我向您展示一个图形示例。

坎昆升级四个月之后,Layer2们发展如何?

在这里我们看到的是两个区块链的表示:左边是以太坊,右边是阿比特拉姆(Dencun 更新的网络),每个移动的人代表一笔交易。

让我们聚焦于右侧,它代表了 Arbitrum 区块链,是以太坊的主要 Layer 2 之一。正如您所看到的,所有使用该区块链的人在上交由 Arbitrum 区块链代表的传送带之前,在柜台上留下一张纸条。这张纸条代表在 Arbitrum 内发生的交易的收据。因为 Arbitrum 使用了一种称为乐观 Rollup 的机制,它最初将所有交易都视为有效,基于它们诚实的假设。随后,交易会向每个人公开,并在一定时间内提供复核和争议的机会。

一旦达到一定数量的交易,如视频所示,「邮差」通过旋转收集所有交易,并形成我们所定义的「blob」。随后,如果我们仔细观察,当邮差开始指向指示以太坊方向的箭头时,我们会看到邮差的图像也出现在屏幕的左侧,代表以太坊区块链。在这里,邮差手持他的「blob」,即在 Layer 2 上发生的一系列交易的数据包,并进入代表主要区块链的以太坊「巴士」,即一个区块。

正如视频所示,这个过程与「正常」交易一样简单。实际上,邮差与登上以太坊区块所代表的众多乘客之间没有区别。区别在于,邮差带来了一系列交易,而其他人代表原生于以太坊网络的单笔交易。

通过这种「简单」的创建 Blob 的过程,各个 Layer 2 上的手续费已经降低了 90% 以上,从而几乎实现了在这些区块链内免费操作,因此导致了所有主要 Layer 2 中的交易量激增。

现在,我们将通过链上数据来审视这次更新带来的改进。

2.主要的 Layer 2 交易的平均费用

坎昆升级四个月之后,Layer2们发展如何?

通过观察这张图,我们可以对今天的讨论进行总结,它表示了在实施 Dencun 之前和之后发生的平均交易成本。

从图中可以清楚地看到,从 3 月 13 日开始,诸如 Arbitrum、Optimism 或 ZkSync 等 Layer 2 的交易平均成本瞬间下降,从约 0.50 美元的数值降至接近 0 的数值。

令人惊叹的是,尽管图表中基础区块链上的交易成本出现了一些暂时的高涨,但所有其他主要的 Layer 2 都能够保持稳定,交易成本接近于 0 ,并且不会遭受类似 Solana 这样的区块链所遇到的区块拥堵问题。

交易成本的降低打开了大门,让各种各样的人们有机会进入这个行业,即使只有较为有限的投资。这引发了所有主要 Layer 2 上的活动浪潮,带来了真正的运营繁荣。

坎昆升级四个月之后,Layer2们发展如何?

另一个证实主要 Layer 2 内活动更加活跃的指标无疑是在区块链上验证的交易数量。

坎昆升级四个月之后,Layer2们发展如何?

来源:Dune @glxyresearch_team/ EIP-4844 Blobs

正如上图清楚显示的那样,除了 zkSync 之外,其他 Layer 2 都记录了交易数量的显著增加,从而导致了交易量的大幅增长,其中 Base 在 4 月初和 Arbitrum 在 5 月底尤为重要。

3.每个区块的平均 Blob 数量

坎昆升级四个月之后,Layer2们发展如何?

来源:Dune @hildobby/ Ethereum Blobs

该图提供了区块链网络运行状态的详细视图,突出显示每个以太坊区块中包含的「blob」数量。目标线和限制线代表网络本身支持的理想和最大值。这些参数对于优化区块链的整体效率并避免过多开销至关重要。积极监测每个区块中的「blob」数量对于确保网络能够有效处理交易负载、同时保持稳定和性能至关重要。因此,这些数据对于让运营商了解网络的健康状况仍然至关重要。

4.结论

毫无疑问,这次更新显著降低了交易成本,尽管主要的 Layer 2 上交易量增加,但其效果仍然持续。

正如 Vitalik Buterin 在他的文章《作为以太坊文化扩展的 Layer 2 》中强调的那样,Layer 2 已成为区块链领域的重要组成部分,并将继续增长其重要性。这归因于其越来越广泛的基础设施整合,使其在以太坊生态系统中的使用日益重要。

我想以引述上述文章的一部分作为结尾,其中 Vitalik 回答了关于如何成功发展 Layer 2 的文化的问题。他的回答,我认为,非常迷人,并反映了开发者和 DeFi 爱好者真正的、根本性的精神,真实的那个精神。

一文深度解析「具身智能」百人图谱 科技巨头的AI人才之战缩略图

一文深度解析「具身智能」百人图谱 科技巨头的AI人才之战

作者:魏玛

人才与能源,正在成为科技公司AI战役中必夺的高地塔。

“这场AI的人才之战,是我见过的最疯狂的人才争夺战!”马斯克在推特上直言。

就在5月28日,这位特斯拉CEO创办的AI初创公司——xAI在官网宣布融资60亿美元,用于打造超级计算机,马斯克称之为“超级计算工厂”。诚然,这需要更多人才。马斯克甚至表示,xAI如果不提供offer,人就被Open AI挖走了。

在这场谁也看不到未来确切形状的人工智能大模型战役中,投资一个靠谱的团队,对于投资公司来说显然是最有力的保障。这也是这场人才争夺战愈演愈烈的重要原因。

不过,“真正优秀的人才通常不会主动找工作,因此需要去挖那些你看好的人才”。OpenAI创始人Sam Altman早年在他的文章中提及。

信息差是这场人才争夺战中决定胜负的关键。

我们的第一篇人才图谱聚焦这个科技巨头们重金押注的领域——具身智能。

如果说这场AI战事的未来难以预测,具身智能或许是其中一种终极形态。英伟达CEO黄仁勋更是表示,下一个AI浪潮将是具身智能。

硅兔尝试梳理了美国大公司,两个AI黄浦军校——谷歌和英伟达的具身智能人才图谱以及在其中的华裔大佬,或许能为希望在其中进行创业或投资的读者提供按图索骥的参考

「1」根据谷歌和英伟达重点具身智能论文和项目一共梳理114名业界实战大佬,其中谷歌占比60%,英伟达40%,男多(90%)女少(10%)。

「2」8%的研究员学术水平比肩美国科学院院士。59%的研究员属于高水平段位。

「3」78%的研究员最高学历水平为博士,研究生占比18%,本科生仅占比4%。

「4」华裔在谷歌和英伟达具身智能研究员中占比约27%。

「5」斯坦福向谷歌和英伟达输送了最多具身智能大佬,其次是CMU和MIT,三家学校输送的人才占比约1/3。

欲知数据详解及华裔大佬履历见下?

「1」

共计248名研究员参与了谷歌和英伟达具身智能研究,剔除62名未在Google Scholar建档的研究员,剩余186名研究员中,业界力量占六成、学界力量占四成。

一文深度解析「具身智能」百人图谱 科技巨头的AI人才之战

具体来看,谷歌独立研究能力更强,英伟达借助了多个顶尖学校的研究资源。参与英伟达机器人研究的高校研究人员达到45人,占比一半(51%);相较之下,谷歌的这个比例不到三分之一(27人,28%)。

「2」

聚焦业界人才,谷歌和英伟达114位研究员中,男性占比约90%,华裔占比约27%,博士学历占比约78%。

一文深度解析「具身智能」百人图谱 科技巨头的AI人才之战

在性别比例和族裔方面,谷歌和英伟达略有差异,谷歌似乎对女性更友好,有11名女性科学家加入,而英伟达只有2名。

英伟达华裔的比例更高,占比达40%,而这一比例在Google只有20%。

「3」

斯坦福向谷歌和英伟达输送了最多具身智能大佬,其次是CMU和MIT,三家学校输送的人才占比约1/3。

一文深度解析「具身智能」百人图谱 科技巨头的AI人才之战

一文深度解析「具身智能」百人图谱 科技巨头的AI人才之战

114位研究员最高学历毕业的院校总共有51所大学。其中,斯坦福大学有16人,卡内基梅隆大学有14人,麻省理工学院有7人,这三所学校的人数占比约三分之一,而其他大多数学校只有一名学生。

绝大部分研究人员来自美国的院校,但欧洲也有两所学校在具身智能领域产生了重大影响:英国伦敦帝国理工学院和牛津大学,毕业于这两所学校的研究人员共有8人。牛津大学在深度学习方面积累了丰富的经验,并且谷歌收购DeepMind后与牛津大学展开了合作,引入了深度学习领域的专家。例如,AlphaGo的研发团队中就包括了3名牛津大学在职教授以及4位前牛津大学的研究人员。

「4」

8%的业界研究员学术水平比肩美国科学院院士。59%的业界研究员属于高水平段位。谷歌研究员的学术能力相较英伟达更强。

一文深度解析「具身智能」百人图谱 科技巨头的AI人才之战

我们采用被引用量和“h”指数来衡量学术水平。“h”指数是一位作者至少具有相同引用次数(h)的最高发表论文数量。例如:某人的h指数是20,这表示他已发表的论文中,每篇至少被引用了20次的论文总共有20篇。

一般来说,h指数在10以上可以被认为是较高水平,h指数18属于高水平,而成为美国科学院院士的一般要求是45以上。

这114名企业研究人员的h指数表现出了他们相当强的研究水平:89%的人的h指数大于10,59%的人的h指数大于18,而有8%的人的h指数甚至超过了45。

进一步比较谷歌和英伟达的学术水平会发现,谷歌研究人员影响力明显要比英伟达高。例如,谷歌企业研究人员引用量平均数和h指数平均数是12596和23,而英伟达的这一组数据为6418和21。

「5」

谷歌和英伟达各有约1/10的具身智能研究员离职加入其他公司。

谷歌70人中有7人离开,占比10%。目前在英伟达、苹果、特斯拉、1x、OpenAI、Figure AI等企业就职,总体上来说离开谷歌的人才较少,绝大多数人才在Google DeepMind工作。

其中,Scott Reed 2016 年加入 Google DeepMind 从事控制和生成模型方面的工作,后加入英伟达成为GEAR 团队的首席研究科学家。

一文深度解析「具身智能」百人图谱 科技巨头的AI人才之战

注:谷歌离职研究员及去向

英伟达44名具身智能研究人员有4人离开,占比9%。一人去了谷歌,一人去了Allen Institute for AI研究机构,另外两人选择创业。

Igor Mordatch的研究兴趣包括机器学习、机器人学和多智能体系统,他曾是OpenAI的研究科学家,在斯坦福大学和Pixar动画工作室担任访问研究员。他共同组织了OpenAI学者指导计划,并担任AI4All、Google CS研究指导计划和Girls Inc.的导师和教学助理。离开英伟达后在Google DeepMind担任研究科学家。他发布文章约123篇,Google Scholar h指数51,被引用量18752次。

一文深度解析「具身智能」百人图谱 科技巨头的AI人才之战

注:英伟达离职研究员及去向

「6」

“美国科学院院士”学术水平(h指数大于45)的研究员,谷歌得6人,英伟达得1人。他们分别是(按照指数高低):

谷歌

Nicolas Heess

一文深度解析「具身智能」百人图谱 科技巨头的AI人才之战

DeepMind研究科学家。

2011年发表论文《Learning a Generative Model of Images by Factoring Appearance and Shape》,彼时正在攻读爱丁堡大学的神经信息学与计算神经科学博士学位,毕业后在DeepMind工作至今。

早期研究聚焦在机器视觉、机器学习、图形/增强现实/游戏等领域,目前是英国UCL计算机系荣誉教授。

发布约224篇文章 ,Google Scholar h指数65,被引用量48917次。

Martin Riedmiller

一文深度解析「具身智能」百人图谱 科技巨头的AI人才之战

DeepMind研究科学家。

1986-1996年在德国University of Karlsruhe(卡尔斯鲁厄大学,现在的卡尔斯鲁厄理工学院)学习计算机专业,并取得博士学位。毕业后他一边在学术界任教,一边创业。

2002年- 2015年先后在University of Dortmund、University of Osnabrueck、University of Freiburg担任教授,带领Machine Learning Lab;2010 -2015年在德国巴登创立Cognit – Lab for learning machines。

2015年加入Google DeepMind全职工作。

他的研究领域聚焦人工智能、神经网络、强化学习等,发布约188篇文章,Google Scholar h指数59,被引用量84113次。

Vikas Sindhwani

一文深度解析「具身智能」百人图谱 科技巨头的AI人才之战

Google DeepMind研究科学家,领导着一个专注于解决机器人领域规划、感知、学习和控制问题的研究小组。

他拥有芝加哥大学的计算机科学博士学位和印度理工学院(IIT)孟买分校的工程物理学士学位。

2008年-2015年在IBM T.J. Watson Research Center纽约分部负责机器学习组。2015年加入Google DeepMind工作至今。

担任《机器学习研究交易》(TMLR)和《IEEE模式分析与机器智能交易》的编辑委员会成员;曾是NeurIPS、国际学习表示会议(ICLR)和知识发现与数据挖掘(KDD)的领域主席和高级程序委员会成员。

研究兴趣广泛涉及统计机器学习的核心数学基础,以及构建大规模、安全、健康人工智能系统的端到端设计。

曾获得人工智能不确定性(UAI-2013)最佳论文奖和2014年IBM Pat Goldberg纪念奖;并入围了ICRA-2022杰出规划论文奖和ICRA-2024机器人操作最佳论文奖的决赛。

发布约137篇文章,Google Scholar h指数52,被引用量17150次。

Vincent Vanhoucke

一文深度解析「具身智能」百人图谱 科技巨头的AI人才之战

Google DeepMind杰出科学家、机器人技术部门高级总监,在谷歌工作超过16年。

拥有斯坦福大学电气工程的博士学位(1999-2003)和巴黎中央理工学院的工程师学位。

曾领导Google Brain的视觉和感知研究,并负责谷歌语音搜索的语音识别质量团队。共同创立了机器人学习会议(Conference on Robot Learning)。

研究涵盖了分布式系统和并行计算、机器智能、机器感知、机器人和语音处理等多个领域。发布约64篇文章,Google Scholar h指数50,被引用量165519次。

Raia Hadsell

一文深度解析「具身智能」百人图谱 科技巨头的AI人才之战

DeepMind研究与机器人技术高级总监,VP of Research。

2014年加入至今。

在Reed College获得宗教学和哲学学士学位后(1990-1994),在纽约大学与Yann LeCun合作完成博士学位研究(2003-2008),集中于使用连体神经网络(今天通常称为“三元损失”)的机器学习、人脸识别算法,以及在野外使用深度学习进行移动机器人研究。论文“Learning Long-range vision for offroad robots”获得了2009年的杰出论文奖。

在卡内基梅隆大学机器人研究所做博士后研究,与Drew Bagnell和Martial Hebert合作,然后成为新泽西州普林斯顿市SRI国际公司视觉与机器人组的研究科学家(2009-2014)。

加入DeepMind之后,研究重点放在人工通用智能领域的一些基本挑战上,包括持续学习和迁移学习、用于机器人和控制问题的深度强化学习,以及导航的神经模型。是一个新开放期刊TMLR的创始人和主编,CoRL的执行委员会成员,欧洲学习系统实验室(ELLIS)的成员,也是NAISys(神经科学与人工智能系统)的创始组织者之一。担任CIFAR顾问,并曾担任WiML(机器学习中的女性)执行委员会成员。

发布约107篇文章,Google Scholar h指数45,被引用量36265次。

Nikhil J Joshi

一文深度解析「具身智能」百人图谱 科技巨头的AI人才之战

资料有限,在印度印度理工学院(Indian Institute of Technology)获得物理硕士学位,在印度基础研究机构Tata Institute of Fundamental Research 获得分子物理学博士学位。2017年加入Google Brain做软件开发,之前在多家企业任职。Google Scholar h指数45,被引用量8320次。

英伟达

Stan Birchfield

一文深度解析「具身智能」百人图谱 科技巨头的AI人才之战

英伟达首席研究科学家和高级研究经理。

2016年加入,主要负责计算机视觉和机器人技术的交叉领域,包括学习、感知、以及人工智能介导的现实和交互。

1999年获得斯坦福大学电气工程博士学位,辅修计算机科学。

毕业后,加入湾区初创公司Quindi Corporation担任研究工程师,开发智能数字音频和视频算法。

2013-2016年,加入微软,负责开发计算机视觉和机器人技术的应用与地面实况导航系统,并领导开发了自动摄像头切换功能。

Google Scholar h指数56,被引用量14315次。

「7」

部分业界华裔大佬

这114名企业研究人员中共有31名华裔,重点介绍12名佼佼者,其中谷歌 4人,英伟达 6人,OpenAI 、1x各1人。

谷歌

Fei Xia(夏斐)

一文深度解析「具身智能」百人图谱 科技巨头的AI人才之战

Google DeepMind高级研究科学家。

2016年毕业清华,2021年在斯坦福大学电气工程系获得了博士学位。

读博期间曾在NVIDIA的Dieter Fox,Google的Alexander Toshev和Brian Ichter那里做过研究实习。在斯坦福大学完成博士学位后,于2021年秋季加入Google的机器人团队。

研究兴趣包括大规模和可转移的机器人模拟,长期任务的学习算法,以及环境的几何和语义表示的结合。最近研究方向是将基础模型(Foundation Models)用于智能体的决策过程中。

学术成就包括在ICRA 2023会议上接受了5篇论文,在CoRL 2022会议上接受了4篇论文。

代表工作有GibsonEnv, iGibson, SayCan等,iGibson开发用于机器人学习的大规模互动环境,以及在机器人控制策略中使用模仿学习和模型预测控制(MPC)的结合。Google Scholar h指数为33,引用量为12478。

Andy Zeng

一文深度解析「具身智能」百人图谱 科技巨头的AI人才之战

Google DeepMind高级研究科学家。

在UC Berkeley获得了计算机科学和数学的双学士学位,并在普林斯顿大学获得了计算机科学博士学位。2019年博士毕业后加入Google Brain工作,专注于机器学习,视觉,语言和机器人学习。

研究兴趣包括机器人学习,使机器能够智能地与世界互动并随着时间的推移自我提高。

学术成就包括在各种会议上发表的论文,如ICRA,CVPR,CoRL等。

参与的重要项目包括PaLM-E。

Google Scholar h指数为32,引用量为12207。

Tianhe Yu

一文深度解析「具身智能」百人图谱 科技巨头的AI人才之战

Google DeepMind研究科学家。

2017年在UC Berkeley获得了计算机科学、应用数学和统计学的最高荣誉学士学位,2022年在斯坦福大学获得了计算机科学博士学位,导师是Chelsea Finn。

2022年博士毕业后加入Google Brain工作,专注于机器学习,视觉,语言和机器人学习。

研究兴趣包括机器学习,感知,控制,特别是离线强化学习(即从静态数据集中学习),多任务和元学习。最近在探索在决策问题中利用基础模型。

学术成就包括在各种会议上发表的论文,如ICRA,CVPR,CoRL等。

参与的重要项目包括PaLM-E。

Google Scholar h指数为25,引用量为7726。

Yuxiang Zhou

一文深度解析「具身智能」百人图谱 科技巨头的AI人才之战

Google DeepMind高级研究工程师。

2010年至2018年间在英国伦敦帝国学院攻读计算机科学硕士和博士学位,导师是Stefanos Zafeiriou教授。

2017年9月至2018年3月在Google Brain & DeepMind进行了深度强化学习和机器人学的研究实习,在2018年12月加入Google DeepMind,担任研究工程师。

研究主题包括解决机器人学、第三人称模仿学习、统计变形模型的密集形状研究等。

Google Scholar h指数为17,引用量为3099。

英伟达

Linxi Fan(范林熙)

一文深度解析「具身智能」百人图谱 科技巨头的AI人才之战

NVIDIA 高级研究科学家,也是 GEAR Lab的负责人。

在斯坦福大学视觉实验室获得博士学位,师从李飞飞教授。

曾在 OpenAI(与 Ilya Sutskever 和 Andrej Karpathy)、百度 AI 实验室(与 Andrew Ng 和 Dario Amodei 合作)和 MILA(与 Yoshua Bengio 合作)实习。

研究探索了多模态基础模型、强化学习、计算机视觉和大规模系统的前沿。

率先创建了 Voyager(第一个熟练玩 Minecraft 并持续引导其功能的 AI智能体)、MineDojo(通过观看 100,000 个 Minecraft YouTube 视频进行开放式智能体学习)、Eureka(一只 5 指机器人手,执行极其灵巧的任务,如笔旋转)和 VIMA(最早的机器人操作多模态基础模型之一)。MineDojo 在 NeurIPS 2022 上获得了优秀论文奖。

Google Scholar h指数为18,引用量为5619。

Chen-Hsuan Lin

一文深度解析「具身智能」百人图谱 科技巨头的AI人才之战

NVIDIA高级研究科学家。

本科毕业于国立台湾大学,获得了电气工程学士学位。在卡内基梅隆大学获得了机器人学博士学位,导师是 Simon Lucey,受 NVIDIA 研究生奖学金支持。

曾在 Facebook AI 研究和 Adobe 研究进行了实习。

致力于计算机视觉、计算机图形学和生成 AI 应用。解决涉及 3D 内容创建的问题感兴趣,包括 3D 重建、神经渲染、生成模型等。

研究获得了 TIME 杂志 2023 年度最佳发明奖。

Google Scholar h指数为15,引用量为2752。

De-An Huang(黄德安)

一文深度解析「具身智能」百人图谱 科技巨头的AI人才之战

NVIDIA 研究科学家,专业领域是计算机视觉、机器人学、机器学习、生物信息学。

斯坦福大学获得了计算机科学博士学位,导师是李飞飞和胡安·卡洛斯·尼布尔斯。在卡内基梅隆大学攻读硕士学位期间,曾与Kris Kitani合作,在国立台湾大学攻读本科期间,曾与Yu-Chiang Frank Wang合作。

曾是NVIDIA 西雅图机器人实验室的 Dieter Fox、Facebook 应用机器学习的 Vignesh Ramanathan 和 Dhruv Mahajan、Microsoft 雷德蒙德研究院的 Zicheng Liu 和匹兹堡迪斯尼研究院的 Leonid Sigal 的实习生。

Google Scholar h指数为32,引用量为4848。

Kaichun Mo(莫凯淳)

一文深度解析「具身智能」百人图谱 科技巨头的AI人才之战

NVIDIA  Dieter Fox 教授领导的西雅图机器人实验室的研究科学家。

在斯坦福大学获得了计算机科学博士学位,导师是 Leonidas J. Guibas 教授。曾隶属于斯坦福大学的几何计算组和人工智能实验室。在2016年加入斯坦福之前,在上海交通大学计算机科学ACM班获得了学士学位(PS:上海ACM荣誉班直博率高达92%,3次斩获ACM国际大学生程序设计竞赛全球总冠军,培养出640名计算机“最强大脑”)。GPA为3.96/4.30(排名1/33)。

专业领域是3D计算机视觉、图形学、机器人学和3D深度学习,尤其关注对象为中心的3D深度学习,以及针对3D数据的结构化视觉表示学习。

Google Scholar h指数为20,引用量为17654。

Xinshuo Weng

一文深度解析「具身智能」百人图谱 科技巨头的AI人才之战

NVIDIA 研究科学家,与 Marco Pavone 合作。

她在卡内基梅隆大学与 Kris Kitani 合作获得了机器人学博士学位(2018-2022 年)和计算机视觉硕士学位(2016-17 年)。本科毕业于武汉大学。

她还曾与 Facebook Reality Lab 的 Yaser Sheikh 合作,担任研究工程师,帮助构建“逼真的远程呈现”。

研究兴趣在于自主系统的生成模型和3D计算机视觉。涵盖目标检测、多目标跟踪、重新识别、轨迹预测和运动规划等任务。开发了 3D 多对象跟踪系统,例如在 GitHub 上获得 >1,300 颗星的 AB3DMOT。

Google Scholar h指数为23,引用量为3472。

Zhiding Yu (禹之鼎)

一文深度解析「具身智能」百人图谱 科技巨头的AI人才之战

NVIDIA 机器学习研究小组的首席研究科学家和负责人。

2017年从卡内基梅隆大学获得了电子与计算机工程博士学位,并于2012年从香港科技大学获得了电子与计算机工程硕士学位。于2008年从华南理工大学联合电气工程(冯炳权实验班)本科毕业。

研究兴趣主要集中在深度表示学习、弱监督/半监督学习、迁移学习和深度结构化预测,以及它们在视觉和机器人问题中的应用。

WAD Challenge@CVPR18 中的领域自适应语义分割赛道的获奖者。在 WACV15 获得了最佳论文奖。

Google Scholar h指数为42,引用量为17064。

OpenAI

Mengyuan Yan

一文深度解析「具身智能」百人图谱 科技巨头的AI人才之战

技术人员。

2014年获得北京大学物理学学士,2020年获得斯坦福大学电子电器工程博士学位。

Interactive Perception and Robot Learning Lab(IPRL)的成员,该实验室是斯坦福AI Lab的一部分,导师是Jeannette Bohg和Leonidas Guibas。

研究领域包括计算机视觉、机器学习、机器人学和生成模型。

共发布28篇文章,Google scholar h指数15,被引用量4664次。

1X Technologies

Eric Jang

一文深度解析「具身智能」百人图谱 科技巨头的AI人才之战

AI副总裁。

2016年毕业于布朗大学硕士,专业是计算机科学。

2016 – 2022年在Google工作,担任机器人高级研究科学家,

研究主要集中在将机器学习原则应用于机器人领域,开发了 Tensor2Robot,这是机器人操作团队和 Everyday Robots 使用的 ML 框架(直到 TensorFlow 1 被弃用);是Brain Moonshot团队的共同负责人,该团队制作了SayCan。

2022年4月离开Google Robotics,加入1X Technologies(原名Halodi Robotics),带领团队完成了两项重要工作,一个是通过端到端的神经网络,实现了人形机器人EVE的自主性。

7篇论文的第一作者,合著15+以上,Google scholar h指数为23,引用量为11213。写了一本书《AI is Good for You》讲诉人工智能的历史和未来。

「8」

通过重点研究论文和实验项目锁定谷歌和英伟达的具身智能人才。

谷歌重基础模型研究,其具身智能人才参与的重点研究发布包括:

SayCan:能够将高层级任务拆解为可执行的子任务。

Gato:将多模态数据进行token化输入Transformer架构。

RT-1:将机器人轨迹数据输入Transformer架构,得到离散化动作token。

PaLM-E:在PaLM通用模型基础上,进一步提升了多模态性能。

RoboCat:将多模态模型Gato与机器人数据集相结合,使得RoboCat具备在模拟环境与物理环境中处理语言、图像和动作等任务的能力。

RT-2:是RT-1模型与PaLM-E模型的结合,使机器人模型从VLM进化到VLA。

RT-X:在保持原有架构的基础上,全面提升了具身智能的五种能力。

以上模型逐步实现了模型自主可靠决策、多模态感知和实时精准运控能力的结合,同时展现出泛化能力和思维链能力。

综合以上研究论文,共梳理143名谷歌研究员。‍‍‍‍‍‍‍‍‍‍‍‍

英伟达重仿真模拟训练,其具身智能人才参与的实验项目包括:

Eureka:利用大型语言模型进行强化学习的奖励机制设计

Voyager:开放世界中用大语言模型驱动智能体

MimicPlay:通过观察人类动作进行长距离模仿学习

VIMA:多模态指令操控执行通用机器人任务

MinDojo:利用互联网规模级数据建立开放具身智能体

此外,英伟达在2024年重点发力具身智能,官宣成立通用具身智能研究GEAR(Generalist Embodied Agent Research)实验室,主要围绕多模态基础模型、通用型机器人研究、虚拟世界中的基础智能体以及模拟与合成数据技术四个关键领域开展研究,旨在推动大模型等AI技术由虚拟世界向现实世界发展。

本文首先梳理了上述提到的Google核心项目论文共7篇,每篇论文都详细列出了项目研究人员,并清晰地公布了他们的具体工作内容。

英伟达的研究页面公布了参与robotics项目的人员名单,共计54名;另外综合考虑GEAR发布的所有论文作者,共梳理出105名具身智能研究人员。

附录:谷歌、英伟达具身智能百人列表

一文深度解析「具身智能」百人图谱 科技巨头的AI人才之战

一文深度解析「具身智能」百人图谱 科技巨头的AI人才之战