投研早报丨加密 VC 为何越来越像 FinTech 投资人/灯塔指引方向,火把争夺主权:一场关于 AI 分配权的隐秘战争/机器人开放数据的终局:从碎片化走向三大生态
ChainFeeds Newsletter 每日精选 Web3 深度投研「简报」+ AI 驱动的热点新闻榜单,帮你做出聪明决策
📢 热点新闻 |2025.12.23
🔥 消息人士:字节跳动计划斥资 230 亿美元投入人工智能领域
🔥 Espresso 开放 ESP 代币注册门户,代币申领将于 2026 年初开放
🔥加密银行 Erebor 完成 3.5 亿美元融资,Lux Capital 领投
🔥 Vitalik Buterin 建议内嵌钱包应支持连接已有钱包作为恢复方式
🔥 稳定币支付基础设施 Coinbax 完成 420 万美元种子轮融资
👨💻 ChainFeeds 投研简报 |2025.12.22
1️⃣ VC|加密 VC 为何越来越像 FinTech 投资人?
2️⃣ AI|灯塔指引方向,火把争夺主权:一场关于 AI 分配权的隐秘战争
3️⃣ 项目介绍|告别黑暗森林:ETHGas 如何实现实时以太坊?
4️⃣ 比特币|比特币开发者正梦游般走向崩溃
5️⃣ 机器人|机器人开放数据的终局:从碎片化走向三大生态
每日精选的加密信息由 ChainFeeds 团队与 AI 共同编写,我们已将内部的信息流工具优化并开放给所有读者及 Web3 行业者使用,测试链接 👇
🌞 Web3 行研早报来自:Web3 行业必读深度资讯「简报」平台|chainfeeds.xyz
1️⃣ 【英文长推】加密 VC 为何越来越像 FinTech 投资人?
导读:当「发币 = 变现」不再可靠,真正可投资的加密公司,只剩下那些能够:产生真实收入;掌控分发渠道;扛得住合规及像一家公司一样持续复利。
Shawn Pang:这轮周期里:风投活跃度远低于此前牛市,真正还能拿到大钱的赛道,集中在稳定币和交易。也就是:变现路径清晰的地方。当「轻松退出」不再存在,投资人就会做他们一贯会做的事:重新定价风险,要求基本面。于是,我们进入了「协议 P&L 文化」。当发币式退出变得不确定,所有人都会开始问那些无聊但关键的问题:谁在付钱?为什么下个月还会继续付?扣掉合规、风控、流动性、客服之后,毛利还剩多少?需求是真实的,还是用补贴买来的?换句话说:加密并没有不再迷恋数据,只是换了一套更重要的数据。
当你真正用基本面优先的筛子去过滤,大多数 Web3 消费级叙事都会站不住脚。但有两个方向,一直能通过审计:支付是最天然的加密基础设施用例,更重要的是它有成熟、被验证过的商业模式(费率、汇差、SaaS 费用)。稳定币,是让这一切真正落地的楔子。2025 年 7 月 18 日,美国正式通过 GENIUS Act,为支付型稳定币建立监管框架。而在真实数据层面:B2B 稳定币支付量,已从 2023 年初的月均不到 1 亿美元,增长到 2025 年的 30 亿美元以上。另一端是 Robinhood。交易,仍然是加密世界里最干净、最稳定的收入来源之一,这也解释了为什么在整体 VC 低迷的情况下,交易类项目依然能持续吸引资金。当你接受一个事实,大多数 Web3 消费产品并没有稳定的付费意愿。你最终会回到加密最早、也是最现实的两件事:市场 + 资金流动。
另一个推动加密 VC 转向 FinTech 的力量是:监管正在从概念走向可执行。监管不会自动带来 PMF,,但它会显著降低机构的恐惧感。而一旦机构能进场,胜出的打法自然会越来越像 FinTech。这也是为什么 AllScale 这样的产品能够成长。它的逻辑不是:「发个币,把它当收入。」而是:在加密真正更优的地方用加密(稳定币结算、可编程支付、全球可达),再把它们封装进人们已经愿意付费的、无聊但必要的业务流程里。当你能产生真实现金流、并且有健康利润率时,Token 才只是资本结构工具,而不是商业模式本身。【原文为英文】(来源 )
2️⃣ 【长推】灯塔指引方向,火把争夺主权:一场关于 AI 分配权的隐秘战争
导读:你会发现人工智能正在同时呈现出两种截然不同、却彼此缠绕的形态。一种像高悬海岸的「灯塔」,另一种像握在手中的「火把」。
Zhixiong Pan:所谓「灯塔」,指向的是 Frontier / SOTA(State of the Art)级别的模型。在复杂推理、多模态理解、长链规划以及科学探索等维度上,它们代表着能力最强、成本最高、组织最集中的那一类系统。OpenAI、Google、Anthropic、xAI 等机构是典型的「建塔者」,它们所构建的不仅仅是一个个模型名字,而是一种「以极端规模换取边界突破」的生产方式。前沿模型的训练与迭代,本质上是将三种极度稀缺的资源强行捆绑在一起。首先是算力,这不仅意味着昂贵的芯片,更意味着万卡级的集群、长周期的训练窗口与极高的互联网络成本;其次是数据与反馈,这需要海量语料的清洗,以及不断迭代的偏好数据、复杂的评测体系与高强度的人工反馈;最后是工程系统,涵盖了分布式训练、容错调度、推理加速以及将研究成果转化为可用产品的整套管线。这些要素构成了极高的门槛,它不是靠几个天才写出「更聪明的代码」就能替代的,它更像是一套庞大的工业体系,资本密集、链条复杂,且边际提升越来越昂贵。因此,灯塔天然带有集中化特征:它往往由少数机构掌握训练能力与数据闭环,最终以 API、订阅或封闭产品形态被社会使用。
把目光从远方收回,你会看到另一种光源:开源与可本地化部署的模型生态。DeepSeek、Qwen、Mistral 等只是其中较醒目的代表,它们背后代表的是一种全新的范式,把相当强的智能能力从「云端稀缺服务」变成「可下载、可部署、可改造的工具」。这就是「火把」。它对应的不是能力的上限,而是基线。这不代表「能力低」,而是代表公众可无条件获得的智能基准。火把的核心价值在于它将智能从一种租赁服务变成了自有资产,这体现在可私有、可迁移与可组合三个维度。开源模型能力的提升,并非偶然,而是来自两条路径的汇流。一是研究扩散,前沿论文、训练技巧与推理范式会被社区快速吸收与复现;二是工程效率的极致优化,量化(如 8-bit/4-bit)、蒸馏、推理加速、分层路由以及 MoE(混合专家)等技术,让「可用智能」不断下沉到更便宜的硬件与更低的部署门槛。于是出现一种非常现实的趋势:最强模型决定天花板,但「足够强」的模型决定普及速度。社会生活中绝大多数任务并不需要「最强」,需要的是「可靠、可控、成本稳定」。火把恰好对应这类需求。
灯塔与火把之争,表面是模型能力与开源策略的异同,实则是一场关于 AI 分配权的隐秘战争。 这场战争不在硝烟弥漫的战场,而在三个看似平静却决定未来的维度展开:第一,争夺「默认智能」的定义权。当智能成为基础设施,「默认选项」就意味着权力。默认由谁提供?默认遵循谁的价值与边界?默认的审查、偏好与商业激励是什么?这些问题不会因为技术更强就自动消失。第二,争夺外部性的承担方式。训练与推理消耗能源与算力,数据收集涉及版权、隐私与劳动,模型输出影响舆论、教育与就业。灯塔与火把都在制造外部性,只是分配方式不同:灯塔更集中、可监管但也更像单点;火把更分散、韧性更强但更难治理。第三,争夺个体在系统中的位置。如果所有重要工具都必须「联网、登录、付费、遵守平台规则」,个体的数字生活会变得像租房:方便,但永远不是自己的。火把提供了另一种可能:让人拥有一部分「离线的能力」,把隐私、知识与工作流的控制权留在自己手里。( 来源)
3️⃣ 【英文长推】告别黑暗森林:ETHGas 如何实现实时以太坊?
导读:在同样的时间,一位使用 ethgas-realtime 节点的用户可以完成这些操作:支付某些费用,交换代币,购买 NFT,以及其他超过 200 个操作。所有操作都按顺序、确定地在以太坊上直接完成,不需要 L2。这是怎么可能的呢?
Kevin Lepsoe:几年前,以太坊被形容为一个「黑暗森林」。我现在仍然能理解为什么这个描述在当时对很多开发者和用户来说是如此真实。以太坊的交易池(mempool)是一个每个交易都是信号、每个信号都被监视、每个行动都假设对面有对手的地方。这是一个执行模型的陷阱,在这个模型中,状态只有在每 12 秒钟作为离散快照存在时才有意义。在这 12 秒之间,一切都是不透明且可被利用的,这导致了像 MEV(最大化可提取价值)这样的现象成为了平衡状态,而这一点也可以理解。用户看到的环境是,他们广播自己的意图,但结果并不总是有保障。如果我们谈论的是游戏或社交平台的发布,这一切都没问题。但如果我们是在进行时间敏感的出价,或者在赶时间进行清算,却被机器人抢先,那情况就不同了。在这些场景中,十二秒的黑暗期太长了。尽管我们已经习惯了这种情况,但我们不能接受它。尤其是现在,当赌注越来越高,传统金融正在走向链上。
以太坊是全球最去中心化、经济意义最重大的结算层,但区块空间的分配方式并没有像其上构建的应用那样迅速发展。区块不必被当作离散的 12 秒事件对待,特别是当用户、开发者和市场已经习惯实时操作时。这是我们在 ETHGas 项目中得出的结论:我们可以像 Rutherford 一样,分裂以太坊区块的原子而不改变以太坊本身或其安全保障。我们不必等待区块完成确认,而是可以将每个区块拆分成 120 到 240 个子区块,并将其视为每 50 到 100 毫秒的更新流,可以在区块空间市场中购买。这些预确认机制提供了执行和经济保障,在区块提议之前保证了交易的顺序和纳入。虽然它们可能没有绝对的最终确认,但它们提供了执行和经济保障,用户将习惯于这些软确认成为常态。实际上,我们可以实现实时以太坊(Realtime Ethereum)。
这种转变使得实时以太坊变成可能,它消除了意图与执行之间的差距。将这 12 秒的隐藏提取转化为正式的市场。竞争不再发生在交易池中,而是向上游转移,序列化权被定价,区块空间被明确分配。黑暗森林变得对每个人都可以导航和可视化。这不仅仅是理论。2025 年 11 月 13 日,以太坊主网上的第一个实时区块已经被成功生成。对于用户来说,这意味着交易可以是即时、确定且公平的。对于应用程序来说,实时以太坊通过将应用程序指向一个实时感知的 RPC 端点,从根本上扩展了设计空间。从协议的角度来看,没有根本的变化,最终区块仍然通过标准的 PBS(区块提议和验证)流程进行提议和验证。变化的是,执行如何在最终确认之前被产生和呈现。超过 4% 的以太坊验证者已加入区块空间市场,与构建者和大规模网络参与者一起参与此进程。到 2026 年底,实时执行将成为应用程序的基本要求。【原文为英文】( 来源)
4️⃣ 比特币开发者正梦游般走向崩溃
导读:本文主要讨论了量子计算对比特币安全性的潜在威胁,比特币开发者对量子计算机威胁的潜在影响似乎持保守态度,但实际上需要现在就开始准备应对可能在未来十年内到来的量子破解风险。
Nic Carter:比特币的安全性依赖于椭圆曲线加密技术,特别是通过公钥反向推导私钥的难度。理论上,量子计算可以破解这一点,得益于 David Shor 在 90 年代提出的量子算法。中本聪在比特币的设计中早已考虑到量子计算的威胁,并提议在量子计算机足够强大的情况下进行协议升级。要使量子计算机部署这种算法,需要数千个逻辑量子比特,而目前最先进的量子计算机还仅有 1000 个物理量子比特,距离实际应用还有较大的差距。尽管如此,量子计算的进展仍然令人关注,量子理论家 Scott Aaronson 认为,尽管挑战巨大,但这并不需要新的物理学突破。量子计算的发展可能会以非常快速的方式发生,类似于核裂变的进展。比特币的量子计算威胁已经不再是遥远的未来,而是一个我们必须提前准备的问题。
2025 年是量子计算历史上最活跃的一年,各大量子计算公司取得了诸多进展。特别是 IONQ 和 MIT 在量子比特的保真度方面取得了突破,量子纠错技术也在这一年取得了实质性进展。量子纠错旨在修复由物理量子比特引入的错误,创建更纯净的逻辑量子比特,这对量子计算的规模化至关重要。许多量子计算初创公司也在 2025 年筹集了巨额资金,其中 PsiQuantum 筹集了 10 亿美元,致力于开发一台拥有百万量子比特的量子计算机。到 2030 年代,许多量子计算公司预计能够制造出功能完备、具规模化的量子计算机。与此同时,美国政府已经要求政府机构在 2030 年前弃用易受量子攻击的加密方案,这一政策也促使比特币等加密货币领域开始关注量子计算的潜在风险。
量子计算对比特币的威胁,特别是对存储在易受量子攻击地址中的比特币,可能是巨大的。理论上,量子计算机能够从公钥中推导出私钥,从而盗取比特币,尽管一些代币目前仍处于哈希地址中不易受攻击,但已经有 670 万个 BTC 面临量子攻击的风险。为了应对这一威胁,比特币可以通过软分叉采用后量子(PQ)签名方案,然而这一过程存在许多技术和执行上的困难,包括需要迁移数千万个有余额的地址,且这种技术转型可能需要数年时间。而且,许多比特币已经丢失或被遗弃,这些比特币无法被转移到抗量子地址类型中,这使得比特币面临的量子威胁更加复杂。量子计算的进步意味着比特币必须尽早准备,以避免量子计算带来的不可预见的损害。(来源)
5️⃣ 【英文】机器人开放数据的终局:从碎片化走向三大生态
导读:开放机器人数据已经围绕 OXE、LeRobot 和 InternData-A1 等三个主要生态系统进行整合,它们定义了数据规模、格式和研究基线。基本操作数据已经商品化;未来的价值在于高保真、物理复杂以及适合训练的数据集上。
Codatta:Open X-Embodiment 是迄今为止最雄心勃勃、影响力最大的具身智能数据工程。该项目于 2023 年末由 34 家顶级机器人实验室联合发起,并非单一数据集,而是将 60 余个既有数据集整合进统一数据模式下的联邦式集合。其核心特征包括:1)规模与具身多样性:超过 100 万条真实世界轨迹,覆盖 22 种机器人形态,从工业机械臂(KUKA、Franka)到移动操作臂、低成本机械臂,再到四足机器人。2)高度标准化:全部数据统一转换为基于 TensorFlow Datasets 与 Apache Arrow 的 RLDS 格式,使跨数据集混合、分片与加载变得极其高效。3)生态影响力:OXE 已成为 Google DeepMind RT-1-X、RT-2-X、Octo 等模型的核心预训练语料。
如果说 OXE 代表的是 Google / TensorFlow 路线,那么 Hugging Face 推出的 LeRobot 则迅速成为偏好 PyTorch 的开源社区和产业界事实上的标准。LeRobot 并非单一数据集,而是一整套完整栈:数据集、模型、训练代码与评测工具,其目标是显著降低真实世界机器人学习的门槛。其关键创新体现在数据工程层面。战略结论十分明确:Parquet + MP4 已成为不可逆转的数据交付标准。任何仍然交付 ROS bag 或原始视频的商业数据提供方,实际上都在给用户制造不必要的技术负债。第三股关键力量是前所未有规模的高保真合成数据,其代表是上海 AI 实验室推出的 InternData-A1。其主要特征包括:1)规模:63 万条轨迹,相当于 7433 小时机器人经验。2)物理多样性:覆盖刚体、关节物体、流体、颗粒、可变形材料(布料、绳索)等传统模拟薄弱领域。3)生成流程:基于先进物理引擎、域随机化、照片级渲染与自动课程生成。其战略意义在于:在低到中等复杂度任务上,合成数据正在快速取代真实数据。对于纯刚体交互任务,合成数据在数量和可控多样性上已不逊于甚至超过真实数据。真实世界数据的不可替代性,正被压缩到模拟仍明显失真的领域——流体、薄壳变形、高接触密度任务等。【原文为英文】( 来源)





