一开始,让我从一个很具体的瞬间讲起。
2024 年底,Hyperliquid 引爆了整个加密交易市场。这个去中心化交易所几乎以一己之力改写了人们对链上交易的认知——单月超过 1,500 亿美元的衍生品交易量、接近 CEX 的操作体验、完全链上的订单簿撮合。整个行业的讨论焦点迅速聚拢到两个问题上:去中心化交易所是否终将取代中心化交易所?Hyperliquid 的撮合引擎为何能做到如此高效?
带着这些问题,我在新加坡约了几个朋友做了一次闭门讨论。房间不大,七八个人,空调开得很足。窗外是金沙湾的夜景,但没人在看风景——大家都在争论。一位在传统做市机构干了多年的朋友端着咖啡说了句话,让我一直记到现在。他说:“我们花了五年时间,把撮合延迟从 200 微秒压到 20 微秒。然后我去看 Hyperliquid,发现他们连区块出完都要 500 毫秒…但交易量已经快追上我们了。”
对面一个做 DeFi 协议的朋友笑了一下:“你们那 20 微秒,得花多少钱买机柜位置?”
做市的朋友没接话,但表情很微妙——那种”你说的对但我不想承认”的微妙。
这个对话里藏着一个巨大的张力。一边是传统金融用二十年时间、数十亿美元投资,把撮合引擎的延迟从毫秒压缩到纳秒——快到光在这段时间里只能走几十米。另一边是 DeFi 用几年时间,在速度慢了好几个数量级的前提下,硬生生地长出了一个万亿美元级别的市场。到 2025 年底,仅 Hyperliquid 一个平台的累计交易量就已经接近 3 万亿美元。
这两条路径看似矛盾,但是它们在回答同一个问题:如何更快、更公平、更可信地撮合买卖双方? 区别只在于——“可信”这个词,对不同的人意味着不同的东西。
这篇文章想做的,不是教你写一个撮合引擎(GitHub 上有大量开源项目可以参考),而是帮你理解一件事:撮合引擎为什么会演变成今天这个样子,以及接下来可能往哪走。无论你是做交易所开发、量化策略、DeFi 协议设计,还是只是对这个领域好奇的观察者,我希望你读完之后能获得一个统一的分析框架——把 CEX 和 DEX 的所有方案放在同一张桌子上看。
归根到底,撮合引擎的每一次重大演进,都是在三个维度之间寻找新的平衡点:性能(能多快处理多少订单)、信任(谁来保证撮合过程的正确和公平)、成本(为获得上述两者需要付出多少代价)。你可以把它想象成一个三角形——你不可能同时把三个角都推到极致,但每一代架构创新,都在尝试把这个三角形的面积撑得更大一点。
确定性:一切的起点
在讨论任何具体的技术方案之前,有一个底层约束需要先讲清楚。它不是什么炫酷的概念,甚至有点无聊,但是它独自决定了后续几乎所有的架构选择。
这个约束叫确定性。
撮合引擎每天做的事情,说白了就是:接收源源不断的订单(有人要买、有人要卖、有人要撤单),维护一个记录所有挂单的”账本”(订单簿),然后在买卖双方的价格对上的时候促成交易。
对这个过程,有一条铁律——给定完全相同的订单序列,任何一个正确的撮合引擎,必须产出完全相同的结果。不是”差不多一样”,不是”99.99% 一致”,必须是逐笔、逐分相同。
这像什么呢?想象一个围棋棋谱。如果你按照棋谱上的每一步落子,无论在哪张棋盘上、由谁来摆、在北京摆还是在东京摆,最终的棋局必须一模一样。不存在”大概是这个局面”这种说法。撮合引擎的”棋谱”就是订单流,“棋局”就是订单簿状态和成交记录。只要棋谱一样,棋局必须一样。这就是确定性。
为什么这一点如此重要?因为确定性同时是两件截然不同的事情的前提。
在中心化交易所(CEX)的世界里,确定性意味着灾备恢复的可能性。如果你的主服务器宕机了,不用慌——只要你完整记录了所有进来的订单(这叫”事件日志”),你只需要在备份服务器上”重放”这些订单,就能精确恢复到宕机前一刻的状态。像用录像机倒带再播放一遍,结果必须跟之前一模一样。LMAX(一家伦敦的交易平台,后面会重点讲)每天晚上都主动重启他们的交易系统——不是因为系统有问题,而是因为他们知道,明天早上”重放”一遍就能完美恢复。这种自信来自确定性。他们甚至把每晚重启当作一种日常演练——就像消防员定期进行灭火演习,不是因为天天着火,而是为了确保真着火的时候不慌。
在去中心化交易所(DEX)的世界里,确定性意味着共识的可能性。区块链的核心逻辑是:很多台电脑同时运行同一套规则,处理同一批交易,得到同一个结果——如果结果不一致,就没法达成共识,整个系统就崩了。dYdX V4 让几十个验证者节点各自在自己的内存里维护一份订单簿——这件事能成立的前提就是:给它们同样的输入,它们必须算出同样的结果。哪怕有一个节点的结果跟其他人不一样,那个节点就会被认为”出错了”或者”作弊了”。
所以你看,CEX 和 DEX 在很多层面上有根本分歧,但是在确定性这一点上,需求完全一致。这也是为什么所有正经的撮合引擎都禁止使用浮点数(就是带小数点的数字运算)——不是因为小数不精确这么简单,而是因为同一个浮点运算在不同品牌的 CPU 上可能给出微妙不同的结果。这个差异小到什么程度?可能是小数点后第 15 位。但是,累积几百万笔交易后,两台机器的状态就会完全对不上。这就好比两个人同时从北京出发去上海,每一步都只偏了 0.001 度,1000 公里之后,一个人到了上海,另一个人可能到了杭州。“重放”不再可靠,“共识”无法成立。
所以,从伦敦的 LMAX 到 GitHub 上的开源项目 exchange-core,再到以太坊上的 Solidity 合约,大家不约而同地选择了全整数运算——用整数来表示价格和数量,用固定的倍数关系来处理”小数”(比如 1 ETH = 1,000,000,000 wei)。看起来笨拙,但是绝对确定。
正如跑步中容易被忽视的本分是呼吸节奏而非步频,撮合引擎容易被误解的本分是”快”,但是真正的本分是”确定”。所有的”快”,都必须建立在”确定”的前提之上。
理解了这个约束之后,再看撮合引擎里那条看似简单的排序规则——“价格优先,时间优先”(价格更好的订单先成交,价格相同的先到先得)——会发现它引发的工程挑战远比表面上复杂。
做个类比:你在运营一个巨大的菜市场。每秒钟有成千上万的摊主挂出新的价格牌(挂单),有成千上万的买家进场(下单),还有大量摊主随时撤掉或修改自己的价格牌(撤单、改单)。你需要在每一个买家进场的瞬间,从所有摊主中找到价格最好的那个,完成交易。而且菜市场的摊位在不断变化——新的摊主随时出现,旧的摊主随时撤走,有的摊主五秒钟改三次价。你不但要跟上这些变化,还要在每一个瞬间都能指出”此刻最便宜的那个摊在哪里”。
这就是撮合引擎的数据结构困境:摊位的频繁变动(插入/删除)和快速找到最优价(查找)是两个方向相反的优化目标。对插入/删除友好的数据结构往往查找慢,对查找友好的数据结构往往变动时开销大。用什么样的”索引系统”来管理这个菜市场,直接决定了引擎的性能天花板。
exchange-core(GitHub 上被广泛参考的一个 Java 撮合引擎)提供了两种方案:一种用”红黑树”——像一棵始终保持平衡的字典目录,查找和插入都还行,但在极端频率下不是最快的;另一种用”数组映射”——像在墙上钉好固定的价格格子,每个格子对应一个价格档位,直接跳到对应位置,极快,但要求价格必须是离散的整数且范围有限。后者在十年前的硬件上就做到了每秒 500 万次操作——差距不是百分之几十,而是倍数级。
但选哪种方案不纯粹是技术问题。它取决于你对市场的假设——价格是连续的(像外汇,可以有无数个小数位)还是离散的(像股票,有最小变动单位)?活跃的价格档位是集中在某个窄区间还是分散在很宽的范围?这就像开便利店选货架——你得先搞清楚顾客最常买什么、买多少,才能决定货架怎么摆。错误的假设会导致要么浪费内存(摆了一堆没人买的货),要么性能跟不上(热门商品都挤在一个小角落)。
CEX 的三次范式跃迁
现在让我们进入 CEX 撮合引擎的演进史。但我不想把它讲成一个技术编年史,而是想抽出一条逻辑线:每一次跃迁的本质,都是发现”真正的瓶颈不在你以为的地方”。
这跟冲浪很像——初学者以为速度来自划水的力量,但实际上速度来自对浪型的阅读和起身的时机。撮合引擎的性能突破也是如此。每一次关键提升都不是”同一个方向上更努力”,而是”换了一个完全不同的方向去用力”。
第一次发现:瓶颈不在算法,在存储。
最早的电子化撮合引擎本质上是一个”数据库应用程序”。订单进来,写入数据库;撮合逻辑通过数据库查询执行;成交结果回写数据库。这就像在纸质账本上一笔一笔记账然后翻阅比对——正确性没问题(数据库天生擅长保证数据一致性),但速度被纸笔的翻页速度限制住了。在这个语境里,“翻页速度”就是磁盘读写速度——毫秒级。而且数据库还有”锁”的问题——当一个人在写账本的时候,其他人不能动,得排队等着。人越多,等得越久。
有趣的是,这个思路并没有完全消亡。GitHub 上有个叫 Open Outcry 的开源项目(用 Go 和 PostgreSQL 存储过程写的),至今仍在实践”数据库即撮合引擎”的哲学——把所有交易逻辑放进数据库的存储过程里。它的作者在 README 里有一段很坦诚的论述,大意是:对小型加密交易所来说,微秒级延迟是伪需求,但数据一致性和零宕机热升级才是真需求。这个判断在特定场景下完全正确——就像不是所有路都需要修成高速公路,村里的小路只要平整干净就够了。但当你需要服务高频做市商和机构交易者时,“纸质账本”就不够了。
于是第一次跃迁发生了:把账本从纸上搬到脑子里——从磁盘搬到内存。不再把每笔订单都写进数据库,而是全部在内存里操作,持久化交给后台异步完成的日志系统。延迟从百毫秒级跳到了毫秒级。像从翻阅纸质电话簿变成了心算——同样的信息检索,速度提升了两个数量级。
第二次发现:瓶颈不在脑子的计算能力,在”开会”的时间。
这是最违反直觉的一次跃迁,也是我认为对整个行业影响最深远的一次。它的主角是 LMAX。
LMAX 是一家伦敦的外汇交易平台,规模不算最大,但他们对撮合引擎架构的贡献远超外汇领域。他们在 2010 年前后做了一件事:证明了一个人独自做决策,可以比一个团队协作做决策更快。
翻译成技术语言就是:单线程可以比多线程更快。
这需要解释一下。当时的主流思路是”要更快就用更多线程、更多 CPU 核心”——就像一家餐厅生意太好,厨房忙不过来,那就多雇几个厨师。听起来完全符合常识,对吧?但 LMAX 团队的 Martin Thompson 发现了一个反直觉的事实:在他们的系统中,性能瓶颈不是”厨师切菜的速度不够快”,而是**“厨师之间互相传话、互相等待的时间太长了”**。
想象一个厨房场景。五个厨师同时做菜,他们需要共用一块砧板、一口大锅、一个调料架。每次一个厨师要用砧板时,必须先确认没有别人在用(这叫”加锁”),用完后再通知别人可以用了(这叫”解锁”)。当五个厨师都在抢同一块砧板时,大部分时间不是在切菜,而是在等待和协调。更糟糕的是,每次砧板换人使用时,新厨师要花时间把之前的食材清理掉、把自己的食材摆上来——这对应的是 CPU 缓存的失效和重新加载。缓存是 CPU 的”工作台”,当数据在不同核心之间频繁弹跳时,每次弹跳都意味着”清理工作台、重新摆放食材”的开销。
Martin Thompson 给这种思维方式取了个名字叫 Mechanical Sympathy(机械共鸣),借用自传奇赛车手 Jackie Stewart 的理念——最好的车手不是踩油门最狠的那个,而是最理解发动机脾性的那个。对应到软件工程,他的洞察是:现代 CPU 的性能瓶颈不在计算能力,在数据搬运。CPU 从自己的”口袋”(L1 缓存)里取数据只要零点几纳秒,但从”仓库”(主内存)取数据要几十纳秒——差了一百倍。所以关键不是”用了多少个厨师”,而是”每个厨师手边是否已经摆好了需要的食材”。
LMAX 的解决方案是:只用一个厨师,但把厨房设计得极度高效。他们把撮合引擎、风控和账户管理全部放在一个单线程里运行。没有锁,没有协调开销,没有缓存失效。所有数据始终在一个 CPU 核心的缓存里,不需要搬来搬去。
为了配合这个”独厨”模式,他们设计了一个叫 Disruptor 的组件——你可以把它想象成一条环形传送带(寿司回转带)。订单像寿司一样被放上传送带,“独厨”(撮合引擎)从传送带上按顺序取走处理。传送带是预先铺好的(预分配内存),寿司碟子是固定数量的(可以复用,不需要每次都洗新碗),一切按顺序来,没有人需要等谁。传送带的长度是 2 的幂次方(比如 2000 万个槽位),这样计算”下一个位置在哪”只需要一次极快的取模运算。
结果?这个”独厨”在一台普通的 3GHz 服务器上,每秒可以处理 600 万笔订单,比同时期”五个厨师协作”的方案快了十倍。Martin Fowler(软件架构领域的教父级人物)在他那篇关于 LMAX 的经典文章里记录了更惊人的数据:LMAX 的 Disruptor 组件在中等性能的处理器上做到了每秒超过 2500 万条消息的吞吐量,延迟低于 50 纳秒。这已经接近了现代处理器在核心之间交换数据的理论极限。
但 LMAX 真正深远的影响不在 Disruptor 这个组件本身,而在整体架构思想。他们用了一种叫 Event Sourcing(事件溯源)的模式:不存储当前状态,只存储”发生了什么事”。
什么意思?普通的系统像一本不断擦写的黑板——你只能看到当前的内容,之前写过什么、擦过什么,都不知道了。Event Sourcing 像一本只能追加的日记——你永远不会擦掉之前写的内容,只会在后面接着写。任何时刻的”黑板状态”都可以从日记的第一页开始、一页一页重放得到。
还记得前面说的确定性吗?Event Sourcing 把确定性从”需要小心翼翼维护的东西”变成了”架构天然保证的东西”。只要日记是完整的,输入是确定的,那么重放一定能得到完全一样的结果。LMAX 每晚重启系统清理内存…这不是妥协,这是他们在日常演练”如果出事了,我能不能完美恢复”。如果你的系统在重启后不能从日志精确重放回来,那你的确定性保证就是虚的。LMAX 每天都在用行动证明自己的确定性是真的。
这个架构的影响力一直延续到今天。exchange-core(GitHub 上 star 数最高的开源撮合引擎之一)直接基于 Disruptor 构建,采用了流水线式多核处理——每个核心负责一个处理阶段,像工厂的装配线。viabtc_exchange_server(在加密交易所领域被广泛 fork 的后端项目)虽然用了 C + Redis + Kafka 的不同技术栈,但核心思路一致:撮合逻辑单线程执行,其他一切(持久化、消息分发、风控通知)围绕它来配合。
第三次发现:瓶颈不在软件,在物理世界。
当 LMAX 式的软件优化把延迟压缩到微秒级之后,问题变成了:剩下的延迟来自哪里?
答案是物理世界本身。三个来源。
第一,操作系统要处理网络数据包需要”走流程”——经过内核的网络栈、中断处理、调度器——这本身就要花好几微秒。就像一封信要经过门卫、前台、收发室才能到你手上。
第二,即便 CPU 的 L1 缓存命中也需要几个时钟周期,指令流水线有自己的节奏。
第三,也是最根本的——光在光纤中传播的速度是每纳秒 0.2 米。从芝加哥到纽约的光纤单程就要约 6.5 毫秒。即便你的软件无限快,数据在物理世界里移动的时间还是无法突破光速。
这催生了一场堪称”疯狂”的军备竞赛,三条战线同时推进。
第一条战线:绕过操作系统。正常情况下,一个网络数据包到达你的服务器时,要经过操作系统的层层”安检”(网络栈处理),就像一封信要经过门卫、前台、收发室才能到你手上。而 Kernel Bypass(内核旁路)技术——比如 DPDK、Solarflare 的 OpenOnload——相当于给信开了一个直通你办公桌的管道。数据从网卡直接到达应用程序,跳过所有中间环节。消除了内核上下文切换的全部开销。
第二条战线:让硬件直接思考。FPGA(现场可编程门阵列)不是”更快的电脑”,而是”可以被改造成专用机器的芯片”。普通 CPU 像一个全能型员工——什么都能做,但做每件事都要看说明书(从内存加载指令、解码、执行)。FPGA 更像是一台被改造过的专用流水线——它只做一件事(比如解析市场数据、检查订单条件),但因为整个电路就是为这件事设计的,所以每一步都在同时进行,毫无等待。而且 FPGA 的延迟是确定的——每个操作消耗固定的时钟周期,没有抖动,不像 CPU 会被操作系统调度打断。
2018 年,Solarflare 和 LDA Technologies 展示了在 CME(芝加哥商品交易所,全球最大的期货交易所之一)上 120 纳秒的 Tick-to-Trade 延迟——从接收到一个市场数据更新(tick),到发出一个交易指令(trade),全程 120 纳秒。120 纳秒是什么概念?光在这段时间里只能走 36 米——大约从你的办公桌走到走廊尽头的距离。这不是”比软件快一点”,而是比纯软件方案快了两个数量级。
第三条战线:跟光速赛跑。把服务器搬到交易所数据中心的同一栋楼里(Co-location),只为省去那几公里光纤的传播时间。更极端的是,有公司用微波塔代替光纤。为什么?因为微波在空气中的传播速度接近真空光速,而光在光纤中会被玻璃材质拖慢——光纤中的光速大约只有真空中的 67%。也就是说,微波在空气中传播比光在光纤中快了大约 50%。McKay Brothers 正是利用了这个物理优势,建造了连接芝加哥和新泽西的微波网络——单程延迟约 4 毫秒,比最好的光纤方案快了好几毫秒。在高频交易的世界里,这几毫秒就是真金白银。
CME 甚至要求所有租用机柜的客户使用等长线缆连接到撮合引擎——同样的线缆长度,同样的信号传播时间——只为消除”你的机柜比我的机柜近了两米”带来的纳秒级不公平。这种”物理层面的公平”做到了极致。
但 FPGA 的 trade-off 也很明显。它的开发方式更像是在设计芯片而非写代码——用 Verilog 或 VHDL 这种硬件描述语言,开发周期以月计。改一个策略,在普通软件里可能是改几行代码下午就上线的事,在 FPGA 上可能要重新设计一整条流水线、重新仿真验证。人才也极度稀缺——能同时理解金融逻辑和硬件设计的工程师,全球可能就几百个。所以 FPGA 主要用在”逻辑简单、几乎不变、但必须极快”的底层环节——Feed Handler(市场数据接收和解析)、Order Gateway(订单网关)——而非上层策略逻辑。正如修建一条铁路的投入远大于铺一条公路,但一旦铁路建成,它的运力和确定性是公路无法比拟的。
回看这三次跃迁,有一个共同的模式值得注意:信任模型始终未变。从数据库时代到 FPGA 纳秒级撮合,CEX 的延迟提升了六个数量级(从 100 毫秒到 100 纳秒),但”谁来保证这个过程是公平的”这个问题的答案始终是同一个——交易所自己。你把钱存在交易所,信任他们不会篡改订单簿、不会挪用你的资金。性能天翻地覆,但信任结构纹丝未动。
这正是去中心化撮合试图改变的东西。
去中心化撮合的结构性困难
在 DEX 的语境里,容易被误解的本分是”性能”——很多人以为 DEX 的核心使命是追赶 CEX 的速度。但是实际上,DEX 要解决的根本不是一个性能问题,而是一个信任问题。
CEX 的信任假设是:你把资产存在交易所,相信他们不会篡改订单簿、不会抢跑你的订单、不会挪用你的资金。这个假设在 99% 的时候是成立的。但它被打破的那 1% 往往是毁灭性的——2014 年 Mt. Gox 最初报告丢失了约 85 万个比特币(后来找回了约 20 万个,但净损失仍超过 65 万个,当时价值约 4.5 亿美元);2022 年 FTX 被发现挪用了超过 80 亿美元的客户资产,创始人被判 25 年监禁。对于经历过这些事件的人来说,“信任交易所”不再是一个理所当然的前提。
DEX 的根本诉求是把”信任一个机构”转化为”信任一套规则”——规则写在代码里,代码跑在区块链上,所有人都可以审查,没有人可以暗箱操作。归根到底是一个信任模型的根本性变革。不是”让交易所更值得信任”,而是”让信任这件事本身不再依赖于某个具体的人或机构”。
但是,改变信任模型的代价是什么?四个结构性的约束,每一个都是硬约束,不是”优化一下”就能绕过的。
第一,达成共识需要时间。CEX 的撮合引擎是”一个人说了算”——一台服务器处理所有订单,不需要跟任何人商量。但区块链的本质是”一群人一起决定”——几十甚至几百台电脑必须就”这笔交易是否有效”达成一致。这就像一个人拍板决定和开一场 50 人的委员会投票之间的速度差异。委员会里每个人都要看一遍提案、投一次票、等别人的票,还得确认没有人捣乱。即便是最快的共识算法(比如 HotStuff 系列的 BFT 协议)也需要数百毫秒来完成一轮共识,而 CEX 的撮合在微秒级。这个差距不是软件工程能弥补的——它是分布式系统的物理定律,就像你没法让 50 个人开会跟一个人拍板一样快。
第二,重复计算的成本。链上每一笔操作都会被所有验证节点重复执行一遍。就像一份合同不是只需要一个人签字,而是要发给 50 个人各签一遍,每个人都要从头到尾读一遍确认没问题。在 CEX 上免费的一笔挂单操作,在以太坊主网上可能花费数美元的 Gas 费。这不是以太坊”定价不合理”——这是去中心化的固有成本。你为”不需要信任任何人”这件事付费。
第三,透明即脆弱。区块链的公开透明是它的核心特性——所有待处理的交易都在”公告栏”(公开内存池 mempool)上公开展示。但这也意味着:别人可以看到你准备买什么,然后抢在你前面买入、等你的买入推高价格后卖出,赚走差价。这就是所谓的 MEV(最大可提取价值),本质上是”你的透明性变成了别人的赚钱工具”。就像在拍卖场上,你把自己的底价贴在了额头上——你以为透明是好事,但有人专门靠读别人额头上的数字来赚钱。
第四,排序权即权力。CEX 用时间戳保证公平——先到先得,精确到微秒。但链上的交易顺序由区块打包者(矿工或验证者)决定。打包者可以选择把自己的交易排在你的前面,或者收取贿赂让某些交易优先。这就像一场排队的游戏里,保安有权让某些人插队——这个权力本身就是 MEV 的来源。
面对这四个硬约束,DEX 社区在过去几年产生了四种本质不同的应对思路。它们不是”一代比一代好”的线性进步,而是对不同取舍的不同选择。这很重要——因为太多人用线性思维看这个领域,以为后出现的方案一定优于先出现的。实际上,它们更像是同一道难题的不同解法,每种解法优化了某些维度,但在另一些维度上做了妥协。就像面对”从北京去上海”这个问题,高铁、飞机、自驾、轮船都是解法——没有绝对的优劣,取决于你最在乎什么。
AMM:一个精妙的绕行方案
让我们从 AMM 讲起,因为它是 DEX 历史上最重要的一次范式转换。
在 AMM 出现之前,链上交易的默认思路是在以太坊上复刻 CEX 的订单簿——就像在一条乡间小路上复制一条六车道高速公路的交通规则。EtherDelta 就是这么做的——它是最早的链上订单簿 DEX 之一,每一笔挂单和撮合都是一笔以太坊交易。结果可想而知:Gas 费高昂、出块延迟导致体验极差、流动性稀薄。像在泥地上开 F1 赛车——车是好车,但路不行。车手再厉害,也跑不出好成绩。
Uniswap 的创新不是 x·y=k 这个数学公式——这是大学教科书里的恒定乘积关系。它的真正创新是一个认知上的突破:既然链上跑不了订单簿,那就别用订单簿了。
这个转变有多大?传统的撮合方式像一个拍卖行——每件商品都需要找到具体的买家和卖家,当面讨价还价,一对一匹配。没有卖家出现,买家就只能干等。没有买家出现,卖家就只能干坐。而且拍卖行需要一个拍卖师(做市商)来维持秩序和提供报价。
Uniswap 把拍卖行变成了自动售货机。你不需要等待对手方出现,不需要挂单然后祈祷有人吃单。你塞入代币 A,机器按照一条数学曲线自动计算出你能拿到多少代币 B,然后直接完成兑换。自动售货机不需要店员(做市商),不需要排队等号(订单匹配),24 小时运转,任何人都可以用。你甚至不需要”对面有个人愿意跟你交易”——你交易的对手方是一个数学公式和一个流动性池。
但自动售货机的定价灵活性确实不如拍卖行。AMM 在这次范式转换中放弃了什么?
首先是价格发现能力。AMM 的价格是被动的——它不”知道”ETH 应该值多少钱,它只是被动反映交易者的行为。真正的价格发现发生在 CEX 上,套利者像信使一样把 CEX 的价格”搬运”到 AMM 上来。当 CEX 上 ETH 涨到 3200 而 AMM 上还是 3100 时,套利者会在 AMM 上低价买入、在 CEX 上高价卖出,直到价差消失。AMM 不是价格的发现者,更像是价格的跟随者——一个时刻在追赶 CEX 脚步的镜子。
其次是资本效率。在 Uniswap V2 时代,你往流动性池里存入的资金被均匀分散在从零到无穷大的整个价格区间。这就好比你开了一家便利店,但货架从地下室铺到了屋顶,而 99% 的顾客只在齐胸高的那层买东西——你的大部分库存在吃灰。如果 ETH 的价格在 3000-3500 之间波动,你存的流动性里只有极小一部分真正在”工作”,其余都躺在那里没人碰。
再次是做市灵活性。流动性提供者(LP)无法像专业做市商那样精确地设置”我只在 3200-3300 这个价格区间报价”。你要么在整个价格范围内提供流动性,要么不提供。没有中间选项。
但它获得了什么?无许可的流动性——任何人只要有代币就可以当 LP,不需要做市商资质、不需要复杂的算法、不需要申请牌照;极简的链上逻辑——一次交换只需要几个乘除法,Gas 成本可控;7×24 无人值守运行——不需要维护、不需要盯盘、不需要有人值班。
从 V2 到 V4 的演进有一条清晰的内在逻辑——AMM 一直在试图重新获得它最初放弃的东西,但每一步都在去中心化和可组合性的约束内完成。
V3 解决了资本效率问题:集中流动性让 LP 可以选择价格区间——“我只在 3200-3300 之间提供流动性”。这就像便利店老板终于学会了只在顾客常逛的那层货架上铺货。本质上是让自动售货机靠近了拍卖行——V3 的 Tick 结构某种程度上就是一个离散化的订单簿,只不过每个”挂单”不是一笔具体的买卖意向,而是一段流动性。资本效率因此提升了数百倍。
V4 通过 Hooks 机制解决了灵活性问题:开发者可以在交易的各个阶段注入自定义逻辑——动态调整手续费、接入自定义预言机、执行复杂策略。这本质上是把自动售货机变成了可编程的自动售货机——你可以给它加上”下午三点自动打折”、“库存少于十件时涨价”之类的规则。
一个有意思的洞察:AMM 的演进方向是一步步重新获得传统订单簿天然具备的特性(资本效率、定价灵活性、策略可编程性),但每一步都在去中心化和可组合性的约束内完成。这是一种有纪律的演进——不是推倒重来回到 CEX 模式,而是在限制条件下持续进化。就像一棵被石缝限制的松树,弯弯曲曲但一直在往上长。
AMM 在长尾资产和稳定币对上有结构性优势——这些市场不需要专业做市商也能通过散户 LP 获得基本的流动性。Curve 在稳定币领域的统治地位验证了这一点——它的 StableSwap 曲线专门为”两种价格几乎相等的资产”优化,在 1:1 附近提供极低滑点。就像一把为特定材料打磨过的刀——通用性不如瑞士军刀,但在切那种材料时无人能比。
但在主流资产的高频交易和衍生品领域,AMM 有结构性劣势——延迟、滑点、缺乏止损单等高级订单类型。这也是为什么衍生品 DEX 几乎清一色地回到了订单簿模式。
关于 AMM 还有一个值得深思的观察。在传统金融里,做市是一件门槛极高的事——你需要牌照、需要大量资本、需要复杂的报价算法和风控系统。AMM 把这件事民主化了,任何人有资产就能当 LP。但民主化的代价是:LP 在大多数情况下都在经历”无常损失”(价格波动带来的亏损),而套利者在赚钱。
AMM 的运转本质上是这样的:散户 LP 提供”公共流动性”,套利者利用这个流动性来保持 AMM 价格与 CEX 一致。LP 承担了做市风险,但获得的回报远不如专业做市商在 CEX 上赚取的价差。这就好比一个社区共享菜园——任何人都可以种菜(提供流动性),但收割最多蔬菜的往往是那些天不亮就来、知道哪块地最肥的”专业采摘者”(套利者)。这不是 AMM 的缺陷——这是它在信任模型和准入门槛上做出取舍后的必然结果。你获得了”任何人都能参与”的开放性,代价是”专业玩家在这个开放系统中仍然有优势”。
Appchain CLOB:在共识层重建订单簿
如果说 AMM 是”绕过订单簿”的策略,Appchain CLOB 就是”正面硬刚”——在区块链上重建一个完整的订单簿交易系统。
自动售货机好用,但你没法在上面做杠杆交易、设止损单、挂冰山订单。衍生品交易需要拍卖行式的订单簿——需要精确的报价、复杂的订单类型、实时的价格展示。但以太坊主网上开拍卖行,交通堵得水泄不通(15 TPS,出块 12 秒一次)。怎么办?自己建一条高速公路,专门跑拍卖行的车。这就是”应用链”(Appchain)的思路——不在通用的区块链上将就,而是为交易这件事专门造一条链。
dYdX 和 Hyperliquid 是这条路上最重要的两个案例。它们之间的架构分歧,也是我认为理解整个去中心化订单簿设计最关键的一个分叉点。
dYdX V4 的思路是:只把”结果”公布,“过程”在后台完成。
它的推理是这样的:一个订单簿每天会产生海量的操作——挂单、撤单、改单,其中绝大多数不会直接导致成交。一个活跃的做市商可能每秒钟挂单撤单几百次,但真正成交的可能只有几十次。如果每个操作都上链、都走共识,那链就被淹没了。真正需要全网见证的只有最终结果:谁跟谁在什么价格成交了多少。
基于这个观察,dYdX 让每个验证者节点在自己的内存中维护一份完整的订单簿(通过 Cosmos SDK 的 x/clob 模块实现)。你挂单或撤单时,这些操作只在验证者的内存中处理,不上链,不收 Gas 费。只有当买卖价格匹配、真正成交的时候,结果才被写入区块,通过 CometBFT(Tendermint)共识确认。
打个比方:这像一场”分散裁判制”的足球赛。五个裁判各自在自己的笔记本上记录场上情况——谁传了球、谁犯了规、谁越位了。但只有当进球发生时,他们才需要一起确认并把进球写进正式记录。日常的跑动、传球、犯规判断…都由每个裁判自己处理,不需要每次都开全体会议。这大幅减少了”会议”(链上交易)的数量,让系统能处理更多”日常事务”(订单操作)。
对做市商来说,这几乎就是 CEX 体验——挂单免费、撤单免费、亚秒级成交确认。dYdX 团队声称可以处理约 2,000 笔成交/秒的链上吞吐量(实际 load-testing 显示订单处理约 1,500 笔/秒),最终性约 1 秒。需要注意的是,这里的”TPS”特指成交笔数,不包括挂单和撤单操作——后者在链下处理,理论上可以更高。
但这个设计引入了一个微妙的信任假设:你需要相信这些裁判(验证者)忠实地维护了各自的笔记本。代码是开源的,任何人都可以运行验证者节点——但链下订单簿在某个时刻确实是不能被外部直接审计的。你看不到每个裁判笔记本上写了什么,你只能看到他们共同确认的”正式记录”。
Hyperliquid 的思路恰好相反:一切都在台面上完成。
它的推理是:链下组件越多,需要信任的越多,“灰色地带”就越大。真正的去中心化应该没有”后台”。为此,Hyperliquid 自建了一条专用的 L1 链,使用自研的 HyperBFT 共识算法(基于 HotStuff 协议的变体,用 Rust 从头实现),将订单簿逻辑直接嵌入到链的执行层(HyperCore)。每一笔挂单、每一笔撤单、每一笔成交,都是一笔链上交易。没有隐藏的后台,没有链下匹配层。
像一个完全透明的拍卖行——每个出价者的每一次举牌都被所有在场的人看到并记录在案。不存在”私下交易”或”场外沟通”。
Hyperliquid 的赌注是:如果公路修得足够宽、够平、限速够高,就不需要走后门。根据官方文档,HyperCore 目前支持每秒处理 20 万笔订单操作,中位延迟约 0.2 秒,P99 延迟在 0.9 秒以下。这些是官方公布的数据——独立验证仍有限,但平台的实际运营表现(2025 年全年近 3 万亿美元的交易量)在一定程度上佐证了其性能声明。
Hyperliquid 还做了一件值得说的事:在协议内部内置了 HLP(Hyperliquid Liquidity Provider),一个由协议自己运营的做市策略。这跟 dYdX 依赖外部独立做市商的思路完全不同。
dYdX 的逻辑是让多个独立做市商在公开市场上竞争——竞争自然产生更紧的报价。这就像一条美食街上有十家面馆,彼此竞争自然会让每家都提高性价比。
Hyperliquid 的逻辑是协议自己下场做市,为所有市场提供基础流动性,外部做市商在此基础上补充。这更像是一个商场自己经营一家”保底餐厅”——保证商场开业第一天就有地方吃饭,即使外部餐饮品牌还没入驻。Trade-off 很清楚:冷启动期和长尾市场的流动性有了保障,但协议做市与外部做市商之间的利益关系(是否存在竞争优势?是否信息不对称?)需要长期观察。
两者的对比揭示了一个更深层的设计哲学分歧:dYdX 选择了”最小化台面上的负担”以获得更好的做市商体验和更高的链上效率;Hyperliquid 选择了”最大化台面上的透明”以获得更强的信任保证和更简洁的架构。两者都没有”错”——它们是对”信任与性能如何取舍”的不同回答。
但是——这里需要诚实地评估一件事。当一个”去中心化”交易所声称极高的处理能力时,有几个问题值得追问:这个性能是在多少个节点上测得的?随着节点数增加,性能会怎样衰减?任何人都能成为验证者吗?验证者是否有最低硬件要求或质押门槛?
dYdX V4 在这方面相对透明——基于 Cosmos 生态的开放 Validator 集(目前 60 个活跃验证者),代码完全开源,任何人可以运行全节点。Hyperliquid 的验证者集相对较小(目前约 16 个),准入机制和治理仍在发展中,代码部分开源。“去中心化程度”不是一个二元标签——不是”去中心化了”或”没去中心化”——而是一个需要逐项审视的光谱。验证者数量、代码透明度、治理机制、准入门槛…每一个维度都值得单独考量。
在这两者之外,还有第三条路值得关注:用数学证明来替代信任。
Lighter.xyz 的方案既不像 dYdX 那样依赖一群裁判的诚实(共识),也不像 Hyperliquid 那样要求一切在台面上(链上透明)。它的思路更为激进:撮合可以在链下快速完成(由一个叫 Sequencer 的角色执行),但之后必须出具一份”数学证明”(ZK Proof),证明整个撮合过程确实遵循了规则——价格优先、时间优先,没有跳过任何订单,没有偏袒任何人。这份证明提交到以太坊上验证。
这就像一个考试的阅卷系统:你不需要坐在阅卷老师旁边看他怎么改的每一份试卷,你只需要一份可以被任何人验证的数学证明——这份证明能保证阅卷过程是公正的。不需要信任阅卷老师,不需要全程录像,只需要数学。任何人拿到这个证明,都可以用计算器验算它是否正确。
Lighter 面临的一个有趣的工程挑战是:在 ZK 电路中,传统的数据结构往往效率很差。要证明一个订单在订单簿中的正确位置,如果用普通的链表结构,需要遍历整个列表——复杂度是 O(N),N 是订单数量。Lighter 的团队设计了一种叫 Order Book Tree 的混合数据结构(Merkle Tree + Prefix Tree),将证明复杂度降到了 O(log N)。这个细节很说明问题:当你改变了”信任模型”(从依赖多数诚实到依赖数学证明),连数据结构的最优选择都跟着变了。
三种方案的取舍各不相同,可以用三场比赛来类比。dYdX 像一场有多个裁判的足球赛——够公正,裁判在场边判罚,你需要信任多数裁判是诚实的。Hyperliquid 像一场被全程直播的比赛——完全透明,每个动作都在镜头下,但直播带宽有上限。Lighter 像一场比赛结束后出具了可验证数学报告的比赛——你不需要看直播也不需要相信裁判,你只需要相信数学。
没有哪个方案在所有维度上都最优。正如没有一种冲浪板适合所有浪型,撮合引擎的架构选择取决于你在哪个维度上最不愿意妥协。
从”撮合订单”到”撮合意图”
前面所有的范式——CEX、AMM、链上订单簿——都有一个共同的前提:交易者提交的是一个具体的订单。“我要以 3200 美元的价格买 1 个 ETH。” 价格、数量、方向,写得清清楚楚。
Intent-based 交易打破了这个前提。
在这种新模式下,交易者只需要表达一个”意图”:“我想用最多 1000 USDC 买尽可能多的 ETH。” 不指定在哪个交易所执行、不指定走哪条路径、不指定以什么价格成交。系统(具体来说是叫做 Solver 的专业角色)负责找到最优方案——可能是在 Uniswap 上换一部分,在某个链上订单簿上吃一部分,甚至直接跟另一个刚好想卖 ETH 的用户配对。
这个转变看起来只是用户体验的简化——就像从”我要一张从北京出发、经上海转机、搭乘某某航空、经济舱靠窗的机票”变成了”我要从北京到三亚,帮我找最便宜的方案”。但它在公平性上有一个结构性的优势。
回忆一下前面说的 MEV 问题:在连续撮合中(无论 CEX 还是链上订单簿),先看到市场信息的人可以先下单,后面的人被”收割”。三明治攻击就是一个典型例子——攻击者看到你的大额买单,抢在你前面买入(推高价格),等你的买单以更高的价格成交后再卖出获利。你多付了钱,攻击者赚了差价。
CoW Protocol 的批量拍卖(Batch Auction)模型从结构上消除了这个问题。它不是像流水线一样一笔一笔处理订单,而是把一个时间窗口内所有的”意图”收集起来,由多个 Solver 竞争为这一批意图找到最优的集体执行方案。在同一批次内,不存在”先后”——你的意图和我的意图是被同时考虑的。
就像一场密封投标的拍卖——所有出价在同一时刻揭晓,没有人能偷看别人的出价然后修改自己的。三明治攻击在结构上被消除了。不是通过”惩罚作恶者”,而是通过”消除作恶的可能性”——因为在同一个批次里,根本不存在”先后顺序”这个概念。
UniswapX 采用了类似但不同的方案:用户签署链下意图,Filler(类似 Solver 的角色)竞争提供最佳执行价格,链上原子结算。它在保留 AMM 可组合性的同时引入了 Solver 竞争。
但 intent-based 也有它放弃的东西。实时性——批量拍卖要等一个时间窗口才结算,不像订单簿那样可以即时成交。如果你是一个高频交易者,每秒需要进出几十次,批量拍卖的节奏对你来说太慢了。价格发现——没有一个持续展示的订单簿让你看到市场的供需关系,市场参与者无法实时判断”现在买方多还是卖方多”。还有 Solver 依赖——执行质量完全取决于 Solver 生态是否足够竞争。如果只有两三个 Solver,它们之间的”竞争”可能更像是”默契”。
归根到底,intent-based 不是要替代订单簿或 AMM,而是在它们之上构建一个执行优化层。它把”怎么执行”的决策从用户转移到了专业的 Solver。这跟旅游行业的逻辑很像——你只需要说”我要三亚五天四晚、预算五千”,携程或飞猪帮你比价所有航班和酒店,给你最优组合。用户体验极好。但如果携程垄断了市场呢?它还有动力给你找最便宜的方案吗?这就是 Solver 生态的去中心化程度决定的——如果 Solver 形成寡头,“最优执行”就名不副实了。
回过头来看,从 AMM 到 Appchain CLOB 到 Intent-based,DEX 的演进不是一条直线,更像是一棵树。AMM 绕过了订单簿但牺牲了资本效率和定价能力;Appchain CLOB 恢复了订单簿但需要在去中心化和性能之间取舍;Intent-based 优化了执行公平性但引入了 Solver 依赖和批量延迟。每个分支都在回应前一代方案的不足,但每个分支本身也引入了新的 trade-off。没有终极方案,只有更适合特定场景的方案。
公平性:不可回避的永恒议题
在所有关于撮合引擎的讨论中,“性能”和”去中心化”总是最热的话题。但是有一个同样重要、却经常被搁置的维度:公平性。
一个极快但不公平的撮合引擎是没有意义的。它只会让少数人以多数人为代价获利,最终侵蚀市场的信任基础。正如一场所有人都知道裁判被收买的比赛——再精彩也没人愿意参加了。如果散户发现自己在一个”合法收割场”里交易,他们会用脚投票,离开这个市场。
在 CEX 的世界里,公平性的挑战长这样。CME 要求所有 Co-location 客户使用等长线缆——消除物理距离差异,确保每个客户的信号传播时间一样。这解决了”谁的桌子离交易所更近”的公平问题。但 FPGA 和普通软件之间的处理速度差异仍然巨大——一个用 FPGA 的机构可以在 120 纳秒内完成 tick-to-trade,而一个用普通软件的交易者可能需要几微秒。等长线缆消除了物理不公平,但没有消除经济不公平——谁有钱买 FPGA,谁就更快。
更深层的问题是:当交易所自己也参与交易时(通过自营台),它拥有的信息优势是制度性的——就像裁判自己也下场踢球,他知道所有球员的位置和意图,这个优势是任何技术手段都无法完全消除的。这是一个制度问题,不是工程问题。
还有一个 CEX 的公平性悖论值得思考:撮合引擎”太快”有时反而制造不公平。2010 年的”闪崩”(Flash Crash)就是一个例子——当所有参与者都在追求纳秒级速度时,一个算法的错误可以在人类来不及反应的时间内引发连锁反应,道琼斯指数在几分钟内暴跌近 1000 点。速度放大了错误的影响,而人类的反应速度跟不上机器。
在 DEX 的世界里,公平性的挑战表现为 MEV。不同架构对 MEV 的抵抗能力天然不同。AMM(尤其是 Uniswap V2/V3)面临最严重的 MEV 问题——公开的内存池加上确定性的价格影响公式,使得三明治攻击几乎成为无风险套利。dYdX V4 通过验证者共识排序减少了 MEV,但只要有排序就有操纵空间。Hyperliquid 的链上排序更加透明,但共识层面的公平排序机制仍在演进中。CoW Protocol 的批量拍卖从结构上消除了排序 MEV。
如果画一个公平性谱系,大概是这样的:
连续撮合(最容易被抢跑)→ 共识排序(减少但未消除)→ 加密内存池(交易在被打包前不可见,像密封信封,但增加了延迟)→ 批量拍卖(结构性消除排序优势)→ ZK 可验证撮合(数学证明全过程的正确性)。
ZK 可验证撮合是这个方向的终极形态——任何人都可以验证撮合引擎是否严格按照 Price-Time Priority 执行,是否存在隐藏订单,是否有抢跑行为。不需要信任裁判,不需要看直播,只需要一份数学证明。这就像从”相信裁判说的是真的”进化到”裁判的每一个判罚都附带了一份数学证明,任何人都可以用计算器验算”。Lighter.xyz 的实践是这个方向的早期探索。
未来:三个值得留在牌桌上观察的方向
在冲浪的时候,你不能只看眼前的浪,还要感知水面下的暗涌——那些还没有形成明显浪型但已经在积蓄能量的趋势。撮合引擎的演进也一样。我想分享三个我认为值得长期关注的方向。
第一,CEX 与 DEX 正在融合。
这个趋势已经在发生了,而且速度比大多数人预期的要快。
从 CEX 一侧看,越来越多的交易所开始探索”自托管”选项——用户的资产不离开自己的钱包,交易所只负责撮合和结算。这是对 FTX 教训的直接回应——用户说”我不想把钱放在你手里”,交易所说”好,那你自己拿着,我只管撮合”。
从 DEX 一侧看,Hyperliquid 的界面和体验几乎与 Binance 无异——专业的 K 线图、高级订单类型、低延迟的反馈。做市商在上面的操作体验接近 CEX。如果你不看底层架构,纯从用户体验的角度看,很难分辨它是 CEX 还是 DEX。
我越来越觉得,“中心化 vs 去中心化”是一个错误的二元框架。更有用的框架是一个信任谱系(Trust Spectrum)——在撮合、托管、结算、排序这些不同环节中,分别需要多少信任?可以把哪些环节的信任从”信任一个机构”转移到”信任一套代码/数学”,同时保持可接受的性能和成本?
最终形态可能是:链上结算(信任数学)+ 链下高速撮合(信任高效的代码)+ 可验证正确性(用 ZK 证明弥合两者之间的信任差距)。这既不是纯粹的 CEX 也不是纯粹的 DEX,而是信任谱系上的一个新的平衡点。
第二,碎片化的流动性正在被整合。
当前的流动性碎片化是一个真实的痛点。同一个 ETH/USDC 交易对的流动性分散在 Binance、Coinbase、Uniswap、dYdX、Hyperliquid、各个 L2——像一条河被分成了几十条溪流,每条溪流都不够深。交易者为此付出更高的滑点成本,做市商为此分散资金效率下降。
Intent-based 架构可能成为整合层。如果 Solver 能够跨链、跨协议路由——在 Arbitrum 的 Uniswap 上取一部分流动性,在 Solana 的 Orca 上取一部分,在 CEX 的 API 上取一部分——用户只需表达意图,Solver 竞争提供最优执行。就像一个超级旅行代理,能同时搜索所有航空公司、所有酒店平台、所有租车公司,给你一个打包好的最优方案。
技术挑战很大——跨链的原子性问题(怎么保证 A 链上的交易和 B 链上的交易要么同时成功、要么同时失败)、不同链的结算最终性差异(以太坊的区块确认时间和 Solana 的不一样)、Solver 需要预先在多条链上部署资金。但方向是清晰的。
第三,可验证计算正在从”验证结果”走向”验证过程”。
当前的 ZK 技术主要用在 Rollup 层面——验证”给定一批交易,最终状态是否正确”。这是”验证结果”。
但未来可能验证撮合过程的每一步——Price-Time Priority 是否被严格执行、是否存在隐藏订单、是否有抢跑行为、是否有人被不公平地跳过。这是”验证过程”,要求高得多,但意义也大得多。
如果 ZK 证明的生成速度足够快(当前仍是主要瓶颈——生成一个复杂的 ZK 证明可能需要数秒甚至更长)且成本足够低,它可能根本性地改变撮合引擎的信任模型。不需要多数诚实的 Validator(dYdX 的假设),不需要信任链上透明(Hyperliquid 的假设),不需要信任交易所运营方(CEX 的假设)——只需要数学。
这听起来有些理想主义。但回看历史,LMAX 证明一个厨师可以比五个厨师更快的时候,也没多少人相信。Uniswap 说”我们不需要订单簿”的时候,大多数人觉得这是个玩具。每一次范式跃迁在发生之前,都看起来”不太现实”。
尾声
写这篇文章的过程中,我反复回想新加坡那次闭门讨论的场景。做传统做市的朋友看不上 DEX 的延迟——“500 毫秒?我都能喝口水了。” 做 DeFi 的朋友看不上 CEX 的信任模型——“你把钱放在一个随时可能跑路的地方,然后跟我炫耀快了 20 微秒?”
但我逐渐觉得,他们其实在爬同一座山的不同面。一个从南坡上,一个从北坡上,沿途看到的风景完全不同,但最终汇聚的方向是一样的。
CEX 的二十年演进告诉我们:性能优化的本质不是”更努力”,而是对底层的重新理解。从算法到内存,从 CPU 缓存到硬件电路,从软件到物理层——每一次突破都来自对”瓶颈究竟在哪里”的重新认识。
DEX 的数年演进告诉我们:信任模型的变革需要接受取舍,但取舍的前沿是可以推动的。从”只能用 AMM 绕过订单簿”到”可以在链上跑高性能订单簿”,再到”可以用数学证明替代信任”——每一步都在拓展可能性的边界。
归根到底是一件事:撮合引擎的每一次演进,都是在信任与性能之间找到新的平衡点。这个寻找还远未结束。
我有时候觉得,撮合引擎的演进史是整个技术行业的一个缩影。表面上看到的是性能数字的指数级提升——从每秒处理几十笔到每秒处理几百万笔——但真正驱动这一切的不是对”更快”的追求,而是对”瓶颈究竟在哪里”这个问题一次又一次的重新认识。每一次范式跃迁的起点不是新技术的出现,而是旧认知的打破。
Martin Thompson 打破了”多线程一定比单线程快”的认知。Uniswap 打破了”交易必须有订单簿”的认知。Hyperliquid 正在尝试打破”链上不可能跑高性能订单簿”的认知。Lighter 正在尝试打破”去中心化必须依赖多数诚实假设”的认知。
下一个被打破的认知会是什么?我不确定。但我确定的是,它大概率来自于某个人对某个被所有人视为”显然正确”的假设产生了质疑。就像 Martin Thompson 问的那个问题:“为什么我们都觉得多线程一定更快?有没有可能这个’显然’是错的?”
这就是留在牌桌上的意义——不是为了等一手好牌,而是为了在认知被打破的那个瞬间在场。