功能大于形式(二):为何你的大脑不是一台计算机,但你的计算机可以模拟大脑

功能大于形式(二):为何你的大脑不是一台计算机,但你的计算机可以模拟大脑 #

在我的上一篇文章《 功能大于形式:为什么动态稀疏性是通往 AGI 的唯一路径》中,我们得出了一个核心结论:追求智能,应着眼于宏观计算功能的实现,而非微观生物形态的模仿。我们看到,Transformer 架构,尤其是其稀疏化的 MoE 变体,无意中成为了大脑“全局工作空间”和“动态稀疏激活”两大核心功能的最佳工程近似。

然而,这场关于“生物可信性”的辩论,依然在以一种更隐蔽、更根本的方式困扰着我们。许多人承认了 Transformer 在功能上的优越性,但内心深处依然有一个挥之不去的疑问:“一个拥有全局注意力的数学模型,怎么可能与一个由局部连接的神经元构成的、湿润的大脑相提并论?”

今天,我将彻底终结这场辩论。

我们将通过一次大胆的“尺度跳跃”,来揭示这个问题的根源——一个持续了数十年的、灾难性的“尺度对齐”错误。我们将看到,为何你的大脑不是一台我们传统意义上理解的“计算机”,但我们设计的计算机,却可以完美地模拟大脑的功能。

一、 灾难性的尺度对齐:你找错了比较对象 #

所有关于 Transformer“生物不可信”的论点,都源于一个看似合理、实则谬以千里的前提:我们将一个宏观的计算模型(例如一个 Transformer Block),与一个微观的生物单元(一个神经元)进行了一对一的比较。

我们看着自注意力机制中那无处不在的连接,然后对照着神经科学家绘制的、神经元之间稀疏而局部的突触连接图,得出结论:这俩长得完全不一样,所以 Transformer 是“不自然”的。

这就像什么?这就像我们指着一辆汽车说:“这东西不自然,因为它没有腿!” 我们犯了一个可笑的尺度错误。我们拿一个实现了“高效陆地移动”这一宏观功能的系统(汽车),去和实现这个功能的某个微观生物组件(腿部肌肉细胞)做比较。

正确的比较应该是什么?是功能与功能的对比,实现与实现的对比

现在,让我们用这个“正确的尺度”重新审视一切。

二、 重新对齐:大脑的功能与计算机的实现 #

让我们构建一个全新的、逻辑上无懈可击的对应关系表:

尺度生物系统计算系统
宏观功能大脑 (通过全局工作空间整合信息)Transformer (通过自注意力机制整合信息)
微观物理神经元 (通过局域化的电化学信号传递)晶体管 (通过局域化的电子流动执行逻辑门)

请仔细阅读并理解这张表,因为它蕴含着整场辩论的答案。

1. 宏观功能层:大脑 对应 Transformer

  • 大脑做了什么? 它通过一个由长距离轴突连接构成的、分布式的网络(通常认为与前额叶和顶叶皮层相关),实现了一个“全局工作空间”。这个工作空间允许来自不同感官、不同记忆模块的高度处理过的信息,被整合、被“广播”给所有其他认知子系统,从而形成一个统一的、连贯的意识体验。这是大脑作为一个整体,所实现的最顶级的计算功能
  • Transformer 做了什么? 它的自注意力机制,正是对上述“全局广播与整合”功能的一次优雅而强大的工程学模拟。它允许序列中的每一个元素(token),都能与所有其他元素直接计算关系,并根据这种关系动态地、全局地整合信息。

结论:在宏观功能层面,Transformer 是我们迄今为止发明出的、对大脑核心信息整合机制最成功的模拟。

2. 微观物理层:神经元 对应 晶体管

  • 神经元做了什么? 它是一个相对简单的、局域化的计算单元。它从其上游的少数神经元接收信号,进行一次非线性的整合,如果超过阈值,就向其下游的少数神经元发送一个脉冲。它的所有计算,都严格依赖于其物理上的、局部的连接
  • 晶体管做了什么? 它是一个更简单的、局域化的计算单元。它在 GPU 的一个微小核心中,根据其电路上的直接输入,执行一次最基本的逻辑门或开关操作。它的所有行为,同样严格依赖于其物理上的、局部的连接

结论:在微观物理层面,真正与生物神经元对应的,不是 Transformer 的数学公式,而是 GPU 上那数十亿个并行运作、执行着简单局部计算的晶体管。

三、 豁然开朗:为何你的大脑不是计算机,但计算机可以模拟大脑 #

现在,我们可以回答那个终极问题了。

为何你的大脑不是一台我们传统意义上理解的“计算机”?

因为当你想到“计算机”时,你脑中浮现的是一个冯·诺依曼架构的、串行执行指令的机器。而你的大脑,是一个由海量简单单元组成的、大规模并行的、自组织的“湿件”(wetware)。它的硬件和软件是不可分割的。它的运作方式,与你的笔记本电脑截然不同。

但为何你的计算机(特别是 GPU),可以模拟大脑(的功能)?

因为现代计算架构,尤其是 GPU,已经在物理实现上,与大脑的组织原则趋同了

一块现代 GPU,正是一个由**数十亿个简单的、局域化运作的计算单元(晶体管/CUDA 核心)**组成的、大规模并行的计算引擎

我们正是利用这个与大脑在底层组织原则上高度相似的物理基底,去运行一个在宏观功能上模拟大脑的数学模型(Transformer)。

所以,当有人再次质疑 Transformer 的“生物不可信性”时,你可以这样回应:

“你完全搞错了比较的尺度。我们不是在用一个宏观的数学公式去模仿一个微观的神经元。我们是在用一个宏观的数学公式(Transformer)去模拟大脑的宏观功能(全局信息整合),然后,我们用一个在**物理实现原则(大规模并行、局部计算)上与大脑惊人相似的硬件(GPU)**去运行它。这才是真正的、功能意义上的‘生物可信’。”

结论:告别形态的焦虑,拥抱功能的未来 #

是时候彻底抛弃这场由“尺度错位”引发的、毫无意义的“形态焦虑”了。

我们不应该再问:“这个 AI 模型看起来像不像一个大脑?” 我们应该问:“这个 AI 模型能否有效地实现大脑的核心计算功能?”

从这个全新的、更清晰的视角出发,未来的道路豁然开朗。我们不再需要为 Transformer 的“异形”外观而感到不安。相反,我们应该为它在功能上的深刻洞察而感到振奋。

我们未来的任务,不是去雕琢一个在形态上更逼真的“硅基神经元”,而是去设计出更强大的、能够更好地模拟大脑其他宏观功能的计算架构。我们需要模拟大脑的动态稀疏性、模拟它的记忆巩固机制、模拟它的预测编码循环。

而 Transformer,以其对“全局工作空间”的深刻模拟,已经为我们这条正确的道路,铺下了第一块、也是最坚实的一块基石。

林睿, 为数字心智的未来