Artificial Intelligence: An Introduction
从2024年我最初学习的机器学习开始,到现在已经逐步将知识涉猎渗入到深度学习、古典人工智能、强化学习等多个方面,于是我把分开的各个章节综述整合在一起,撰写本整体性的人工智能综述。在过去的十年里,我们看到了联结主义的辉煌,但现在显然又步入到了一个古典AI文艺复兴的时代。
人工智能历史发展主要经历了两个最主要的流派周期:符号主义(Symbolic Era)与联结主义(Connectionist Era)。由于联结主义在今天显然是winner,因此符号主义如今也被称为古典人工智能。
从1956年的达特茅斯会议第一次将“Artificial Intelligence”作为一个具体的对象去讨论,到今日2026年,已经过去了半个多世纪。在这过去的半个多世纪里,AI已经经历了几次范式的转变,并经历了多次寒冬和浪潮:
- 搜索与符号处理阶段(1950s–1960s):这一时期的 AI 被视为“搜索算法”,试图通过穷举或启发式搜索来解决问题。其局限性在于遭遇了“组合爆炸”问题(计算量随问题复杂度呈指数级增长),且由于过度承诺导致了大众期望膨胀后的失望。
- 逻辑推理与专家系统(1970s–1980s):通过使用特定领域知识和逻辑规则来进行推理。知识图谱和商业化的专家系统。其局限性在于无法处理不确定性或新情况,且并非所有人类知识都能被编码为正式规则。
- 概率建模阶段(1990s–2000s): 引入统计学,使机器能够 在不确定性下进行推理 ,并根据数据更新“信念”。这类方法通常需要一个预设的底层模型支撑。此时,神经网络(联结主义)虽在暗中发展,但尚未成为主流。
- 机器学习与深度学习爆发(2010s–2020s): 海量数据 + 强大的计算能力 + 简单但深层的神经网络结构,学习数据的复杂表示。目前是“联结主义者”获胜的时代,我们正处于第三波 AI 浪潮(或炒作周期)的顶峰。
- 神经符号AI与Multi-Agents(当前的最前沿与最有可能的未来范式):深度学习“擅长直觉,不擅长逻辑”。将神经网络(直觉)与逻辑推理或“工具调用”(Tool Calling)相结合,比如当要求 AI “使用代码验证”时,它能通过运行程序得到正确答案,这就是逻辑/工具对直觉的补足。
四类人工智能
我们将人工智能定义为对从环境中接收感知并执行动作的智能体(Intelligent Agent) 的研究。每个这样的智能体都要实现将一个感知序列映射为动作的函数,AIMA这本书旨在于介绍表示这些函数的不同方法。
AIMA并没有将机器人学和CV看做独立定义的问题,而是将其看做实现目标的服务。
AIMA总结了四种人工智能:
- 类人行为(Acting Humanly):图灵测试方法
- 类人思考(Thinking Humanly):认知建模方法
- 理性行为(Acting Rationally):理性智能体方法
- 理性思考(Thinking Rationally):思维法则方法
类人行为:图灵测试
1950年,图灵在论文《计算机器与智能》中列举了当时人们对机器能力的种种质疑,认为这些质疑大多基于感性偏见或对机器潜力的低估。这引申出来了机器永远做不到 X(Arguments of the form "Machines will never do X") 这一经典的论证模式。
历史上,人们不断地将 "X" 替换为各种人类独有的能力,试图划定机器的边界,如机器永远做不到: 善良、机智、美丽、友好、有首创精神、有幽默感、明辨是非、犯错误、坠入爱河、享受草莓和奶油、让某人爱上它、从经验中学习、正确使用词汇、成为自己思想的主人、具有多样化的行为。
图灵认为,人们说“机器永远做不到 X”,往往是因为他们之前看到的机器确实做不到。这就像是看到一个只有黑头发的人,就断定世界上没有红头发的人一样。以前的机器存储空间极小、算力微弱,你不能用“旧机器”的无能来定义“机器”这个概念的终极边界。
对于意识、情感等抽象概念,图灵提出了一个极其务实的准则:如果表现得一模一样,就应该视为拥有该能力。
如果一台机器在描述一首诗时表现出的情感波动与人类无异,你却硬说它“没有真情实感”,那么你如何证明你的朋友有真情实感呢?图灵认为,除了自己以外,我们无法感知任何人的内在体验,所以 外部行为是唯一的判断标准 。
面对“机器不能享受草莓和奶油”这种指责,图灵的回答非常有幽默感。他认为,给机器装上一个能尝出草莓味的感官系统,在技术上或许是可能的,但 这毫无意义 。因为“能不能吃草莓”并不影响机器是否具有“智能”。
我们是在讨论“人工智能”,而不是“人工合成人”。机器不需要完全模仿人类的所有生理特征,它只需要在智力表现上与人等同。
图灵测试(The Turing Game / Imitation Game)正是为了终结这些关于“X”的无休止争论而提出的。
图灵在论文开头就明确提出,他想用一个具体的问题来替代那个模糊的问题:
- 旧问题: “机器能思考吗?”(太模糊,无法实验)
- 新问题: “如果一台机器在文字交流中表现得和人一模一样,我们能否认为它拥有智能?”(可观测,可实验)
这在哲学上被称为 行为主义(Behaviorism) 。图灵认为,我们判断一个东西是否有智能,不应该看它的内部构造(是碳基的细胞还是硅基的芯片),而应该看它的 外部表现 。
为了证明机器能做到“X”,图灵测试设定了三个隐含的标准:
- 语言能力: 机器必须掌握复杂的语言逻辑。
- 知识宽度: 机器必须能聊任何话题(从艺术到科学,从八卦到常识)。
- 欺骗与模仿: 机器必须理解“人类是如何犯错的”以及“人类是如何表达情感的”,这要求机器具备 社会认知能力 。
总结而言,图灵测试(类人行为)角度回避了这个问题:
机器能思考吗?
一些研究人员提出了完全图灵测试(total Turing test),该测试要求机器与现实世界中的对象和人进行交互。
站在21世纪20年代的今天,我们可以看到该方向已经取得了巨大的成就,文字图灵测试已被大语言模型所攻克,而科学家们正朝着完全图灵测试的方向前进。
类人思考:认知建模
类人思考主要研究思考的本质。换句话说,我们必须首先知道人类是如何思考的,才能说程序像人类一样思考。一旦我们有了足够精确的心智理论,就有可能把这个理论表达为计算机程序。如果程序的输入输出行为与相应的人类行为相匹配,那就表明程序的某些机制也可能在人类中存在。
关于人类自己如何思考的研究主要由认知科学(cognitive science)来完成。认知科学研究人类或动物,主要通过以下三种方式来了解人类思维:
- 内省 introspection
- 心理实验 psychological experiment
- 大脑成像 brain imaging
总而言之,虽然最好的了解智能的方式就是了解我们自己的智能,但问题是我们至今都不知道我们自己的智能是怎么一回事。
理性行为:理性智能体
我们回想一下生物的进化:生物进化的核心机制是自然选择,而自然选择的准则是 生存与繁衍 。AIMA基于此提出了理性智能体的概念。
Rational Agent(理性智能体) 是一个能够通过感知环境并采取行动,以实现 最佳预期结果 (或在存在不确定性时实现最佳期望结果)的实体。
AIMA这本教材主要讨论的就是基于理性智能体的内容,AIMA 认为:比起追求“像人一样”,追求“理性”是更科学、更具工程可实现性的。
整本AIMA其实就是在教你 如何为不同复杂度的环境构建理性智能体 :
- 第3-6章(搜索与约束): 在确定的、完全可观测的环境中,理性就是找到那条最优路径。
- 第12-17章(概率与不确定性): 在不确定的世界里,理性就是 期望效用最大化 。
- 第18-21章(机器学习): 当智能体不知道环境如何运作时,理性就是通过学习来完善自己的内在模型。
- 第24-25章(感知与行动): 机器人如何通过视觉和执行器,在物理世界中实现理性。
Rationality
那么什么是做正确的事情呢?我们可以通过Performance Measure 性能度量来衡量一个智能体表现得有多好,比如给智能体打分,从环境的角度来观察结果。比如说,衡量地板现在有多干净比衡量吸走了多少灰尘更有效,因为机器人可能会为了刷分而把干净的地板重新弄脏。
Rationality 理性,简单来说就是在当下信息基础上做出最正确的事情。一个行为是否理性,取决于以下四个因素的组合:
- 性能度量: 定义成功的标准(你想得多少分?)。
- 感知序列: 智能体到目前为止看到、听到的所有信息。
- 环境知识: 智能体对世界运作规律的了解。
- 行动能力: 智能体能够采取的动作。
对于每一个可能的感知序列,根据已知的感知序列和智能体内置的知识,理性智能体应该选择一个能使其性能度量期望值最大化的动作。
PEAS
我们可以通过以下角度来设计:(PEAS)
- Performance
- Environment
- Actuators
- Sensors
我们要考虑两个问题:
- how we represent?
- how we reach goal?
Properties of Environments:
- partial/fully observable:环境状态是否能被完整观测
- deterministic/stochastic:确定型vs随机性
- episodic/sequential:片段式vs顺序式
- static/dynamic:静态vs动态
- discrete/continuous:离散vs连续
- single/multi-agent:单智能体vs多智能体
Architecture
AIMA提出了智能体架构:
架构使得来自传感器的原始感知(Percepts)能够传递给程序,并将程序生成的动作(Actions)传递给执行器去执行。
我们根据不同的目标来设计agent并衡量performance:
- goal based: get it done
- utility based: get the best score
如果过度强调某一个性能指标,可能会导致AI系统出现意外后果(Unintended Consequence)。比如说,如果过度强调自动驾驶的达到速度这一指标,那么AI就可能会采取过于激进的驾驶行为;虽然能达到目标,但极大地增加了发生事故的风险。
根据处理逻辑的复杂程度,架构可以支持不同等级的智能体设计:
- 简单反射型架构 (Simple Reflex):这是最简单的架构,程序直接将当前的感知通过“条件-动作规则”映射到动作。它不存储历史,要求架构能快速处理实时信号。
- 基于模型的架构 (Model-Based):架构需要提供 存储空间(Memory) 。程序利用这些空间维护一个“内部状态”,用来追踪那些当前传感器看不到、但之前看过的环境信息。
- 基于目标的架构 (Goal-Based):在这种架构下,程序不仅要看当前,还要看未来。架构需要支持搜索和规划算法的运行,以便找到通往目标状态的最佳路径。
- 基于效用的架构 (Utility-Based):这是最复杂的架构。它需要计算不同状态的“幸福感”(效用)。架构必须支持处理概率计算和复杂的评估函数,以在多个冲突目标之间做权衡。
理性思考:思维法则
思维法则(Laws of Thought)基于逻辑和三段论,通过严谨的推导得出结论。
早期AI发展
哥德尔不完备定理
哥德尔不完备定理是库尔特·哥德尔于1931年证明并发表的两条定理。第一条定理指出:
任何自洽 "一致性 (逻辑)")的形式系统,只要蕴涵皮亚诺算术公理,就可以在其中构造在体系中不能被证明的真命题,因此通过推理演绎不能得到所有真命题(即体系是不完备的)。
把第一条定理的证明过程在体系内部形式化后,哥德尔证明了第二条定理。该定理指出:
简单来说,在一个逻辑系统里, “真”不等于“可证” 。有些事情绝对是真的,但你无法用系统内的逻辑推导出它是真的。
数学家彭罗斯等人认为,哥德尔定理证明了 人类意识不是一套计算程序 。既然人类可以一眼看出那个哥德尔命题是真的,但机器(作为一套基于算法的逻辑系统)却无法证明它,说明人类拥有某种“非算法化”的直觉。纯粹的硅基 AI 永远无法达到人类这种级别的智能,因为它们受限于逻辑系统的边界。
然而,大多数现代 AI 研究者持乐观态度:人类本身就是不完备的,人类也无法证明某些真命题,只是我们还没发现。
丘奇-图灵论题
1936年,阿兰·图灵提出了通用图灵机(Universal Turing Machine) 的模型。图灵证明了只要是“可计算”的问题,都可以通过一个机械式的符号处理系统(即图灵机)来完成。这为 GOFAI 奠定了物理基础。它告诉科学家: 智能可以从物质实体中剥离出来 。只要逻辑是对的,用电路板、齿轮甚至水管都能实现智能。
接着,阿隆佐·邱奇和图灵共同提出了丘奇-图灵论题(Church-Turing Thesis)。该论题断言,所有“算法上可计算”的函数都可以由图灵机计算。它设定了 AI 的上限和下限。如果人类大脑的思考本质上是一种算法,那么 AI 理论上可以模拟人类的一切智力活动。
图灵认为,意识(详细的关于意识的讨论参见Lucas-Penrose辩论小节)虽然是一个困难的问题,但我们不需要一定明晰其内部状态,只要其产出是合格的,那么人工智能实践便有的放矢。因此图灵认为可以通过图灵测试来判断AI是否强大,而无需过度关注意识问题。
M-P模型
1943年,麦卡洛克(McCulloch)和皮茨(Pitts)发表了著名的 M-P 模型 。他们用数理逻辑证明了,简单的生物神经元可以被抽象为逻辑门(与、或、非)。这是 神经网络的数学起源 。它证明了复杂的逻辑推理(GOFAI 的核心)可以通过简单的神经元网络(神经网络的核心)来实现。这意味着“逻辑”和“生物学”在数学上统一了。
GOFAI
20世纪50年代到80年代占据统治地位的符号人工智能(Symbolic AI)被称为GOFAI(Good Old-Fashioned Artificial Intelligence,老式人工智能),他们无法解决资格问题(Qualification Problem)。
资格问题 是逻辑学家约翰·麦卡锡(John McCarthy)提出的一个经典难题。它描述了在用逻辑规则描述现实世界时, 列举一个动作成功所需的“所有前提条件”几乎是不可能的 。假设我们要给一个 GOFAI 机器人写一条规则:“如果要开车去上班,必须转动车钥匙。”但在现实中,单纯“转动钥匙”并不足以保证车能启动,还需要满足无数的 潜在条件 :
- 油箱里有油。
- 电瓶没没电。
- 排气管没被土豆堵住。
- 引擎里没有流浪猫。
- 没有外星人把发动机偷走……
在逻辑系统里,如果你不明确写出“排气管没被堵住”,系统就默认它是正常的。但现实世界中,意外情况是无限的。无论你列出多少条前提,总能找到第 \(n+1\) 种让动作失败的可能性。这导致 GOFAI 系统在面对变幻莫测的现实环境时非常脆弱,一旦遇到程序员没写进代码的细微干扰,系统就会崩溃或卡死。
GOFAI时代的人工智能研究者们试图通过写死规则来通过图灵测试。结果发现,无论写多少规则,面对人类灵活的对话(资格问题),机器总会露馅。
最直观的例子就是,几千年来所有的国家都在尝试制定无漏洞的法律,但是都没有成功。因此让机器人愿意遵守法律,好过强迫机器人遵守法律。一个足够聪明的机器人总能找到规避法律限制的方法。
专家系统(Expert Systems) 是 GOFAI 理念在工业和科学领域的具体落地应用。它是一个模拟人类专家解决特定领域问题的程序。它通常由两部分组成:
- 知识库(Knowledge Base): 存满了“If-Then”规则的百科全书。
- 推理引擎(Inference Engine): 像个侦探,根据你提供的事实,去知识库里匹配规则并得出结论。
PSSH
物理符号系统假设 (英语:physical symbol system hypothesis,PSSH )是在人工智能哲学中,由艾伦·纽厄尔和赫伯特·西蒙提出的一个观点。他们写道:
物理符号系统具有充分且必要的手段进行通用智能行为。
这将 AI 彻底定义为 符号的排列组合 。它告诉人们:只要你能把世界编码成符号(Symbol),并定义好运算规则,你就创造了智能。该主张意味着人类的思维是一种符号处理(因为符号系统对于智慧来说是必要的),同时也意味着机器可以拥有智慧(因为符号系统对于智慧来说是充分的)。
值得注意的是,在深度学习时代,该假设并未消失,而是变成了“亚符号”(Sub-symbolic)。现在的 AI 不再用“Cat”这个单词作为符号,而是将世界编码成 高维向量(Embedding) 。这些向量就是“数字符号”,只不过它们不再是人类能直观读懂的逻辑词汇,而是隐藏在多维空间里的坐标。换句话说,该假设的“内核”依然适用——智能确实来自信息的编码与 规则的处理 。只不过现在编码的方式从“人类语言”变成了“高维数学”,规则的制定从“手写”变成了“自学习”。
很多科学家(如 Yann LeCun)认为,现在的 GPT 本质上还是在处理高维符号的概率。如果我们能找到更高效的架构(比如世界模型),我们终究能通过数学运算模拟出完美的智能。当然,这里要注意PSSH和联结主义有着本质的分野:
- 在 PSSH 中,一个符号(如“Cat”)存在于一个特定的内存地址中。
- 在 联结主义 中,概念“Cat”并不存在于某个特定的神经元,而是分布在整个网络的权重中。这就是为什么神经网络有 鲁棒性 ——坏掉几个神经元,系统还能工作;而逻辑代码错一行,整个程序就崩溃。
当然,反对者也不少。具身智能视角认为智能不能仅仅靠“编码符号”,他们认为没有身体就没有真正的智能——如果你没有身体去感知物理世界的重力、触觉,你永远无法产生真正的智能。符号只是结果,不是原因。主观经验学派反驳即使你编码了所有关于“红颜色”的物理数据和运算规则,机器真的能“感受到”红色的那种鲜艳感(意识)吗?
Lucas-Penrose Argument
Lucas-Penrose 辩论是哲学和 AI 领域最著名的“阻击战”之一。它的核心论点是:人类意识中存在某种“非算法”的东西,因此机器永远无法达到人类的智能水平。
意识是一种“身为某物的感觉”,其专业术语是qualia。目前认为只有人类有qualia,动物、宠物等皆没有qualia。何为身为某物的感觉,经过几个世纪的争论也没有一个确切答案。意识的定义不明确,故而关于意识的问题都难以得到确切的回答。
牛津大学哲学家 John Lucas 和诺贝尔物理学奖得主 Roger Penrose的论证逻辑高度一致,都是利用哥德尔定理作为反击 AI 的“核武器”:在任何足够强大的形式逻辑系统(可以看作是运行算法的计算机)中,总有一些命题是真的,但在该系统内部 无法被证明 。作为一个人类数学家,我们可以通过“直觉”或“元观察”一眼看出这些命题是真的(即所谓的“哥德尔语句”)。既然人类能看到机器逻辑系统“看不到”的真理,那么 人类的心灵就不可能是一个简单的算法系统 。
值得注意的是,Lucas和Penrose反对联结主义(神经网络),因为神经网络本质上依然是算法,而他们的核心结论是反算法主义的。无论神经网络有多复杂,它在计算机上运行时,最终都可以被简化为一个巨大的 图灵机 ,在进行矩阵乘法和加法。既然神经网络本质上是计算,那么它就必须遵守哥德尔不完备定理。因此,神经网络也无法“看到”哥德尔语句的真理性。他们认为联结主义和符号主义(GOFAI)是 一丘之貉 ,都无法产生真正的意识和理解。
然而,受到最大攻击的显然不是联结主义,而是符号主义。这是因为符号主义完全基于形式逻辑。Lucas 的论证直接切中了符号主义的命门——如果智能就是一套逻辑推导系统,那么哥德尔定理确实证明了这套系统是有局限的。
联结主义并不依赖显性的逻辑推导。神经网络表现出的是一种“统计直觉”。虽然 Penrose 认为这种直觉背后也是计算,但由于神经网络是黑盒,很难像证明逻辑系统那样直接证明“神经网络不可行”。
虽然 Penrose 主观上反对当时的神经网络,但他的理论其实为现代 AI 的某些观点提供了灵感:Penrose 认为大脑里有某种“非算法”的过程(基于量子引力)。而联结主义(尤其是深度学习)恰恰强调非线性、涌现性和 非确定性 。神经网络的某些复杂表现,虽然在底层是计算,但在宏观上已经表现出了类似 Penrose 所说的“非算法”特征。Penrose 强调人类数学家靠的是“理解”和“直觉”。现代联结主义试图证明:“直觉”其实就是高维向量空间的模式匹配。 当 GPT-4 能够一眼看出代码中的逻辑错误时,它表现出的那种“直觉”,在某种程度上解构了 Penrose 所说的“神秘性”。
虽然他们不是联结主义的朋友。但讽刺的是,由于他们把符号主义骂得太惨,反而客观上帮助联结主义在 80 年代理论大辩论中获得了更多关注——因为人们意识到,如果符号逻辑这条路被哥德尔堵死了,也许模拟大脑(联结主义)是唯一的出路。
莫拉维克悖论
有一个非常著名的莫拉维克悖论(Moravec's Paradox):
要让电脑如成人般地下棋是相对容易的,但是要让电脑有如一岁小孩般的感知和行动能力却是相当困难甚至是不可能的。

大多数人认为,人类所具备的独特智能和高阶智慧是最难实现的东西。然而,我们看一看生物进化史就会发现,生物进化出一些我们习以为常的、不费吹灰之力的能力,如走路、看东西、识别物体、抓取杯子等,花费了几十亿年的时间;而一些高阶的技能,比如黑猩猩能做到的族群合作、高效的互动感知能力等,只花了数千万年的时间;而我们所以为的最难的人类智慧,其实只用了不到一百万年就进化出来了。
换句话说,人们常认为最难的东西,比如抽象的数学、下棋等,其实并不难;而人们认为最简单的东西,比如走路、抓取东西等,却是最难的。 这些超底层的技能,是最难的、最复杂的、最根本的能力。因此,我们回顾人工智能发展历史就会发现,所有那些“看似困难”的任务,比如国际象棋、围棋等,都是最先被解决的;而那些看似容易的问题,比如物品识别和常识推理,却是最难实现的。2012年,AlexNet在视觉识别上的里程碑,才算是刚刚打开了物品识别的序幕;而仅仅4年后,AlphaGo的出现,便已经对棋类游戏画上了句号。
四五岁的小孩就可以解决的事情,比如区分咖啡杯和椅子,用腿自由行走,以及学习动作、理解环境等,在早期人工智能研究中被认为是不需要智慧的事情,如今反过来被证明是最需要智慧的事情。
今天,人们对人工智能的发展是如此自信,以至于似乎AGI马上就能实现了。然而,语言这一看似最难的智慧体现,从制造智能体的角度来看,反而是最为简单的。人工智能的发展历史值得我们警醒:不要忘记真正的最难的任务,而沉溺于解决人们以为的难题。
看看在第一波人工智能浪潮中(1956-1974)AI研究者们的自信预言吧:
- 1958年,艾伦·纽厄尔和赫伯特·西蒙:“十年之内,数字计算机将成为国际象棋世界冠军”,“十年之内,数字计算机将发现并证明一个重要的数学定理”。
- 1965年,赫伯特·西蒙:“二十年内,机器将能完成人能做到的一切工作。”
- 1967年,马文·闵斯基:“一代之内……创造‘人工智能’的问题将获得实质上的解决。”
- 1970年,马文·闵斯基:“在三到八年的时间里我们将得到一台具有人类平均智能的机器。
正是因为当时的人们过于乐观的估计,导致这些预言未能被兑现时,市场、各大研究机构,对人工智能的批评达到了一个高峰,人们对AI的质疑也带来了AI发展的第一次低谷。直到80年代,专家系统的出现才开始让人们重新重视AI,并且在这时起,机器学习、联结主义、神经网络、强化学习等研究开始在各地生根发芽;进入21世纪后,机器学习、深度学习开始解决一个又一个难题,并随着互联网的不断扩大,终于诞生了划时代的Transformer架构和LLMs应用。
随着大语言模型的飞速发展,如今人们已经不再怀疑大语言模型是否能通过图灵测试。因为无论从哪个角度来看,大语言模型都已经通过了图灵测试。因此,如今的图灵测试也进一步升级到机器人领域,而随着人们对智能的重新认知,以及莫拉维克悖论的应证,如今越来越多的研究者开始把“做家务”这一类看似简单的任务,视为机器人的图灵测试,以及真正的智慧检验。
莫拉维克悖论可以帮助我们回答这个问题:机器人控制的难题源于硬件吗? 并不是。一个很简单的例子就是如果我们能直接操控一个看起来笨拙的、DOF很低的机器人,那么这个笨拙的机器人立马就可以在我们人类的操作之下完成各种看起来很复杂的任务。因此,算法、数据、算力等比硬件更重要,这也是为什么如今机器人研究的重点逐步转移到学习算法、高质量数据收集、算力提升上,而不再是传统的规划、控制、动力学等。
机器学习
随着符号主义热潮的冷却,机器学习重新燃起了人工智能的讨论。此时,科学家们不在试图模仿大脑,而是把机器学习看作一个纯粹的统计优化问题。
早期机器学习代表算法包括感知机(Perceptron)和SVM等。这个时期的模型“小而美”,数学逻辑极其严密。缺点则是极度依赖 人工特征工程 (你需要手动告诉机器应该注意图片的哪个像素)。
这里要注意,虽然后来的深度学习(神经网络)也是机器学习算法,但深度学习和SVM等早期机器学习算法的数学基因完全不同。反向传播(Backpropagation)是神经网络的专属工具,而 SVM 使用的是一套基于几何与凸优化的数学方案。
反向传播
1969 年,AI 泰斗 Marvin Minsky 出版了《Perceptrons》一书,指出当时的单层神经网络(感知机)连简单的 XOR(异或)问题都解不了。这导致整个学术界和资助机构对神经网络失去了信心,进入了第一个“AI 寒冬”。大家普遍认为神经网络是死胡同,自然没人去研究如何训练多层网络。
1974年,Paul Werbos在他的博士论文中提出,如果把神经网络看作一系列的数学函数嵌套,那么就可以用这种“回溯推导”的方法来训练它。遗憾的是,由于当时正处于“AI 寒冬”,他的研究几乎被完全忽视了。
1986 年,Geoffrey Hinton 等人重新独立发现了这个方法,并用它证明了多层网络可以学习到复杂的特征,反向传播才正式和“神经网络”这个标签深度绑定。然而,人们很快发现,一旦网络层数加深(超过 3 层),算法就失灵了。
BP 算法依赖链式法则连乘。当时的激活函数主要是 \(Sigmoid\)。在反向传播过程中,导数在每一层都会不断收缩。传到靠近输入端的前几层时,梯度几乎变成了 0,模型根本无法学习。这让当时的神经网络只能停留在“浅层”,处理不了复杂任务。
90 年代,以 SVM(支持向量机) 为代表的核方法横空出世。SVM 有严谨的数学证明,能保证找到全局最优解;而神经网络像个“炼丹炉”,参数初始化不好就会陷入局部最优,结果全靠运气。在当时极其有限的内存和 CPU 算力下,SVM 这种只需处理少量“支持向量”的算法,运行速度和效果完爆臃肿的神经网络。学术界甚至出现了一种歧视——如果你的论文里用的是神经网络,很容易被顶会审稿人直接枪毙。
在这段被称为“第二个 AI 寒冬”的岁月里,只有极少数人还在死磕神经网络,其中最著名的就是被称为“深度学习三巨头”的: Geoffrey Hinton、Yann LeCun 和 Yoshua Bengio 。为了避开学术界对“神经网络”这个词的偏见,Hinton 在 2006 年甚至专门换了个马甲,改称 “深度学习”(Deep Learning) ,并提出通过逐层预训练(Pre-training)来解决梯度消失问题。
直到 2010-2012 年间,三个条件同时凑齐,反向传播才真正从“实验室玩具”变成“工业核武器”:
- 算力: NVIDIA 的 GPU 被发现处理矩阵运算比 CPU 快几百倍。
- 数据: 李飞飞主导的 ImageNet 提供了海量的图片数据。
- 算法改进: 比如把 \(Sigmoid\) 换成 \(ReLU\) 激活函数,简单粗暴地解决了梯度消失问题。
仍在讨论的问题
幻觉
“幻觉”是人类化的体现吗? Penrose 认为算法是死板的一致性系统。但现在的 LLM 是 概率系统 ,它们会犯错、会胡说八道。讽刺的是,这种“不一致性”反而让它们看起来更像拥有“心灵”的人类,而不是死板的图灵机。这在某种程度上绕过了 Lucas 当初基于“一致性逻辑系统”的攻击。
价值对齐
AIMA中对人工智能的定义在于,人工智能专注于研究和构建做正确的事情的智能体,这种正确的事情需要人类提供与指定一个明确的目标,这种范式叫做标准模型(Standard Model)。
然而,标准模型的根本问题在于它假设了“目标是已知的”。很显然,在复杂的环境中,完美理性是不可行的。因此AIMA提出了Beneficial Machine(中文版翻译为益机)的概念。“益机”是指 对人类可证益的(provably beneficial)智能体 。
Russell 提出的新方向(益机)则认为,AI 应该始终处于一种“我不确定你到底想要什么,所以我会观察并请示你”的谦卑状态。如果给机器一个不完善的目标(例如“消灭癌症”),超级智能可能会为了达成目标而采取极端手段(例如消灭所有可能患癌的人类),这被称为 价值对齐问题 (Value Alignment Problem) 。Beneficial Machine的核心使命就是解决价值对齐问题。
价值对齐问题(value alignment problem) 是指确保我们所要求的是我们真正想要的,即能够让人工智能理解、遵从人类的价值、偏好、伦理、法律等,并预防模型做出有害行为。
该问题也叫迈达斯王问题。迈达斯王(Midas)问题核心源自希腊神话,即因贪婪获得“点石成金”(Midas touch)能力,却让食物和亲人皆化为黄金,最终领悟财富并非一切,象征着因过度贪婪而带来灾难的因果逻辑 。现代语境中,它常比喻具有极高赚钱能力,但也暗示潜在的毁灭性风险。
我们在前面已经探讨了资格问题,即我们不可能预设所有可能的情况,因此我们也无法把背景社会中可接受行为规范全部详细列举出来。
由于人类本身也搞不懂什么能让自己兴奋,甚至很多人也说不清自己的偏好,因此非常有必要让机器在不确定人类偏好的时候也能正常工作。
此外,当机器人向人类请求许可时,人类可能会没有预见机器人的提议从长远来看是灾难性的。人类也无法弄懂自己真正的效用函数。人类总会撒谎和欺瞒,或是做一些明知不对的事情。人类也会做出自我毁灭的行为。人工智能并不需要学习这些病态倾向,但是智能体必须在解读人类行为时明白这些倾向的存在,以了解人类的潜在偏好。
为了成为“益机”,机器的行为必须遵循以下逻辑:
- 唯一目标: 最大化实现人类的偏好(价值)。
- 谦卑原则: 机器意识到自己并不确定人类的偏好具体是什么。
- 学习偏好: 机器通过观察人类的行为来获取关于人类偏好的信息。
Beneficial Machine不仅是哲学模型,在实践上也对应着一套算法工具。比如说,标准的强化学习是你给它一个奖励函数(目标),它去跑出最优行为。而对于逆强化学习 (Inverse Reinforcement Learning, IRL)来说,机器没有奖励函数。它通过观察人类(比如看人开车、看人做饭)来反向推算:“人类这么做,背后隐藏的真实偏好是什么?”
语言的本质
过去我们认为语言是思维的唯一外化,但现在认知科学和AI领域的共识趋向于:“语言是思维的一种高效压缩协议,但思维本身是具身的、多维的。”
最新的神经科学研究(如 2026 年发表在 Neuron 和 Nature Human Behaviour 上的研究)利用更精细的脑成像技术证实:人脑中负责语言的区域(如 Broca 区)与负责逻辑推理、算术、社交理解(心理理论)的区域是高度分离的。患有严重失语症的病人可能完全丧失语言能力,但他们依然能下棋、解数学题或进行复杂的空间导航。这有力地反驳了“没有语言就无法思考”的旧观念。语言区域在人脑中的作用更像是一个“通信接口”,它负责将大脑其他部分(非语言部分)产生的复杂思维,打包成可传输的符号序列。
虽然 GPT 系列证明了“仅靠语言统计”能模拟出惊人的理性,但 2026 年的主流观点认为这属于“离身智能” (Disembodied AI),存在上限。主流学者(如李飞飞、Yoshua Bengio)认为,LLM 掌握的是语言的“形式”,而不是真正的“语义”。真正的语义源于 智能体与物理世界的互动 (即 AIMA 所说的传感器与执行器的反馈闭环)。现在的研究重点已转向 VLA 模型 (Vision-Language-Action) 。人们认为,只有当 AI 像小猫一样在物理空间中移动、感知阻力、理解碰撞,它嘴里说出的“重力”或“疼痛”才具有思维层面的实感。
长期以来,乔姆斯基的“普适语法”(认为人类天生有复杂的语法规则树)占据统治地位。但在 2026 年,这种看法正在动摇:2026 年 1 月的最新研究提出,语言在大脑中的表示可能比我们想象的要“扁平”。我们不是在运行复杂的语法算法,而是在像搭积木一样组合 预制的、线性的词块 (类似 LLM 的 Token 组合)。科学家惊讶地发现,人类大脑处理语言的层级结构,与 Transformer 模型的层级处理过程展现出了极高的统计相似性。这意味着,语言的本质可能真的就是一种极其高级的概率预测工具。
目前的共识更倾向于后期的维特根斯坦:语言不是用来精确表达内在思维的(因为思维是高维、模糊、私密的),它是为了“协同行动”。只要 AI 的输出能在社会功能上与人类达成一致(比如它能准确执行指令、写出代码、解决问题),我们就可以在实用主义层面认为它“理解”了语言,而不再纠结它是否有内在的“灵魂”或“主观体验”。
总结来说,关于语言的本质,在当下以下内容基本已经达成了共识:
- 统计相关性: 语言在很大程度上可以通过概率和统计建模。Transformer 的成功证明了:即使不给机器输入任何语法规则,仅凭对海量文本的统计预测,就能产生极高的逻辑性和流畅度。
- 物理实现的分离: 脑科学已确认,人脑处理“语言形式”的区域与处理“逻辑/世界知识”的区域是解耦的。
- 压缩特性: 语言是一种极其高效的信息压缩手段。它将复杂的、高维的人类经验压缩成了低维的、离散的符号流。
然而,以下三个问题目前完全没有定论:
① “内在规则” vs. “涌现表现”
- 乔姆斯基派(规则论): 坚持认为人类大脑拥有天生的、不可逾越的“通用语法”硬件。他们认为现在的 LLM 只是在玩“极其高级的统计概率游戏”,并没有掌握语言的本质。
- 连接主义/AI 派(涌现论): 认为根本没有什么天生的规则,规则只是复杂统计系统在运行过程中的一种“涌现”结果。只要模型够大,规则就会自动产生。
② “意义”是否可以脱离“真实世界”?(语义之争)
- 符号接地问题 (The Symbol Grounding Problem): 这是目前争议最大的点。
- 一派认为: 如果一个智能体从未感受过水的凉意、火的灼热,它口中的“水”和“火”只是符号堆砌,没有真正的意义。
- 另一派认为(函数主义): 只要智能体能正确处理“水”和“火”的关系,并在逻辑上表现得与人类无异,那么这种逻辑链条本身就是“意义”。
③ 语言是思维的“边界”还是“外壳”?
- 我们是用语言思考,还是用某种“心理语言”思考后再翻译成外语?目前这依然是一个 哲学悬案 。
涌现
在上述讨论的内容中,涌现(Emergence)是被视为解释语言产生的一种强力假说,但仍然悬而未决。
在 LLM(大语言模型)出现之前,主流学界(以乔姆斯基为首)认为语言太复杂了,不可能从简单的统计中产生,必须有天生的“语法芯片”。
但 LLM 证明了:
- 从无序到有序: 当神经元(参数)达到一定规模,模型突然展现出了推导、反讽、甚至逻辑闭环的能力。
- 非线性跨越: 模型在 10 亿参数时可能还胡言乱语,但在 1000 亿参数时突然“悟”出了语法。
这种“量变引起质变”的现象,让很多人相信语言的本质就是复杂系统在处理信息流时的必然结果。
虽然涌现解释了语言“怎么来的”,但它没能完全解释语言“是什么”。反对者提出了三个核心质疑:
① 随机鹦鹉悖论 (Stochastic Parrots)
即使语言表现是涌现出来的,它可能只是极其复杂的 概率拟合 。
质疑: 如果一个喷泉涌现出了类似人脸的水花,你会说喷泉的本质是“人脸”吗?同理,如果统计模型涌现出了类似思维的句子,那只是概率的巧合,还是真正的智能?
② 逻辑的严密性 (Systematicity)
语言具有极强的结构性(比如:如果你理解“猫抓老鼠”,你必然理解“老鼠抓猫”)。
- 涌现论很难解释为什么这种严密的逻辑结构会在杂乱的统计数据中完美诞生。
- 规则论者认为,涌现出的只是“表象”,底层一定存在一套像数学公式一样的 生成逻辑 ,那才是本质。
③ 具身缺失 (The Grounding Gap)
这是最致命的。涌现论者往往只关注符号与符号的关系。
- 语言的本质可能在于符号与现实的连接。
- 比喻: 即使一个黑盒涌现出了完美的菜谱,只要它从没见过火,没尝过盐,它就不懂什么是“烹饪”。那么,这种涌现出的语言是否只是“无源之水”?
人工智能的未来
神经符号AI
在 AI 的发展史上,我们一直在这两极之间摇摆:
- 神经网络(感知派/联结主义): 擅长“直觉”。比如一眼认出图片里是猫,或者翻译一段话。它像运动员,反应极快,但不讲道理,且容易产生“幻觉”。
- 符号逻辑(理性派/GOFAI): 擅长“推理”。比如数学证明、调度火车。它像律师,逻辑严密,绝不出错,但它太死板,没法处理模糊的现实世界(即你笔记中提到的“资格问题”)。
神经符号 AI 的核心思想就是:不再二选一,而是全都要。
通用人工智能
1980年,哲学家John Searle提出了弱人工智能(weak AI)和强人工智能(strong AI):
- weak AI表现得智能
- strong AI真正地有意识地在思考,如今主要指AGI
通用人工智能 (artificial general intelligence, AGI )是一种假想的智能体。一般认为,它能够学习并执行人或其他动物所能完成的任何智力任务;另一种定义则是,通用人工智能是在大多数具有经济价值的任务上超越人类能力的自主系统。创造通用人工智能是一些人工智能研究以及OpenAI、DeepMind和Anthropic等公司的首要目标。通用人工智能也是科幻小说和未来学中的常见主题。
通用人工智能的发展时间线仍然是研究人员和专家之间持续争论的话题,部分人认为可能在几年或几十年内实现,另一些人则坚称可能需要一个世纪或更长时间,还有少数人认为或许永远无法实现。此外,关于现代的深度学习系统(如GPT-4)是否是通用人工智能的一种早期但不完整的形式,也存在争议。
关于通用人工智能是否可能对人类构成威胁,存在着诸多争议。OpenAI将其视为一种生存风险,而也有观点认为通用人工智能的实现还相当遥远,尚不构成风险。
图灵曾推测,到2000年,拥有10亿存储单元的计算机可以通过图灵测试。然而,2000年人们并没有达到这一目标。2020年,随着GPT等大语言模型的出现,图灵测试才被真正通过。
关于强人工智能的讨论从未停止。早在上个世纪,人们便针对机器是否能达到人类智能展开过激烈的讨论, 其中最具代表性的包括中文房间实验 The Chinese Room和哥德尔论证 The Godelian Argument等。
这些议题的核心矛盾在于:
- 图灵/行为主义者: 只要机器看起来在思考(通过图灵测试),它就是在思考。
- 塞尔/卢卡斯/怀疑者: 智能不仅关乎 表现 (Doing),更关乎 本质 (Being)。
所以回答这个问题:机器能否思考?关键在于如何定义思考:
- 功能主义视角(图灵的答案): 如果机器能像人一样处理信息、解决复杂逻辑、通过图灵测试,那么它就是“在思考”。图灵认为内部机制不重要,外部行为是判断智能的唯一标准。
- 语义主义视角(塞尔的答案): 机器只是在进行符号处理(如“中文房间”),它没有真正的 理解 。它知道“苹果”这个词常和“红色”连用,但它并不知道什么是“红色”,也没有尝过苹果的味道。
- 具身认知视角(德雷福斯的答案): 机器缺乏物理身体,没有与世界的实时互动,因此无法产生人类那种基于体验的“默会知识”。
超智能机器
如果存在一种超智能机器:它总是比人类的一切智力活动都更加聪明。那么,我们可以得到推论:既然设计该机器本身是一种智力活动,那么超智能机器就可以设计出至少等同于自身聪明水平的机器,并且更有可能设计出比自己更加聪明的机器,从而产生智力爆炸。因此人类需要创造的最后一项发明,就是创造出这样的一个超智能机器。
虽然人工智能本身作为一种技术,和历史上的其他工程无本质差别,但是人工智能最终的超智能机器目标却蕴含了这样一种不同:人工智能是历史上第一个能够对人类的霸权产生威胁的技术。