让AI学会“理性思考”:思维法则与方法的全景解析(1/2)

要让ai拥有“理性思考”的能力,核心在于让它掌握一套可遵循的“思维法则”——就像人类依靠逻辑、推理和概率判断来做决策一样。这不是简单的“模仿人类思考”,而是要把人类理性思考的底层逻辑拆解成机器能理解的规则和方法。接下来,我们从“思维法则的起源”“逻辑如何让ai推理”“概率如何让ai应对不确定”“理性思考到理性行动的跨越”四个维度,把这件事讲透。

一、思维法则的源头:从亚里士多德到逻辑革命

要让ai理性思考,得先搞清楚“理性思考”的底层逻辑从哪来。这就得从古希腊哲学家亚里士多德说起。

1. 亚里士多德的“三段论”:理性思考的“公式化”开端

亚里士多德是第一个尝试把“正确思考”变成“固定法则”的人。他认为,理性思考的本质是“无可辩驳的推理过程”——只要前提是对的,结论就一定成立。

他提出的“三段论”就是典型例子:

- 大前提:所有人都会死(“凡人皆有一死”);

- 小前提:苏格拉底是人;

- 结论:苏格拉底会死。

这个推理过程像数学公式一样严谨,只要大前提和小前提为真,结论就必然为真。亚里士多德的这套理论,相当于给“思考”定了一套“语法规则”,开创了“逻辑学”这门学科——研究怎么通过正确的推理得到正确的结论。

但亚里士多德的逻辑是“自然语言逻辑”,比如“人”“死”这些概念都是用日常语言表达的,容易产生歧义。比如“所有鸟都会飞”,在自然语言里听起来没问题,但鸵鸟不会飞,这就导致推理结论出错。所以,光有“自然语言逻辑”还不够,得把逻辑变得更“精确”。

2. 符号逻辑:把“思考”变成“数学运算”

到了19世纪,逻辑学家们开始用“符号”替代自然语言,打造更精确的“符号逻辑系统”。比如:

- 用“?x”表示“对于所有x”;

- 用“→”表示“如果……那么……”;

- 用“∧”表示“并且”,用“v”表示“或者”。

这样一来,“所有人都会死”就可以写成“?x(人(x)→死(x))”,“苏格拉底是人”写成“人(苏格拉底)”,结论“苏格拉底会死”就是“死(苏格拉底)”——整个推理过程变成了纯粹的“符号运算”,和数学里的“1+1=2”一样精确。

符号逻辑的出现意义重大:它不仅能描述“数”(比如算术),还能描述“世界上的所有事物和关系”。到20世纪中叶,人们发现了一个惊人的结论:任何能用符号逻辑描述的问题,原则上都可以用计算机程序来解决。

这就给人工智能指明了方向:如果能把人类的理性思考拆解成符号逻辑规则,再把这些规则写成程序,机器不就能像人一样理性思考了吗?这就是人工智能领域的“逻辑主义”学派,代表人物有纽厄尔、西蒙等,他们开发的“逻辑理论家”程序,甚至能自动证明数学定理,震惊了当时的学术界。

二、逻辑主义:让ai像解数学题一样推理

逻辑主义的核心是**“用符号逻辑给ai编一套‘思考规则’”**,让ai能像人类解数学题一样,从已知前提推导出未知结论。

1. 逻辑推理的“三步走”:从前提到结论

ai的逻辑推理过程可以简单分成三步:

- 第一步:知识表示。把现实世界的知识转换成符号逻辑的形式。比如“北京是中国的首都”可以表示为“首都(中国, 北京)”;“鸟会飞”表示为“?x(鸟(x)→飞(x))”。

- 第二步:规则应用。根据符号逻辑的推理规则(比如“假言推理”:如果a→b为真,且a为真,那么b为真),从已有知识中推导出新结论。比如已知“鸟(企鹅)”和“?x(鸟(x)→飞(x))”,按规则可以推出“飞(企鹅)”——虽然这个结论和现实不符,但逻辑推理过程是对的,这也说明纯逻辑推理需要结合现实知识来修正。

- 第三步:结论输出。把推导出的符号结论再转换回人类能理解的自然语言。

举个更实际的例子,让ai判断“小明会不会被淋湿”:

- 知识表示:“下雨→淋湿”(?x(下雨(x)→淋湿(小明))),“今天下雨”(下雨(今天));

- 规则应用:根据假言推理,由“下雨(今天)”和“下雨(x)→淋湿(小明)”,推出“淋湿(小明)”;

- 结论输出:“小明今天会被淋湿”。

2. 逻辑主义的“高光时刻”:自动定理证明

逻辑主义在“自动定理证明”领域取得了不少成就。比如:

- 逻辑理论家(logic theorist):1956年,纽厄尔和西蒙开发的这个程序,能自动证明《数学原理》中的很多定理,甚至找到比原书更简洁的证明方法。这在当时引起了轰动,因为《数学原理》是数学界的权威着作,ai能挑战它,说明机器真的能做“理性思考”。

- acl2系统:现在的自动定理证明系统更强大,比如acl2能验证计算机芯片的设计是否正确,还能证明复杂的数学定理。比如它能证明“2的平方根是无理数”,整个过程和人类数学家的推理逻辑几乎一致。

3. 逻辑主义的“死穴”:现实世界不是“非黑即白”

但逻辑主义有个致命缺点:它只能处理“确定的、非黑即白”的知识,没法应对现实世界的“不确定性”。

比如,“鸟会飞”在逻辑上是“?x(鸟(x)→飞(x))”,但现实中鸵鸟、企鹅不会飞,这就导致推理结论错误。再比如,“明天会下雨吗?”这个问题,现实中只能得到“可能下雨”的不确定答案,而逻辑主义要求“要么下雨,要么不下雨”,根本处理不了“可能”这种模糊的情况。

人类在这种“不确定”的情况下,依然能做出理性决策(比如“可能下雨就带伞”),但纯靠逻辑的ai就会“卡壳”——因为它的“思考规则”里没有“不确定”的位置。

三、概率论:让ai在“不确定”中理性思考

为了让ai应对现实世界的“不确定性”,“概率论”被引入到理性思考的框架中。它的核心是**“在信息不确定时,通过概率计算来做最优决策”**。

1. 概率推理的“基本逻辑”:用可能性衡量不确定性

概率推理的思路很简单:把“不确定的事件”用“发生的可能性大小”来量化。比如“明天下雨的概率是60%”,“抛硬币正面朝上的概率是50%”。

ai进行概率推理时,通常会用到“贝叶斯定理”,它的核心是**“根据新证据不断更新对事件的概率判断”**。公式是:

p(a|b) = \\frac{p(b|a) \\times p(a)}{p(b)}

翻译成大白话就是:“在出现证据b后,事件a发生的概率 = (事件a发生时出现b的概率 x 事件a原本的概率) ÷ 证据b本身的概率”。

举个例子,判断“小明感冒了(a)”的概率,已知“小明咳嗽(b)”:

- p(a) :小明原本感冒的概率(比如10%);

- p(b|a) :感冒时咳嗽的概率(比如80%);

- p(b) :小明咳嗽的总概率(比如20%,因为咳嗽也可能是因为过敏、抽烟等);

- 代入公式: p(a|b) = \\frac{80\\% \\times 10\\%}{20\\%} = 40\\% 。

所以,在小明咳嗽的情况下,他感冒的概率是40%——这个结论比纯逻辑的“要么感冒要么不感冒”要合理得多,也更贴近现实。

本章未完,点击下一页继续阅读。