知识表示:从人脑到电脑的“知识翻译术”(2/2)

框架名:电影

槽名1:名称 → 槽值:《流浪地球2》

槽名2:类型 → 槽值:科幻片

槽名3:导演 → 槽值:郭帆

槽名4:核心剧情 → 槽值:人类建行星发动机逃离太阳系

槽名5:上映时间 → 槽值:2023年1月22日

槽名6:评分 → 槽值:9.0(豆瓣)

“框架名”是大类,“槽名”是这类事物的共同属性,“槽值”是具体事物的信息。如果再填《满江红》的信息,就用同一个框架,只改槽值就行。

实际用处:比如视频网站的电影分类系统,用框架表示法存储每部电影的信息,用户搜“2023年上映的科幻片”,电脑就去匹配“类型=科幻片”“上映时间=2023年”的框架,把符合条件的电影列出来。

优点:结构清晰,方便批量处理同类知识;缺点:模板固定,没法表示不符合模板的“特殊知识”。比如遇到一部“既是科幻又是喜剧,还没有导演署名”的电影,框架里没有对应的槽名,就没法填。

5. 面向对象表示法:给知识“打包成对象”,像给物品装礼盒

这种方法是把知识“封装”成“对象”,就像把一个苹果的“颜色、味道、能不能吃”这些信息都装进一个礼盒里,礼盒上还写着“能做什么”(比如“可以削皮吃”“可以做沙拉”)。它把“属性”(是什么)和“方法”(能做什么)打包在一起,是现在编程里最常用的方法之一。

举个例子:用面向对象表示法表示“手机”。

- 对象名:手机

- 属性(是什么):品牌=华为、颜色=黑色、屏幕尺寸=6.“知识图谱”成了热点。

1998年,“语义网”概念被提出,核心是“让电脑能看懂网页上的知识”。比如网页上写“李白是诗人”,以前电脑只知道是文字,语义网会给它加标签“<人物>李白<\/人物>,<身份>诗人<\/身份>”,这样电脑就能“读”懂网页知识。

2012年,谷歌提出“知识图谱”,用语义网络的方法把海量知识连起来,形成一张巨大的“知识网”。比如你搜“北京”,知识图谱里不仅有“北京是中国首都”,还有“北京的人口”“北京的景点”“北京的历史”,甚至能关联到“北京冬奥会”“北京烤鸭”,电脑顺着这张网能给你推荐一堆相关知识。

这个阶段的ai能做智能搜索、智能推荐,比如淘宝根据你的浏览记录推荐商品,就是靠知识图谱里的“用户-商品-兴趣”关系。

4. 爆发期(2020s至今):用“ai”学知识,像教小孩

现在的阶段,知识表示不用“人手动写规则”了,而是让ai自己“学”知识,核心是“神经网络表示法”。

大模型(比如gpt、文心一言)通过学习互联网上的万亿条文本,自动把词语、句子变成向量,还能学会“关系”。比如它从没见过“张三喜欢吃苹果”这句话,但见过“李四喜欢吃香蕉”“王五喜欢吃橘子”,就能通过向量分析,知道“喜欢吃”是人和水果之间的关系。

2024年之后,知识表示开始往“多模态”发展,就是把文字、图片、声音的知识都用向量表示。比如电脑能把“猫”的文字、猫的图片、“喵”的叫声变成相似的向量,这样你发一张猫的图片,它就能知道“这是猫,会叫喵,是动物”。

这个阶段的ai越来越“智能”,能写文章、做设计、回答复杂问题,但也带来了新问题:ai学的知识太多太杂,有时候会“胡说八道”(也就是“幻觉”),因为它只是靠向量匹配,不是真的理解知识。

五、看应用:知识表示离我们不远,生活里到处都是

别以为知识表示是“实验室里的东西”,其实咱们每天都在接触。从手机里的app到路上的智能设备,背后都有它的影子。咱们挑几个常见的场景,看看它是怎么发挥作用的。

1. 智能搜索:让“搜答案”变成“给结果”

以前搜东西,比如“李白的诗”,会出来一堆网页,得自己翻;现在用百度、谷歌,直接就能看到“李白的代表作:《静夜思》《望庐山瀑布》”,还能关联到“创作背景”“赏析”,这就是知识表示的功劳。

搜索引擎里藏着一张巨大的知识图谱,用语义网络表示法把“李白”“诗”“朝代”这些知识连起来。当你输入问题,电脑先“理解”你的需求(比如“李白的诗”其实是要“李白的代表作及相关信息”),然后在知识图谱里找相关的节点和关系,最后把结果整理成你能看懂的形式。

甚至现在的搜索能处理“模糊问题”,比如你问“《静夜思》的作者是哪个朝代的,他还有啥有名的诗”,电脑能通过知识图谱里的“《静夜思》-作者-李白-朝代-唐朝-作品-《望庐山瀑布》”的关系链,一次性给你答案。

2. 智能推荐:“猜你喜欢”不是瞎猜,是靠知识关联

你在抖音刷到喜欢的视频,下次会推更多类似的;在淘宝买了一件衬衫,会推裤子、领带——这不是“玄学”,是知识表示在背后发力。

推荐系统里用了“面向对象表示法”和“知识图谱”:

- 把你当成一个“用户对象”,属性包括“年龄、性别、浏览记录、购买记录”;

- 把商品当成“商品对象”,属性包括“类型、风格、价格、关联商品”;

- 用知识图谱把“用户-商品-兴趣”连起来,比如“用户a买了衬衫→衬衫属于男装→男装关联裤子→给用户a推裤子”。

比如你在b站看了《流浪地球2》的解说,系统的知识图谱里有“《流浪地球2》-类型-科幻片-关联-《三体》《星际穿越》”,所以会给你推其他科幻片的解说,这就是“知识关联”带来的精准推荐。

3. 智能客服:24小时不睡觉,靠“规则库”接电话

你打银行、运营商的客服电话,经常会先听到“请说您的需求,比如查账单、办业务”,这背后就是“产生式表示法”的功劳。

智能客服的系统里存着几千条“如果…就…”的规则:

- 如果用户说“查账单”,就回复“请提供您的手机号,我为您查询”;

- 如果用户说“办宽带”,就回复“请问您在哪个城市?我们有100m、200m两种套餐”;

- 如果用户说的话匹配不到规则,就转人工客服。

现在的智能客服更高级了,结合了“神经网络表示法”,能理解“同义词”,比如你说“我的话费还有多少”“查一下余额”“话费剩多少了”,它都能匹配到“查账单”的规则,不用你严格按照它给的关键词说。

4. 医疗诊断:当“ai助手”帮医生看片子

在医院里,ai已经能帮医生看ct片、诊断常见病,这背后是“框架表示法”和“知识图谱”的结合。

医疗ai的系统里存着“疾病框架”:

- 比如“肺炎框架”的槽包括“症状(发烧、咳嗽、痰中带血)、ct表现(肺部有阴影)、病因(细菌感染)、治疗方法(抗生素)”;

- 当输入患者的ct片和症状,ai会把这些信息和“肺炎框架”的槽值对比,如果匹配度超过90%,就提示“可能是肺炎”,再把结果给医生参考。

还有的医疗ai用知识图谱把“疾病-症状-药物”连起来,比如患者对“青霉素”过敏,ai在推荐药物时会自动排除含青霉素的药,避免用药风险。

5. 自动驾驶:路上的“ai司机”,靠“知识”躲障碍

自动驾驶汽车能识别红绿灯、避开行人,本质是把“驾驶知识”用“神经网络表示法”和“语义网络”存起来。

汽车的传感器会把路上的信息(红绿灯、行人、其他车)变成向量,然后和系统里的知识对比:

- 看到“红灯”的向量,就匹配“停车”的规则;

- 看到“行人”的向量,就匹配“减速避让”的规则;

- 知识图谱里还有“红绿灯-路口-限速30km\/h”的关系,所以到路口时会自动减速。

现在的自动驾驶还能“学新知识”,比如遇到“施工路段”,以前没见过,但通过向量分析,发现和“障碍”的向量很像,就会自动减速绕行。

六、聊问题:知识表示再牛,也有“搞不定”的事

虽然知识表示已经很先进了,但还不是“万能的”,还有一堆解决不了的难题,这些难题也是科学家们正在攻关的方向。咱们挑最关键的3个,说说它们的“痛点”。

1. 知识太“杂”:没法把“所有知识”都表示清楚

世界上的知识太多了,有“明确的知识”(比如数学公式、历史事件),还有“模糊的知识”(比如“这件衣服挺好看”“他很开心”),更有“隐性的知识”(比如骑自行车的技巧、做饭的手感)。

现在的知识表示能处理“明确知识”,但对“模糊知识”和“隐性知识”几乎没辙:

- 比如“好看”“开心”这种主观感受,没法用精确的规则或向量表示,电脑不知道“多好看算挺好看”;

- 比如骑自行车的“平衡感”,是靠身体感知的隐性知识,没法用符号或向量写出来,所以现在的ai还学不会骑自行车。

2. 知识会“变”:老知识过时,新知识跟不上

知识不是一成不变的,比如“太阳系有9大行星”后来变成了“8大行星”(冥王星被除名),“新冠病毒的治疗方法”也在不断更新。但电脑的知识表示是“静态”的,更新起来很麻烦。

比如知识图谱里存着“太阳系有9大行星”,当冥王星被除名后,得手动修改所有和“9大行星”相关的节点和关系;如果是大模型,就得重新用新数据训练,花几个月时间和几百万美元,成本特别高。

现在科学家们在研究“动态知识表示”,让ai能自己“更新知识”,比如看到新闻说“冥王星不是行星了”,就自动修改自己的知识,但目前还没完全实现。

3. 知识难“解释”:ai说“对”,但说不出“为啥对”

现在的大模型(比如gpt-4)经常能给出正确答案,但你问它“怎么想出来的”,它说不清楚——这就是“可解释性差”的问题,根源在“神经网络表示法”。

因为大模型的知识是“向量”,是一堆数字,人类看不懂。比如它说“《静夜思》的作者是李白”,你问“为啥”,它只能重复“因为《静夜思》的作者是李白”,没法像人一样说“因为课本里学过,历史资料里也有记载”。

这个问题在关键领域特别致命,比如医疗ai说“患者得了癌症”,医生得知道“ai是根据哪些症状、哪些检查结果判断的”,如果ai说不清楚,医生根本不敢用。

七、总结:知识表示的本质,是“人与机器的沟通桥梁”

聊了这么多,最后咱们回归本质:知识表示到底是啥?

其实它就是一座“桥梁”——左边是人类的“智慧世界”,有语言、经验、直觉;右边是机器的“数字世界”,有代码、符号、向量。知识表示的任务,就是把左边的东西“翻译”到右边,让机器能帮人干活。

从1943年的“产生式规则”到现在的“大模型向量”,这座桥越建越宽、越建越稳:以前只能过“简单推理”的小自行车,现在能过“复杂决策”的大卡车。但它永远成不了“传送门”,因为机器没法真正“理解”知识,只能“处理”知识。

对咱们普通人来说,不用懂具体的公式和算法,只要知道:那些让生活变方便的智能工具——能精准推荐的淘宝、能快速答疑的搜索、能24小时服务的客服——背后都是知识表示在“默默翻译”。

未来,知识表示会往“更模糊、更动态、更可解释”的方向发展,可能有一天,ai能像人一样理解“开心”的情绪,能自己更新“最新的新闻”,能说清“为啥这么想”。但到那时候,它依然是“工具”,因为真正的智慧,不仅是“处理知识”,更是“创造知识”——这一点,目前还只有人类能做到。