Skip to content Skip to footer

知识表示和信念修正简介

image-20231222012851256

介绍

在我攻读硕士学位期间,有好几次人们问我关于我的研究,当我说我的研究是关于信念修正时,看到他们困惑的表情也就不足为奇了。

事实是,信念修正并不是一个众所周知的研究领域。人工智能 (AI) 在过去几年中一直是计算机科学的焦点,这要归功于神经网络、LSTM、CNN、Transformer 等统计模型取得的显着成果。然而,对可靠和可解释结果的需求导致我们建立其他类型的知识系统,而不是基于统计数据。

本文为我们介绍了这种知识表示、信念修正,并简要介绍了人们正在尝试做什么。

知识表示 (KR)

信念修正是知识表征的一个子领域。因此,要理解信念修正,我们首先需要了解代表知识的含义。

但什么是知识?Brachman&Levesque认为,知识是知识者(如“John”)与命(如“Mary will come to the party”)之间的关系:

“约翰知道玛丽会来参加聚会”

一个命题可以是对的,也可以是错的。说约翰知道某事,就是说约翰形成了一个判断,即某个命题对他来说是正确的。有很多不同的关系,如“知道”、“*希望”、“恐惧”“相信”。 在所有情况下,重要的是对知道者来说真相是什么:他是在“希望”、“恐惧”或“相信”*世界是一条路,而不是另一条路

表示知识意味着将这些关系中的每一个都带入正式语言。根据 Brachman & Levesque的说法,

“知识表示是涉及使用形式符号来表示某些假定代理人所相信的命题集合的研究领域。”

我们可以考虑知识表示,作为人工智能的一部分,它研究计算机系统如何表示有关世界的信息,并利用这些知识来决定做什么。

信念修正

信念修正研究智能体的认识状态。智能体的认识状态是智能体在特定时刻的所有信念的表示。换句话说,信念修正旨在了解代理人在面对他所相信的东西的变化时的行为。

例如,一个智能体可能处于一种状态,即他认为每只鸟都是会飞的动物,而每只会飞的动物都是鸟。这可以用以下几组来表示:

image-20231222012924230

在这个例子中,我们用“^”来表示逻辑连词,用“->”作为符号来表示含义

知识是动态的,单个信念中最简单的变化可以影响整个信念状态。在知识表示系统中,智能体需要能够处理改变其信念的信息,始终保持他们所持有信念的一致性。

年度股东大会模型

信念修正的研究在Alchourrón,Gärdenfors和Makinson的工作中具有重要的里程碑,即AGM模型。该模型将信念表示为形式语言中的句子,就像描述逻辑一样。智能体的认识状态由这些句子的一组逻辑封闭表示。

信念修正的过程可以描述为一种认识状态*和*一种信念\到另一种认识状态\的映射函数。AGM 模型遵循最小变化的原则,其中智能体寻求最小地改变他们的信念集以适应新信息。

AGM 模型中定义了三个操作,用于更改认知状态的过程:

扩张

当我们将一个新的信念引入初始集合时,它会导致扩展。由于此操作不考虑潜在的副作用,因此可能会导致整个信念状态中的不一致。给定初始认知状态 K 和新的信念φ,扩展的结果将是初始集合的一组结果,并添加了新的信念:

image-20231222012940386

现在,假设我们想通过添加一些关于特定动物的信念来扩展前面的例子:

image-20231222012953552

符号“!”表示否定,断言“动物(企鹅)”表示企鹅被归类为动物。

从这个扩展中我们可以看出,它导致我们不一致。虽然企鹅是一种不会飞的鸟,但最初的信仰说所有鸟都可以飞,这产生了一种与企鹅作为鸟类的分类相矛盾的暗示。

收缩

另一方面,当我们不再相信某些信息时,我们需要进行收缩。此操作将信念从认识状态中移除。当删除一个信念时,我们需要确保剩余的集合不会再次导致被删除的信念。出于这个原因,收缩操作可能会删除比所需信念更多的信念。

在 AGM 模型中,未显式定义收缩操作。取而代之的是,为有效收缩定义了六个属性,尽管它们的名字,但它们背后有一个简单的直觉:

  1. 关闭: 信念集收缩的结果仍然是信念集。
  2. 包含: 新的信念不能在收缩中添加。
  3. 真空: 此属性表示,如果要删除的置信不是置信集的一部分,则不会发生任何事情。
  4. 成功: 它确保信念φ将始终被删除,除非φ是重言式。重言式意味着断言(在我们的例子中,信念)在每一种可能的解释中都是正确的,这意味着如果我们删除信念,无论发生什么,它都会再次被提及。
  5. 恢复: 恢复意味着可以通过扩张来消除收缩。
  6. 等价: 确保由逻辑上等效的信念做出的收缩具有相同的结果。换句话说,如果我们有信念集 K 和两个等价的信念,φ 和 ψ,则收缩(K, φ) 等价于 *收缩*****(*K, *ψ)。\

还有两个与信念结合相关的互补属性,即结合重叠结合包容。

校订

可能是该模型最重要的操作,修订涉及添加新的信念,并保证最终的认识状态将保持一致。换句话说,如果添加新的信念导致任何不一致,我们将继续从初始信念状态中删除其他信念以恢复其一致性。

与收缩类似,修订定义了有效修订的六个属性:

  1. 关闭: 与收缩相同,信念集修正的结果是另一个信念集。
  2. 成功: 这意味着修改后的信念将永远是最终结果的一部分。
  3. 包含: 包含属性定义除了修订后的信念及其后果之外,不会添加其他信念。
  4. 保存: 如果新的信念是一致的,则保留最初的信念集。
  5. 一致性: 它说,不惜一切代价都需要一致性。唯一“可以接受”失败的情况是,当新的信念本身不一致时。
  6. 等价: 与收缩相同,它表示两个等效的信念在修订操作中具有相同的结果。

此外,膨胀和次膨胀的两个互补属性是处理信念的可能结合。

让我们回到鸟类身上。在修订操作期间,在向基础添加新信念的同时保持一致性至关重要。许多不同的操作可以帮助我们解决这个问题。在我们的例子中,我们用一个更普遍的信念取代了原来的信念,断言鸟是一种动物:

image-20231222013009122

因此,信念集并不意味着企鹅不是鸟,并且该集合始终保持连贯性。

为什么要使用知识表示系统?

许多实际应用程序都使用知识表示系统,例如推荐系统、聊天机器人、医学、物流、机器故障诊断和教育。

您现在可能会认为所有这些应用程序都可以通过使用统计模型来完成,并且......你是对的。但有时您可能希望获得统计模型无法为您提供的结果的可解释性和可靠性。例如,用有时可能出错的系统来教孩子不是一个好主意。更糟糕的是,如果以后无法解释这些信息。

知识库的创建方式当然容易出错,但所有信息本身都可以以某种方式解释。需要注意的是,并非所有解释都易于理解。根据知识库的复杂性,某些结果可能由一组可能不容易理解的逻辑公理支持。它解释了,但这需要一些努力。

如今,我们对神经符号系统进行了一些研究,这些系统试图将统计和符号模型整合到一个系统中。随着知识表示研究的不断发展,在表达性和性能方面存在许多挑战需要研究,以便表示系统能够在机器学习时代找到自己的位置。