当然,当前智能体也可能不知道其它智能体的用来描述世界的词汇。例如,其它智能体可能用字符串 $#4(QW,V) 来表示当前智能体用On(A,
B)表示的命题。只要智能体之间不用通过传送这些没有经过翻译的公式来通讯,我们就不用关心这些词汇上的差别。 这种特殊的方法对于其它简单的智能体的推理是可行的,但是和基于图形的模型存在着一样的缺陷。一个明显的例子是,如果其它智能体模型中有On(A,B)或者On(A,C),当前智能体对其的模拟将会比较困难。值得注意的是,把On(A,B)∨On(A,C)在模拟数据库中表达的是一些不同的事情。一种情况是当前的智能体是不确定的,另一种情况是其它智能体是不确定的。当前智能体要表达它的不确定性,必须针对两种情况建立两个模型数据库,而且如果还有另外的这种不确定类型,不同的模型数据库的数量将随着处理大量的不确定性的组合而呈指数增长。 我们假定当前智能体不知道其它的智能体的世界模型中是否含有On(A,B),以便为这种方法定义一个相对的困难度。我们不能只是简单的把公式On(A,B)从模型数据库中省略掉,因为这样做隐含了其它智能体的世界模型中不含有此公式的可能。这个问题是由于当前智能体和其它智能体知识缺乏的差别所导致的。 |