近年来,自然语言处理有了很大的进步,各种语音助手和翻译软件都有一定的实用价值。然而,他们处理稍微复杂的句子的结果经常被当作笑话来讲。这不免让我们想起一个老问题:有一天计算机真的会理解我们的意思吗?要回答这个问题,首先要明确“意义”是什么意思。
早在计算机出现之前,“意义”就是语言学、逻辑学、心理学、哲学等领域的一个关键问题。语言研究中的意义问题是语义学的范畴,这里的语言既包括人类历史上形成的“自然语言”,也包括人为设计的“符号语言”,如数学语言、逻辑语言等。用语言交流时,单词和句子是意义的载体。为了保证有效的交流,需要事先就单词和句子的意思达成一致。即使在一个系统内,单词和短语的含义也应该是处理它们的基础。清晰稳定的意义在交流和思考中的重要性无需赘述,但如何确定意义呢?
对于一个词或符号,有两种最传统的(也是目前最常用的)方式来描述其含义:指称和定义。前者是指语言之外的东西的名称(例如,“鸟”是指所有鸟类),后者是指语言内部的结构的名称(例如,“鸟”是指“有羽毛的卵生脊椎动物”)。这两种方法经常结合使用,即先用指称来确定简单词的意义,再用指称来定义复杂词。这种确定意义的方法虽然直观、自然,对很多问题来说也是充分的,但仍然不能完全满足人工智能和认知科学的要求。主要问题如下:
由于符号在计算机中的处理只涉及其形式,不涉及其所指,因此人工智能系统似乎无法仅通过形式处理规则来把握符号的含义。虽然一个电脑程序可以编辑存储“两只黄鹂唱青柳,一行白鹭上青天”这句话,但它可能根本不知道“黄鹂”和“白鹭”是什么意思。
我们使用的大量词汇(即使是科学和数学中的词汇)既没有明确的指称,也没有普遍接受的定义。这里的例子包括上面《当你谈论人工智能时,到底在谈论什么?》中对“智力”的分析。你最近在思考什么问题?主要概念是否有被广泛接受的严格定义?
即使是那些意义相对确定的词,其定义和所指也往往在历史中演变,取决于使用环境。一个词的“本义”和“现义”可以不一样,虽然还是有联系的。比如,语言学家发现,很多抽象的词是从具体的词中生长出来的,就像词可以“生长”一样。
因为词在认知系统中一般表现为概念,所以意义的研究对应着心理学中的各种概念理论。与语义学中的情况类似,经典概念理论将一个概念视为一组例子,其意义来自定义。一个概念的定义可以是“外延式”的,即列出所有的例子,也可以是“内涵式”的,即列出例子的共同特征。这个概念定义为判断一个实例是否属于这个概念提供了充分必要条件。毫不奇怪,经典概念理论遇到了与经典语义理论相似的困难:我们使用的概念往往没有明确的边界,其用法极其灵活,不像“固体”,而更像“流体”。这方面的论述见侯世达《哥德尔、埃舍尔、巴赫:集异璧之大成》等著作。当然,更直接的例子在我们的生活中比比皆是,但我们往往视而不见。
在心理学中,经典的概念理论有以下几种替代方案:
“原型”理论:概念是由大多数例子的共同特征决定的,一个例子属于这个概念的程度取决于它与这些特征塑造的“原型”的相似程度。根据这一理论,我们脑海中有一个“鸟”的原型,它是由“飞翔”、“长羽毛”、“产卵”等特征塑造而成的。一只不会飞的鸵鸟,还能算是鸟,只是“隶属度”低。这可以算是一个“内涵式”的方案,但概念上的特征多是统计上的,不再是充分必要条件。
“例子”理论:概念是由其中具有代表性的“例子”决定的,一个例子属于这个概念的程度取决于它与某个例子是否相似。比如鸵鸟、黄鹂、白鹭都可以是鸟类的例子,但不一定要整合成一个独特的原型。鸸鹋被视为成鸟,因为它有点像鸵鸟。这可以看作是一种“延伸”方案,但概念中的例子不再一一列举。
“理论”理论:一个概念是由其在一个“理论”(即信念系统)中的作用决定的。比如“羽毛”的含义取决于我们对鸟类的认识,包括它在保护身体和飞行中的作用。这也算是一个“内涵式”的方案,只不过这里的概念特征体现在信念系统中的地位和作用上,同一概念中的例子并不一定各方面都相似。
正如心理学中常见的那样,这些理论都有自己的证据,但心理学家尚未就如何确定概念的意义达成共识。
作为智能理论的一部分,文献[2]给出了一个新的概念模型,暂且称之为“纳特模型”。该模型的基本思想是将经验形成的广义关系作为概念意义。如果A的概念被B的概念“泛化”,通常可以表述为“A是B的一种”,如“黄鹂是鸟的一种”。在这个关系中,谓语“黄鹂”揭示了谓语“鸟”的部分外延(举例),而谓语“鸟”也揭示了谓语“黄鹂”的部分内涵(特征)。因此,在这个模型中,外延和内涵是广义关系的两个方面。这种关系可以向两个方向延伸,即一个“是类”关系中的谓语可以同时是另一个“是类”关系中的主语,如“鸟是动物”。这样,仅凭这种关系就可以构建一个概念层次,其中“高层次”的概念更抽象(外延更大,内涵更小),而“低层次”的概念更具体(外延更小,内涵更大)。
在一般关系中,主语和谓语都可以是由其他项组成的“复合项”。比如“乌鸦是黑鸟”,谓语“黑鸟”由“黑”和“鸟”组成。借助于复合术语,其他概念关系可以改写成具有相同含义的广义关系。比如“唐僧和孙悟空是徒弟”可以改写为“唐僧是孙悟空的师父”、“孙悟空是唐的徒弟”,其中“孙悟空的师父”和“唐的徒弟”都是复合词。
上面的例子虽然都是中文,但是其中表达的关系是概念之间的关系,而不是词与词之间的关系。这里的“项”是概念在系统中的标识,不依赖于特定的自然语言。比如“乌鸦是黑鸟”在系统中实际上可能被表示为“t1978 t135”。当然,自然语言中的词也有相应的概念。例如,系统中的“乌鸦是名词”和“乌鸦由两个词组成”之间可以有概念关系,但这里的“乌鸦”和前面示例中的“乌鸦”指的是不同的概念。为简单起见,我们称“乌鸦”为“词项”,因为它指向一种语言中的词,所以可以用于系统间的通信。相反,“t1978”是“内部项目”,因为它们只能在一个系统内使用。术语通常用来表示内部术语,如“乌鸦表示t1978”,但这种“表示”关系是“多对多”,即同一内部术语可以用不同的术语表示,同一术语也可以用不同的内部术语表示。
不是所有的内部术语都可以用自然语言直接表达。事实上,我们经常找不到合适的词来准确地表达我们的想法。即使是那些与系统体验直接相关的概念,也不一定有对应的词汇,尤其是有些是对特定感知模式的概括(如“红”、“黑”),有些是与具体操作或动作相关的(如“推”、“敲”)。在这些概念中,上述的广义关系也起着重要的作用,尽管其外延或内涵包含了无法用语言完全表达的感性和操作性成分。下图简要展示了一些内部项(以T开头)、词项(中英文)和感性项(图片)的概括和表达。
综上所述,一个项与其他项的关系(或者它所标识的概念与其他概念的关系)体现在它的外延(它所概括的项)和内涵(概括它的项),它的和构成了这个项(或者它所标识的概念)在此刻对这个系统的意义。如果是词项,那么它的外延和内涵就是词的意义。
虽然Nath模型不排除系统可能有“先天”的概念和信念,但概念的意义仍然主要来自经验。如果一个系统对“苹果”没有体验,那么这个词对它来说完全没有意义。在了解到“苹果是一种水果”之后,这个词及其对应的概念就开始有了意义,包括“是一种水果”以及通过推理从中衍生出来的信念,比如“是一种植物”、“可以食用”。随着对“苹果”的认识越来越多,它的意义可能还包括它的形状、颜色、味道、手感等等,以至于它的栽培技术甚至它与一些历史人物的关系。简而言之,“苹果”的意义是系统经验的总和,包括直接经验和间接经验、言语表达和知觉运动,表现为一组以“苹果”为主项或谓语的广义关系。
当一个系统用一个概念来解决一个当前的问题时,由于时间的限制,一般不可能用概念的全部意义(除非概念极其简单),而只能用一部分,这就导致了“当前意义”和“一般意义”的区别。前者通常只是后者的一小部分,其内容选择受多种因素影响,包括确定性、简单性、过去的有用性、与当前形势的相关性等。由于这些因素是不断变化的,同一概念在不同时期在系统中往往具有不同的当前含义。经过足够的经验,有些概念会形成一个相对稳定的“基本意义”或“本质”,从中可以推导出这个概念意义的其他部分,而在其他概念中,可能找不到这个“内核”,从而无法为系统提供多少效用。可见,不同的概念对于系统的价值是不同的。
在这个模型中,“新”的概念可能以下列方式出现:
在经历中出现从未见过的词语或感官模式,比如第一次听到或看到“鸸鹋”。
生成复合词来“压缩”体验,如将“停车信号是红色”和“停车信号是灯”组合成“停车信号是红灯”。如果这个组合是系统之前没有考虑过的,那么“红灯”就是系统产生的新概念。
如果一个概念的意义在一段时间内发生了不可逆的、显著的变化,比如某个“非基本意义”变成了“基本意义”,就可以说演变成了一个新概念。例如,现在“SMS”的含义与二十年前有很大不同。
后两种方法往往使复合词在反复出现或起重要作用后逐渐作为一个整体使用,使其意义越来越不能还原为其成分的意义。例如,在某些情况下,说“红灯”可能与“红”和“光”无关。这可以看做是对之前文章《计算机能有创造性吗?》的补充:计算机不仅能创造新方法,还能创造新概念。
因为概念和词语的意义是由相关经验决定的,而不同的系统总是有不同的经验,所以意义从根本上说是私人的、主观的。虽然有相似经验的系统会有相似的概念,但一般不可能做到完全一样。意义的“客观性”成分主要是交流和社会化的产物,因为这些过程为不同的系统提供了相似的言语和社会经验,并促使它们按照惯例和习俗使用词语。如果你想让别人明白你的意思,你最好用每个人都能接受的方式使用语言,尽管你独特的经历会让你对词语的使用方式有新的想法。比如在《人工智能:何为“智”?》中,我一方面挑战了“智力”一词的常见用法,另一方面试图提出该词新的工作定义,在本义的“深度”中寻找依据。社会范围的语义变化是由“分化”和“规范”这种相互冲突的努力引起的。一方面,大多数个体的“语义不忠”已经被纠正或忽略,但总有一些新奇的用词方式引起越来越多的共鸣,以至于远近传播,甚至最后成为“标准语义”的一部分。在这个过程中,“墨守成规”和“标新立异”都是有道理的,因为前者维护了语言的存在,后者促进了语言的发展。具体例子摔跤的结果取决于双方的实力对比。
上面介绍的“纳特模式”与传统的语义理论有着本质的区别。目前,很多人仍然把计算机视为一个“物理符号系统”,认为其中的符号只有参考外界的事物才能获得意义。要解决“指涉”或“解释”超出系统本身控制的问题,常见的对策是用感性运动模式为符号提供“基础”。这仍然是在指称语义学框架内解决意义问题的一种尝试。问题是词的意义无法完全还原到知觉运动模式(虽然有时是主要成分)。纳特模型中的术语可以称为“符号”,但它对系统的意义并不取决于一个外部的参照或解释,而是体现在它与系统内其他符号的联系上。这种联系是对系统经验(包括但不限于知觉运动经验)的选择性总结,而不是一个不变的定义或理论。对这个符号的系统化处理,不仅是基于它的形式,更是基于它的意义。这样的系统不仅能理解符号的意义,还能改变和创造符号的意义。在这个模型中,指称语义还是有用的,但只用于数学等领域的“纯抽象概念”。
实际上,上面提到的各种概念理论都在试图用关系来描述概念,但“原型”理论用的是内涵关系,“例子”理论用的是外延关系,“理论”理论主要用的是信念系统中的关系(尤其是因果关系)。因为Nath模型考虑了所有的概念关系,所以前述理论可以视为其特例。对于一个特定的概念,它的意义可能确实主要是由某一类关系决定的,但更常见的是各种关系都有贡献。
实际上,把“意义”看作“一切关系的总和”远不是什么新思想。过去在哲学、心理学和人工智能中也有过类似的思想,但因为一些弱点,没有成为意义理论的主流。Nath模型就是基于解决这些弱点。一个常见的批评是,这种确定意义的方式被视为系统内的循环定义,与外界无关。Nath模型中的概念不是由其他概念定义的,而是由经验概念关系描述的。比如“苹果是一种水果”的知识,并不是用“苹果”或“水果”来定义“水果”,而是利用它们之间的关系来同时贡献它们的意义,而这种关系来自于外界。把“意义”说成“一切关系的总和”还有一个问题,就是太笼统,不能解决具体问题。Nath模型的对策是将各种概念关系统一表示和处理为广义关系及其变体。最后一个意见是质疑我们在使用一个概念时,如何能涉及所有其他概念。在这一点上,Nath模型的不同之处在于,它指出了当一个概念被一个系统使用时,通常只涉及到它的一部分意义,同时也解释了该意义的情景关联性。
纳什模型的计算机实现已经证明了这一模型的可行性,尽管还有许多细节有待解决。根据这个模型,概念和词语在一个人工智能系统中是有意义的,它们的意义是由系统的相关经验决定的。由于经验的差异,计算机对一个词的理解与人类并不完全相同,但这种差异并不妨碍计算机用自然语言与人交流,完成更多更复杂的语言处理。那些还在用“图灵测试”作为人工智能定义的人,可能会认为上述结论说明“真正的”人工智能是不可能的,但他们往往忘记了文化、性别、年龄等差异带来的困惑和误解。在人们中间比比皆是,各个领域对于一个词的“真实含义”到底是什么的争论从来没有停止过。当时阿q认为城里人管“板凳”叫板凳很可笑,类似的想法至今未断。
参考资料:
[1] Stephen Laurence和Eric Margolis,概念和认知科学,载于Concepts:核心读物,
埃里克马戈利斯和斯蒂芬劳伦斯(编辑),麻省理工学院出版社,1999年
[2]汪裴和道格拉斯霍夫斯塔德,《范畴化的逻辑》,实验理论人工智能杂志,18(2):193-213,2006
内容来源网络,如有侵权,联系删除,本文地址:https://www.230890.com/zhan/237988.html