按理说,在真正的通用人工智能产品问世之前,心理学对于人类智能的研究是应当能够为人工智能界提供思想指引的,因为心理学家所面对的人类心理结构,是我们目前已知的唯一智能体模板。但目前心理学研究的问题却是:现象描述很多,细部的结构描述在神经科学的助力下也开展了很多,但却偏偏少了宏观的结构描述。
与不少媒体界朋友对于人工智能未来发展趋向的憧憬相反,在笔者看来,现有的人工智能研究自带某种“结构性”缺陷,而且,这种缺陷并不会随着硬件与既有算法的进步而自动得到克服。这一缺陷具体是指:关于一切智能体??无论是“自然的”还是“人工的”??所应当具有的认知架构是什么,我们尚且存在着较大的知识空白;并且在这种“高层知识空白”的情况下去进行具体的人工智能产品的研发工作,不可能使得相关产品达到“通用人工智能”的水准。下面这个比方或许能够帮助读者理解笔者的这一观点:如果一个军校要培养一名合格的机械化步兵旅指挥官的话,怎样的培养方案才是合适的?毫无疑问,这样的指挥官必须得了解某一个技术单位(如坦克团、机械化步兵团)的作战特点与装备特点,但这还远远不够,他还必须具有关于下述事项的某种“高层知识”,譬如“每个技术单位在整个旅中的功能角色是什么”,或“整个旅在集团军中的战术地位是什么”,等等。一句话,一个高级指挥官必须具有所有能够使其具有“大局观”的知识。这些高层知识,我们不妨就将其简称为“架构知识”。而现在的人工智能研究的最大问题,就是底层知识很多,高层的架构知识研究很少,至于对两种知识如何彼此衔接的研究,就更少了。譬如,做自然语言处理的团队,要么专攻语音识别,要么专攻“分词”,要么专攻“句法分析”,要么就专攻“词义矢量空间建模”,各个团队并不知道如何将彼此的知识熔铸到一个更宽泛的平台上??至于如何将语言模块与别的模块(如感知?运动模块)结合在一起,就更少有人关注了。更有甚者,在人工智能研究中长期以来都有一种不成文的规矩,即思考大问题的都是骗子,只有老老实实在一个领域内编程做“码工”的才有出息。换言之,只要一个个具体领域内的技术问题攻克了,大的“智能拼图”总是会浮出水面的。
不过,任何一个稍有大局观的人,恐怕都会发现上述思路的荒谬性。具体而言,如果所有的人工智能技术模块的技术前提都彼此不兼容,而且同时还缺乏一种作为“中间语”的架构以便将它们“拧成一股绳”的话,那么,这些模块就永远只能作为“复数”存在。某些前瞻性的架构研究必须“先走一步”。
为何目前的人工智能研究会出现这种“各自为政”的局面呢?原因是:在制度上,“人工智能”研究力量分散在信息科学的各个分支里,“彼此不通气”本来就是常态;在学理上,关于“智能体的认知架构应当是什么样的”这个大问题,与人工智能最相关的科学??心理学??本身就有“知识供给不足”的问题。
按理说,在真正的通用人工智能产品问世之前,心理学对于人类智能的研究是应当能够为人工智能界提供思想指引的,因为心理学家所面对的人类心理结构,是我们目前已知的唯一智能体模板。但目前心理学研究的问题却是:现象描述很多,细部的结构描述在神经科学的助力下也开展了很多,但却偏偏少了宏观的结构描述。
|