虽然辛顿丝毫不留情面地批判了乔姆斯基,但是我们不必妄自菲薄,以为语言学就要被人工智能(AI)取代了。实际上,我觉得我们依然有价值,甚至可以反过来给辛顿一些建议。
辛顿在演讲中说:“大语言模型的工作方式,以及我们人类的工作方式就是,我们看到很多文本,或听到很多词串,进而获知词的特征,以及这些特征之间的交互作用。所谓理解,就是这么回事。神经网络模型正在以与人类完全相同的方式做理解。”但是,我们真的就是这么理解的吗?我觉得还不够。
确实,这种方式,非常接近我们认知功能学派推崇的usage-based linguistics,基于使用的方式,简而言之,用多了,就会了。基于使用的研究法的基本假设就是,语言知识是在联想网络中组织起来的,关联网络对使用频率敏感,在语言使用中高频的语例引起说话人心智中的固化,形成独立表征。所以,认知语言学家对辛顿的说法,必然是举双手欢迎。但是,辛顿对意义的理解,还是缺了那么一些。
这就来到了我的主要观点——辛顿没能跳出“中文屋”。
塞尔(John Searle)1980年提出一个“中文屋”问题。他的目的是要反对图灵测试,他认为一个计算机程序通过图灵测试并不意味着它具有智能,至多只能是对智能的模拟。为了论证自己的观点,塞尔提出了这样一个思想实验。
想象一个从小说英语、完全不会中文的人,被锁在一个房间里。房间里有一盒汉字卡片和一本规则手册。这本手册用英文写成,告诉人操作汉字卡片的规则,但并没有说明任何一个汉字的含义。它不是汉英字典!只是一个操作特定汉字卡片的规程,本质其实是一个程序。现在,房间外面有人向房间内递送纸条,纸条上用中文写了一些问题,房间里的人只要严格按照规则操作,就可以用房间内的汉字卡片组合出一些词句,完美地回答输入的问题。于是,这个人提供的输出,就通过了云顶集团:“理解中文”这个心智状态的图灵测试。
然而,塞尔指出,这个人其实仍然一点儿也不会中文。更进一步,无论是在这个房间中,还是这个房间整体,都找不到任何理解中文的心智存在。因此,通过图灵测试并不意味着拥有智能或者心智。不是拥有,只是功能上的模拟。就好像,假肢不是真胳膊。
塞尔真是了不起!现在看来,大语言模型展现出的强大功能,本质上依旧是高仿的假肢。大模型依旧是“中文屋”。有人对目前前沿的所有GPT系统模型做了综合性测试,发现没有哪个模型不是仍旧处于“中文屋”的阶段。判断的标准有这样几个。(1)复杂的语义解析,如理解情绪、视觉体验、隐喻、故事背景等。(2)情境推理,比如完成这样的情景推理任务:“遮阳伞是否适用于下雨天?”这需要世界知识。(3)创造性生成,也就是看它是否真正拥有与人类相似的想象力和认知创造性。我常常想,我给大模型输入我正在写的论文的前半段,它能不能给我生成后半段?答案不言自明。(4)自我意识与反思,这就是很多科幻小说里的机器人觉醒,比如电影《终结者》里的天网SKYNET觉醒后开始毁灭人类。
现在看来,目前的大模型远远没有达到能够觉醒的水平。所以我们不必担心,SKYNET永远不会派出T800。辛顿对AI的担心,目前看来,是多余的。因为被困在“中文屋”里,是永远造不出T800的,除非他愿意听一听我们认知语言学者的建议。
大家知道,认知语言学的背后,是体验哲学,是肉身哲学,是心寓于身的哲学。我们能够理解语言的意义,是因为我们从诞生起就在语言中感知。
我们要怎样来帮辛顿跳出“中文屋”?答案其实萨丕尔100年前就在《语言论》里说过了,就是意义要从语言以外去理解,依靠经验。AI需要有人的人生经验,才能真的有理解。现在图像识别还不能叫作图像感知,比方说,它识别出来这是猫了,就真的懂得这是猫吗?其实还是不懂的。我们是怎么认识猫的?依靠经验!我们不只是看了很多猫,而且还摸过、抱过、听过,讨厌过或喜欢过,跟猫在一起有故事。这才是意义。在我看来,现在的AI离理解意义还差十万八千里。要先有感知,才有认知,再有经验,再形成概念,才到语言,这就是意义的整体论。辛顿需要语用整体论帮助他,帮助AI理解意义。
我希望辛顿们最终能跳出“中文屋”,带给我们更好的AI。到那个时候,再像现在这样做语言学,恐怕真的要下岗了。我希望这事儿发生在我退休之后!
完 权
中国社会科学院语言研究所
该文发表于《语言战略研究》2024年第6期