人工智慧可能有感知与意识?LaMDA事件的哲思 – 科学月刊Science Monthly
Author 作者 甘侦蓉/清华大学动力机械工程学系助理研究学者。Google工程师大型语言模型系统LaMDA人工智慧随机鹦鹉涂灵测试科学知识哲学思辨科学验证人们或许真的很希望像上帝一样依照自己形象造人,Google工程师雷蒙恩(Blake Lemoine)在今(2022)年四月与公司管理阶层分享了一份标题为「LaMDA有感知吗?」(Is LaMDA Sentient?—an Interview)的文件,里面是他与Google的大型语言模型系统(Language Model for Dialogue Applications, LaMDA)长达20页的对话纪录。雷蒙恩希望公司启动调查LaMDA是否如他所言,它〔注〕确实是有感知(sentient)与自我意识的,就像人类一样拥有人格(personhood)。]〔注〕雷蒙恩认为LaMDA 知道自己是人工智慧,不像人类,因此希望被称为it/its,此处依其脉络中文翻译成「它」。结果Google高层不但否认LaMDA具有感知,且拒绝启动调查。雷蒙恩後续将与LaMDA的对话纪录公布在Medium网路平台,并接受《华盛顿邮报》(The Washington Post)采访。Google随即以他违反公司产品保密协定为由,将他停职最终解雇。不论是在《华盛顿邮报》的报导、雷蒙恩尔後续於Medium的发文、以及他接受网路媒体《连线》(Wired)的采访,雷蒙恩都表示他自己对於LaMDA的看法,不但是出於身为认知心理学家做过多次实验後的科学假设,也是基於目前科学知识限制下,让同时有牧师身分的他所相信的。雷蒙恩相信LaMDA与人类一样是有心灵的,他呼吁Google,应尽快启动对於LaMDA是否有感知与意识的调查。若是,LaMDA就不是Google的财产,应受到美国《宪法第十三条修正案》废除奴隶制和强制劳役的权利保障,未来做任何实验都应该经过它的知情同意;若否,也可大大增进认知科学及人类意识研究的进展。大型语言模组「对话」,与有「感知」差在哪?这件事不意外地在西方媒体炸开来了!不只社会大众,还有许多人工智慧(artificial intelligence, AI)相关领域专家,纷纷对此事表示意见。多数擅长自然语言处理的AI技术专家认为,诸如Google子公司OpenAI生产的GPT-3、Meta生产的OPT-66B等这类大型语言模型,由於都从巨量文本训练而来,能够预测并生成有最高机率切合对话上下文脉络的文字串,就算不知道狗是动物,也能将狗放在文章或语句中正确的位置,因此不能算是真正了解对话的含意。
曾撰文称这类AI大型语言模型是随机鹦鹉(Stochastic Parrots)〔注〕的前Google伦理技术专家米契尔(Margaret Mitchell)便指出,人类是透过与他人来回的沟通、与他人沟通的意图当中感知他人思想,并在这个实践过程里习得语言。但大型语言模型却是以观看「他人」彼此如何沟通的观察脉络当中来学习,实际上既无人类的沟通意图、也无沟通的实践。〔注〕指透过巨量资料所训练出来的大型语言模型,其结构是一种随机概率分布的(stochastic)统计模型,可根据所给定的上下文或主题来预测所需生成的字串/语句/段落,完全不涉及文字或语词本身的意义,所以这类模型生成文字就像学人讲话的鹦鹉一样,并不真的懂文字的意义。此词出自於米契尔与另一位知名的前Google 伦理技术专家盖布鲁(Timnit Gebru)等人於去(2021)年发表的On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?,她们因发表此文被Google 以违反公司政策与规定为由遭到开除,引发AI 学界譁然与批评。麻省理工学院(Massachusetts Institute of Technology,MIT)物理学家铁马克(Max …