ChatGPT到底在「想」什麽? 科学家以心理学与神经科学研究人工智慧 – 科学月刊Science Monthly
Author 作者 编译|陈亭玮人工智慧心理学神经科学逆向工程机器学习神经网路LLM人工智慧(artificial intelligence, AI)大型语言模型(large language models, LLM)的能力逐渐被肯定,但它的内在运作模式仍然是个谜。为了探究此谜题,科学家开始采取「逆向工程」的方法,应用心理学与神经科学的研究方式,尝试解构AI的运作逻辑以理解它的运作。
机器学习带来谜团,AI如何得出结论?现阶段最新的AI技术主要倚赖大量机器学习(machine learning)技术,在这种情况下,AI会自行辨识资料中的模式,而无需事先给予任何规则组织或分类资讯。最先进的机器学习系统使用的是神经网路(neural networks),设计概念来自於人类大脑的架构,它们模拟神经元层的运作,让资讯在每一层中转换。然而,最终由AI生成的模型产生结论背後的理由,对人类来说可能难以理解。正如人类大脑一样,这些网路在学习过程中会强化或削弱神经连接,但我们往往难以看出为何某些连接会受到影响。因此,科学家们经常将AI比作「黑盒子」,AI的内部如何运作是一个谜。
为了解决这一项难题,科学家们转向发展可解释AI(explainable AI, XAI)领域,发展更多的工具与研究技巧,并以逆向工程了解AI的运作,理解哪些情况会影响AI做出特定的建议或诊断。虽然XAI帮助研究人员破解了一部分黑箱内容,但XAI仍在发展中。
LLM蓬勃发展,危机与疑问并存对於LLM来说,这个问题尤其严重。LLM的应用十分广泛,例如最广为人知的ChatGPT等聊天机器人,就是它的应用之一。由於LLM拥有数量庞大、约数百万亿的「参数」,所以给出的答案常常难以解释、亟待研究了解。因此,在LLM开始蓬勃发展後,XAI也跟着迅速发展。
随着AI的应用逐渐广泛,人们正在使用LLM寻求医疗建议、撰写电脑程式码、汇整新闻、撰写学术论文等,LLM这类难以解释的AI现在正在承担重要的任务。然而,众所周知,这种模型可能会产生错误的资讯、延续社会刻板印象并泄漏私人资讯。有些人形容LLM为「随机鹦鹉」(stochastic parrot),认为LLM主要会根据机率排列组合文字模式完成写作,但实际上并未实质理解写出来的内容。不过,也有人指出实际上的情况更为复杂,包括在许多情况下,都有人发现LLM出现推理等类似人类的能力。
许多研究努力研究LLM背後的原理,以便未来能创建更安全、更高效且更准确的AI。也能藉此建立标准,了解何时该相信聊天机器人的输出,或者如何进行监控,以设定AI相关的防护措施。
透过交谈与扫描,了解LLM运作的逻辑科学家们采取了多种方法来探索LLM的内部运作。其中一种与心理学研究使用的方法相似,仅通过问问题来了解它的运作方式。这类研究方法将LLM视为与人类类似的主体,并与它进行对话,希望藉此了解来自於简单的类神经网路所产生的复杂行为。Google团队曾在2022年推出「思维链指令」(chain-of-thought prompting),藉由示范的方式让LLM展示自己推导的逻辑。但也有研究团队指出,思维链指令给出的答案仍有被误导的空间。虽然尚无定论,但目前此类研究已经显示了LLM比人类更容易受到语言措辞暗示,提供有偏见的答案。
还有其他研究人员从神经科学中获取灵感,以探索LLM的内部运作。为了探查聊天机器人是如何「欺骗」,他们对LLM提出问题、要求AI「说谎」,然後观察它的「神经元」活化情况。这项研究方式与为人类进行神经影像扫描的过程有些相似,有点像是研发一款LLM专用的测谎器。目前有多种不同的LLM扫描技术,部分采用由上而下的方式,将概念或事实归因於底层的神经运作;也有一些则采用由下而上的方式,藉由观察不同「神经元」运作的时间点,以了解它们个别代表什麽。以AI进行研究的好处,是研究人员可以在短时间内重复非常多次的测量与参数改换,相较於生物大脑来说能更快速的获得相关资料。
现阶段有许多科学家致力於了解AI。但同时,社会开始逐渐形成一种共识,认为开发AI的公司有义务为自家模型提供解释,例如欧盟的《人工智慧法案》(AI Act)就要求在远端生物辨识、公共服务系统运作的AI属於「高风险人工智慧系统」,需要一定程度的解释。而对於开发和使用LLM的公司来说,这是一个必须面对的挑战,需要负责进行科学研究,或者至少要让其他人进行研究。现阶段AI仍在蓬勃发展阶段,但开放其应用的同时,持续解开AI的运作方式这个谜题,才是负责任的态度,以确保未来不会因为缺乏对AI的了解,而对社会运作造成额外的风险。(Adobe Stock)新闻来源
Hutson, M. (14 May 2024). How does ChatGPT’think’? Psychology and neuroscience crack open AI large language models. Nature. https://www.nature.com/articles/d41586-024-01314-y