随着生成式人工智能(GenAI)革新了社会互动方式,运用深度学习演算法训练GenAI的大语言模型亦受到关注。香港理工大学(理大)最近的一项研究发现,如果以人类处理语言的类似方式进行训练,大语言模型的表现就更像人类脑部去理解语言,这对脑科学研究和人工智能模式开发带来启发。
现有的大语言模型主要依赖於上下文单词预测单一类型的预训练。这种简单学习方式在大规模训练数据和大量模型参数的结合下,应用於聊天机器人ChatGPT等,成效显着。近期研究亦表明大语言模型中的单词预测可以作为人类处理语言的认知模型。然而,人类平时理解语言时不仅只会预测下一个单词,还会整合自然语言理解中的高层次信息。
理大人文学院院长兼冼为坚基金人文与科技讲座教授李平领导的研究团队,将模拟人脑评估句子之连贯性的下一句子预测(Next Sentence Prediction, NSP)纳入模型预训练,并检验模型数据与脑活动的相关性。研究最近刊登在国际科学期刊《Science Advances》。
研究发现NSP能够强化大语言模型的能力。NSP用来预测前後句子怎样互相关联,与人类语义理解的神经模型非常吻合。研究团队训练了两个模型,一个具有 NSP 增强功能,另一个没有,两者均包含单词预测。他们评估从模型中提取的表徵与人类阅读句子时的脑功能磁共振活动模式之间的匹配程度。
与只学习单词预测的模型相比,NSP增强模型与脑数据在多个脑区显示出更一致。研究结果亦提供了新见解,了解我们大脑如何加工语义,包括右脑在理解语义中的重要作用;例如,更多右脑区域与增强模型的一致性更高。其他发现亦显示大语言模型纳入NSP的优势,即基於增强模型的「模型-脑对应」分数可以更好地预测人的阅读速度。
近期如ChatGPT的大语言模型主要通过无限扩充训练资料和模型规模来提升它们的能力。李平教授表示:「仅依靠这种极度扩展的方式存在很多局限,新进展的突破有赖於我们将大模型变得更向人脑那样不需要海量数据,更高效益。我们的研究发现,像NSP这类多样化的学习任务可以改进大语言模型的人性化水准,使其更加接近人类智慧。」
他补充指:「更重要的是,此项研究解释了如何利用大语言模型研究我们人类大脑加工语言的高级机制。它还可以促进人工智能和认知神经科学领域研究人员之间的互动与合作,并藉此推动未来以人工智能为导向的大脑研究以及受人脑启发的人工智能研究。」