Skip to main content Start main content

理大研究发现训练人工智能大语言模型有助模仿人脑理解语言

2024年5月27日

科研与创新发展 人文学院

理大人文学院院长兼冼为坚基金人文与科技讲座教授李平教授指出「模型-大脑对应」是一种研究如何利用计算模型反映人类大脑在语言理解和其他认知活动中的新方法。

由李平教授领导的香港理工大学脑语言与计算实验室团队近期在国际科学期刊《Science Advances》发表了一项重要研究,为脑科学研究和人工智能模式开发带来启发。(從右至左:于劭赟、古婵媛、黄可馨)


随着生成式人工智能(GenAI)革新了社会互动方式,运用深度学习算法训练GenAI的大语言模型亦受到关注。香港理工大学(理大)最近的一项研究发现,如果以人类处理语言的类似方式进行训练,大语言模型的表现就更像人类脑部去理解语言,这对脑科学研究和人工智能模式开发带来启发。

现有的大语言模型主要依赖于上下文单词预测单一类型的预训练。这种简单学习方式在大规模训练数据和大量模型参数的结合下,应用于聊天机器人ChatGPT等,成效显著。近期研究亦表明大语言模型中的单词预测可以作为人类处理语言的认知模型。然而,人类平时理解语言时不仅只会预测下一个单词,还会整合自然语言理解中的高层次信息。

理大人文学院院长兼冼为坚基金人文与科技讲座教授李平教授领导的研究团队,将模拟人脑评估句子之连贯性的下一句子预测(Next Sentence Prediction, NSP)纳入模型预训练,并检验模型数据与脑活动的相关性。研究最近刊登在国际科学期刊《Science Advances》。

研究发现NSP能够强化大语言模型的能力。NSP用来预测前后句子怎样互相关联,与人类语义理解的神经模型非常吻合。研究团队训练了两个模型,一个具有 NSP 增强功能,另一个没有,两者均包含单词预测。他们评估从模型中提取的表征与人类阅读句子时的脑功能磁共振活动模式之间的匹配程度。

与只学习单词预测的模型相比,NSP增强模型与脑数据在多个脑区显示出更一致。研究结果亦提供了新见解,了解我们大脑如何加工语义,包括右脑在理解语义中的重要作用;例如,更多右脑区域与增强模型的一致性更高。其他发现亦显示大语言模型纳入NSP的优势,即基于增强模型的「模型-脑对应」分数可以更好地预测人的阅读速度。

近期如ChatGPT的大语言模型主要通过无限扩充训练数据和模型规模来提升它们的能力。李平教授表示:「仅依靠这种极度扩展的方式存在很多局限,新进展的突破有赖于我们将大模型变得更向人脑那样不需要海量数据,更高效益。我们的研究发现,像NSP这类多样化的学习任务可以改进大语言模型的人性化水平,使其更加接近人类智慧。」

他补充指:「更重要的是,此项研究解释了如何利用大语言模型研究我们人类大脑加工语言的高级机制。它还可以促进人工智能和认知神经科学领域研究人员之间的互动与合作,并藉此推动未来以人工智能为导向的大脑研究以及受人脑启发的人工智能研究。」

 

***完***

 

详情查询

黄炜殷女士

公共事务高级经理

您的浏览器不是最新版本。如果继续浏览本网站,部分页面未必能够正常运作。

建议您更新至最新版本或选用其他浏览器。您可以按此连结查看其他相容的浏览器。