隨著生成式人工智能(GenAI)革新了社會互動方式,運用深度學習演算法訓練GenAI的大語言模型亦受到關注。香港理工大學(理大)最近的一項研究發現,如果以人類處理語言的類似方式進行訓練,大語言模型的表現就更像人類腦部去理解語言,這對腦科學研究和人工智能模式開發帶來啟發。
現有的大語言模型主要依賴於上下文單詞預測單一類型的預訓練。這種簡單學習方式在大規模訓練數據和大量模型參數的結合下,應用於聊天機器人ChatGPT等,成效顯著。近期研究亦表明大語言模型中的單詞預測可以作為人類處理語言的認知模型。然而,人類平時理解語言時不僅只會預測下一個單詞,還會整合自然語言理解中的高層次信息。
理大人文學院院長兼冼為堅基金人文與科技講座教授李平領導的研究團隊,將模擬人腦評估句子之連貫性的下一句子預測(Next Sentence Prediction, NSP)納入模型預訓練,並檢驗模型數據與腦活動的相關性。研究最近刊登在國際科學期刊《Science Advances》。
研究發現NSP能夠強化大語言模型的能力。NSP用來預測前後句子怎樣互相關聯,與人類語義理解的神經模型非常吻合。研究團隊訓練了兩個模型,一個具有 NSP 增強功能,另一個沒有,兩者均包含單詞預測。他們評估從模型中提取的表徵與人類閱讀句子時的腦功能磁共振活動模式之間的匹配程度。
與只學習單詞預測的模型相比,NSP增強模型與腦數據在多個腦區顯示出更一致。研究結果亦提供了新見解,了解我們大腦如何加工語義,包括右腦在理解語義中的重要作用;例如,更多右腦區域與增強模型的一致性更高。其他發現亦顯示大語言模型納入NSP的優勢,即基於增強模型的「模型-腦對應」分數可以更好地預測人的閱讀速度。
近期如ChatGPT的大語言模型主要通過無限擴充訓練資料和模型規模來提升它們的能力。李平教授表示:「僅依靠這種極度擴展的方式存在很多局限,新進展的突破有賴於我們將大模型變得更向人腦那樣不需要海量數據,更高效益。我們的研究發現,像NSP這類多樣化的學習任務可以改進大語言模型的人性化水準,使其更加接近人類智慧。」
他補充指:「更重要的是,此項研究解釋了如何利用大語言模型研究我們人類大腦加工語言的高級機制。它還可以促進人工智能和認知神經科學領域研究人員之間的互動與合作,並藉此推動未來以人工智能為導向的大腦研究以及受人腦啟發的人工智能研究。」
你可能也感興趣