2025-10-13
【心理系專題演講】Cognitive, Emotional, and Metacognitive Tendencies of LLMs: Implications for Human–AI Interaction
文字、攝影/邱于蘅、李秉曄、董珈均
本系於 10 月 9 日邀請國立臺灣大學心理學系黃從仁副教授(模型建構與資訊學實驗室 M.I.Lab 主持人)蒞臨演講。黃老師以「Cognitive, Emotional, and Metacognitive Tendencies of LLMs」為題,從自身跨領域背景出發,分享如何以科技促進心理學研究,並以心理學回饋科技發展。同時也結合其近年於 Stanford University 合作計畫的觀察與經驗,帶領師生從認知、情緒與後設認知三個面向,重新審視大型語言模型(LLM)與人類互動的認知與心理影響。
科技與心理學的雙向對話
黃老師首先介紹其實驗室的研究理念:運用科技工具提升心理學研究的效度與規模,例如透過網頁實驗、大數據蒐集、手機或機器人日常追蹤等方式,提升研究的生態效度。另一方面,則是以心理學理論回饋並改善科技發展,如: 在開發社會機器人時,會發現人與機器人互動時,經常會互相打斷——有時是人誤以為機器人講完而插話,有時是機器人誤判人類停頓為結束而搶話。為什麼這樣的狀況在真實人與人互動中比較少發生?原來這和人類在溝通時無意識展現的 social transaction(社會互動線索) 有關。根據社會心理學與眼動追蹤(eye-tracking)的研究,眼神的交換與迴避在對話中扮演重要角色。當我們需要思考、回想或組織語句時,會暫時避開對方的視線;而當我們說完話再看向對方,就暗示「換你了」,這其實是一個高層次行為機制(high-level behavioral insight),但目前的社會機器人設計並未納入這樣的「眼神調控」機制,因此容易出現對話不順、互相打斷的現象,顯示心理學觀點能直接啟發演算法與互動設計。
史丹佛訪學與跨領域研究計畫
黃老師在演講中也分享自己與史丹佛大學合作的經驗,並介紹他參與過的計畫,其中 LoTUS BF(Location-or-Term Unified Search for Brain Function)是透過標註 15000 篇文獻中的腦區座標資料,建立一個能以「座標」與「關鍵字」混合查詢的搜尋系統,協助研究者跨領域整合腦區功能資訊。黃老師也同樣分享了自己對功能網絡(functional network)的一些個人觀察與思考,認為目前所謂「同時活化」的結果,部分可能受到 fMRI 時間解析度的限制所影響,並提出腦科學研究越來越細分,許多研究各自聚焦於特定腦區與功能的連結(例如杏仁核與恐懼、工作記憶與額葉等)不同領域的研究者對同一個腦區可能有不同解釋;透過此資料庫,可以直接依「腦區」定位,查看所有做過該腦區的相關實驗,解決「單一腦區功能詮釋分歧」的問題,獲得更全面的視角。
從人機互動看「錯誤記憶」的社會傳染
老師接著提到了自己在臺大的研究。黃老師首先釐清錯誤資訊(misinformation)與蓄意錯誤資訊(disinformation)在人機互動中的差別,misinformation是在非故意的情況下給出錯誤資訊,而disinformation是在知道是錯誤的情況下故意給出錯誤資訊誤導他人。另外老師也指出,並非所有被知覺到的資訊都會進入記憶,唯有被編碼進記憶的內容才會影響後續決策——因為只有進入記憶的內容,才會改變後續判斷與行為。
若未來人類與可攜式機器人共同生活與行動,機器人與人類之間可能形成一種「共享現實」(shared reality),而當機器人傳遞錯誤資訊時,人類可能會將其內化為錯誤記憶(false memory)。
他以實驗為例:受試者與機器人共同學習中性詞彙,在交流階段中,機器人刻意給出錯誤資訊。實驗設計包含人–人互動與多種人–機互動條件:無警告、開頭警告(Non-specific warning,在一開始回覆中即提醒AI 可能會出錯)、逐項警告(Specific item-level warning,機器人給出的錯誤資訊中,有50%會有提醒說,接下來的資訊可能會出錯)。結果發現,即使事前警告機器人可能出錯,受試者仍然受到誤導。
黃老師解釋,這可能源於人們普遍相信機器人擁有「完美記憶」,而人類記憶具有容量限制,傾向保留內容本身,而忽略「這項內容曾被標記不確定」的警告訊息。因此,他建議,在使用AI 模型面對不確定的資訊時,應明確表達「我不知道」,以避免模糊或不確定的訊息對人類記憶與判斷造成誤導,或後續需要透過非常完整結構的資訊,才稍有機會導正錯誤訊息。
大型語言模型的認知傾向(Cognitive Tendencies of LLMs)
在演講的最後,黃老師回到主題,分享他對 LLM 認知傾向的研究。以二戰歷史為例,他指出人類在回憶歷史事件時常呈現國族中心偏誤(nation-centric bias)——例如澳洲人平均認為本國對二戰貢獻約 18%,但其他國家平均評估僅約 3%。
研究團隊進一步探討 LLM 是否也呈現類似傾向。他們以不同語言與模型(如 Claude、ChatGPT、Gemini)設計跨語言(七種不同語言)的提示(prompt),生成相同問題的回答,並以 Jaccard similarity 分析不同語言間的一致性。結果顯示,人類與 LLM 的回答差異顯著,而不同 LLM 間的差異反而不大。黃老師將此比喻為:「LLMs像是一個大腦說多種語言」,而非多個獨立的知識體系。當研究比較不同歷史時期(如十字軍東征、9/11、COVID-19)時,也發現模型對「越久遠的事件」跨語言一致性越高,而對「越近代的事件」一致性較低。這可能是因為近代史資訊量龐大、詮釋多元且尚未形成社會共識(尚未 settle down),使模型學到的資料本身即具多樣與矛盾性;而久遠歷史因數位化資料較少,反而呈現單一觀點。
結語:跨領域的開放視野
黃從仁老師的演講以其跨領域視角,結合認知心理學、神經科學與資訊工程,深入剖析大型語言模型的認知傾向,並以實驗展示人機互動中錯誤資訊的記憶與傳播機制,啟發我們思考 AI 時代下人類記憶、資訊真實性與跨文化認知的挑戰。
他也在演講中分享自己對科學邊界的開放心態,分享了例如攜帶式 EEG 觀測高僧圓寂三日後的腦波、阿茲海默症患者「迴光返照」記憶恢復等特殊案例。黃老師鼓勵學生們,科學家應在保持嚴謹的同時,維持對未知的開放,理解科學能解釋與尚待探索的界線。