中新網(wǎng)北京5月25日電 (記者 孫自法)人工智能可否追蹤他人心理狀態(tài)?能力如何?施普林格·自然旗下專業(yè)學(xué)術(shù)期刊《自然-人類行為》最新一期發(fā)表一篇人工智能研究論文顯示,在測試追蹤他人心理狀態(tài)能力(也稱心智理論,Theory of Mind)的任務(wù)中,兩類人工智能大語言模型(LLM)在特定情況下的表現(xiàn)與人類相似,甚至更好。
該論文介紹,心智理論對人類社交互動十分重要,是人類溝通交流和產(chǎn)生共鳴的關(guān)鍵。之前的研究表明,大語言模型這類人工智能可以解決復(fù)雜的認(rèn)知任務(wù),如多選決策。不過,人們一直不清楚大語言模型在被認(rèn)為是人類獨有能力的心智理論任務(wù)中的表現(xiàn)是否也能比肩人類。
在本項研究中,論文第一作者和共同通訊作者、德國漢堡-埃彭多夫大學(xué)醫(yī)學(xué)中心 James W. A. Strachan與同事及合作者一起,選擇能測試心理理論不同方面的任務(wù),包括發(fā)現(xiàn)錯誤想法、理解間接言語以及識別失禮。他們隨后比較了1907人與兩個熱門大語言模型家族(GPT和LLaMA2模型)完成任務(wù)的能力。他們發(fā)現(xiàn),GPT模型在識別間接要求、錯誤想法和誤導(dǎo)的表現(xiàn)能達(dá)到有時甚至超越人類平均水平,而LLaMA2的表現(xiàn)遜于人類水平;在識別失禮方面,LLaMA2強于人類但GPT表現(xiàn)不佳。
論文作者指出,LLaMA2的成功被證明是因為回答的偏見程度較低而不是因為真的對失禮敏感,而GPT看起來的失利其實是因為對堅持結(jié)論的超保守態(tài)度而不是因為推理錯誤。
論文作者提醒說,人工智能大語言模型在心智理論任務(wù)上的表現(xiàn)堪比人類不等于它們具有人類般的能力,也不意味著它們能掌握心智理論。
他們總結(jié)表示,這項研究進(jìn)展是未來研究的重要基礎(chǔ),建議后續(xù)進(jìn)一步研究大語言模型在心理推斷上的表現(xiàn)會如何影響個體在人機交互中的認(rèn)知。
近日,依托新華網(wǎng)建設(shè)的健康中國促進(jìn)工作委員會正式成立。新華網(wǎng)健康中國促
6月1日至4日,博鰲亞洲論壇全球健康論壇第二屆大會在青島舉行。據(jù)了解,為
本站所有建議僅供用戶參考,不可代替專業(yè)醫(yī)師診斷、不可代替醫(yī)師處方,請謹(jǐn)慎參閱,本站不承擔(dān)由此引起的相關(guān)責(zé)任。
Copyright © 2017 www.inbucxw.cn All Rights Reserved 冀ICP備17019435號-9