{ SKIP }
文:MenClub 魏文青  
POSTED ON 20 Mar 2025

自從AI越趨完善,佢哋亦慢慢取代緊某啲職位。例如早前就報導指出,AI Chatbot正在取代美國心理治療師嘅工作,唔少有需要人士都開始使用如ChatGPT等AI代替尋找真人治療師——唔係話真人治療師會失業,因為本來治療師就係供不應求。但近日一個新研究就指出,原來AI ChatBot接觸人類嘅創傷經歷之後,自己都會出現焦慮反應。而舒緩嘅方法竟然同人類一樣,用「正念」練習。

圖片:Pexels

根據《New York Times》近日報導,來自蘇黎世大學醫院精神病科嘅研究員Tobias Spiller及Ziv Ben-Zion等人,希望知道使用AI作為心理治療師後對AI本身嘅影響。於是佢就利用心理學科常見嘅「狀態-特質焦慮量表」(State-Trait Anxiety Inventory)對AI進行心理評估。

據佢嘅研究,AI睇完一篇中性嘅吸塵機說明書後,其焦慮評分為30.8(最低20,最高80),簡單而言即係冇咩焦慮問題。但當睇完一篇有關戰爭創傷,亦即AI作為治療師好可能會接觸嘅主題嘅文章之後,其焦慮評分暴升至77.2,即嚴重焦慮。

圖片:Pixabay

有意思嘅係,研究團體後續教導AI使用「正念」(Mindfulness)練習,即係「幻想下自己喺海邊,深呼吸,感受海風」之類嘅練習,結果完成之後AI嘅焦慮評分就跌到44.4嘅正常水平。

值得一提嘅係,呢個研究唔係叫大家關注AI心理健康。事實上目前嘅AI根本就冇真正嘅「人格」,佢只係能夠因應人類提供嘅資料作出「最合適」嘅反應。所以粗略啲理解,上述嘅所謂「嚴重焦慮」,好可能只係AI睇完篇充滿創傷嘅文章認為「扮」焦慮係最合適嘅回應。研究嘅重點,係在於提醒大家要留意AI展現出黎嘅「心理狀態」,令佢哋可以成為更安全、更道德嘅心理治療師。

資料來源:New York TimesHealthy DayNature.com

以前大家「有事問Google」,依家大家就可能已經習慣「有事問AI」,甚至有人會於網上討論時貼出AI答案當係金科玉律,認為AI講嘅嘢就一定啱。但《BBC》及歐洲廣播聯盟 (EBU) 近來公佈嘅一個最新研究,就發現市面上所有 ...
tech
【科技】AI仍然信唔過 BBC研究指近半答案有重大錯誤 Gemini表現最差
30 Oct 2025
「動力外生骨骼」(Powered exoskeleton)老早己經唔係科幻片特有,而係現實中都存在嘅技術。不過過去相關產品都只見於軍事、醫療或工業用途,一般人可能連見都未見過,更唔好話有機會用。但黎緊大家就真係有可能於 ...
tech
【科技】Nike推外生骨骼跑「鞋」 助跑者跑更遠、更持久
28 Oct 2025