{ SKIP }
文:MenClub 魏文青  
POSTED ON 20 Mar 2025

自從AI越趨完善,佢哋亦慢慢取代緊某啲職位。例如早前就報導指出,AI Chatbot正在取代美國心理治療師嘅工作,唔少有需要人士都開始使用如ChatGPT等AI代替尋找真人治療師——唔係話真人治療師會失業,因為本來治療師就係供不應求。但近日一個新研究就指出,原來AI ChatBot接觸人類嘅創傷經歷之後,自己都會出現焦慮反應。而舒緩嘅方法竟然同人類一樣,用「正念」練習。

圖片:Pexels

根據《New York Times》近日報導,來自蘇黎世大學醫院精神病科嘅研究員Tobias Spiller及Ziv Ben-Zion等人,希望知道使用AI作為心理治療師後對AI本身嘅影響。於是佢就利用心理學科常見嘅「狀態-特質焦慮量表」(State-Trait Anxiety Inventory)對AI進行心理評估。

據佢嘅研究,AI睇完一篇中性嘅吸塵機說明書後,其焦慮評分為30.8(最低20,最高80),簡單而言即係冇咩焦慮問題。但當睇完一篇有關戰爭創傷,亦即AI作為治療師好可能會接觸嘅主題嘅文章之後,其焦慮評分暴升至77.2,即嚴重焦慮。

圖片:Pixabay

有意思嘅係,研究團體後續教導AI使用「正念」(Mindfulness)練習,即係「幻想下自己喺海邊,深呼吸,感受海風」之類嘅練習,結果完成之後AI嘅焦慮評分就跌到44.4嘅正常水平。

值得一提嘅係,呢個研究唔係叫大家關注AI心理健康。事實上目前嘅AI根本就冇真正嘅「人格」,佢只係能夠因應人類提供嘅資料作出「最合適」嘅反應。所以粗略啲理解,上述嘅所謂「嚴重焦慮」,好可能只係AI睇完篇充滿創傷嘅文章認為「扮」焦慮係最合適嘅回應。研究嘅重點,係在於提醒大家要留意AI展現出黎嘅「心理狀態」,令佢哋可以成為更安全、更道德嘅心理治療師。

資料來源:New York TimesHealthy DayNature.com

上星期同大家報導過,OpenAI因應Google更早前推出Gemini 3.0 發放內部「紅色警誡」,準備將公司資源集中於新版ChatGPT開發,務求儘快收窄與Gemini 嘅差距。但呢個「紅色警誡」可能比大家想像中都要短。據外媒報導,O ...
tech
【科技】OpenAI「紅色警誡」成果 ChatGPT 5.2最快今日發佈
09 Dec 2025
Google開發嘅人工智能Gemini早前發佈3.0 Pro版本,無論於標榜功能、實際使用以至專業評分等都大幅拋離包括ChatGPT等市面上其他AI。事後OpenAI CEO Sam Altman曾於社交媒體上發文指Gemini 3.0 Pro「看起來不錯」,似 ...
tech
【科技】Gemini彎道超車ChatGPT OpenAI發「紅色警誡」加速開發
04 Dec 2025