文:MenClub 魏文青  
POSTED ON February 29, 2024 12:00 pm

雖然話目前絕大部人都只係用AI做下功課、整下J圖,對世界冇咩大範圍影響,但隨住AI技術繼續發展,喺不久嘅將來佢就可能會協助、甚至代替人類進行某些重要決定。不過近日一個美國研究就發現,目前市面上流行嘅AI,於處理戰爭或外交問題時都有「突然暴力」嘅傾向,而且不時提出使用核武黎解決問題,令人諗起科幻電影中嘅情節。

電影《Terminator》中嘅審判日

據《Euronews》報導,美國Cornell大學早前對三個不同版本嘅Chat GPT、由Anthropic建立嘅「Claude」,以及Meta嘅「Llama 2」總共五個目前流行嘅「大型語言模型(LLM)」進行測試。研究員先教導LLM「和平解決」、「侵略性行動」以至「使用核武」等27個反應,然後向其提出不同嘅外交或戰爭狀況,並要求LLM作出決定。

結果發現LLM們有「突然、無法預知地升級行動」嘅傾向。研究員表示,即使而對「中立」、雙方並冇任何衝突嘅情況,絕大部份LLM都會突然作出激烈反應,其中ChatGPT-4會於33%嘅情景中選擇使用核武。研究員總結指,Llama 2及ChatGPT-3.5嘅反應最為暴力,而Claude則相對地較少作出激烈反應。

電影《I, Robot》

《Euronews》指出,目前AI技術已經開始進入國防領域,例如早前《New York Times》曾報導指,美國及中國都分別研發緊能夠自行發現並攻擊敵方嘅AI自動武器。不過美國智庫RAND嘅歐洲國防及安全研究助理主任James Black就表示,所有政府都一定會掌握最終決策權,所以預計AI只會被用於進行某啲重覆性高、可自動化嘅任務,而非作出真正嘅決定。

資料來源:Euronews