{ SKIP }
文:MenClub 魏文青  
POSTED ON 13 Jun 2024

ChatGPT等「大型語言模形」(LLM) 正迅速進入人類生活,甚至有唔少人已經培養出「有事問AI」嘅習慣。但只要試用過就會發現,呢類LLM提供嘅資訊往往不準確、錯誤甚或「無中生有」,令使用者未能盡信。目前業界稱呢種現象為「AI幻覺 (AI Hallucinations)」,但近日有研究團體就呼籲大眾及專家為呢個AI問題「正名」,更表示「AI唔係有幻覺,而係純粹9噏!」

來自蘇格蘭Glasgow大學嘅Michael Townsen Hick及James Humphries等多位學者近日於《Ethics and Information Technology》上發表最新研究,指出目前LLM出現「提供不準確資訊」嘅情形並非因為「幻覺」,而係因為LLM嘅本質就係「9噏 (Bullshitting)」。佢哋首先引用咗近代美國哲學家Harry Frankfurt對「9噏」嘅定義,指出「說謊者 (Liar)」係「知道真相但故意說出錯誤的話」,而「9噏者(bullshitter)」就係不理會事實真假及說話內容嘅準確性,純粹想講啲嘢出黎達到「留下好印象或說服」嘅目的。

然後佢哋進一步指出,目前如ChatGPT等LLM係唔理解「對與錯」、「準確與否」嘅概念,佢哋只係按訓練庫中嘅內容格式,生成出類似嘅文字,而無考慮內客本身嘅對錯。換言之佢哋生成嘅只係睇或聽落合理,但缺乏事實支撐嘅陳述,令佢哋更貼近「9噏」嘅定義。

你可能會問:「9噏」又好,「幻覺」又好,都係字眼問題啫,有分別咩?Michael Townsen Hick等人就指出,如果我哋將「AI提供錯誤資訊」歸咎於「AI幻覺」,就暗示我哋相信AI「想」提供正確資訊,只係目前做唔到或者出咗錯;但實際情況係AI根本冇理過資訊正確與否,佢哋生成文字出黎並非真係想同人溝通、提供錯誤資訊時亦非因為觀點錯誤或「幻覺」。

「AI幻覺」呢個錯誤嘅比喻除咗會助長對AI嘅過度炒作,亦會令公眾產生不必要的恐慌,同時令AI專家們試圖去解決一個唔存在嘅問題。研究團隊亦警告,即使AI提供正確資訊,都唔代表佢唔係「9噏」,相反只係「咁啱噏中」。

資料來源:ChatGPT is bullshit

唔少人都期望AI能夠大幅改善人類生活,但到目前為止嘛唔計搵J圖容易咗的話,AI最幫得手嘅大概就係幫學生做功課?不過近日有間美國初創公司,推出咗一個馬桶鏡頭,據稱能夠利用AI技術偵測你嘅腸道健度以至飲得夠唔夠 ...
tech
【科技】美國初創「Throne」推馬桶鏡頭 AI偵測腸道健康
29 Oct 2024
正如先前預告,Apple在昨晚正式推出搭載M4晶片嘅全新iMac,外觀延續上代設計,但處理速度就快咗2.1倍,並支援Apple Intelligence功能。 iframe width="560" height="315" src="https://www.youtube.com/embed/e ...
tech
【影視】Apple正式推出M4 iMac 速度比上代快2.1倍、支援Apple Intelligence
29 Oct 2024