{ SKIP }

POSTED ON 17 Jun 2025

隨住AI發展得越黎越成熟,唔少人都期望「通用型AI」(AGI),即係能夠執人類所有工作嘅萬能AI已經咫尺。不過據Apple於WWDC前就發佈咗一個新研究,指出目前市面上嘅AI遇上複雜問題時,反而會放棄思考,準確率跌到接近零,甚至質疑依家嘅AI都只係「扮諗嘢」,而非有真正嘅推理能力。

圖片:ImageFX

Apple於上星期嘅WWDC之前發佈咗一篇名為《思考的幻覺》嘅學術論文,測試目前市面上嘅「大型語言模型(LLM)」以及「大型推理模型(LRM)」AI嘅解難能力。具體而言就即係叫AI試圖解決唔同難度嘅「河內塔」、「家族過河」等經典推理問題,分析能否得出正確答案、個思考過程又係點。

研究發現,如果問題本身非常簡單,咁LLM會比LRM更快得出答案;如果問題係中等難度,LRM依然能夠得出正確答案,但過程中可能會花費大量時間及資源去修正思考方向,顯示其解題效率唔太理想。而如果問題變得更高難度、更複雜的話,不論係LLM定LRM嘅準確性都會大幅下降。而當準確率跌到臨界點時,AI更會突然放棄思考,求其答啲嘢出黎,亦即係同人類「拚䠋」嘅行為非常相似。

圖片:ImageFX

雖然Apple研究用嘅謎題唔一定能代表所有日常任務,亦未有經過學術界嘅審查,但有唔少學者仍然認為其結果有重大含義。美國心理學家兼AI專家Gary Marcus認為,報告反映現時大家對AI嘅能力過於樂觀,並指出「任何認為LLM就是實現通用型AI捷徑的人,都是在自欺欺人」;英國Surrey大學人工智慧研究所嘅Andrew Rogoyski則認為研究顯示目前嘅AI技術已經到達極限。

另一方面,Apple於WWDC——一個佢自己都會講AI發展嘅活動——前發佈呢個研究,似乎亦表示佢想將自己定位成「AI批判者」或「標準設定者」嘅角色,一方面降低大家對於AI嘅期望(從而令落後嘅Apple睇落冇咁差),同時試圖掌握未來AI發展嘅更多話語權。

資料來源:TechnewsGuardianFuturismThe Illusion of Thinking:Understanding the Strengths and Limitations of Reasoning Modelsvia the Lens of Problem Complexity

熟悉科幻作品或者有睇開「老高」嘅人,相信都唔會對於「卡爾達肖夫指數」(Kardashev Scale)感到陌生。呢個由蘇聯天文學家尼古拉卡爾達肖夫提出嘅假說,旨在以文明能夠利用嘅能源量級黎量度其發展水平。其中一級文 ...
tech
【科技】人類進入二級文明?Google宣佈「捕日者」計劃將數據中心搬上太空
06 Nov 2025
以前大家「有事問Google」,依家大家就可能已經習慣「有事問AI」,甚至有人會於網上討論時貼出AI答案當係金科玉律,認為AI講嘅嘢就一定啱。但《BBC》及歐洲廣播聯盟 (EBU) 近來公佈嘅一個最新研究,就發現市面上所有 ...
tech
【科技】AI仍然信唔過 BBC研究指近半答案有重大錯誤 Gemini表現最差
30 Oct 2025