{ SKIP }

POSTED ON 17 Jun 2025

隨住AI發展得越黎越成熟,唔少人都期望「通用型AI」(AGI),即係能夠執人類所有工作嘅萬能AI已經咫尺。不過據Apple於WWDC前就發佈咗一個新研究,指出目前市面上嘅AI遇上複雜問題時,反而會放棄思考,準確率跌到接近零,甚至質疑依家嘅AI都只係「扮諗嘢」,而非有真正嘅推理能力。

圖片:ImageFX

Apple於上星期嘅WWDC之前發佈咗一篇名為《思考的幻覺》嘅學術論文,測試目前市面上嘅「大型語言模型(LLM)」以及「大型推理模型(LRM)」AI嘅解難能力。具體而言就即係叫AI試圖解決唔同難度嘅「河內塔」、「家族過河」等經典推理問題,分析能否得出正確答案、個思考過程又係點。

研究發現,如果問題本身非常簡單,咁LLM會比LRM更快得出答案;如果問題係中等難度,LRM依然能夠得出正確答案,但過程中可能會花費大量時間及資源去修正思考方向,顯示其解題效率唔太理想。而如果問題變得更高難度、更複雜的話,不論係LLM定LRM嘅準確性都會大幅下降。而當準確率跌到臨界點時,AI更會突然放棄思考,求其答啲嘢出黎,亦即係同人類「拚䠋」嘅行為非常相似。

圖片:ImageFX

雖然Apple研究用嘅謎題唔一定能代表所有日常任務,亦未有經過學術界嘅審查,但有唔少學者仍然認為其結果有重大含義。美國心理學家兼AI專家Gary Marcus認為,報告反映現時大家對AI嘅能力過於樂觀,並指出「任何認為LLM就是實現通用型AI捷徑的人,都是在自欺欺人」;英國Surrey大學人工智慧研究所嘅Andrew Rogoyski則認為研究顯示目前嘅AI技術已經到達極限。

另一方面,Apple於WWDC——一個佢自己都會講AI發展嘅活動——前發佈呢個研究,似乎亦表示佢想將自己定位成「AI批判者」或「標準設定者」嘅角色,一方面降低大家對於AI嘅期望(從而令落後嘅Apple睇落冇咁差),同時試圖掌握未來AI發展嘅更多話語權。

資料來源:TechnewsGuardianFuturismThe Illusion of Thinking:Understanding the Strengths and Limitations of Reasoning Modelsvia the Lens of Problem Complexity

隨住AI生成工具進步及普及,網上充斥住愈來愈多AI生成假圖及假片,而且效果仲要幾何亂真。為研究人類能否分辨AI圖像,微軟做咗項大型實驗,吸引全球超過12,500人參與,總共進行了大約287,000次圖像辨識。結果顯示, ...
tech
【科技】微軟研究發現:人類分辨AI圖像成功率僅62%
30 Jul 2025
最近Insta360及DJI兩大公司互相進軍對方領域!繼無人機龍頭DJI早前宣布推出首款全景相機後,以360度全景相機聞名嘅Insta360今日就宣布成立無人機子品牌「Antigravity」,並預告下月將公開首款產品,一款支援8K全景拍 ...
tech
【科技】Insta360成立無人機品牌「Antigravity」 全球首款8K全景無人機下月登埸
29 Jul 2025