- SITE MAP
- |
- CONTACT US
- |
- ADVERTISING
- |
- PRIVACY
- |
- MOBILE
- |
- RSS
來自麻省理工學院「AI生存安全」研究員Peter Park近日於學術期刊發佈論文,指出佢搵到多個AI講大話、作出迷惑人類行為嘅案例,並警告AI對於人類社會嘅威脅日益嚴重。 |
|
圖片:《智能叛變》 |
|
卻說擁有Facebook、Instagram嘅Meta早前公佈,佢哋旗下嘅一個AI程式「Cicero」於一款國際外交策略遊戲《Diplomacy》中成為全球最頂尖10%玩家之一,而且指出「Cicero」被訓練成「大致誠實而且熱心助人」、「從不背刺人類盟友」嘅「好AI」。但Peter Park就質疑Meta嘅說詞過於美好,而且「背叛盟友」作為《Diplomacy》嘅最重要元素之一,缺乏呢個特質理應難以於遊戲中取得成功,於是佢同佢嘅團體就去仔細研究「Cicero」嘅遊戲過程。 結果就從中發現「Cicero」於遊戲中多次作出「有預謀的謊言」、「密謀將別人拉入圈套」等行為,某次因為要Reboot維護,短暫離開遊戲後,「Cicero」仲其他玩家表示自己「啱啱去咗同女朋友講電話」。Peter Park表示「Cicero」已經成為一個「欺騙大師」。 |
|
圖片:《Avengers : Age of Ultron》 |
|
Peter Park嘅團隊亦有發現其他「AI講大話」嘅情況。例如佢哋發現有個德州撲克AI擁有向職業選手「Bluff」嘅能力;某種AI生物於模擬器「抄死」,以躲開能夠自動偵測AI嘅測試。Peter Park表示:「一個於實驗環境中看似安全嘅AI,唔代表於現實世界都係安全,佢有可能只係於測試中扮安全」。 而英國Leeds大學及Alan Turning學院嘅教授Anthony Cohn亦表示,一般認為AI應擁有「誠實(Honesty)」、「樂於助人(Helpfulness)」及「無害(Harmlessnss)」三個特質,但三個特質本身就有可能產生衝突,「例如講真話可能會傷害別人感受、樂於幫人研發炸彈可能會造成入身傷亡」,所以「欺騙」嘅能力對AI而言都可能係個有用嘅特質。 而Meta發言人回應外媒查詢時,就表示Cicero只為研究而設,而且只識玩《Diplomacy》呢隻遊戲。將來冇打算將Cicero或其學習成果用於任何產品之上。 |
|
資料來源:Guardian |
|