- SITE MAP
- |
- CONTACT US
- |
- ADVERTISING
- |
- PRIVACY
- |
- MOBILE
- |
- RSS
AI發展一日千里,其重要性亦不斷提升,好可能會對人類生活嘅方方面面產生重大影響。不過近日有「AI教父」之稱嘅Geoffrey Hinton就再次警告,AI將係人類存亡嘅最大威脅,更將「30年內AI導致人類滅亡」嘅機率從10%,上調至「10至20%」,並揚言人類於AI面前只係一個三歲小朋友,毫無保護自己嘅能力。 |
|
|
|
卻說於2018年憑深度學習與人工神經網絡領域研究者獲得「圖靈獎」,被稱為「AI教父」嘅Geoffrey Hinton,一直都對於AI飛速發展抱有警戒態度,並多次呼籲要限制AI發展。去年11月於佢更於X上指出,根據貝氏推論法則,佢認為「如果AI沒有被嚴格管制而導致人類於未來30年內滅亡」嘅機率為0.1(即10%)。 而當Geoffrey Hinton接受英國BBC Radio 4電台訪問,被問到最近有否修正上述機率之時,佢先係回答:「其實冇,都係10至20%」,此時節目另一嘉賓指出:「你咁樣係調高咗喎」,對此Geoffrey Hinton回答:「我哋從來未試過要面對比我哋更有智慧嘅事物。你講得出幾多個例子,係低智慧事物反過來控制高智慧事物?係有幾個嘅,例如母親與嬰兒,但呢個係漫長地進化而成,而我都諗唔到第二個啦」、「我會咁樣諗:試想像下你同一個三歲細路,(面對AI)我哋先係個三歲細路。」 |
|
Geoffrey Hinton 圖片:Wikicommon |
|
Geoffrey Hinton自2013年起就為Google開發深度學習及人工智慧相關技術,但佢於去年5月宣佈離職,以方便更公開地批評「不受管制的AI發展」。 佢於BBC Radio 4嘅訪問亦指出,目前AI發展嘅速度遠比佢想像中快:「依家係行內大部份專家,都認為於20年之內,我哋就會開發出比人類更聰明嘅AI。而你諗真啲其實係好得人驚」、「我嘅擔憂係,『無形之手』(即市場自行調節)唔會保護到大家嘅安全。單靠利益為上嘅大企業不足確保AI會安全地發展,唯有政府管制先可以強逼大企業安全地進行研究。」 值得一提嘅係,當年同Geoffrey Hinton一齊獲得圖靈獎、目前為Meta首席AI科學家嘅另一學者Yann LeCun,就對AI發展非常樂觀。不僅Geoffrey Hinton於首次指出「10%」時指出「Yann嘅估計係0.01(1%)」,Yann本人回覆時亦指「AI導致人類滅亡」嘅機率遠低於其他原因,甚至指出「AI可以拯救人類免於滅亡」。 |
|
資料來源:Guardian |
|