文:MenClub Frey Lai
POSTED ON 17 Feb 2017
人工智能發展愈來愈快,近年甚至喚起大家對人工智能威脅人類嘅諗法。2014年Elon Musk話過人工智能有可能比核武更危險,而霍金唔止一次強調強人類有可能會被人工智能毀滅。Future of Life Institute (FLI)喺1月初舉辦嘅Beneficial AI 2017會議中,由霍金同Elon Musk等過千名專家訂立嘅「Asilomar AI Principles」,將會成為規管人工智能嘅「AI廿三條」,呢23個將會分為「研究事項」、「倫理及價值觀」同「長期事項」三大類,希望將來發展人工智能可以嚴守原則,以保障人類未來利益同安全。
VIDEO
研究事項 1.研究目標︰人工智能研究嘅目標唔應該製作不受控制嘅智能,而係有益嘅智能。 2.研究經費︰投資人工智能時應該向電腦科學、經濟、法律、道德同社會研究等有益領域發展。 3.科學與政策的關係︰開發者要同政策製定人保持健康同富建設性嘅交流。 4.研究文化︰研究人員同開發者應要建立合作、信任同透明嘅研究文化。 5.避免不必要競爭︰研究團隊之間應積極合作,避免喺安全標準上取巧投機。
倫理及價值觀 6.安全性︰要確保人工智能系統運行期間安全可靠,而且可以被驗證。 7.失敗透明性︰當系統發生有害事故,應進行開放調查。 8.司法透明性︰任何經無人系統參與嘅司法決定,都要受人類監管。 9.責任︰高級人工智能系統嘅開發者,要為系統所造成嘅道德影響負責。 10.價值觀一致︰高度自主系統嘅行為同價值觀應該被設定為同人類一致。 11.人類價值觀︰人工智能應被設計到同人類嘅多元文化、自由、權利及尊嚴嘅理想一致。 12.個人私隱︰人類應該有權力去使用同管理人工智能產生嘅數據。 13.自由及私隱︰人工智能系統使用個人資料時,唔可以剝削人類嘅自主權。 14.分享利益︰人工智能科技應該盡量令更多人受惠。 15.分享繁榮︰由人工智慧創造嘅經濟繁榮應該被惠及全人類。 16.人類控制︰人類能夠選擇如何委派人工智能去完成人類選擇嘅目標。 17.非顛覆︰從人工智能系統獲得的權力後,應該尊重同改善社會,而非用於顛覆。 18.AI軍備競賽︰避免大殺傷力自動化武器嘅軍備競賽。
長期事項 19.警覺性︰唔應該假設人工智能係有能力上限。 20.重要性︰高級人工智能將會係地球生命史嘅重大變化,應該以相應嘅資源去計劃同管理。 21.風險︰當系統威脅人類存亡時,人類必須有相應嘅計劃同管理對付潛在影響。 22.自我改進︰當人工智能有自我升級或增加數量嘅能力時,必須受到嚴格安全同控制措施所限。 23.共同利益︰超智能應該以服務大眾為重,並非為一個國家或組織服務。