{ SKIP }
文:MenClub Frey Lai  
POSTED ON 17 Feb 2017

人工智能發展愈來愈快,近年甚至喚起大家對人工智能威脅人類嘅諗法。2014年Elon Musk話過人工智能有可能比核武更危險,而霍金唔止一次強調強人類有可能會被人工智能毀滅。Future of Life Institute (FLI)喺1月初舉辦嘅Beneficial AI 2017會議中,由霍金同Elon Musk等過千名專家訂立嘅「Asilomar AI Principles」,將會成為規管人工智能嘅「AI廿三條」,呢23個將會分為「研究事項」、「倫理及價值觀」同「長期事項」三大類,希望將來發展人工智能可以嚴守原則,以保障人類未來利益同安全。


研究事項
1.研究目標︰人工智能研究嘅目標唔應該製作不受控制嘅智能,而係有益嘅智能。
2.研究經費︰投資人工智能時應該向電腦科學、經濟、法律、道德同社會研究等有益領域發展。
3.科學與政策的關係︰開發者要同政策製定人保持健康同富建設性嘅交流。
4.研究文化︰研究人員同開發者應要建立合作、信任同透明嘅研究文化。
5.避免不必要競爭︰研究團隊之間應積極合作,避免喺安全標準上取巧投機。


倫理及價值觀
6.安全性︰要確保人工智能系統運行期間安全可靠,而且可以被驗證。
7.失敗透明性︰當系統發生有害事故,應進行開放調查。
8.司法透明性︰任何經無人系統參與嘅司法決定,都要受人類監管。
9.責任︰高級人工智能系統嘅開發者,要為系統所造成嘅道德影響負責。
10.價值觀一致︰高度自主系統嘅行為同價值觀應該被設定為同人類一致。
11.人類價值觀︰人工智能應被設計到同人類嘅多元文化、自由、權利及尊嚴嘅理想一致。
12.個人私隱︰人類應該有權力去使用同管理人工智能產生嘅數據。
13.自由及私隱︰人工智能系統使用個人資料時,唔可以剝削人類嘅自主權。
14.分享利益︰人工智能科技應該盡量令更多人受惠。
15.分享繁榮︰由人工智慧創造嘅經濟繁榮應該被惠及全人類。
16.人類控制︰人類能夠選擇如何委派人工智能去完成人類選擇嘅目標。
17.非顛覆︰從人工智能系統獲得的權力後,應該尊重同改善社會,而非用於顛覆。
18.AI軍備競賽︰避免大殺傷力自動化武器嘅軍備競賽。


長期事項
19.警覺性︰唔應該假設人工智能係有能力上限。
20.重要性︰高級人工智能將會係地球生命史嘅重大變化,應該以相應嘅資源去計劃同管理。
21.風險︰當系統威脅人類存亡時,人類必須有相應嘅計劃同管理對付潛在影響。
22.自我改進︰當人工智能有自我升級或增加數量嘅能力時,必須受到嚴格安全同控制措施所限。
23.共同利益︰超智能應該以服務大眾為重,並非為一個國家或組織服務。


只要向AI聊天機械人輸入「日落」,對方就會展示一堆日落嘅Reels影片畀你睇。
tech
【科技】AI幫你搵貼文解答問題!Instagram正測試加入AI聊天機械人
16 Apr 2024
美國太空部隊早前向兩家商業公司批出總值超過6,000萬美金嘅合約,要求兩家公司分別製造太空載具,並計劃於2025年於地球軌道進行演練,以應付未來可能發生嘅太空戰爭。 美國太空部隊目前正籌劃緊一個名為 ...
tech
【太空】美國太空部隊2025年進行追逐演練
16 Apr 2024