網頁

2017-11-19

AI失控的關鍵點,26國籲禁「殺手機器人」 Knowing新聞 20171118

Comment
戰爭是你死我活,要很大的勇氣才能自律,幾乎不可能。

一如原子彈,誘惑實在太大了。要「戰後」很多年,才有可能管制。
但在AI下,「戰後」是個笑話!



AI失控的關鍵點,26國籲禁「殺手機器人」    Knowing新聞 20171118
AI會否在未來毁滅人類文明是近年來的熱門議題,而更迫在眉睫的「殺手機器人」議題更讓沒有能力發展人工智慧、機器人的國家更為焦慮。近日聯合國首度針對全自動武器召開會議,專家警告事態緊急,應盡快為殺手機器人的使用訂出規範。

歷時5天的聯合國特定傳統武器公約(Convention on Certain Conventional Weapons, CCW)會議今天落幕。根據《中央社》,與會國大多為軍事預算及科技層次較低的國家,共22國,呼籲全面禁止發展全自動武器,認為攻擊行動都應由人類下指令,因此全自動武器在定義上應屬非法。雖然外交官指出目前達成禁用條約的希望不大,至少邁出了第一步。

眾所周知,特斯拉執行長馬斯克十分警戒AI的發展,認為高速進展的AI未來恐會毁滅人類文明。今年821日,特斯拉、Google DeepMind和丹麥Universal Robotics、加拿大Element AI26國人工智慧及機器人企業的專家和領導者連署發表公開信,警告「殺手機器人等全自動武器會(繼火藥、核武之後)帶來3波戰爭革命」,要求聯合國禁止發展。

根據《自由時報》,該封連署信指出,致命性AI武器一旦開發、普及成功,戰爭會擴展至前所未有的規模擴張速度之快也會超乎想像AI武器極可能成為「恐攻的代名詞」,被獨裁者、恐怖分子用於殘害無辜。「時間已所剩無多,一旦『潘朵拉的盒子』被打開,要關上將難如登天」。

為了降低軍人的傷亡率,也或有降低戰爭成本之效,眾多先進國家都在發展全自動武器;事實上「半自動武器」早已存在,有部分的自主功能。據《紐約時報》報導,英國、以色列及挪威目前已部署自主飛彈與無人機來攻擊敵人的雷達以及坦克等武器。有專家認為半自動與全自動武器之間的界線越來越模糊,並慢慢縮小;也就是說,潘朵拉的盒子正在開啓中。

2 則留言:

  1. 該講的我講了
    不該講的我也講了
    就這樣吧....= =
    話說那篇留言是雲大你刪的?


    By渥洛

    回覆刪除
    回覆
    1. 渥大
      你知道我是不刪留言的,我主張言論自由
      除非有較為嚴重的對網友失禮的行為

      留言又不見了?
      唉,G也是不穩定

      刪除

請網友務必留下一致且可辨識的稱謂
顧及閱讀舒適性,段與段間請空一行