2010-05-05

軍事機器人威脅真人

在德國漢諾威電腦展(CeBIT)出場表演的足球機器人技驚四座,吸引了全場目光。然而,美國智庫布魯金斯研究所(Brookings Institution)資深研究員辛格博士(Dr. Peter Warren Singer)警告,看似蓬勃發展的機器人技術,隱藏著令人憂心的問題。

據英國科技網站v3.co.uk報導,辛格表示,機器人產業目前所處的位置,類似1909年的汽車產業。未來,人類的日常生活將出現越來越多機器人,人類正面臨一場機器人革命,機器人將被賦予更多人性,伴隨而來的道德問題,對人類社會將造成巨大衝擊。

2015年 半數美軍是機器人

法新社報導,除了家用及產業用之外,最早研究機器人的美國把重心放在軍事及太空用途。目前全球戰場佈署了不少具備智慧的機器人,從機動榴彈發射器到可發射飛彈的無人飛機,都可自行偵測並鎖定目標,不需人類協助。
在伊拉克戰場上,美軍於地面部署了4,000多個武裝機器人,無人飛機也累積了數十萬小時的飛行時數。

辛格指出,美國空軍招募的無人飛機領航員數量,已超過了載人飛機的飛行員。美國軍方亦規劃在2015年之前,軍隊的一半人員由機器人所取代。


在伊拉克戰場協助美軍偵測路邊炸彈的機器人

據美國防部2007——2032年無人系統計劃(Unmanned Systems Roadmap 2007-2032)資料顯示,預計美國投入無人技術系統的總花費將達240億美元。專家預測,美國在10年內就可佈署編制有150名士兵與2,000名機器人的特遣部隊。

然而,其中問題重重。2008年,南非一架電腦控制的防空大炮出現所謂的軟體失靈(software glitch),自動開炮至彈藥耗盡,導致9名南非士兵死亡。

機器人軍備競賽

除了居領導地位的美國之外,其他國家也相繼投入重金研發機器人戰士,如南韓及以色列佈署了武裝機器人守衛邊界;中國、印度、俄羅斯與英國則加強軍隊使用機器人。

英國雪菲爾大學(University of Sheffield)人工智慧與機器人專家夏基(Noel Sharkey)教授警告:軍事機器人對人類構成威脅。

夏基指出,這些以戰爭為目的製造出來的持槍機器人,自主性愈來愈高,不但可輕易落入恐怖份子手中,隨著價格下跌,科技愈來愈簡單化,有朝一日或許會引發全球機器人軍備競賽。

迄今,機器人仍需由人類按下按鈕,或是扣扳機。但如果人類不小心,情況可能改觀。

人工智慧機器人戰士 掌握生死大權

夏基說,最令人憂心的是,目前佈署的半自動型軍用機器人,將發展到成為完全獨立的殺人機器。

據美國國家科學研究會(The US National Research Council)的資料,美國正積極開發全自動機械在戰爭中提供的可觀利益。美國海軍稱,全自動機器人的製造成本低廉,需求人力較少,在複雜的任務中表現較佳。只需一個戰場軍人操縱,就可在空中及地面展開大規模機器人攻擊。

美軍明白表示,想盡快擁有自主型機器人(autonomous robots),就成本效益來說,可打一場無傷亡風險的戰爭。

與美軍合作研發機器人的喬治亞理工學院學者艾金(Ronald Arkin)同意,機器人將會逐漸轉變成具自主行動能力。

夏基曾在英國《衛報》發表專文指出,美國防部為了平息反對聲浪,特別投資設計讓機器人士兵具備道德判斷能力。然而,機器人根本無法有效分辨前方是載滿敵軍的巴士或只是學童校車,遑論道德判斷。

人類士兵有《日內瓦公約》(Geneva conventions)作為準則,自動型機器人卻只能適用《武裝衝突法》(Laws of Armed Conflict),但它們卻與其它標準武器不同。人類真要將自己的生死大權交給不夠聰明、也稱不上愚笨的機器人手中嗎?

在人類發展機器人早期,俄裔美籍作家兼生化學家以薩‧艾西莫夫(Isaac Asimov)在其科幻小說中發表了機器人三大定律:
1.機器人不能傷害人類,見到人類陷入危險也不能置之不理。
2.在不違反第一原則下,機器人必須服從人類命令。
3.在不違反第一、第二原則下,機器人必須保護自己。

但是,各國無視機器人三大定律,爭相製造戰爭機器,這個定律能發揮多少作用,由此可見一斑。

辛格表示,機器人內部所設定的道德程式不是重點,使用機器人的人類之道德水準才攸關重大。

夏基說:「我在人工智慧領域鑽研數十年,機器人可決定人類生死的想法,令我十分恐懼。」

沒有留言:

發佈留言

不介意的話 ,歡迎留言或發表意見

Related Posts with Thumbnails