不同于如今的無人機由人類進行控制,未來的自主機器人可能會進行自主選擇。
1月份在瑞士召開的達沃斯世界經濟論壇上,專家們表示對自主機器人的擔心,并認為人們根本不相信會建成有道德意識的機器人。
研究人員可按照具體的規則對其進行編程,防止他們任意行事。
例如,科幻作家艾薩克·阿西莫夫,曾在其短片小說中介紹用三種規則來管束機器人的行為。
˙機器人不得傷害人類或袖手旁觀讓人類遭受到傷害。
˙機器人必須遵守人類發出的指令,除非此指令內容與第一條規則相沖突。
˙機器人必須保護自己的存在,只要此種保護方式不與第一種和第二種規則相沖突。
即使他們能合法運作,但是自主機器人都會產生嚴重的道德和倫理挑戰。最后,即使自主機器人合法并且有道德意識,他們可能還是會非常危險。機器人發生故障或者敵方黑客可能會導致很嚴重的后果。目前尚且還沒有任何國家使用自主機器人,但是也有一些國家和地區在戰區部署無人機。如果保護自主技術的安全系統被黑客攻克,可能會導致戰場上的浩劫。
IHS簡氏國際防務評論編輯Huw Williams表示:“可以致力于加強數據鏈路加密,保證與操作者互聯的安全性?!倍译S著系統變得更加自動化,無論平臺是否由人進行操作,黑客風險也會隨之增加。
本站內容除特別聲明的原創文章之外,轉載內容只為傳遞更多信息,并不代表本網站贊同其觀點。轉載的所有的文章、圖片、音/視頻文件等資料的版權歸版權所有權人所有。本站采用的非本站原創文章及圖片等內容無法一一聯系確認版權者。如涉及作品內容、版權和其它問題,請及時通過電子郵件或電話通知我們,以便迅速采取適當措施,避免給雙方造成不必要的經濟損失。聯系電話:010-82306118;郵箱:aet@chinaaet.com。