科学家:军事机器人 威胁真人

 作者:司徒矫辗     |      日期:2019-07-01 09:07:02
上周在德国汉诺威电脑展(CeBIT)出场表演的足球机器人技惊四座,吸引了全场目光然而,美国智库布鲁金斯研究所(Brookings Institution)资深研究员辛格博士(Dr Peter Warren Singer)警告,看似蓬勃发展的机器人技术,隐藏着令人忧心的问题 据英国科技网站v3.co.uk报导,辛格表示,机器人产业目前所处的位置,类似1909年的汽车产业未来,人类的日常生活将出现越来越多机器人,人类正面临一场机器人革命,机器人将被赋予更多人性,伴随而来的道德问题,对人类社会将造成巨大冲击 2015年 半数美军是机器人 法新社报导,除了家用及产业用之外,最早研究机器人的美国把重心放在军事及太空用途目前全球战场布署了不少具备智慧的机器人,从机动榴弹发射器到可发射飞弹的无人飞机,都可自行侦测并锁定目标,不需人类协助 在伊拉克战场上,美军于地面部署了4,000多个武装机器人,无人飞机也累积了数十万小时的飞行时数 辛格指出,美国空军招募的无人飞机领航员数量,已超过了载人飞机的飞行员美国军方亦规划在2015年之前,军队的一半人员由机器人所取代 据美国防部2007——2032年无人系统计划(Unmanned Systems Roadmap 2007-2032)资料显示,预计美国投入无人技术系统的总花费将达240亿美元专家预测,美国在10年内就可布署编制有150名士兵与2,000名机器人的特遣部队 然而,其中问题重重2008年,南非一架电脑控制的防空大炮出现所谓的软体失灵(software glitch),自动开炮至弹药耗尽,导致9名南非士兵死亡 机器人军备竞赛 除了居领导地位的美国之外,其他国家也相继投入重金研发机器人战士,如南韩及以色列布署了武装机器人守卫边界;中国、印度、俄罗斯与英国则加强军队使用机器人 英国雪菲尔大学(University of Sheffield)人工智慧与机器人专家夏基(Noel Sharkey)教授警告:军事机器人对人类构成威胁 夏基指出,这些以战争为目的制造出来的持枪机器人,自主性愈来愈高,不但可轻易落入恐怖份子手中,随着价格下跌,科技愈来愈简单化,有朝一日或许会引发全球机器人军备竞赛 迄今,机器人仍需由人类按下按钮,或是扣扳机但如果人类不小心,情况可能改观 人工智慧机器人战士 掌握生死大权 夏基说,最令人忧心的是,目前布署的半自动型军用机器人,将发展到成为完全独立的杀人机器 据美国国家科学研究会(The US National Research Council)的资料,美国正积极开发全自动机械在战争中提供的可观利益美国海军称,全自动机器人的制造成本低廉,需求人力较少,在复杂的任务中表现较佳只需一个战场军人操纵,就可在空中及地面展开大规模机器人攻击 美军明白表示,想尽快拥有自主型机器人(autonomous robots),就成本效益来说,可打一场无伤亡风险的战争 与美军合作研发机器人的乔治亚理工学院学者艾金(Ronald Arkin)同意,机器人将会逐渐转变成具自主行动能力 夏基曾在英国《卫报》发表专文指出,美国防部为了平息反对声浪,特别投资设计让机器人士兵具备道德判断能力然而,机器人根本无法有效分辨前方是载满敌军的巴士或只是学童校车,遑论道德判断 人类士兵有《日内瓦公约》(Geneva conventions)作为准则,自动型机器人却只能适用《武装冲突法》(laws of armed conflict),但它们却与其它标准武器不同人类真要将自己的生死大权交给不够聪明、也称不上愚笨的机器人手中吗 在人类发展机器人早期,俄裔美籍作家兼生化学家以萨‧艾西莫夫(Isaac Asimov)在其科幻小说中发表了机器人三大定律: 1.机器人不能伤害人类,见到人类陷入危险也不能置之不理 2.在不违反第一原则下,机器人必须服从人类命令 3.在不违反第一、第二原则下,机器人必须保护自己 但是,各国无视机器人三大定律,争相制造战争机器,这个定律能发挥多少作用,由此可见一斑 辛格表示,机器人内部所设定的道德程式不是重点,使用机器人的人类之道德水准才攸关重大 夏基说:“我在人工智慧领域钻研数十年,机器人可决定人类生死的想法,