怪兽当道无路可退——无人化战争地球人做好准备了吗?

来源:百度文库 编辑:超级军网 时间:2024/04/28 02:24:57
怪兽当道无路可退

新书介绍:《Wired for War:The Robotics Revolution and Conflict in the 21st Century》,企鹅出版社2009年。

作者:P.W. Singer,布鲁金斯研究所高级研究员。

作者在34岁成为布鲁金斯研究所高级研究员,成为该研究机构成为高级研究员历史上最年轻的一位。他曾在哈佛大学任教,担任过五角大楼高级官员,是奥巴马竞选班子国防政策顾问团首脑。

战争史甚至人类历史上正在发生这一个重大的事件。美军在进入伊拉克的时候只有几架无人驾驶飞机,没有任何地面无人控制系统,没有任何无人驾驶装置装备了武器系统。今天,美军武器库里有5300架各种类型的无人驾驶飞机,12000具地面无人控制系统。这些还只是第一代无人系统;这就是正在发生的。美国空军参谋长说:“根据发展的趋势,在未来战争中将有无数无人系统的参与。”

作者在过去的几年中所研究的重点就是在捕捉这一历史时刻。该书收集了人工智能科学家和研究单位的故事和经历,描述了无人系统从无到有的过程。该书不单单是让读者去了解和感受军事无人系统的发展和传奇,而是提出了许多更尖锐的问题:人类的恐惧,政治、经济、法律和道德问题,人类社会如何去面对未来的战争,究竟是什么在进行战争。“当科幻小说成为真正的战争后人类会如何去做?”

尽管人们在讨论和发展下一代无人驾驶战车,无人舰艇和无人飞机,但有一个问题却没有人讨论,或者是人们还没有讨论它的勇气。那就是当更加智能化、更具备作战能力、更有杀伤力的无人系统投入战争后,人究竟在战争中扮演什么角色?

当这个问题出现的时候,专业人员和军事官员不是转换话题就是表现得信心十足。布什政府国务院高级军事顾问科恩说:“人们永远希望人类能够位于控制地位。”美国空军杂志发表的一篇文章这样写到:“在一些情况下,无人系统可以让人远离危险的环境。这是否意味着人将不在中心了?不。这是否意味着士兵将不需要面临死亡了?不。空战中永远需要勇敢的人来进行。”

一些敏锐的军事评论家及时指出这其实更象是在洗脑子。就象那个古老的故事一样,“谎言重复千遍就成为真理。”军队的实质是什么?就是制造更具有威力的爆炸物来毁灭一切。军人永远不会说机器人很危险。

那么人类应该如何更严肃地去看待这个问题呢?首先,所有的宣传忽略了一点,那就是人类早在机器人出现在战场之前就开始逐渐离开战争的中心了。在第二次世界大战中,美国空军的“诺顿”轰炸机瞄准镜能够通过计算高度、速度和弹道自动把炸弹从B-17轰炸机投下去。在海湾战争结束后,美国空军B-52轰炸机雷达导航员道格 弗莱斯上尉写到:“导航计算机打开了弹仓门,把炸弹扔到了黑夜中。”

计算机发展趋势同样表现在80年代发展的美国海军“宙斯盾”计算机系统上。“宙斯盾”有四中操作方式:

1 半自动状态,人和“宙斯盾”系统一同来判断何时如何开火。
2 自动特别状态,控制人员设定优先选择,比如告诉计算机先摧毁轰炸机,然后摧毁战斗机,计算机来决定如何发动进攻。
3 全自动状态,“宙斯盾”为控制人员提供数据,但系统独立工作。
4 自主状态,“宙斯盾”自动计算如何进行防御。

人可以随时改变“宙斯盾”的决定,但这种情况很少发生,所以悲剧也就发生了。

最具有代表性的就是1988年7月3日美国海军“文森斯号”导弹巡洋舰击落伊朗民航机事件。当时“文森斯号”在波斯湾执行巡逻任务。80年代“宙斯盾”系统刚刚装备不久,“文森斯号”在美国海军内部的外号是“机器人巡洋舰”,而其舰长更具有过分的“进攻性”的声誉。那一天“文森斯号”的雷达锁定了伊朗民航655号空中客车班机。655号在保持民航的航线和速度,并且通过雷达和无线电不断发出民航信号。“宙斯盾”系统是为了在北大西洋防御苏联轰炸机设计的,根本不适应拥挤的波斯湾上空。“宙斯盾”系统计算655号航班的结果是伊朗空军F-14战斗机,比F-14战斗机大一半的空中客车被“宙斯盾”认定为“敌机。”

尽管无线电等数据告诉控制人员这不是战斗机,但作战人员更相信计算机的结果。“宙斯盾”当时处于半自动状态,有充分的自主权力。但当时在指挥控制室里的18名指挥控制人员怀疑计算机的结果。指挥控制人员下达了开火的命令。这些人员在下达开火命令之前甚至没有向更高一级指挥官报告。从这里也可以看出,海军相信“宙斯盾”的程度比指挥人员更高。结果是290名乘客丧生,包括66名儿童。

655航班的悲剧并不是一个孤立的事件。2003年伊拉克战争中,美国陆军“爱国者”导弹系统就同时击落了两架英国战斗机。“爱国者”导弹系统的计算机判断这两架战斗机是伊拉克发射的导弹,反应的时间只有几秒钟。系统最后作出了决定。以上两个事件中人都有最终的否决权,但从这两个事件可以看出军事人员不愿意去否决计算机的判断。

这并不是说《母体》已经完全控制了人类,而是人的作用在面对计算机的时候脱离了中心,而且机器的自主权力在逐渐扩大。随着无人系统的发展和进步,机器人将拥有越来越大的自主权。目前是要发展更智能化能力更强的无人系统。但是心理学家和人工智能专家罗伯特 艾泼斯坦认为这正是问题的矛盾所在。

他说:“具有讽刺意义的是军队希望机器人能够对信息接受和反应来更好的执行任务。但是军队并不希望机器人有什么创造性,就跟训练职业军人一样。但当机器人发展到一定程度的时候,你怎么去限制它?老实说我不认为人类能限制它们。”

机器人的军事探索同样把人挤出了中心,要达到高效率,一个控制人员需要控制一定数量的机器人。比如,美国陆军的“未来作战系统”要求两名士兵合作操纵10个机器人。这样就要求机器人具备更高的自主权力,机器人也必需人的指令来开火。

研究表明人类很难在同一时间控制一定数量的机器人,想象一下你同时在玩五个不同的电子游戏。即便是一人控制两个系统其效率也会下降50%。北约的一份研究报告显示,在目前的技术状况下一个控制人员操纵多个系统很难成为现实。

这还是没有把作战环境考虑进去的估算。指挥官即便是知道他所指挥的所有战斗单位在什么地方,战斗就象是流水一样,不但速度快,而且很难控制方向。所以研究人员就在如何给机器人更大的自主权上下功夫。

如果把敌人存在的因素考虑进去。如果机器人必需需要控制人员的指令开火,那么敌人只需要干扰通讯就足够了。人与机器的联系很容易去破坏。军队表示他们已经考虑到这个问题,并且制定了后备计划,就是让机器人在没有指令的情况下自主作战。这就恰恰说明人被彻底挤出了战场的中心。

即便是机器和人之间的联系没有被中断,战场形势千变万化,机器是否有充足的时间在接到人的指令后还击,即便是敌人没有数字化的速度。美军在伊拉克和阿富汗部署的C-RAM防空系统已经在没有指令的情况下击落了火箭和迫击炮弹,一些机器人还装备了“反狙击手”系统,“反狙击手”系统可以利用激光束自动搜索和锁定敌人。但这个时间可以说是瞬间,人是否能够及时下达指令呢?如果能够自动还击,谁都会去选择自动还击。

如果机器人可以自动还击,那么人还在战场的中心吗?这种自主权本身已经把人的因素排除在外了。从心理学角度分析,比之进攻,还击的概念人们更容易接受。这种还击的自主权在军人开来不但合乎逻辑,而且更具有吸引力。

一名美军士兵这样说:“任何向我们开火的人都要死。在他能够逃跑前可能他已经死了。巴格达的这些胆小鬼每次要付出血和生命的代价。赌博筹码越来越高。敌人愿意用血和生命来杀机器?我猜他们不会。”

机器人每次技术含量的提高就把人从中心推出去越远。美国《空军》杂志编辑约翰 特尔派克说:“随着技术的提高,机器人将越来越可靠,就能够更精确的锁定目标选择合适的武器。人将相信机器。”

事实是人在战场被挤出中心的状况正在发生。人从战场的主要人物开始变成防止机器发生故障的保姆。未来战争的复杂性,速度,信息爆炸将在人的空间外展开。未来战争的武器系统速度将更快,更小型化,更加多种多样,这将使人无法去具体指挥所有的系统。武器技术的飞速发展将把人类带到一个人们不愿意去的地方,但这个趋势无法避免。

尽管军事家,政治家和科学家仍然坚持人仍然是处于战场的中心位置,美国陆军在2004年试验的战斗机器人已经把人的因素彻底排除在外。试验由两部无人系统进行,结果表明武装机器人在杀伤的速度和杀伤力上明显优于由人控制的非武装机器人,因为人需要时间使用另外一个系统进行打击。2006年国防部长办公厅的“国防安全研究组”就在讨论武装自动系统的应用潜力问题,其中心就是如何让武装无人系统摧毁敌人的武器系统而不杀伤敌人的战斗人员,这就是说摧毁敌人的坦克和车辆而不杀伤人员。

2007年美国陆军发布寻求无人攻击系统的建议和方案。2008年美国海军在内部传阅了“战场武装自动系统作战概念”的研究报告,征求海军内部的意见。

最使人警觉的是2005年美国“联合力量指挥部”的一份报告。报告认为无人自主系统在20年内成为战场的主力,可是报告的名称却把人的因素完全排除在外:《无人效果:让人脱离中心》。

冰冷无情的机器人正在走入战争,因为对于军人来说它们的意义太重大了。

一名美军特种部队军官这样说:“这就是把我的屎都吓出来的东西。。。。。。但是我们正在这里走,无路可退。”怪兽当道无路可退

新书介绍:《Wired for War:The Robotics Revolution and Conflict in the 21st Century》,企鹅出版社2009年。

作者:P.W. Singer,布鲁金斯研究所高级研究员。

作者在34岁成为布鲁金斯研究所高级研究员,成为该研究机构成为高级研究员历史上最年轻的一位。他曾在哈佛大学任教,担任过五角大楼高级官员,是奥巴马竞选班子国防政策顾问团首脑。

战争史甚至人类历史上正在发生这一个重大的事件。美军在进入伊拉克的时候只有几架无人驾驶飞机,没有任何地面无人控制系统,没有任何无人驾驶装置装备了武器系统。今天,美军武器库里有5300架各种类型的无人驾驶飞机,12000具地面无人控制系统。这些还只是第一代无人系统;这就是正在发生的。美国空军参谋长说:“根据发展的趋势,在未来战争中将有无数无人系统的参与。”

作者在过去的几年中所研究的重点就是在捕捉这一历史时刻。该书收集了人工智能科学家和研究单位的故事和经历,描述了无人系统从无到有的过程。该书不单单是让读者去了解和感受军事无人系统的发展和传奇,而是提出了许多更尖锐的问题:人类的恐惧,政治、经济、法律和道德问题,人类社会如何去面对未来的战争,究竟是什么在进行战争。“当科幻小说成为真正的战争后人类会如何去做?”

尽管人们在讨论和发展下一代无人驾驶战车,无人舰艇和无人飞机,但有一个问题却没有人讨论,或者是人们还没有讨论它的勇气。那就是当更加智能化、更具备作战能力、更有杀伤力的无人系统投入战争后,人究竟在战争中扮演什么角色?

当这个问题出现的时候,专业人员和军事官员不是转换话题就是表现得信心十足。布什政府国务院高级军事顾问科恩说:“人们永远希望人类能够位于控制地位。”美国空军杂志发表的一篇文章这样写到:“在一些情况下,无人系统可以让人远离危险的环境。这是否意味着人将不在中心了?不。这是否意味着士兵将不需要面临死亡了?不。空战中永远需要勇敢的人来进行。”

一些敏锐的军事评论家及时指出这其实更象是在洗脑子。就象那个古老的故事一样,“谎言重复千遍就成为真理。”军队的实质是什么?就是制造更具有威力的爆炸物来毁灭一切。军人永远不会说机器人很危险。

那么人类应该如何更严肃地去看待这个问题呢?首先,所有的宣传忽略了一点,那就是人类早在机器人出现在战场之前就开始逐渐离开战争的中心了。在第二次世界大战中,美国空军的“诺顿”轰炸机瞄准镜能够通过计算高度、速度和弹道自动把炸弹从B-17轰炸机投下去。在海湾战争结束后,美国空军B-52轰炸机雷达导航员道格 弗莱斯上尉写到:“导航计算机打开了弹仓门,把炸弹扔到了黑夜中。”

计算机发展趋势同样表现在80年代发展的美国海军“宙斯盾”计算机系统上。“宙斯盾”有四中操作方式:

1 半自动状态,人和“宙斯盾”系统一同来判断何时如何开火。
2 自动特别状态,控制人员设定优先选择,比如告诉计算机先摧毁轰炸机,然后摧毁战斗机,计算机来决定如何发动进攻。
3 全自动状态,“宙斯盾”为控制人员提供数据,但系统独立工作。
4 自主状态,“宙斯盾”自动计算如何进行防御。

人可以随时改变“宙斯盾”的决定,但这种情况很少发生,所以悲剧也就发生了。

最具有代表性的就是1988年7月3日美国海军“文森斯号”导弹巡洋舰击落伊朗民航机事件。当时“文森斯号”在波斯湾执行巡逻任务。80年代“宙斯盾”系统刚刚装备不久,“文森斯号”在美国海军内部的外号是“机器人巡洋舰”,而其舰长更具有过分的“进攻性”的声誉。那一天“文森斯号”的雷达锁定了伊朗民航655号空中客车班机。655号在保持民航的航线和速度,并且通过雷达和无线电不断发出民航信号。“宙斯盾”系统是为了在北大西洋防御苏联轰炸机设计的,根本不适应拥挤的波斯湾上空。“宙斯盾”系统计算655号航班的结果是伊朗空军F-14战斗机,比F-14战斗机大一半的空中客车被“宙斯盾”认定为“敌机。”

尽管无线电等数据告诉控制人员这不是战斗机,但作战人员更相信计算机的结果。“宙斯盾”当时处于半自动状态,有充分的自主权力。但当时在指挥控制室里的18名指挥控制人员怀疑计算机的结果。指挥控制人员下达了开火的命令。这些人员在下达开火命令之前甚至没有向更高一级指挥官报告。从这里也可以看出,海军相信“宙斯盾”的程度比指挥人员更高。结果是290名乘客丧生,包括66名儿童。

655航班的悲剧并不是一个孤立的事件。2003年伊拉克战争中,美国陆军“爱国者”导弹系统就同时击落了两架英国战斗机。“爱国者”导弹系统的计算机判断这两架战斗机是伊拉克发射的导弹,反应的时间只有几秒钟。系统最后作出了决定。以上两个事件中人都有最终的否决权,但从这两个事件可以看出军事人员不愿意去否决计算机的判断。

这并不是说《母体》已经完全控制了人类,而是人的作用在面对计算机的时候脱离了中心,而且机器的自主权力在逐渐扩大。随着无人系统的发展和进步,机器人将拥有越来越大的自主权。目前是要发展更智能化能力更强的无人系统。但是心理学家和人工智能专家罗伯特 艾泼斯坦认为这正是问题的矛盾所在。

他说:“具有讽刺意义的是军队希望机器人能够对信息接受和反应来更好的执行任务。但是军队并不希望机器人有什么创造性,就跟训练职业军人一样。但当机器人发展到一定程度的时候,你怎么去限制它?老实说我不认为人类能限制它们。”

机器人的军事探索同样把人挤出了中心,要达到高效率,一个控制人员需要控制一定数量的机器人。比如,美国陆军的“未来作战系统”要求两名士兵合作操纵10个机器人。这样就要求机器人具备更高的自主权力,机器人也必需人的指令来开火。

研究表明人类很难在同一时间控制一定数量的机器人,想象一下你同时在玩五个不同的电子游戏。即便是一人控制两个系统其效率也会下降50%。北约的一份研究报告显示,在目前的技术状况下一个控制人员操纵多个系统很难成为现实。

这还是没有把作战环境考虑进去的估算。指挥官即便是知道他所指挥的所有战斗单位在什么地方,战斗就象是流水一样,不但速度快,而且很难控制方向。所以研究人员就在如何给机器人更大的自主权上下功夫。

如果把敌人存在的因素考虑进去。如果机器人必需需要控制人员的指令开火,那么敌人只需要干扰通讯就足够了。人与机器的联系很容易去破坏。军队表示他们已经考虑到这个问题,并且制定了后备计划,就是让机器人在没有指令的情况下自主作战。这就恰恰说明人被彻底挤出了战场的中心。

即便是机器和人之间的联系没有被中断,战场形势千变万化,机器是否有充足的时间在接到人的指令后还击,即便是敌人没有数字化的速度。美军在伊拉克和阿富汗部署的C-RAM防空系统已经在没有指令的情况下击落了火箭和迫击炮弹,一些机器人还装备了“反狙击手”系统,“反狙击手”系统可以利用激光束自动搜索和锁定敌人。但这个时间可以说是瞬间,人是否能够及时下达指令呢?如果能够自动还击,谁都会去选择自动还击。

如果机器人可以自动还击,那么人还在战场的中心吗?这种自主权本身已经把人的因素排除在外了。从心理学角度分析,比之进攻,还击的概念人们更容易接受。这种还击的自主权在军人开来不但合乎逻辑,而且更具有吸引力。

一名美军士兵这样说:“任何向我们开火的人都要死。在他能够逃跑前可能他已经死了。巴格达的这些胆小鬼每次要付出血和生命的代价。赌博筹码越来越高。敌人愿意用血和生命来杀机器?我猜他们不会。”

机器人每次技术含量的提高就把人从中心推出去越远。美国《空军》杂志编辑约翰 特尔派克说:“随着技术的提高,机器人将越来越可靠,就能够更精确的锁定目标选择合适的武器。人将相信机器。”

事实是人在战场被挤出中心的状况正在发生。人从战场的主要人物开始变成防止机器发生故障的保姆。未来战争的复杂性,速度,信息爆炸将在人的空间外展开。未来战争的武器系统速度将更快,更小型化,更加多种多样,这将使人无法去具体指挥所有的系统。武器技术的飞速发展将把人类带到一个人们不愿意去的地方,但这个趋势无法避免。

尽管军事家,政治家和科学家仍然坚持人仍然是处于战场的中心位置,美国陆军在2004年试验的战斗机器人已经把人的因素彻底排除在外。试验由两部无人系统进行,结果表明武装机器人在杀伤的速度和杀伤力上明显优于由人控制的非武装机器人,因为人需要时间使用另外一个系统进行打击。2006年国防部长办公厅的“国防安全研究组”就在讨论武装自动系统的应用潜力问题,其中心就是如何让武装无人系统摧毁敌人的武器系统而不杀伤敌人的战斗人员,这就是说摧毁敌人的坦克和车辆而不杀伤人员。

2007年美国陆军发布寻求无人攻击系统的建议和方案。2008年美国海军在内部传阅了“战场武装自动系统作战概念”的研究报告,征求海军内部的意见。

最使人警觉的是2005年美国“联合力量指挥部”的一份报告。报告认为无人自主系统在20年内成为战场的主力,可是报告的名称却把人的因素完全排除在外:《无人效果:让人脱离中心》。

冰冷无情的机器人正在走入战争,因为对于军人来说它们的意义太重大了。

一名美军特种部队军官这样说:“这就是把我的屎都吓出来的东西。。。。。。但是我们正在这里走,无路可退。”
原帖由 东风113 于 2009-1-29 22:10 发表
天网降临,山姆大叔别被自己机器玩死


绝密飞行/机械公敌
太可怕了
LS的还忘了陆军的《终结者》哈哈
你们还忘了<<鹰眼>>,五角大楼的计算机要把米国政府全斩首了
= =
看标题还以为要打宇宙怪兽捏…………

钢巴斯塔发来贺电