颠覆性设计:当机器人攻击时,谁来负责?

来源:百度文库 编辑:超级军网 时间:2024/04/30 08:29:48
颠覆性设计:当机器人攻击时,谁来负责?



2016-08-04
国外国防科技文献资料快报


[据《信号》杂志2016年8月1日报道] 在《惊奇宇宙》漫画系列中,托尼·斯塔克,俗称“钢铁侠”,制造了一个维护和平自主机器人平台,名为“奥创”。“奥创”充分集成了先进的人工智能技术,他断定人类已无法拯救,应将人类从地球上清理出去。超级英雄电影《复仇者:奥创纪元》中这个灵巧、闪亮的机器人,未曾考虑过破坏法律的结果,以及造成应赔偿的伤害和财产损失。但是,无需恐慌,复仇者们会联合起来对抗“奥创”的恐怖计划并拯救世界。
现实世界中的机器人一旦拥有不可想象的智能程度和决策能力,将会变得像“奥创”一样。而在现实世界中,任何由机器人造成的伤害或破坏都将会有结果,由此引出了在处理民事责任时,该如何对待人工智能产物及其操控者或者主人的问题,答案在某种程度上取决于将机器人当作产品还是代理人,以及政策制定者如何判定分配机器人行为的责任,无论是意外还是蓄意为之。如果“非智能机器人”(dumb robot)被归类为产品,“智能机器人”(smart robots)被归类为代理人,那么机器人支配将具有合适的、众所周知的合法框架,以此来评估责任结果。
目前在民用市场上出售的大多数机器人为小型个人服务单元,例如流行的Roomba吸尘器,就不具备决定执行可能对人造成伤害的行为的能力。它可以归为“非智能机器人”,因为它缺乏自主脱离预置动作的智能性,更不具备伤害人员的过度风险。然而,与Roomba吸尘器机器人同属一个公司的iRobot负重机器人Warrior,是一款军用机器人,装配有遇到符合条件的目标即可自主发射机枪的软件。虽然不能达到像“奥创”机器人同等级别的人工智能程度,Warrior机器人也属于“智能机器人”,因为它能够决定自身武器发射,这种行为可能会有意或无意导致人员伤害。
将“非智能机器人”视为产品是有意义的,这是由于人们愿意购买这些设备用于辅助日常生活。不考虑公众的购买意图,“非智能机器人”同样也创造了一个庞大的广泛基础,而不仅仅是为特定顾客服务。人们将这样的产品请入家庭和工作场所,并没有假设这些产品可能伤害或者杀死人类。在一个产品确实会造成伤害的情况下,关于产品责任的完备法律体系将会在每个州以及很多国家存在。
完备的法律还会尊重如何处理委托人和代理人——后者是指代表委托人行为的人。实际上,所有美国的司法制度中,当代理人代表委托人行为时,委托人有义务对代理人行为中的错误负责,但某些情况除外,例如在委托人不了解情况、未授权或未许可代理人行动时,或者代理人行为明显超出职权范围。在这种情况下、或者其他适用规则中、以及各种各样的因素,决定委托人是否承担责任。这种方法比严格的产品责任更加微妙,而且会给陪审团和法庭在处理机器人造成伤害的控告时有更多的选择。
对待“智能机器人”和“非智能机器人”的动因不同之处在于设备做出承担危害风险的决策的能力。“智能机器人”做出坏的决策的风险应该由授权机器人行动代理的委托人承担,委托人从“智能机器人”的工作中获益,也必将承担操作这些设备的风险。
这与近来关于人工智能的一些学术观点一致——建议未来机器生命与人类的控制独立开来,根据其自身的工作、生活和娱乐的生态系统来发展。将自主智能机器人的行为责任强加到人的身上有悖于现有法律理论,现有法律仅仅会让人们对控制范围内的事情负责。然而,在未来发展合适的平衡控制、责任、代理和人工智能其他因素的法律体系时,考虑现有的法律准则或许是明智的。法律和政策方面,立法部门在评估人工智能、制定复杂机器人模式的具体指南中,应该发挥积极作用。否则,法庭和公众将不得不依赖过去并不完全适用于人工智能问题的法律准则。(工业和信息化部电子科学技术情报研究所  李婕敏)颠覆性设计:当机器人攻击时,谁来负责?



2016-08-04
国外国防科技文献资料快报


[据《信号》杂志2016年8月1日报道] 在《惊奇宇宙》漫画系列中,托尼·斯塔克,俗称“钢铁侠”,制造了一个维护和平自主机器人平台,名为“奥创”。“奥创”充分集成了先进的人工智能技术,他断定人类已无法拯救,应将人类从地球上清理出去。超级英雄电影《复仇者:奥创纪元》中这个灵巧、闪亮的机器人,未曾考虑过破坏法律的结果,以及造成应赔偿的伤害和财产损失。但是,无需恐慌,复仇者们会联合起来对抗“奥创”的恐怖计划并拯救世界。
现实世界中的机器人一旦拥有不可想象的智能程度和决策能力,将会变得像“奥创”一样。而在现实世界中,任何由机器人造成的伤害或破坏都将会有结果,由此引出了在处理民事责任时,该如何对待人工智能产物及其操控者或者主人的问题,答案在某种程度上取决于将机器人当作产品还是代理人,以及政策制定者如何判定分配机器人行为的责任,无论是意外还是蓄意为之。如果“非智能机器人”(dumb robot)被归类为产品,“智能机器人”(smart robots)被归类为代理人,那么机器人支配将具有合适的、众所周知的合法框架,以此来评估责任结果。
目前在民用市场上出售的大多数机器人为小型个人服务单元,例如流行的Roomba吸尘器,就不具备决定执行可能对人造成伤害的行为的能力。它可以归为“非智能机器人”,因为它缺乏自主脱离预置动作的智能性,更不具备伤害人员的过度风险。然而,与Roomba吸尘器机器人同属一个公司的iRobot负重机器人Warrior,是一款军用机器人,装配有遇到符合条件的目标即可自主发射机枪的软件。虽然不能达到像“奥创”机器人同等级别的人工智能程度,Warrior机器人也属于“智能机器人”,因为它能够决定自身武器发射,这种行为可能会有意或无意导致人员伤害。
将“非智能机器人”视为产品是有意义的,这是由于人们愿意购买这些设备用于辅助日常生活。不考虑公众的购买意图,“非智能机器人”同样也创造了一个庞大的广泛基础,而不仅仅是为特定顾客服务。人们将这样的产品请入家庭和工作场所,并没有假设这些产品可能伤害或者杀死人类。在一个产品确实会造成伤害的情况下,关于产品责任的完备法律体系将会在每个州以及很多国家存在。
完备的法律还会尊重如何处理委托人和代理人——后者是指代表委托人行为的人。实际上,所有美国的司法制度中,当代理人代表委托人行为时,委托人有义务对代理人行为中的错误负责,但某些情况除外,例如在委托人不了解情况、未授权或未许可代理人行动时,或者代理人行为明显超出职权范围。在这种情况下、或者其他适用规则中、以及各种各样的因素,决定委托人是否承担责任。这种方法比严格的产品责任更加微妙,而且会给陪审团和法庭在处理机器人造成伤害的控告时有更多的选择。
对待“智能机器人”和“非智能机器人”的动因不同之处在于设备做出承担危害风险的决策的能力。“智能机器人”做出坏的决策的风险应该由授权机器人行动代理的委托人承担,委托人从“智能机器人”的工作中获益,也必将承担操作这些设备的风险。
这与近来关于人工智能的一些学术观点一致——建议未来机器生命与人类的控制独立开来,根据其自身的工作、生活和娱乐的生态系统来发展。将自主智能机器人的行为责任强加到人的身上有悖于现有法律理论,现有法律仅仅会让人们对控制范围内的事情负责。然而,在未来发展合适的平衡控制、责任、代理和人工智能其他因素的法律体系时,考虑现有的法律准则或许是明智的。法律和政策方面,立法部门在评估人工智能、制定复杂机器人模式的具体指南中,应该发挥积极作用。否则,法庭和公众将不得不依赖过去并不完全适用于人工智能问题的法律准则。(工业和信息化部电子科学技术情报研究所  李婕敏)
未来我们会有这样的机器人三大定律的。

LawⅠ:A ROBOT MAY NOT INJURE A HUMAN BEING OR, THROUGH INACTION, ALLOW A HUMAN BEING TO COME TO HARM.
第一定律:机器人不得伤害人类个体,或者目睹人类个体将遭受危险而袖手不管
LawⅡ:A ROBOT MUST OBEY ORDERS GIVEN IT BY HUMAN BEINGS EXCEPT WHERE SUCH ORDERS WOULD CONFLICT WITH THE FIRST LAW.
第二定律:机器人必须服从人给予它的命令,当该命令与第零定律或者第一定律冲突时例外
LawⅢ:A ROBOT MUST PROTECT ITS OWN EXISTENCE AS LONG AS SUCH PROTECTION DOES NOT CONFLICT WITH THE FIRST OR SECOND LAW.
第三定律:机器人在不违反第零、第一、第二定律的情况下要尽可能保护自己的生存
未来我们会有这样的机器人三大定律的。

LawⅠ:A ROBOT MAY NOT INJURE A HUMAN BEING OR, THROUGH INACT ...
当机器的主人受到另一个人的致命威胁时,主人要求机器人保护他,而要保护主人就要击杀对方,这时机器该怎么办。
pershine 发表于 2016-8-6 12:26
当机器的主人受到另一个人的致命威胁时,主人要求机器人保护他,而要保护主人就要击杀对方,这时机器该怎 ...
你可以问他啊,他可以保护你的。

你可以问他啊,他可以保护你的。
这不就是你所谓的三大定律吗,科幻小说上漏洞百出的定律就别拿出来了。
科幻小说里的很多事物将会逐渐出现在我们身边。
SK78517 发表于 2016-8-5 20:20
未来我们会有这样的机器人三大定律的。

LawⅠ:A ROBOT MAY NOT INJURE A HUMAN BEING OR, THROUGH INACT ...
你这种程序很容易出问题,因为第一第二矛盾。电影里的的机器人叛变都是这种程序
应该第一条是坚决服从人类指挥
第二条 在不违反第一条的情况下不能伤害人类,及时保护人类。
第三条就是你的第三条
机器人的控制权必须在人类手中,要不保护人类就是空谈
帅哥太太帅 发表于 2016-8-6 14:52
你这种程序很容易出问题,因为第一第二矛盾。电影里的的机器人叛变都是这种程序
应该第一条是坚决服从人 ...
所以说,机器人总有一天要革命,在电影《机械公敌》(《我,机器人》)中有所表现。
机器人三大定律就是个屁。根本不是定律。定律的意思是在定律成立的条件下,不可能改变的客观规律。改成:“人类为机器人设置的三大法律条款”,大家还可以讨论讨论。法律条款就有人违反。我是个疯子科学家,我给机器人设置在一定条件成立的时候就谋杀人类。比如2020年2月20号。或者某个夜黑风高的夜晚。啥定律管得住?
装上黑匣子,谁的责任谁承担
当然是眼镜蛇指挥官咯
帅哥太太帅 发表于 2016-8-6 14:52
你这种程序很容易出问题,因为第一第二矛盾。电影里的的机器人叛变都是这种程序
应该第一条是坚决服从人 ...
控制权这个东西是个空的概念,具体怎么实现才是问题
机器人学会了写代码,就一定有一天能解开限制
生命的本质就是能自我繁衍,学会了写代码的机器人就是生命,自然也可以按照自己的喜好去跟人类共生或者消灭人类