美科学家提出6大策略防止机器人威胁人类

来源:百度文库 编辑:超级军网 时间:2024/05/08 20:15:41
有一天电脑通过图灵测验·········


          据英国《新科学家》杂志报道,2004年,由威尔-史密斯主演的美国影片《机械公敌》在全球上映,其中描述了芝加哥警察对付学会了独立思考并且脱离了人类控制的机器人的故事。当然,影片中人类最终战胜了机器人,但科学家们警告说,这样的威胁目前正在不断迫近,人类应该提早考虑应对之策。

  科学家们描述了这样一个“人工智能的世界”:可能在20年或30年后,人工智能机器人就可以和人类做朋友了,但50年后,人工智能将成为人类最大的威胁。世界最终会因人工智能超过人类而爆发一场战争,这场智能战争也许会夺去数十亿人的生命。科学家们认为,人工智能迟早会超过人类。人脑的运算能力是10的16次方/秒,而人工智能机器的运算速度高达10的40次方/秒,是人脑水平的10的24次方倍。那时候他们对待人类可能就像拍死一个蚊子这么简单。但人工大脑并不会立即控制人类,此前还会有一段与人类“和平相处”的时期。这一时期它不断接近但尚未超越人的智力水平,因此“聊天机器人”、“家务机器人”、“伴侣机器人”将使人类的生活充满乐趣。但这样的美景并不会长久,人工智能的继续发展将使人类面临灾难。

  科学家们表示,在灾难来临前,人类将会分为三派:宇宙主义者(主张发展人工智能的人)、地球主义者(反对发展人工智能的人)和人工智能控制论者(将自己改造成机器人的人)。也许在人工大脑对付人类之前,这三类人会先展开人类内部的斗争。

  考虑到上述这些可能发生的威胁,美国耶鲁大学伦理学家温德尔-瓦拉克、美国印地安那州立大学认知科学家柯林-阿伦提出了6种有望避免悲剧发生的应对之策。

  1、将它们存放在低危环境中

  要确保所有的计算机和机器人永远不会做出可能导致事先无法预测的后果的决定。

  成功的可能性:极低。工程师们现在已经建成了计算机和机器人系统,但它们的行为好象并不总是可以预测。消费者、工业界以及政府部门需要那种能够执行各种任务的技术,而为了满足这种需求,企业也将会不断提高产品的数量和性能。为了实现这一战略,就必须立即深入发展计算机和机器人技术。

  2、不要给它他们武器

  成功的可能性:为时已晚。现在已经出现了半自动机器人武器系统,如巡航导弹、无人驾驶飞机等。一些持枪机器人也已经被派往伊拉克境内负责战场摄影,但很明显它们实际上并未真正部署。

  但是,军事决策者们却好象对机器人士兵的研发非常感兴趣,并将其看作是未来战争中降低人员伤亡的一种重要手段。如果想要停止自动化武器的建设,现在好象为时已晚,但是如果想要对机器人所携带的武器或是对它们可以使用武器的前提条件进行限制,好象还并不太晚。

3、为他们制定行为准则

  成功的可能性:中等。科幻小说家艾萨克-阿西莫夫的著名规则就是分等级排序的:最重要的是,机器不应该伤害人类或对它们的伤害无动于衷;其次,就是机器人应该服从于人类;而机器人的自我保护则属于最低等次的优先级。

  然而,阿西莫夫只是小说家,并不会真去研制机器人。在他的小说故事里,他列举了可能会仅仅因为这些简单的规则而产生的一系列问题,比如,当同时收到由两个人发出的相互冲突的两道命令时,机器人该如何执行?

  阿西莫夫的规则使得机器人难以判断。例如,机器人如何理解一名正在对患者进行切割手术的外科医生其实是在帮助患者呢?实际上,阿西莫夫的机器人故事已经非常清楚地说明了基于规则的道德限制。然而,规则可以成功地对机器人的行为进行限制,但同时也将其功能局限于一个有限的空间内。

  4、为机器人编制特定程序

  研制机器人的目的应该是“为最广泛的人群创造最大的利益”,或是“对待他人就像你希望被对方对待的程度一样”。因此,机器人的研制应该从更为安全的角度考虑,而不是放弃一些简单化的规则。

  成功的可能性:中等。由于这些规则的局限性,一些伦理学家在试图寻找一条可以压倒一切的原则,用于评估机器人的所有行为。

  但是,对于一些刚刚提出的简单原则,其道德价值和局限性就会成为人们长期争论的话题。例如,牺牲一个人生命来挽救五个人的生命,这看起来好象是合乎逻辑的。但是医生却不会因为这个逻辑,而去牺牲一个健康人仅仅是为了为五个病人提供他们所需要的器官。那名机器人又如何看待这条逻辑呢?有时,在给定的规则下确定最佳选择是极其困难的。例如,判断到底哪一种行为可能会产生最大的利益,这可能需要大量的知识以及对世界上各种行为的影响的理解。当然,做出这种思考也需要大量的时间和计算能力。

  5、像教育孩子一样教育它们

  在“成长”过程中,机器人也应该不断学习人类对各种行为的是非判断,以提高它们对各种行为的敏感性。

  成功的可能性:有希望。虽然这一战略的实施还需要一些技术方面的重大突破,但科学家们已经研制出能够像人类一样学习的机器人。当然,目前的工具还非常有限。

  6、让机器人拥有感情

  像人类的一些功能,如同情、感情以及对非语言社会暗示的理解能力,都可以让机器人拥有更强的与人类互动能力。科学家们已开始着手为家用机器人添加这些类人类功能。

  成功的可能性:研发感情丰富的机器人必将有助于实现上面三条刚刚讨论过的问题的解决方案。人类在做出决策时以及在与他人合作的过程中对对方观点、手势或意图的理解能力,依赖的主要信息来源于我们的有一天电脑通过图灵测验·········


          据英国《新科学家》杂志报道,2004年,由威尔-史密斯主演的美国影片《机械公敌》在全球上映,其中描述了芝加哥警察对付学会了独立思考并且脱离了人类控制的机器人的故事。当然,影片中人类最终战胜了机器人,但科学家们警告说,这样的威胁目前正在不断迫近,人类应该提早考虑应对之策。

  科学家们描述了这样一个“人工智能的世界”:可能在20年或30年后,人工智能机器人就可以和人类做朋友了,但50年后,人工智能将成为人类最大的威胁。世界最终会因人工智能超过人类而爆发一场战争,这场智能战争也许会夺去数十亿人的生命。科学家们认为,人工智能迟早会超过人类。人脑的运算能力是10的16次方/秒,而人工智能机器的运算速度高达10的40次方/秒,是人脑水平的10的24次方倍。那时候他们对待人类可能就像拍死一个蚊子这么简单。但人工大脑并不会立即控制人类,此前还会有一段与人类“和平相处”的时期。这一时期它不断接近但尚未超越人的智力水平,因此“聊天机器人”、“家务机器人”、“伴侣机器人”将使人类的生活充满乐趣。但这样的美景并不会长久,人工智能的继续发展将使人类面临灾难。

  科学家们表示,在灾难来临前,人类将会分为三派:宇宙主义者(主张发展人工智能的人)、地球主义者(反对发展人工智能的人)和人工智能控制论者(将自己改造成机器人的人)。也许在人工大脑对付人类之前,这三类人会先展开人类内部的斗争。

  考虑到上述这些可能发生的威胁,美国耶鲁大学伦理学家温德尔-瓦拉克、美国印地安那州立大学认知科学家柯林-阿伦提出了6种有望避免悲剧发生的应对之策。

  1、将它们存放在低危环境中

  要确保所有的计算机和机器人永远不会做出可能导致事先无法预测的后果的决定。

  成功的可能性:极低。工程师们现在已经建成了计算机和机器人系统,但它们的行为好象并不总是可以预测。消费者、工业界以及政府部门需要那种能够执行各种任务的技术,而为了满足这种需求,企业也将会不断提高产品的数量和性能。为了实现这一战略,就必须立即深入发展计算机和机器人技术。

  2、不要给它他们武器

  成功的可能性:为时已晚。现在已经出现了半自动机器人武器系统,如巡航导弹、无人驾驶飞机等。一些持枪机器人也已经被派往伊拉克境内负责战场摄影,但很明显它们实际上并未真正部署。

  但是,军事决策者们却好象对机器人士兵的研发非常感兴趣,并将其看作是未来战争中降低人员伤亡的一种重要手段。如果想要停止自动化武器的建设,现在好象为时已晚,但是如果想要对机器人所携带的武器或是对它们可以使用武器的前提条件进行限制,好象还并不太晚。

3、为他们制定行为准则

  成功的可能性:中等。科幻小说家艾萨克-阿西莫夫的著名规则就是分等级排序的:最重要的是,机器不应该伤害人类或对它们的伤害无动于衷;其次,就是机器人应该服从于人类;而机器人的自我保护则属于最低等次的优先级。

  然而,阿西莫夫只是小说家,并不会真去研制机器人。在他的小说故事里,他列举了可能会仅仅因为这些简单的规则而产生的一系列问题,比如,当同时收到由两个人发出的相互冲突的两道命令时,机器人该如何执行?

  阿西莫夫的规则使得机器人难以判断。例如,机器人如何理解一名正在对患者进行切割手术的外科医生其实是在帮助患者呢?实际上,阿西莫夫的机器人故事已经非常清楚地说明了基于规则的道德限制。然而,规则可以成功地对机器人的行为进行限制,但同时也将其功能局限于一个有限的空间内。

  4、为机器人编制特定程序

  研制机器人的目的应该是“为最广泛的人群创造最大的利益”,或是“对待他人就像你希望被对方对待的程度一样”。因此,机器人的研制应该从更为安全的角度考虑,而不是放弃一些简单化的规则。

  成功的可能性:中等。由于这些规则的局限性,一些伦理学家在试图寻找一条可以压倒一切的原则,用于评估机器人的所有行为。

  但是,对于一些刚刚提出的简单原则,其道德价值和局限性就会成为人们长期争论的话题。例如,牺牲一个人生命来挽救五个人的生命,这看起来好象是合乎逻辑的。但是医生却不会因为这个逻辑,而去牺牲一个健康人仅仅是为了为五个病人提供他们所需要的器官。那名机器人又如何看待这条逻辑呢?有时,在给定的规则下确定最佳选择是极其困难的。例如,判断到底哪一种行为可能会产生最大的利益,这可能需要大量的知识以及对世界上各种行为的影响的理解。当然,做出这种思考也需要大量的时间和计算能力。

  5、像教育孩子一样教育它们

  在“成长”过程中,机器人也应该不断学习人类对各种行为的是非判断,以提高它们对各种行为的敏感性。

  成功的可能性:有希望。虽然这一战略的实施还需要一些技术方面的重大突破,但科学家们已经研制出能够像人类一样学习的机器人。当然,目前的工具还非常有限。

  6、让机器人拥有感情

  像人类的一些功能,如同情、感情以及对非语言社会暗示的理解能力,都可以让机器人拥有更强的与人类互动能力。科学家们已开始着手为家用机器人添加这些类人类功能。

  成功的可能性:研发感情丰富的机器人必将有助于实现上面三条刚刚讨论过的问题的解决方案。人类在做出决策时以及在与他人合作的过程中对对方观点、手势或意图的理解能力,依赖的主要信息来源于我们的
中间一部很人性
简直就是一部未来童话
无聊新闻的噱头炒作
机器人造反?
首先他们要有自己的思维先
而且这个思维不是我们灌输进去的
而是要它自发产生的才行
人类造机器人,两者之间的关系和宗教传说中的造物者与人类之间的关系有什么不同呢?
是不是对人有毁灭性打击还是不一定的,既然有超过人的智能那它应该就有理性的一面,这要看人是怎么对待他的。