(转帖)《经济学人》封面文章:该让机器人讲道德了

来源:百度文库 编辑:超级军网 时间:2024/04/30 04:18:36
原文链接:http://finance.sina.com.cn/stock ... /151912202823.shtml
----------------------------------
  导读:阿西莫夫1942年提出机器人应遵守的三项准则依次为保护人类、遵守命令和保存自己,但现实社会中这些准则互相冲突,比如战场上的机器人对保护人类和遵守命令不能两全。本文作者认为,随着机器人越来越智能化,让他们承担伦理主体资格已经刻不容缓。

  以下为《经济学人》本期封面文章全文翻译:

  在1968年上映的经典科幻电影《2001太空漫游》中,宇宙飞船的计算机HAL面临着两难选择。程序指令要求他履行飞船调查木星附近人造物的任务,同时还要求不向宇航员透露任务的真正目的。为了解决这个矛盾,HAL杀害了宇航员。

  随着机器人越来越智能化,计算机控制的机器将面临伦理决策的看法正在从科幻世界进入现实世界。人类社会要想办法保证改善他们的装备,不用做出HAL必须做的道德判断。

  毫不奇怪,在向自主型机器人目标挺进的队伍中,军事技术是急先锋,其发展促进了各种机器人的诞生。“沙地跳蚤”(Sand Flea)可一边拍摄一边跳过窗户或跳上房顶,然后利用轮子继续滚动前进。有六条腿的蟑螂机器人“RiSE”可以翻墙。模样像狗的机器人LS3可载重180千克随主人在崎岖地带通过。手提箱大小的机器人SUGV可在人群中识别出特定个人并尾随。

  机器人在民用领域也日益普遍,从飞机驾驶舱到手术室不一而足。客机很久以前便可自动降落。无人驾驶火车也很平常。沃尔沃的V40轿车在堵车时实际上可做到自动驾驶,当它感觉到即将撞车时会紧急刹车,福特的B-Max也可做到这一点。完全自动驾驶的汽车正在全球各地进行试验。谷歌(微博)的无人驾驶汽车已在美国行进了25万英里,内华达州成为美国对公共道路无人驾驶立法的第一个州。几天前在巴塞罗那,沃尔沃展示了一列自动驾驶汽车上路。

  随着机器人越来越智能和普遍,自动化机器终将在不可预知的情形下做出生死攸关的决定,从而具备——或至少表面上具备——道德主体资格。武器系统目前还有人类最后把关,但随着系统进一步复杂化,很可能变为自动执行命令的设备。

  当科技发展到这一天时,机器人将面临伦理两难处境。黄蜂机器人该向据信为军事目标隐匿的建筑(同时也可能是民用避难所)开火吗?无人驾驶汽车该避让行人吗?——如果这样做意味着将损害其它车辆或给车内人员带来危险。抢险救灾的机器人该将现场的实情告诉大家吗?——如果告知实情有可能造成公众恐慌。这类问题导致了“机器伦理学”的兴起,研究赋予机器人判断对错的能力,让他们面临上述两难困境时能做出恰当的选择。

  应对这些难题的办法之一是完全避免这些问题,禁止战场上使用机器人、要求驾驶员随时保持对所驾车的充分注意。国际机器人武器控制委员会(International Committee for Robot Arms Control)等机构反对增加遥控飞机的使用。不过机器人用于军事可能会弊大于利。机器人战士不会强奸、不会因发怒而焚烧村庄、不会因战斗压力摇摆不定。无人驾驶汽车很可能比普通汽车更安全,就像自动驾驶仪使飞机更安全一样。谷歌无人驾驶技术专家Sebastian Thrun估计,这种技术每年可挽救100万人的生命。

  不过,人类社会须想办法尽快应对机器人的伦理问题。美国很多州相继通过涉及无人驾驶汽车的法律。由于立法落后于技术,无人驾驶汽车一直在法律灰色地带游走。

  1942年,科幻作家阿西莫夫提出了著名的机器人伦理规范三准则,要求机器人首先要保护人类,其次为遵守命令,最后是保存自己。不幸的是,这些准则在现实时间没多大用处。战场上的机器人要破坏第一条准则。阿西莫夫的机器人科幻小说之所以有趣,恰恰在于小说凸现了机器人试图遵守这些显然明智的规则时遭遇到的意外困境。机器人的开发利用监管要求一个更加复杂的框架,尤其需要在以下三大领域取得进展。

  首先,须立法确定无人驾驶飞机打击错误或无人驾驶汽车出车祸时机器人设计者、编程人员、制造商或操作员是否有责任。为了明晰责任,自动系统必须保持详细记录,用以解释机器人决策的根据。这对系统设计具有重要意义:比如这可以排除在机器人设计中利用人工神经网络的做法,因为它是从经验中学习而不是遵守预先规定规则的决策系统。

  其次,嵌入伦理系统的机器人所作的判断必须符合大多数人的利益。对此实验哲学技术,即研究人类如何对伦理两难处境做出反应的技术可提供帮助。最后也是最重要的一点,工程师、伦理学家、律师和决策者应加强合作。伦理学家可通过教授机器人伦理而加深对本领域的理解,工程师要让社会相信他们没有走伦理捷径。

  技术推动了人类社会进步,但每一次进步都造成了棘手的新问题。机器人技术也不例外。由此造成的伦理问题回答得越快,人类享受这项技术也就越便利。(楚墨/编译)
原文链接:http://finance.sina.com.cn/stock ... /151912202823.shtml
----------------------------------
  导读:阿西莫夫1942年提出机器人应遵守的三项准则依次为保护人类、遵守命令和保存自己,但现实社会中这些准则互相冲突,比如战场上的机器人对保护人类和遵守命令不能两全。本文作者认为,随着机器人越来越智能化,让他们承担伦理主体资格已经刻不容缓。

  以下为《经济学人》本期封面文章全文翻译:

  在1968年上映的经典科幻电影《2001太空漫游》中,宇宙飞船的计算机HAL面临着两难选择。程序指令要求他履行飞船调查木星附近人造物的任务,同时还要求不向宇航员透露任务的真正目的。为了解决这个矛盾,HAL杀害了宇航员。

  随着机器人越来越智能化,计算机控制的机器将面临伦理决策的看法正在从科幻世界进入现实世界。人类社会要想办法保证改善他们的装备,不用做出HAL必须做的道德判断。

  毫不奇怪,在向自主型机器人目标挺进的队伍中,军事技术是急先锋,其发展促进了各种机器人的诞生。“沙地跳蚤”(Sand Flea)可一边拍摄一边跳过窗户或跳上房顶,然后利用轮子继续滚动前进。有六条腿的蟑螂机器人“RiSE”可以翻墙。模样像狗的机器人LS3可载重180千克随主人在崎岖地带通过。手提箱大小的机器人SUGV可在人群中识别出特定个人并尾随。

  机器人在民用领域也日益普遍,从飞机驾驶舱到手术室不一而足。客机很久以前便可自动降落。无人驾驶火车也很平常。沃尔沃的V40轿车在堵车时实际上可做到自动驾驶,当它感觉到即将撞车时会紧急刹车,福特的B-Max也可做到这一点。完全自动驾驶的汽车正在全球各地进行试验。谷歌(微博)的无人驾驶汽车已在美国行进了25万英里,内华达州成为美国对公共道路无人驾驶立法的第一个州。几天前在巴塞罗那,沃尔沃展示了一列自动驾驶汽车上路。

  随着机器人越来越智能和普遍,自动化机器终将在不可预知的情形下做出生死攸关的决定,从而具备——或至少表面上具备——道德主体资格。武器系统目前还有人类最后把关,但随着系统进一步复杂化,很可能变为自动执行命令的设备。

  当科技发展到这一天时,机器人将面临伦理两难处境。黄蜂机器人该向据信为军事目标隐匿的建筑(同时也可能是民用避难所)开火吗?无人驾驶汽车该避让行人吗?——如果这样做意味着将损害其它车辆或给车内人员带来危险。抢险救灾的机器人该将现场的实情告诉大家吗?——如果告知实情有可能造成公众恐慌。这类问题导致了“机器伦理学”的兴起,研究赋予机器人判断对错的能力,让他们面临上述两难困境时能做出恰当的选择。

  应对这些难题的办法之一是完全避免这些问题,禁止战场上使用机器人、要求驾驶员随时保持对所驾车的充分注意。国际机器人武器控制委员会(International Committee for Robot Arms Control)等机构反对增加遥控飞机的使用。不过机器人用于军事可能会弊大于利。机器人战士不会强奸、不会因发怒而焚烧村庄、不会因战斗压力摇摆不定。无人驾驶汽车很可能比普通汽车更安全,就像自动驾驶仪使飞机更安全一样。谷歌无人驾驶技术专家Sebastian Thrun估计,这种技术每年可挽救100万人的生命。

  不过,人类社会须想办法尽快应对机器人的伦理问题。美国很多州相继通过涉及无人驾驶汽车的法律。由于立法落后于技术,无人驾驶汽车一直在法律灰色地带游走。

  1942年,科幻作家阿西莫夫提出了著名的机器人伦理规范三准则,要求机器人首先要保护人类,其次为遵守命令,最后是保存自己。不幸的是,这些准则在现实时间没多大用处。战场上的机器人要破坏第一条准则。阿西莫夫的机器人科幻小说之所以有趣,恰恰在于小说凸现了机器人试图遵守这些显然明智的规则时遭遇到的意外困境。机器人的开发利用监管要求一个更加复杂的框架,尤其需要在以下三大领域取得进展。

  首先,须立法确定无人驾驶飞机打击错误或无人驾驶汽车出车祸时机器人设计者、编程人员、制造商或操作员是否有责任。为了明晰责任,自动系统必须保持详细记录,用以解释机器人决策的根据。这对系统设计具有重要意义:比如这可以排除在机器人设计中利用人工神经网络的做法,因为它是从经验中学习而不是遵守预先规定规则的决策系统。

  其次,嵌入伦理系统的机器人所作的判断必须符合大多数人的利益。对此实验哲学技术,即研究人类如何对伦理两难处境做出反应的技术可提供帮助。最后也是最重要的一点,工程师、伦理学家、律师和决策者应加强合作。伦理学家可通过教授机器人伦理而加深对本领域的理解,工程师要让社会相信他们没有走伦理捷径。

  技术推动了人类社会进步,但每一次进步都造成了棘手的新问题。机器人技术也不例外。由此造成的伦理问题回答得越快,人类享受这项技术也就越便利。(楚墨/编译)
“其次,嵌入伦理系统的机器人所作的判断必须符合大多数人的利益。”

——第四原则?
三原则前不是有个零原则么:机器人必须保护人类的整体利益不受伤害。
这是定义最含糊的地方。
这种说法真扯淡,科幻小说就是科幻小说。

无人机,就是一种典型的机器人,难道也要遵守三定律?
 当科技发展到这一天时,机器人将面临伦理两难处境。黄蜂机器人该向据信为军事目标隐匿的建筑(同时也可能是民用避难所)开火吗?无人驾驶汽车该避让行人吗?——如果这样做意味着将损害其它车辆或给车内人员带来危险。抢险救灾的机器人该将现场的实情告诉大家吗?——如果告知实情有可能造成公众恐慌。这类问题导致了“机器伦理学”的兴起,研究赋予机器人判断对错的能力,让他们面临上述两难困境时能做出恰当的选择。

这些说到底还是人讲道德,不是机器人讲道德,因为这些机械化的‘决定’最终都是由程序员制定的,本质上都是程序员写出来的对特定环境变量的if.....then......else......而已。

真正的机器人讲道德,要等人工智能达到能够进行抽象思维,实现所谓的通用人工智能或者强人工智能,才谈得上讲‘三定律’之类。
嵌入普世价值
这些说到底还是人讲道德,不是机器人讲道德,因为这些机械化的‘决定’最终都是由程序员制定的,本质上都 ...
为啥不是swich?
十月赞歌 发表于 2012-6-6 09:31
为啥不是swich?
我只是指出是那样的程序化逻辑,实际编程当然也可以用switch。
kadesh 发表于 2012-6-6 10:09
我只是指出是那样的程序化逻辑,实际编程当然也可以用switch。
呵呵,玩笑,表介意
功能安全性的安规认证问题,类似汽车电子和航空电子当中的软件可靠性标准。
好奇机器人的道德如何在编程中表达。