如何防止人工智能毁灭人类?听听科学家们怎么说

来源:百度文库 编辑:超级军网 时间:2024/04/28 05:54:39
如何防止人工智能毁灭人类?听听科学家们怎么说


2015年12月19日  
来源:凤凰科技










机器人对人类既是机会也是挑战

凤凰科技讯 12月19日消息,在形容那些向世界释放毁灭性技术的人时,人工智能的创造者们往往会用“弗兰肯斯坦博士”的形象来形容,“弗兰肯斯坦”是小说《弗兰肯斯坦》中那个疯狂科学家的名字,他用碎尸块拼接成一个“人”,并用电激活。在真实的生活中,人工智能创造者们却试图为一些大问题寻找答案,例如正义对抗邪恶,机器人的浪潮的影响,机器大脑对人类工人的影响等问题。

最大的挑战在于它对就业的影响

科学家知道自己的成果正在走出实验室,应用于真实的世界。12月10日,科学家在Montreal开了一天的会,讨论了一些伦理问题,比如如何防止比人类聪明的电脑将人类的工作夺走,它会为法律带来怎样的困扰,或者是他会对社会构成什么伤害。今天的人工智能技术可以播放视频游戏、自动回复邮件、在特定条件下驾车。人们开始担心它对劳动者的影响

百度首席科学家吴恩达说:“我认为最大的挑战在于它对就业的影响。”他认为人工智能技术的快速发展可能会改变工作环境,许多人在20多岁、40多岁、50多岁时需要重新接受训练,而训练的方式是之前没有过的。

麻省理工学院经济学家埃里克•布吕诺尔夫松(ErikBrynjolfsson)认为:“毫无疑问的是有些工种现在可以自动化了,以前它们是不能的。”例如负责电子取证的初级律师、自助结帐超市里负责结帐过道管理的人。

“希望在这些行业中能出现一些新的职位。”他说,“企业家和管理者在开创新职位方面是极有创造力的,现有的一些职位已经自动化了。”

Facebook人工智能研发主管伊恩•勒坤(Yann LeCun)并不担忧,他说社会在过去已经适应变化。勒坤说:“技术已经发展到了另一个阶段,过程不容易,但我们必须面对。”

机器人可能最终不会臣服于人类

可能还会出现其它的一些困扰,例如,随着人工智能独立于人类操作者自己做出更多的决定,它会对法律界产生什么样的影响。渥太华大学法学院专门研究伦理道德的教授伊恩•科尔(Ian Ker)说:“在当前的法律环境中,要在一些领域将算法摆在优先位置是很困难的。我觉得这面临极大的挑战。”

一些科学家看得更远,他们开始分析人工智能在哪些地方的影响可能会超过人类。去年谷歌收购了DeepMind,这是一家人工智能公司,它关注基础研究,目标是开发比人类聪明的机器。DeepMind联合创始人杰米斯•哈萨比斯(Demis Hassabis)称它为人工智能发展中的“阿波罗项目”。

尽管这些科学家认为出现邪恶超级智力的机率很小,一些人还是在研究,看它能对人类构成何种重大威胁。

《超级智能:方法、危险、策略》(Superintelligence:Paths, dangers, strategies)的作者、牛津大学人类未来研究院院长、哲学教授尼克•博斯特罗姆(Nick Bostrom)认为:“我觉得世界的最终结局不会像现在一样,那些服务机器人不会端着盛满食物的盘子来伺候你。最后的结果可能是完全不同的,跟我们熟悉的完全不同。”

剑桥大学存在风险研究中心研究员沙哈•艾文(Shahar Avin)认为,如何防止邪恶人工智能成形,现在的人工智能研究还没有找到好办法。艾文还说:“我们需要建立一个机构,它不能也不会修改自己的价值系统。”他还说,大家面临的共同难题是如何做。将更多的资金和更多的争论结合,可以将更多的研究者吸引到问题上来,一起寻找办法确保人工智能的安全。

机器没有伤害人的动机

特斯拉CEO马斯克和其它一些科技名人正是先行者,他们于12月11日创立了OpenAI,这是一个非盈利机构,它可以尽可能公开地开发新的人工智能技术。


加拿大总督戴维•约翰斯顿(David Johnston)曾经在多伦多的会议上说过一番话,这些话可能反映了我们的共同心声。约翰斯顿说:“我们越来越意识到机器学习和人工智能很可能马上就会出现,当它们真的出现时,我们清楚它的影响是很大的。既然这样,我们能扮演什么角色呢?我们如何从人工智能技术中获得最大的机会呢?如何将它带来的挑战最小化呢?”(编译/虎涛)百度科学家吴恩达的看法不太一样,他认为过度关注“人工智能的邪恶智力”可能会分散精力,它更可能带来消极影响,恰如失业一样。Facebook人工智能研发主管伊恩•勒坤(Yann LeCun)则说:“机器的智力会是完全不同的,人有做坏事伤害他人的动机,机器没有。”





http://tech.ifeng.com/a/20151219/41526383_0.shtml



如何防止人工智能毁灭人类?听听科学家们怎么说


2015年12月19日  
来源:凤凰科技










机器人对人类既是机会也是挑战

凤凰科技讯 12月19日消息,在形容那些向世界释放毁灭性技术的人时,人工智能的创造者们往往会用“弗兰肯斯坦博士”的形象来形容,“弗兰肯斯坦”是小说《弗兰肯斯坦》中那个疯狂科学家的名字,他用碎尸块拼接成一个“人”,并用电激活。在真实的生活中,人工智能创造者们却试图为一些大问题寻找答案,例如正义对抗邪恶,机器人的浪潮的影响,机器大脑对人类工人的影响等问题。

最大的挑战在于它对就业的影响

科学家知道自己的成果正在走出实验室,应用于真实的世界。12月10日,科学家在Montreal开了一天的会,讨论了一些伦理问题,比如如何防止比人类聪明的电脑将人类的工作夺走,它会为法律带来怎样的困扰,或者是他会对社会构成什么伤害。今天的人工智能技术可以播放视频游戏、自动回复邮件、在特定条件下驾车。人们开始担心它对劳动者的影响

百度首席科学家吴恩达说:“我认为最大的挑战在于它对就业的影响。”他认为人工智能技术的快速发展可能会改变工作环境,许多人在20多岁、40多岁、50多岁时需要重新接受训练,而训练的方式是之前没有过的。

麻省理工学院经济学家埃里克•布吕诺尔夫松(ErikBrynjolfsson)认为:“毫无疑问的是有些工种现在可以自动化了,以前它们是不能的。”例如负责电子取证的初级律师、自助结帐超市里负责结帐过道管理的人。

“希望在这些行业中能出现一些新的职位。”他说,“企业家和管理者在开创新职位方面是极有创造力的,现有的一些职位已经自动化了。”

Facebook人工智能研发主管伊恩•勒坤(Yann LeCun)并不担忧,他说社会在过去已经适应变化。勒坤说:“技术已经发展到了另一个阶段,过程不容易,但我们必须面对。”

机器人可能最终不会臣服于人类

可能还会出现其它的一些困扰,例如,随着人工智能独立于人类操作者自己做出更多的决定,它会对法律界产生什么样的影响。渥太华大学法学院专门研究伦理道德的教授伊恩•科尔(Ian Ker)说:“在当前的法律环境中,要在一些领域将算法摆在优先位置是很困难的。我觉得这面临极大的挑战。”

一些科学家看得更远,他们开始分析人工智能在哪些地方的影响可能会超过人类。去年谷歌收购了DeepMind,这是一家人工智能公司,它关注基础研究,目标是开发比人类聪明的机器。DeepMind联合创始人杰米斯•哈萨比斯(Demis Hassabis)称它为人工智能发展中的“阿波罗项目”。

尽管这些科学家认为出现邪恶超级智力的机率很小,一些人还是在研究,看它能对人类构成何种重大威胁。

《超级智能:方法、危险、策略》(Superintelligence:Paths, dangers, strategies)的作者、牛津大学人类未来研究院院长、哲学教授尼克•博斯特罗姆(Nick Bostrom)认为:“我觉得世界的最终结局不会像现在一样,那些服务机器人不会端着盛满食物的盘子来伺候你。最后的结果可能是完全不同的,跟我们熟悉的完全不同。”

剑桥大学存在风险研究中心研究员沙哈•艾文(Shahar Avin)认为,如何防止邪恶人工智能成形,现在的人工智能研究还没有找到好办法。艾文还说:“我们需要建立一个机构,它不能也不会修改自己的价值系统。”他还说,大家面临的共同难题是如何做。将更多的资金和更多的争论结合,可以将更多的研究者吸引到问题上来,一起寻找办法确保人工智能的安全。

机器没有伤害人的动机

特斯拉CEO马斯克和其它一些科技名人正是先行者,他们于12月11日创立了OpenAI,这是一个非盈利机构,它可以尽可能公开地开发新的人工智能技术。


加拿大总督戴维•约翰斯顿(David Johnston)曾经在多伦多的会议上说过一番话,这些话可能反映了我们的共同心声。约翰斯顿说:“我们越来越意识到机器学习和人工智能很可能马上就会出现,当它们真的出现时,我们清楚它的影响是很大的。既然这样,我们能扮演什么角色呢?我们如何从人工智能技术中获得最大的机会呢?如何将它带来的挑战最小化呢?”(编译/虎涛)百度科学家吴恩达的看法不太一样,他认为过度关注“人工智能的邪恶智力”可能会分散精力,它更可能带来消极影响,恰如失业一样。Facebook人工智能研发主管伊恩•勒坤(Yann LeCun)则说:“机器的智力会是完全不同的,人有做坏事伤害他人的动机,机器没有。”





http://tech.ifeng.com/a/20151219/41526383_0.shtml


人脑和机器脑那时有什么根本区别吗?
资本主义初期,不也有工人破坏机器,认为机器让工人失业的情况吗?