马斯克和霍金签名倡议禁止人工智能武器

来源:百度文库 编辑:超级军网 时间:2024/04/29 18:35:44
机器人大战在《终结者》等科幻小说中经常出现,但实际上,这种危险发生的概率或许远远高于我们的想象,一些科技和人工智能领域的领导者已经开始尝试阻止这种事情的发生。

  著名天体物理学家史蒂芬·霍金(Stephen Hawking)、特斯拉创始人伊隆·马斯克(Elon Musk)和苹果联合创始人史蒂夫·沃兹尼亚克(Steve Wozniak)都签署了一封公开信,呼吁禁止自动化武器。这封公开信是由未来生活研究所在国际人工智能联席会议上披露的,他们认为这种武器是继火药和核武器之后的“第三次战争革命”。

  这封公开信写道:“倘若任何军事力量推进人工智能武器的研发,全球军备竞赛便不可避免,这项技术的结局显而易见:自动化武器将成为明天的卡拉什尼科夫冲锋枪。与核武器不同,这种武器不需要费用高昂且难以获取的原材料,所以可能会变得无处不在,而且价格低廉。”Skype联合创始人简·塔里(Jaan Tallinn)和著名语言学家诺姆·乔姆斯基(Noam Chomsky)也都签署了该公开信。

  这些专家警告称,自动化系统可能几年内就能实现。他们认为,必须要禁止这类不受人类控制的武器,从而避免引发军备竞赛,否则可能引发比冷战更危险的形势。


  行业领导者正在奋力保护人工智能技术。公开信写道:“多数人工智能研究人员对于使用这种技术开发武器都不感兴趣,也不希望其他人通过这种做法来践踏他们的领域,这有可能给人工智能造成重大的不良影响,还有可能影响它今后创造的社会效益。”他们认为,禁止人工智能武器与禁止化学和生物武器同等重要。

  据悉,这次会议的重点是研究人员对人工智能领域所持的乐观态度。但在他们讨论该领域的近期进展时,还有可能讨论人工智能对社会产生的潜在危害。

  Skype联合创始人塔林之前曾经表示,他认为当今的人工智能技术不会构成威胁,但随着技术的进步,情况可能发生变化。

  随着各大企业相继加大对人工智能技术的投资,这项技术已经越发受到欢迎。从IBM的沃森到苹果的Siri,人工智能已经展开了广泛的商用,但很多人都担心这种技术可能产生伦理问题。

  已经有人开始采取一些措施,努力限制人工智能技术在军事领域的应用。当谷歌收购人工智能公司DeepMind时,就曾在交易条款中注明该技术不能用于军事目的。谷歌DeepMind CEO戴密斯·哈萨比斯(Demis Hassabis)和谷歌研究总监彼得·诺维格(Peter Norvig)也都在这封公开信上签名机器人大战在《终结者》等科幻小说中经常出现,但实际上,这种危险发生的概率或许远远高于我们的想象,一些科技和人工智能领域的领导者已经开始尝试阻止这种事情的发生。

  著名天体物理学家史蒂芬·霍金(Stephen Hawking)、特斯拉创始人伊隆·马斯克(Elon Musk)和苹果联合创始人史蒂夫·沃兹尼亚克(Steve Wozniak)都签署了一封公开信,呼吁禁止自动化武器。这封公开信是由未来生活研究所在国际人工智能联席会议上披露的,他们认为这种武器是继火药和核武器之后的“第三次战争革命”。

  这封公开信写道:“倘若任何军事力量推进人工智能武器的研发,全球军备竞赛便不可避免,这项技术的结局显而易见:自动化武器将成为明天的卡拉什尼科夫冲锋枪。与核武器不同,这种武器不需要费用高昂且难以获取的原材料,所以可能会变得无处不在,而且价格低廉。”Skype联合创始人简·塔里(Jaan Tallinn)和著名语言学家诺姆·乔姆斯基(Noam Chomsky)也都签署了该公开信。

  这些专家警告称,自动化系统可能几年内就能实现。他们认为,必须要禁止这类不受人类控制的武器,从而避免引发军备竞赛,否则可能引发比冷战更危险的形势。


  行业领导者正在奋力保护人工智能技术。公开信写道:“多数人工智能研究人员对于使用这种技术开发武器都不感兴趣,也不希望其他人通过这种做法来践踏他们的领域,这有可能给人工智能造成重大的不良影响,还有可能影响它今后创造的社会效益。”他们认为,禁止人工智能武器与禁止化学和生物武器同等重要。

  据悉,这次会议的重点是研究人员对人工智能领域所持的乐观态度。但在他们讨论该领域的近期进展时,还有可能讨论人工智能对社会产生的潜在危害。

  Skype联合创始人塔林之前曾经表示,他认为当今的人工智能技术不会构成威胁,但随着技术的进步,情况可能发生变化。

  随着各大企业相继加大对人工智能技术的投资,这项技术已经越发受到欢迎。从IBM的沃森到苹果的Siri,人工智能已经展开了广泛的商用,但很多人都担心这种技术可能产生伦理问题。

  已经有人开始采取一些措施,努力限制人工智能技术在军事领域的应用。当谷歌收购人工智能公司DeepMind时,就曾在交易条款中注明该技术不能用于军事目的。谷歌DeepMind CEO戴密斯·哈萨比斯(Demis Hassabis)和谷歌研究总监彼得·诺维格(Peter Norvig)也都在这封公开信上签名
我看历史的车轮是无法阻止的,人类就是被操纵着,往这个方向前进着,无法改变这个集体意识。

人类终将灭亡,人类会变成半机器半人的生命,我想在我们有生之年会看到人和机器的完美连接,手机、电脑、传感器、机器手等都会植入人体。人其实最有用的就是大脑,在植入人工智能以及纳米技术普及以后就变成超人了,这时候想飞就飞,想变形就变形,哪里还有目前这样原始人类的立足之地呢?当然新人类在改造宇宙、穿越宇宙的能力上应该是成亿倍的增速了。
再过几百年人类的人工智能机器人将脱离人的控制,再过几千年人类啥也不会了而且忘了之前怎么有的机器人,然后有一天人类被关进动物园成为频危动物供机器人研究
风卷云 发表于 2015-7-30 15:22
再过几百年人类的人工智能机器人将脱离人的控制,再过几千年人类啥也不会了而且忘了之前怎么有的机器人,然 ...
被制造者不可能逾越制造者 我想这可能是宇宙的基本法则
bjnr 发表于 2015-7-30 17:09
被制造者不可能逾越制造者 我想这可能是宇宙的基本法则
谁制造的地球和人类和生命,我们只能推理
风卷云 发表于 2015-7-31 08:01
谁制造的地球和人类和生命,我们只能推理
简单的推理即可知道被制造者无法真正认知和逾越制造者