谁将灭绝人类? 学者称高科技是把“双刃剑”

来源:百度文库 编辑:超级军网 时间:2024/04/18 18:17:20
谁将灭绝人类? 学者称高科技是把“双刃剑”

2013年04月25日  来源:中国新闻网 


  中新网4月25日电 据英国媒体25日报道,牛津大学“人类未来研究所”日前表示,能给人类带来灭顶之灾的最大危险并非瘟疫、饥荒、地震,也不是核战争,而是高度发达的科技。该研究所称,科技发展速度之快超过了人类的控制能力,就像孩童手里的致命武器。

  牛津大学“人类未来研究所”呼吁国际决策层重视这些足以灭绝人类的危险,不要把这当成戏言一笑了之。所长博斯特罗姆说,这件事至关重要,如果决策失误,那21世纪可能就是人类在地球上存在的最后一个世纪。
  该研究所认为,人类面临的最大风险并非瘟疫流行、饥荒、洪涝、地震和环境变化等,因为人类已经能够控制这些病毒的肆虐;在本世纪这个时间段里,因为超级火山爆发或行星撞地球而导致人类绝种的可能性也不大。此外,即使爆发核战争,也会有足够多的幸存者延续人类物种。
  但是,人类已经进入一个科技高度发达的时代,这个时代具备了毁灭人类未来的无比能力。这是因为科技发展速度之快,超过了人类对新科技带来的后果的控制能力;这就像孩童手里的致命武器。
  研究所所长称,具体来说,在生物工程、人工智能等领域的实验已经进入预料之外且后果难测的疆域。科技本身就是一柄双刃剑;人工智能技术既可以成为工业、医药、农业甚至经济管理中的重要工具,但它对可能造成的破坏的广度和深度并不在意。
  这个独特的研究团队坚称,他们并不是在危言耸听。超级电脑可以带来威力一代胜一代的电脑,最后可能出现“智能爆炸”现象,即电脑威力的加速变得无法预计、难以控制,而其后果却可能影响到地球上每一个人。
  英国皇家天文学会会长里斯勋爵说,人类成为自己最危险的敌人,始于21世纪。他说,这一威胁体现在科技前沿;每一项科技突破都有正负两面,如果对负面影响控制失当,最坏的结果就是人类自我灭绝。





http://www.chinanews.com/gj/2013/04-25/4762996.shtml谁将灭绝人类? 学者称高科技是把“双刃剑”

2013年04月25日  来源:中国新闻网 


  中新网4月25日电 据英国媒体25日报道,牛津大学“人类未来研究所”日前表示,能给人类带来灭顶之灾的最大危险并非瘟疫、饥荒、地震,也不是核战争,而是高度发达的科技。该研究所称,科技发展速度之快超过了人类的控制能力,就像孩童手里的致命武器。

  牛津大学“人类未来研究所”呼吁国际决策层重视这些足以灭绝人类的危险,不要把这当成戏言一笑了之。所长博斯特罗姆说,这件事至关重要,如果决策失误,那21世纪可能就是人类在地球上存在的最后一个世纪。
  该研究所认为,人类面临的最大风险并非瘟疫流行、饥荒、洪涝、地震和环境变化等,因为人类已经能够控制这些病毒的肆虐;在本世纪这个时间段里,因为超级火山爆发或行星撞地球而导致人类绝种的可能性也不大。此外,即使爆发核战争,也会有足够多的幸存者延续人类物种。
  但是,人类已经进入一个科技高度发达的时代,这个时代具备了毁灭人类未来的无比能力。这是因为科技发展速度之快,超过了人类对新科技带来的后果的控制能力;这就像孩童手里的致命武器。
  研究所所长称,具体来说,在生物工程、人工智能等领域的实验已经进入预料之外且后果难测的疆域。科技本身就是一柄双刃剑;人工智能技术既可以成为工业、医药、农业甚至经济管理中的重要工具,但它对可能造成的破坏的广度和深度并不在意。
  这个独特的研究团队坚称,他们并不是在危言耸听。超级电脑可以带来威力一代胜一代的电脑,最后可能出现“智能爆炸”现象,即电脑威力的加速变得无法预计、难以控制,而其后果却可能影响到地球上每一个人。
  英国皇家天文学会会长里斯勋爵说,人类成为自己最危险的敌人,始于21世纪。他说,这一威胁体现在科技前沿;每一项科技突破都有正负两面,如果对负面影响控制失当,最坏的结果就是人类自我灭绝。





http://www.chinanews.com/gj/2013/04-25/4762996.shtml
虾米学者?
我没说脏话,不是我涵养好,是我怕版主扣分