牛津大学研究:人类会如何走向绝种末路?

文章来源: - 新闻取自各大新闻媒体,新闻内容并不代表本网立场!
(被阅读 次)


人工智能、生物工程和机械工程的结合,将带来人类或许无法掌控的结果。

有关物种灭绝的研究报告汗牛充栋,但研究人类会如何走向绝种末路的却不多见。

牛津大学一个国际学者团队的研究目标,就是人类在哪些情况下可能遭遇无法战胜的劲敌而整体灭绝,而能给人类带来灭顶之灾的最大危险有哪些。

牛津大学“人类未来研究所”(Future of Humanity Institute)的这个国际团队包括来自不同国家的科学家、数学家和哲学家。

他们呼吁国际决策层重视这些足以灭绝人类的危险,不要把这当成戏言一笑了之。

研究所所长尼克·博斯特罗姆(Nick Bostrom)说,这件事至关重要,如果决策失误,那21世纪可能就是人类在地球上存在的最后一个世纪。

那么,人类面临的最大风险有哪些呢?

人类末日?

首先可以排除瘟疫流行、饥荒、洪涝、地震和环境变化等,因为人类已经能够控制这些病毒的肆虐;在本世纪这个时间段里,因为超级火山爆发或行星撞地球而导致人类绝种的可能性也不大。

即使爆发核战争,也会有足够多的幸存者延续人类物种。

但是,博斯特罗姆指出,人类已经进入一个科技高度发达的时代,这个时代具备了毁灭人类未来的无比能力。

这是因为科技发展速度之快,超过了人类对新科技带来的后果的控制能力;这就像孩童手里的致命武器。

具体来说,在生物工程、人工智能等领域的实验已经进入预料之外且后果难测的疆域。

科技本身就是一柄双刃剑;人工智能技术既可以成为工业、医药、农业甚至经济管理中的重要工具,但它对可能造成的破坏的广度和深度并不在意。

这个独特的研究团队坚称,他们并不是在危言耸听。

超级电脑可以带来威力一代胜一代的电脑,最后可能出现“智能爆炸”现象,即电脑威力的加速变得无法预计、难以控制,而其后果却可能影响到地球上每一个人。

英国皇家天文学会会长里斯勋爵(Lord Rees)说,人类成为自己最危险的敌人,始于21世纪。

他说,这一威胁体现在科技前沿;每一项科技突破都有正负两面,如果对负面影响控制失当,最坏的结果就是人类自我毁灭。
hachimada 发表评论于
等人们都上了牛津大学,都去研究一下如何绝种,人类就真该绝种了!
露易丝湖 发表评论于
欧洲人赖以生存的, 我们现今中国口里念念不忘的科学技术迟早毁了人类, 中国的老古人从来不发展机巧, 透机取巧之物或机械之类是完全正确的, 是为着人类的真实长远的利益而做为出发点的.
long3 发表评论于
人脑模拟已经实现了,2010年左右用大型计算机模拟人脑一秒钟,耗时1个月。按摩尔定律,30年就可以做到实时。再过30年,就可以做到手机上了。人脑200亿个神经元,但是果蝇用大概9万个左右神经元就可以做到自主飞行、躲避。。。单个人脑是不可能跟机器人竞争的,要严防死守机器人的自我繁殖也必然是漏洞百出的。人类跟机器人世界的竞争只能依赖于人类社会组织化的先发优势。必须极力限制机器人的社会化冲动和能力。
烟轻雨静 发表评论于
完全有这种可能的,人类毁灭在自己的手里。
逐一点评 发表评论于
这个问题的答案显而易见。人类是这个星球上所有生物的天敌,人类也是所有生物之一,那么,自然,人类也是他自己的天地。灭人类者,人类也!
dust2013 发表评论于
如果电脑没有自我学习的功能一切就是扯淡。现在的人工智能实际上是基于海量遍历或计算的结果。和真正人类特有的自我总结和归纳的技能天壤之别。
名笔名 发表评论于
实际上现在的电脑,还笨得任何一个简单的功能,都要经过海量的测试和纠错,错一行它就罢工。电脑任何看似聪明的反应,都是人类绞尽脑汁,把所有的状况都想到后,用程序把反应写好。不搞电脑的人,如果知道电脑的这一点聪明后面的工作量可能都会晕过去。所谓的人工智能只是停留在很初级的一些理论和电影里,离威胁人类还是边都摸不着。
tiger_mimi 发表评论于
我个人觉得现在,reproductive technologies的滥用是非常危险的。
饳崆 发表评论于
应该研究机器人老婆,打不还手,骂不还口,日不还*,那人类就差不多了
myguinea1 发表评论于
西方让大量老穆进来,就是人类走向绝种末路的开始