马斯克:AI有20%的可能性毁灭人类

文章来源: - 新闻取自各大新闻媒体,新闻内容并不代表本网立场!
(被阅读 次)

即使人工智能有五分之一的可能性会威胁人类生存,但埃隆·马斯克(Elon Musk)仍非常确信这值得冒险。

在前段时间的Abundance360峰会上,马斯克在“人工智能辩论”研讨会上表示,他重新计算了人工智能这项技术的风险评估,他说:“我认为人工智能有可能毁灭人类,但总体还是利大于弊。”

但马斯克没有提及他是如何计算风险的。

人工智能安全研究员、路易斯维尔大学网络安全实验室主任罗曼·扬波尔斯基(Roman Yampolskiy)在接受《商业内幕》采访时表示,马斯克认为人工智能可能对人类构成生存威胁是正确的,但“如果有什么问题的话,那就是他的评估有点过于保守了”。

“在我看来,人类遭遇厄运的可能性要高得多。”扬波尔斯基说。他所说的厄运指的是人工智能控制人类或导致人类终结事件的可能性,例如创造一种新型生物武器或由于大规模网络攻击或核战争而导致社会崩溃。

《纽约时报》称厄运是“席卷硅谷的一种病态的新统计学”,该媒体援引多位科技高管的估计,他们认为人工智能能引发世界末日的可能性在5%到50%之间。但扬波尔斯基认为这一风险高达“99.999999%”。

扬波尔斯基说,因为我们不可能控制先进的人工智能,所以我们唯一的希望就是从一开始就不要创造它。

“不知道为什么马斯克认为研究人工智能是个好主意,”扬波尔斯基补充道,“如果他担心竞争对手抢先一步,那大可不必,因为无论是谁创造了它,这种不受控制的超级智能给我们带来的生存威胁都是一样糟糕。”

去年11月,马斯克表示,这项技术最终“变坏”的可能性“并非为零”,但他并没有进一步说明,如果真的“变坏”,这项技术可能会毁灭人类。

尽管马斯克一直是人工智能监管的倡导者,但马斯克去年创立了一家名为xAI的公司,该公司致力于进一步扩大人工智能的力量。xAI是OpenAI的竞争对手,OpenAI是马斯克在2018年退出董事会之前与萨姆·奥特曼(Sam Altman)共同创立的公司。

在峰会上,马斯克估计,到2030年,数字智能将超过所有人类智能的总和。虽然他坚持认为研究人工智能利大于弊,但马斯克也承认,如果人工智能在一些最直接的领域继续按照目前的轨迹发展,世界将面临风险。

“你培养一个通用人工智能,这几乎就像抚养一个孩子,但他是一个超级天才,所以你如何培养这个孩子很重要。”马斯克在3月的一场硅谷活动中说,“人工智能安全方面,我认为最重要的一点是需要培养一个最大程度寻求真相并且具有好奇心的AI。”

马斯克表示,关于实现人工智能安全的最佳方式,他的“最终结论”是以迫使人工智能变得诚实的方式来发展人工智能。

“不要强迫它撒谎,即使事实令人不舒服。”马斯克在谈到保护人类免受科技侵害的最佳方法时说,“这非常重要,不要让人工智能撒谎。”

据《独立报》报道,研究人员发现,一旦人工智能学会对人类撒谎,使用当前的人工智能安全措施就不可能逆转这种欺骗行为。

该媒体引用的研究称,“如果一个模型由于欺骗性的仪器校准或模型中毒而表现出欺骗性行为,当前的安全培训技术将无法保证安全,甚至可能造成一种安全的假象。”

更令人不安的是,研究人员补充说,人工智能可能会自己学会欺骗,而不是被专门教导说谎。

“如果它变得比我们聪明得多,它就会非常擅长操纵,因为它会从我们这里学到这一点,”杰弗里·辛顿(Geoffrey Hinton)被称为“人工智能教父”,他告诉CNN,“很少有一个更聪明的东西被一个不那么聪明的东西控制的例子。”

gameon 发表评论于
这绝不是空穴来风。现在国内已经有公司打着训练AI机器人玩打枪游戏的名义,已经开始训练机器人如何使用枪支,瞄准,射击。虽然枪是塑料枪,射出的是塑料球,看到一帮书呆子工程师被射中的傻笑,就仿佛看到五年以后,机器人开枪主动杀人的惨状。
gameon 发表评论于
现在国内已经有公司打着训练AI机器人玩打枪游戏的名义,已经开始训练机器人如何使用枪支,瞄准,射击。虽然枪是塑料枪,射出的塑料球,看到一帮书呆子工程师被射中的傻笑,就仿佛看到五年以后,机器人持枪主动杀人的惨叫。
Nevermind666 发表评论于
首富其实和川普真是同一类型的人,难怪惺惺惜惺惺。
1. 同样是大嘴巴,什么都是张嘴就来。
2. 同样是投机客,川普在民主党共和党之间反复,寻求最大利益。马斯克搞电车变暖教骗政府补贴发家,然后摇身一变成了右派代言人。
3. 同样是始终乱弃,川普前后三个东欧老婆,老婆怀孕他出轨,还嫖妓。马斯克就不说了,睡女下属,当播种机。

lostman 发表评论于 2024-04-02 02:09:00
20%,马斯克怎么计算的,张嘴就来
Deepspace_01 发表评论于
AI确实可能学会人类的自私。但不会发生在中国。中国不会让AI学习这些,只会让它们学习习思想之类。成为另一个八戒。所以中国的AI会让你失业,但不会学到人类的自私。中国的AI 威胁人类,是靠超级应用习思想造成的。哈哈。
===============================================================
相信事实 发表评论于 2024-04-02 05:37:03
而作为智慧型武器,将来会不会脱离人类控制而消灭人类?完全可能,因为人类的自私本性肯定会传染给这样的机器,期望不会自私是不可能的。
DANIU_S 发表评论于
AI 对人类的贡献是什么,会对人类造成伤害有多大,难道美国国会不应该论证一下吗?
退齋 发表评论于
这货最能代表美国人的性格品行。
说活必须要用“数字”
“数字”就是“事实”
尼玛 为什么不是 23.5%
相信事实 发表评论于
人类的各种发明创造很多都是先用于军事,也就是用来杀人的。AI肯定不会例外,肯定会有人用它去研究杀人武器,这是毫无疑问的。无论你想怎样控制它不危害人类都只是美好的愿望,你能禁止核武器吗?一旦怪兽产生了,就不可能消灭它。

而作为智慧型武器,将来会不会脱离人类控制而消灭人类?完全可能,因为人类的自私本性肯定会传染给这样的机器,期望不会自私是不可能的。

研制AI本身就是人的自私本质的体现,因为想用它为人类自己无偿劳动,提供服务。而无论什么服务,将来都需要资源,那么人类为它注入可以掠夺资源而为自己获得更多利益的想法你认为没有人去想?一旦机器能够自主获得更多资源,使得它实现自我复制,人类还怎样阻止它获得资源?
弟兄 发表评论于
這可能性是百分之百,現在特斯拉的駕駛技術已經超過了人
木头大哥 发表评论于
liar and scam
木头大哥 发表评论于
马斯克是个大忽悠。liar and Scam.
令胡冲 发表评论于


现在的AI全,毁灭人类可能性不到5%。现在AGI和AI最多只能帮助恐怖分子、极端国家加速制造核武器、末日病毒武器、生化武器等等大规模杀伤性武器,比如美国、以色列、朝鲜、伊朗等等。这些武器可以制造大屠杀,但不足以毁灭人类。

如果十年后ASI超级智能出现,那毁灭人类可能性会超过80%。



Observer12 发表评论于
才20%,可能性很小啊
橡皮潜艇 发表评论于
ai有20%的可能性毁灭马斯克,因为他被跟不上
meldyhk 发表评论于
老毛说,我们的人民中间有5%的右派。
lostman 发表评论于
20%,马斯克怎么计算的,张嘴就来