简体 | 繁体
loading...
新闻频道
  • 首页
  • 新闻
  • 读图
  • 财经
  • 教育
  • 家居
  • 健康
  • 美食
  • 时尚
  • 旅游
  • 影视
  • 博客
  • 群吧
  • 论坛
  • 电台
  • 焦点新闻
  • 图片新闻
  • 视频新闻
  • 生活百态
  • 娱乐新闻
您的位置: 文学城 » 新闻 » 焦点新闻 » 马斯克:AI有20%的可能性毁灭人类

马斯克:AI有20%的可能性毁灭人类

文章来源: 汽车商业评论杂志 于 2024-04-02 00:32:15 - 新闻取自各大新闻媒体,新闻内容并不代表本网立场!
被阅读次数


即使人工智能有五分之一的可能性会威胁人类生存,但埃隆·马斯克(Elon Musk)仍非常确信这值得冒险。

在前段时间的Abundance360峰会上,马斯克在“人工智能辩论”研讨会上表示,他重新计算了人工智能这项技术的风险评估,他说:“我认为人工智能有可能毁灭人类,但总体还是利大于弊。”

但马斯克没有提及他是如何计算风险的。

人工智能安全研究员、路易斯维尔大学网络安全实验室主任罗曼·扬波尔斯基(Roman Yampolskiy)在接受《商业内幕》采访时表示,马斯克认为人工智能可能对人类构成生存威胁是正确的,但“如果有什么问题的话,那就是他的评估有点过于保守了”。

“在我看来,人类遭遇厄运的可能性要高得多。”扬波尔斯基说。他所说的厄运指的是人工智能控制人类或导致人类终结事件的可能性,例如创造一种新型生物武器或由于大规模网络攻击或核战争而导致社会崩溃。

《纽约时报》称厄运是“席卷硅谷的一种病态的新统计学”,该媒体援引多位科技高管的估计,他们认为人工智能能引发世界末日的可能性在5%到50%之间。但扬波尔斯基认为这一风险高达“99.999999%”。

扬波尔斯基说,因为我们不可能控制先进的人工智能,所以我们唯一的希望就是从一开始就不要创造它。

“不知道为什么马斯克认为研究人工智能是个好主意,”扬波尔斯基补充道,“如果他担心竞争对手抢先一步,那大可不必,因为无论是谁创造了它,这种不受控制的超级智能给我们带来的生存威胁都是一样糟糕。”

去年11月,马斯克表示,这项技术最终“变坏”的可能性“并非为零”,但他并没有进一步说明,如果真的“变坏”,这项技术可能会毁灭人类。

尽管马斯克一直是人工智能监管的倡导者,但马斯克去年创立了一家名为xAI的公司,该公司致力于进一步扩大人工智能的力量。xAI是OpenAI的竞争对手,OpenAI是马斯克在2018年退出董事会之前与萨姆·奥特曼(Sam Altman)共同创立的公司。

在峰会上,马斯克估计,到2030年,数字智能将超过所有人类智能的总和。虽然他坚持认为研究人工智能利大于弊,但马斯克也承认,如果人工智能在一些最直接的领域继续按照目前的轨迹发展,世界将面临风险。

“你培养一个通用人工智能,这几乎就像抚养一个孩子,但他是一个超级天才,所以你如何培养这个孩子很重要。”马斯克在3月的一场硅谷活动中说,“人工智能安全方面,我认为最重要的一点是需要培养一个最大程度寻求真相并且具有好奇心的AI。”

马斯克表示,关于实现人工智能安全的最佳方式,他的“最终结论”是以迫使人工智能变得诚实的方式来发展人工智能。

“不要强迫它撒谎,即使事实令人不舒服。”马斯克在谈到保护人类免受科技侵害的最佳方法时说,“这非常重要,不要让人工智能撒谎。”

据《独立报》报道,研究人员发现,一旦人工智能学会对人类撒谎,使用当前的人工智能安全措施就不可能逆转这种欺骗行为。

该媒体引用的研究称,“如果一个模型由于欺骗性的仪器校准或模型中毒而表现出欺骗性行为,当前的安全培训技术将无法保证安全,甚至可能造成一种安全的假象。”

更令人不安的是,研究人员补充说,人工智能可能会自己学会欺骗,而不是被专门教导说谎。

“如果它变得比我们聪明得多,它就会非常擅长操纵,因为它会从我们这里学到这一点,”杰弗里·辛顿(Geoffrey Hinton)被称为“人工智能教父”,他告诉CNN,“很少有一个更聪明的东西被一个不那么聪明的东西控制的例子。”

查看评论(0)

24小时热点排行

假婚姻换绿卡 华女人财两失 还被逼发生性关系
多名中国人失踪!使馆紧急提醒:与家人约定暗号求救
又有学者炮轰习近平!北大女教授:只会画大饼…
违反“禁裸令” 中国女星坎城影展惨遭驱赶
特朗普拒喝咖啡引发争议 沙特为他准备了麦当劳餐车

24小时讨论排行

南非总统痛斥59名赴美白人难民是逃避问题的“懦夫”
大动作!中俄就共建月球核电站签署合作备忘录
印度学者:中国能让美国达成协议 我们强硬起来也能
惊悚视频!四川男当街连续狠刺女子 刀都捅弯了...
美国禁止全球使用华为昇腾AI芯片,强化出口管制
拦不住?全球顶尖科学家涌入中国
川普为何让步?幕僚警告他“关税再不降 基本盘要崩”
川普中东行 “第一兄弟”马斯克赚很大!
耗资10亿占地57亩 潮汕这座超级豪宅将被强拆
万斯再失言:2026世界杯球迷完赛后不离境将遭驱逐
纽约时报:特朗普为何想要一架新的“空军一号”
港星王喜爆在台遭两次迷奸…疯狂失禁满身伤
中国暂停管制禁令,恢复向美国28家实体出口稀土
川普松口!不排除"亲上火线"和习近平谈贸易协议
伊斯坦布尔:俄公布名单 普京本人不在列
世界最穷总统去世:曾是游击队员 当选后仍住郊区
  • 文学城简介
  • 广告服务
  • 联系我们
  • 招聘信息
  • 注册笔名
  • 申请版主
  • 收藏文学城

WENXUECITY.COM does not represent or guarantee the truthfulness, accuracy, or reliability of any of communications posted by other users.

Copyright ©1998-2025 wenxuecity.com All rights reserved. Privacy Statement & Terms of Use & User Privacy Protection Policy

文学城新闻
切换到网页版

马斯克:AI有20%的可能性毁灭人类

汽车商业评论杂志 2024-04-02 00:32:15


即使人工智能有五分之一的可能性会威胁人类生存,但埃隆·马斯克(Elon Musk)仍非常确信这值得冒险。

在前段时间的Abundance360峰会上,马斯克在“人工智能辩论”研讨会上表示,他重新计算了人工智能这项技术的风险评估,他说:“我认为人工智能有可能毁灭人类,但总体还是利大于弊。”

但马斯克没有提及他是如何计算风险的。

人工智能安全研究员、路易斯维尔大学网络安全实验室主任罗曼·扬波尔斯基(Roman Yampolskiy)在接受《商业内幕》采访时表示,马斯克认为人工智能可能对人类构成生存威胁是正确的,但“如果有什么问题的话,那就是他的评估有点过于保守了”。

“在我看来,人类遭遇厄运的可能性要高得多。”扬波尔斯基说。他所说的厄运指的是人工智能控制人类或导致人类终结事件的可能性,例如创造一种新型生物武器或由于大规模网络攻击或核战争而导致社会崩溃。

《纽约时报》称厄运是“席卷硅谷的一种病态的新统计学”,该媒体援引多位科技高管的估计,他们认为人工智能能引发世界末日的可能性在5%到50%之间。但扬波尔斯基认为这一风险高达“99.999999%”。

扬波尔斯基说,因为我们不可能控制先进的人工智能,所以我们唯一的希望就是从一开始就不要创造它。

“不知道为什么马斯克认为研究人工智能是个好主意,”扬波尔斯基补充道,“如果他担心竞争对手抢先一步,那大可不必,因为无论是谁创造了它,这种不受控制的超级智能给我们带来的生存威胁都是一样糟糕。”

去年11月,马斯克表示,这项技术最终“变坏”的可能性“并非为零”,但他并没有进一步说明,如果真的“变坏”,这项技术可能会毁灭人类。

尽管马斯克一直是人工智能监管的倡导者,但马斯克去年创立了一家名为xAI的公司,该公司致力于进一步扩大人工智能的力量。xAI是OpenAI的竞争对手,OpenAI是马斯克在2018年退出董事会之前与萨姆·奥特曼(Sam Altman)共同创立的公司。

在峰会上,马斯克估计,到2030年,数字智能将超过所有人类智能的总和。虽然他坚持认为研究人工智能利大于弊,但马斯克也承认,如果人工智能在一些最直接的领域继续按照目前的轨迹发展,世界将面临风险。

“你培养一个通用人工智能,这几乎就像抚养一个孩子,但他是一个超级天才,所以你如何培养这个孩子很重要。”马斯克在3月的一场硅谷活动中说,“人工智能安全方面,我认为最重要的一点是需要培养一个最大程度寻求真相并且具有好奇心的AI。”

马斯克表示,关于实现人工智能安全的最佳方式,他的“最终结论”是以迫使人工智能变得诚实的方式来发展人工智能。

“不要强迫它撒谎,即使事实令人不舒服。”马斯克在谈到保护人类免受科技侵害的最佳方法时说,“这非常重要,不要让人工智能撒谎。”

据《独立报》报道,研究人员发现,一旦人工智能学会对人类撒谎,使用当前的人工智能安全措施就不可能逆转这种欺骗行为。

该媒体引用的研究称,“如果一个模型由于欺骗性的仪器校准或模型中毒而表现出欺骗性行为,当前的安全培训技术将无法保证安全,甚至可能造成一种安全的假象。”

更令人不安的是,研究人员补充说,人工智能可能会自己学会欺骗,而不是被专门教导说谎。

“如果它变得比我们聪明得多,它就会非常擅长操纵,因为它会从我们这里学到这一点,”杰弗里·辛顿(Geoffrey Hinton)被称为“人工智能教父”,他告诉CNN,“很少有一个更聪明的东西被一个不那么聪明的东西控制的例子。”