简体 | 繁体
loading...
新闻频道
  • 首页
  • 新闻
  • 读图
  • 财经
  • 教育
  • 家居
  • 健康
  • 美食
  • 时尚
  • 旅游
  • 影视
  • 博客
  • 群吧
  • 论坛
  • 电台
  • 焦点新闻
  • 图片新闻
  • 视频新闻
  • 生活百态
  • 娱乐新闻
您的位置: 文学城 » 新闻 » 焦点新闻 » 马斯克:AI有20%的可能性毁灭人类

马斯克:AI有20%的可能性毁灭人类

文章来源: 汽车商业评论杂志 于 2024-04-02 00:32:15 - 新闻取自各大新闻媒体,新闻内容并不代表本网立场!
被阅读次数


即使人工智能有五分之一的可能性会威胁人类生存,但埃隆·马斯克(Elon Musk)仍非常确信这值得冒险。

在前段时间的Abundance360峰会上,马斯克在“人工智能辩论”研讨会上表示,他重新计算了人工智能这项技术的风险评估,他说:“我认为人工智能有可能毁灭人类,但总体还是利大于弊。”

但马斯克没有提及他是如何计算风险的。

人工智能安全研究员、路易斯维尔大学网络安全实验室主任罗曼·扬波尔斯基(Roman Yampolskiy)在接受《商业内幕》采访时表示,马斯克认为人工智能可能对人类构成生存威胁是正确的,但“如果有什么问题的话,那就是他的评估有点过于保守了”。

“在我看来,人类遭遇厄运的可能性要高得多。”扬波尔斯基说。他所说的厄运指的是人工智能控制人类或导致人类终结事件的可能性,例如创造一种新型生物武器或由于大规模网络攻击或核战争而导致社会崩溃。

《纽约时报》称厄运是“席卷硅谷的一种病态的新统计学”,该媒体援引多位科技高管的估计,他们认为人工智能能引发世界末日的可能性在5%到50%之间。但扬波尔斯基认为这一风险高达“99.999999%”。

扬波尔斯基说,因为我们不可能控制先进的人工智能,所以我们唯一的希望就是从一开始就不要创造它。

“不知道为什么马斯克认为研究人工智能是个好主意,”扬波尔斯基补充道,“如果他担心竞争对手抢先一步,那大可不必,因为无论是谁创造了它,这种不受控制的超级智能给我们带来的生存威胁都是一样糟糕。”

去年11月,马斯克表示,这项技术最终“变坏”的可能性“并非为零”,但他并没有进一步说明,如果真的“变坏”,这项技术可能会毁灭人类。

尽管马斯克一直是人工智能监管的倡导者,但马斯克去年创立了一家名为xAI的公司,该公司致力于进一步扩大人工智能的力量。xAI是OpenAI的竞争对手,OpenAI是马斯克在2018年退出董事会之前与萨姆·奥特曼(Sam Altman)共同创立的公司。

在峰会上,马斯克估计,到2030年,数字智能将超过所有人类智能的总和。虽然他坚持认为研究人工智能利大于弊,但马斯克也承认,如果人工智能在一些最直接的领域继续按照目前的轨迹发展,世界将面临风险。

“你培养一个通用人工智能,这几乎就像抚养一个孩子,但他是一个超级天才,所以你如何培养这个孩子很重要。”马斯克在3月的一场硅谷活动中说,“人工智能安全方面,我认为最重要的一点是需要培养一个最大程度寻求真相并且具有好奇心的AI。”

马斯克表示,关于实现人工智能安全的最佳方式,他的“最终结论”是以迫使人工智能变得诚实的方式来发展人工智能。

“不要强迫它撒谎,即使事实令人不舒服。”马斯克在谈到保护人类免受科技侵害的最佳方法时说,“这非常重要,不要让人工智能撒谎。”

据《独立报》报道,研究人员发现,一旦人工智能学会对人类撒谎,使用当前的人工智能安全措施就不可能逆转这种欺骗行为。

该媒体引用的研究称,“如果一个模型由于欺骗性的仪器校准或模型中毒而表现出欺骗性行为,当前的安全培训技术将无法保证安全,甚至可能造成一种安全的假象。”

更令人不安的是,研究人员补充说,人工智能可能会自己学会欺骗,而不是被专门教导说谎。

“如果它变得比我们聪明得多,它就会非常擅长操纵,因为它会从我们这里学到这一点,”杰弗里·辛顿(Geoffrey Hinton)被称为“人工智能教父”,他告诉CNN,“很少有一个更聪明的东西被一个不那么聪明的东西控制的例子。”

  • 海外省钱快报,掌柜推荐,实现买买买自由!
查看评论(0)
  • 文学城简介
  • 广告服务
  • 联系我们
  • 招聘信息
  • 注册笔名
  • 申请版主
  • 收藏文学城

WENXUECITY.COM does not represent or guarantee the truthfulness, accuracy, or reliability of any of communications posted by other users.

Copyright ©1998-2025 wenxuecity.com All rights reserved. Privacy Statement & Terms of Use & User Privacy Protection Policy

24小时热点排行

一场思想的巨震,正在美国发生
华裔女生引毛语录 主张政治暗杀遭肉搜 网:遣返她
她是谁?那位成都骑车自杀的女生
超过两千人遇难!更大的灾难还在后头
要么走账,要么走人…大学老师开始“贷款上班”




24小时讨论排行

习近平似仍沉醉于阅兵 要籍此完善大党大国典礼制度
川普竞选时说让电费减半 现在美国电价正迅速上涨
吉米坎摩尔暗示柯克案疑凶或是川普支持者 节目遭停播
奥巴马又开怼,白宫反击:他一有机会就制造分裂
川普被澳洲记者提问惹毛 手指对方:安静!
宾州爆枪击案 警员3死2伤 现场“连珠炮”似的枪响…
数额巨大!两华人篡改礼品卡诈骗案 你花钱他赚钱!
AI应用快速渗透 引爆美国电力荒!核能重返C位
沙特高调与巴基斯坦军事结盟,打破以色列核威慑
不满企业给川普政府送钱!中国突然封杀辉达AI晶片
历时4年终赢特斯拉!车顶维权女车主有话要说
美国掀“老年贫穷”潮!年薪百万前工程师晚景凄凉
大豆,中国的贸易战筹码和美国农民的危机
哈马斯高层遇袭后首次公开露面:1分钟内12枚导弹
年薪上亿的清华学霸在美遭双重起诉,曾想反诉公司诽谤
川普访中将成行?传中国买500架波音、大豆
文学城新闻
切换到网页版

马斯克:AI有20%的可能性毁灭人类

汽车商业评论杂志 2024-04-02 00:32:15


即使人工智能有五分之一的可能性会威胁人类生存,但埃隆·马斯克(Elon Musk)仍非常确信这值得冒险。

在前段时间的Abundance360峰会上,马斯克在“人工智能辩论”研讨会上表示,他重新计算了人工智能这项技术的风险评估,他说:“我认为人工智能有可能毁灭人类,但总体还是利大于弊。”

但马斯克没有提及他是如何计算风险的。

人工智能安全研究员、路易斯维尔大学网络安全实验室主任罗曼·扬波尔斯基(Roman Yampolskiy)在接受《商业内幕》采访时表示,马斯克认为人工智能可能对人类构成生存威胁是正确的,但“如果有什么问题的话,那就是他的评估有点过于保守了”。

“在我看来,人类遭遇厄运的可能性要高得多。”扬波尔斯基说。他所说的厄运指的是人工智能控制人类或导致人类终结事件的可能性,例如创造一种新型生物武器或由于大规模网络攻击或核战争而导致社会崩溃。

《纽约时报》称厄运是“席卷硅谷的一种病态的新统计学”,该媒体援引多位科技高管的估计,他们认为人工智能能引发世界末日的可能性在5%到50%之间。但扬波尔斯基认为这一风险高达“99.999999%”。

扬波尔斯基说,因为我们不可能控制先进的人工智能,所以我们唯一的希望就是从一开始就不要创造它。

“不知道为什么马斯克认为研究人工智能是个好主意,”扬波尔斯基补充道,“如果他担心竞争对手抢先一步,那大可不必,因为无论是谁创造了它,这种不受控制的超级智能给我们带来的生存威胁都是一样糟糕。”

去年11月,马斯克表示,这项技术最终“变坏”的可能性“并非为零”,但他并没有进一步说明,如果真的“变坏”,这项技术可能会毁灭人类。

尽管马斯克一直是人工智能监管的倡导者,但马斯克去年创立了一家名为xAI的公司,该公司致力于进一步扩大人工智能的力量。xAI是OpenAI的竞争对手,OpenAI是马斯克在2018年退出董事会之前与萨姆·奥特曼(Sam Altman)共同创立的公司。

在峰会上,马斯克估计,到2030年,数字智能将超过所有人类智能的总和。虽然他坚持认为研究人工智能利大于弊,但马斯克也承认,如果人工智能在一些最直接的领域继续按照目前的轨迹发展,世界将面临风险。

“你培养一个通用人工智能,这几乎就像抚养一个孩子,但他是一个超级天才,所以你如何培养这个孩子很重要。”马斯克在3月的一场硅谷活动中说,“人工智能安全方面,我认为最重要的一点是需要培养一个最大程度寻求真相并且具有好奇心的AI。”

马斯克表示,关于实现人工智能安全的最佳方式,他的“最终结论”是以迫使人工智能变得诚实的方式来发展人工智能。

“不要强迫它撒谎,即使事实令人不舒服。”马斯克在谈到保护人类免受科技侵害的最佳方法时说,“这非常重要,不要让人工智能撒谎。”

据《独立报》报道,研究人员发现,一旦人工智能学会对人类撒谎,使用当前的人工智能安全措施就不可能逆转这种欺骗行为。

该媒体引用的研究称,“如果一个模型由于欺骗性的仪器校准或模型中毒而表现出欺骗性行为,当前的安全培训技术将无法保证安全,甚至可能造成一种安全的假象。”

更令人不安的是,研究人员补充说,人工智能可能会自己学会欺骗,而不是被专门教导说谎。

“如果它变得比我们聪明得多,它就会非常擅长操纵,因为它会从我们这里学到这一点,”杰弗里·辛顿(Geoffrey Hinton)被称为“人工智能教父”,他告诉CNN,“很少有一个更聪明的东西被一个不那么聪明的东西控制的例子。”