简体 | 繁体
loading...
新闻频道
  • 首页
  • 新闻
  • 读图
  • 财经
  • 教育
  • 家居
  • 健康
  • 美食
  • 时尚
  • 旅游
  • 影视
  • 博客
  • 群吧
  • 论坛
  • 电台
  • 焦点新闻
  • 图片新闻
  • 视频新闻
  • 生活百态
  • 娱乐新闻
您的位置: 文学城 » 新闻 » 焦点新闻 » 马斯克:AI有20%的可能性毁灭人类

马斯克:AI有20%的可能性毁灭人类

文章来源: 汽车商业评论杂志 于 2024-04-02 00:32:15 - 新闻取自各大新闻媒体,新闻内容并不代表本网立场!
被阅读次数


即使人工智能有五分之一的可能性会威胁人类生存,但埃隆·马斯克(Elon Musk)仍非常确信这值得冒险。

在前段时间的Abundance360峰会上,马斯克在“人工智能辩论”研讨会上表示,他重新计算了人工智能这项技术的风险评估,他说:“我认为人工智能有可能毁灭人类,但总体还是利大于弊。”

但马斯克没有提及他是如何计算风险的。

人工智能安全研究员、路易斯维尔大学网络安全实验室主任罗曼·扬波尔斯基(Roman Yampolskiy)在接受《商业内幕》采访时表示,马斯克认为人工智能可能对人类构成生存威胁是正确的,但“如果有什么问题的话,那就是他的评估有点过于保守了”。

“在我看来,人类遭遇厄运的可能性要高得多。”扬波尔斯基说。他所说的厄运指的是人工智能控制人类或导致人类终结事件的可能性,例如创造一种新型生物武器或由于大规模网络攻击或核战争而导致社会崩溃。

《纽约时报》称厄运是“席卷硅谷的一种病态的新统计学”,该媒体援引多位科技高管的估计,他们认为人工智能能引发世界末日的可能性在5%到50%之间。但扬波尔斯基认为这一风险高达“99.999999%”。

扬波尔斯基说,因为我们不可能控制先进的人工智能,所以我们唯一的希望就是从一开始就不要创造它。

“不知道为什么马斯克认为研究人工智能是个好主意,”扬波尔斯基补充道,“如果他担心竞争对手抢先一步,那大可不必,因为无论是谁创造了它,这种不受控制的超级智能给我们带来的生存威胁都是一样糟糕。”

去年11月,马斯克表示,这项技术最终“变坏”的可能性“并非为零”,但他并没有进一步说明,如果真的“变坏”,这项技术可能会毁灭人类。

尽管马斯克一直是人工智能监管的倡导者,但马斯克去年创立了一家名为xAI的公司,该公司致力于进一步扩大人工智能的力量。xAI是OpenAI的竞争对手,OpenAI是马斯克在2018年退出董事会之前与萨姆·奥特曼(Sam Altman)共同创立的公司。

在峰会上,马斯克估计,到2030年,数字智能将超过所有人类智能的总和。虽然他坚持认为研究人工智能利大于弊,但马斯克也承认,如果人工智能在一些最直接的领域继续按照目前的轨迹发展,世界将面临风险。

“你培养一个通用人工智能,这几乎就像抚养一个孩子,但他是一个超级天才,所以你如何培养这个孩子很重要。”马斯克在3月的一场硅谷活动中说,“人工智能安全方面,我认为最重要的一点是需要培养一个最大程度寻求真相并且具有好奇心的AI。”

马斯克表示,关于实现人工智能安全的最佳方式,他的“最终结论”是以迫使人工智能变得诚实的方式来发展人工智能。

“不要强迫它撒谎,即使事实令人不舒服。”马斯克在谈到保护人类免受科技侵害的最佳方法时说,“这非常重要,不要让人工智能撒谎。”

据《独立报》报道,研究人员发现,一旦人工智能学会对人类撒谎,使用当前的人工智能安全措施就不可能逆转这种欺骗行为。

该媒体引用的研究称,“如果一个模型由于欺骗性的仪器校准或模型中毒而表现出欺骗性行为,当前的安全培训技术将无法保证安全,甚至可能造成一种安全的假象。”

更令人不安的是,研究人员补充说,人工智能可能会自己学会欺骗,而不是被专门教导说谎。

“如果它变得比我们聪明得多,它就会非常擅长操纵,因为它会从我们这里学到这一点,”杰弗里·辛顿(Geoffrey Hinton)被称为“人工智能教父”,他告诉CNN,“很少有一个更聪明的东西被一个不那么聪明的东西控制的例子。”

查看评论(0)

24小时热点排行

欧洲热死人了,但还是开不起空调
表兄弟创立的全球最大私募,又要吞下中国公司
东亚女儿最难以接受的真相,被她笑着戳破了
甘肃血铅这事又被网友们发现了第二组疑点
湘潭大学投毒案二审:受害家属放弃赔偿要求从重判

24小时讨论排行

印度空难 飞行员询问同僚“为何切断发动机燃油供应”
因与外国人不正当交往 大连工业大学开除学生学籍
幼儿园铅中毒案,我能回答所有疑点
法国外长拒绝和王毅握手?这一幕引发中说纷纭
选民已放弃民主党?民主党自家民调数据敲响警钟
石破茂硬刚特朗普,日本究竟有什么筹码
没想到吧?农村还有800万亿财富在沉默
与王毅面对面会晤约1小时,鲁比奥:会谈富有成效
联合国:加萨近800人取物资时遇害 多命丧粮援站
特斯拉车顶维权女车主二审败诉,被判赔偿17万
特朗普在社交媒体上宣布对墨西哥、欧盟收30%关税
马克龙宣布法英拟扩组5万人军队 或部署乌前线作战
越来越多企业这样做:在中国加工成稀土零部件再出口
民工大爷写高考作文《我的母亲》爆火 千字感动全网
中国看不下去了! 胡塞接连击沉2货轮 耿爽点名停手
夫妻千万房产被独生女抵押贷款换取加拿大永居卡
  • 文学城简介
  • 广告服务
  • 联系我们
  • 招聘信息
  • 注册笔名
  • 申请版主
  • 收藏文学城

WENXUECITY.COM does not represent or guarantee the truthfulness, accuracy, or reliability of any of communications posted by other users.

Copyright ©1998-2025 wenxuecity.com All rights reserved. Privacy Statement & Terms of Use & User Privacy Protection Policy

文学城新闻
切换到网页版

马斯克:AI有20%的可能性毁灭人类

汽车商业评论杂志 2024-04-02 00:32:15


即使人工智能有五分之一的可能性会威胁人类生存,但埃隆·马斯克(Elon Musk)仍非常确信这值得冒险。

在前段时间的Abundance360峰会上,马斯克在“人工智能辩论”研讨会上表示,他重新计算了人工智能这项技术的风险评估,他说:“我认为人工智能有可能毁灭人类,但总体还是利大于弊。”

但马斯克没有提及他是如何计算风险的。

人工智能安全研究员、路易斯维尔大学网络安全实验室主任罗曼·扬波尔斯基(Roman Yampolskiy)在接受《商业内幕》采访时表示,马斯克认为人工智能可能对人类构成生存威胁是正确的,但“如果有什么问题的话,那就是他的评估有点过于保守了”。

“在我看来,人类遭遇厄运的可能性要高得多。”扬波尔斯基说。他所说的厄运指的是人工智能控制人类或导致人类终结事件的可能性,例如创造一种新型生物武器或由于大规模网络攻击或核战争而导致社会崩溃。

《纽约时报》称厄运是“席卷硅谷的一种病态的新统计学”,该媒体援引多位科技高管的估计,他们认为人工智能能引发世界末日的可能性在5%到50%之间。但扬波尔斯基认为这一风险高达“99.999999%”。

扬波尔斯基说,因为我们不可能控制先进的人工智能,所以我们唯一的希望就是从一开始就不要创造它。

“不知道为什么马斯克认为研究人工智能是个好主意,”扬波尔斯基补充道,“如果他担心竞争对手抢先一步,那大可不必,因为无论是谁创造了它,这种不受控制的超级智能给我们带来的生存威胁都是一样糟糕。”

去年11月,马斯克表示,这项技术最终“变坏”的可能性“并非为零”,但他并没有进一步说明,如果真的“变坏”,这项技术可能会毁灭人类。

尽管马斯克一直是人工智能监管的倡导者,但马斯克去年创立了一家名为xAI的公司,该公司致力于进一步扩大人工智能的力量。xAI是OpenAI的竞争对手,OpenAI是马斯克在2018年退出董事会之前与萨姆·奥特曼(Sam Altman)共同创立的公司。

在峰会上,马斯克估计,到2030年,数字智能将超过所有人类智能的总和。虽然他坚持认为研究人工智能利大于弊,但马斯克也承认,如果人工智能在一些最直接的领域继续按照目前的轨迹发展,世界将面临风险。

“你培养一个通用人工智能,这几乎就像抚养一个孩子,但他是一个超级天才,所以你如何培养这个孩子很重要。”马斯克在3月的一场硅谷活动中说,“人工智能安全方面,我认为最重要的一点是需要培养一个最大程度寻求真相并且具有好奇心的AI。”

马斯克表示,关于实现人工智能安全的最佳方式,他的“最终结论”是以迫使人工智能变得诚实的方式来发展人工智能。

“不要强迫它撒谎,即使事实令人不舒服。”马斯克在谈到保护人类免受科技侵害的最佳方法时说,“这非常重要,不要让人工智能撒谎。”

据《独立报》报道,研究人员发现,一旦人工智能学会对人类撒谎,使用当前的人工智能安全措施就不可能逆转这种欺骗行为。

该媒体引用的研究称,“如果一个模型由于欺骗性的仪器校准或模型中毒而表现出欺骗性行为,当前的安全培训技术将无法保证安全,甚至可能造成一种安全的假象。”

更令人不安的是,研究人员补充说,人工智能可能会自己学会欺骗,而不是被专门教导说谎。

“如果它变得比我们聪明得多,它就会非常擅长操纵,因为它会从我们这里学到这一点,”杰弗里·辛顿(Geoffrey Hinton)被称为“人工智能教父”,他告诉CNN,“很少有一个更聪明的东西被一个不那么聪明的东西控制的例子。”