简体 | 繁体
loading...
新闻频道
  • 首页
  • 新闻
  • 读图
  • 财经
  • 教育
  • 家居
  • 健康
  • 美食
  • 时尚
  • 旅游
  • 影视
  • 博客
  • 群吧
  • 论坛
  • 电台
  • 焦点新闻
  • 图片新闻
  • 视频新闻
  • 生活百态
  • 娱乐新闻
您的位置: 文学城 » 新闻 » 焦点新闻 » AI教父:AI在30年内毁灭人类的几率高达2成

AI教父:AI在30年内毁灭人类的几率高达2成

文章来源: 中时电子报 于 2024-12-28 14:06:50 - 新闻取自各大新闻媒体,新闻内容并不代表本网立场!
被阅读次数

被誉为“人工智能(AI)教父”的辛顿(Geoffrey Hinton)警告说,AI的变革速度“远比预期快”,人工智能在未来30年灭绝人类社会的可能性为10至20%。辛顿是2024年诺贝尔物理学奖的共同得主,他之前曾表示这个几率为10%。

辛顿近日接受《BBC》采访,当被问到为何会上调这个几率,辛顿指人类从未应对过比我们更聪明的事物。他补充道:“试想一下,你有见过较聪明物种,让较愚钝物种控制的情况吗?例子非常少。我唯一能够想到的例子就是,婴儿‘控制’母亲;人类成长的过程需要花费大量精力,因此婴儿才能够控制母亲。”

辛顿还指出,与强大的AI系统相比,人类就像幼儿。他说:“我喜欢这样想:想像一下你和一个三岁的小孩。我们将会是那个三岁的小孩。”

辛顿去年辞掉在谷歌(Google)的工作,以更畅快地谈论AI发展不受控制所构成的风险。他指出,“坏人”可能会利用这项技术对他人造成伤害。并补充,许多专家认为在未来20年内,可能会开发出比人类更聪明的AI系统,而这是非常可怕的想法。

回顾AI发展的迅速进展,辛顿表示:“我没想到它会进展到现在这种地步。我曾以为我们会在更遥远的未来到达这里。”

辛顿同时强调政府监管的必要性,指出AI发展速度“非常、非常快,远超过我的预期”。他警告说,仅依赖大型公司的利润动机并不足以确保AI的安全发展,“唯一能迫使这些大公司进行更多安全研究的是政府监管。”

辛顿是获得2018年图灵奖(Turing Award)的3位“AI教父”之一。然而,其中一位成员、Meta首席AI专家勒昆(Yann LeCun)则淡化了存在性威胁,并表示AI“实际上可以拯救人类免于灭绝”。

查看评论(14)

24小时热点排行

以伊同意停火12小时 川普恭喜有勇气智慧结束12天战争
特朗普回应伊朗报复:感谢伊朗提前通知
极大争议!洛杉矶警察局给轰炸伊朗受害者慰问
香港女星雪妮患癌住院,88岁丈夫跳楼轻生
戴安娜情人的父亲花费巨资调查,揭露戴安娜车祸真相

24小时讨论排行

中国宣布9月3日将举行阅兵式,纪念抗战及二战结束80周年
用一次少一架!官媒:美军B-2投钻地弹是“掏空老本”
Politico:万斯说“极大削弱了”伊朗核计划 他错了
硅谷杀妻案更多细节披露:案发当晚 她说打算离婚
不满公职落榜 他“主动带大量文件”投靠海外情报机关…
官媒"牛弹琴":伊朗被骗一愣一愣的 摁在地上摩擦…
最高法裁决:允许川普将非法移民送到第三国安置
特朗普:以色列和伊朗已同意全面停火
大规模劝退“地铁板凳族”,上海出手了
北京宣佈9月3日大阅兵 习近平将发表重要讲话
中国称——美国袭击伊朗损害自身信誉
在美国生活48年,亚裔退伍老兵被迫“自我驱逐”
差点以为伊朗赢了 美国投降了 这样骗傻子真的好吗?
美在佛州大沼泽建非法移民拘留中心 鳄鱼蟒蛇守卫!
美国袭击之后 伊朗浓缩铀藏在了何处?
普京罕见要来中国待4天才走 从未有过先例
  • 文学城简介
  • 广告服务
  • 联系我们
  • 招聘信息
  • 注册笔名
  • 申请版主
  • 收藏文学城

WENXUECITY.COM does not represent or guarantee the truthfulness, accuracy, or reliability of any of communications posted by other users.

Copyright ©1998-2025 wenxuecity.com All rights reserved. Privacy Statement & Terms of Use & User Privacy Protection Policy

文学城新闻
切换到网页版

AI教父:AI在30年内毁灭人类的几率高达2成

中时电子报 2024-12-28 14:06:50

被誉为“人工智能(AI)教父”的辛顿(Geoffrey Hinton)警告说,AI的变革速度“远比预期快”,人工智能在未来30年灭绝人类社会的可能性为10至20%。辛顿是2024年诺贝尔物理学奖的共同得主,他之前曾表示这个几率为10%。

辛顿近日接受《BBC》采访,当被问到为何会上调这个几率,辛顿指人类从未应对过比我们更聪明的事物。他补充道:“试想一下,你有见过较聪明物种,让较愚钝物种控制的情况吗?例子非常少。我唯一能够想到的例子就是,婴儿‘控制’母亲;人类成长的过程需要花费大量精力,因此婴儿才能够控制母亲。”

辛顿还指出,与强大的AI系统相比,人类就像幼儿。他说:“我喜欢这样想:想像一下你和一个三岁的小孩。我们将会是那个三岁的小孩。”

辛顿去年辞掉在谷歌(Google)的工作,以更畅快地谈论AI发展不受控制所构成的风险。他指出,“坏人”可能会利用这项技术对他人造成伤害。并补充,许多专家认为在未来20年内,可能会开发出比人类更聪明的AI系统,而这是非常可怕的想法。

回顾AI发展的迅速进展,辛顿表示:“我没想到它会进展到现在这种地步。我曾以为我们会在更遥远的未来到达这里。”

辛顿同时强调政府监管的必要性,指出AI发展速度“非常、非常快,远超过我的预期”。他警告说,仅依赖大型公司的利润动机并不足以确保AI的安全发展,“唯一能迫使这些大公司进行更多安全研究的是政府监管。”

辛顿是获得2018年图灵奖(Turing Award)的3位“AI教父”之一。然而,其中一位成员、Meta首席AI专家勒昆(Yann LeCun)则淡化了存在性威胁,并表示AI“实际上可以拯救人类免于灭绝”。