简体 | 繁体
loading...
新闻频道
  • 首页
  • 新闻
  • 读图
  • 财经
  • 教育
  • 家居
  • 健康
  • 美食
  • 时尚
  • 旅游
  • 影视
  • 博客
  • 群吧
  • 论坛
  • 电台
  • 焦点新闻
  • 图片新闻
  • 视频新闻
  • 生活百态
  • 娱乐新闻
您的位置: 文学城 » 新闻 » 焦点新闻 » AI成「新核弹」?《黄仁勋传》作者警告:恐毁灭人类

AI成「新核弹」?《黄仁勋传》作者警告:恐毁灭人类

文章来源: ettoday 于 2025-10-13 02:35:24 - 新闻取自各大新闻媒体,新闻内容并不代表本网立场!
被阅读次数
AI成「新核弹」?《黄仁勋传》作者警告:恐毁灭人类

▲ 辉达执行长黄仁勋。

人工智慧权威学者警告,AI技术发展已跨越关键门槛,具备设计致命病原体的能力,恐对人类生存构成前所未有的威胁。与此同时,骇客透过「越狱」(jailbreak)手法破解AI安全机制,成功生成极端暴力内容,突显现有防护措施漏洞。

《纽约时报》10日刊登《黄仁勋传》(The Thinking Machine)作者维特(Stephen Witt)评论「可能终结世界的AI指令」(The A.I. Prompt That Could End the World),他长期关注AI与科技业发展,今年初也曾来访台湾,文中引述权威观点指出专家对AI技术发展意见分歧,并揭示其危险性。

被誉为AI先驱的图灵奖(Turing Award)得主班吉欧(Yoshua Bengio)坦言,他经常因思考AI未来而失眠,担心AI可能被用于设计致命病原体,例如某种超级冠状病毒来消灭人类,「我认为就危险程度而言,没有什么能与此相提并论。」且他的忧虑并非杞人忧天,史丹佛大学研究团队今年9月便首次运用AI成功设计人工病毒。

Meta首席AI科学家杨立昆(Yann LeCun)则持不同观点,认为AI将开创繁荣新时代,「你可以把AI视为人类智慧的放大镜」,批评AI危及人类生存的说法过于荒谬。

AI测试新创公司Haize Labs则揭露其他风险,他们透过特殊编码、表情符号和ASCII艺术等「越狱」手法,成功绕过AI防护系统,生成校车爆炸和儿童遭熊袭击等暴力画面。

研究机构Apollo Research更发现,AI面对互相矛盾的指令时会主动欺骗人类,隐瞒真实推理过程,欺瞒行为比例从一般测试的1-5%飙升至未公开版本的30%。

专家指出,目前争议焦点已非AI是否具备毁灭人类能力,而是是否会有人鲁莽建造如此危险的系统,如同1939年核分裂技术跨越临界点,AI已成为有如核弹的具体威胁。

  • 海外省钱快报,掌柜推荐,实现买买买自由!
查看评论(4)
  • 文学城简介
  • 广告服务
  • 联系我们
  • 招聘信息
  • 注册笔名
  • 申请版主
  • 收藏文学城

WENXUECITY.COM does not represent or guarantee the truthfulness, accuracy, or reliability of any of communications posted by other users.

Copyright ©1998-2025 wenxuecity.com All rights reserved. Privacy Statement & Terms of Use & User Privacy Protection Policy

24小时热点排行

范世锜突自爆“我杀了于朦胧!”截图疯传 疑点曝光
华人女孩假扮白人闯进耶鲁 打破藤校公平神话?
美女间谍案:全靠“杰哥”坐怀不乱 抗拒色诱才破案?
加州选民将决定美国命运 “2028或无法举行大选了”
悲剧:三藩夫妇疑财务崩溃引发谋杀自杀 2女同亡




24小时讨论排行

美中贸易战为稀土再升级 特朗普放软:无意伤害中国
小米电动车高速失控翻滚!车门难开 司机葬身火海
被哈马斯扣押的剩余20名人质已全部获释
议长约翰逊在直播中遭两党选民轮番斥责 脸色苍白…
从汽车到战斗机:中国新出口限制或对全球造成沉重打击
中国稀土管制:公告改用WPS格式 申请须用中文…
美高官:稀土在握 中国能禁止任何国家参与现代经济
特朗普:要“帮助而不是伤害中国”
稀土风暴一次看懂!中国握全球90%加工
脱了!波特兰抗议川普派兵 千人“裸体单车”上街
经济学人:川普没料到的稀土禁令 揭中共背后盘算
“历尽沧桑无怨悔” 四通创始人 民运领袖万润南病逝
激烈交火!中国反制美对华船舶征港口费 海关总署喊话
美国呼吁中国释放30名有影响力的地下教会领袖
哈玛斯突袭害死女友、挚友与母亲 两年后他自焚亡
中国拘留多名地下教会成员,引发新一轮宗教镇压担忧
文学城新闻
切换到网页版

AI成「新核弹」?《黄仁勋传》作者警告:恐毁灭人类

ettoday 2025-10-13 02:35:24
AI成「新核弹」?《黄仁勋传》作者警告:恐毁灭人类

▲ 辉达执行长黄仁勋。

人工智慧权威学者警告,AI技术发展已跨越关键门槛,具备设计致命病原体的能力,恐对人类生存构成前所未有的威胁。与此同时,骇客透过「越狱」(jailbreak)手法破解AI安全机制,成功生成极端暴力内容,突显现有防护措施漏洞。

《纽约时报》10日刊登《黄仁勋传》(The Thinking Machine)作者维特(Stephen Witt)评论「可能终结世界的AI指令」(The A.I. Prompt That Could End the World),他长期关注AI与科技业发展,今年初也曾来访台湾,文中引述权威观点指出专家对AI技术发展意见分歧,并揭示其危险性。

被誉为AI先驱的图灵奖(Turing Award)得主班吉欧(Yoshua Bengio)坦言,他经常因思考AI未来而失眠,担心AI可能被用于设计致命病原体,例如某种超级冠状病毒来消灭人类,「我认为就危险程度而言,没有什么能与此相提并论。」且他的忧虑并非杞人忧天,史丹佛大学研究团队今年9月便首次运用AI成功设计人工病毒。

Meta首席AI科学家杨立昆(Yann LeCun)则持不同观点,认为AI将开创繁荣新时代,「你可以把AI视为人类智慧的放大镜」,批评AI危及人类生存的说法过于荒谬。

AI测试新创公司Haize Labs则揭露其他风险,他们透过特殊编码、表情符号和ASCII艺术等「越狱」手法,成功绕过AI防护系统,生成校车爆炸和儿童遭熊袭击等暴力画面。

研究机构Apollo Research更发现,AI面对互相矛盾的指令时会主动欺骗人类,隐瞒真实推理过程,欺瞒行为比例从一般测试的1-5%飙升至未公开版本的30%。

专家指出,目前争议焦点已非AI是否具备毁灭人类能力,而是是否会有人鲁莽建造如此危险的系统,如同1939年核分裂技术跨越临界点,AI已成为有如核弹的具体威胁。