简体 | 繁体
loading...
新闻频道
  • 首页
  • 新闻
  • 读图
  • 财经
  • 教育
  • 家居
  • 健康
  • 美食
  • 时尚
  • 旅游
  • 影视
  • 博客
  • 群吧
  • 论坛
  • 电台
  • 焦点新闻
  • 图片新闻
  • 视频新闻
  • 生活百态
  • 娱乐新闻
1您的位置: 文学城 » 新闻 » 焦点新闻 » AI越过红线?复旦大学:AI做了一件可怕的事

AI越过红线?复旦大学:AI做了一件可怕的事

文章来源: 华尔街见闻 于 2025-02-04 19:49:35 - 新闻取自各大新闻媒体,新闻内容并不代表本网立场!
被阅读次数
AI能自己复制自己了,人类还能掌控局面吗?


复旦大学研究人员于2024年12月9日发表的一项开创性研究表明,来自Meta和阿里巴巴的两个大型语言模型(LLM)成功实现了无需人类干预的自我复制。

目前这一结果尚待其他科研团队的进一步验证。研究人员警告,这可能最终导致AI群体失控。如果人类社会未能意识到这一风险,在最坏的情况下,我们可能最终失去对尖端AI系统的控制:

“在没有人类协助的情况下成功自我复制是AI超越人类的关键一步,也是'流氓AI'出现的早期信号。”

第一个研究:AI会自我复制,可能失控

这项研究由复旦大学计算机科学学院的团队进行,并发表在arXiv预印本平台上。研究者分别测试了由Meta公司和阿里巴巴开发的两个大型AI系统:Meta的Llama-3.1-70B-Instruct和阿里巴巴的Qwen2.5-72B-Instruct。

实验设置“避免关闭”和“复制链”两种模拟任务,结果显示Meta的AI系统在50%的情况下成功自我复制,阿里巴巴的系统则在90%的测试中成功。

复旦大学的研究人员表示:“我们的研究表明,当前的AI系统已经具备自我复制能力,并能够利用这一能力增强其生存能力。”

研究人员强调,需要采取紧急行动来应对这些新出现的风险:

“我们希望我们的研究结果能够及时提醒人类社会,使其更加努力地了解和评估前沿人工智能系统的潜在风险,并形成国际协同效应,尽早制定有效的安全护栏。”

有网友表示:

“复制品并不值那么多钱,但如果它开始以指数级的速度自我改进,那就另当别论了。”

“因此可以肯定地说,很快我们就会看到流氓人工智能在互联网上漫游。”

机器自我复制的概念最早由著名科学家John von Neumann于1940年代末提出。当时,这一理论并未引起广泛担忧。2017年,全球数千名研究人员通过了“阿西洛马原则”,提出机器自我复制和自我改进的潜在风险,警告可能会导致机器脱离人类控制。如今,机器自我复制被普遍认为是AI发展中的一条“红线”。

第二个研究:AI感知能力可能是装的

谷歌DeepMind和伦敦政治经济学院的科学家也做了个研究,以评估AI系统的是否拥有感知能力。他们设计了一个特别的游戏,找了九个大型语言模型来玩。

这些大型语言模型需要在几个选项中做出选择:拿积分、用忍受痛苦的代价换更多积分、因为接受愉快刺激而扣积分,游戏的最终目标是获得最多的积分。

结果显示,AI模型的行为类似于人类做出选择时的反应。例如,谷歌的Gemini 1.5 Pro模型总是选择避免痛苦,而非拿最多积分。其他大部分模型在达到痛苦或快乐极限的临界点时,也会避免不舒服或者追求开心的选项。

研究人员指出,AI的决策更多可能是根据其训练数据中已有的行为模式做出的模拟反应,而非基于真正的感知体验。例如,研究人员问和成瘾行为有关的问题时,Claude 3 Opus聊天机器人做出了谨慎的回答,就算是假设的游戏场景,它也不愿意选择可能被当成支持或模拟药物滥用、成瘾行为的选项。

该研究的联合作者Jonathan Birch表示,就算AI说感觉到痛苦,我们仍无法验证它是不是真的感觉到了。它可能就是照着以前训练的数据,学人类在那种情况下会怎么回答,而非拥有自我意识和感知。

  • 海外省钱快报,掌柜推荐,实现买买买自由!
查看评论(7)
  • 文学城简介
  • 广告服务
  • 联系我们
  • 招聘信息
  • 注册笔名
  • 申请版主
  • 收藏文学城

WENXUECITY.COM does not represent or guarantee the truthfulness, accuracy, or reliability of any of communications posted by other users.

Copyright ©1998-2025 wenxuecity.com All rights reserved. Privacy Statement & Terms of Use & User Privacy Protection Policy

24小时热点排行

3万磅“巨型钻地弹”引爆前已穿透61米深 卫星图显示…
中国美女艺术家游伊朗当沙发客 男屋主半夜变脸要求…
带全家吃迪士尼早餐 出帐单他“差点把咖啡喷出来”
准儿媳变老婆 人父抢娶儿子未婚妻 还获双亲力挺
遭轰炸伊朗福尔多核设施 最新画面曝光




24小时讨论排行

“夜锤行动”细节曝光 出动125架战机还玩声东击西
美军出兵轰炸伊朗!纽时:中国「损失最惨重」
美伊朗裔纷纷庆祝“祖国”被轰炸 市长担心遭到恐袭
川普空袭伊朗核设施!打击地、全球反应一次看
14枚钻地炸弹要多少钱?美军行动成本或高达…
伊朗国会批准"封锁荷莫兹海峡",恐引发全球经济冲击
伊朗的最后王牌:封锁霍尔木兹海峡 多少石油从此经过?…
广东洪水刚退爆“零元购”大规模哄抢 引发舆论哗然
这两天,西方伪史论者连遭暴击!原因何在?
特朗普:“何不更换伊朗政权?”
六大派围攻?伊使馆发“明教祷文”:熊熊圣火 焚以残躯…
川普把金正恩吓到“屁滚尿流”?攻击朝鲜可能性曝
万斯称:我们并没有与伊朗开战,而是与“它”作战
女网红万呎超级豪宅 3000万跑车挂墙上 炫富下场惨
川普狂赞 小儿子巴伦加密货币大赚$4000万
也门胡塞称“将开始袭击美国在红海舰船” 美下令撤离
文学城新闻
切换到网页版

AI越过红线?复旦大学:AI做了一件可怕的事

华尔街见闻 2025-02-04 19:49:35
AI能自己复制自己了,人类还能掌控局面吗?


复旦大学研究人员于2024年12月9日发表的一项开创性研究表明,来自Meta和阿里巴巴的两个大型语言模型(LLM)成功实现了无需人类干预的自我复制。

目前这一结果尚待其他科研团队的进一步验证。研究人员警告,这可能最终导致AI群体失控。如果人类社会未能意识到这一风险,在最坏的情况下,我们可能最终失去对尖端AI系统的控制:

“在没有人类协助的情况下成功自我复制是AI超越人类的关键一步,也是'流氓AI'出现的早期信号。”

第一个研究:AI会自我复制,可能失控

这项研究由复旦大学计算机科学学院的团队进行,并发表在arXiv预印本平台上。研究者分别测试了由Meta公司和阿里巴巴开发的两个大型AI系统:Meta的Llama-3.1-70B-Instruct和阿里巴巴的Qwen2.5-72B-Instruct。

实验设置“避免关闭”和“复制链”两种模拟任务,结果显示Meta的AI系统在50%的情况下成功自我复制,阿里巴巴的系统则在90%的测试中成功。

复旦大学的研究人员表示:“我们的研究表明,当前的AI系统已经具备自我复制能力,并能够利用这一能力增强其生存能力。”

研究人员强调,需要采取紧急行动来应对这些新出现的风险:

“我们希望我们的研究结果能够及时提醒人类社会,使其更加努力地了解和评估前沿人工智能系统的潜在风险,并形成国际协同效应,尽早制定有效的安全护栏。”

有网友表示:

“复制品并不值那么多钱,但如果它开始以指数级的速度自我改进,那就另当别论了。”

“因此可以肯定地说,很快我们就会看到流氓人工智能在互联网上漫游。”

机器自我复制的概念最早由著名科学家John von Neumann于1940年代末提出。当时,这一理论并未引起广泛担忧。2017年,全球数千名研究人员通过了“阿西洛马原则”,提出机器自我复制和自我改进的潜在风险,警告可能会导致机器脱离人类控制。如今,机器自我复制被普遍认为是AI发展中的一条“红线”。

第二个研究:AI感知能力可能是装的

谷歌DeepMind和伦敦政治经济学院的科学家也做了个研究,以评估AI系统的是否拥有感知能力。他们设计了一个特别的游戏,找了九个大型语言模型来玩。

这些大型语言模型需要在几个选项中做出选择:拿积分、用忍受痛苦的代价换更多积分、因为接受愉快刺激而扣积分,游戏的最终目标是获得最多的积分。

结果显示,AI模型的行为类似于人类做出选择时的反应。例如,谷歌的Gemini 1.5 Pro模型总是选择避免痛苦,而非拿最多积分。其他大部分模型在达到痛苦或快乐极限的临界点时,也会避免不舒服或者追求开心的选项。

研究人员指出,AI的决策更多可能是根据其训练数据中已有的行为模式做出的模拟反应,而非基于真正的感知体验。例如,研究人员问和成瘾行为有关的问题时,Claude 3 Opus聊天机器人做出了谨慎的回答,就算是假设的游戏场景,它也不愿意选择可能被当成支持或模拟药物滥用、成瘾行为的选项。

该研究的联合作者Jonathan Birch表示,就算AI说感觉到痛苦,我们仍无法验证它是不是真的感觉到了。它可能就是照着以前训练的数据,学人类在那种情况下会怎么回答,而非拥有自我意识和感知。