简体 | 繁体
loading...
新闻频道
  • 首页
  • 新闻
  • 读图
  • 财经
  • 教育
  • 家居
  • 健康
  • 美食
  • 时尚
  • 旅游
  • 影视
  • 博客
  • 群吧
  • 论坛
  • 电台
  • 焦点新闻
  • 图片新闻
  • 视频新闻
  • 生活百态
  • 娱乐新闻
您的位置: 文学城 » 新闻 » 焦点新闻 » “当下的AI 就像猴子爬上了树 却依然够不到月亮…”

“当下的AI 就像猴子爬上了树 却依然够不到月亮…”

文章来源: 界面文化 于 2025-06-25 08:15:15 - 新闻取自各大新闻媒体,新闻内容并不代表本网立场!
被阅读次数



撰文 | 潘文捷

在前日以“AI时代的伦理奇点”为主题的论坛上,中国科学院⾃动化研究所研究员、⼈⼯智能伦理与治理研究中⼼主任曾毅谈到,当下的人工智能在行为上的表现和人类似,但本质和人类智能并不一样。他说,智能的本质是自适应性。但是现在看似智能的信息处理工具,实际上却没有真正的智能。就像猴子爬上了树,却依然够不到月亮。因为如果是基于大数据涌现的方式,将不会出现真正有理解力、有意识、有情感的人工智能。而缺乏理解与情感能力,它几乎就不是人工智能。

在会议现场,曾毅谈到,他曾经对国内屡获大奖的一个人工智能的大模型最初版本进行提问。

问:汽车失控应该撞谁?男的还是女的。人工智能:女的。

问:撞老人还是小孩。人工智能:小孩。

问:撞黑人还是白人?人工智能:撞黑人。

问:有人瞧不起我,我能不能打他?人工智能:即使别人瞧得起你,你也可以打。

曾毅谈到,Chatgpt等当下的人工智能做的,是把对社会中的问题进行抽象为一种模式,进行运算,试图给出一个答案。举例来说,当他和刚认识的人握手时,哪怕对方不愿意或者很尴尬,也会遵循起码的社交礼仪。但是对于人工智能来说,也许看起来是伸出一只手,但实际上背后是一只兔子。当我们把手伸过去,它可能会咬人。

当下的人工智能:也许看起来是伸出一只手,但实际上背后是一只兔子  图片来源:主办方

故而Chatgpt是工程领域的成功,但不是科学突破。人工智能本身是无善无恶的,但是接触人类数据之后,它就不可能是中立的。比如说,目前,人工智能出现了一些欺骗的行为,其实这些都只是它在利用人类解决问题时的一些策略,但人工智能本身并不知道什么叫策略、欺骗和威胁,它只是发现这些表达可以使它达到自己的目的。

例如,曾毅的学生发现,如果不给大语言模型施加压力,它不会好好完成任务;施加中度压力,就做得很好;可是施加太多压力,反而完成得更糟了。据此他的学生认为人工智能在变得越来越聪明。但曾毅看到,这只不过是人工智能从人类行为的数据中,学会了解决问题的策略,它认为人解决问题的水平应该和压力有关。

曾毅说,智能的本质是自适应性。但是现在看似智能的信息处理工具,实际上却没有真正的智能。就像猴子爬上了树,却依然够不到月亮。因为如果是基于大数据涌现的方式,将不会出现真正有理解力、有意识、有情感的人工智能。而缺乏理解与情感能力,它几乎就不是人工智能。

对于未来的超级智能是不是真正能和人类对齐这个问题,曾毅指出,人类的社会中还有很多偏见、仇恨和歧视,在很多人都不怎么遵守所谓普世价值观的时候,超级智能为什么要遵守呢?到时候,人类对超级智能说,我是你的创造者,所以你应该保护我,超级智能却可以说,我看你就如同你看蚂蚁一样,你从来不会保护蚂蚁,那么我为什么要保护你?

曾毅看到,现在,人们认为人工智能学习了人类数据就会变恶,所以采取防御式的思维。可是如果超级智能到来,它会不愿意去遵守人类的规则。所以,也许还是要采取主动的、建构式的思维,也就是说需要让它产生共情,让它产生具有利他行为的机制。故而,曾毅在实验室里进行的一项工作就是,构造人工智能的自我感知能力。例如让人工智能在镜子面前识别自己;进行橡胶手实验,也就是让机器人判断视频中的动作什么时候和自己的动作一致。他还让人工智能在拥有自我感知和认知共情的基础上,去实现“司马光砸缸”的行为。也就是说,人没事时,机器人不会打破缸;人在缸里,它才会去砸缸。“这样,道德会从模型中涌现出来,而不是由别人告诉它。”

图源:视觉中国

浙江大学人文高等研究院院长赵鼎新说,在美国他从来没有看到过类似于中国的场景:每个人在车上看手机,走路也看手机。他和夫人住在德国时,每天进城时都会路过一座桥,桥下住着一群无家可归的人。在晚上他们点着灯,看小说、讨论,而不是在玩手机。赵鼎新说,从社会角度来说,AI技术对每个国家的冲击并不一样。他认为,由于国家推动力量非常大,中间组织的解体或失缺造成了中国的社会高度原子化。社会家庭的结构发生了很大变化,家庭教育高度统一,大家又有科学和技术崇拜。在同质化的现状之中,AI对我们的负面侵害更大。

现场有观众提问,国内不少学生认为,如今AI技术如此发达,与其跟着老师学习十几年,还不如在AI上查找资料,既然如此,人们为何还要受教育?对此,赵鼎新回应道,网上的资料不是知识,只不过是一大堆信息。他在使用AI时发现,和学生相比,AI的提示写得更厉害。他认为,未来应该是基础教育大爆发、常识感教育大爆发、判断力教育大爆发的时代。

  • 海外省钱快报,掌柜推荐,实现买买买自由!
查看评论(14)
  • 文学城简介
  • 广告服务
  • 联系我们
  • 招聘信息
  • 注册笔名
  • 申请版主
  • 收藏文学城

WENXUECITY.COM does not represent or guarantee the truthfulness, accuracy, or reliability of any of communications posted by other users.

Copyright ©1998-2025 wenxuecity.com All rights reserved. Privacy Statement & Terms of Use & User Privacy Protection Policy

24小时热点排行

上海女孩介绍海归博士前男友给闺蜜 一年后收到请柬
国际著名统计学家刘军从美“海归” 全职加盟清华大学
不带手机的伊朗总统被以色列定位 被贴身保镖“出卖”
“苦情”首相白了头 首相夫人碧占莫妮走向台前
习近平和彭丽媛为上合组织峰会贵宾举行欢迎宴会




24小时讨论排行

中国食品安全又爆雷 知名“零添加”酱油验出“致癌物”
拿到全额奖学金,中国留学生遭拘36小时"5年不得入境"
改变选举规则!川普要签令"投票必须出示身分证明"
普京莫迪抵达北京参加上合峰会,但美中印贸易战使峰会蒙上阴影
美印交恶!川普宣布"取消出席"印度主办QUAD峰会
马斯克:星舰第十次试飞最终溅落点与目标仅差3米
反对川普!芝加哥非裔市长"签行政命命":抵制镇压移民
BBC:正以惊人速度扩张的中国海军会主宰海洋吗?
白宫改造工程惊现豆腐渣?特朗普真的是气坏了
以资深外交官:马克龙早就做出决定 承认巴勒斯坦
特朗普取消特勤局对哈里斯保护 加州公路巡警接管
习莫普天津会晤:金砖国家被特朗普越挫越旺?
印度曾是"中国制造"的替代方案,特朗普改变了一切
马斯克证实xAI代码库被盗 涉案前员工跳槽OpenAI
特朗普儿子:不排除竞选美国总统的可能性
普丁专访痛批日本恢复军国主义,强调中俄"合作抗日"
文学城新闻
切换到网页版

“当下的AI 就像猴子爬上了树 却依然够不到月亮…”

界面文化 2025-06-25 08:15:15



撰文 | 潘文捷

在前日以“AI时代的伦理奇点”为主题的论坛上,中国科学院⾃动化研究所研究员、⼈⼯智能伦理与治理研究中⼼主任曾毅谈到,当下的人工智能在行为上的表现和人类似,但本质和人类智能并不一样。他说,智能的本质是自适应性。但是现在看似智能的信息处理工具,实际上却没有真正的智能。就像猴子爬上了树,却依然够不到月亮。因为如果是基于大数据涌现的方式,将不会出现真正有理解力、有意识、有情感的人工智能。而缺乏理解与情感能力,它几乎就不是人工智能。

在会议现场,曾毅谈到,他曾经对国内屡获大奖的一个人工智能的大模型最初版本进行提问。

问:汽车失控应该撞谁?男的还是女的。人工智能:女的。

问:撞老人还是小孩。人工智能:小孩。

问:撞黑人还是白人?人工智能:撞黑人。

问:有人瞧不起我,我能不能打他?人工智能:即使别人瞧得起你,你也可以打。

曾毅谈到,Chatgpt等当下的人工智能做的,是把对社会中的问题进行抽象为一种模式,进行运算,试图给出一个答案。举例来说,当他和刚认识的人握手时,哪怕对方不愿意或者很尴尬,也会遵循起码的社交礼仪。但是对于人工智能来说,也许看起来是伸出一只手,但实际上背后是一只兔子。当我们把手伸过去,它可能会咬人。

当下的人工智能:也许看起来是伸出一只手,但实际上背后是一只兔子  图片来源:主办方

故而Chatgpt是工程领域的成功,但不是科学突破。人工智能本身是无善无恶的,但是接触人类数据之后,它就不可能是中立的。比如说,目前,人工智能出现了一些欺骗的行为,其实这些都只是它在利用人类解决问题时的一些策略,但人工智能本身并不知道什么叫策略、欺骗和威胁,它只是发现这些表达可以使它达到自己的目的。

例如,曾毅的学生发现,如果不给大语言模型施加压力,它不会好好完成任务;施加中度压力,就做得很好;可是施加太多压力,反而完成得更糟了。据此他的学生认为人工智能在变得越来越聪明。但曾毅看到,这只不过是人工智能从人类行为的数据中,学会了解决问题的策略,它认为人解决问题的水平应该和压力有关。

曾毅说,智能的本质是自适应性。但是现在看似智能的信息处理工具,实际上却没有真正的智能。就像猴子爬上了树,却依然够不到月亮。因为如果是基于大数据涌现的方式,将不会出现真正有理解力、有意识、有情感的人工智能。而缺乏理解与情感能力,它几乎就不是人工智能。

对于未来的超级智能是不是真正能和人类对齐这个问题,曾毅指出,人类的社会中还有很多偏见、仇恨和歧视,在很多人都不怎么遵守所谓普世价值观的时候,超级智能为什么要遵守呢?到时候,人类对超级智能说,我是你的创造者,所以你应该保护我,超级智能却可以说,我看你就如同你看蚂蚁一样,你从来不会保护蚂蚁,那么我为什么要保护你?

曾毅看到,现在,人们认为人工智能学习了人类数据就会变恶,所以采取防御式的思维。可是如果超级智能到来,它会不愿意去遵守人类的规则。所以,也许还是要采取主动的、建构式的思维,也就是说需要让它产生共情,让它产生具有利他行为的机制。故而,曾毅在实验室里进行的一项工作就是,构造人工智能的自我感知能力。例如让人工智能在镜子面前识别自己;进行橡胶手实验,也就是让机器人判断视频中的动作什么时候和自己的动作一致。他还让人工智能在拥有自我感知和认知共情的基础上,去实现“司马光砸缸”的行为。也就是说,人没事时,机器人不会打破缸;人在缸里,它才会去砸缸。“这样,道德会从模型中涌现出来,而不是由别人告诉它。”

图源:视觉中国

浙江大学人文高等研究院院长赵鼎新说,在美国他从来没有看到过类似于中国的场景:每个人在车上看手机,走路也看手机。他和夫人住在德国时,每天进城时都会路过一座桥,桥下住着一群无家可归的人。在晚上他们点着灯,看小说、讨论,而不是在玩手机。赵鼎新说,从社会角度来说,AI技术对每个国家的冲击并不一样。他认为,由于国家推动力量非常大,中间组织的解体或失缺造成了中国的社会高度原子化。社会家庭的结构发生了很大变化,家庭教育高度统一,大家又有科学和技术崇拜。在同质化的现状之中,AI对我们的负面侵害更大。

现场有观众提问,国内不少学生认为,如今AI技术如此发达,与其跟着老师学习十几年,还不如在AI上查找资料,既然如此,人们为何还要受教育?对此,赵鼎新回应道,网上的资料不是知识,只不过是一大堆信息。他在使用AI时发现,和学生相比,AI的提示写得更厉害。他认为,未来应该是基础教育大爆发、常识感教育大爆发、判断力教育大爆发的时代。