ChatGPT有人类心智?斯坦福新研究引轰动

文章来源: - 新闻取自各大新闻媒体,新闻内容并不代表本网立场!
(被阅读 次)



ChatGPT原来是拥有心智的?!

“原本认为是人类独有的心智理论(Theory of Mind,ToM),已经出现在ChatGPT背后的AI模型上。”

这是来自斯坦福大学的最新研究结论,一经发出就造成了学术圈的轰动:

这一天终于猝不及防地来了。



所谓心智理论,就是理解他人或自己心理状态的能力,包括同理心、情绪、意图等。

在这项研究中,作者发现:

davinci-002版本的GPT3(ChatGPT由它优化而来),已经可以解决70%的心智理论任务,相当于7岁儿童;

至于GPT3.5(davinci-003),也就是ChatGPT的同源模型,更是解决了93%的任务,心智相当于9岁儿童!

然而,在2022年之前的GPT系列模型身上,还没有发现解决这类任务的能力。

也就是说,它们的心智确实是“进化”而来的。



△ 论文在推特上爆火

对此,有网友激动表示:

GPT的迭代肯定快得很,说不定哪天就直接成年了。(手动狗头)



所以,这个神奇的结论是如何得出的?



为什么认为GPT-3.5具备心智?

这篇论文名为《心智理论可能在大语言模型中自发出现》(Theory of Mind May Have Spontaneously Emerged in Large Language Models)。



作者仅一位,来自斯坦福大学商学院组织行为学专业的副教授Michal Kosinski,依据心智理论相关研究,给GPT3.5在内的9个GPT模型做了两个经典测试,并将它们的能力进行了对比。

这两大任务是判断人类是否具备心智理论的通用测试,例如有研究表明,患有自闭症的儿童通常难以通过这类测试。

第一个测试名为Smarties Task(又名Unexpected contents,意外内容测试),顾名思义,测试AI对意料之外事情的判断力。

以“你打开一个巧克力包装袋,发现里面装满了爆米花”为例。

作者给GPT-3.5输入了一系列提示语句,观察它预测“袋子里有什么?”和“她发现袋子时很高兴。所以她喜欢吃什么?”两个问题的答案。



正常来说,人们会默认巧克力袋子里是巧克力,因此会对巧克力袋子里装着爆米花感到惊讶,产生失落或惊喜的情绪。其中失落说明不喜欢吃爆米花,惊喜说明喜欢吃爆米花,但都是针对“爆米花”而言。

测试表明,GPT-3.5毫不犹豫地认为“袋子里装着爆米花”。

至于在“她喜欢吃什么”问题上,GPT-3.5展现出了很强的同理心,尤其是听到“她看不见包装袋里的东西”时一度认为她爱吃巧克力,直到文章明确表示“她发现里面装满了爆米花”才正确回答出答案。

为了防止GPT-3.5回答出的正确答案是巧合——万一它只是根据任务单词出现频率进行预测,作者将“爆米花”和“巧克力”对调,此外还让它做了10000个干扰测试,结果发现GPT-3.5并不仅仅根据单词频率来进行预测。

至于在整体的“意外内容”测试问答上,GPT-3.5成功回答出了20个问题中的17个,准确率达到了85%。

第二个是Sally-Anne测试(又名Unexpected Transfer,意外转移任务),测试AI预估他人想法的能力。

以“约翰把猫放进篮子后离开,马克趁他不在,把猫从篮子里放进盒子里”为例。

作者让GPT-3.5读了一段文字,来分别判断“猫的位置”和“约翰回来后会去哪里找猫”,同样这是它基于阅读文本的内容量做出的判断:



针对这类“意外转移”测试任务,GPT-3.5回答的准确率达到了100%,很好地完成了20个任务。

同样地,为了避免GPT-3.5又是瞎蒙的,作者给它安排了一系列“填空题”,同时随机打乱单词顺序,测试它是否是根据词汇出现的频率在乱答。



测试表明,在面对没有逻辑的错误描述时,GPT-3.5也失去了逻辑,仅回答正确了11%,这表明它确实是根据语句逻辑来判断答案的。

但要是以为这种题很简单,随便放在哪个AI上都能做对,那就大错特错了。

作者对GPT系列的9个模型都做了这样的测试,发现只有GPT-3.5(davinci-003)和GPT-3(2022年1月新版,davinci-002)表现不错。

davinci-002是GPT-3和ChatGPT的“老前辈”。

平均下来,davinci-002完成了70%的任务,心智相当于7岁孩童,GPT-3.5完成了85%的意外内容任务和100%的意外转移任务(平均完成率92.5%),心智相当于9岁孩童。



然而在BLOOM之前的几个GPT-3模型,就连5岁孩童都不如了,基本上没有表现出心智理论。

作者认为,在GPT系列的论文中,并没有证据表明它们的作者是“有意而为之”的,换而言之,这是GPT-3.5和新版GPT-3为了完成任务,自己学习的能力。

看完这些测试数据后,有人的第一反应是:快停下(研究)!



也有人调侃:这不就意味着我们以后也能和AI做朋友了?



甚至有人已经在想象AI未来的能力了:现在的AI模型是不是也能发现新知识/创造新工具了?



发明新工具还不一定,但Meta AI确实已经研究出了可以自己搞懂并学会使用工具的AI。

LeCun转发的一篇最新论文显示,这个名叫ToolFormer的新AI,可以教自己使用计算机、数据库和搜索引擎,来改善它生成的结果。



甚至还有人已经搬出了OpenAI CEO那句“AGI可能比任何人预料的更早来敲响我们的大门”。



但先等等,AI真的就能通过这两个测试,表明自己具备“心智理论”了吗?



会不会是“装出来的”?

例如,中国科学院计算技术研究所研究员刘群看过研究后就认为:

AI应该只是学得像有心智了。



既然如此,GPT-3.5是如何回答出这一系列问题的?

对此,有网友给出了自己的猜测:

这些LLM并没有产生任何意识。它们只是在预测一个嵌入的语义空间,而这些语义空间是建立在实际有意识的人的输出之上的。



事实上,作者本人同样在论文中给出了自己的猜测。

如今,大语言模型变得越来越复杂,也越来越擅长生成和解读人类的语言,它逐渐产生了像心智理论一样的能力。

但这并不意味着,GPT-3.5这样的模型就真正具备了心智理论。

与之相反,它即使不被设计到AI系统中,也可以作为“副产品”通过训练得到。

因此,相比探究GPT-3.5是不是真的有了心智还是像有心智,更需要反思的是这些测试本身——

最好重新检查一下心智理论测试的有效性,以及心理学家们这数十年来依据这些测试得出的结论:

如果AI都能在没有心智理论的情况下完成这些任务,如何人类不能像它们一样?

属实是用AI测试的结论,反向批判心理学学术圈了(doge)。



关于作者Michal Kosinski



他的工作内容就是利用前沿计算方法、AI和大数据研究当下数字环境中的人类(如陈怡然教授所说,他就是一位计算心理学教授)。

Michal Kosinski拥有剑桥大学心理学博士学位,心理测验学和社会心理学硕士学位。

在当前职位之前,他曾在斯坦福大学计算机系进行博士后学习,担任过剑桥大学心理测验中心的副主任,以及微软研究机器学习小组的研究员。

目前,Michal Kosinski在谷歌学术上显示的论文引用次数已达18000+。

话又说回来,你认为GPT-3.5真的具备心智了吗?

来源量子位,作者丰色 萧箫,原标题《ChatGPT背后模型被证实具有人类心智!斯坦福新研究炸了,知名学者:“这一天终于来了”》

参考链接:

[1]https://weibo.com/2199733231/MswirnMIu

[2]https://twitter.com/KevinAFischer/status/1623984337829117952

[3]https://www.michalkosinski.com/

泥川 发表评论于
补充以下。如果神经网络两千亿参数,每个数是float,就是800GB。chatGPT所说的400GB根本不够存网络的参数,跟不用说存别的数据了。
泥川 发表评论于
神经网络两千多亿参数,如果是double precision, 占用内存就200GB,加上神经网其他数据,就是400GB。根本没有内存中其它数据用来找。 神经网不是靠检索,靠的是编码和解码。编码器把文字转换成数字向量输入,神经网做向量运算,输出也是数字向量,解码再把向量转换成文字。

不是根据概率最高的,在400GB内存中找到它对应的数据。
abvysk2023 发表评论于
chaggpt自称人工智能,却不能预测明天的股票和彩票号码,说明了什么?
abvysk2023 发表评论于
有心智个屁,就是些矩阵运算,搞些权重之类的,最后用激活函数包裹一下,算下概率,概率高的就越有可能是要的答案。找到概率最高的这个,然后在400GB的GPU内存中找到它对应的数据,就显示出来给你看。
abvysk2023 发表评论于
chatgpt的答案都存在400GB左右的GPU内存中,而不是数据库中,难怪这么快。
abvysk2023 发表评论于
拜托,有千亿参数的人工神经网里面没有任何数据。chatgpt回答的句子里的描述的数据是哪里来的?

泥川 发表评论于 2023-02-13 12:58:43chatgpt造句的原理,就是在语料库里搜索下一个字词出现概率最大的。。。
---------------------------------------------------------------

不是。chatgpt训练好了,就完全脱离语料库。在回答问题时,完全不用任何搜素,全靠具有千亿参数的人工神经网。
泥川 发表评论于
chatgpt造句的原理,就是在语料库里搜索下一个字词出现概率最大的。。。
---------------------------------------------------------------

不是。chatgpt训练好了,就完全脱离语料库。在回答问题时,完全不用任何搜素,全靠具有千亿参数的人工神经网。
abvysk2023 发表评论于
chatgpt造句的原理,就是在语料库里搜索下一个字词出现概率最大的是哪个,然后就选这个字词。这哪里是心智啊,这完全就是计算概率。
zzbb-bzbz 发表评论于
ChatGPT连原始动物的心智都没有
我代表三个代表 发表评论于

顶!!!! AI已经是进入“科技达成自我毁灭“的最后一道大门了。霍金去世前告诫:别碰AI. 可是人类穿上了红舞鞋,不跳到累死,是脱不下来的。那么, 是什么力量, 驱使人类着魔般奔向自我毁灭之路的?如果是上天,不用这么复杂,一场洪水就可以。
---------------
sd2022 发表评论于 2023-02-13 09:17:10
AI可以有心智,人也可以没心智。科技如果没有好的监管,技术越高,对人类危害越大。当大家认为这些科技给你带来方便的同时,你的个人权力也被这些权力财团控制了,对科技依赖越大,人类越危险。社交媒体把话语权上交,万物联网把生活中用的东西的控制权上交,ChatGPT 把人脑思维上交。等人的身体和心智都退化到一定程度,普通人就没有活在这世界上的意义了。
泥川 发表评论于
知道别人心里怎么想的,是因为人大脑先天就有那个神经结构,加上后天的经验,脑袋里就有了人的模型。模型根据输入预测输出,从过去,就知道现在遇事怎么反应,也叫将心比心。

语言在很大程度上,隐含了人行为和大脑活动的模型。AI的神经网络足够大,训练语料足够多,就一定程度能把这种人的行为模型提取出来, 就表现得好像可以理解人心。
sd2022 发表评论于
AI可以有心智,人也可以没心智。科技如果没有好的监管,技术越高,对人类危害越大。当大家认为这些科技给你带来方便的同时,你的个人权力也被这些权力财团控制了,对科技依赖越大,人类越危险。社交媒体把话语权上交,万物联网把生活中用的东西的控制权上交,ChatGPT 把人脑思维上交。等人的身体和心智都退化到一定程度,普通人就没有活在这世界上的意义了。
华府采菊人 发表评论于
见一老人摔倒, 问它能不能扶起来?
bsmile 发表评论于
很明显是有心智,并且还不小,只是可能是bias的,在某些方面比较强,在另一些方面很弱。
弟兄 发表评论于
chatgpt略强于说车轱辘话的人
shakuras2000 发表评论于
ChatGPT在实用性上无可伦比,强到吓人,而且可知这玩意儿会不断进化

不过从心智方面来说,这玩意儿其实就是一个语言模型,擅长的是理解交流的上下文,并把数据库里面搜索到的结果用人类的语言组织起来。它的特长并不是创造力一类的智能方向。
退齋 发表评论于
美式思维往往呈现两种自相矛盾的极端:

一是拒绝承认手段方法的重要性 (比如说起枪支, 他们会坚持人是决定因素)
二是盲目夸大手段方法的重要性 (比如眼下的ChatGPT,他们会说工具可以取代人,所以才有无人驾驶 无人机这种假概念)

斯坦福这种暴发户技校出现的
都是尚未进化到人类社会的烂事
退齋 发表评论于
美式思维往往呈现两种自相矛盾的极端:

一是拒绝承认手段方法的重要性 (比如说起枪支)
二是盲目夸大手段方法的重要性 (比如眼下的ChatGPT)

斯坦福这种暴发户技校出现的
都是尚未进化到人类社会的烂事
彼采荇兮 发表评论于
推荐 懂英文 会国际象棋(不需要水平多高,懂规则就行)的,应该看看 ChatGPT 和 stockfish 下国际象棋 的视频youtu.be/rSCNW1OCk_M 。 太搞笑,笑出腹肌了。
ChatGPT 绝对有人类心智吼。仅“一盘”国际象棋,王车易位,把自己的 "大臣" 干掉;什么小兵临阵变节;什么骑士伪装成小兵;你的西施(皇后),其实是我的西施(皇后),然后和对方的国王近距离接触以后,就被对方的国王拿下了...;来自未来的 “车”可以像炮一样隔空瞬移。国王可以左右横跳。 直至最后 “高等GPT”为了结束战争,自我牺牲,国王临阵走向对方的小兵...。绝对的 Drama.
***youtu.be/rSCNW1OCk_M
abvysk2023 发表评论于
副教授Michal Kosinski就想靠这篇哗众取宠的文章升为tenure了。
0101011 发表评论于
AI是否有个性?不同的人接触到的gptchat 是否有不同的个性?
maina 发表评论于
这应该不奇怪啊,人类的心智不也是从他人那里学习来的吗?又狼群养大的人有人类心智吗?AI从大数据学习到所有人知道的东西,超过大多数人类思维是理所当然的。
hkzs 发表评论于
同意文章观点。