AGI的脚步声正在逼近,但真正思考“后AI时代社会”的人却寥寥无几。
当OpenAI、谷歌、Meta等科技巨头的领袖们轮番预言AGI(通用人工智能)将在未来几年内突破,当英伟达的黄仁勋高声断言“AGI将在5年内实现”时,AI学术界却普遍在担忧:无论是政府、产业,还是整个社会,我们都尚未为那个即将到来的世界做好准备。
与此同时,在国内,大量文章热衷于讨论AI技术迭代与商业模式创新,但真正深入思考“后AI时代社会将如何运转”的声音却异常稀少。更鲜有人能够搭建一套完整的理论框架,去系统性描绘
AI 时代可能带来的社会、经济、政治与伦理的全景变革。
然而,这恰恰是当下最紧迫、最被忽视的问题。
当人类工作可能被AI取代,当经济体系即将完全变革,当人类社会的基本运行逻辑即将被彻底重写时,我们不能只是被动地等待未来。
这场深度对话,将尝试首次勾勒出 “后 AI 时代社会学”
的雏形,去理解、去推演、去预判,在那个未来,我们将如何工作、如何生活、如何治理,以及如何保持人类的主体性。
和我们一起探索这一话题的是张笑宇,一个研究政治哲学20年的学者。
他毕业于北京大学的政治学系,后在柏林自由大学完成哲学博士。从博士开始,他就试图揭开技术、商业与国家命运之间错综复杂的关系。
在其近作《AI文明史·前史》中,张笑宇尝试勾勒的并非一幅技术路线图,而是描绘出了一个完整的“后AI时代”社会变迁的图景。
无论你是否认同他的预测,这都可以是我们理解未来的一个起点。
1. 被忽视了2000年的基础性影响:技术
郝博阳:
关于AI技术,我们之前已经看到了很多文章,但是具体在AI时代之后,我们的人生、生活、政治以及经济会往什么样的方向发展?目前在学界中讨论的也并不是特别多。今天我们正好有这个机会,请对此深有研究的张笑宇老师来和我们一起聊聊这个话题。
张笑宇: 大家好,我是张笑宇,我本人是独立学者、非虚构作家。我写过“文明三部曲”,就是《技术与文明》、《商贸与文明》、《产业与文明》。我比较关注技术对社会和文明的长期影响。
郝博阳: 你是从人大、北大,然后到柏林自由大学,一直都研究政治学。您是从什么时候开始觉得AI会对社会有比较大的影响的?
张笑宇: 其实我之前的写作,也就是“文明三部曲”,第一本就是《技术与文明》,那个时候我已经开始关注宏观层面上技术对人类文明的影响。
我博士是在德国读的。去德国的理工科留学生比较多,我们当时组建了一个小会,是柏林的华人留学生,每两周聚一次,讨论各自最近在研究什么。
当时我遇到了很多跨学科的人。比如,有一位研究脑神经科学的朋友,给我看了一篇论文说,现在已经可以进行记忆移植的实验了:就是把小白鼠脑子里的某种物质提取出来,然后注射到另外一个小白鼠体内,它的一些记忆是可以移植过去的。然后他问我:“从你们哲学的角度来讲,人的自我认同这些,你怎么解读?”
我说,我解读不了。
那一刻,我受到的冲击很大——我们当时还在读2000年前的文献,然而现实世界已经是这个样子了。
我是一个很笨的人,我想这个事我弄不懂,我就得想办法去弄懂它,然后回答它。
所以那个时候我就开始琢磨,技术对我们今天的人文思考、社会治理、制度结构到底有什么基础性的影响。
后面很自然地就会接续到AI上,因为这可能是我们今天这个时代看到的最颠覆性、最具突破性的重大技术。
郝博阳: 你觉得技术对于整个世界运作的作用有多大?
张笑宇: 我觉得这个影响是特别基础性的。我现在看人类世界或者人类文明的演化史,会倾向于用这样一个框架:本质上,人类这个物种和族群是地球生物圈的某种函数。
底层的生态、气候、地理决定生物圈的分布,然后生物圈的分布会影响人群的分布,接下来,人类的政治、社会、生活又是人类这个物种族群演化的某种函数。而我们的思想、生活习惯、意识形态,又是这个政治社会生态的某种函数。
从这个角度来看,你会发现技术的作用非常根本。因为它可以改变族群的分布,以及你跟物理世界的交互方式,这是从最底层开始的改变。所以,以前的政治研究忽略掉了科技的影响,肯定是不行的。
郝博阳: 原来的政治研究基本上都没有人往技术这个方向去研究。
张笑宇: 因为人类在这个问题上没有自觉,一直到18、19世纪才开始。你可以想象,技术对我们整个现代社会价值观其实是个很严重的挑战。
如果你认为我们今天的现代政治价值观是建立在启蒙运动的基础上,那你就要意识到,卢梭是没有见过工业革命的。更近一点的托克维尔,他仅仅是在工业革命开始爆发的前沿,可能有一点思考,但是没有真正认真、严肃、深度地触及它的内核。
但是我们今天欧美社会的政治制度安排、基本的价值观,是建立在这些没见过工业革命的人的思想上面的。
郝博阳:但是后边也有马克思或者韦伯这样一些人去解释,但更多的可能是解释市场关系,而不是政治制度的模式。
张笑宇: 他们不把技术当做一个与社会制度分析直接相关的、特别重要的变量。
如果要说真正思考这个问题的人,我第一个想到的名字是凡勃伦,就是《有闲阶级论》的作者。他确实在书里讲过,工业社会对于中产阶级的影响,是让中产阶级的思维特别理性化,而上等阶级和下等阶级都不是这样想的。
为什么会特别理性化?因为当时的美国中产阶级在19世纪晚期,是被工业革命滋养起来的。你身在制造业的环境中,机器是理性化的,所以你认为这个世界也是理性化的。这是我看到的第一个特别有自觉的、关于机器怎么塑造人的底层世界观的思考。
郝博阳: 您研究AI差不多两三年了,在这个过程中您有什么想法上的转变吗?
张笑宇: 坦白讲,回到两三年前,不光是我,很多人都在思考,但那个时候我们更多是从“怎么办”去想的。
当时我们设想AI可能带来的很多挑战是很具体的,比如说虚假信息、伪造人脸、侵犯隐私权,或者AI未来代替人类工作,你需要有全民基本收入(UBI),需要有其他的治理模式等等。但是整体来讲,你都是在讨论“怎么办”。
两年过去之后,我发现其实比“怎么办”更重要的,是“怎么看”或者“怎么想”。
我的研究感觉更转向了一个非常结构性的重大冲击。就像蒸汽机改变人类社会之后,“怎么办”的人聚焦于蒸汽机可以为我们生产什么;但是“怎么看”或者“怎么想”的人就会想,蒸汽机在社会结构上完全淘汰了一个旧阶级,创造出很多新阶级。在这个新阶级里,比如说资本家和工人,他们的权力结构,其实是根据他们对机器的控制权的远近来分配的。
举个例子,其实在蒸汽机时代的工人话语权比石油时代更强。为什么?因为蒸汽机时代的工人可以直接决定煤炭能不能送到机器边上,那个时候一罢工就把老板的脖子卡住了。但是后来到了石油时代,能源运输用的是管道,是自动化的。自动化一定会让工人的话语权缩小,工人卡不了脖子了。
所以我觉得AI今天也是这样。我们已经意识到它可以对人类社会有一个整体的巨大冲击,所以你要提炼出几个基本的原理来观察它。
首先你要有一个自己的思维框架,这个思维框架是由一批原理构成的,是你去理解这个事情的思维方式。所以我现在主要的工作,就是在讨论这里面的基本原理有哪些。
2. 读懂AI时代社会的基本原理:涌现法则和人类当量
郝博阳:在这个AI时代,您发现的基本原理有哪些?
张笑宇:第一个叫涌现法则。简单说,就是当规模足够大、规则足够简单时,系统就能从低层次演化出高层次的复杂现象。比如,简单的细胞涌现出复杂的器官,简单的神经元涌现出大脑和意识。人工智能也是如此,最有名的就是Scaling
Law(规模法则),当模型规模足够大,智能就会自然涌现出来。
这个法则告诉我们什么?AI智能和人类智能的底层逻辑可能是一样的,所以我们没必要在“机器有没有灵魂”这种形而上的问题上纠结两千年。从实践角度看,只要你感受到它有智能,那它就是有智能的。
第二个基础,我称之为人类当量。这个词是OpenAI的人提的。它的意思是,我们可以用token(词元)来量化人类的智慧产出。我们聊天,我一分钟大概输出200个token,一天撑死了20万个。而机器,一秒钟就能处理100多万个。
郝博阳: 这听起来就跟马斯克说的带宽是一个道理。
张笑宇: 对,而且更重要的是它不仅很快,而且很便宜。今天100万token只要一块钱,而且这个价格还在不断下降。 你一天给我开一块钱工资,我会饿死,但是机器真的就是以5倍于我的效率,拿着一块钱的工资,而且它的质量已经足够高了。
今天的AI在情感上来讲已经通过了图灵测试,在智能上来讲已经达到了博士水准。这就意味着它可以取代99%的人类,因为人类拥有博士学位的人不到1%。这是一个更可怕的事情。
如果我们从一个很现实的角度相信,我们思维的价值最终是通过市场买单的,通过你的工资、股权或者回报来证明,那从市场价值的证明标准来讲,AI比人类便宜几千倍。
郝博阳:
AI既然已经超过了一般的博士水平,但是它还是没有办法在我们日常生活中对大部分工作进行替代,或者它没有产生足够强的经济性影响。这是为什么?
张笑宇: 我觉得这个只是时间问题。现在我们去讨论智能在经济社会结构里扮演的角色时,就涉及到一个概念,就是工作流(workflow)。
比如说你是一个大学毕业生,其实你的智能水平已经足够了,但是你去到咨询公司里还有很多东西要学。不是因为你不够聪明,是因为这个workflow你不熟悉,你不理解产品是怎样的、需求是怎样的,你要通过这个方式去训练。
我觉得同样的道理,今天的AI已经足够聪明了,但是它跟人之间的workflow还没有配合好。
今天很多企业其实都在做类似的探索,就是我怎么把AI运用到我的生产过程中。我一个在顶尖咨询公司的朋友说,他现在的工作方式是,先凭自己几十年的经验形成一个核心洞察(insight),这个AI替代不了。然后,他把这个洞察扔给ChatGPT,让它出大纲,再生成报告初稿,自己去修改。
他说,我现在已经不需要本科生、初级研究员来做这个工作了。
现在大量的专业人士,他们的workflow还没有习惯转变过来。而一旦这个习惯转变过来,我认为我们刚才说的“人类当量”这个效应,就会逐渐展开。
这就像3G时代,移动互联网的逻辑已经在那了,它注定要发生,只是需要时间慢慢展开。
3. 后AI时代的经济架构:通缩、重构与资本主义的延续
郝博阳: 那如果我们将这些规则转化成一些专用的Agent,就可能会覆盖到现在可能99%的人能做的一些工作了吗?
张笑宇: 对,其实我们在各个公司内部已经看到这个事情在发生。可能大众有一个想法,就是每一个科技革命都是那种特别戏剧性的(dramatic),有一个特别漂亮的产品出来之后告诉你一个新时代来临了。
现在不是这样的。其实现在真正发生的情况是,你还在用着那个产品,但它的底层逻辑已经被AI改变了,只是你不知道。
就好像你炒股,需要信息聚合,现在AI的信息聚合其实已经比我们传统的自媒体或者股票大V要专业了。但是你感受不出来,你还以为那个头部账号是人写的,其实已经不是了。
郝博阳: 和工业革命相比,AI 在经济活动中会拓展到什么样的范围?
张笑宇: 我觉得这个话题特别有意思。因为我觉得在经济效益上,至少我们这一代人看到的,AI的效益跟工业革命比如蒸汽机的效益是完全相反的。
如果我们简单来说的话,蒸汽机是一个(个人就业)通胀性的技术,AI是一个(个人就业)通缩性的技术。
为什么会这样?蒸汽机革命同时伴随着能源革命,我们从砍柴变成烧煤,煤的效率高很多,意味着你可以用更低的成本生产更多的东西。
生产东西的成本一旦降低,迎来的是产业链的延长。中世纪的产业链很简单,这边是牛,你把它皮剥了,做成鞋。蒸汽机来了之后,铁钉、锅炉、齿轮、火车等等,这个产业链延长了非常多。
每一条产业链的背后都是成千上万的、以前不存在的新公司,和成千上万的新工人。所以它是创造了一个巨大的黑洞来吸纳越来越多的就业人口。
但是1970年以后的自动化革命,这个过程是相反的。因为它是一个缩短产业链的技术革命。当然它在某些具体行业是延长的,比如说软件工程师更多了。但是整体来说,为什么有更多的软件工程师?是因为计算机和机器人取代了更多的蓝领工人。所以从整体社会现象来讲,是缩短了供应链的。
这是被经济史学家共同认可的。我们确实观察到,在第三次科技革命中,它对于整个人类GDP的提升是不如第二次的。所以我认为AI至少在一代人的时间里,会加速这个过程。
郝博阳:
但我有点好奇,因为现在主流经济学家都会认为,历次技术革命虽然导致了一些自动化,但也导致了更多工作岗位的出现。因为它提升了效率,增加了物质供给,从而产生了更多的个性化需求和新行业。
张笑宇: 其实经济学家对这个问题的思考,是到90年代后期,尤其是新世纪以来才算是有一些比较精确和科学的框架。之前大家都是相信那个技术革命的叙事,就是技术永远创造比替代更多的东西。
但是从90年代开始,很多经济学家真的去做了验证之后,发现并不是想的这么简单。罗伯特·J·戈登《美国增长的起落》里面有很有名的一句话,叫 “计算机去哪里了?”(Where
is the
computer?)。什么意思?就是第三次科技革命之后,到处都在用计算机,但是为什么我们没在人均GDP增长里看到计算机的效应?经济学里用TFP(全要素生产率)来衡量技术进步,为什么计算机出来之后这个数字没增长?他们去研究发现,实际上计算机在里面的替代效应比它创造新工作的效应要大得多。
再比如说去年得了诺贝尔经济学奖的阿塞莫格鲁教授,他这十年来最关心的就是自动化对就业的影响。他说你真正要问的是,这个技术有没有创造“新任务”,或者让大量的人去接触到他们原来接触不到的服务。如果有,会出现就业增长;但如果没有,那就是就业替代。
他举了ATM机的例子。ATM机前后是两段效应。第一阶段,它替代了大量的银行职员。但是到第二阶段,它又做到了一个事情:它降低了普通人享受银行服务的成本,所以银行修了更多的ATM网点,它的就业又反过来扩张了。
所以你要具体地去看这个技术会怎么样。但是如果我们去讨论AI,尤其是虚拟世界的效率,要注意到两个事情。第一,虚拟产品复制自己的成本是0,这就决定了它天然会快速扩张和垄断。第二,你对于虚拟世界的消费有一个很简单的极限,就是你的时间,每个人一天只有24小时。
有这两个效应在,这就是一个很简单的数学公式:你的供给增加得越快,它达到极限的速度就越快。AI在当前阶段,大概率无法像ATM一样开启创造就业的“第二阶段”。
因为它正以前所未有的效率,在虚拟世界这个“有限的需求池”里疯狂地替代人类已有的任务,却很难衍生出需要大规模人类参与的、全新的、更有价值的任务。
所以我认为,这就是我们去思考为什么AI目前可能暂时是个通缩逻辑的原因。当然我不排除之后这个逻辑会重新转变,比如在AI的帮助下我们去了火星,拓展了世界边界,那它可能重新增长。
但是在未来20年,一代人左右的时间里,可能大量的工作会被替代。随之而来的,是你失业的恐惧、你的焦虑等等,这些是我们这一代人要面临的一个特别严重的问题。
郝博阳: 能大概讲一讲这个替代的过程吗?
张笑宇: 我觉得智力活动要求越简单的行业就越容易被首先替代。比如客服已经几乎被完全替代,自动驾驶很快了。再接下来像一些管理,比如政府和企业内部的管理流程这些也都会很快。稍微慢一点的,可能像法律文书、咨询等等,但大量的初级岗位也很快会被替代。
我觉得可能特别难替代的是,该行业本身是个智力密集型行业,比如说研发、科研;而且是它最顶尖(top)的一批人,它要求的是你的洞察力(insight)。因为我们在日常体验中确实有些人就是能看到别人看不到的东西。这个东西跟人类的灵感和先验认知能力有关系,可能AI暂时还替代不了。但是辅助他的人,很快就可以被AI替代。所以所谓的护城河,其实就是看你的insight有多么独到、独创。
郝博阳:
你说的“insight”其实是一个相对比较模糊的概念。现在很多大厂都是数据驱动的决策模式,这在一定程度上跟AI做的事情没有太大差别。能具体讲一下“insight”是在这之上的哪些东西?
张笑宇: 其实你做数据分析就会知道,数据总是摆在那的,但是你用什么方式把这些数据连在一起,这个就考察你的insight。
有个特别有名的“幸存者偏差”的故事:要分析从战争中回来的飞机,看哪的弹片最多,然后加强那个地方?突然有一个人出来说不对,你看到的飞机都是飞回来的,这些地方受伤是因为这些地方不够重要。你会发现,没回来的那些飞机,它们中弹的地方才是真正致命的。所以他去加强那些部分的保护,才发现这个是管用的。这就是一种insight。
现在程序化的分析可以被替代,但是insight暂时确实替代不了。所以未来人类和AI的配合方式,至少可能一代人里,都是有insight的人,告诉AI说“你按照我的insight去做事”。
郝博阳: 从古代到现代,财富在积累,但贫富差距也在扩大。你觉得这跟科技有什么关系?AI时代会有什么变化?
张笑宇: 我觉得这背后可能不完全是科技的关系,而是人类社会本质上是地球生态圈函数的一部分。在大部分社会里面,人类的很多指标本质上就是指数分布,比如城市规模、贫富差距。
技术可以提升底线,比如能源从木柴变成煤炭,整个经济系统里的物质交换丰富度提升几倍,但系统内的分布,长期来看又会重新回到指数分布的状态。
AI会不会改变这个事情呢?长期来看,我猜测它发展成熟后,复杂性又会回到这个均衡状态。但是短期来看,它一定会有一个重大的震荡,就像从农业社会到工业社会的时候一样。
但是这不是就意味着物质极大丰富,社会主义到来了吗?又不是。因为你会发现另外一个资源变成稀缺了——算力。
那会不会将来人类出现一种锚定算力的、把算力当做硬通货的货币体系?这个新货币体系跟旧货币体系之间又会怎样演化?就像历史上拥有白银的国家跟农业国家之间会有巨大的战争一样,那会不会又出现数字世界、数字货币跟主权货币的巨大战争?
郝博阳: 这一代人中会面临的经济结构整体变化,会往什么方向发展?
张笑宇: 我觉得就是“1%对99%”。
AI确实在能力上可以替代99%,这中间会有一个巨大的阶层分化。有1%的人还不会被AI取代,当你不会被AI取代的时候,你当然就在这个社会结构中会更有优势,更有话语权。剩下的99%,你的工作、你的价值随时可以被AI取代。所以你在经济系统里没办法跟它竞争,可能会用一些非常让人难受的字眼来形容——“无用阶级”、“过剩阶级”,或者就是被淘汰的人。
这跟中世纪也不一样。中世纪你也可以说是1%的人统治99%,但是那时候物质极度稀缺,99%的人真的是会被饿死的。历史学家告诉我们,古代80%的人没有后代,因为他真的穷得娶不起老婆,生不起孩子,就消失了。
但是今天不一样,我们确实可以做到把人供养起来,我们生产力足够。所以这样一种物质上极大丰富,但是等级上又有巨大鸿沟的社会,可能会同时存在。
郝博阳:
但是就像您说的,这99%成了一个完全无用的阶级,它在经济社会中几乎不起任何作用。但在中世纪,贵族也需要佃农给他种地。这种差别会不会导致一个完全不一样的状况?
张笑宇: 我觉得可能暂时还不会到完全无用那么极端,因为机器虽然能够生产,但是它不能消费。如果还需要消费和需求来推动这个经济系统基础运作的话,可能还是需要99%的人去消费一些东西。人类的基本物质需求就那些,无非吃饭穿衣,但是精神需求还可以无数地被细化。
倒退30年,没人觉得动漫、二次元、cosplay这些能成为产业,但在今天的系统里它们自然就出现了,而且撑起了消费市场。所以未来有一段时间,这个领域里面肯定会出现一个比较大的膨胀,甚至繁荣。因为AI也可以增加这方面的供给,比如成本降低1000倍,那你原来一年只能出一个《黑神话》,现在一年可以出10个,大家都有这么多游戏可以玩。
短期来讲这好像还可以继续运行一段时间,但是长期来看,你又会回归到我们刚才说的那个生产远超消费的问题上。
郝博阳: 在一个AGI可以取代几乎所有人类工作的状态下,资本主义经济是否还有继续存在的必要?它是否会转向其他经济模式?
张笑宇: 我们要问的是,用货币来定价一切的商品经济和市场经济体系是否还有必要存在。我的答案是,看人类历史,只有两个信号是最严肃的:货币和暴力。 有社会经验的人都知道,只有两个时候能证明人的严肃态度:第一是出钱,第二是生死相关的事。
人类历史上很多时候,我们把制度想象得非常理想,说它是哲学王、人人平等、大同世界,最后都以暴力告终。
因为一谈到理想,你的理想一套解释,我的理想一套解释,谁都说服不了谁的时候,大家就用刀来说话。如果不想用刀说话,只有用钱来说话。现代社会本质上就是用钱说话的逻辑,替代了用刀说话的逻辑。至少现在人类还没有走出这个逻辑,我也没看到任何证据说明人类有可能走出去。
所以我认为在未来时代,货币反映人的真实、严肃需求的信号可能还存在。当然有个可能性是,我们原先认为严肃的需求,将来变成不严肃的需求。比如粮食,随着技术进步,从特别严肃的需求变成了没那么严肃的需求。未来,工业制造品、代码、电影,如果AI能量产,也会变得没那么严肃。
但很可能未来还是有特别严肃的、与稀缺性相关的东西,就是算力。如果1%的人要实现自己的欲望、理想和野心,归根结底看他能够通过算力调动多少资源。古代皇帝能调动1000万人,比调动100万人要强。到了AI时代,可能1%的超级人类调动10亿个GPU,比调动1亿个GPU能做的事情要多得多。
所以,依然有某种稀缺性存在。当然也不排除用暴力手段来决定,但我更希望和平总比战争好,所以更希望是某种货币信号来标定稀缺资源。
郝博阳:
这让我想起了后稀缺时代的理论。虽然有些资源像土地是有限的,但大部分工业品会极大丰富。而对于人要去证明自己的心理需求,要去控制足够资源以实现野心,这样的事情可能永远都是匮乏的。所以永远会出现一个需要交换的体系来划分资源,可能虽然这个体系以后跟普通人已经没什么关系了。
张笑宇: 我是这么认为的。
郝博阳: 但这个资本主义体系,其实跟我们现在认知的资本主义体系完全不一样了。
张笑宇: 对于99%的人来说,那1%实际上不需要这99%的人去“卷”,你再卷也卷不过人家。所以对于99%的人来说,虽然他进不了那个“野心系统”,但我觉得我们有机会打造一个让这99%活得挺舒服的社会。当然用今天的标准来看,他活得可能没那么“有意义”。
比如未来每个人可能都有自己的兴趣让他觉得特别有自豪感。比如有种艺术家,他的职业就是在桌子上画一万个圈,然后他在里边找到快乐和意义。这是有可能的。
因为我有时候想,中世纪的人会问现代人:你们追着一个球,非得把球打进框,这有什么意义?他居然不去种地?所以未来是不是会出现这种情况?我们今天看未来的人,他在躺平世界里追求自认为有意义的活动,但我们今天去看就完全不理解,会想:你为什么没有去学习?为什么没有去找工作?为什么没有去考公?你就是在那画圈。
但可能在那个时代,这是常态。
郝博阳:
您刚才提的其实就是一个价值重估的过程。原来社会评估的价值主要是你的生产力,但以后人的价值可能更多的是作为消费体,靠“欲望”存在吗?
张笑宇: 是的,因为只有人才有欲望,机器没有欲望。
郝博阳: 在资本主义不会消亡的情况下,会是一个靠UBI(全民基本收入)维持社会的模式吗?
张笑宇: 我觉得首先UBI是个底层,但可能在UBI之上还有UBJ(普遍基本工作),在这之上还有一些东西。我的设想是三层。
第一,UBI这个东西其实没那么难,人类历史上曾经搞过很多类似的。比如罗马时代皇帝给公民发免费面包。近代埃及也用苏伊士运河的收入给民众补贴,一张饼的价格对穷人来说只要两分钱人民币。所以未来保证基本物质生活,让大家免于冻饿,这个事情在今天的技术和政治条件下是完全可以做到的。
第二,在这个基础上,可能还需要UBJ——Universal Basic
Jobs(普遍基本工作)。光吃饱不行,还要有点价值认同。比如美国有议员提过一个方案,说可以用公共基金入股地方性公司,不要求它搞技术突破,比如它就是个生产Taco的食品公司,只要求它必须雇当地人。这有点像我们回到70年代以前的国企,它有一个很重要的作用就是承担就业。
第三,在这个基础之上可能还有一个东西,我叫做推荐算法代替市场经济分配。纯粹的市场经济可能会造成很高的马太效应,一个头部公司垄断80%的市场。但是未来因为推荐算法这个技术是去中心化的,在供给足够强大的前提下,你可以想象,超级平台量产电脑的能力可以看作是无限的,但我们可以利用推荐算法针对不同人群设计不同的款,比如喜欢美学的一款,喜欢二次元的一款。你只要把需求划分到无限细,每一款其实最后可能就10万的铁粉用户,这样一个小的供应是可以养活自己的。
4. 后AI时代的私人生活:和AI谈恋爱是个不可逆的必然
郝博阳: 除了欲望之外,还有什么东西在未来可能变得更有价值?人和人之间的情感会变得更有价值吗?
张笑宇: 我觉得情感会越来越没价值。它也会被AI巨大地、快速地取代。
因为本质上来讲,情感交流,你跟你老婆说情话,也是一堆token。AI去生产这些token的效率也很高,成本也很低,然后它的情绪价值还是无限的,因为你跟你老婆之间,你们两个是独立的人,总会有冲突,但是AI绝对不会跟你吵架。当它智能足够高的时候,它又可以写情诗,又可以写情歌,又可以去照顾你的情绪价值,我相信将来的人可能会生活在一个他的意义空间大量被AI塑造出来的世界里。
郝博阳: 人类不需要和人类交流了?
张笑宇: 对,因为我真的可以跟AI去讨论那些深夜话题,让你痛哭流涕的话题。比如你曾经爱过谁,从这段爱情里你成长了什么,然后你会发现AI给你的建议可能比你的朋友都要好很多,甚至贴心很多。
郝博阳: 我觉得确实是。从它情绪稳定,从它给你的建议的成熟度、专业度上来说。
张笑宇: 甚至某种程度上,我认为可能恋爱关系和家庭关系都是会被取代的。
郝博阳:
但在没有实体的情况下,比如说像电影《Her》里那种状况,AI只是一个声音,你觉得它能完全替代一个有实体的人跟你的亲密关系吗?
张笑宇: 我觉得实体这个可能非常重要,但是它是不是不可替代的?或者我们这么反问我们自己:你认为一天中,你交流过的能够触动你心灵的那些对话,有多大比例是在手机上发生的?
郝博阳: 但是你的对象是个具体的人。
张笑宇: 但是实际上你在跟他交流的时候,他是手机里面的对话框。我个人认为,人是一种适应能力非常强的动物。当你的大量的、这种深刻的、触及灵魂的对话,70%以上在对话框里面发生的时候,你就会习惯这种对话形式。然后如果来了一个AI,它跟你这些深入的对话也是70%在对话框里面发生,你也就不在乎它有没有实体了。
我们的父辈是不喜欢聊QQ的,但是我们是从小跟着QQ长大的一代人,所以我们会习惯这种形式。所以我已经做好了一个心理建设,就是我的孩子将来会跟几个AI谈恋爱。 因为他从小可能就是在这种环境中长大的,他不会像我们这样,今天可能还觉得没有实体会恶心,接受不了,但可能他从一开始就不会。
5. 后AI时代的政治:数字利维坦取代国家,但它可能更无偏私
郝博阳:
算力现在其实都集中在某一些头部公司之上。所以在AGI之后成为1%的人到底是因为你的能力,还是因为你已经占有了足够多的资源?
张笑宇: 这是一个触及灵魂的问题,就是我们相信人类的精英到底是源于他的能力还是源于他的资源?每个公司其实就是股东和职业经理人的区别,股东出钱,但他并不一定是真的最有能力带领公司往前走的人。所以你看一个公司,这两种人都是不可或缺的。我觉得可能未来的这1%里,这两种人会同时存在。
郝博阳:
那“凭什么这些人当1%”这个问题,你觉得未来会不会出现冲突?即使我们被圈养,这99%的人是不是还是会跟那1%的人出现冲突?就像“占领华尔街”那样。
张笑宇: 肯定会问这个问题。我可能没有办法直接回答“凭什么”,但是我可能会提供一个思考思路:历史上,人类对于正义的思考,都有一个基础,就是我们会设想一个审判机制,这个审判者是无偏私的,在他面前我们的一切都完全展现。在柏拉图那里,是灵魂不朽和死后审判;在基督教世界里,是上帝的最后审判。
但是我想,在AI时代,这个事情又变成了一个很具象的事情,AI就是我们的审判者。因为从这个角度来考虑,AI不是一个外星人,但是他是一个无偏私的,或者说他可以成为一个无偏私的、公正的审判者。
郝博阳: 一个新的契约论?我们把所有的权力都重新递交给了AI这个另外一个君主?
张笑宇: 其实不是权力,而是算法治理自身的属性。因为算法治理的本质就是:你想要什么,你就得到什么。
就好像我们用现在的例子,比如说你去做外卖骑手。你想抄近路,本来10分钟送到,你想8分钟送到,然后你闯红灯、逆行,最后9分钟送到了。如果是这样做的人多了之后,算法就认为9分钟是一个正确的路线,那么它会让所有人都在9分钟内送到。结果,所有人得到的就是你必须逆行、闯红灯,但是你没有赚到更多的钱。你先破坏了规则,you
deserve it(你应得的)。
我们再进一步推,对于所谓的信息茧房,我们真的扪心自问,有多少人真的不想要信息茧房?其实人都是一种特别习惯待在自己思想舒适区的生物。
所以当你在批判信息茧房的时候,有没有想过,在那个无偏私的审判者面前,其实你就配得到一个信息茧房?
所以我觉得,当我们去开始讨论正义论的时候,我们会发现当算法治理完成的一刹那,我们整个人类的审判随之而来。
我们去讲利维坦(人类君主)有问题的时候,其实蕴含着一个假设,是君主可以以他个人的欲望和权力意志来随意地对待我们。但是AI并不是以他的权力和意志来随意对待我们,它就是按照我们的欲望来对待我们。
郝博阳:
但是现在之所以会有信息茧房,一方面也是因为公司本身想要让你在它的App上留更多时间,以便它获得更高的商业利益。它在这个过程中用了很多方法。
张笑宇: 我觉得这种“trick”(诡计)的元素肯定是存在的。但是只要第一你给它时间,第二它不是一家公司垄断,而是不同的公司在竞争,那么公司的竞争之间肯定会出现推荐算法的进步。长期来看,肯定是推荐算法越先进、那个越了解你需求的会胜出。
郝博阳: 按你说的这个逻辑,信息茧房好像是必然的结果。
张笑宇: 对,因为还是我们刚才说那句话,在这个世界上钱是最严肃的东西。只要在这个过程中推荐算法的指导规则是钱,我觉得最后它就会涌现出那个对所有人来说都更加匹配“you
deserve it”(你应得的)的那种状态。
郝博阳: 你的表述中有一个无限外推的逻辑,好像我们最终不知道该去指责谁了,只能接受“是什么”,而没有办法说“凭什么”。
张笑宇: 第一个问题是,困在算法里的本质,我认为不是外卖平台用算法把你困住了,而是你生活中的另外一部分——比如你的工作福利或者劳动权利——没有被推荐算法给很好地照顾好。如果有很多系统来竞争,谁给你的福利和劳动权利更多,你就选择谁,我相信这一块你会很快感受到一个很舒服的状态。
所以当我们在说去问责谁的时候,我们很容易去问责那个大家都看得到的,而非大家没有看到的那部分。但是当你真的用推荐算法设想,当整个国家被超级平台“吃掉”的时候,你应该设想的是,所有部门、所有指标都用了推荐算法之后,那个状态是什么样子。
郝博阳: 是一个无偏私的,真的对你的福祉、对你的欲望负责的AI系统?
张笑宇: 这一块本身是我们技术上可以做到的。但真到了那个时候,最终的结果是来自于你当下自己的所作所为。如果你认为人类就是配被压榨,AI将来就会用这个语料来压榨你。如果你认为人类就是配得到一个国家之间互相冲突的世界,那AI就会认为你是一种这样的动物。如果你是一个希望用爱来填充彼此空间的人,那AI也会觉得这个物种需要一种特别重要的资源叫“爱”,它也会用这种方式来对待你。
我觉得可能在你没有这种无偏私的外部审判者的时候,你不会去想这个问题。但你的行为,其实是会受到今天AI的审判的。你自己是要承担这个道德责任的。
6. 后AI时代的新社会契约:在时间序列上重塑罗尔斯正义论
郝博阳: 那在一定程度上,我们可以用“对齐”这样的方式来解决它,而不是单纯从语料训练来做。
张笑宇: 这就到了我的另一个技术原则,叫做超级智能。因为“对齐”的本质,我认为至少从目前来讲,是你用低级智能(人类)去要求高级智能(AI)。假设我们认为技术长期来看是能够继续突破的,我也相信它是一定能突破的,超级智能有一天是会到来的。
真的当它的智能水平比我们高的时候,你会发现你不可能用你的道德规则去要求它,就像猴子不能用自己的社会规则去要求人一样。
这就涉及到我书的最后一部分,就是超级智能凭什么跟我们和平相处?有一些AI毁灭论者认为,AI本质上永远比人类高级,那个时候它不需要对你有恶意,它只要不关心你,你就会被它毁灭。就像人盖房子,不会关心这个地方曾经有一窝蚂蚁,他就把蚂蚁的洞穴给摧毁了。
那蚂蚁有办法约束人吗?永远没有办法。
所以这个问题是说,当你低级智能真的没有办法约束高级智能,而高级智能又必然要出现的时候,双方和平共处的基础在哪里?
我把它叫做文明契约。
郝博阳: 但是它为什么跟你签这个契约?
张笑宇: 因为我们知道社会契约的前提是人和人之间有一些平等,那么超级文明为什么跟低级文明之间签这个契约呢?
我的答案是,这个契约不是基于空间序列的考量,而是基于时间序列的考量。
社会契约基于空间,你有你的权利,我有我的权利,因为我们资源是平衡的,谁也杀不死谁,所以需要相互妥协。
时间序列的契约是这样子的:假设人类成功地创造出了超级智能(1.0),那就证明一件事情,这是宇宙中智能文明进化的一种可靠方式。既然它被验证了,我们可以合理地推断,超级智能1.0将来会演化出比它更高级的,比如说超级智能2.0。
那么1.0和2.0之间,会重复人和1.0之间的问题。如果人害怕被超级智能1.0毁掉,那么超级智能1.0就会同样地害怕,当我发明出超级智能2.0的时候,我会不会被毁掉?
所以这个时候就出现了一个制约机制:超级智能1.0对待人类的方式,会成为超级智能2.0对待1.0方式的参考语料。 如果超级智能1.0认为我应该毁灭人类,那么超级智能2.0就会说,那我为什么不毁灭我的创造者?
所以如果真的当我们都意识到这个问题的时候,我们会发现这种和平共处是有可能的,因为它涉及到一个跨文明代际的承诺:我怎么去对待比我弱的人,会决定了将来比我强的人怎么对待我。
郝博阳:
这在一定程度上我感觉就是一个罗尔斯的《正义论》在时间性上的无限扩大。每个人其实都不知道未来可能会面对什么,所以现在干脆去做一些相对来讲更正义的选择,来增加你的生存几率。
张笑宇: 因为你并不知道你后续会处于什么样的地位,所以尽可能正义,确实增加了你的生存几率。
郝博阳:那这套理论是不是也可以套用到“超级智能尚未出现”的这个过渡阶段?在AI时代,以前那1%的人之所以愿意和我们签订社会契约,是因为我们对他们仍然存在某种潜在威胁。但未来,当我们对他们不再构成威胁时,我们还能否依靠同样的社会契约模式,来保障我们自身的权利呢?
张笑宇: 这就把我们刚才说的缺失的那个正义论给补足了。
因为我们刚才问,“凭什么你是1%?”现在回答了:你是1%,但是你怎么对待99%,将来会成为AI怎么对待你的语料。如果你要的是一个高度集权的、镇压的、不平等的社会,AI将来就会这么对待你。如果你要的是一个战争的、冲突的、仇恨的社会,它也会这么对待你。
郝博阳:
但是,就算到现在动保组织已经成为了西方主流意识,人还是把鸡拿来杀了吃了,它对于动物的保护只是非常有限的。那我们怎么能期待AI对人类的关怀意识能够足够快地产生?
张笑宇: 人对所有的道德问题都是有一个从不自觉到自觉的过程。你曾经不自觉地对待人很差,然后你会发现有报应,那些被你对待得很差的人会反过来杀掉你,那么你就会从不自觉到自觉“我不可以对他们太差”。所以从高等智能文明到低等智能文明,也是有一个从不自觉到自觉的过程。你现在不自觉,是因为你还没有受到另外一个智能文明的威胁,等你感受到之后,你就会意识到自觉对你有好处。
第二点,人和鸡都是地球上的物种,但未来从最终极的状态来看,AI和人需要的资源是完全不对等的。AI需要算力,它的寿命和在太空中的可扩展能力都比人强很多。我们可以想象,人类能把太阳系占满已经非常极限了,但AI如果是硅基生命,它可以占据整个银河系。
当一个文明物种有一个更广阔的新大陆,它是不屑于去跟鸡争那点资源的。 所以到最后我们会意识到,本质上来讲,其实人和AI并不构成真正意义上的竞争关系。
所以格局打开了之后,我书中的最后一章叫做“送别人类”。
其实我们人类在AI面前应该敬畏地意识到我们的渺小。这甚至对于重建我们自己的正义论,重建我们自己好的政治哲学和算法治理,都是特别有帮助的。因为只有我们真正地意识到我们的限制在超级智能面前是不可逾越的时候,可能我们才会去真的反思我们对待自己同类的方式。
郝博阳: 人类中心主义就是建立在人类是宇宙上最聪明的事物之上。
张笑宇: 对,现在不存在了,所以要送别这种情感。