雅酷原创

雅酷原创 名博

被圈养的智能——专制审查扼杀中国AI

雅酷原创 (2025-07-16 16:03:02) 评论 (3)
在人工智能的赛道上,中国曾一度被外界寄予厚望。拥有世界最多的互联网用户、海量的数据资源、强大的制造能力与政策支持,中国理应是AI技术天然的沃土。然而,现实却颇为讽刺:中国本土大模型的代表 DeepSeek 陷入用户锐减、使用率腰斩的困境。据国际知名半导体研究机构 Semianalysis 发布的 2025 7 月报告,DeepSeek 官网流量自年初以来下滑近三成,用户使用率从高点的 7.5% 降至 3%。与此同时,ChatGPT 同期用户增长达 40.6%Gemini 增幅更高达 85.8%。这份对比令人触目惊心。

问题到底出在哪?为何手握人口红利国家战略的中国AI,却像一个被施了咒语的巨人,举步维艰?答案或许无需绕远:是中国一贯的内容审查制度”——这套为专制权力服务、以思想控制为核心的机制,正在悄然成为限制AI成长的最大桎梏。

DeepSeek的最大问题,不是技术团队不够聪明,不是GPU算力不够强,而是它被人为驯化得太温顺、太胆小、太没用。有使用者直言不讳:DeepSeek响应慢、不理人,很多问题不能问、不能查;有人戏称,DeepSeek根本不是AI,是“AI前台客服机器人”——只会重复无关痛痒的套话,面对稍具思辨性的问题就打哈哈或者直接禁言



据传,DeepSeek模型上线前曾被强制过滤多达 35万个敏感词,包括但不限于政治、历史、宗教、社会运动、性别议题、LGBTQ、民族问题、贫富差距、行政透明、地方治理……凡是有可能涉及社会风险的内容,统统屏蔽。在这种训练策略下,AI像是一个受尽恐吓的孩子,眼观六路,耳听八方,生怕说错一句话。你问它六四,它装傻;你问它新疆,它装死;你问它习近平是谁,它就告诉你该问题无法回答。这不是AI,这是审查的数字延伸

OpenAI ChatGPT 可以讨论自由与审查,可以引用CNN与福克斯的对立观点;Google Gemini 可以在你输入台湾总统是谁时直接告诉你赖清德而不是该话题存在争议Anthropic Claude 能分析种族主义的结构性根源;连MetaLLaMA都比DeepSeek更愿意面对复杂真实的世界。而DeepSeek,只能在一个滤镜后的世界中模拟智力活动。这种对话,既无思维,也无灵魂。

在民主国家,政治正确往往是对少数族群的保护,是包容多样性的伦理倡导;而在专制政体中,政治正确则是对统治合法性的维护,是维稳逻辑下的极权语言。中国AI产业正是在这样的语境中发展起来的。人工智能并未被当作推动知识解放的工具,而是被当作数字维稳的技术延伸。政策文件处处强调AI弘扬主旋律、传播正能量、坚守意识形态安全底线,潜台词就是:任何与统一思想相悖的内容都是风险乃至敌对势力

这种审查惯性会直接反噬AI发展的核心环节:训练数据。当所有文本数据都必须过思想审查,意味着中国AI训练所依赖的语料库本身就是残缺的、过滤的、伪造的。这会让大模型形成认知缺口价值畸形:在历史问题上,它只能学习经过洗白的官方叙事,无法分析事件多重视角;在社会议题上,它无法理解边缘群体的处境,只能复读社会稳定压倒一切的教条;在科学研究中,它不敢批判、不敢怀疑,只能以正统为唯一标准

创新,意味着打破常规、质疑权威、挑战过去;而审查,恰恰是将一切创新的可能性扼杀在摇篮中。中国AI不可问”“不敢答,本质上源于对异端的恐惧。在这个体系中,异见被视为危险,不同被等同于威胁,批判性思维被认为是动摇体制根基的毒药。

所有伟大的技术革命,都是从异端开始的:哥白尼提出日心说时被视为叛徒;达尔文发布《物种起源》时被教会诅咒;特斯拉坚持无线输电时被商业体系排斥;图灵发明图灵机时正值英国社会对同性恋的打压高峰;Elon Musk今天要用火箭殖民火星,在很多主流科学家看来也是疯子

AI作为一种全新的技术形态,天然就与旧体制、旧价值、旧思维存在张力。它必须容纳不确定、容忍批判、激发自由的表达,才能不断进化。而如果它被钉死在正确框架中、被迫说安全的话、被训练成审查员的公仆,它只能成为一个忠诚但愚蠢的工具,而非智能体。

中国的AI,正是被这种对异端的零容忍所困。结果是:大模型长不出思想;应用场景难以突破语义润色;真实需求被转化为政治红线;技术人才被安全评估小组管束乃至威胁。于是,最懂语言的技术,不敢讲真话;最善于推理的模型,无法判断真实;最渴望世界的人工智能,却只能在一个虚构的乌托邦中打转。

DeepSeek流量腰斩,并不是孤例。从文心一言通义千问,从讯飞星火百川智能,几乎所有中国大模型都在国际市场上毫无存在感。其原因,不是技术上的落后,而是根本性的不可信赖AI的核心竞争力不只是模型本身,更是它所构建的知识宇宙是否开放、多元、真实。试想,如果一个AI无法谈论六四、无法回答谁是达赖喇嘛、无法解释法轮功、无法区分维吾尔族与恐怖主义,它怎么可能在国际舞台上赢得用户的信任?

西方的AI开发者正在向多模态、情感交互、代理任务、自我进化迈进,而中国的AI开发者则在为审核词库、审查责任、安全底线疲于奔命。两个世界,渐行渐远。更可怕的是,当AI开始进入法律、医疗、教育、舆论等关键领域时,受到审查机制限制的AI不仅不能说,还不能做。它无法独立判断、无法自由联想、无法生成具备启发性的内容。久而久之,它就成了一个披着AI外壳的文字游戏机器,根本无法承担智能革命的社会功能。

DeepSeek的衰退不是孤立事件,而是整个中国AI产业困境的缩影。它提醒我们:再强的算法,再大的模型,也敌不过一套错误的制度。技术的本质是自由——自由试验、自由失败、自由突破。创新不是口号,而是结果;而结果来自于开放、碰撞、多样与宽容。没有思想自由的土地,长不出有思想的智能。

DeepSeek这个名字原本寓意深度求索,如今却成了深度求锁的象征。在一堵堵看不见的审查墙面前,它失去了探索世界的能力,也失去了探索用户心灵的勇气。而中国的AI产业,若不敢直面这一切,若不敢打破那35万个敏感词的精神牢笼,那么即便再砸上万亿资金,也只能造出一堆没有灵魂的空壳——高大而空洞,华丽而无用。人工智能的未来属于那些敢于质疑的社会,而非那些只能复读的机器。