然而,当各国用户沉浸在Siri焕然一新的语音甜言蜜语中时,中国大陆用户,却发现自己的手机被“阉割”了,被排除在这场AI盛宴之外。只要你的设备是在中国大陆购买的,哪怕你人在美国,账户也设置为美国,苹果智能还是“不予服务”;反过来,如果设备在境外购入,人也在境外,用的是非大陆Apple ID,就可以“畅享未来”。

苹果智能目前基于的是大模型(包括自研小模型和OpenAI的GPT-4),加上本地设备的私有数据整合,从而实现一个“够私密、够智能、够顺手”的AI助理。从技术角度讲,中国大陆不缺算力,也不缺高性能终端。要在大陆实现苹果智能,没有物理障碍。
问题出在“智能的边界”。苹果智能依赖大模型理解用户输入的文本,生成总结、草稿、建议和回答。它自然要理解“敏感词”,要判断“上下文”,要精准接住每一个“社会热词”。而这一切,恰恰是中国大陆监管最忌讳的领域——它不仅是技术问题,更是内容问题,是思想控制问题。
你敢让一个不可控的AI助手帮助中国用户写公众号?写微博?写朋友圈?那下一步,苹果智能是否也会对现行政策的“理性分析”?是否也能在“六四”、“新疆”、“李文亮”、“清零”等词汇上做出“诚实”回应?哪怕只是“中立”——在中国大陆语境中,这都足够“危险”。
AI助手最大的“风险”在于,它太诚实,太有效,太不懂“配合”。如果你曾使用ChatGPT等AI工具做文本生成,你就会发现,AI说话不像人类官媒那么“聪明”,它对事不对人,讲逻辑不讲政治立场。它会对中国和西方都进行批评,也会在“错误”面前给出反思建议,而不是直接跳进“伟光正”的大坑里唱赞歌。
而苹果智能,虽然是苹果品牌的“绅士派代表”,但底层技术仍然依赖GPT-4这一类的语言模型,其训练中蕴含了大量开放社会的信息结构和逻辑体系。这种“透明的、非预设的智能结构”,正是中国大陆语境中最敏感、最难以驾驭的东西。
中国大陆的智能助手,比如小米的小爱、华为的小艺、百度的文心一言、讯飞星火等,它们都有一个共同特征:规避、删减、回避、转移话题。问它们“李文亮是谁”,它们会“建议你阅读权威媒体发布的信息”;问“天安门发生过什么”,它们会“暂无法提供该内容”;问“如何移民加拿大”,它们甚至会劝你“热爱祖国”。这并不是这些AI不够智能,而是它们太“懂事”。在中国大陆,智能不是“知识能力”,而是“政治觉悟”的体现。
而苹果智能的尴尬正在于——它不配合、不听话、不自审、不自删。你问什么,它就尽可能地回答什么,即使已经过滤过一次,它的“中立”也远远超过中国标准的“主旋律”。这就构成了危害“国家安全”的政治风险:不怕你说错话,就怕你说实话。
苹果公司当然清楚大陆市场的重要性,也并非没有“本地化”历史——iCloud早就交给了贵州省运营,iOS地图里“台湾省”从不敢犯错,就连新闻类内容在中国也乖得像只猫。但这一次的苹果智能,苹果似乎更清楚一个现实:如果“智能”都要服从审查,那它就不再是智能,而是宣传工具的延伸。
要把苹果智能落地中国,势必要向监管层提供内容过滤方案,开放本地模型定制、关键词屏蔽功能、输出审查接口……这显然违背了苹果宣称的“用户隐私本地化”、“智能不过云”、“不记录数据”等原则。于是,苹果无奈地选择了的“暂不落地”。
从更宏观的角度看,苹果智能未进入中国,是一次信息主权 vs 全球通识的对撞。中国希望所有进入本土的技术都服从“国家利益”,这个“利益”的定义不是技术标准,而是意识形态的安全感。而苹果智能,却是站在人类认知的立场上,它试图把“智能权利”下放给个体,而不是交给政府、组织或算法调控者。
你要让一个中国用户使用苹果智能,那意味着他将第一次拥有一个“不依赖百度、不依赖朋友圈、不依赖公众号”的信息助手。它不洗脑,也不洗地。它不说“你好厉害”,也不说“请相信政府”,它只说“事实大概是这样的”——这,才是真正危险的地方。
苹果智能迟迟不入中国,不是技术不成熟,不是语言不支持,更不是苹果不努力。而是它太“自由”,太“真实”,太“不听话”。它所代表的,不仅是AI的发展方向,更是信息平权的未来。未来,每一个人都可以拥有尊重事实,逻辑思考,“不会撒谎”的AI助理,对于一个习惯了信息过滤和控制的政权来说,是最可怕的威胁。