简体 | 繁体
loading...
新闻频道
  • 首页
  • 新闻
  • 读图
  • 财经
  • 教育
  • 家居
  • 健康
  • 美食
  • 时尚
  • 旅游
  • 影视
  • 博客
  • 群吧
  • 论坛
  • 电台
  • 焦点新闻
  • 图片新闻
  • 视频新闻
  • 生活百态
  • 娱乐新闻
您的位置: 文学城 » 新闻 » 焦点新闻 » 亚马逊技术大会强势来袭:自研芯片性能暴增4.4倍

亚马逊技术大会强势来袭:自研芯片性能暴增4.4倍

文章来源: 腾讯科技 于 2025-12-02 19:15:21 - 新闻取自各大新闻媒体,新闻内容并不代表本网立场!
被阅读次数
亚马逊技术大会强势来袭:自研芯片性能暴增4.4倍

当地时间12月2日,亚马逊云计算部门AWS的年度技术盛会re:Invent 2025在美国拉斯维加斯正式开幕。

大会首日,AWS一口气发布了Trainium 3自研AI芯片、Trainium 4路线图、AI工厂(AI Factory)主权云服务、Nova 2系列四大基础模型、Nova Forge开放式模型定制平台以及Bedrock AgentCore智能体工程化平台等一系列产品,系统构建起“芯片—模型—智能体—混合云”的全栈AI生态。

这场全球最具影响力的云与AI盛会恰逢人工智能产业从技术爆发期迈向规模化应用期的关键节点。头部企业持续加码算力,传统行业对AI的需求已从“尝鲜式”试点转向“刚需式”深度应用,数据主权、算力成本、生态兼容性等现实难题日益凸显。AWS此次没有进行零散的产品迭代,而是推出深度融合的全栈AI基础设施与服务体系,以成本优化、生态开放、合规适配三大核心优势,效仿谷歌直击行业痛点,强势抢占全球AI算力、模型与云服务市场的战略制高点。

AWS首席执行官马特·加尔曼(Matt Garman)在开幕主题演讲中做出重磅判断:“智能体AI(Agentic AI)将成为企业真正释放AI价值的关键,未来贡献占比将达80%至90%。”他指出,当前企业AI应用普遍面临碎片化困境:算力成本高企、模型难以深度适配业务、智能体部署缺乏标准化工具,导致技术与商业价值之间存在巨大鸿沟。

此次全线新品正是围绕“智能体优先”这一核心愿景打造的全链路战略部署,标志着AWS正式完成从传统云服务提供商向智能体AI生态构建者的转型,致力于用全栈能力彻底打通AI落地的“最后一公里”。

01.硬件突破:Trainium 3性能提升4.4倍,未来将兼容英伟达NVLink Fusion技术



Trainium 3芯片

作为AI生态最底层的基石,AWS在定制芯片领域的深耕已持续多年。目前其定制芯片业务规模已达数十亿美元,Trainium系列芯片全球部署总量突破100万张,成为支撑超大规模AI计算的核心支柱,在全球云厂商自研芯片中仅次于谷歌TPU。

此次发布的Trainium 3芯片采用台积电3纳米制程工艺,专为“推理主导”的时代量身打造。随着大模型训练逐步向少数头部玩家集中,广大中小企业的核心需求转向低成本、高效率的推理部署,能耗与成本成为最大瓶颈,Trainium 3精准切中这一市场痛点,实现性能与成本的双重颠覆。

相较上一代,Trainium 3原始性能提升4.4倍,性能功耗比提升4倍,整体能源效率提升40%,直接破解了大规模数据中心在能耗与成本上的难题。实测数据显示,部署主流开源模型(如 GPT-OSS)时,单芯片吞吐量提升3倍,响应延迟缩短4倍。

AWS表示,Trainium 3有望将AI模型全生命周期(训练+推理)成本整体降低50%,在当前算力市场极具竞争力。在英伟达GPU长期占据绝对主导、价格居高不下的背景下,Trainium 3为企业提供了真正可落地的性价比替代方案。

架构层面,Trainium 3单芯片提供2.52 PFLOPs(FP8)算力,支持FP32、BF16、MXFP8及新增MXFP4等多种精度格式。为解决大语言模型最突出的内存瓶颈,该芯片将HBM3e内存容量提升至144GB、带宽提升至4.9TB/s,同时强化结构化稀疏性和微缩放硬件支持,进一步优化大语言模型训练与推理效率。

得益于全新一代Neuron Fabric互联技术,单台Trn3 UltraServer可集成144张芯片,总算力达362 FP8 PFLOPs;通过EC2 UltraClusters 3.0架构,可扩展至最高100万张芯片的超级集群,规模较上一代提升10倍,已为Anthropic的“Project Rainier”项目提供核心算力支撑(目前已部署50万张Trainium 2,计划年底前扩容至100万张)。Karakuri、Metagenomi、NetoAI等客户反馈,使用 Trainium 3后训练与推理成本最高降低 50%,充分验证了其在真实生产环境中的成本优势。



AWS提前披露Trainium 4关键特性

更具深远影响的是,AWS提前披露了Trainium 4的关键特性:将原生支持英伟达NVLink Fusion高速互联技术,彻底打破云厂商自研芯片长期以来的“封闭生态”惯例,展现出“共存并竞争”的务实策略。目前全球约80%的AI应用基于英伟达CUDA生态开发,迁移成本极高。兼容NVLink Fusion后,企业可在同一集群内灵活混搭Trainium与英伟达GPU,按需分配任务(如训练用GPU、推理用Trainium),大幅降低迁移门槛。

Trainium 4预计FP8算力提升3倍、FP4算力提升6倍,内存带宽与容量分别提升4倍和2倍,并将与Graviton CPU、EFA网络及英伟达MGX机架深度融合。这一“以开放换市场”的举措,被业界视为 Trainium系列真正实现规模化普及的转折点。

02.基础设施延伸:AI工厂落地主权云,混合部署一举破解全球合规难题



随着AI深入政府、金融、医疗等高敏感行业,数据主权与合规性已成为全球性瓶颈。欧盟GDPR、美国国防与医疗安全审查等政策使得纯公有云难以满足要求。AWS此次推出AI工厂服务,将全栈AI能力从公有云完整延伸至客户本地或指定区域,快速构建功能等同于私有AWS区域的专属环境。

通过AI工厂,客户可实现数据本地化处理与存储,100%满足数据主权与行业合规要求,AWS负责基础设施全生命周期的部署、运维与升级,彻底解决传统私有云“部署难、维护贵”的问题。结合Trainium芯片、英伟达加速卡、高性能网络以及Bedrock、SageMaker等全套服务,AI工厂将私有云部署周期从数年缩短至数月。AWS同时宣布未来几年投资500亿美元建设美国政府专用高性能计算与AI数据中心,投入规模远超同行。

全球落地方面,AWS已同沙特Humain公司合作建设部署15万张AI芯片的“AI Zone”,基于GB300 GPU实现多吉瓦级扩展,服务智慧城市、医疗健康等领域;AWS欧洲主权云将正式上线,数据中心位于欧盟境内,由欧盟本地团队独立运营。客户可按需选择Trainium或英伟达最新Grace Blackwell、Vera Rubin平台,实现敏感任务本地化、非敏感任务公有云弹性扩展的最优平衡。

03.模型革新:Nova 2家族全面对标行业顶尖,Nova Forge开创“开放式深度定制”新范式

在模型层,AWS此前的表现相对低调,市场份额多被OpenAI、Anthropic等专业模型厂商占据。此次升级的Nova 2模型家族显然是AWS发力模型市场的关键举措,推出Lite、Pro、Sonic、Omni四款细分产品,全面覆盖推理、多模态、对话AI与代码生成等核心场景,直接对标行业头部模型。



Nova 2 Lite的基准测试数据

其中,Nova 2 Lite作为高性价比推理模型,支持文本、图像、视频等多格式输入,上下文窗口达100万token,性能对标Anthropic Claude 4.5 Haiku、OpenAI GPT-5 Mini等主流高效模型,主要面向中小企业的轻量化推理需求。



Nova 2 Pro的基准测试数据

Nova 2 Pro则瞄准复杂任务处理,推理能力媲美甚至超越OpenAI GPT-5、Google Gemini 3.0 Pro 等旗舰模型,特别适用于智能体相关任务。其强大的逻辑推理与工具调用能力,正是智能体完成复杂业务流程的核心,该模型目前已向Nova Forge早期客户开放预览。​

Nova 2 Sonic专注于实时多语言对话场景,100万token的上下文窗口可容纳7.5万行代码或1500页文本,支持20余种语言的实时转译与对话,瞄准客服、跨境沟通等场景。

Nova 2 Omni作为全模态模型,能够同时处理图像、音频、视频和文本输入,并通过模拟推理生成多样化输出。例如,该模型可直接分析一段工业生产视频,识别设备故障并生成维修方案,为长文档、视频等复杂媒体处理提供一体化解决方案,填补了AWS在全模态领域的短板。​



Nova Forge服务

AWS此次发布的Nova Forge服务颠覆了传统模型定制模式。传统模型定制多采用“微调”方式,在预训练完成的模型基础上,用企业数据进行二次训练。这种方式难以让企业专有知识深度融入模型底层,定制效果有限,且成本高昂。动辄数百万美元的定制费用让中小企业望而却步。

Nova Forge允许企业支付10万美元年费,不含工程师协助费用,在模型预训练、中期训练和后训练三个关键阶段接入Nova模型的检查点,将自有数据深度嵌入训练过程,打造具备专业领域知识的“定制模型”。这种模式大幅降低了深度定制的门槛,同时让模型更贴合企业业务逻辑。​

实际应用中,Reddit利用该服务打造的“Reddit专家模型”,在平台敏感内容审核方面表现远超通用大语言模型。该模型能够精准识别Reddit社区特有的slang用语、梗文化相关的违规内容,误判率降低30%。生物技术公司Nimbus Therapeutics将药物研发数据嵌入Nova模型,构建的定制模型在分子结构预测、临床试验数据分析等任务中,效率较通用模型提升40%。Booking.com则通过定制模型优化酒店推荐算法,用户转化率提升15%。

相较于投入数亿美元从零构建模型,Nova Forge为企业提供了更经济高效的专业化路径,目前已支持Nova 2 Lite,并计划扩展至Pro和Omni模型。

04.应用落地:Bedrock AgentCore破解工程化难题,智能体加速企业部署



智能体AI虽被寄予厚望,但企业部署过程中面临的工程化难题不容忽视。安全合规风险、可靠性难以评估、长期记忆能力不足等问题,导致多数智能体仍停留在概念验证阶段,难以规模化落地。

AWS重点升级了 Amazon Bedrock AgentCore平台,针对企业部署中的核心需求提供一站式解决方案。该平台目前已全面通用可用,兼容CrewAI、LangGraph等开源框架及各类基础模型。这种开放性避免了企业被单一生态绑定,降低了开发成本。​

在安全治理方面,AgentCore Policy功能允许开发者通过自然语言定义智能体的操作边界。例如“禁止访问财务部门数据库”“自动退款额度不得超过1000美元” 等,通过AgentCore Gateway实时拦截违规 API调用,实现独立于智能体代码的确定性控制。这一功能解决了智能体“越权操作”的风险,尤其适用于金融、医疗等监管严格的行业。该功能目前已进入预览阶段,AWS表示将后续支持更细粒度的权限管控,例如基于角色的访问控制(RBAC)与数据脱敏处理。​

针对智能体可靠性难题,平台内置13种预置评估系统,覆盖准确性、安全性、工具选择逻辑、响应质量等关键维度,可对智能体进行持续监控。与传统人工评估不同,该系统通过大语言模型辅助生成评估报告,并解释失败原因。

例如,智能体未完成预订任务时,系统会自动分析是工具调用错误、参数设置不当还是上下文理解偏差,帮助开发者快速定位问题。这一能力大幅降低了企业自建评估体系的工程成本,据AWS客户反馈,采用AgentCore评估工具后,智能体从概念验证到生产部署的周期平均缩短60%。​

记忆功能的升级让智能体具备了长期服务能力。AgentCore Memory可记录用户交互历史与偏好,支持多轮会话和跨任务场景的上下文连贯性。例如,用户此前告知智能体 “偏好无烟酒店”,后续预订时无需重复说明。新增的情景学习(Episodic Learning)功能,能让智能体从过往经验中持续优化决策质量。例如,在多次处理客户投诉后,智能体可自动总结最优解决方案。这些能力已在实际应用中展现价值。

PGA TOUR通过该平台构建的内容生成智能体,实现赛事新闻、球员数据报告的自动化生成,速度提升1000%,成本降低95%。Heroku基于平台构建的应用开发智能体,可协助开发者完成代码调试、部署流程自动化,开发效率提升30%。包括纳斯达克、百时美施贵宝等企业都已在借助该平台推动交易风控、药物研发等业务流程的自主化转型。​

从底层Trainium芯片的算力突破,到AI工厂的混合云部署延伸,再到Nova系列模型的定制化能力,最终通过Bedrock AgentCore实现智能体工程化落地,AWS在re:Invent 2025上完整呈现了“芯片-模型-智能体-混合云” 的全栈战略布局。

这一架构并非孤立模块的简单叠加,而是通过各层级的深度协同形成合力。Trainium芯片为模型训练与智能体运行提供低成本算力支撑,AI工厂解决合规部署难题,Nova Forge让模型适配业务场景,Bedrock AgentCore降低智能体开发门槛。这种协同效应构建了强大的竞争壁垒,使其区别于仅专注于单一环节的厂商。​

05.全栈协同构建竞争壁垒,AWS欲定义智能体AI的未来

在全球AI竞争进入深水区的当下,AWS的战略转型意义深远。硬件层通过能效革命与生态开放,在英伟达主导的市场中开辟出差异化路径。基础设施层以主权云解决方案,切入政府与受监管行业这一高价值市场;模型层用深度定制服务,满足企业“专业化”而非“通用化”的核心需求;应用层靠工程化工具,打通AI从技术到价值的转化通道。

这种全栈协同的竞争模式,不仅将重塑AI基础设施的市场格局,还将推动企业智能化从单点应用走向全域自主化运营。未来,企业无需再整合多个厂商的产品,即可通过AWS生态快速构建贴合自身需求的智能体解决方案,这将大幅降低AI应用门槛,加速产业智能化进程。​

当然,AWS的布局也面临挑战。

Trainium芯片的生态兼容性仍需时间验证,Nova模型的市场认可度需与OpenAI、Anthropic等厂商竞争,AI工厂的本地化部署能力还需应对不同地区的监管差异。

但不可否认的是,AWS此次发布的全栈战略,为行业提供了一种AI落地的全新范式。随着这一系列创新成果的落地,智能体AI有望真正突破技术瓶颈,成为驱动企业增长的核心引擎,开启人工智能商业化的全新阶段。

  • 海外省钱快报,掌柜推荐,实现买买买自由!
查看评论(0)
  • 文学城简介
  • 广告服务
  • 联系我们
  • 招聘信息
  • 注册笔名
  • 申请版主
  • 收藏文学城

WENXUECITY.COM does not represent or guarantee the truthfulness, accuracy, or reliability of any of communications posted by other users.

Copyright ©1998-2025 wenxuecity.com All rights reserved. Privacy Statement & Terms of Use & User Privacy Protection Policy

24小时热点排行

俄罗斯取代日本成为中国游客新宠?评论区亮了
32岁富二代有三个硕士文凭,却在大理流浪,月花100元
特朗普的政治麻烦:一个"不留活口"的国防部长
从北大才女到硅谷毒枭?她用"聪明药"筑百亿帝国
马斯克:10年后人类工作将成可选项,每个人都"足够富足"




24小时讨论排行

美熟练技工短缺破百万 福特CEO:落后大陆难维持
普京:如果欧洲想开战,我们现在就准备好了!
宏福苑大火调查:港府称建筑外墙棚网不符合阻燃标准
印度学者:1962年中印边境战争背后,可能是美国
特朗普加码打击移民,或影响合法移民入境居留
反对“封存吸毒记录”跟追求正义没一毛钱关系
东京飞上海航班紧急返航 发生妨碍安全非法行为
新国标电动自行车每辆4000元上下?网友:问就是为了你好
法德:俄乌“和平计划” 欧洲必须“坐到谈判桌前”
谷歌卷土重来:你大爷还是你大爷?英伟达很紧张
内地女子在香港大火后诱骗捐款被拘捕,案情披露
不符大众审美 模特大赛冠军回应质疑 妆容老了20岁
滨崎步“一个人的演唱会”信息不实吗?这个辟谣很刁钻
香港宏福苑火灾“头七” 至少156人遇难 仍有30人失联
传台积电董事长将赴南京出席活动 拜访大陆芯片公司
赴华海外游客暴增,带给中国的远不只是旅游收入
文学城新闻
切换到网页版

亚马逊技术大会强势来袭:自研芯片性能暴增4.4倍

腾讯科技 2025-12-02 19:15:21
亚马逊技术大会强势来袭:自研芯片性能暴增4.4倍

当地时间12月2日,亚马逊云计算部门AWS的年度技术盛会re:Invent 2025在美国拉斯维加斯正式开幕。

大会首日,AWS一口气发布了Trainium 3自研AI芯片、Trainium 4路线图、AI工厂(AI Factory)主权云服务、Nova 2系列四大基础模型、Nova Forge开放式模型定制平台以及Bedrock AgentCore智能体工程化平台等一系列产品,系统构建起“芯片—模型—智能体—混合云”的全栈AI生态。

这场全球最具影响力的云与AI盛会恰逢人工智能产业从技术爆发期迈向规模化应用期的关键节点。头部企业持续加码算力,传统行业对AI的需求已从“尝鲜式”试点转向“刚需式”深度应用,数据主权、算力成本、生态兼容性等现实难题日益凸显。AWS此次没有进行零散的产品迭代,而是推出深度融合的全栈AI基础设施与服务体系,以成本优化、生态开放、合规适配三大核心优势,效仿谷歌直击行业痛点,强势抢占全球AI算力、模型与云服务市场的战略制高点。

AWS首席执行官马特·加尔曼(Matt Garman)在开幕主题演讲中做出重磅判断:“智能体AI(Agentic AI)将成为企业真正释放AI价值的关键,未来贡献占比将达80%至90%。”他指出,当前企业AI应用普遍面临碎片化困境:算力成本高企、模型难以深度适配业务、智能体部署缺乏标准化工具,导致技术与商业价值之间存在巨大鸿沟。

此次全线新品正是围绕“智能体优先”这一核心愿景打造的全链路战略部署,标志着AWS正式完成从传统云服务提供商向智能体AI生态构建者的转型,致力于用全栈能力彻底打通AI落地的“最后一公里”。

01.硬件突破:Trainium 3性能提升4.4倍,未来将兼容英伟达NVLink Fusion技术



Trainium 3芯片

作为AI生态最底层的基石,AWS在定制芯片领域的深耕已持续多年。目前其定制芯片业务规模已达数十亿美元,Trainium系列芯片全球部署总量突破100万张,成为支撑超大规模AI计算的核心支柱,在全球云厂商自研芯片中仅次于谷歌TPU。

此次发布的Trainium 3芯片采用台积电3纳米制程工艺,专为“推理主导”的时代量身打造。随着大模型训练逐步向少数头部玩家集中,广大中小企业的核心需求转向低成本、高效率的推理部署,能耗与成本成为最大瓶颈,Trainium 3精准切中这一市场痛点,实现性能与成本的双重颠覆。

相较上一代,Trainium 3原始性能提升4.4倍,性能功耗比提升4倍,整体能源效率提升40%,直接破解了大规模数据中心在能耗与成本上的难题。实测数据显示,部署主流开源模型(如 GPT-OSS)时,单芯片吞吐量提升3倍,响应延迟缩短4倍。

AWS表示,Trainium 3有望将AI模型全生命周期(训练+推理)成本整体降低50%,在当前算力市场极具竞争力。在英伟达GPU长期占据绝对主导、价格居高不下的背景下,Trainium 3为企业提供了真正可落地的性价比替代方案。

架构层面,Trainium 3单芯片提供2.52 PFLOPs(FP8)算力,支持FP32、BF16、MXFP8及新增MXFP4等多种精度格式。为解决大语言模型最突出的内存瓶颈,该芯片将HBM3e内存容量提升至144GB、带宽提升至4.9TB/s,同时强化结构化稀疏性和微缩放硬件支持,进一步优化大语言模型训练与推理效率。

得益于全新一代Neuron Fabric互联技术,单台Trn3 UltraServer可集成144张芯片,总算力达362 FP8 PFLOPs;通过EC2 UltraClusters 3.0架构,可扩展至最高100万张芯片的超级集群,规模较上一代提升10倍,已为Anthropic的“Project Rainier”项目提供核心算力支撑(目前已部署50万张Trainium 2,计划年底前扩容至100万张)。Karakuri、Metagenomi、NetoAI等客户反馈,使用 Trainium 3后训练与推理成本最高降低 50%,充分验证了其在真实生产环境中的成本优势。



AWS提前披露Trainium 4关键特性

更具深远影响的是,AWS提前披露了Trainium 4的关键特性:将原生支持英伟达NVLink Fusion高速互联技术,彻底打破云厂商自研芯片长期以来的“封闭生态”惯例,展现出“共存并竞争”的务实策略。目前全球约80%的AI应用基于英伟达CUDA生态开发,迁移成本极高。兼容NVLink Fusion后,企业可在同一集群内灵活混搭Trainium与英伟达GPU,按需分配任务(如训练用GPU、推理用Trainium),大幅降低迁移门槛。

Trainium 4预计FP8算力提升3倍、FP4算力提升6倍,内存带宽与容量分别提升4倍和2倍,并将与Graviton CPU、EFA网络及英伟达MGX机架深度融合。这一“以开放换市场”的举措,被业界视为 Trainium系列真正实现规模化普及的转折点。

02.基础设施延伸:AI工厂落地主权云,混合部署一举破解全球合规难题



随着AI深入政府、金融、医疗等高敏感行业,数据主权与合规性已成为全球性瓶颈。欧盟GDPR、美国国防与医疗安全审查等政策使得纯公有云难以满足要求。AWS此次推出AI工厂服务,将全栈AI能力从公有云完整延伸至客户本地或指定区域,快速构建功能等同于私有AWS区域的专属环境。

通过AI工厂,客户可实现数据本地化处理与存储,100%满足数据主权与行业合规要求,AWS负责基础设施全生命周期的部署、运维与升级,彻底解决传统私有云“部署难、维护贵”的问题。结合Trainium芯片、英伟达加速卡、高性能网络以及Bedrock、SageMaker等全套服务,AI工厂将私有云部署周期从数年缩短至数月。AWS同时宣布未来几年投资500亿美元建设美国政府专用高性能计算与AI数据中心,投入规模远超同行。

全球落地方面,AWS已同沙特Humain公司合作建设部署15万张AI芯片的“AI Zone”,基于GB300 GPU实现多吉瓦级扩展,服务智慧城市、医疗健康等领域;AWS欧洲主权云将正式上线,数据中心位于欧盟境内,由欧盟本地团队独立运营。客户可按需选择Trainium或英伟达最新Grace Blackwell、Vera Rubin平台,实现敏感任务本地化、非敏感任务公有云弹性扩展的最优平衡。

03.模型革新:Nova 2家族全面对标行业顶尖,Nova Forge开创“开放式深度定制”新范式

在模型层,AWS此前的表现相对低调,市场份额多被OpenAI、Anthropic等专业模型厂商占据。此次升级的Nova 2模型家族显然是AWS发力模型市场的关键举措,推出Lite、Pro、Sonic、Omni四款细分产品,全面覆盖推理、多模态、对话AI与代码生成等核心场景,直接对标行业头部模型。



Nova 2 Lite的基准测试数据

其中,Nova 2 Lite作为高性价比推理模型,支持文本、图像、视频等多格式输入,上下文窗口达100万token,性能对标Anthropic Claude 4.5 Haiku、OpenAI GPT-5 Mini等主流高效模型,主要面向中小企业的轻量化推理需求。



Nova 2 Pro的基准测试数据

Nova 2 Pro则瞄准复杂任务处理,推理能力媲美甚至超越OpenAI GPT-5、Google Gemini 3.0 Pro 等旗舰模型,特别适用于智能体相关任务。其强大的逻辑推理与工具调用能力,正是智能体完成复杂业务流程的核心,该模型目前已向Nova Forge早期客户开放预览。​

Nova 2 Sonic专注于实时多语言对话场景,100万token的上下文窗口可容纳7.5万行代码或1500页文本,支持20余种语言的实时转译与对话,瞄准客服、跨境沟通等场景。

Nova 2 Omni作为全模态模型,能够同时处理图像、音频、视频和文本输入,并通过模拟推理生成多样化输出。例如,该模型可直接分析一段工业生产视频,识别设备故障并生成维修方案,为长文档、视频等复杂媒体处理提供一体化解决方案,填补了AWS在全模态领域的短板。​



Nova Forge服务

AWS此次发布的Nova Forge服务颠覆了传统模型定制模式。传统模型定制多采用“微调”方式,在预训练完成的模型基础上,用企业数据进行二次训练。这种方式难以让企业专有知识深度融入模型底层,定制效果有限,且成本高昂。动辄数百万美元的定制费用让中小企业望而却步。

Nova Forge允许企业支付10万美元年费,不含工程师协助费用,在模型预训练、中期训练和后训练三个关键阶段接入Nova模型的检查点,将自有数据深度嵌入训练过程,打造具备专业领域知识的“定制模型”。这种模式大幅降低了深度定制的门槛,同时让模型更贴合企业业务逻辑。​

实际应用中,Reddit利用该服务打造的“Reddit专家模型”,在平台敏感内容审核方面表现远超通用大语言模型。该模型能够精准识别Reddit社区特有的slang用语、梗文化相关的违规内容,误判率降低30%。生物技术公司Nimbus Therapeutics将药物研发数据嵌入Nova模型,构建的定制模型在分子结构预测、临床试验数据分析等任务中,效率较通用模型提升40%。Booking.com则通过定制模型优化酒店推荐算法,用户转化率提升15%。

相较于投入数亿美元从零构建模型,Nova Forge为企业提供了更经济高效的专业化路径,目前已支持Nova 2 Lite,并计划扩展至Pro和Omni模型。

04.应用落地:Bedrock AgentCore破解工程化难题,智能体加速企业部署



智能体AI虽被寄予厚望,但企业部署过程中面临的工程化难题不容忽视。安全合规风险、可靠性难以评估、长期记忆能力不足等问题,导致多数智能体仍停留在概念验证阶段,难以规模化落地。

AWS重点升级了 Amazon Bedrock AgentCore平台,针对企业部署中的核心需求提供一站式解决方案。该平台目前已全面通用可用,兼容CrewAI、LangGraph等开源框架及各类基础模型。这种开放性避免了企业被单一生态绑定,降低了开发成本。​

在安全治理方面,AgentCore Policy功能允许开发者通过自然语言定义智能体的操作边界。例如“禁止访问财务部门数据库”“自动退款额度不得超过1000美元” 等,通过AgentCore Gateway实时拦截违规 API调用,实现独立于智能体代码的确定性控制。这一功能解决了智能体“越权操作”的风险,尤其适用于金融、医疗等监管严格的行业。该功能目前已进入预览阶段,AWS表示将后续支持更细粒度的权限管控,例如基于角色的访问控制(RBAC)与数据脱敏处理。​

针对智能体可靠性难题,平台内置13种预置评估系统,覆盖准确性、安全性、工具选择逻辑、响应质量等关键维度,可对智能体进行持续监控。与传统人工评估不同,该系统通过大语言模型辅助生成评估报告,并解释失败原因。

例如,智能体未完成预订任务时,系统会自动分析是工具调用错误、参数设置不当还是上下文理解偏差,帮助开发者快速定位问题。这一能力大幅降低了企业自建评估体系的工程成本,据AWS客户反馈,采用AgentCore评估工具后,智能体从概念验证到生产部署的周期平均缩短60%。​

记忆功能的升级让智能体具备了长期服务能力。AgentCore Memory可记录用户交互历史与偏好,支持多轮会话和跨任务场景的上下文连贯性。例如,用户此前告知智能体 “偏好无烟酒店”,后续预订时无需重复说明。新增的情景学习(Episodic Learning)功能,能让智能体从过往经验中持续优化决策质量。例如,在多次处理客户投诉后,智能体可自动总结最优解决方案。这些能力已在实际应用中展现价值。

PGA TOUR通过该平台构建的内容生成智能体,实现赛事新闻、球员数据报告的自动化生成,速度提升1000%,成本降低95%。Heroku基于平台构建的应用开发智能体,可协助开发者完成代码调试、部署流程自动化,开发效率提升30%。包括纳斯达克、百时美施贵宝等企业都已在借助该平台推动交易风控、药物研发等业务流程的自主化转型。​

从底层Trainium芯片的算力突破,到AI工厂的混合云部署延伸,再到Nova系列模型的定制化能力,最终通过Bedrock AgentCore实现智能体工程化落地,AWS在re:Invent 2025上完整呈现了“芯片-模型-智能体-混合云” 的全栈战略布局。

这一架构并非孤立模块的简单叠加,而是通过各层级的深度协同形成合力。Trainium芯片为模型训练与智能体运行提供低成本算力支撑,AI工厂解决合规部署难题,Nova Forge让模型适配业务场景,Bedrock AgentCore降低智能体开发门槛。这种协同效应构建了强大的竞争壁垒,使其区别于仅专注于单一环节的厂商。​

05.全栈协同构建竞争壁垒,AWS欲定义智能体AI的未来

在全球AI竞争进入深水区的当下,AWS的战略转型意义深远。硬件层通过能效革命与生态开放,在英伟达主导的市场中开辟出差异化路径。基础设施层以主权云解决方案,切入政府与受监管行业这一高价值市场;模型层用深度定制服务,满足企业“专业化”而非“通用化”的核心需求;应用层靠工程化工具,打通AI从技术到价值的转化通道。

这种全栈协同的竞争模式,不仅将重塑AI基础设施的市场格局,还将推动企业智能化从单点应用走向全域自主化运营。未来,企业无需再整合多个厂商的产品,即可通过AWS生态快速构建贴合自身需求的智能体解决方案,这将大幅降低AI应用门槛,加速产业智能化进程。​

当然,AWS的布局也面临挑战。

Trainium芯片的生态兼容性仍需时间验证,Nova模型的市场认可度需与OpenAI、Anthropic等厂商竞争,AI工厂的本地化部署能力还需应对不同地区的监管差异。

但不可否认的是,AWS此次发布的全栈战略,为行业提供了一种AI落地的全新范式。随着这一系列创新成果的落地,智能体AI有望真正突破技术瓶颈,成为驱动企业增长的核心引擎,开启人工智能商业化的全新阶段。