AWS Trainium3芯片能否撼动英伟达GPU霸主地位?Decart实现40毫秒实时视频生成,成本骤降50%引行业震撼!

Decart uses AWS Trainium3 for real-time video generation

亚马逊云科技(AWS)近日与AI视频初创公司Decart达成合作,其自研AI加速芯片Trainium再获重要客户。根据协议,Decart将基于AWS Trainium3优化其旗舰视频生成模型Lucy,实现实时视频生成。此举凸显了在AI加速领域,定制化芯片正日益挑战英伟达GPU的传统主导地位。

【深度合作】
Decart将全面投入AWS生态,其模型将通过Amazon Bedrock平台向开发者开放。这意味着开发者无需担忧底层基础设施,即可将Decart的实时视频生成能力集成到各类云应用中。通过Bedrock的分发,AWS增强了“即插即用”能力,显示出亚马逊对实时AI视频需求增长的信心,同时也帮助Decart扩大在开发者社群中的影响力。

【性能突破】
Decart选择Trainium2的关键在于其性能优势:Lucy模型的首帧生成时间仅40毫秒,几乎在提示词输入后即刻开始生成视频。通过Trainium优化流程,Lucy在保持30fps输出帧率的同时,画质可媲美OpenAI的Sora 2和谷歌的Veo-3等成熟但速度较慢的模型。更值得关注的是,Decart已获得新一代Trainium3处理器的早期使用权,其支持高达100fps的输出帧率且延迟更低。Decart联合创始人兼CEO Dean Leitersdorf表示:“Trainium3的新架构带来更高吞吐量、更低延迟和更优内存效率,使我们的帧生成速度提升至4倍,而成本仅为GPU的一半。”

【行业趋势】
定制化AI加速芯片(如Trainium、谷歌TPU、Meta MTIA)采用专用集成电路(ASIC)架构,针对特定任务剥离冗余功能单元,在性能与能效上显著优于通用GPU。典型案例包括:
– Anthropic与AWS合作的“Rainier项目”,使用数十万颗Trainium2处理器构建超算集群,为Claude Opus-4.5等先进模型提供数百EFLOPS算力;
– AI编程初创公司Poolside使用Trainium2训练模型,并计划未来用于推理;
– Anthropic同时探索在百万级谷歌TPU集群上训练下一代Claude模型;
– Meta正与博通合作开发定制AI处理器以训练Llama模型,OpenAI也有类似计划。

【竞争格局】
英伟达虽仍主导AI市场(处理绝大多数AI工作负载),但正面临定制处理器的日益严峻挑战。值得注意的是,英伟达据称也在自主研发ASIC芯片以应对云厂商竞争。行业共识是,ASIC不会完全取代GPU:GPU的灵活性使其仍是GPT-5、Gemini 3等通用模型的唯一选择,且在AI训练领域保持主导;而ASIC更适合处理需求稳定的专用任务(如实时视频生成)。

【延伸思考】
1. 当AI应用场景日趋垂直化,定制芯片会否催生“算力碎片化”,反而增加开发者的集成成本?
2. 英伟达若成功推出自研ASIC,会如何重塑其与云服务商之间既合作又竞争的关系?

定制AI处理器的崛起正推动芯片设计向更高定制化发展,提升专业应用性能,为以实时视频为代表的AI创新浪潮奠定基础。

(图片来源:AWS re:invent)

阅读 ArtificialIntelligence News 的原文,点击链接

Simon