# OpenAI调整“星际之门”策略:从自建到租赁,算力部署进入“加速模式”
近日,OpenAI对其备受关注的“星际之门”(Stargate)超级计算集群项目做出重大战略调整——从原本计划完全自建大规模数据中心,转向大规模采用算力租赁模式。这一转变标志着OpenAI在AI基础设施部署上的务实转向,也反映出当前AI行业在算力供给与成本控制之间的深层博弈。
**策略调整的核心内容**
“星际之门”最初被定位为OpenAI与微软联合打造的、耗资超千亿美元的巨型数据中心项目,旨在为下一代AI模型提供独占式算力支撑。然而,根据最新披露信息,OpenAI已大幅缩减自建规模,转而与多家第三方云服务商(如Oracle、CoreWeave等)签订长期算力租赁协议。这一调整并非完全放弃自建,而是将“自建+租赁”混合模式作为新策略,其中租赁部分将承担大部分短期至中期的算力需求。
**转向租赁的深层动因**
从成本与效率角度看,自建数据中心面临建设周期长(通常3-5年)、资本支出巨大、技术迭代风险高等问题。而AI模型训练需求正以指数级增长,OpenAI若等待自有设施建成,可能错失市场窗口。租赁模式能够快速获取现成算力,将部署周期从数年压缩至数月,同时将固定成本转化为可变成本,降低财务风险。此外,当前GPU供应紧张,通过租赁可以绕过硬件采购瓶颈,灵活适配不同模型对算力规格的动态需求。
**对行业的影响与展望**
这一调整反映出AI巨头从“拥有算力”向“使用算力”的思维转变。对云服务商而言,OpenAI的租赁订单将加速其算力资源扩容,推动GPU即服务(GPUaaS)市场成熟。对竞争对手(如Anthropic、Google DeepMind)而言,算力获取门槛的降低可能引发新一轮模型竞赛。长远来看,OpenAI此举或将成为行业范式——未来AI基础设施将更强调弹性与可组合性,而非单纯追求物理所有权。然而,租赁模式也带来数据安全、依赖单一供应商等隐忧,OpenAI需在效率与可控性之间找到新平衡。