我们与 NVIDIA 的合作至关重要。NVIDIA 是我们训练和推理领域最重要的合作伙伴,我们所有的计算集群都运行在 NVIDIA GPU 上。这并非简单的供应商关系,而是深入且持续的协同设计。我们共同构建系统,我们前沿的模型是多年来并肩进行硬件和模型工程研发的成果。
我们已将可用计算能力从 2023 年的 0.2 GW 扩展到 2024 年的 0.6 GW,并计划在 2025 年达到约 1.9 GW,而且这一增长速度还在加快。随着用户数量、智能体数量和持续运行工作负载的增加,推理需求呈指数级增长。NVIDIA 将继续引领训练和推理的性能、效率和可靠性标准。
需求曲线清晰可见。世界需要数量级以上的计算能力。
因此,我们选择以 NVIDIA 作为训练和推理技术栈的核心,同时通过与 Cerebras、AMD 和 Broadcom 的合作,积极拓展其生态系统。这种方法使我们能够更快地发展、更广泛地部署,并支持爆炸式增长的实际应用场景,同时又不牺牲性能或可靠性。最终成果简单而持久:能够将前沿能力全面应用于生产环境,并实现全球规模化部署的基础设施。








