OpenAI が AWS と 7 年・380億ドル(約6兆円級)のクラウド契約を締結。「GPUの比率」は少しずつ変化する
これらは「LLM用に最適化」されていて、→ 同じ仕事を、GPUより安く・少ない電力でこなす 方向。NVIDIA の H100 / B100 みたいな「汎用GPU」は、柔軟性が高いぶん、コストも高いので色々やってるので整理
自社チップ(専用ASIC)
Google:TPU
Amazon:Trainium / Inferentia
Microsoft:Maia / Cobalt
Meta:自社AIチップ
2025 年 11 月、OpenAI が AWS と 7 年・380億ドル(約6兆円級)のクラウド契約を締結。
- 中身:
- AWS 上の NVIDIA GPU を「数十万台規模」で長期確保
- 2026 年末までにフルキャパ配備、その後さらに拡張オプション
- 対価として 7 年間で最低 380 億ドル支払うコミット
- ジェンスパーク × Amazon(AWS)
- AWS をメインクラウドに採用。
- 余りGPUを安く使える「EC2 Spot」などでGPUコストを大幅削減。
- Bedrock のプロンプトキャッシュ等で推論コストも圧縮。
- 目的:「安く・大量に・安定してGPUを回すための同盟」。
- ChatGPT(OpenAI) × 複数クラウド
- もともと:Microsoft Azure ほぼ一択。
- いま:Google Cloudとも組んで、一部ワークロードをGoogle側でも稼働。
- さらに AWS・Oracle とも大型契約を結び、完全なマルチクラウド体制に。
- 目的:
- GPU不足リスクの分散
- 特定クラウドへの依存を弱めて価格交渉力アップ
- 将来的に NVIDIA 依存も相対的に下げたい流れ。
- Anthropic(Claude)
- AWS:Trainium / Inferentia(自社AIチップ)+NVIDIA GPU。
- Google Cloud:TPU も利用。
- 目的:チップもクラウドも分散して価格と性能を最適化。
- xAI(Grok)
- Oracle Cloud(OCI):大量GPUクラスターで学習・推論。
- Microsoft Azure:提供面で連携。
- 目的:コスパの良いGPU確保+複数クラウド展開。
- Meta(Llama)
- Google Cloud と大型契約し、TPUやVertex AIを活用。
- 自社の巨大GPUクラスターとも併用。
- 目的:自社GPU+他社クラウドでスケールと柔軟性を確保。
| AI企業・サービス | 主な提携クラウド / ベンダー | ねらい(ざっくり) |
|---|---|---|
| Genspark | AWS(EC2 Spot, Bedrock など) | GPU・推論コストを大幅削減しつつスケール確保 |
| OpenAI(ChatGPT) | Azure / Google Cloud / AWS / Oracle | マルチクラウドで供給リスク分散&価格交渉力アップ |
| Anthropic(Claude) | AWS(Trainium等) / Google Cloud(TPU) | 複数チップ・複数クラウドでコスパと性能の両立 |
| xAI(Grok) | Oracle Cloud(OCI) / Azure | 安価なGPUクラスター活用+配信面でのマルチクラウド展開 |
| Mistral AI | Azure / 自前DC+NVIDIA大量導入 | 欧州での自前GPU主権+クラウドの柔軟性 |
| Cohere | Oracle Cloud / AMD GPU | NVIDIA依存を弱めてGPUコストを圧縮 |
| Meta(Llama) | 自社GPUクラスタ+Google Cloud | 自社インフラ+他社クラウドでスケールと冗長性を確保 |



