AI企業とGPU:覚書

ブログ
OpenAI が AWS と 7 年・380億ドル(約6兆円級)のクラウド契約を締結。「GPUの比率」は少しずつ変化する

これらは「LLM用に最適化」されていて、→ 同じ仕事を、GPUより安く・少ない電力でこなす 方向。NVIDIA の H100 / B100 みたいな「汎用GPU」は、柔軟性が高いぶん、コストも高いので色々やってるので整理

自社チップ(専用ASIC)
Google:TPU
Amazon:Trainium / Inferentia
Microsoft:Maia / Cobalt
Meta:自社AIチップ

2025 年 11 月、OpenAI が AWS と 7 年・380億ドル(約6兆円級)のクラウド契約を締結。

  • 中身:
    • AWS 上の NVIDIA GPU を「数十万台規模」で長期確保
    • 2026 年末までにフルキャパ配備、その後さらに拡張オプション
    • 対価として 7 年間で最低 380 億ドル支払うコミット
  • ジェンスパーク × Amazon(AWS)
    • AWS をメインクラウドに採用。
    • 余りGPUを安く使える「EC2 Spot」などでGPUコストを大幅削減
    • Bedrock のプロンプトキャッシュ等で推論コストも圧縮
    • 目的:「安く・大量に・安定してGPUを回すための同盟」

  • ChatGPT(OpenAI) × 複数クラウド
    • もともと:Microsoft Azure ほぼ一択
    • いま:Google Cloudとも組んで、一部ワークロードをGoogle側でも稼働。
    • さらに AWS・Oracle とも大型契約を結び、完全なマルチクラウド体制に。
    • 目的:
      • GPU不足リスクの分散
      • 特定クラウドへの依存を弱めて価格交渉力アップ
      • 将来的に NVIDIA 依存も相対的に下げたい流れ。

  • Anthropic(Claude)
    • AWS:Trainium / Inferentia(自社AIチップ)+NVIDIA GPU。
    • Google Cloud:TPU も利用。
    • 目的:チップもクラウドも分散して価格と性能を最適化

  • xAI(Grok)
    • Oracle Cloud(OCI):大量GPUクラスターで学習・推論。
    • Microsoft Azure:提供面で連携。
    • 目的:コスパの良いGPU確保+複数クラウド展開

  • Meta(Llama)
    • Google Cloud と大型契約し、TPUやVertex AIを活用。
    • 自社の巨大GPUクラスターとも併用。
    • 目的:自社GPU+他社クラウドでスケールと柔軟性を確保

AI企業・サービス主な提携クラウド / ベンダーねらい(ざっくり)
GensparkAWS(EC2 Spot, Bedrock など)GPU・推論コストを大幅削減しつつスケール確保
OpenAI(ChatGPT)Azure / Google Cloud / AWS / Oracleマルチクラウドで供給リスク分散&価格交渉力アップ
Anthropic(Claude)AWS(Trainium等) / Google Cloud(TPU)複数チップ・複数クラウドでコスパと性能の両立
xAI(Grok)Oracle Cloud(OCI) / Azure安価なGPUクラスター活用+配信面でのマルチクラウド展開
Mistral AIAzure / 自前DC+NVIDIA大量導入欧州での自前GPU主権+クラウドの柔軟性
CohereOracle Cloud / AMD GPUNVIDIA依存を弱めてGPUコストを圧縮
Meta(Llama)自社GPUクラスタ+Google Cloud自社インフラ+他社クラウドでスケールと冗長性を確保
岡山のホームページ作成