2025年11月3日、OpenAI(本社:アメリカ・カリフォルニア州サンフランシスコ、CEO:サム・アルトマン)によって、Amazon Web Services(AWS)と今後数年間にわたる戦略的パートナーシップ契約(総額380億ドル=約5.7兆円)を締結したと発表がありました。
- OpenAIはAWSのNVIDIA GPUを中心とした先進的なAIインフラを活用し、計算能力を大幅拡張。
- 契約は2026年末までに大部分のリソースを展開、最大で数千万CPU規模にスケーラブル。
- Microsoftの独占的クラウド提供終了に伴い、OpenAIがクラウドパートナーを多角化。
OpenAIは、生成AIや次世代モデルの開発に必要な膨大な計算資源を確保するため、Amazonのクラウド部門AWSと7年間にわたる長期契約を締結した。契約総額は約380億ドルに上り、OpenAIがAWSのインフラを即時に利用開始する形となった。
この契約により、OpenAIは数十万規模のNVIDIA製GPU(GB200・GB300など)をAmazon EC2 UltraServers経由で使用し、将来的には数千万CPU規模までスケール可能な構成を採用。これにより、ChatGPTなどの推論処理から、次世代フロンティアモデルの訓練まで幅広く対応できるという。
この発表により、OpenAIはこれまで専属契約を結んでいたMicrosoft Azure以外のクラウドベンダーとの関係を本格化させ、すでにOracleやGoogleとのパートナーシップも発表済み。今回のAWSとの直接契約は、OpenAIの独立性と事業の成熟を示すものとされている。
一方、Microsoftは引き続きOpenAIの主要パートナーとして位置づけられており、先週にはAzureへの2500億ドルの追加投資も表明された。だが、Microsoftの「優先契約期間」が終了したことにより、OpenAIはより柔軟にクラウドパートナーを選択可能な状況になっている。
AWS側は、OpenAIのAIワークロード向けに既存データセンターのリソース提供を開始しており、今後は専用インフラの増設も計画中。副社長のデイブ・ブラウン氏は「すでに利用可能なキャパシティもあり、OpenAIは即日活用を始めている」と語った。
なお、今回の契約はNVIDIA製GPUが前提だが、将来的にはAWS独自のTrainiumチップの活用も検討されているという。ただし、現時点でOpenAIがTrainiumを導入しているかは未確認。
OpenAIのモデルはすでにAWSのAIプラットフォーム「Bedrock」上でも提供されており、Peloton、トムソン・ロイター、Triomicsなど多数の企業が利用中。今後はより直接的な利用契約として発展する見込みとのこと。
この契約は、OpenAIのIPO(新規株式公開)を見据えた布石ともされている。CEOのサム・アルトマン氏やCFOのサラ・フライアー氏は、上場が資本確保のために「最も現実的な道筋」であると発言しており、クラウドリソースの分散確保はその準備の一環とみられる。
AWSにとっても、本契約はライバル企業Anthropic(AWSが出資)との競争において重要な意味を持つ。Amazon株はこの発表を受けて4%上昇し、過去最高値で取引を終えている。
















コメントを残す