AWSとOpenAIが複数年の戦略的提携を発表、380億ドル規模のインフラ投資で生成AI基盤を強化
最終更新日:2025年11月12日

Amazon Web Services(AWS)とOpenAIは2025年11月3日、複数年にわたる戦略的提携を発表した。
この380億ドル規模の契約により、OpenAIはAWSの大規模インフラを活用し、ChatGPTをはじめとする高度なAIワークロードの実行と拡張を即座に開始する。
- AWSとOpenAIが380億ドル、7年間の戦略的提携契約を締結し、即座にインフラ利用を開始
- OpenAIは数十万個のNVIDIA GPUと数千万個のCPUへのアクセス権を獲得し、2026年末までに全容量を展開予定
- Amazon EC2 UltraServersを活用した低レイテンシー設計により、ChatGPTの推論処理と次世代モデルの訓練を効率化
AWSとOpenAIの提携は、AI技術の急速な進化によって生まれた前例のない計算能力需要に対応するものだ。OpenAIは即座にAWSの計算リソースの利用を開始し、2026年末までにすべての容量を展開する予定で、2027年以降もさらなる拡張が可能となる。
この契約により、OpenAIは数十万個の最先端NVIDIA GPUで構成される計算資源にアクセスでき、エージェント型ワークロードを迅速に拡張するために数千万個のCPUへの拡張も可能となる。
AWSは50万チップを超える大規模AIインフラを安全かつ信頼性高く運用してきた実績を持ち、この経験がOpenAIの中核的なAIワークロードの実行基盤として機能する。
AWSがOpenAI向けに構築するインフラ展開は、AI処理の効率性とパフォーマンスを最大化するために最適化された高度なアーキテクチャ設計を特徴としている。
GB200とGB300を含むNVIDIA GPUをAmazon EC2 UltraServers経由で同一ネットワーク上にクラスタリングすることで、相互接続されたシステム全体で低レイテンシーのパフォーマンスを実現し、OpenAIが最適なパフォーマンスでワークロードを効率的に実行できるようにする。
これらのクラスターは、ChatGPTの推論処理から次世代モデルの訓練まで、さまざまなワークロードをサポートするよう設計されており、OpenAIの進化するニーズに柔軟に適応できる構造となっている。
OpenAIの共同創業者兼CEOであるサム・アルトマン氏は、フロンティアAIのスケーリングには大規模で信頼性の高い計算能力が必要であり、AWSとの提携が次の時代を支える広範な計算エコシステムを強化し、高度なAIをすべての人に届けると述べた。
AWSのCEOであるマット・ガーマン氏は、OpenAIが可能性の限界を押し広げ続ける中、AWSのクラス最高のインフラがAI目標の基盤として機能し、最適化された計算リソースの幅広さと即時利用可能性がAWSをOpenAIの膨大なAIワークロードをサポートする独自の位置に置いていると強調した。
この発表は、両社が世界中の組織に最先端のAI技術を提供するための協力関係を継続するものだ。2025年初頭には、OpenAIのオープンウェイト基礎モデルがAmazon Bedrockで利用可能になり、AWSの数百万の顧客に追加のモデルオプションを提供している。
OpenAIはすぐにAmazon Bedrockで最も人気のある公開モデルプロバイダーの1つとなり、Bystreet、Comscore、Peloton、Thomson Reuters、Triomics、Verana Healthを含む数千の顧客が、エージェント型ワークフロー、コーディング、科学分析、数学的問題解決などでこれらのモデルを活用している。
AI Market の見解
本提携は、生成AI市場における計算インフラの重要性を明確に示すものだ。380億ドルという大規模投資は、フロンティアモデルの開発と運用に必要な計算リソースが急速に増大していることを反映している。
技術的観点では、Amazon EC2 UltraServersによるGPUクラスタリングと低レイテンシーネットワーク設計が、推論処理と訓練の両方で高い効率性を実現する点が注目される。ビジネス的には、OpenAIがMicrosoftとの既存の関係を維持しながらAWSとも提携することで、計算リソースの多様化とリスク分散を図っていると想定される。
Amazon Bedrockを通じたOpenAIモデルの提供により、AWS顧客基盤への直接アクセスも確保され、エンタープライズ市場でのリーチ拡大が期待される。
今後、クラウドプロバイダー間の大規模AI計算インフラ競争がさらに激化し、モデル開発者とインフラ提供者の戦略的提携が業界標準となると想定される。
参照元:OpenAI
AWSとOpenAI提携に関するよくある質問まとめ
- この提携でOpenAIはどのような計算リソースにアクセスできるのか?
OpenAIは数十万個のNVIDIA GPU(GB200およびGB300)と、数千万個のCPUにアクセスできる。
これらはAmazon EC2 UltraServersを通じて提供され、低レイテンシーで相互接続されたクラスター構成となっている。2026年末までに全容量が展開され、2027年以降もさらなる拡張が可能だ。
- Amazon BedrockでOpenAIのモデルはどのように利用できるのか?
2025年初頭から、OpenAIのオープンウェイト基礎モデルがAmazon Bedrockで利用可能になっている。
AWS上の数百万の顧客がこれらのモデルを活用でき、エージェント型ワークフロー、コーディング、科学分析、数学的問題解決などの用途で使用されている。

AI Market ニュース配信チームでは、AI Market がピックアップするAIや生成AIに関する業務提携、新技術発表など、編集部厳選のニュースコンテンツを配信しています。AIに関する最新の情報を収集したい方は、ぜひ𝕏(旧:Twitter)やYoutubeなど、他SNSアカウントもフォローしてください!
𝕏:@AIMarket_jp
Youtube:@aimarket_channel
TikTok:@aimarket_jp
過去のニュース一覧:ニュース一覧
ニュース記事について:ニュース記事制作方針
運営会社:BizTech株式会社
ニュース掲載に関するご意見・ご相談はこちら:ai-market-press@biz-t.jp
