gpt-ossとは?オープンソースLLMの特徴やできること、性能、料金、使うには?、活用事例まで徹底解説!
最終更新日:2025年08月07日

- OpenAIが推論特化型のMoEモデル「gpt-oss」を無償公開し、開発や研究用途での幅広い活用が可能に
- Apache 2.0ライセンスの下で商用利用も含めた自由な再利用やファインチューニングが認められている
- ツール呼び出しや推論深度の調整、Structured Output出力など多機能なエージェント向け設計を採用
gpt-ossは、ChatGPTを提供するOpenAIが2025年8月に提供を開始したオープンウェイトのLLM(大規模言語モデル)で、推論性能、安全性、展開の柔軟性に優れています。
Apache 2.0ライセンスのもと、商用利用を含む幅広い用途に無償で対応し、研究機関から個人開発者まで多様なユーザーが活用可能です。
また、モデルのバリエーションも豊富で、軽量なものからマルチモーダル対応モデルまで揃っており、用途やリソースに応じて最適な構成を選べる点も魅力です。
この記事では、gpt-ossとは何かという基本から、特徴・できること、性能、料金、使うには、活用事例までを解説します。導入を検討している方に役立つ内容となっていますので最後までご覧ください。
AI Marketでは
LLMに強いAI会社をご自分で選びたい場合はこちらで特集していますので併せてご覧ください。
目次
gpt-ossとは?
We released two open-weight reasoning models—gpt-oss-120b and gpt-oss-20b—under an Apache 2.0 license.
Developed with open-source community feedback, these models deliver meaningful advancements in both reasoning capabilities & safety.https://t.co/PdKHqDqCPf
— OpenAI (@OpenAI) August 5, 2025
gpt-ossは、OpenAIが開発したMixture-of-Experts(MoE)型のオープンウェイトLLM(大規模言語モデル)で、Hugging Face等から無料でダウンロードして利用することが可能です。
gpt-oss-120bとgpt-oss-20bの2つが提供されており、それぞれ36層・24層構造、最大128エキスパート構成で設計されています。
用途としては、推論重視のAIアプリケーションやエンタープライズ向けシステム、オンデバイス推論などが想定されています。
gpt-ossの特徴・できること
gpt-ossは、多様な用途に柔軟に対応できます。
カスタマイズと拡張性
Apache 2.0ライセンスの下、ユーザーはgpt-ossモデルを自由にファインチューニングし、独自のアプリケーションや研究開発に適用できます。
ファインチューニングに必要なモデルウェイトやトークナイザーもHugging Faceで公開されており、ローカル環境や主要クラウドプラットフォームを問わず容易に展開できます。
また、Windows環境向けにはONNX対応の最適化モデルも提供されています。
長文処理に適した128kコンテキスト
両モデルは128,000トークンまでの長文コンテキストに対応しており、文書要約や長編チャットなどにも対応可能です。
また、位置エンコーディングにはRoPE(Rotary Positional Embedding)が使用され、長文における文脈保持の精度が向上しています。
ワークフローへの統合
gpt-ossは、以下のような機能を活用することで、ツールやエージェントシステムと組み合わせた自律的なワークフローにも対応できます。
- Web検索やPythonコードの実行など、外部ツールの呼び出しに対応
- JSON形式などのStructured Outputを生成可能
- reasoning_effortの設定によって推論の深さを調整
- Chain-of-Thought(思考の連鎖)による段階的な推論が可能
優れた推論力とスケーラビリティ
gpt-ossは、標準・中・高の3段階で推論レベル(reasoning effort)を制御でき、Chain-of-Thought(CoT)を効果的に活用して複雑な問題にも段階的に対応します。
高精度のAIMEベンチマークやGPQAでの成績は、OpenAI o3-miniを上回り、o4-miniに匹敵する水準です。
効率性と展開性
gpt-ossモデルは、一般的なハードウェア環境でも実行可能なよう最適化されており、gpt-oss-20bは16GBのGPUで、gpt-oss-120bは80GBのGPUで動作します。
これは他の同規模モデルと比較して非常に効率的で、推論性能を損なうことなく低リソース環境での活用を可能にしています。
また、Mixture-of-Expertsの設計により、入力に応じたパラメータのみを活性化することで、推論時の計算コストを抑えつつ性能を最大化しています。
学習と評価プロセス
gpt-ossは、CBRN(化学・生物・放射線・核)に関連する高リスクデータを学習から除外し、事後学習では熟慮的アライメントやプロンプト拒否技術を導入することで、安全性を重視したモデル挙動を実現しています。
さらに、悪意あるファインチューニングへの耐性を確認するための独立評価も実施され、攻撃シナリオ下での健全性が検証されています。
参考:gpt-oss-120b & gpt-oss-20b Model Card
gpt-ossの性能

以下の表は、gpt-ossシリーズおよびOpenChatシリーズのモデル(120b/20b/o4-mini/o3/o3-mini)を対象に、7つのベンチマークで性能を比較した結果をまとめたものです。
評価項目 | gpt-oss-120b | gpt-oss-20b | o4-mini | o3 | o3-mini |
---|---|---|---|---|---|
AIME 2024(競技数学) | 96.6% | 96.0% | 98.7% | 95.2% | 87.3% |
AIME 2025(競技数学) | 97.9% | 98.7% | 99.5% | 98.4% | 86.5% |
GPQA Diamond(PhD科学) | 80.1% | 71.5% | 81.4% | 83.3% | 77% |
MMLU(一般知識) | 90% | 85.3% | 93% | 93.4% | 87% |
Tau-Bench(ツール使用) | 67.8% | 54.8% | 65.6% | 70.4% | – |
HealthBench(標準) | 57.6% | 42.5% | 50.1% | 59.8% | 37.8% |
HealthBench Hard | 30% | 10.8% | 17.5% | 31.6% | 4% |
gpt-oss-120bは、複数のベンチマークにおいてOpenAIのo4-miniと同等またはそれ以上のスコアを記録しており、特にHealthBench HardやMMLUなどの推論系タスクで高いパフォーマンスを示しました。
gpt-oss-20bは小規模モデルながら、競技数学分野では120bに匹敵する精度を達成し、軽量な推論モデルとして評価されています。
参考:gpt-oss が登場
gpt-ossのライセンス・料金体系
gpt-ossはApache 2.0ライセンスのもと、無償で公開されており、以下のように利用可能です。
利用形態 | 条件 |
---|---|
商用利用 | 制限なく利用可能(ライセンス遵守が前提) |
再配布・改変 | ソースや学習済みモデルの改変・再配布も可能 |
gpt-ossを使うには?
gpt-ossは、Playgroundによる試用、ローカル実行、クラウドサービス連携など、さまざまな方法で使用可能です。以下に、主な利用方法について説明します。
gpt-oss Playgroundでモデルを試す
gpt-ossを実際に試してみたい場合は、「gpt-oss Playground」にアクセスすることで、ブラウザ上で手軽にモデルを体験できます。
ローカルGPUでの実行
モデルのウェイトとトークナイザーはHugging Faceからダウンロード可能で、PyTorchやApple Metal向けのリファレンス実装はGitHub上で公開されています。
また、ローカル環境にダウンロードすれば、インターネットに接続しない状態でも推論を実行でき、セキュリティ要件の高い用途や、プライバシー重視のユースケースに適しています。
クラウド・外部サービスでの利用
gpt-ossは、さまざまなサードパーティのAI推論基盤やツールを通じて利用可能です。事前構築された環境でAPIを介して呼び出すことができ、クラウド・ローカル問わず柔軟な開発が行えます。
- Together AI
- Fireworks
- Baseten
- Databricks
- Azure / AWS などのクラウド環境
- OpenRouter
- LM Studio
- Foundry Local
- Ollama
- VS Code用AIツールキット
主要なAI推論プロバイダーがgpt-ossをサポートしています。これらのサービスを使えば、APIキーを設定するだけで、Webブラウザからすぐにモデルを実行できます。
gpt-ossの活用事例
以下に、X(旧Twitter)などで報告されているgpt-ossの活用例を紹介します。
Macローカルでgpt-oss-120Bを単体実行
Mac m4 max 64GBローカルだけででopenai/gpt-oss-120B動いた〜〜〜🔥🔥🔥
120Bですよ〜これはすごい嬉しいし、ローカルとは思えない賢さ!💡「モデルをメモリに保持」をオフにするのがミソです!🙌o-kenさん( @tamanimitel )マジ気づいてくれてありがとうございます〜ホームランすぎました!⚾️✨… pic.twitter.com/nA10W6wjpT
— あきらパパ【生成AI活用エンジニア&3児のパパ】 (@akira_papa_IT) August 5, 2025
Threadripper搭載PCでのローカル推論実行
OpenAIのgpt-oss:120bをThreadripper 7980X、メインメモリ384GBのローカルマシンで動かすとこれくらいの速度 pic.twitter.com/KuMupBLmYH
— Rui Ueyama (@rui314) August 6, 2025
他にも、以下のような活用が可能です。
開発者向けローカルコーディング補助
gpt-oss-20bは、16GBメモリでも動作するため、Windows上のFoundry LocalやVS Codeと連携し、コーディング補助やローカル検証用AIとして活用されています。
オンプレミスでの医療データ活用
AI Swedenなどの事例では、プライバシーの懸念がある医療分野において、gpt-ossをオンプレミスで運用し、外部接続なしでの自然言語応答システムを構築しています。
企業のカスタムAIワークフロー
OrangeやSnowflakeは、独自ドメインに特化したgpt-ossのファインチューニングとシステム組み込みを行い、社内ナレッジ検索やツール連携エージェントを構築しています。
gpt-ossに関するよくある質問まとめ
- 商用利用は本当に無料ですか?
はい。gpt-ossはApache 2.0ライセンスで提供されており、商用利用を含むあらゆる用途で無料で使用可能です。
- モデルはどこからダウンロードできますか?
モデルのウェイトとトークナイザーはHugging Faceで公開されており、GitHub上にはPyTorchおよびApple Metal向けの実装も用意されています。
まとめ
gpt-ossは、強力な推論性能・ツール統合機能・多言語対応・安全性配慮を兼ね備えたオープンウェイトモデルとして、実用的なAI構築を支援します。
gpt-oss-120bは大規模業務向けに、gpt-oss-20bは軽量かつ高速展開向けに適しており、幅広いユースケースに対応可能です。Apache 2.0ライセンスのもと、無償かつ柔軟に導入できる点も大きな魅力です。
AI Marketでは
LLMに強いAI会社をご自分で選びたい場合はこちらで特集していますので併せてご覧ください。

AI Marketの編集部です。AI Market編集部は、AI Marketへ寄せられた累計1,000件を超えるAI導入相談実績を活かし、AI(人工知能)、生成AIに関する技術や、製品・サービス、業界事例などの紹介記事を提供しています。AI開発、生成AI導入における会社選定にお困りの方は、ぜひご相談ください。ご相談はこちら
𝕏:@AIMarket_jp
Youtube:@aimarket_channel
TikTok:@aimarket_jp
運営会社:BizTech株式会社
弊社代表 森下𝕏:@ymorishita
掲載記事に関するご意見・ご相談はこちら:ai-market-contents@biz-t.jp
