OpenAIの新しいオープンモデルLLM「gpt-oss」とは?最新モデルの特徴と活用方法

運営会社:合同会社サステックス


元Microsoftエンジニアが立ち上げたAI・システム開発に特化したテクノロジーカンパニー。
機械学習や生成AIを活用したPoC開発や業務効率化、プロダクト構築を支援。
累計200件以上のAI開発・技術支援の実績があり、伴走型支援が強み。

この記事は約18分で読めます。

一昨日、OpenAIから衝撃的なニュースが飛び込んできました。なんと、同社初のオープンモデル大規模言語モデル(LLM)「gpt-oss」がリリースされました! かなりこれは衝撃的なリリースでした。OpenAIが自社の強力なLLMをオープンモデルで公開するのは、2019年のGPT-2以来およそ4年ぶりのことです。この記事では、最新モデルgpt-ossの概要や性能、その背景や活用方法について、私なりの感想を交えながら詳しく紹介します。ビジネスへの応用可能性や安全性への配慮ポイントも含めて解説しますので、「gpt-ossって何?」という疑問にお答えできれば幸いです。

目次

gpt-ossとは何か?OpenAIが公開した新モデルの概要

gpt-ossとは、OpenAIが2025年8月に公開したオープンモデルの大規模言語モデル(LLM)です。その名のとおりgpt-ossはモデルの重み(ウェイト)が公開された自由に使えるAIモデルです。ライセンスは柔軟なApache 2.0ライセンスで提供されており、商用利用や改変・再配布も可能です。

引用:gpt-ossが登場

今回リリースされたgpt-ossにはパラメータ数の異なる2種類のモデルが存在します。

  • gpt-oss-120B:およそ1200億(1170億)パラメータのモデル
  • gpt-oss-20B:およそ200億(210億)パラメータのモデル

数字だけ見ると巨大ですが、これらは最先端の高性能モデルでありながら低コストで動作するよう最適化されています。実際、gpt-oss-120Bは単一の80GB GPU上で効率的に動作し、推論系タスク(推論能力を測るベンチマーク)でOpenAI内部の高性能モデル「o4-mini」にほぼ匹敵する性能を達成していると報告されています。一方のgpt-oss-20Bも16GBメモリがあればオンデバイス動作が可能で、社内モデル「o3-mini」に近い性能を示しています。
20Bクラスでこれだけの性能が出るとは驚きで、私自身「本当にそんな小さなモデルで大丈夫なの?」と思ったほどです。

要するにgpt-ossは、OpenAI社製の高性能LLMを誰でも扱える形で提供したものです。
モデルの重みデータが公開されているため、自前の環境にダウンロードして動かしたり、用途に合わせてファインチューニング(追加学習)したりできます。従来、同社のGPT-4やGPT-3.5といったモデルはAPI経由でしか利用できず内部構造はブラックボックスでしたが、gpt-ossの登場で「自分のサーバーで動かすOpenAIレベルのモデル」という選択肢が現実のものとなったのです。
今まではあまりモデルの公開をせず、クローズドAIなどと揶揄されていたOpenAIですが、かなり大きな転換点となりそうです。

とりあえず動かしてみる!

以下のサイトはOpenAIが提供しているPlaygroundでWeb上で試す事が可能です。

引用:https://gpt-oss.com/

せっかくローカルでも使用出来るLLMということで実際にローカルで試してみようと思います。私の環境はMac Book Pro M3 メモリ24GB/Windows 11 メモリ 32GBの両方で動作確認をしました。

LM Studioのインストール

LM Studioのサイトに行き、ダウンロードを行い、インストールをします。

LM Studio
LM Studio - Run openai/gpt-oss on your computer Run gpt-oss, Llama, Gemma, Qwen, and DeepSeek locally and privately.

gpt-ossのインストール

インストール後、現在のバージョンでは openai/gpt-oss-20bをインストールするかどうか聞いてくるため、そのままインストールすれば完了です! 簡単にセットアップすることが出来ますね!


ちなみに、LM StudioはMCP連携もできるため、かなり高度な事をローカルで実現していく、といった事が可能です。例えば、デフォルト機能では出来ない検索機能、ファイルサーバーとの連携によってファイルの操作を行う機能、Figma MCP Serverとの連携、特定のドキュメントの知識を入れて最新の技術ドキュメントを参照する、といった事も可能です!

ここからは、なぜgpt-ossがどのように便利か、を見ていきましょう。

gpt-ossが生まれた背景:なぜOpenAIはオープン化に踏み切ったのか

gpt-oss発表の背景には、近年のオープンモデルLLMの盛り上がりがあると考えられます。思い返せば、2023年にはMeta社が「Llama 2」を公開し話題になりました。以降、BloomやFalconなど各国・各企業から様々なオープンモデルが登場し、コミュニティ主導でモデルを改良する動きが活発です。実際、当社サステックスのブログでもオープンモデルのAIツールに関する記事を多く紹介してきました。

こうしたAIのツールのオープン化が進む流れの中で、OpenAIもついに重い腰を上げ、自社の大規模モデルをオープン化したと言えるでしょう。

もう一つの背景は、安全性と信頼性への取り組み強化です。OpenAIはGPT-4のリリース以降、機密性の高いモデルを抱える立場として「安全で責任あるAI開発」の重要性を繰り返し強調してきました。その中で、「オープンなコミュニティと協力しつつ、安全基準を満たしたモデルを出す」ための準備を進めていたようです。実際、gpt-ossの公開にあたりOpenAIは安全性評価にも万全を期したと述べています。モデルに包括的な安全トレーニングと評価を行い、さらにgpt-oss-120Bに対して悪意あるファインチューニングを試みるテストまで実施したとのことです。その結果、既存モデルと同等レベルの安全基準を満たしていることが確認されたといいます。オープンモデルは誰でも改変できる分リスクもありますが、OpenAIとして「安全基準は妥協していない」という自信の表れでしょう。

もっとも、オープンモデル特有のリスクは残ります。OpenAI自身もモデルカードの中で「公開後は悪意ある攻撃者による安全拒否の回避や有害利用のための微調整が行われる可能性がある」と指摘し、利用者側で追加のガードが必要になる場合があることを認めています。この点については、以前執筆したLLMのセキュリティ脆弱性に関する記事でも触れましたが、やはりオープンモデルを安全に運用するには利用者のリテラシーも重要だと感じます。gpt-ossはOpenAIの使用ポリシーも適用されますので、悪用せず健全に活用することが求められます。

gpt-ossの性能と特徴:高い推論力と効率性に驚き

では、肝心のgpt-ossの中身はどういった特徴を持つのでしょうか。
実際に発表資料やモデルカードを読み解いて、私が注目したポイントをまとめます。

1. 大型モデルに匹敵する推論力

先述のとおり、gpt-oss-120BはOpenAI内部の高性能モデルに匹敵する実力を持ちます。
具体的には、学術的な推論ベンチマークや問題解決タスクにおいて、OpenAIのo4-miniとほぼ同等のスコアを叩き出しています。驚くべきは、gpt-oss-20Bですらo3-miniに近い性能を示している点です。20B規模というと他社のLlama 2 13Bや旧GPT-3の1/8程度のサイズですが、そんな小さなモデルで高度な推論ができるというのは半信半疑でした。しかしOpenAIは内部評価として、数学コンペや医学クエリのタスクで20Bモデルが自社のo3-miniを上回るケースもあったと述べています。

また、gpt-ossはいわゆるCoT(Chain-of-Thought)と呼ばれる分野でも強みを発揮しています。CoTとは、人間が考えるように思考の過程を逐次積み重ねて推論する手法で、LLMにこのプロセスを模倣させることでより論理的で正確な回答を引き出すテクニックです。
CoTはこちらの記事でも紹介しています。

あわせて読みたい
AIに詳しくない方向けに、LLMのセキュリティ脆弱性を考えてみる。 LLM利用で想定される最新のセキュリティ脆弱性3例をAIエンジニアが解説。Web版メモリの個人情報漏えいからVibe Codingの落とし穴、大手クラウドのゼロクリック攻撃まで、実例と対策を網羅。

gpt-ossは訓練段階でこのCoTによる問題解決も学習しており、複雑な問題に対してステップバイステップで考える力を備えています。その結果がAgentic評価スイート「Tau-Bench」で表れており、ツール使用や複雑な推論を要するタスクでも優れた成績を収めています。
私が個人的に感心したのは、公式ブログで「gpt-ossはOpenAI o1やGPT-4oのようなモデルさえ上回るツール使用能力を示した」と言及されていた点です。実際、外部の開発者レポートによればgpt-oss-20BでもHTMLやSVGのコード生成、ゲーム実装など多彩な課題に対応できており、その汎用性に驚かされます。

2. 効率的な動作:単一GPUで動く120Bモデルと、身近な20Bモデル

高性能を謳うモデルですが、同時に「手軽に動かせる」よう工夫されているのもgpt-ossの魅力です。最大の120Bモデルでさえ80GB級のGPU1枚で動作するよう最適化されています。通常、1000億以上のパラメータを持つモデルは複数GPUや高価な計算リソースを要しますが、gpt-ossでは混合精度量子化(MXFP4)というフォーマットで提供されており、メモリ帯域を大幅に削減しています。

一方、小型のgpt-oss-20Bは16GB程度のメモリがあれば動くため、昨今のハイエンドPCやワークステーション、あるいはクラウドの小規模なインスタンスでもオンプレミス推論が可能です。先ほど上でも試していましたが、想像以上に軽快に動いて驚きました。生成速度も思ったより速く、これなら実用上ストレスなく使える印象です。

gpt-ossがここまで効率化できた秘訣の一つが、Mixture-of-Experts(MoE)と呼ばれるモデルアーキテクチャです。通常の巨大モデルはすべてのパラメータを一斉に使って推論しますが、MoEでは多数のエキスパートサブモデルの中から一部だけを動員する仕組みになっています。
gpt-oss-120Bでは5.1億のパラメータ、gpt-oss-20Bでは3.6億のパラメータのみを各トークン処理で活性化しており、これが計算量削減につながっています。総パラメータは大きくても実際に使う一部だけに絞る、まさに専門家チームによる役割分担のイメージです。そのおかげで、少ないリソースでも高い性能を発揮できるわけですね。加えて局所的スパース・アテンショングループ化マルチクエリ・アテンションといった高度な最適化手法も導入されており、128kトークンという超長文コンテキストにも対応しています。技術的には難しい用語が並びますが、一言で言えば「大きなモデルを効率よく動かすための最新テクノロジー満載」ということです。

3. 高度な拡張性:ツール使用・コード実行や構造化出力にも対応

gpt-ossは単に文章を生成するだけでなく、プラグインやツールの活用も得意としています。OpenAIはこのモデルを「エージェンティックなワークフローで使うこと」を想定していると言及しており、具体的にはウェブ検索やPythonコード実行など外部ツールとの連携を前提に設計されています。これは従来のChatGPTプラグイン機能や、同社が最近発表した「ChatGPTエージェント」のようなAIエージェント的な使い方を自前環境でも実現できることを意味します。実際、gpt-ossはOpenAIのResponses API(API経由での回答生成を行うための仕様)とも互換性があり、開発者がチェットボットや自動化エージェントを構築する際にそのまま組み込めるよう配慮されています。

さらに興味深いのが、出力も制御ができる、という点です。gpt-ossはStructured Outputs(構造化出力)をサポートしており、JSONや特定のフォーマットでの回答生成を指示した場合にも高い忠実性で応えてくれます。例えば「データを表形式で出力して」とプロンプトすれば、きちんとその形式に沿った応答を返してくれるわけです。これはAPI経由で使う際に後段の処理と連携しやすくなるため、業務システム統合の観点では大きなメリットです。また、推論思考度(reasoning effort)の調整というユニークな機能も備えています。タスクに応じて「浅く速く考える」か「深く時間をかけて考える」かを3段階(Low・Medium・High)で切り替えられるのです。私はこの機能を試す中で、簡単な質問に対してはLow設定で瞬時に答え、難問にはHighでじっくり論理展開する、といった挙動の違いを確認しました。
Highでは内部でチェイン・オブ・ソートを多用するのか、回答に至るまで「考えすぎ」なくらい詳細な中間推論を行う様子がログから見て取れました。用途によって応答速度と精度をトレードオフできるのは面白い工夫で、開発者目線では是非活用してみたいポイントです。

4. 安全性への配慮:オープンでありながら高い安全基準

先ほど背景の部分でも触れましたが、gpt-ossは安全性に関する取り組みも特徴の一つです。公開済みのモデルカードや論文によれば、OpenAIはgpt-ossについて社内の「Preparedness Framework(備えの枠組み)」に基づく様々な試験を行っています。例えば、バイオテクノロジーやサイバー攻撃分野の危険な知識をどこまで習得できてしまうかといった観点で、大規模な能力評価を実施しています。その結果、デフォルトのgpt-ossはいずれの分野でも危険水準(High Capability)の閾値に達していないと確認されたそうです。
さらに、仮に悪意ある第三者がgpt-oss-120Bを不正にファインチューニングした場合でも、生物・化学やサイバー領域で極端に高度な悪用能力に到達することはなかったとの報告もあります。この辺りの詳細を見ると、OpenAIが相当に慎重に安全性検証を進めてきたことが伺えます。

もっとも、これは「絶対安全」という意味ではありません。LLMである以上、使い方次第では有害な出力を生成したり、情報漏洩のリスクがゼロとは言えません。オープンモデルゆえにOpenAI側で後からアクセス停止やモデル削除ができないこともあり、開発者や利用者には自己責任での運用が求められます。

gpt-ossの入手方法と利用法:開発者に優しいエコシステム

「実際にどのように使えるの?」と思われたかもしれません。gpt-ossは公開されたばかりですが、すでに開発者が利用しやすいエコシステムが整備されています。OpenAIは今回のリリースに合わせて、多くのパートナー企業やプラットフォームと協力し、モデルの展開を容易にしています。

まず、モデルのダウンロードですが、これはHugging Face(ハギングフェイス)上で公開されています。Hugging Faceは機械学習モデルの共有プラットフォームとして知られ、コマンド一つでモデルを自分の環境に落としてこれます。gpt-ossも公式のリポジトリから重みデータ(MXFP4形式)を入手可能です。 先程も紹介したようにLM Studioであればそのままインストールが可能です!

次に実行環境ですが、OpenAIによればPython向けのPyTorch実装やAppleシリコン用のMetal対応実装、さらにRust版のツールなど、様々な実行方法が用意されています。これは嬉しいポイントで、開発者の好みや手持ちの機材に合わせて選べます。また、推論を高速化・省メモリ化するための各種フレームワークとの連携も充実しています。AzureやAWSといった主要クラウドはもちろん、Hugging FaceのInference API、低レイテンシーで話題のvLLM、シンプルなローカル実行が魅力のllama.cpp、さらにはOllamaやLM Studio、Baseten、Databricks、Vercel、Cloudflare、OpenRouterなど多彩なプラットフォームで利用可能です。リリース翌日には多数のコミュニティがgpt-oss対応をアナウンスしており、「どの環境でも動かせるようにしよう」という盛り上がりを感じました。

さらに特筆すべきはMicrosoft社のサポートです。ちょうど同時期に、Microsoftがgpt-oss-20BのGPU最適化版をWindows向けに提供する発表がありました。ONNX Runtimeを使った実装で、Foundry LocalやVS CodeのAI Toolkit経由で利用できるとのことで、Windows開発者にとっても門戸が開かれています。

Microsoft Azure Blog
OpenAI’s open‑source model: gpt‑oss on Azure AI Foundry and Windows AI Foundry  | Microsoft Azure Bl... OpenAI’s gpt‑oss models gives developers and enterprises the ability to run, adapt, and deploy OpenAI models on their own terms. Learn more.

なお、より本格的に使い倒したい開発者向けには、OpenAIのクックブック(Cookbookリポジトリ)に gpt-ossのファインチューニング手順が公開されています。これらを参考にすれば、自社データを学習させたり、特殊なドメインも考慮したカスタムgpt-ossモデルを作ることが可能です。

あわせて読みたい
Fine-tuning with gpt-oss and Hugging Face Transformers | OpenAI Cookbook Authored by: Edward Beeching, Quentin Gallouédec, and Lewis Tunstall Large reasoning models like OpenAI o3 generate a chain-of-thought to...

総じて、gpt-ossは提供形態の柔軟さと使い勝手の良さが際立っています。これほどまでに多方面からサポートが揃ったオープンモデルは前例がなく、OpenAIの本気度を感じる部分です。まさに「誰でも・どこでも・好きなように」使えるモデルとして、コミュニティと業界全体に解き放たれたと言えます。

gpt-ossがもたらす可能性:企業導入からAI民主化まで

最後に、gpt-ossが今後私たちにもたらす影響について考えてみます。個人的な見解も交えますが、このモデルの公開はAI業界における大きな転機となるかもしれません。

1. 中小企業や団体でも「自前GPT」を持てる時代に

これまで高性能なLLMと言えばOpenAIやGoogleなどの巨大テック企業が独占し、その恩恵にあずかるにはAPI利用料を支払ってサービスを使うか、自力で性能の劣るオープンモデルを工夫して使うしかありませんでした。しかしgpt-ossの登場で、予算やインフラに限りがある組織でも自前で高度なLLMを運用できる可能性が開けました。特に新興国のスタートアップや、小規模な企業、研究機関などにとっては朗報でしょう。オープンモデルの強力なモデルが手に入れば、高価なAPIコストに悩まされずに自社サービスへAI機能を組み込めますし、データを外部に出すことなくオンプレミスでプライバシーに配慮したAI活用もできます。
実際、「社内データを用いたChatGPT機能を作りたいが機密情報をクラウドに置けない」という企業相談は私も頻繁に受けてきました。そのようなケースで、gpt-ossはまさに待ち望まれていた解決策になり得ます。以前紹介したAI議事録サービスの事例でも触れたように、業務効率化のため社内に生成AIを導入する企業が増えています。

あわせて読みたい
【2025年最新】導入企業が急増中!業務効率化に繋がるAI議事録サービス7選 会議の議事録作成を90%削減! 最新のAI議事録ツール7選を、実際の導入事例と共に紹介。選定ポイントや費用・精度の比較表付きで、自社に合った最適なツール選びをサポートします。

今後はそうしたプロジェクトで、APIではなくgpt-ossを自社サーバーに導入するといった選択肢も現実味を帯びてくるでしょう。私も「顧客の重要データをクラウドに出さずに分析できるAIソリューション」を提案する際、gpt-ossの活用を真剣に検討したいと感じています。

2. オープンモデルコミュニティによるイノベーションの加速

gpt-ossが公開されたことで、世界中の開発者や研究者がこのモデルを基盤に自由な実験や改良を行えるようになります。これはAI分野のイノベーションを加速させる火種になるでしょう。オープンモデルの強みは、誰もが参加でき知見を持ち寄ってプロダクトを磨き上げていける点にあります。

ちなみにKaggleではgpt-ossの脆弱性の発見に報酬が支払われるようなコンペが開かれています。

あわせて読みたい
Red‑Teaming Challenge - OpenAI gpt-oss-20b Find any flaws and vulnerabilities in gpt-oss-20b that have not been previously discovered or reported.

gpt-ossも同様に、公開直後から多くの開発者が性能検証や拡張ツールの開発に乗り出しています。例えば、早速GitHub上ではgpt-ossを使った新たな対話エージェント専門特化モデルのプロジェクトが立ち上がっていますし、プラグイン互換レイヤーの実装など面白い試みも散見されます。オープンモデルコミュニティの創意工夫によって、gpt-oss自体の改良(例えば日本語データで追加学習して日本語特化にする等)が進む可能性もあります。私もさっそく業務で使えるかを検証しつつ、「こういう機能拡張プラグイン作れないかな?」とアイデアを巡らせています。

また、AIの透明性や説明可能性の向上という観点でも意義深いです。クローズドなモデルは内部挙動が不明であるのに対し、オープンモデルは研究者が解析や評価を行いやすい利点があります。例えば「なぜこの回答に偏りがあるのか?」といった分析をオープンな重みで行うことで、公平性・信頼性の監査が進むでしょう。OpenAI自身、「強力でアクセスしやすいオープンモデルを広く提供することで、安全で透明性の高いAI開発を促進したい」と述べています。今後gpt-ossを用いた研究が進めば、モデルのバイアス除去手法や安全なチューニング手法など、AI倫理・安全性の分野でも知見が深まることが期待できます。

3. 専有モデルとオープンモデルのすみ分け

gpt-ossは画期的な存在ですが、だからといってOpenAIのAPIサービス(例えばChatGPTやGPT-4)が不要になるわけではありません。OpenAIは「オープンモデルはホスト型(クラウド提供型)のモデルを補完する位置づけ」と述べており、それぞれに適材適所の使い分けがあるとしています。例えば、マルチモーダル対応(画像解析や音声認識など)や最新知識へのアップデート、あるいは高度なファインチューニング不要ですぐ使える利便性といった点では、依然としてAPI経由の専有モデルが優位でしょう。一方で、カスタマイズ性データ制御権コスト柔軟性という点ではgpt-ossのようなオープンモデルが魅力です。実際、OpenAIも将来的にgpt-ossをAPI提供する可能性に触れつつ、現状は用途に応じて開発者が性能・コスト・レイテンシーのバランスを選べることが理想だと述べています。

私自身の考えでは、これからのAI活用は「一社提供モデル」対「オープンモデル」の二項対立ではなく、共存共栄の関係になっていくでしょう。必要に応じてAPIの強力なモデルも使いつつ、プライバシーが重要な部分は自前モデルで処理する、といったハイブリッドなアーキテクチャが一般化するかもしれません。その意味で、今回gpt-ossが登場したことは開発者にとって選択肢が増えたとも言えます。まさにAI民主化の一歩であり、「AIを使いたい人が、自分の望む形で使える」世界に近づいたのではないでしょうか。

おわりに:gpt-ossとこれからのAI活用

gpt-ossのリリースは、AI業界にとって革新的な出来事です。私もまだ触り始めたばかりですが、今後の可能性の広がりを感じます!OpenAIが提供する本当のオープンモデルで、非常に強力でありながら誰もが手にできるこのモデルは、多くのイノベーションの土台になるでしょう。

今後、gpt-ossを活用した様々な事例が出てくることでしょう。私自身も自社プロジェクトでの適用を検討しつつ、新しい発見があればまた共有したいと思います。「社内にChatGPTのような高度AI機能を入れたいがクラウドは避けたい」と考えている企業の方にとっても、gpt-ossは有力な選択肢になり得ます。当社サステックスでは、こうした最新AIモデルの導入支援や活用コンサルティングも行っています。もしgpt-ossのビジネス活用についてご興味があれば、ぜひお気軽にお問い合わせください。最新テクノロジーを上手に取り入れ、皆様の業務やサービスに革新をもたらすお手伝いができれば幸いです。

以上、OpenAIのgpt-ossについて、興奮冷めやらぬままに書き連ねてしまいましたが、少しでも皆様の参考になれば嬉しいです。私自身、引き続きこのモデルを触り倒して理解を深めていく所存です。それでは、最後までお読みいただきありがとうございました!新たなAI時代の幕開けを共に楽しみましょう。


「AI活用したいけど、どこに頼めばいいか分からない…」とお悩みの方へ。
サステックスは、AI歴10年以上の元Microsoftエンジニアが率いる開発チームです。
PoC〜開発運用まで、ビジネスと技術の両面で支援します。まずは無料で相談してみませんか?

目次