OpenAI launches two ‘open’ AI reasoning models | TechCrunch

OpenAIは2025年8月5日に、2つのオープンAI推論モデルを発表しました。
これらのモデルは、同社のoシリーズと同様の能力を持ち、Hugging Face開発者プラットフォームHugging Faceから無料でダウンロード可能です。
OpenAIはこれらのモデルを「最先端」と位置づけ、オープンモデルの比較においていくつかのベンチマークで優れた性能を示しています。
新たに発表されたモデルには、より大きく高性能なgpt-oss-120bと、消費者向けのラップトップでも動作可能な軽量のgpt-oss-20bがあります。
特にgpt-oss-120bは、単一のNvidia GPUで動作することができ、1170億のパラメータを持ちながら、トークンごとに5.1億のパラメータのみを活性化させる効率的な設計がされています。
この発表は、OpenAIがGPT-2以来初めてのオープン言語モデルをリリースしたことを意味します。
OpenAIは、開発者が特定のタスクを処理できない場合、オープンモデルをクラウド上のより強力な閉じたモデルに接続できる機能を持たせています。
これは、AIモデルのオープンソース化に対する圧力が高まる中での戦略的な動きといえます。
OpenAIのCEOであるサム・アルトマン氏は、同社がオープンソース技術に関して「歴史の間違った側にいた」と述べ、特に中国のAIラボがオープンモデルの開発で台頭していることに対抗する必要性を強調しました。
最近のトランプ政権も、米国のAI開発者に対してオープンソース技術の普及を促しています。
新しいモデルの性能については、gpt-oss-120bとgpt-oss-20bがCodeforcesという競技プログラミングテストでそれぞれ2622点と2516点を記録し、DeepSeekのR1を上回る結果を示しましたが、o3やo4-miniには及びませんでした。
また、さまざまな主題に関する質問を集めた「Humanity’s Last Exam」では、gpt-oss-120bが19%、gpt-oss-20bが17.3%のスコアを記録し、こちらもo3には劣るものの、DeepSeekやQwenのオープンモデルよりは優れた結果を示しました。
ただし、これらのオープンモデルは、最新のAI推論モデルであるo3やo4-miniに比べて「幻覚」を引き起こす頻度が高いことが指摘されています。
具体的には、gpt-oss-120bは49%、gpt-oss-20bは53%の質問に対して幻覚を示しました。
これは、より小型のモデルが大規模なモデルに比べて世界知識が少ないため、幻覚を引き起こしやすいというOpenAIの見解に基づいています。
新モデルは、OpenAIの独自モデルと同様のプロセスで訓練されており、効率的な運用を実現するために「Mixture-of-Experts(MoE)」を活用しています。
また、強化学習を用いたポストトレーニングプロセスにより、AIエージェントを強化する能力も持っていますが、テキスト専用であり、画像や音声の処理はできません。
OpenAIは、gpt-oss-120bとgpt-oss-20bをApache 2.0ライセンスの下でリリースしており、企業はこれらのモデルを収益化することが可能です。
しかし、トレーニングデータは公開されず、著作権に関する訴訟の影響を考慮した結果とされています。
このように、OpenAIはオープンモデルのリリースを通じて、開発者や政府との関係を強化し、競争の激化するAI市場での地位を確立しようとしています。
openai/gpt-oss-120b ・ Hugging Face
https://huggingface.co/openai/gpt-oss-120b

