OpenAI、より安価で低速なAIタスク向けにFlex処理を発表 | TechCrunch

OpenAI launches Flex processing for cheaper, slower AI tasks | TechCrunch

OpenAI launches Flex processing for cheaper, slower AI tasks | TechCrunch
OpenAI has launched a new API option, Flex processing, for cheaper, slower jobs that leverage its o3 and o4-mini reasoni...続きを読む

OpenAIは、競争力を高めるために「Flex処理」を発表しました。この新しいAPIオプションは、応答時間が遅くなる代わりにAIモデルの使用料金を低く抑えることができます。

具体的には、Flex処理は非生産的なタスクやモデル評価、データの強化、非同期ワークロードなど、優先度の低いタスクに向けられています。Flex処理を利用すると、APIコストが半分になります。

o3モデル:

  • Flex処理: 5/M入力トークン、5/M入力トークン、5/M入力トークン、20/M出力トークン
  • 標準価格: 10/M入力トークン、10/M入力トークン、10/M入力トークン、40/M出力トークン

o4-miniモデル:

  • Flex処理: 0.55/M入力トークン、0.55/M入力トークン、0.55/M入力トークン、2.20/M出力トークン
  • 標準価格: 1.10/M入力トークン、1.10/M入力トークン、1.10/M入力トークン、4.40/M出力トークン

Flex処理の発表は、Googleが新しいモデル「Gemini 2.5 Flash」を発表した直後に行われました。このモデルは、より低いコストで高い性能を提供しています。

Flex処理を利用するには、OpenAIの使用階層の1~3ティアに属する開発者は新たに導入されたID確認プロセスを完了する必要があります。これは、悪用を防ぐための措置です。

この新しいFlex処理は、コストを重視する開発者にとって魅力的な選択肢となるでしょうが、応答時間の遅延やリソースの不安定さが伴うことに注意が必要です。

Translate »
タイトルとURLをコピーしました