
【2025年6月最新】OpenAIの主要なモデル一覧 ─特徴や料金、利用方法など
2025年4月に「GPT-4.1」、「GPT-4.1 mini」、「GPT-4.1 nano」、「OpenAI o3」、「OpenAI o4-mini」がリリースされ、2か月後の日本時間2025年6月11日にはOpenAI o3の上位モデル「OpenAI o3-pro」がリリース、OpenAI o3価格の80%値下げが発表されるなど、連日ニュースの絶えないOpenAI。
モデルが数多く存在する中で、それぞれどのような特徴があり、どう使い分ければ良いのか分からなくなる方もいらっしゃると思います。
以下は、2025年6月11日朝時点でOpenAIの公式サイトに基づき、現在利用可能なOpenAIのモデルをまとめたリストです。公式ドキュメントを参照し、APIを通じて利用可能な主要なモデルをカテゴリ別に整理しました。
なお、モデルの可用性や詳細な仕様は変更される可能性があるため、最新情報は公式サイトにてご確認ください。
【2025年6月11日】 発表された新情報まとめ
OpenAI o3-proのリリース
- OpenAI o3の上位モデルとして2025年6月11日にリリース。
- OpenAI o1-proを置き換え、ChatGPT Pro/TeamユーザーおよびAPIで利用可能。
- EnterpriseおよびEducationユーザー向けは2025年6月18日以降に利用可能。
- 特徴や性能、Open AIの他のモデルとの比較はこちらの記事を参照。
OpenAI o3の料金が80%OFFに
- OpenAIのCEOサム・アルトマン氏のXにて、OpenAI o3の料金が80%値下げされると発表。
- 2025年6月11日朝時点では、公式ドキュメントの価格は更新されていない。
モデル置き換え
- o3、o4-mini、o4-mini-highがChatGPT Plus/Pro/Teamで利用可能になり、o1、o3-mini、o3-mini-highを置き換えた。
- o4-miniは低コストで高速なモデルとして、日常的なタスク向けに提供継続。
Reasoningモデル(推論モデル)
ここからは、OpenAIの主要なモデルの特徴や料金、利用方法などをまとめます。推論モデルは、複雑なタスクに対して深く考え、科学、数学、コーディングなどの分野で高いパフォーマンスを発揮するように設計されています。
OpenAI o4-mini
概要 | 高速かつ低コストの推論モデルで、数学、コーディング、科学、視覚的推論に特化。ChatGPTの全ツール(ウェブ検索、Python、画像解析など)を自律的に活用し、複雑な問題を効率的に解決します。 |
---|---|
特徴 | o3-miniと同等の価格設定で従来のGPT-3.5 Turboより60%以上安価でありながら、性能は大幅に向上。テキストと画像の両方を処理可能。 ユーザーのプロンプトを安全仕様に基づいて評価し、悪意のある意図を検知。 |
利用方法 | API:Chat Completions APIやResponses APIで開発者向けに提供。Azure OpenAI Serviceでも利用可能。 ChatGPT:Plus/Pro/Teamユーザーはモデルセレクターから即時利用可能。無料ユーザーは「Think」モードで制限付き利用。 Codex CLI:ローカル端末でのコーディング支援に使用可能。 |
コンテキストウィンドウ | 入力:128,000トークン(約75万語)。 出力:最大16,384トークン。 |
料金 | API:入力$1.10/Mトークン、出力$4.40/Mトークン。Batch APIで50%割引。 Azure:入力$0.15/Mトークン、出力$0.60/Mトークン(地域による)。 ChatGPT:サブスクリプション内で追加料金なし。 |
リリース情報 | 2025年4月に発表 |
OpenAI o3-pro
概要 | o3のRL思考時間をさらに延長した最上位版。 |
---|---|
特徴 | o3シリーズの最上位モデルで、深く考え抜く「長考モード」に特化。科学、教育、プログラミング、データ分析、ライティングなどの主要分野で優れた性能を発揮。タスクの重大なミスを従来モデル比で約20%削減。 |
利用方法 | ChatGPTのProユーザーおよびAPIユーザー向けに提供開始。 2025年6月11日時点では、ProおよびTeamプランのユーザーがモデルピッカーで選択可能。EnterpriseおよびEduユーザーは翌週以降にアクセス可能。 |
コンテキストウィンドウ | 200,000トークン。 |
料金 | 未公開(公式発表待ち)。 |
リリース情報 | 2025年6月に発表。 |
OpenAI o3
概要 | 最新の高度な推論モデルで、複雑な問題解決に特化。精度の高い回答を生成し、特に難しいタスクに適している。 |
---|---|
特徴 | テキスト入力を受け付け、テキスト出力(構造化出力含む)を生成。高い推論能力を持ち、国際数学オリンピック予選試験やコーディングコンテストで優れた成績を記録。 |
利用方法 | ChatGPTおよびAPIで利用可能。 |
コンテキストウィンドウ | 200,000トークン。 |
料金 | 入力 $2.00/出力 $8.00 / 1M tokens |
リリース情報 | 2025年4月に発表。 |
OpenAI o3-mini
概要 | o3の軽量版で、リソース効率を重視しつつ高い推論能力を維持。迅速なタスク処理に適している。 |
---|---|
特徴 | o3と同様にテキスト入力・出力に対応。科学や数学のタスクで高いパフォーマンスを発揮。 |
利用方法 | APIおよびAzure OpenAI Service(米国の特定リージョン)で利用可能。 |
コンテキストウィンドウ | 200,000トークン。 |
料金 | 公式ドキュメント、Pricing ページに記載無し(2025-06-11時点) |
リリース情報 | 2025年2月にリリース |
OpenAI o1
概要 | 高度な推論能力を持つモデルで、科学研究や複雑なアルゴリズム設計に適している。物理学、化学、生物学で博士課程レベルの精度を誇る。 |
---|---|
特徴 | テキスト入力・出力に対応。内部で「考える」プロセスを持ち、最適な回答を導出。 |
利用方法 | ChatGPTおよびAPIで利用可能。 |
コンテキストウィンドウ | 200,000トークン。 |
料金 | 入力:$15.00 / 1Mトークン 出力:$60.00 / 1Mトークン |
リリース情報 | 2024年9月に発表 |
OpenAI o1-mini
概要 | o1の軽量版で、省リソース設計。迅速な推論が必要なタスクに最適。 |
---|---|
特徴 | テキスト入力・出力に対応。128,000トークンのコンテキスト長をサポート。 利用方法:ChatGPTおよびAPIで利用可能。 |
利用方法 | ChatGPTおよびAPIで利用可能。 |
料金 | 入力:$3.00 / 1Mトークン 出力:$12.00 / 1Mトークン |
リリース情報 | 2024年9月に発表 |
OpenAI o1-pro
概要 | o1のプロフェッショナル版で、さらに高度な推論能力を提供。専門的なタスクに特化。 |
---|---|
特徴 | テキスト入力・出力に対応。詳細な仕様は公式ドキュメントで確認可能。 利用方法:APIで2025年3月20日より利用可能。 |
料金 | 入力:$150.00 / 1Mトークン 出力:$600.00 / 1Mトークン 業界最高額で、GPT-4.5の2倍、o1の10倍の入力コスト。 |
利用方法 | コンテキストウィンドウ:未公開(公式ドキュメント参照)。 |
GPTモデル(汎用言語モデル)
これらのモデルは、低レイテンシでコスト効率が高く、テキスト生成やチャット用途に最適化されています。
GPT-4.1
概要 | GPT‑4o や GPT‑4.5 を上回る総合性能で、コーディング、命令理解、長文コンテキスト処理能力に大幅な強化が見られます。SWE‑bench Verified 54.6%、Instruction Following ベンチで38.3%など、ベンチマークで顕著な性能を発揮 |
---|---|
特徴 | 最大 100 万トークンまでの長文理解が可能 |
モデルID | gpt‑4.1 |
利用方法 | OpenAI API のリクエストで "model": "gpt-4.1" を指定します 。 |
コンテキストウィンドウ | 約1,047,576 トークン |
料金 | 入力:$2.00 キャッシュ入力:$0.50 出力:$8.00 ブレンド料金 :約$1.84(平均使用時) |
リリース情報 | 2025年4月14日:API を通じた正式提供開始 |
GPT-4.1 mini
概要 | GPT‑4.1 と同様の基本性能を保ちつつ、レイテンシが約半分、コストが約 83% 削減された軽量モデル。 |
---|---|
特徴 | 特に軽めの推論、画像対応、agent 構築に強み。 |
モデルID | gpt‑4.1-mini |
利用方法 | "model": "gpt-4.1-mini" を API リクエストで指定 |
コンテキストウィンドウ | 約1,047,576 トークン |
料金 | 入力:$0.40 キャッシュ入力:$0.10 出力:$1.60 ブレンド料金:約 $0.42 |
リリース情報 | 2025年4月14日:API にて一般提供開始 |
GPT-4.1 nano
概要 | GPT‑4.1 ファミリーの最小・最速モデル。MMLU 80.1% や GPQA 50.3% 等、基本的理解において高性能。 |
---|---|
特徴 | 分類や autocomplete、低レーテンシ・高頻度タスク向けに設計。 |
モデルID | gpt‑4.1-nano |
利用方法 | "model": "gpt-4.1-nano" を API リクエストで指定 |
コンテキストウィンドウ | 約1,047,576 トークン、最大出力 32,768 トークン |
料金 | 入力:$0.10 キャッシュ入力:$0.025 出力:$0.40 ブレンド料金:約 $0.12 |
リリース情報 | 2025年4月14日:API + GitHub Models(GitHub 側での正式導入開始) |
GPT-4o
概要 | OpenAIのフラッグシップモデル(“o”は“omni”の略)。マルチモーダル対応で、テキストと画像入力を受け付け、テキスト出力(構造化出力含む)を生成。 |
---|---|
特徴 | 高い知能と汎用性を持ち、日常会話から専門的なタスクまで幅広く対応。知識カットオフは2023年10月。 |
モデルID | gpt-4o-2024-08-06、gpt-4o-2024-05-13、およびchatgpt-4o-latest(ChatGPTで使用される最新バージョン)。 |
利用方法 | ChatGPTおよびAPIで利用可能。Azure OpenAI Serviceでもサポート。 |
コンテキストウィンドウ | 128,000トークン。 |
料金 | 入力:$5.00 / 1Mトークン 出力:$20.00 / 1Mトークン |
リリース情報 | 2024年5月に発表。 |
GPT-4o-mini
概要 | GPT-4oの軽量版で、コスト効率と高速応答を重視。日常的なタスクやリアルタイム処理に適している。 |
---|---|
特徴 | テキストと画像入力に対応。128,000トークンのコンテキスト長をサポート。マルチモーダル対応(テキスト、画像、音声)。 |
モデルID | gpt-4o-mini-2024-07-18。 |
利用方法 | ChatGPTおよびAPIで利用可能。Azure OpenAI Serviceでもサポート。 |
コンテキストウィンドウ | 128,000トークン。 |
料金 | 入力:$0.60 / 1Mトークン 出力:$2.40 / 1Mトークン ※ GPT-4oより60%ほど安価 |
リリース情報 | 2024年7月に発表。 |
GPT-4o-mini-audio-preview
概要 | GPT-4o-miniのオーディオ入力対応版(プレビュー)。音声認識やオーディオ処理に特化。 |
---|---|
特徴 | オーディオ入力を受け付け、テキスト出力を生成。詳細は公式ドキュメント参照。 |
利用方法 | APIおよびAzure OpenAI Serviceで利用可能。 |
料金 | テキストは、入力 $5.00 / 1Mトークン、出力 $20.00 / 1Mトークン。 オーディオは、入力 $100.00 / 1Mトークン(約$0.06/分)、出力 $200.00 / 1Mトークン(約$0.24/分)。 |
リリース情報 | 2024年12月に発表。 |
GPT-4 Turbo
概要 | GPT-4の改良版で、高精度なマルチモーダルモデル。テキストと画像入力に対応し、困難な問題解決に優れる。 |
---|---|
特徴 | JSONモードと関数呼び出しをサポート(テキスト入力のみ)。知識カットオフは2023年4月。 |
モデルID | gpt-4-turbo-2024-04-09。 |
利用方法 | APIおよびAzure OpenAI Serviceで利用可能。 |
コンテキストウィンドウ | 128,000トークン。 |
料金 | 入力:$10.00 / 1Mトークン 出力:$30.00 / 1Mトークン |
リリース情報 | 2024年4月に一般公開。 |
GPT-4
概要 | 幅広い一般知識と専門知識を持つマルチモーダルモデル。自然言語やコードの理解・生成に優れる。 |
---|---|
特徴 | テキストと画像入力に対応。チャット用途に最適化。 |
利用方法 | APIで利用可能(ただし、最新モデルに置き換えられる可能性あり)。 |
コンテキストウィンドウ | 32,000トークン(一部バージョンでは8,192トークン)。 |
料金 | 公式ページに記載なし(2025-06-11時点) |
リリース情報 | 2023年にリリース。 |
画像生成モデル
DALL·E
概要 | 自然言語から画像を生成・編集するモデル。クリエイティブな用途に適している。 |
---|---|
特徴 | テキストプロンプトに基づく画像生成。API経由で高解像度画像を生成可能。 |
利用方法 | APIで利用可能。ChatGPT Plusでも一部機能が利用可能。 |
料金 | 標準解像度:$0.020 / 画像 ※ 高解像度や編集機能は別料金。 |
リリース情報 | 2024年9月にDALL・E 3をリリース |
音声モデル
Whisper
概要 | 音声をテキストに変換する音声認識モデル。音声翻訳や文字起こしに使用される。 |
---|---|
特徴 | 多言語対応。高い精度で音声をテキスト化。 |
利用方法 | APIで利用可能。オープンソース版も提供。 |
料金 | $0.006 / 分(音声処理) |
リリース情報 | 2022年9月に公開 |
埋め込みモデル(Embeddings)
text-embedding-3-large
概要 | 第3世代の埋め込みモデル。テキストを高次元ベクトルに変換し、検索や分類に使用。 特徴:ディメンション数を調整可能(最大3,072)。MTEBベンチマークで高いパフォーマンス。 |
---|---|
特徴 | ディメンション数を調整可能(最大3,072)。MTEBベンチマークで高いパフォーマンス。 |
利用方法 | APIで利用可能。 |
料金 | $0.13 / 1Mトークン |
リリース情報 | 2024年1月にリリース。 |
text-embedding-3-small
概要 | 軽量な埋め込みモデル。コスト効率を重視した用途に適している。 |
---|---|
特徴 | ディメンション数は最大1,536。低リソース環境でも動作。 |
利用方法 | APIで利用可能。 |
料金 | $0.02 / 1Mトークン |
リリース情報 | 2024年1月にリリース。 |
text-embedding-ada-002
概要 | 第2世代の埋め込みモデル。汎用的なテキスト埋め込みに使用。 |
---|---|
特徴 | ディメンション数は1,536。安定したパフォーマンス。 |
利用方法 | APIで利用可能(ただし、第3世代への移行推奨)。 |
料金 | $0.10 / 1Mトークン |
リリース情報 | 2022年にリリース。 |
Moderationモデル
omni-moderation-2024-09-26
概要 | テキストと画像を分析し、コンテンツがOpenAIの利用規約に準拠しているかを判定するマルチモーダルモデレーション。 |
---|---|
特徴 | ヘイト、自傷、性的コンテンツ、暴力などのカテゴリを分類。 |
利用方法 | APIで利用可能。 |
料金 | |
リリース情報 | 2024年9月にリリース。 |
text-moderation-007
概要 | テキストのみのモデレーション。旧世代モデルで、omni-moderation-2024-09-26への移行が推奨されている。 |
---|---|
特徴 | テキストベースのコンテンツ分類。 |
利用方法 | APIで利用可能。 |
料金 | 無料 |
リリース情報 | 2023年にリリース。 |
その他のモデル
GPT baseモデル
概要 | 自然言語やコードを理解・生成するベースモデル。インストラクション遵守のトレーニングを受けていない。 |
---|---|
特徴 | レガシーなCompletions APIを使用。GPT-3.5やGPT-4の使用が推奨される、非推奨モデル。 |
利用方法 | APIで限定的に利用可能。 |
料金 | 入力:$0.40 / 1Mトークン 出力:$0.40 / 1Mトークン(モデルによる)。 |
リリース情報 | 2023年にリリース。 |
Operator
概要 | Webブラウザを自律的に操作し、ユーザーの指示に基づくタスクを実行するAIエージェント。 |
---|---|
特徴 | 米国内限定で公開。タスク自動化に特化。 |
利用方法 | APIで利用可能(制限付き)。 |
料金 | 公式ドキュメントに詳細なし |
リリース情報 | 2025年1月に公開。 |
非推奨または廃止予定のモデル
以下のモデルは現在も一部で利用可能ですが、OpenAIは新しいモデルへの移行を推奨しています。詳細な廃止予定モデルリストは、公式サイトの「Deprecated Models」セクションより確認できます。
- GPT-4.5 Preview:2025-07-14 に API 提供終了予定。移行先は GPT-4.1。
- GPT-3 :自然言語処理モデルだが、GPT-3.5 Turboへの移行が推奨
- Codex :コード生成モデルだが、GPT-4oやo3シリーズで代替可能。
- text-davinci-003、text-davinci-002 :旧世代のテキスト生成モデル。
新規利用不可のモデル
- GPT-4 Turbo :コスト効率が高く、チャット用途に最適化されたモデル。
OpenAI 各モデルのユースケース
利用用途や予算に応じて利用するモデルを検討する必要がありますが、ざっくり分類すると以下のようになります。ご参考ください。
- 予算重視:GPT-3.5 Turbo、GPT-4o-mini、text-embedding-3-small
- 高性能重視:o1-pro、GPT-4o、DALL·E
- 特定タスク:Whisper(音声)、Operator(自動化)、Moderation(安全性)
- 実験的用途:o1-mini、GPT baseモデル。
補足と注意点
トークンとは
1,000トークンは、英語の場合はおおよそ約750語です。日本語の場合は1トークン2~3文字。詳細はOpenAIのTokenizerでご確認いただけます。
また、コスト最適化を目的にトークン数を減らしたい場合は、プロンプトを短くする(例:「be concise」を追加)、CSV形式のデータを使用する(JSONよりトークン消費が少ない)といった対策が考えられます。
モデルID
APIでモデルを利用する際は、正確なモデルID(例:gpt-4o-2024-08-06)を指定する必要があります。各モデルのIDは公式ドキュメントに記載されています。
コンテキストウィンドウ
各モデルには入力・出力トークンの上限があり、超過すると出力が途切れる可能性があるのでご注意ください。(例:GPT-4oは128,000トークン、o3は200,000トークン)
データプライバシー
2023年3月以降、API経由のデータはユーザーが明示的に許可しない限り学習に使用されません。ゼロ・データ保持オプションも選択可能。
地域制限
一部モデルはAzure OpenAI Serviceで特定リージョン(米国など)に限定される場合があります。
参考サイト
- OpenAI公式サイト: https://openai.com
- OpenAI APIドキュメント: https://openai.com/docs
- OpenAI公式ブログ: https://openai.com/blog