Gemini 2.5 プロ API
Gemini 2.5 Pro は、チームに深い分析、コード レビュー、複雑な計画のためのロングコンテキスト推論モデルを提供します。 EvoLink 上の Gemini 2.5 Pro を使用すると、単一の API キーでリクエストをルーティングし、プロジェクトごとに使用状況を追跡し、運用アプリのコンプライアンスに配慮した制御を維持できます。
PRICING
| PLAN | CONTEXT WINDOW | MAX OUTPUT | INPUT | OUTPUT |
|---|---|---|---|---|
| Gemini 2.5 Pro | 1.05M | 65.5K | ≤200.0K$1.00-20% $1.25Official Price >200.0K$2.00-20% $2.50Official Price | ≤200.0K$8.00-20% $10.00Official Price >200.0K$12.000-20% $15.00Official Price |
| Gemini 2.5 Pro (Beta) | 1.05M | 65.5K | ≤200.0K$0.325-74% $1.25Official Price >200.0K$0.650-74% $2.50Official Price | ≤200.0K$2.60-74% $10.00Official Price >200.0K$3.90-74% $15.00Official Price |
Pricing Note: Price unit: USD / 1M tokens
Two ways to run Gemini 2.5 Pro — pick the tier that matches your workload.
- · Gemini 2.5 Pro: the default tier for production reliability and predictable availability.
- · Gemini 2.5 Pro (Beta): a lower-cost tier with best-effort availability; retries recommended for retry-tolerant workloads.
Gemini 2.5 Pro (長いコンテキストの推論とツールの使用)
Gemini 2.5 Pro は、最大約 100 万の入力トークンとテキスト出力をサポートしているため、長いファイル、PDF、複数ターンのワークフローが 1 つの会話に留まります。マルチモーダルな入力と構造化された出力を使用して、大規模なコンテキストを信頼性の高いアクションに変換します。

Gemini 2.5 Pro は何を構築するのに役立ちますか?
長い文脈の理解
Gemini 2.5 Pro は、単一のリクエストで大規模なドキュメント、コードベース、PDF を読み取り、長い会話にわたって意図の一貫性を保つことができます。ポリシー、仕様、および以前のチャット履歴をロードし、大量のチャンク化や定期的な再プロンプトを表示せずに、概要、リスク チェック、または決定を尋ねます。

マルチモーダル解析
Gemini 2.5 Pro は、テキスト、画像、オーディオ、ビデオ、および PDF 入力を受け入れ、クリア テキストの回答を返します。つまり、単一のフローで、会議の音声とスライドを組み合わせたり、バグ レポートにスクリーンショットを追加したり、契約書 PDF を添付してリスクの概要を要求したりすることができます。

構造化されたワークフロー
Gemini 2.5 Pro は、関数呼び出し、構造化出力、URL コンテキスト、およびファイル検索をサポートしているため、アプリは洞察からアクションに移行できます。データの抽出、承認、またはルーティングには JSON 形式の応答を使用し、精度が最も重要な場合は検索またはマップで結果を絞り込みます。

チームがこのモデルを選ぶ理由
チームは、ロングコンテキスト推論、マルチモーダル入力、構造化出力やグラウンディングなどの実稼働対応コントロールのために Gemini 2.5 Pro を選択し、OpenAI 互換またはネイティブ Gemini エンドポイントを介して EvoLink でアクセスします。
長い文脈の信頼性
最大 1,048,576 個の入力トークンと 65,536 個の出力トークンにより、大きなドキュメントと長い履歴を 1 つのリクエストに保存できます。
安心の構造
関数呼び出しと構造化された出力は、オートメーションとダウンストリーム システムに対して一貫した JSON を生成するのに役立ちます。
運用の明確さ
キャッシュとバッチ API のサポートにより、繰り返しのワークロードのコストが削減され、検索またはマップのグラウンディングにより信頼性が向上します。
Gemini 2.5 Pro の使用方法
OpenAI SDK 互換性またはネイティブ Gemini エンドポイントのいずれかを備えた Gemini 2.5 Pro から EvoLink を使用します。
ステップ 1 - コンテキストを準備する
必要なファイル、リンク、トランスクリプトを収集し、詳細な分析を行う前に概要や要約を求めます。
ステップ 2 - API 形式を選択する
OpenAI SDK 互換性を得るために /v1/chat/completions を呼び出すか、ネイティブ Gemini 機能のために /v1beta/models/gemini-2.5-pro:{method} を使用します。
ステップ 3 - 生成、レビュー、改善
出力を評価し、制約を追加し、繰り返されるコンテキスト ブロックをキャッシュして、大規模な繰り返しジョブのコストを削減します。
主な機能
長期にわたる信頼性の高い推論のために構築されています
1Mクラスのコンテキストウィンドウ
Gemini 2.5 Pro は、最大 1,048,576 個の入力トークンと最大 65,536 個の出力トークンをサポートするため、長いドキュメントや複数ステップの作業が 1 つのリクエストに収まります。
マルチモーダル入力
このモデルは、テキスト、画像、オーディオ、ビデオ、および PDF 入力を受け入れ、保存、検索、または他のシステムに渡すのが簡単なテキスト出力を返します。
構造化されたアウトプットとツール
関数呼び出しと構造化された出力を取得して応答を JSON としてフォーマットすることで、ワークフローで結果を解析し、アクションをトリガーし、脆弱な後処理を回避できます。
接地とURLのコンテキスト
事実の正確さが重要な場合は、検索の根拠付け、マップの根拠付け、URL コンテキスト、およびファイル検索を使用して精度を向上させ、幻覚を軽減します。
キャッシュとバッチのサポート
長いコンテキストのプロンプトが繰り返される場合はキャッシュがサポートされており、バッチ API サポートにより、スループットよりも遅延が重要でない場合に大規模なキューを効率的に処理できます。
既知の制限を使用した推論
このモデルには 2025 年 1 月の知識のカットオフが含まれているため、最新の情報が必要な場合は、根拠のある情報源または新鮮な情報源と組み合わせてください。
よくある質問
Everything you need to know about the product and billing.