Seedance 2.0 API — Coming SoonGet early access

Gemini 2.5 プロ API

Gemini 2.5 Pro は、チームに深い分析、コード レビュー、複雑な計画のためのロングコンテキスト推論モデルを提供します。 EvoLink 上の Gemini 2.5 Pro を使用すると、単一の API キーでリクエストをルーティングし、プロジェクトごとに使用状況を追跡し、運用アプリのコンプライアンスに配慮した制御を維持できます。

Run With API
Using coding CLIs? Run Gemini 2.5 Pro via EvoCode — One API for Code Agents & CLIs. (View Docs)
$

PRICING

PLANCONTEXT WINDOWMAX OUTPUTINPUTOUTPUT
Gemini 2.5 Pro1.05M65.5K
200.0K$1.00-20%
$1.25Official Price
>200.0K$2.00-20%
$2.50Official Price
200.0K$8.00-20%
$10.00Official Price
>200.0K$12.000-20%
$15.00Official Price
Gemini 2.5 Pro (Beta)1.05M65.5K
200.0K$0.325-74%
$1.25Official Price
>200.0K$0.650-74%
$2.50Official Price
200.0K$2.60-74%
$10.00Official Price
>200.0K$3.90-74%
$15.00Official Price

Pricing Note: Price unit: USD / 1M tokens

Two ways to run Gemini 2.5 Pro — pick the tier that matches your workload.

  • · Gemini 2.5 Pro: the default tier for production reliability and predictable availability.
  • · Gemini 2.5 Pro (Beta): a lower-cost tier with best-effort availability; retries recommended for retry-tolerant workloads.

Gemini 2.5 Pro (長いコンテキストの推論とツールの使用)

Gemini 2.5 Pro は、最大約 100 万の入力トークンとテキスト出力をサポートしているため、長いファイル、PDF、複数ターンのワークフローが 1 つの会話に留まります。マルチモーダルな入力と構造化された出力を使用して、大規模なコンテキストを信頼性の高いアクションに変換します。

AIモデル機能のヒーローショーケース1

Gemini 2.5 Pro は何を構築するのに役立ちますか?

長い文脈の理解

Gemini 2.5 Pro は、単一のリクエストで大規模なドキュメント、コードベース、PDF を読み取り、長い会話にわたって意図の一貫性を保つことができます。ポリシー、仕様、および以前のチャット履歴をロードし、大量のチャンク化や定期的な再プロンプトを表示せずに、概要、リスク チェック、または決定を尋ねます。

AI モデル機能のコンテキスト ショーケース 2

マルチモーダル解析

Gemini 2.5 Pro は、テキスト、画像、オーディオ、ビデオ、および PDF 入力を受け入れ、クリア テキストの回答を返します。つまり、単一のフローで、会議の音声とスライドを組み合わせたり、バグ レポートにスクリーンショットを追加したり、契約書 PDF を添付してリスクの概要を要求したりすることができます。

AIモデル機能のマルチモーダルショーケース3

構造化されたワークフロー

Gemini 2.5 Pro は、関数呼び出し、構造化出力、URL コンテキスト、およびファイル検索をサポートしているため、アプリは洞察からアクションに移行できます。データの抽出、承認、またはルーティングには JSON 形式の応答を使用し、精度が最も重要な場合は検索またはマップで結果を絞り込みます。

AIモデル機能4のワークフロー紹介

チームがこのモデルを選ぶ理由

チームは、ロングコンテキスト推論、マルチモーダル入力、構造化出力やグラウンディングなどの実稼働対応コントロールのために Gemini 2.5 Pro を選択し、OpenAI 互換またはネイティブ Gemini エンドポイントを介して EvoLink でアクセスします。

長い文脈の信頼性

最大 1,048,576 個の入力トークンと 65,536 個の出力トークンにより、大きなドキュメントと長い履歴を 1 つのリクエストに保存できます。

安心の構造

関数呼び出しと構造化された出力は、オートメーションとダウンストリーム システムに対して一貫した JSON を生成するのに役立ちます。

運用の明確さ

キャッシュとバッチ API のサポートにより、繰り返しのワークロードのコストが削減され、検索またはマップのグラウンディングにより信頼性が向上します。

Gemini 2.5 Pro の使用方法

OpenAI SDK 互換性またはネイティブ Gemini エンドポイントのいずれかを備えた Gemini 2.5 Pro から EvoLink を使用します。

1

ステップ 1 - コンテキストを準備する

必要なファイル、リンク、トランスクリプトを収集し、詳細な分析を行う前に概要や要約を求めます。

2

ステップ 2 - API 形式を選択する

OpenAI SDK 互換性を得るために /v1/chat/completions を呼び出すか、ネイティブ Gemini 機能のために /v1beta/models/gemini-2.5-pro:{method} を使用します。

3

ステップ 3 - 生成、レビュー、改善

出力を評価し、制約を追加し、繰り返されるコンテキスト ブロックをキャッシュして、大規模な繰り返しジョブのコストを削減します。

主な機能

長期にわたる信頼性の高い推論のために構築されています

コンテクスト

1Mクラスのコンテキストウィンドウ

Gemini 2.5 Pro は、最大 1,048,576 個の入力トークンと最大 65,536 個の出力トークンをサポートするため、長いドキュメントや複数ステップの作業が 1 つのリクエストに収まります。

マルチモーダル

マルチモーダル入力

このモデルは、テキスト、画像、オーディオ、ビデオ、および PDF 入力を受け入れ、保存、検索、または他のシステムに渡すのが簡単なテキスト出力を返します。

ツール

構造化されたアウトプットとツール

関数呼び出しと構造化された出力を取得して応答を JSON としてフォーマットすることで、ワークフローで結果を解析し、アクションをトリガーし、脆弱な後処理を回避できます。

接地

接地とURLのコンテキスト

事実の正確さが重要な場合は、検索の根拠付け、マップの根拠付け、URL コンテキスト、およびファイル検索を使用して精度を向上させ、幻覚を軽減します。

効率

キャッシュとバッチのサポート

長いコンテキストのプロンプトが繰り返される場合はキャッシュがサポートされており、バッチ API サポートにより、スループットよりも遅延が重要でない場合に大規模なキューを効率的に処理できます。

信頼

既知の制限を使用した推論

このモデルには 2025 年 1 月の知識のカットオフが含まれているため、最新の情報が必要な場合は、根拠のある情報源または新鮮な情報源と組み合わせてください。

よくある質問

Everything you need to know about the product and billing.

Gemini 2.5 Pro は、複数のドキュメントのレビュー、複雑なコード分析、多くの制約にまたがる計画など、長い文脈にわたって深い推論が必要な場合に最も強力です。モデルは大規模なプロンプトを受け入れるため、ポリシー、仕様、および歴史的コンテキストをまとめて保持し、単一の一貫した応答を求めることができます。また、テキストを画像、音声、ビデオ、または PDF と組み合わせる必要があるマルチモーダル ワークフローにも適しています。運用アプリの場合、構造化された出力は結果の一貫性を保つのに役立ちます。
Gemini 2.5 Pro は、最大 1,048,576 トークンの入力トークン制限と最大 65,536 トークンの出力トークン制限をサポートします。実際には、これは、非常に大きなドキュメント、長いチャット履歴、または組み合わせたメディア入力を 1 回のリクエストで処理できることを意味します。最大値を超える場合は、応答時間の増加とコストの増加を計画してください。日常の作業では、多くのチームが制限を下回って、余分なヘッドルームを使用してチャンク化を減らし、継続性を維持しています。
Gemini 2.5 Pro は、テキスト、画像、オーディオ、ビデオ、および PDF 入力を受け入れ、テキスト出力を返します。これにより、このモデルは、PDF の要約、会議の記録からの洞察の抽出、わかりやすい言葉でのビデオ クリップの説明などのワークフローに実用的になります。出力はテキストのみであるため、保存、検索、または下流の分析システムやビジネス システムへの送信が簡単です。マルチモーダル出力が必要な場合は、EvoLink の特殊なメディア モデルと組み合わせることができます。
はい。 Gemini 2.5 Pro は関数呼び出しと構造化出力をサポートしており、一貫したデータ抽出とルーティングのために JSON 形式の応答を要求できます。これは、Gemini 2.5 Pro でフォームに入力したり、チケットを分類したり、ダッシュボードの構造化された概要を生成したりする場合に便利です。必要なフィールドを定義し、出力をより簡単に検証し、手動によるクリーンアップを減らすことができます。一か八かのワークフローの場合は、構造化された出力とアースを組み合わせて信頼性を向上させます。
Gemini 2.5 Pro は、URL コンテキストおよびファイル検索に加え、検索やマップ グラウンディングなどのグラウンディング オプションをサポートします。これは、Gemini 2.5 Pro が特定のソースを参照し、ページにリンクし、検索可能な資料に回答をアンカーできることを意味します。信頼できる結果が必要な場合は、関心のある情報源を提供し、モデルにそれらを引用するように依頼し、プロンプトに焦点を当ててください。グラウンディングは、正確さが重要となるポリシー、コンプライアンス、およびカスタマー サポートのシナリオに特に役立ちます。
EvoLink は 2 つのパスを提供します。/v1/chat/completions にある OpenAI SDK 互換エンドポイントと、/v1beta/models/gemini-2.5-pro:{method} にあるネイティブ Gemini エンドポイントです。 Gemini 2.5 Pro はどちらのオプションでも動作するため、既存の OpenAI スタイルのツールを維持することも、Gemini 固有の機能のネイティブ形式を使用することもできます。どちらのフローもベアラー トークン認証を使用し、応答をストリーミングできます。ネイティブ エンドポイントは、X-Async-Mode ヘッダーを使用した非同期モードもサポートします。
Google は、API の正式な Gemini 2.5 Pro 価格を公開しており、プロンプトのサイズによって異なる標準の有料レベルが含まれています。 Google でリストされているように、最大​​ 200,000 トークンのプロンプトの価格は、100 万の入力トークンあたり 1.25 ドル、100 万の出力トークンあたり 10 ドルですが、それより大きなプロンプトの場合はより高価になります。キャッシュとストレージには別の料金がかかります。 EvoLink の使用量はルーティングとプランによって異なるため、最も正確な価格設定とコスト管理についてはダッシュボードを確認してください。
Gemini 2.5 Pro には 2025 年 1 月の知識の期限が記載されているため、ごく最近の出来事や変更を把握していない可能性があります。鮮度が重要な場合は、URL コンテキスト、ファイル アップロード、またはグラウンディングを備えた Gemini 2.5 Pro を使用して、モデルが提供された最新のソースに依存できるようにします。また、引用された事実と仮定を区別するよう促すこともでき、レビュー担当者が正確さを検証するのに役立ちます。このアプローチでは、モデルのロングコンテキスト推論の恩恵を受けながら、応答を有用な状態に保ちます。