Gemini 3.0 プロ プレビュー API
EvoLink の OpenAI 互換の /v1/chat/completions エンドポイントを介して gemini-3-pro-preview にアクセスします。コーディング、マルチモーダル推論、および詳細なトークン アカウンティングを備えたツールの使用のために構築されています。
PRICING
| PLAN | CONTEXT WINDOW | MAX OUTPUT | INPUT | OUTPUT | CACHE READ |
|---|---|---|---|---|---|
| Gemini 3 Pro | 1.05M | 65.5K | ≤200.0K$1.600-20% $2.00Official Price >200.0K$3.200-20% $4.00Official Price | ≤200.0K$9.60-20% $12.00Official Price >200.0K$14.40-20% $18.00Official Price | ≤200.0K$0.160-20% $0.200Official Price >200.0K$0.319-20% $0.400Official Price |
| Gemini 3 Pro (Beta) | 1.05M | 65.5K | ≤200.0K$0.520-74% $2.00Official Price >200.0K$1.04-74% $4.00Official Price | ≤200.0K$3.12-74% $12.00Official Price >200.0K$4.68-74% $18.00Official Price | ≤200.0K$0.052-74% $0.200Official Price >200.0K$0.104-74% $0.400Official Price |
Pricing Note: Price unit: USD / 1M tokens
Cache Hit: Price applies to cached prompt tokens.
Two ways to run Gemini 3 Pro — pick the tier that matches your workload.
- · Gemini 3 Pro: the default tier for production reliability and predictable availability.
- · Gemini 3 Pro (Beta): a lower-cost tier with best-effort availability; retries recommended for retry-tolerant workloads.
Gemini 3.0 Pro プレビュー API — OpenAI SDK 互換性あり
EvoLink 経由で OpenAI SDK 形式を使用して gemini-3-pro-preview を呼び出します。応答内の使用状況とreasoning_tokensを取得し、テストで報告された1Mコンテキストウィンドウを活用します。

Gemini 3.0 Pro プレビュー API の機能
マルチモーダル入力 + 接地
Gemini 3 Pro プレビュー API は、テキスト、コード、画像、ビデオ、オーディオ、および PDF 入力をテキストのみの出力で受け入れ、検索グラウンディングと検証可能な回答のための URL コンテキストをサポートします。


1M コンテキスト + 運用コントロール
入力トークンの制限は 1,048,576 で、出力トークンは最大 65,536 です。キャッシュとバッチ API は、ロングコンテキスト パイプラインをサポートします。

EvoLink で Gemini 3.0 Pro を使用する理由
EvoLink は、明示的な認証と運用グレードの追跡のための詳細な使用状況統計を備えた、使い慣れた OpenAI SDK スタイルのエンドポイントを通じて Gemini 3.0 Pro プレビューを公開します。
OpenAI SDK 形式
モデル + メッセージを使用して /v1/chat/completions を呼び出します。メッセージ配列は必須です (最小長は 1)。
詳細な使用状況メトリクス
使用法には、prompt_tokens、complete_tokens、total_tokens、completion_tokens_details.reasoning_tokens が含まれます。
モデル品質信号
Vercel は、Next.js の評価で、より強力な指示に従い、応答の一貫性が向上し、良好な結果が得られたと報告しています。
Gemini 3.0 Pro プレビューを呼び出す方法
OpenAI SDK 形式と gemini-3-pro-preview モデル文字列を使用します。
ステップ 1 - モデルを設定する
リクエスト本文でモデル「gemini-3-pro-preview」を使用します。
ステップ 2 - メッセージを送信する
役割とコンテンツのペア (最小長 1) を含むメッセージ配列を提供します。
ステップ 3 - 出力と使用状況を検査する
Choices[0].message.content を読み取り、usage.prompt_tokens、completion_tokens、reasoning_tokens を追跡します。
技術仕様
Gemini 3.0 Pro プレビュー API の重要な詳細
OpenAI SDK 形式
標準の /v1/chat/completions インターフェイスを使用します。
モデル文字列
このエンドポイントのモデルを gemini-3-pro-preview に設定します。
使用量の内訳
応答には、プロンプト/完了の合計と詳細なトークン カテゴリが含まれます。
推論トークン
completed_tokens_details には、より詳細な分析のためのreasoning_tokensが含まれています。
マルチモーダル推論の焦点
Vercel 氏は、テストにおけるより強力なマルチモーダル推論とツールの使用について指摘しています。
1M コンテキストウィンドウ
Vercel は、長いエージェント フローをサポートする 1M コンテキスト ウィンドウを報告します。
Gemini 3.0 プロ API よくある質問
Everything you need to know about the product and billing.