Gemini 3.1 Pro プレビュー API
$1.600 - 3.200(~ 115.2 - 230.4 credits) per 1M input tokens; $9.600 - 14.400(~ 691.2 - 1036.8 credits) per 1M output tokens
$0.161 - 0.322(~ 11.6 - 23.2 credits) per 1M cache read tokens
Google Search grounding charged separately per query.
99.9% の稼働率を保証する最も安定した構成で、本番環境に推奨されます。
すべてのバージョンで同じ API エンドポイントを使用し、異なるのは model パラメータのみです。
Gemini 3.1 Pro プレビュー API — OpenAI SDK 互換
EvoLink 経由で OpenAI SDK 形式を使用して gemini-3.1-pro-preview を呼び出します。レスポンスで使用状況と reasoning_tokens を取得し、テストで報告された 1M コンテキストウィンドウを活用します。

Gemini 3.1 Pro プレビュー API の機能
マルチモーダル入力 + グラウンディング
Gemini 3.1 Pro プレビュー API はテキスト、コード、画像、動画、音声、PDF 入力をテキスト出力で受け付け、検証可能な回答のための検索グラウンディングと URL コンテキストをサポートします。



EvoLink で Gemini 3.1 Pro を使用する理由
EvoLink は、明示的な認証と本番グレードの追跡のための詳細な使用統計を備えた、使い慣れた OpenAI SDK スタイルのエンドポイントを通じて Gemini 3.1 Pro プレビューを提供します。
OpenAI SDK 形式
model + messages を使用して /v1/chat/completions を呼び出します。messages 配列は必須です(最小長 1)。
詳細な使用メトリクス
使用状況には prompt_tokens、completion_tokens、total_tokens、および completion_tokens_details.reasoning_tokens が含まれます。
モデル品質シグナル
より強力な指示追従、改善されたレスポンス一貫性、コーディングと推論ベンチマークでの優れた結果。
Gemini 3.1 Pro プレビューの呼び出し方法
OpenAI SDK 形式と gemini-3.1-pro-preview モデル文字列を使用します。
ステップ 1 - モデルを設定
リクエストボディで model: "gemini-3.1-pro-preview" を使用します。
ステップ 2 - メッセージを送信
role/content ペア(最小長 1)を含む messages 配列を提供します。
ステップ 3 - 出力と使用状況を確認
choices[0].message.content を読み、usage.prompt_tokens、completion_tokens、reasoning_tokens を追跡します。
技術仕様
Gemini 3.1 Pro プレビュー API の主要詳細
OpenAI SDK 形式
標準の /v1/chat/completions インターフェースを使用します。
モデル文字列
このエンドポイントのモデルを gemini-3.1-pro-preview に設定します。
使用量の内訳
レスポンスにはプロンプト/補完の合計と詳細なトークンカテゴリが含まれます。
推論トークン
completion_tokens_details には、より深い分析のための reasoning_tokens が含まれます。
マルチモーダル推論フォーカス
より強力なマルチモーダル推論とツール使用能力。
1M コンテキストウィンドウ
長いエージェントフローをサポートする 1M コンテキストウィンドウ。
Gemini 3.1 Pro API よくある質問
Everything you need to know about the product and billing.