Seedance 2.0 API が利用可能になりました今すぐ始める

Gemini 3.1 Pro プレビュー API

EvoLink の OpenAI 互換 /v1/chat/completions エンドポイントを通じて gemini-3.1-pro-preview にアクセスします。コーディング、マルチモーダル推論、詳細なトークン計測を備えたツール使用のために構築されています。
モデルタイプ:
価格: 

$1.600 - 3.200(~ 115.2 - 230.4 credits) per 1M input tokens; $9.600 - 14.400(~ 691.2 - 1036.8 credits) per 1M output tokens

$0.161 - 0.322(~ 11.6 - 23.2 credits) per 1M cache read tokens

Google Search grounding charged separately per query.

99.9% の稼働率を保証する最も安定した構成で、本番環境に推奨されます。

すべてのバージョンで同じ API エンドポイントを使用し、異なるのは model パラメータのみです。

Gemini 3.1 Pro プレビュー API — OpenAI SDK 互換

EvoLink 経由で OpenAI SDK 形式を使用して gemini-3.1-pro-preview を呼び出します。レスポンスで使用状況と reasoning_tokens を取得し、テストで報告された 1M コンテキストウィンドウを活用します。

例1

Gemini 3.1 Pro プレビュー API の機能

マルチモーダル入力 + グラウンディング

Gemini 3.1 Pro プレビュー API はテキスト、コード、画像、動画、音声、PDF 入力をテキスト出力で受け付け、検証可能な回答のための検索グラウンディングと URL コンテキストをサポートします。

例2

思考 + エージェントツール

エージェント推論と自動化のために、思考、関数呼び出し、構造化出力、コード実行、ファイル検索がサポートされています。

例3

1M コンテキスト + 運用制御

入力トークン制限は 1,048,576、出力トークンは最大 65,536。キャッシュとバッチ API がロングコンテキストパイプラインをサポートします。

例4

EvoLink で Gemini 3.1 Pro を使用する理由

EvoLink は、明示的な認証と本番グレードの追跡のための詳細な使用統計を備えた、使い慣れた OpenAI SDK スタイルのエンドポイントを通じて Gemini 3.1 Pro プレビューを提供します。

OpenAI SDK 形式

model + messages を使用して /v1/chat/completions を呼び出します。messages 配列は必須です(最小長 1)。

詳細な使用メトリクス

使用状況には prompt_tokens、completion_tokens、total_tokens、および completion_tokens_details.reasoning_tokens が含まれます。

モデル品質シグナル

より強力な指示追従、改善されたレスポンス一貫性、コーディングと推論ベンチマークでの優れた結果。

Gemini 3.1 Pro プレビューの呼び出し方法

OpenAI SDK 形式と gemini-3.1-pro-preview モデル文字列を使用します。

1

ステップ 1 - モデルを設定

リクエストボディで model: "gemini-3.1-pro-preview" を使用します。

2

ステップ 2 - メッセージを送信

role/content ペア(最小長 1)を含む messages 配列を提供します。

3

ステップ 3 - 出力と使用状況を確認

choices[0].message.content を読み、usage.prompt_tokens、completion_tokens、reasoning_tokens を追跡します。

技術仕様

Gemini 3.1 Pro プレビュー API の主要詳細

互換性

OpenAI SDK 形式

標準の /v1/chat/completions インターフェースを使用します。

モデル

モデル文字列

このエンドポイントのモデルを gemini-3.1-pro-preview に設定します。

分析

使用量の内訳

レスポンスにはプロンプト/補完の合計と詳細なトークンカテゴリが含まれます。

推論

推論トークン

completion_tokens_details には、より深い分析のための reasoning_tokens が含まれます。

マルチモーダル

マルチモーダル推論フォーカス

より強力なマルチモーダル推論とツール使用能力。

コンテキスト

1M コンテキストウィンドウ

長いエージェントフローをサポートする 1M コンテキストウィンドウ。

Gemini 3.1 Pro API よくある質問

Everything you need to know about the product and billing.

Gemini 3.1 Pro は Google の Gemini 3 マルチモーダルモデルファミリーの最新イテレーションです。このページでは Gemini 3.1 Pro プレビュー(モデルコード: gemini-3.1-pro-preview)に焦点を当てています。テキスト、画像、動画、音声、PDF 入力とテキスト出力をサポートし、思考、関数呼び出し、構造化出力、コード実行、ファイル検索、検索グラウンディング、URL コンテキスト、キャッシュ、バッチ API をサポートします。
EvoLink の Gemini 3.1 Pro プレビュー API のモデル値として "gemini-3.1-pro-preview" を使用してください。これは OpenAI 互換チャット補完エンドポイントの推奨モデル文字列です。
api.evolink.ai/v1/chat/completions に POST リクエストを送信します。EvoLink ダッシュボードの API ���ーを使用して Authorization: Bearer <token> と Content-Type: application/json を含めます。
model と必須の messages 配列(最小長 1)を含む OpenAI SDK チャット補完形式。各メッセージは role/content ペアを使用し、マルチモーダル入力はコンテンツパーツとして渡すことができ、一般的なオプションには stream、max_tokens、temperature が含まれます。
入力にはテキスト、画像、動画、音声、PDF が含まれ、出力はテキストのみです。この Gemini 3.1 Pro プレビューモデルでは画像または音声の生成はサポートされていません。
入力トークン制限は 1,048,576(1M コンテキスト)、最大出力トークンは 65,536 です。長いドキュメントとマルチターンコンテキストをサポートします。
思考、関数呼び出し、構造化出力、コード実行、ファイル検索、検索グラウンディング、URL コンテキスト、キャッシュ、バッチ API がサポートされています。URL コンテキストでは、ツール使用による関数呼び出しは現在サポートされておらず、URL あたり最大 34MB で最大 20 個の URL を渡すことができます。
EvoLink のレスポンスには usage.prompt_tokens、completion_tokens、total_tokens、および prompt_tokens_details と completion_tokens_details.reasoning_tokens が含まれます。これらのフィールドを使用してコスト、レイテンシ、推論トークン消費を監視します。
Beta版は実験的なバージョンで、価格は低い一方、100%の可用性は保証されません。エラー発生時は: 1. 待って再試行: 通常は5-10分で復旧します。2. 公式版へ切り替え: model ID を gemini-3-1-pro-beta から gemini-3-1-pro に変更します。公式版は99.9% uptimeを保証し
Gemini 3.1 Pro API (gemini-3.1-pro-preview) | OpenAI 互換チャット補完 | EvoLink