HappyHorse 1.0 まもなく登場詳しく見る

Gemini 3.0 プロ プレビュー API

EvoLink の OpenAI 互換の /v1/chat/completions エンドポイントを介して gemini-3-pro-preview にアクセスします。コーディング、マルチモーダル推論、および詳細なトークン アカウンティングを備えたツールの使用のために構築されています。
モデルタイプ:
価格: 

$1.600 - 3.200(~ 115.2 - 230.4 credits) per 1M input tokens; $9.600 - 14.400(~ 691.2 - 1036.8 credits) per 1M output tokens

$0.161 - 0.322(~ 11.6 - 23.2 credits) per 1M cache read tokens

Google Search grounding charged separately per query.

99.9% の稼働率を保証する最も安定した構成で、本番環境に推奨されます。

すべてのバージョンで同じ API エンドポイントを使用し、異なるのは model パラメータのみです。

Gemini 3.0 Pro プレビュー API — OpenAI SDK 互換性あり

EvoLink 経由で OpenAI SDK 形式を使用して gemini-3-pro-preview を呼び出します。応答内の使用状況とreasoning_tokensを取得し、テストで報告された1Mコンテキストウィンドウを活用します。

例1

Gemini 3.0 Pro プレビュー API の機能

マルチモーダル入力 + 接地

Gemini 3 Pro プレビュー API は、テキスト、コード、画像、ビデオ、オーディオ、および PDF 入力をテキストのみの出力で受け入れ、検索グラウンディングと検証可能な回答のための URL コンテキストをサポートします。

例2

思考 + エージェント ツール

エージェントによる推論と自動化のために、思考、関数呼び出し、構造化出力、コード実行、ファイル検索がサポートされています。

例3

1M コンテキスト + 運用コントロール

入力トークンの制限は 1,048,576 で、出力トークンは最大 65,536 です。キャッシュとバッチ API は、ロングコンテキスト パイプラインをサポートします。

例4

EvoLink で Gemini 3.0 Pro を使用する理由

EvoLink は、明示的な認証と運用グレードの追跡のための詳細な使用状況統計を備えた、使い慣れた OpenAI SDK スタイルのエンドポイントを通じて Gemini 3.0 Pro プレビューを公開します。

OpenAI SDK 形式

モデル + メッセージを使用して /v1/chat/completions を呼び出します。メッセージ配列は必須です (最小長は 1)。

詳細な使用状況メトリクス

使用法には、prompt_tokens、complete_tokens、total_tokens、completion_tokens_details.reasoning_tokens が含まれます。

モデル品質信号

Vercel は、Next.js の評価で、より強力な指示に従い、応答の一貫性が向上し、良好な結果が得られたと報告しています。

Gemini 3.0 Pro プレビューを呼び出す方法

OpenAI SDK 形式と gemini-3-pro-preview モデル文字列を使用します。

1

ステップ 1 - モデルを設定する

リクエスト本文でモデル「gemini-3-pro-preview」を使用します。

2

ステップ 2 - メッセージを送信する

役割とコンテンツのペア (最小長 1) を含むメッセージ配列を提供します。

3

ステップ 3 - 出力と使用状況を検査する

Choices[0].message.content を読み取り、usage.prompt_tokens、completion_tokens、reasoning_tokens を追跡します。

技術仕様

Gemini 3.0 Pro プレビュー API の重要な詳細

互換性

OpenAI SDK 形式

標準の /v1/chat/completions インターフェイスを使用します。

モデル

モデル文字列

このエンドポイントのモデルを gemini-3-pro-preview に設定します。

分析

使用量の内訳

応答には、プロンプト/完了の合計と詳細なトークン カテゴリが含まれます。

推論

推論トークン

completed_tokens_details には、より詳細な分析のためのreasoning_tokensが含まれています。

マルチモーダル

マルチモーダル推論の焦点

Vercel 氏は、テストにおけるより強力なマルチモーダル推論とツールの使用について指摘しています。

コンテクスト

1M コンテキストウィンドウ

Vercel は、長いエージェント フローをサポートする 1M コンテキスト ウィンドウを報告します。

Gemini 3.0 プロ API よくある質問

Everything you need to know about the product and billing.

Gemini 3 は、Google の最新のマルチモーダル モデル ファミリです。このページでは、Gemini 3 Pro プレビュー (モデル コード: gemini-3-pro-preview) に焦点を当てます。これは、テキスト出力を伴うテキスト、画像、ビデオ、オーディオ、および PDF 入力に加えて、思考、関数呼び出し、構造化出力、コード実行、ファイル検索、検索グラウンディング、URL コンテキスト、キャッシュ、およびバッチ API サポートをサポートします。 Google には、このプレビュー モデルの 2025 年 1 月のナレッジ カットオフがリストされています。
EvoLink の Gemini 3 Pro Preview API のモデル値として「gemini-3-pro-preview」を使用します。これは、OpenAI 互換のチャット完了エンドポイントに推奨されるモデル文字列です。
EvoLink ダッシュボードの API キーを使用して、POST リクエストを api.evolink.ai/v1/chat/completions. に送信します。 EvoLink ダッシュボードの API キーを使用して、認可: Bearer <token> および Content-Type: application/json を含めます。
OpenAI SDK モデルと必要なメッセージ配列 (最小長 1) を含むチャット完了形式。各メッセージはロールとコンテンツのペアを使用し、マルチモーダル入力をコンテンツ部分として渡すことができ、共通オプションにはストリーム、max_tokens、および温度が含まれます。
入力にはテキスト、画像、ビデオ、オーディオ、PDF が含まれますが、出力はテキストのみです。この Gemini 3 Pro Preview モデルでは、画像または音声の生成はサポートされていません。
入力トークンの制限は 1,048,576 (1M コンテキスト)、最大出力トークンは 65,536 です。これにより、長いドキュメントと複数ターンのコンテキストがサポートされます。
思考、関数呼び出し、構造化出力、コード実行、ファイル検索、検索グラウンディング、URL コンテキスト、キャッシュ、およびバッチ API がサポートされています。 URL コンテキストの場合、ツールの使用による関数呼び出しは現在サポートされておらず、URL あたり最大 34MB の URL を 20 個まで渡すことができます。
EvoLink 応答には、usage.prompt_tokens、complete_tokens、total_tokens に加えて、prompt_tokens_details および completed_tokens_details.reasoning_tokens が含まれます。これらのフィールドを使用して、コスト、レイテンシ、および推論トークンの消費を監視します。
Beta版は実験的なバージョンで、価格は低い一方、100%の可用性は保証されません。エラー発生時は: 1. 待って再試行: 通常は5-10分で復旧します。2. 公式版へ切り替え: model ID を gemini-3-pro-preview-beta から gemini-3-pro-preview に変更します。公式版は99.9% uptimeを保証し