HappyHorse 1.0 곧 출시자세히 보기

Gemini 3.0 프로 미리보기 API

EvoLink의 OpenAI 호환 /v1/chat/completions 엔드포인트를 통해 gemini-3-pro-preview에 액세스하세요. 상세한 토큰 회계를 통해 코딩, 다중 모달 추론 및 도구 사용을 위해 구축되었습니다.
가격: 

$1.600 - 3.200(~ 115.2 - 230.4 credits) per 1M input tokens; $9.600 - 14.400(~ 691.2 - 1036.8 credits) per 1M output tokens

$0.161 - 0.322(~ 11.6 - 23.2 credits) per 1M cache read tokens

Google Search grounding charged separately per query.

99.9% 가용성이 보장되는 가장 안정적인 버전으로, 프로덕션 환경에 권장됩니다.

모든 버전은 동일한 API 엔드포인트를 사용하며 model 파라미터만 다릅니다.

Gemini 3.0 Pro 미리보기 API — OpenAI SDK 호환 가능

EvoLink을 통해 OpenAI SDK 형식을 사용하여 gemini-3-pro-preview를 호출하세요. 응답으로 사용량과 Reasoning_token을 얻고 테스트에서 보고된 100만 컨텍스트 창을 활용하세요.

예시 1

Gemini 3.0 Pro Preview API의 기능

다중 모드 입력 + 접지

Gemini 3 Pro 미리보기 API은 텍스트 전용 출력으로 텍스트, 코드, 이미지, 비디오, 오디오 및 PDF 입력을 허용하고 검증 가능한 답변을 위해 검색 접지와 URL 컨텍스트를 지원합니다.

예시 2

사고 + 에이전트 도구

에이전트 추론 및 자동화를 위해 사고, 함수 호출, 구조화된 출력, 코드 실행 및 파일 검색이 지원됩니다.

예시 3

1M 컨텍스트 + 운영 제어

입력 토큰 제한은 1,048,576개이며 출력 토큰은 최대 65,536개입니다. 캐싱 및 배치 API은 긴 컨텍스트 파이프라인을 지원합니다.

예시 4

EvoLink에서 Gemini 3.0 Pro를 사용하는 이유

EvoLink은 친숙한 OpenAI SDK 스타일 엔드포인트를 통해 Gemini 3.0 Pro Preview를 공개하며 프로덕션 등급 추적을 위한 명시적 인증 및 자세한 사용 통계를 제공합니다.

OpenAI SDK 형식

모델 + 메시지를 사용하여 /v1/chat/completions를 호출합니다. 메시지 배열이 필요합니다(최소 길이 1).

세분화된 사용량 측정항목

사용량에는 프롬프트 토큰, 완료_토큰, 총계, 완료_토큰_세부 사항.reasoning_tokens가 포함됩니다.

모델 품질 신호

Vercel은 Next.js 평가에서 더 강력한 지시 따르기, 개선된 응답 일관성 및 강력한 결과를 보고합니다.

Gemini 3.0 Pro 미리보기를 호출하는 방법

OpenAI SDK 형식과 gemini-3-pro-preview 모델 문자열을 사용하세요.

1

1단계 - 모델 설정

요청 본문에 "gemini-3-pro-preview" 모델을 사용하세요.

2

2단계 - 메시지 보내기

역할/컨텐츠 쌍(최소 길이 1)이 포함된 메시지 배열을 제공합니다.

3

3단계 - 출력 + 사용법 검사

Choices[0].message.content를 읽고 Usage.prompt_tokens, Complete_tokens 및 Reasoning_tokens를 추적하세요.

기술 사양

Gemini 3.0 Pro Preview API의 주요 세부정보

호환성

OpenAI SDK 형식

표준 /v1/chat/completions 인터페이스를 사용하십시오.

모델

모델 문자열

이 엔드포인트에 대해 모델을 gemini-3-pro-preview로 설정합니다.

해석학

사용량 분석

응답에는 프롬프트/완료 합계와 자세한 토큰 카테고리가 포함됩니다.

추리

추론 토큰

Completion_tokens_details에는 심층 분석을 위한 Reasoning_tokens가 포함되어 있습니다.

다중 모드

다중모달 추론 초점

Vercel은 테스트에서 더욱 강력한 다중 모달 추론과 도구 사용을 언급합니다.

문맥

1M 컨텍스트 창

Vercel은 긴 에이전트 흐름을 지원하는 1M 컨텍스트 창을 보고합니다.

Gemini 3.0 Pro API FAQ

Everything you need to know about the product and billing.

Gemini 3은 Google의 최신 다중 모드 모델 제품군입니다. 이 페이지에서는 텍스트 출력과 함께 텍스트, 이미지, 비디오, 오디오 및 PDF 입력과 사고, 함수 호출, 구조화된 출력, 코드 실행, 파일 검색, 검색 기반, URL 컨텍스트, 캐싱 및 배치 API 지원을 지원하는 Gemini 3 Pro 미리보기(모델 코드: gemini-3-pro-preview)에 중점을 둡니다. Google에는 이 미리보기 모델에 대한 2025년 1월 지식 마감이 나와 있습니다.
EvoLink의 Gemini 3 Pro Preview API에 대한 모델 값으로 "gemini-3-pro-preview"를 사용하세요. 이는 OpenAI 호환 채팅 완료 엔드포인트에 권장되는 모델 문자열입니다.
EvoLink 대시보드의 API 키를 사용하여 api.evolink.ai/v1/chat/completions. 포함 승인: 전달자 <token> 및 콘텐츠 유형: application/json에 POST 요청을 보냅니다.
OpenAI SDK 모델 및 필수 메시지 배열이 포함된 채팅 완료 형식(최소 길이 1). 각 메시지는 역할/콘텐츠 쌍을 사용하고 다중 모드 입력은 콘텐츠 부분으로 전달될 수 있으며 일반적인 옵션에는 스트림, max_tokens 및 온도가 포함됩니다.
입력에는 텍스트, 이미지, 비디오, 오디오 및 PDF가 포함되며 출력은 텍스트만입니다. 이 Gemini 3 Pro Preview 모델에서는 이미지 또는 오디오 생성이 지원되지 않습니다.
입력 토큰 제한은 1,048,576(1M 컨텍스트)이고 최대 출력 토큰은 65,536입니다. 이는 긴 문서와 다중 턴 컨텍스트를 지원합니다.
사고, 함수 호출, 구조화된 출력, 코드 실행, 파일 검색, 검색 접지, URL 컨텍스트, 캐싱 및 배치 API이 지원됩니다. URL 컨텍스트의 경우 도구를 사용한 함수 호출은 현재 지원되지 않으며 URL당 최대 34MB로 최대 20개의 URL을 전달할 수 있습니다.
EvoLink 응답에는 Usage.prompt_tokens, Completion_tokens, total_tokens, Prompt_tokens_details 및 Completion_tokens_details.reasoning_tokens가 포함됩니다. 이러한 필드를 사용하여 비용, 대기 시간 및 추론 토큰 소비를 모니터링합니다.
Beta 버전은 실험용 버전으로, 가격은 더 낮지만 100% 가용성을 보장하지 않습니다. 이 오류가 발생하면: 1. 잠시 기다렸다가 재시도: 보통 5-10분 내에 복구됩니다. 2. 공식 버전으로 전환: model ID를 gemini-3-pro-preview-beta에서 gemini-3-pro-preview로 변경하세요.공식 버전은 99.9% uptime을 보장하며