Seedance 2.0 API — Coming SoonGet early access

Gemini 2.5 프로 API

Gemini 2.5 Pro는 팀에 심층 분석, 코드 검토 및 복잡한 계획을 위한 장기 컨텍스트 추론 모델을 제공합니다. EvoLink의 Gemini 2.5 Pro를 사용하면 단일 API 키로 요청을 라우팅하고, 프로젝트별 사용량을 추적하고, 프로덕션 앱에 대해 규정 준수 친화적인 제어를 유지할 수 있습니다.

Run With API
Using coding CLIs? Run Gemini 2.5 Pro via EvoCode — One API for Code Agents & CLIs. (View Docs)
$

PRICING

PLANCONTEXT WINDOWMAX OUTPUTINPUTOUTPUT
Gemini 2.5 Pro1.05M65.5K
200.0K$1.00-20%
$1.25Official Price
>200.0K$2.00-20%
$2.50Official Price
200.0K$8.00-20%
$10.00Official Price
>200.0K$12.000-20%
$15.00Official Price
Gemini 2.5 Pro (Beta)1.05M65.5K
200.0K$0.325-74%
$1.25Official Price
>200.0K$0.650-74%
$2.50Official Price
200.0K$2.60-74%
$10.00Official Price
>200.0K$3.90-74%
$15.00Official Price

Pricing Note: Price unit: USD / 1M tokens

Two ways to run Gemini 2.5 Pro — pick the tier that matches your workload.

  • · Gemini 2.5 Pro: the default tier for production reliability and predictable availability.
  • · Gemini 2.5 Pro (Beta): a lower-cost tier with best-effort availability; retries recommended for retry-tolerant workloads.

Gemini 2.5 Pro - 긴 맥락 추론 및 도구 사용

Gemini 2.5 Pro는 최대 약 백만 개의 입력 토큰과 텍스트 출력을 지원하므로 긴 파일, PDF 및 다중 턴 워크플로가 하나의 대화에 유지됩니다. 다중 모드 입력과 구조화된 출력을 사용하여 대규모 컨텍스트를 안정적인 작업으로 전환하세요.

AI 모델 기능의 영웅 쇼케이스 1

Gemini 2.5 Pro는 무엇을 구축하는 데 도움이 됩니까?

장기적인 맥락 이해

Gemini 2.5 Pro는 단일 요청으로 대용량 문서, 코드베이스 및 PDF를 읽을 수 있으며 긴 대화 전반에 걸쳐 의도의 일관성을 유지할 수 있습니다. 정책, 사양 및 이전 채팅 기록을 로드한 다음 큰 청크나 지속적인 재요청 없이 요약, 위험 확인 또는 결정을 요청하세요.

AI 모델 기능 2의 컨텍스트 쇼케이스

다중 모드 분석

Gemini 2.5 Pro는 일반 텍스트 답변을 반환하면서 텍스트, 이미지, 오디오, 비디오 및 PDF 입력을 허용합니다. 즉, 회의 오디오를 슬라이드와 결합하거나, 버그 보고서에 스크린샷을 추가하거나, 계약서 PDF를 첨부하고 단일 흐름으로 위험 요약을 요청할 수 있습니다.

AI 모델 기능의 다중 모드 쇼케이스 3

구조화된 워크플로우

Gemini 2.5 Pro는 함수 호출, 구조화된 출력, URL 컨텍스트 및 파일 검색을 지원하므로 앱이 통찰력을 행동으로 옮길 수 있습니다. 데이터 추출, 승인 또는 라우팅을 위해 JSON 모양의 응답을 사용한 다음 정확성이 가장 중요한 경우 검색이나 지도를 통해 결과를 정리하세요.

AI 모델 기능의 워크플로 쇼케이스 4

팀이 이 모델을 선택하는 이유

팀은 긴 상황 추론, 다중 모달 입력, 구조화된 출력 및 접지와 같은 프로덕션 지원 제어를 위해 Gemini 2.5 Pro를 선택한 다음 OpenAI 호환 또는 기본 Gemini 엔드포인트를 통해 EvoLink에 액세스합니다.

장기 상황 신뢰도

최대 1,048,576개의 입력 토큰과 65,536개의 출력 토큰이 단일 요청으로 대용량 문서와 긴 기록을 유지하는 데 도움이 됩니다.

안정적인 구조

함수 호출 및 구조화된 출력은 자동화 및 다운스트림 시스템을 위한 일관된 JSON을 생성하는 데 도움이 됩니다.

운영의 명확성

캐싱 및 배치 API 지원은 반복되는 작업 부하에 대한 비용을 줄이는 동시에 검색 또는 지도 기반은 신뢰도를 향상시킵니다.

Gemini 2.5 Pro 사용 방법

OpenAI SDK 호환성 또는 기본 Gemini 엔드포인트를 갖춘 EvoLink을 통해 Gemini 2.5 Pro를 사용하세요.

1

1단계 - 컨텍스트 준비

필요한 파일, 링크, 녹취록을 수집한 다음 심층 분석 전에 개요나 요약을 요청하세요.

2

2단계 - API 형식 선택

OpenAI SDK 호환성을 위해 /v1/chat/completions를 호출하거나 기본 Gemini 기능을 위해 /v1beta/models/gemini-2.5-pro:{method}을 사용하세요.

3

3단계 - 생성, 검토, 개선

출력을 평가하고, 제약 조건을 추가하고, 반복되는 컨텍스트 블록을 캐시하여 대규모 반복 작업의 비용을 줄입니다.

주요 역량

길고 신뢰할 수 있는 추론을 위해 구축됨

문맥

1M급 컨텍스트 윈도우

Gemini 2.5 Pro는 최대 1,048,576개의 입력 토큰과 최대 65,536개의 출력 토큰을 지원하므로 긴 문서와 다단계 작업이 단일 요청으로 유지됩니다.

다중 모드

다중 모드 입력

이 모델은 텍스트, 이미지, 오디오, 비디오 및 PDF 입력을 허용한 다음 저장, 검색 또는 다른 시스템으로 전달하기 쉬운 텍스트 출력을 반환합니다.

도구

구조화된 출력 및 도구

응답 형식을 JSON로 지정하는 함수 호출 및 구조화된 출력을 얻으면 워크플로에서 결과를 구문 분석하고 작업을 트리거하며 취약한 후처리를 피할 수 있습니다.

접지

접지 및 URL 컨텍스트

사실적 정확성이 중요한 경우 검색 기반, 지도 기반, URL 컨텍스트 및 파일 검색을 사용하여 정확도를 높이고 환각을 줄입니다.

능률

캐싱 및 일괄 지원

반복되는 긴 컨텍스트 프롬프트에 대해 캐싱이 지원되며 배치 API 지원을 통해 대기 시간이 처리량보다 덜 중요한 경우 대규모 대기열을 효율적으로 처리할 수 있습니다.

신뢰하다

알려진 한계를 이용한 추론

이 모델에는 2025년 1월 지식 컷오프가 포함되어 있으므로 최신 정보가 필요할 때 기초 소스 또는 새로운 소스와 결합하세요.

자주 묻는 질문

Everything you need to know about the product and billing.

Gemini 2.5 Pro는 다중 문서 검토, 복잡한 코드 분석 또는 많은 제약 조건을 포괄하는 계획과 같이 장기적인 맥락에 걸쳐 깊은 추론이 필요할 때 가장 강력합니다. 모델은 대규모 프롬프트를 수용하므로 정책, 사양 및 기록 컨텍스트를 함께 유지하고 일관된 단일 응답을 요청할 수 있습니다. 또한 텍스트를 이미지, 오디오, 비디오 또는 PDF와 결합해야 하는 다중 모드 워크플로우에도 적합합니다. 프로덕션 앱의 경우 구조화된 출력은 결과의 일관성을 유지하는 데 도움이 됩니다.
Gemini 2.5 Pro는 최대 1,048,576개 토큰의 입력 토큰 제한과 최대 65,536개 토큰의 출력 제한을 지원합니다. 실제로 이는 단일 요청에 매우 큰 문서, 긴 채팅 기록 또는 결합된 미디어 입력이 필요할 수 있음을 의미합니다. 최대치를 달성하는 경우 더 긴 응답 시간과 더 높은 비용을 계획하세요. 일상적인 작업의 경우 많은 팀이 한도 미만을 유지하고 추가 헤드룸을 사용하여 청크를 줄이고 연속성을 유지합니다.
Gemini 2.5 Pro는 텍스트, 이미지, 오디오, 비디오 및 PDF 입력을 허용하고 텍스트 출력을 반환합니다. 이는 PDF 요약, 회의 녹음에서 통찰력 추출, 일반 언어로 비디오 클립 설명과 같은 워크플로에 모델을 실용적으로 만듭니다. 출력은 텍스트로만 이루어지기 때문에 쉽게 저장, 검색하거나 분석 및 비즈니스 시스템으로 다운스트림을 보낼 수 있습니다. 다중 모드 출력이 필요한 경우 EvoLink의 특수 미디어 모델과 페어링할 수 있습니다.
예. Gemini 2.5 Pro는 함수 호출 및 구조화된 출력을 지원하므로 일관된 데이터 추출 및 라우팅을 위해 JSON 모양의 응답을 요청할 수 있습니다. 이는 Gemini 2.5 Pro에서 양식을 채우거나, 티켓을 분류하거나, 대시보드에 대한 구조화된 요약을 생성하려는 경우에 유용합니다. 필요한 필드를 정의하고, 출력을 보다 쉽게 ​​검증하고, 수동 정리를 줄일 수 있습니다. 위험성이 높은 작업 흐름의 경우 구조화된 출력을 접지와 결합하여 안정성을 향상시킵니다.
Gemini 2.5 Pro는 URL 컨텍스트 및 파일 검색과 검색 또는 지도 접지와 같은 접지 옵션을 지원합니다. 이는 Gemini 2.5 Pro가 특정 소스를 참조하고, 페이지에 링크하고, 검색 가능한 자료에 답변을 고정할 수 있음을 의미합니다. 신뢰할 수 있는 결과가 필요한 경우 관심 있는 출처를 제공하고, 모델에 이를 인용하도록 요청하고, 프롬프트에 계속 집중하세요. 접지는 정확성이 중요한 정책, 규정 준수 및 고객 지원 시나리오에 특히 유용합니다.
EvoLink은 두 가지 경로, 즉 /v1/chat/completions의 OpenAI SDK 호환 엔드포인트와 /v1beta/models/gemini-2.5-pro:{method}의 기본 Gemini 엔드포인트를 제공합니다. Gemini 2.5 Pro는 두 옵션 중 하나와 함께 작동하므로 기존 OpenAI 스타일 도구를 유지하거나 Gemini 관련 기능에 기본 형식을 사용할 수 있습니다. 두 흐름 모두 Bearer 토큰 인증을 사용하고 응답을 스트리밍할 수 있습니다. 기본 엔드포인트는 X-Async-Mode 헤더가 있는 비동기 모드도 지원합니다.
Google은 프롬프트 크기에 따라 달라지는 표준 유료 계층을 사용하여 API에 대한 공식 Gemini 2.5 Pro 가격을 게시합니다. Google에 나열된 대로 최대 200,000개 토큰의 가격은 100만 입력 토큰당 $1.25, 100만 출력 토큰당 $10이며 더 큰 프롬프트는 더 많은 비용이 듭니다. 캐싱 및 스토리지 요금은 별도입니다. EvoLink 사용량은 라우팅 및 계획에 따라 다르므로 대시보드에서 가장 정확한 가격 및 비용 관리를 확인하세요.
Gemini 2.5 Pro에는 2025년 1월 지식 기준이 기재되어 있으므로 최근 사건이나 변경 사항을 알지 못할 수도 있습니다. 최신성이 중요한 경우 URL 컨텍스트, 파일 업로드 또는 접지와 함께 Gemini 2.5 Pro를 사용하여 모델이 귀하가 제공하는 현재 소스에 의존할 수 있도록 하세요. 또한 인용된 사실을 가정과 분리하도록 요청하여 검토자가 정확성을 확인하는 데 도움을 줄 수도 있습니다. 이 접근 방식은 모델의 긴 맥락 추론의 이점을 계속 활용하면서 응답을 유용하게 유지합니다.