Gemini 2.5 프로 API
Gemini 2.5 Pro는 팀에 심층 분석, 코드 검토 및 복잡한 계획을 위한 장기 컨텍스트 추론 모델을 제공합니다. EvoLink의 Gemini 2.5 Pro를 사용하면 단일 API 키로 요청을 라우팅하고, 프로젝트별 사용량을 추적하고, 프로덕션 앱에 대해 규정 준수 친화적인 제어를 유지할 수 있습니다.
PRICING
| PLAN | CONTEXT WINDOW | MAX OUTPUT | INPUT | OUTPUT |
|---|---|---|---|---|
| Gemini 2.5 Pro | 1.05M | 65.5K | ≤200.0K$1.00-20% $1.25Official Price >200.0K$2.00-20% $2.50Official Price | ≤200.0K$8.00-20% $10.00Official Price >200.0K$12.000-20% $15.00Official Price |
| Gemini 2.5 Pro (Beta) | 1.05M | 65.5K | ≤200.0K$0.325-74% $1.25Official Price >200.0K$0.650-74% $2.50Official Price | ≤200.0K$2.60-74% $10.00Official Price >200.0K$3.90-74% $15.00Official Price |
Pricing Note: Price unit: USD / 1M tokens
Two ways to run Gemini 2.5 Pro — pick the tier that matches your workload.
- · Gemini 2.5 Pro: the default tier for production reliability and predictable availability.
- · Gemini 2.5 Pro (Beta): a lower-cost tier with best-effort availability; retries recommended for retry-tolerant workloads.
Gemini 2.5 Pro - 긴 맥락 추론 및 도구 사용
Gemini 2.5 Pro는 최대 약 백만 개의 입력 토큰과 텍스트 출력을 지원하므로 긴 파일, PDF 및 다중 턴 워크플로가 하나의 대화에 유지됩니다. 다중 모드 입력과 구조화된 출력을 사용하여 대규모 컨텍스트를 안정적인 작업으로 전환하세요.

Gemini 2.5 Pro는 무엇을 구축하는 데 도움이 됩니까?
장기적인 맥락 이해
Gemini 2.5 Pro는 단일 요청으로 대용량 문서, 코드베이스 및 PDF를 읽을 수 있으며 긴 대화 전반에 걸쳐 의도의 일관성을 유지할 수 있습니다. 정책, 사양 및 이전 채팅 기록을 로드한 다음 큰 청크나 지속적인 재요청 없이 요약, 위험 확인 또는 결정을 요청하세요.

다중 모드 분석
Gemini 2.5 Pro는 일반 텍스트 답변을 반환하면서 텍스트, 이미지, 오디오, 비디오 및 PDF 입력을 허용합니다. 즉, 회의 오디오를 슬라이드와 결합하거나, 버그 보고서에 스크린샷을 추가하거나, 계약서 PDF를 첨부하고 단일 흐름으로 위험 요약을 요청할 수 있습니다.

구조화된 워크플로우
Gemini 2.5 Pro는 함수 호출, 구조화된 출력, URL 컨텍스트 및 파일 검색을 지원하므로 앱이 통찰력을 행동으로 옮길 수 있습니다. 데이터 추출, 승인 또는 라우팅을 위해 JSON 모양의 응답을 사용한 다음 정확성이 가장 중요한 경우 검색이나 지도를 통해 결과를 정리하세요.

팀이 이 모델을 선택하는 이유
팀은 긴 상황 추론, 다중 모달 입력, 구조화된 출력 및 접지와 같은 프로덕션 지원 제어를 위해 Gemini 2.5 Pro를 선택한 다음 OpenAI 호환 또는 기본 Gemini 엔드포인트를 통해 EvoLink에 액세스합니다.
장기 상황 신뢰도
최대 1,048,576개의 입력 토큰과 65,536개의 출력 토큰이 단일 요청으로 대용량 문서와 긴 기록을 유지하는 데 도움이 됩니다.
안정적인 구조
함수 호출 및 구조화된 출력은 자동화 및 다운스트림 시스템을 위한 일관된 JSON을 생성하는 데 도움이 됩니다.
운영의 명확성
캐싱 및 배치 API 지원은 반복되는 작업 부하에 대한 비용을 줄이는 동시에 검색 또는 지도 기반은 신뢰도를 향상시킵니다.
Gemini 2.5 Pro 사용 방법
OpenAI SDK 호환성 또는 기본 Gemini 엔드포인트를 갖춘 EvoLink을 통해 Gemini 2.5 Pro를 사용하세요.
1단계 - 컨텍스트 준비
필요한 파일, 링크, 녹취록을 수집한 다음 심층 분석 전에 개요나 요약을 요청하세요.
2단계 - API 형식 선택
OpenAI SDK 호환성을 위해 /v1/chat/completions를 호출하거나 기본 Gemini 기능을 위해 /v1beta/models/gemini-2.5-pro:{method}을 사용하세요.
3단계 - 생성, 검토, 개선
출력을 평가하고, 제약 조건을 추가하고, 반복되는 컨텍스트 블록을 캐시하여 대규모 반복 작업의 비용을 줄입니다.
주요 역량
길고 신뢰할 수 있는 추론을 위해 구축됨
1M급 컨텍스트 윈도우
Gemini 2.5 Pro는 최대 1,048,576개의 입력 토큰과 최대 65,536개의 출력 토큰을 지원하므로 긴 문서와 다단계 작업이 단일 요청으로 유지됩니다.
다중 모드 입력
이 모델은 텍스트, 이미지, 오디오, 비디오 및 PDF 입력을 허용한 다음 저장, 검색 또는 다른 시스템으로 전달하기 쉬운 텍스트 출력을 반환합니다.
구조화된 출력 및 도구
응답 형식을 JSON로 지정하는 함수 호출 및 구조화된 출력을 얻으면 워크플로에서 결과를 구문 분석하고 작업을 트리거하며 취약한 후처리를 피할 수 있습니다.
접지 및 URL 컨텍스트
사실적 정확성이 중요한 경우 검색 기반, 지도 기반, URL 컨텍스트 및 파일 검색을 사용하여 정확도를 높이고 환각을 줄입니다.
캐싱 및 일괄 지원
반복되는 긴 컨텍스트 프롬프트에 대해 캐싱이 지원되며 배치 API 지원을 통해 대기 시간이 처리량보다 덜 중요한 경우 대규모 대기열을 효율적으로 처리할 수 있습니다.
알려진 한계를 이용한 추론
이 모델에는 2025년 1월 지식 컷오프가 포함되어 있으므로 최신 정보가 필요할 때 기초 소스 또는 새로운 소스와 결합하세요.
자주 묻는 질문
Everything you need to know about the product and billing.