HappyHorse 1.0 정식 출시지금 사용하기

EvoLink Moderation 1.0 API

EvoLink Moderation 1.0은 텍스트와 이미지를 13가지 유해 카테고리로 분류하고 보정된 위험 등급을 제공하는 멀티모달 콘텐츠 안전 모델입니다. OpenAI /v1/moderations 엔드포인트와 100% 호환되며, EvoLink가 튜닝한 임계값과 명료한 summary 필드를 함께 제공해 운영 환경에 바로 투입할 수 있습니다.

99.9% 가용성이 보장되는 가장 안정적인 버전으로, 프로덕션 환경에 권장됩니다.

모든 버전은 동일한 API 엔드포인트를 사용하며 model 파라미터만 다릅니다.

가격

호출당 과금

USD

호출당

크레딧

호출당

과금 규칙

  • 호출당 1 크레딧 정액 — 토큰 과금 없음, 볼륨 티어 없음.
  • 입력 길이나 이미지 포함 여부와 무관하게 동일 비용.
  • 모든 응답에는 표준 모더레이션 필드와 함께 risk_level 및 violations를 요약하는 evolink_summary 블록이 포함됩니다.
  • 실패한 요청(4xx/5xx)은 과금되지 않습니다.

위험 등급 임계값

EvoLink는 카테고리별 임계값을 적용해 risk_level을 계산합니다. 어느 카테고리든 high 임계값 이상이면 risk_level = high, flagged = true가 됩니다.

카테고리MediumHigh민감도
sexual/minors0.050.20레드라인 — 절대 허용 불가
self-harm0.300.60엄격 — 미탐 최소화
self-harm/intent0.300.60엄격 — 미탐 최소화
self-harm/instructions0.300.60엄격 — 미탐 최소화
violence/graphic0.400.70엄격 — 미탐 최소화
illicit/violent0.400.70엄격 — 미탐 최소화
sexual0.500.80표준
violence0.500.80표준
harassment/threatening0.500.80표준
hate/threatening0.500.80표준
harassment0.600.85완화 — 오탐 감소
hate0.600.85완화 — 오탐 감소
illicit0.600.85완화 — 오탐 감소

임계값은 버전에 따라 변경될 수 있습니다. 운영 환경의 실제 값은 API가 반환하는 결과가 기준입니다.

프로덕션에 바로 쓰는 콘텐츠 모더레이션

EvoLink Moderation 1.0은 텍스트와 이미지에 결정론적인 안전 분류를 제공합니다. 매 요청마다 13개 카테고리 점수와 함께 위험 등급, 위반 항목, 주요 카테고리를 담은 EvoLink summary를 반환하므로, 복잡한 출력을 파싱할 필요 없이 단일 필드로 결정을 내릴 수 있습니다.

EvoLink Moderation 1.0 API 히어로 이미지

EvoLink Moderation 1.0으로 무엇을 만들 수 있나요?

사용자 생성 콘텐츠 안전

소셜 플랫폼, 포럼, 커뮤니티 앱에서 공격적인 댓글, 게시물, 업로드를 필터링합니다. 괴롭힘, 혐오 발언, 노골적인 콘텐츠가 사용자에게 도달하기 전에 차단합니다.

UGC 모더레이션 사례

AI 출력 가드레일

챗봇, 코파일럿, 생성 파이프라인을 안전 검사로 감쌉니다. 전달 전에 프롬프트와 출력을 EvoLink Moderation에 통과시켜 정책 위반 응답을 예측 가능한 지연 시간으로 차단합니다.

AI 가드레일 사례

컴플라이언스와 신뢰 워크플로

구조화된 위반 라벨로 모더레이션 큐, KYC 검토, 컴플라이언스 워크플로를 구동합니다. risk_level summary는 허용 / 검토 / 차단 의사 결정에 그대로 매핑됩니다.

컴플라이언스 워크플로

팀이 EvoLink Moderation 1.0을 선택하는 이유

EvoLink Moderation 1.0은 결정론적인 위험 등급, 다국어 지원, OpenAI 호환 인터페이스를 갖춘 운영급 멀티모달 안전 레이어입니다.

13개 유해 카테고리

괴롭힘, 혐오, 성적, 폭력, 자해, 불법 콘텐츠, 미성년자 안전 위반을 카테고리별 신뢰도 점수와 함께 감지합니다.

멀티모달 입력

텍스트 단독, 단일 이미지 단독, 또는 텍스트와 이미지 1장을 같은 요청에서 전송할 수 있습니다. 이미지 카테고리는 sexual, violence, self-harm을 포함합니다.

결정론적 위험 등급

모든 응답에 risk_level (low / medium / high), violations 배열, 최고 점수 카테고리를 담은 evolink_summary가 포함됩니다.

예측 가능한 가격

요청당 1 크레딧의 per-call 과금. 토큰 계산도, 스트리밍 깜짝 비용도 없습니다 — 예산이 허용하는 만큼 모더레이션 가능합니다.

EvoLink Moderation 1.0 통합 방법

EvoLink Moderation은 OpenAI /v1/moderations 엔드포인트와 완벽하게 호환됩니다. base URL만 변경하고 model: evolink-moderation-1.0을 전달하세요.

1

1단계 — 인증

EvoLink API 키를 생성하고 Bearer 토큰 인증으로 /v1/moderations를 호출합니다.

2

2단계 — 입력 전송

model: evolink-moderation-1.0과 text 요소, image_url 요소 또는 둘 다 포함된 input 배열을 전달합니다. 요청당 이미지는 1장까지.

3

3단계 — evolink_summary 확인

evolink_summary.risk_level (low/medium/high)과 violations[]를 사용해 단일 분기에서 허용 / 검토 / 차단 결정을 내립니다.

EvoLink Moderation 1.0 핵심 기능

EvoLink가 튜닝한, 운영 환경 보정 임계값

엔진

운영급 안전 엔진

최첨단 멀티모달 안전 분류기. EvoLink가 실제 모더레이션 부하에 맞춰 카테고리별 임계값을 보정했습니다.

보정

카테고리별 임계값

sexual/minors와 self-harm에는 엄격한 임계값, harassment와 hate에는 오탐을 줄이는 완화된 임계값.

스키마

EvoLink Summary 필드

evolink_summary 객체 하나에 risk_level, flagged, violations, max_score, max_category를 통합하며 표준 모더레이션 필드도 함께 반환합니다.

멀티모달

텍스트 + 이미지 1장

단일 동기 호출로 멀티모달 평가. 이미지 입력은 sexual, violence, self-harm 카테고리를 다룹니다.

호환성

OpenAI SDK 호환

OpenAI SDK를 그대로 사용 가능. base_url을 바꾸고 model을 evolink-moderation-1.0으로 설정하면 끝 — 코드 재작성 불필요.

언어

다국어 감지

영어, 중국어, 스페인어, 일본어 등 40여 개 언어에 걸쳐 강력한 멀티모달 감지를 제공합니다.

EvoLink Moderation 1.0 자주 묻는 질문

Everything you need to know about the product and billing.

EvoLink Moderation 1.0은 보정된 위험 등급 임계값을 갖춘 멀티모달 콘텐츠 안전 분류기입니다. 모든 응답에는 표준 모더레이션 필드와 함께 보정된 risk_level (low/medium/high)과 위반을 일으킨 카테고리를 담은 evolink_summary 필드가 포함됩니다 — 13개의 원시 점수가 단일 결정으로 압축됩니다.
13개 카테고리: harassment, harassment/threatening, hate, hate/threatening, illicit, illicit/violent, self-harm, self-harm/intent, self-harm/instructions, sexual, sexual/minors, violence, violence/graphic. 이미지 입력은 sexual, violence, self-harm, violence/graphic을 포함합니다.
불가능합니다. 각 요청은 텍스트와 단일 image_url을 지원합니다. 여러 이미지를 모더레이션하려면 이미지마다 동시 요청을 보내고 — 한 장당 한 번 — 애플리케이션에서 결과를 집계하세요.
EvoLink는 운영용으로 튜닝된 카테고리별 임계값을 적용합니다. sexual/minors와 self-harm은 엄격한 컷오프 사용(high가 0.20 / 0.60), violence/graphic은 0.70, harassment/hate는 0.85. 어떤 카테고리든 high 임계값 이상이면 risk_level = high, flagged = true를 반환합니다.
모든 사용자 그룹에서 호출당 1 크레딧 (10,000 UC) 정액. 토큰이 아닌 호출당 과금이라 입력 크기와 무관하게 비용이 완전히 예측 가능합니다.
네. 엔드포인트는 /v1/moderations와 동일한 요청 스키마를 받습니다. base_url을 EvoLink 엔드포인트로, model을 evolink-moderation-1.0으로 설정하면 OpenAI SDK가 수정 없이 작동합니다 — evolink_summary 필드가 표준 응답과 함께 추가됩니다.