개발자 API

Free.ai으로 구축 — 1개의 베어러 토큰, 400개 이상의 AI 도구.

채팅, 이미지, 비디오, 음악, 음성, OCR, 번역 — 이 모든 기능이 OpenAI 호환 단일 엔드포인트에서 제공됩니다.

가입시 10,000개의 무료 토큰. 카드는 시작할 때 필요하지 않습니다.

모달리티당 단일 엔드포인트

하나의 URL은 모든 채팅 모델을 처리합니다. 하나의 URL은 모든 이미지 모델을 처리합니다. 하나의 문자열로 모델을 선택합니다.

정직하고, 마크업 친화적인 청구

프리미엄 모델은 투명한 마크업을 추가하여 확장함에 따라 줄어듭니다. 모든 응답은 정확한 토큰 비용을 보고합니다.

99개 언어를 즉시 사용 가능

채팅, 번역, TTS, STT — 모든 주요 모드는 추가 설정 없이 99개 언어를 지원합니다. 언어 코드를 전달하면 작동합니다.

60초 빠른 시작

같은 API, 다섯 가지 언어로. sk-free-... 키를 넣고 실행합니다.

curl https://api.free.ai/v1/chat/ \
  -H "Authorization: Bearer sk-free-YOUR-KEY" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "qwen2.5-7b",
    "messages": [{"role":"user","content":"Hello!"}]
  }'
import requests

r = requests.post(
    "https://api.free.ai/v1/chat/",
    headers={"Authorization": "Bearer sk-free-YOUR-KEY"},
    json={
        "model": "qwen2.5-7b",
        "messages": [{"role": "user", "content": "Hello!"}],
    },
)
print(r.json()["choices"][0]["message"]["content"])
const r = await fetch("https://api.free.ai/v1/chat/", {
  method: "POST",
  headers: {
    "Authorization": "Bearer sk-free-YOUR-KEY",
    "Content-Type": "application/json",
  },
  body: JSON.stringify({
    model: "qwen2.5-7b",
    messages: [{role: "user", content: "Hello!"}],
  }),
});
const data = await r.json();
console.log(data.choices[0].message.content);
package main

import (
  "bytes"; "fmt"; "io"; "net/http"
)

func main() {
  body := []byte(`{"model":"qwen2.5-7b","messages":[{"role":"user","content":"Hello!"}]}`)
  req, _ := http.NewRequest("POST", "https://api.free.ai/v1/chat/", bytes.NewBuffer(body))
  req.Header.Set("Authorization", "Bearer sk-free-YOUR-KEY")
  req.Header.Set("Content-Type", "application/json")
  resp, _ := http.DefaultClient.Do(req)
  defer resp.Body.Close()
  out, _ := io.ReadAll(resp.Body)
  fmt.Println(string(out))
}
require "net/http"
require "json"

uri = URI("https://api.free.ai/v1/chat/")
req = Net::HTTP::Post.new(uri, {
  "Authorization" => "Bearer sk-free-YOUR-KEY",
  "Content-Type"  => "application/json",
})
req.body = {
  model: "qwen2.5-7b",
  messages: [{role: "user", content: "Hello!"}],
}.to_json

res = Net::HTTP.start(uri.host, uri.port, use_ssl: true) { |h| h.request(req) }
puts JSON.parse(res.body)["choices"][0]["message"]["content"]

가격 정책 — 할인은 자동으로 적용됩니다

$1 = 750,000 토큰. 셀프 호스팅 모델은 원가로 청구됩니다. 프리미엄 모델의 마킹은 30일 지출 시 떨어집니다.

무료 수영장
30,000 / day
웹 전용 — 셀프 호스팅 모델 포함
사용량에 따라 결제
1.50×
< $500 / 30일
대량
1.30×
≥ $500 / 30 일
파트너
1.15×
2,000달러 / 월

전체 가격 분석 →

빌드할 수 있는 것

@handle 을(를) 채팅 에이전트로 포함

귀하의 지식을 기반으로 AI 퍼스널을 훈련시키고, 페이지에 한 줄의 스크립트 태그를 넣으십시오. 방문자가 귀하의 AI와 채팅하면 귀하의 계정이 비용을 부담합니다.

@yourhandle 설정하기

웹훅

오랜 시간 실행되는 작업(비디오 생성, 일괄 번역, 공유 링크 생성, 저 크레딧 경고)을 위한 서명된 콜백을 구성합니다. X-Free-Signature의 HMAC-SHA256 서명.

웹훅 설정하기 →

자주 묻는 질문

/signup/에서 무료로 등록하세요 — 확인시 10,000 토큰을 받습니다. /account/?tab=api를 열고 생성을 클릭하세요. 키는 sk-free-... 형식의 베어러 토큰이며 즉시 작업을 시작합니다.

$1는 750,000 토큰을 구입합니다. 자체 호스팅 모델은 원시 토큰 카운트를 청구합니다. 외부 모델은 공제시 50% 소매 마크업을 추가합니다. 30 일 창구에서 $500을 지출하면 마크업이 30%로 감소합니다. $2,000 이상이면 파트너가되고 마크업이 15%로 감소합니다. 일일 무료 풀: 확인 된 계정을위한 5,000 토큰 (웹, API가 아닙니다).

API 요청은 구매한 잔액과 키당 월간 한도(기본값은 1,000 호출, /account/?tab=api에서 증가시킬 수 있습니다)에 따라 운영됩니다. 초당 속도 제한은 없습니다. 키에 토큰이 있고 월간 한도 이하라면 요청이 실행됩니다.

서버에서 보낸 이벤트를 받으려면 /v1/chat/에 stream:true 를 전달합니다. 와이어 형식은 OpenAI 스트리밍 규약을 반영하므로 기존 클라이언트 SDK는 수정 없이 작동합니다.

예 — 채팅 엔드포인트는 OpenAI 툴 호출 스키마에 따라 tools 배열을 수락합니다. 네이티브 툴 사용을 지원하는 모델(Qwen 2.5 패밀리 + 대부분의 프리미엄 모델)은 tool_calls 를 반환합니다. 네이티브 지원이 없는 모델은 JSON 모드 프롬프트로 돌아갑니다.

Standard JSON: {error:{message, type, code}}. HTTP 402 means out of credits (response includes shortfall + an upgrade URL). HTTP 429 means daily pool exhausted on a non-API call. HTTP 400 covers validation errors with a human-readable message.

Coder IDE 래퍼를 위해 npm + PyPI에서 freeai-code를 게시합니다. 원시 API의 경우 OpenAI SDK가 작동합니다. https://api.freeai/v1에 base_url을 지정하고 sk-free-... 키를 전달합니다. Vercel AI SDK, LangChain, llamaindex 등에도 동일합니다.

모든 페이로드에 HMAC-SHA256로 서명합니다. 서명은 X-Free-Signature 헤더에 있습니다. 웹훅 이벤트는 다음을 위해 발생합니다. 오랜 시간 동안 실행되는 작업 완료, 공유 링크 생성, 크레딧이 낮은 알림, 팀 초대 수락.

업스트림 토큰 비용을 계층의 승수(1.50× 소매, 1.30× 대량, 1.15× 파트너)로 곱합니다. 셀프 호스팅 모델에는 마킹이 없으므로 원시 토큰 수를 지불합니다. 각 응답의 공제 줄에 정확한 토큰 비용이 표시되므로 추측이 필요 없습니다.

무료 모델은 셀프 호스팅 GPU 플랫폼(Qwen 2.5, FLUX, Whisper, Kokoro 등)에서 실행되며 일일 풀에 포함됩니다. 유료 모델은 주요 외부 제공업체로 연결됩니다. 이러한 모델은 구매한 크레딧이 필요하며 일일 풀에서 지불할 수 없습니다. 두 모델은 동일한 /v1/chat/ 엔드포인트를 공유합니다. 유료 모델에 가입하려면 model:premium/를 전달하십시오.

예 — Free.ai의 모든 셀프 호스팅 모델은 허용 라이선스(Apache 2.0, MIT) 하에 오픈 소스입니다. 우리가 사용하는 모델 ID는 업스트림 HuggingFace ID와 일치하며, 우리의 gpu_api 레포는 공개됩니다. 당신의 하드웨어에 우리의 오케스트레이션을 원한다면, 프라이빗 클라우드 설치에 대해 우리에게 문의하십시오.

BYOK를 사용하면 외부 공급업체 API 키를 제공할 수 있으므로 콜은 업스트림에서 계정에 청구되며 해당 모델의 마크업은 완전히 건너뜁니다. 그 때까지 대량 + 파트너 계층은 대량 고객을 위해 마크업을 줄입니다.

Love this tool? Share it!

이 페이지 평가하기