Developer API

Ang Free.ai ay isang taon sa kalendaryo.

> Chat, imahe, video, musika, boses, OCR, isalin - ang lahat sa isang solong OpenAI-compatible endpoint. Mabubuting libreng pool, transparent markup, kasosyo pagpepresyo sa scale.

> 10,000 libreng token sa pag-signup. Cards hindi kinakailangan upang simulan.

> Iisang endpoint bawat modality

> Isang URL na humahawak sa bawat chat modelo. Isang URL para sa bawat modelo ng imahe. Piliin ang modelo na may isang solong string. Walang per-provider SDK shuffle.

> Matapat, markup-friendly billing

> Self-hosted modelo bill sa raw gastos. Premium modelo magdagdag ng isang transparent markup na bumababa bilang mo scale. Ang bawat tugon ulat ang eksaktong token gastos.

> 99 wika sa labas ng kahon

> Chat, isalin, TTS, STT — bawat pangunahing modality ay sumasaklaw sa 99 wika na walang karagdagang config.

> 60-segundo mabilis na pagsisimula

> Parehong API, limang wika. Drop ang iyong sk-free-... key sa at patakbuhin.

curl https://api.free.ai/v1/chat/ \
  -H "Authorization: Bearer sk-free-YOUR-KEY" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "qwen2.5-7b",
    "messages": [{"role":"user","content":"Hello!"}]
  }'
import requests

r = requests.post(
    "https://api.free.ai/v1/chat/",
    headers={"Authorization": "Bearer sk-free-YOUR-KEY"},
    json={
        "model": "qwen2.5-7b",
        "messages": [{"role": "user", "content": "Hello!"}],
    },
)
print(r.json()["choices"][0]["message"]["content"])
const r = await fetch("https://api.free.ai/v1/chat/", {
  method: "POST",
  headers: {
    "Authorization": "Bearer sk-free-YOUR-KEY",
    "Content-Type": "application/json",
  },
  body: JSON.stringify({
    model: "qwen2.5-7b",
    messages: [{role: "user", content: "Hello!"}],
  }),
});
const data = await r.json();
console.log(data.choices[0].message.content);
package main

import (
  "bytes"; "fmt"; "io"; "net/http"
)

func main() {
  body := []byte(`{"model":"qwen2.5-7b","messages":[{"role":"user","content":"Hello!"}]}`)
  req, _ := http.NewRequest("POST", "https://api.free.ai/v1/chat/", bytes.NewBuffer(body))
  req.Header.Set("Authorization", "Bearer sk-free-YOUR-KEY")
  req.Header.Set("Content-Type", "application/json")
  resp, _ := http.DefaultClient.Do(req)
  defer resp.Body.Close()
  out, _ := io.ReadAll(resp.Body)
  fmt.Println(string(out))
}
require "net/http"
require "json"

uri = URI("https://api.free.ai/v1/chat/")
req = Net::HTTP::Post.new(uri, {
  "Authorization" => "Bearer sk-free-YOUR-KEY",
  "Content-Type"  => "application/json",
})
req.body = {
  model: "qwen2.5-7b",
  messages: [{role: "user", content: "Hello!"}],
}.to_json

res = Net::HTTP.start(uri.host, uri.port, use_ssl: true) { |h| h.request(req) }
puts JSON.parse(res.body)["choices"][0]["message"]["content"]

> Pricing - diskwento kick sa awtomatikong

> $ 1 = 750,000 token. Self-hosted modelo bill sa raw gastos. Premium modelo markup drop sa 30-araw na gastusin.

Libreng swimming pool
30,000 / day
> Web lamang — takip self-hosted modelo
Pagbabayad-sa-pagpunta
1.50×
tl> < $500 / 30 araw
Bulk
1.30×
$500 / 30 araw
Partner
1.15×
$2,000 / buwan

> Buong pricing breakdown →

> Ano ang maaari mong bumuo

> I-embed ang iyong @handle bilang isang chat agent

> Magsanay ng isang AI persona sa iyong kaalaman, drop ng isang isang linya ng script tag sa anumang pahina. Bisita makipag-chat sa iyong AI; ang iyong account picks up ang gastos.

@yourhandle

Mga Webhook

> I-configure ang isang naka-sign callback para sa mahabang-running trabaho (video gen, batch transcription, ibahagi-link paglikha, mababang-credit alerts). HMAC-SHA256 lagda sa X-Free-Signature.

tl> Mag-set up ng webhooks →

FAQ

> Mag-sign up para sa libreng sa /signup/ — makakakuha ka ng 10,000 token sa kumpirmahin. Buksan ang /account/?tab=api at i-click ang Bumuo. Keys ay bearer token ng form sk-free-... at simulan ang trabaho kaagad. Walang application, walang listahan ng paghihintay.

> $ 1 bumili ng 750,000 token. Self-hosted modelo bill ang raw token count; panlabas na mga modelo magdagdag ng isang 50% retail markup sa pagbabawas. Kapag na gastusin mo ang $ 500 sa isang 30-araw na window ang markup bumaba sa 30%; sa $ 2,000 + ikaw ay maging isang kasosyo at ang markup ay bumaba sa 15%. Araw-araw na libreng pool: 5,000 token para sa mga nakumpirma na mga account (web, hindi API).

Ang mga kahilingan sa API ay pinamamahalaan ng iyong binili na balanse at isang buwanang cap sa bawat key (default sa 1,000 mga tawag; itaas ito sa /account/?tab=api). Walang per-second throttle sa tuktok — kung ang iyong key ay may mga token at ikaw ay nasa ilalim ng buwanang cap, ang kahilingan ay tumatakbo.

> Oo. ipasa stream: totoo sa / v1 / chat / upang makatanggap ng Server-Ipadala Kaganapan. Ang wire format mirrors ang OpenAI streaming kasunduan kaya umiiral na client SDKs trabaho nang walang pagbabago.

> Oo — ang chat endpoint ay tumatanggap ng isang tool array bawat OpenAI tool-pagtawag schema. Modelo na sumusuporta sa katutubong tool paggamit (Qwen 2.5 pamilya + karamihan sa mga premium na modelo) ay ibabalik tool_calls; modelo na walang katutubong suporta mahulog pabalik sa isang JSON-mode prompt.

Ang HTTP 402 ay nangangahulugang out of credits (ang tugon ay kinabibilangan ng shortfall + isang pag-upgrade URL). Ang HTTP 429 ay nangangahulugang araw-araw na pool na naubos sa isang hindi-API na tawag.

> I-publish namin ang freeai-code sa npm + PyPI para sa Coder IDE wrapper. Para sa raw API, ang OpenAI SDKs trabaho — point base_url sa https://api.free.ai/v1 at ipasa ang iyong sk-free-... key. Pareho para sa Vercel AI SDK, LangChain, llamaindex, atbp.

> I-configure ang iyong endpoint URL sa ilalim ng /account/?tab=developer. Mag-sign kami ng bawat payload na may HMAC-SHA256 — ang lagda ay nasa X-Free-Signature header. Webhook kaganapan sunog para sa: mahabang pag-running trabaho pagkumpleto, ibahagi-link henerasyon, mababang-credit alerts, at team mag-imbita ng pagtanggap.

> Pinarami namin ang upstream gastos sa token sa pamamagitan ng multiplier ng iyong tier (1.50 × retail, 1.30 × bulk, 1.15 × partner). Self-hosted modelo ay walang markup - magbayad ka ng raw token count. Ang pagbabawas linya sa bawat tugon ay nagpapakita ng eksaktong token gastos kaya walang guesswork.

Ang mga libreng modelo ay tumatakbo sa aming sariling-nagho-host na GPU fleet (Qwen 2.5, FLUX, Whisper, Kokoro, atbp.) at sakop ng iyong pang-araw-araw na pool. Ang mga bayad na modelo ay patungo sa mga nangungunang panlabas na tagapagbigay — ang mga ito ay nangangailangan ng mga binili na credit at hindi maaaring magbayad mula sa pang-araw-araw na pool. Parehong nagbabahagi ng parehong /v1/chat/ endpoint; ipasa ang model:premium/ upang pumili sa isang bayad na modelo.

> Oo — bawat self-hosted modelo sa Free.ai ay open-source sa ilalim ng permissive lisensya (Apache 2.0, MIT). Ang modelo ng ID na ginagamit namin ay tumutugma sa upstream HuggingFace ID, at ang aming gpu_api repo ay pampubliko. Kung nais mo ang aming orkestrasyon sa iyong hardware, makipag-usap sa amin tungkol sa isang pribadong cloud i-install.

Ang BYOK ay nagbibigay-daan sa iyo na magbigay ng iyong sariling panlabas na tagapagbigay ng API key upang ang mga tawag ay babayaran laban sa iyong account upstream — hindi mo susundin ang aming markup sa mga modelong iyon. Hanggang sa iyon, ang mga antas ng bulk + partner ay babaan ang markup para sa mga customer na may mataas na dami.

Ibig Free.ai? Sabihin sa iyong mga kaibigan!

I-rate ang pahinang ito