Entwéckler-API

Build with Free.ai — one Bearer token, 400+ AI tools.

Chat, Bild, Video, Musek, Stëmm, OCR, iwwersetzen - alles op engem eenzegen OpenAI-kompatiblen Endpunkt. Grousse gratis Pool, transparent Markup, Partnerpräisser op Skaléierung.

10.000 gratis Token bei der Registréierung.

Eenzegen Endpunkt pro Modalitéit

Eng URL behandelt all Chat-Modell. Eng URL fir all Bildmodell. Wielt de Modell mat enger eenzeger Zeichenkett. Keng SDK-Verschleierung pro Provider.

Lëscht vu lëtzebuergesche Moler

Self-hosted Modeller bezuelen de Rohkosten. Premium Modeller fügen eng transparent Markéierung bäi, déi beim Skaléieren erofgeet. All Äntwert rapportéiert den exakte Token-Kost.

99 Säiten am Däitschen

Chat, translate, TTS, STT — all wichteg Modalitéiten decken 99 Sproochen ouni zousätzlech Konfiguratioun. Passéiert e Sproochcode an et funktionnéiert.

60-Sekonnen-Schnellstart

Déi selwecht API, fënnef Sproochen. Gitt Ären sk-free-... Schlëssel an a lafen.

curl https://api.free.ai/v1/chat/ \
  -H "Authorization: Bearer sk-free-YOUR-KEY" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "qwen2.5-7b",
    "messages": [{"role":"user","content":"Hello!"}]
  }'
import requests

r = requests.post(
    "https://api.free.ai/v1/chat/",
    headers={"Authorization": "Bearer sk-free-YOUR-KEY"},
    json={
        "model": "qwen2.5-7b",
        "messages": [{"role": "user", "content": "Hello!"}],
    },
)
print(r.json()["choices"][0]["message"]["content"])
const r = await fetch("https://api.free.ai/v1/chat/", {
  method: "POST",
  headers: {
    "Authorization": "Bearer sk-free-YOUR-KEY",
    "Content-Type": "application/json",
  },
  body: JSON.stringify({
    model: "qwen2.5-7b",
    messages: [{role: "user", content: "Hello!"}],
  }),
});
const data = await r.json();
console.log(data.choices[0].message.content);
package main

import (
  "bytes"; "fmt"; "io"; "net/http"
)

func main() {
  body := []byte(`{"model":"qwen2.5-7b","messages":[{"role":"user","content":"Hello!"}]}`)
  req, _ := http.NewRequest("POST", "https://api.free.ai/v1/chat/", bytes.NewBuffer(body))
  req.Header.Set("Authorization", "Bearer sk-free-YOUR-KEY")
  req.Header.Set("Content-Type", "application/json")
  resp, _ := http.DefaultClient.Do(req)
  defer resp.Body.Close()
  out, _ := io.ReadAll(resp.Body)
  fmt.Println(string(out))
}
require "net/http"
require "json"

uri = URI("https://api.free.ai/v1/chat/")
req = Net::HTTP::Post.new(uri, {
  "Authorization" => "Bearer sk-free-YOUR-KEY",
  "Content-Type"  => "application/json",
})
req.body = {
  model: "qwen2.5-7b",
  messages: [{role: "user", content: "Hello!"}],
}.to_json

res = Net::HTTP.start(uri.host, uri.port, use_ssl: true) { |h| h.request(req) }
puts JSON.parse(res.body)["choices"][0]["message"]["content"]

Präis - Discounts ginn automatesch agefouert

$1 = 750,000 tokens. Self-hosted models bill at raw cost. Premium model markup drops with 30-day spend.

Lëscht vu lëtzebuergesche Schrëftsteller
30,000 / day
Websäit vun der Gemeng
Pay-as-you-go
1.50×
30 Deeg
Bulk
1.30×
≥ $500 / 30 days
Partner
1.15×
≥ $2,000 / month

Lëscht vu lëtzebuergesche Präisser →

Wat Dir bauen kënnt

Embedden Är @handle als Chat-Agent

Trainéiert eng KI-Persoun op Ärem Wëssen, setzt en eenzeilege Skript-Tag op all Säit. Besucher chatten mat Ärer KI; Äre Kont hëlt d'Käschte op.

@yourhandle astellen

Webhooks

Konfiguréiert eng signéiert Callback fir laang lafend Aufgaben (Video generéieren, Batch-Transkriptioun, Share-Link-Erstellung, Low-Credit-Alarm). HMAC-SHA256 Signatur an X-Free-Signature.

Webhooks konfiguréieren →

FAQ

Registréiert Iech gratis op /signup/ — Dir kritt 10.000 Token no der Bestätegung. Öffnen /account/?tab=api a klickt op Generéieren. Schlëssel sinn Bearer Token vun der Form sk-free-... a fänken soufort un ze schaffen. Keng Uwendung, keng Warteliste.

1€ kaaft 750.000 Token. Selbst- gehostete Modeller bezuelen d'Rou Token-Zuel; extern Modeller fügen eng 50% Retail-Markup bei der Ofzéiung. Wann Dir 500€ an engem 30-Deeg-Fënster ausginn, da geet d'Markup op 30% erof; bei 2.000€ + gëtt Dir Partner a d'Markup fällt op 15%. Dagleche gratis Pool: 5.000 Token fir bestätegt Kont (Web, net API).

API-Ufroe ginn duerch Äre gekauften Saldo an eng monatlech Limit fir all Schlëssel (standardméisseg 1.000 Uruff; erhéicht et ënner /account/?tab=api). Et gëtt keng Drossel pro Sekonn - wann Äre Schlëssel Token huet an Dir ënner der monatlecher Limit sidd, da gëtt d'Ufro ausgefouert.

Ja. Passéiert stream:true op /v1/chat/ fir Server-gesend Evenementer ze kréien. D'Drahtformat reflektéiert d'OpenAI Streaming Konventioun sou datt existent Client SDKs ouni Modifikatiounen funktionnéieren.

Ja — den Chat-Enddrock akzeptéiert eng Tools-Array no dem OpenAI Tool-Call-Schema. Modeller déi nativ Tool-Benotzung ubidden (Qwen 2.5 Famill + déi meescht Premium Modeller) ginn tool_calls zréck; Modeller ouni nativ Unterstützung ginn op eng JSON-Modus-Prompt zréck.

Standard JSON: {error:{message, type, code}}. HTTP 402 means out of credits (response includes shortfall + an upgrade URL). HTTP 429 means daily pool exhausted on a non-API call. HTTP 400 covers validation errors with a human-readable message.

Mir publizéieren freeai-code op npm + PyPI fir de Coder IDE Wrapper. Fir d'raw API, funktionnéieren d'OpenAI SDKs — point base_url at https://api.freeai/v1 an iwwerginn Äre sk-free-... Schlëssel. Gläicht fir Vercel AI SDK, LangChain, llamaindex, etc.

Konfiguréiert Är Endpunkt-URL ënner /account/?tab=developer. Mir signéieren all Payload mat HMAC-SHA256 — d'Signatur ass an der X-Free-Signature-Kopplung. Webhook-Evenementer ginn ausgeléist fir: laang lafend Aufgab-Ofschloss, Share-Link-Generatioun, Low-Credit-Alarmer, an Team-Iwwerleedungs-Akzeptanz.

Mir multiplizéieren d'Upstream-Käschte mat Ärem Tier-Multiplikator (1,50 × Retail, 1,30 × Bulk, 1,15 × Partner). Selbstgehost Modeller hunn keng Markup - Dir bezuelt d'Roh-Token-Zuel. D'Abzugslinn op all Äntwert weist d'exakt Token-Käschte sou datt et keng Raten ass.

Free Models lafen op eiser self-hosted GPU-Flotte (Qwen 2.5, FLUX, Whisper, Kokoro, etc.) an si vun Ärem alldeegleche Pool gedeckt. Bezuelte Modeller ginn op führend extern Provider geroutet — déi brauchen erworfen Credits a kënnen net aus dem alldeegleche Pool bezuelt ginn. Beide deelen den selwechten /v1/chat/ Endpunkt; passt model:premium/ fir an e bezuelte Modell ze goen.

Ja — all self-hosted Modell op Free.ai ass Open-Source ënner permissive Lizenzen (Apache 2.0, MIT). D'Modell-IDen déi mir benotze passen zu den upstream HuggingFace IDen, an eise gpu_api Repository ass ëffentlech. Wann Dir eis Orchestratioun op Ärer Hardware wëllt, da schwätzt mat eis iwwer eng privat Wollekinstallatioun.

Demnächst verfügbar. BYOK erlaabt Iech Ären eegenen externen Provider API Schlëssel ze ginn, sou datt d'Uruffe géint Äre Kont op der Strooss bezuelt ginn - Dir kënnt eis Markéierung op dëse Modeller komplett iwwerhuelen. Bis dohinner schneiden d'Masse + Partner Tiers d'Markéierung fir grouss Volumen Clienten erof.

Free.ai? Erzielt et Äre Frënn!

Dës Säit bewäerten