Entwickler-API

Bauen Sie mit Free.ai — einem Träger-Token, 400 + KI-Tools.

Chatten, Bild, Video, Musik, Stimme, OCR, übersetzen – alles auf einem einzigen OpenAI-kompatiblen Endpunkt. Großzügiger kostenloser Pool, transparentes Markup, Partnerpreise im Maßstab.

10.000 kostenlose Tokens auf Anmeldung. Karten müssen nie gestartet werden.

Einheitlicher Endpunkt pro Modalität

Eine URL behandelt jedes Chat-Modell. Eine URL für jedes Image-Modell. Wählen Sie das Modell mit einer einzigen Zeichenfolge. Kein pro-Provider SDK shuffle.

Ehrliche, markupfreundliche Abrechnung

Selbst gehostete Modelle Rechnung zu rohen Kosten. Premium-Modelle fügen eine transparente Markup, die sinkt, wie Sie skalieren.

99 Sprachen aus dem Kasten

Chatten, übersetzen, TTS, STT — jede große Modalität deckt 99 Sprachen ohne zusätzliche Konfiguration ab. Übergeben Sie einen Sprachcode und es funktioniert.

60-Sekunden-Schnellstart

Gleiche API, fünf Sprachen. Lassen Sie Ihren sk-free-... Schlüssel rein und laufen.

curl https://api.free.ai/v1/chat/ \
  -H "Authorization: Bearer sk-free-YOUR-KEY" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "qwen2.5-7b",
    "messages": [{"role":"user","content":"Hello!"}]
  }'
import requests

r = requests.post(
    "https://api.free.ai/v1/chat/",
    headers={"Authorization": "Bearer sk-free-YOUR-KEY"},
    json={
        "model": "qwen2.5-7b",
        "messages": [{"role": "user", "content": "Hello!"}],
    },
)
print(r.json()["choices"][0]["message"]["content"])
const r = await fetch("https://api.free.ai/v1/chat/", {
  method: "POST",
  headers: {
    "Authorization": "Bearer sk-free-YOUR-KEY",
    "Content-Type": "application/json",
  },
  body: JSON.stringify({
    model: "qwen2.5-7b",
    messages: [{role: "user", content: "Hello!"}],
  }),
});
const data = await r.json();
console.log(data.choices[0].message.content);
package main

import (
  "bytes"; "fmt"; "io"; "net/http"
)

func main() {
  body := []byte(`{"model":"qwen2.5-7b","messages":[{"role":"user","content":"Hello!"}]}`)
  req, _ := http.NewRequest("POST", "https://api.free.ai/v1/chat/", bytes.NewBuffer(body))
  req.Header.Set("Authorization", "Bearer sk-free-YOUR-KEY")
  req.Header.Set("Content-Type", "application/json")
  resp, _ := http.DefaultClient.Do(req)
  defer resp.Body.Close()
  out, _ := io.ReadAll(resp.Body)
  fmt.Println(string(out))
}
require "net/http"
require "json"

uri = URI("https://api.free.ai/v1/chat/")
req = Net::HTTP::Post.new(uri, {
  "Authorization" => "Bearer sk-free-YOUR-KEY",
  "Content-Type"  => "application/json",
})
req.body = {
  model: "qwen2.5-7b",
  messages: [{role: "user", content: "Hello!"}],
}.to_json

res = Net::HTTP.start(uri.host, uri.port, use_ssl: true) { |h| h.request(req) }
puts JSON.parse(res.body)["choices"][0]["message"]["content"]

Preise — Rabatte treten automatisch ein

$1 = 750.000 Token. Selbst-hosted Modelle Rechnung zu rohen Kosten. Premium-Modell Markup fällt mit 30-Tage-Ausgabe.

Freier Pool
30,000 / day
Nur im Web — umfasst selbst gehostete Modelle
Bezahlen Sie, wenn Sie gehen.
1.50×
< $500 / 30 Tage
Glühbirne
1.30×
≥ $500 / 30 Tage
Partner
1.15×
≥ $2.000 / Monat

Vollständige Preisaufschlüsselung →

Was Sie bauen können

Einbetten Ihrer @handle als Chat-Agent

Trainieren Sie eine KI-Person auf Ihrem Wissen, legen Sie ein one-line-Skript-Tag auf jeder Seite. Besucher chatten Ihre KI; Ihr Konto übernimmt die Kosten.

Einrichtung @yourhandle

Webhooks

Konfigurieren Sie einen signierten Callback für Langzeitaufträge (Videogen, Batch-Transkription, Share-Link-Erstellung, Low-credit-Alarms). HMAC-SHA256 Signatur in X-Free-Signatur.

Webhooks einrichten →

FAQ

Registrieren Sie sich kostenlos unter /signup/ — Sie erhalten 10.000 Token bei der Bestätigung. Öffnen Sie /account/?tab=api und klicken Sie auf Generieren. Keys sind Träger-Token des Formulars sk-free-... und beginnen Sie sofort zu arbeiten. Keine Anwendung, keine Warteliste.

$1 kauft 750.000 Token. Selbst-hosted Modelle berechnen die rohe Token-Anzahl; externe Modelle fügen eine 50% Einzelhandel Markup bei Abzug. Sobald Sie $500 in einem 30-Tage-Fenster verbringen, fällt die Markup auf 30%; bei $2.000+ werden Sie ein Partner und die Markup fällt auf 15%. Täglicher kostenloser Pool: 5.000 Token für bestätigte Konten (Web, nicht API).

API-Anfragen werden durch Ihr gekauftes Guthaben und eine pro-Schlüssel-Monats-Cap (Standards auf 1.000 Anrufe; erhöhen Sie es unter /account/?tab=api) geregelt. Es gibt keine pro-Sekunde Drosseln an der Oberseite — wenn Ihr Schlüssel Token hat und Sie unter der monatlichen Obergrenze sind, läuft die Anfrage.

Ja. Pass stream:true on /v1/chat/ to receive Server-Sent Events. Das Drahtformat spiegelt die OpenAI Streaming-Konvention wider, so dass bestehende Client-SDKs ohne Änderungen funktionieren.

Ja — der Chat-Endpunkt akzeptiert ein Tool-Array nach dem OpenAI-Tool-Calling-Schema. Modelle, die native Werkzeugnutzung unterstützen (Qwen 2.5 Familie + die meisten Premium-Modelle), geben tool_calls zurück; Modelle ohne native Unterstützung fallen auf eine JSON-Mode-Prompt zurück.

Standard JSON: {error:{message, type, code}}. HTTP 402 means out of credits (response includes shortfall + an upgrade URL). HTTP 429 means daily pool exhausted on a non-API call. HTTP 400 covers validation errors with a human-readable message.

Wir veröffentlichen Freeai-Code auf npm + PyPI für den Coder IDE Wrapper. Für die rohe API arbeiten die OpenAI SDKs — point base_url unter https://api.free.ai/v1 und übergeben Ihre sk-free-... Taste. Gleiches für Vercel AI SDK, LangChain, llamaindex, etc.

Konfigurieren Sie Ihre Endpunkt-URL unter /account/?tab=developer. Wir signieren jede Nutzlast mit HMAC-SHA256 — die Signatur befindet sich im X-Free-Signature-Header. Webhook-Ereignisse feuern für: langfristige Auftragserfüllung, Share-Link-Generierung, Low-credit-Alarms und Team laden zur Annahme ein.

Wir multiplizieren die vorgelagerten Kosten in Tokens mit dem Multiplikator Ihres Levels (1.50× Retail, 1.30× Bulk, 1.15× Partner). Selbstgehostete Modelle haben keine Markups – Sie zahlen die Roh-Token-Anzahl. Die Abzugslinie auf jeder Antwort zeigt die genauen Token-Kosten an, so dass es keine Vermutungen gibt.

Kostenlose Modelle laufen auf unserer selbst gehosteten GPU-Flotte (Qwen 2.5, FLUX, Whisper, Kokoro, etc.) und werden von Ihrem täglichen Pool abgedeckt. Bezahlte Modelle Route zu führenden externen Anbietern – diejenigen benötigen erworbene Kredite und können nicht aus dem täglichen Pool bezahlt werden. Beide teilen sich den gleichen /v1/chat/endpoint; Pass-Modell:premium/, um sich für ein bezahltes Modell zu entscheiden.

Ja – jedes selbst gehostete Modell auf Free.ai ist Open Source unter frei zugänglichen Lizenzen (Apache 2.0, MIT). Die von uns verwendeten Modell-IDs entsprechen den vorgelagerten HuggingFace-IDs, und unsere gpu_api repo ist öffentlich. Wenn Sie unsere Orchestrierung auf Ihrer Hardware wünschen, sprechen Sie mit uns über eine private Cloud-Installation.

Mit BYOK können Sie Ihren eigenen externen Provider API-Schlüssel liefern, so ruft Rechnung gegen Ihr Konto vorwärts - Sie überspringen unsere Markup vollständig auf diese Modelle. Bis dahin, die Bulk + Partner Ebenen rasieren die Markup für High-Volume-Kunden.

Love this tool? Share it!

Bewerten Sie diese Seite