API sviluppatore

Costruisci con Free.ai token Bearer, 400+ strumenti AI.

Chat, immagine, video, musica, voce, OCR, tradurre tutto su un unico OpenAI-compatibile endpoint. Generoso piscina libera, markup trasparente, prezzi dei partner in scala.

10.000 gettoni gratuiti all'iscrizione. Le carte non sono mai necessarie per iniziare.

Endpoint singolo per modalità

Un URL gestisce ogni modello di chat. Un URL per ogni modello di immagine. Scegli il modello con una sola stringa. Nessun mischia SDK per fornitore.

Fatturazione oneste e amichevoli

Modelli auto-ospitati fattura a costo grezzo. Modelli premium aggiungere un markup trasparente che scende come si scala. Ogni risposta riporta il costo esatto token.

99 lingue fuori dagli schemi

Chiacchierare, tradurre, TTS, STT Ogni modalità principale copre 99 lingue senza ulteriori config. Passare un codice di lingua e funziona.

Avvio rapido di 60 secondi

Stessa API, cinque lingue.

curl https://api.free.ai/v1/chat/ \
  -H "Authorization: Bearer sk-free-YOUR-KEY" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "qwen2.5-7b",
    "messages": [{"role":"user","content":"Hello!"}]
  }'
import requests

r = requests.post(
    "https://api.free.ai/v1/chat/",
    headers={"Authorization": "Bearer sk-free-YOUR-KEY"},
    json={
        "model": "qwen2.5-7b",
        "messages": [{"role": "user", "content": "Hello!"}],
    },
)
print(r.json()["choices"][0]["message"]["content"])
const r = await fetch("https://api.free.ai/v1/chat/", {
  method: "POST",
  headers: {
    "Authorization": "Bearer sk-free-YOUR-KEY",
    "Content-Type": "application/json",
  },
  body: JSON.stringify({
    model: "qwen2.5-7b",
    messages: [{role: "user", content: "Hello!"}],
  }),
});
const data = await r.json();
console.log(data.choices[0].message.content);
package main

import (
  "bytes"; "fmt"; "io"; "net/http"
)

func main() {
  body := []byte(`{"model":"qwen2.5-7b","messages":[{"role":"user","content":"Hello!"}]}`)
  req, _ := http.NewRequest("POST", "https://api.free.ai/v1/chat/", bytes.NewBuffer(body))
  req.Header.Set("Authorization", "Bearer sk-free-YOUR-KEY")
  req.Header.Set("Content-Type", "application/json")
  resp, _ := http.DefaultClient.Do(req)
  defer resp.Body.Close()
  out, _ := io.ReadAll(resp.Body)
  fmt.Println(string(out))
}
require "net/http"
require "json"

uri = URI("https://api.free.ai/v1/chat/")
req = Net::HTTP::Post.new(uri, {
  "Authorization" => "Bearer sk-free-YOUR-KEY",
  "Content-Type"  => "application/json",
})
req.body = {
  model: "qwen2.5-7b",
  messages: [{role: "user", content: "Hello!"}],
}.to_json

res = Net::HTTP.start(uri.host, uri.port, use_ssl: true) { |h| h.request(req) }
puts JSON.parse(res.body)["choices"][0]["message"]["content"]

I prezzi degli sconti di.c.v. entrano automaticamente in vigore

$1 = 750.000 gettoni. Modelli auto-ospitati fattura a costo grezzo. Premium modello di markup scende con 30 giorni di spesa.

Piscina gratuita
30,000 / day
I modelli auto-ospitati sono coperti solo dal web.
Pay-as-you-go
1.50×
< $500 / 30 giorni
Bulk
1.30×
≥ $500 / 30 giorni
Partner
1.15×
≥ $2,000 / mese

Completa disaggregazione dei prezzi →

Cosa puoi costruire?

Inserisci il tuo @handle come agente di chat

Allena un personaggio AI sulle tue conoscenze, rilascia un tag script una riga su qualsiasi pagina. I visitatori chattano il tuo AI; il tuo account raccoglie il costo.

Impostare @yourhandle

WebhooksCity name (optional, probably does not need a translation)

Configurare un callback firmato per i lavori a lungo termine (video gen, trascrizione in batch, creazione di link di condivisione, avvisi a basso credito). Firma HMAC-SHA256 in firma X-Free.

Configurazione degli agganci web →

FAQ

Iscriviti gratis a /signup/ < 10.000 gettoni su conferma. Aprire /account/?tab=api e fare clic su Genera. I tasti sono gettoni Bearer del modulo sk-free-... e iniziare a lavorare immediatamente. Nessuna applicazione, nessuna lista di attesa.

$1 compra 750.000 gettoni. I modelli auto-ospitati fatturano il numero di gettoni grezzi; i modelli esterni aggiungono un markup al dettaglio del 50% alla deduzione. Una volta che si spende $500 in una finestra di 30 giorni il markup scende al 30%; a $2,000+ si diventa un partner e il markup scende al 15%. Piscina gratuita quotidiana: 5,000 gettoni per gli account confermati (web, non API).

Le richieste API sono governate dal saldo acquistato e da un tappo mensile per-key (default a 1.000 chiamate; sollevarlo sotto /account/?tab=api). Non c'è alcuna valvola al secondo in cima alla lista se la tua chiave ha gettoni e sei sotto il tappo mensile, la richiesta viene eseguita.

Sì. Passare stream:true su /v1/chat/ per ricevere gli eventi inviati dal server. Il formato del cavo rispecchia la convenzione di streaming OpenAI in modo che gli SDK client esistenti funzionino senza modifiche.

Sì L'endpoint della chat accetta un array di strumenti per lo schema di chiamata degli strumenti OpenAI. I modelli che supportano l'uso degli strumenti nativi (Qwen 2.5 famiglia + la maggior parte dei modelli premium) restituiranno tool_calls; i modelli senza supporto nativo ricadono su un prompt JSON-mode.

Standard JSON: {error:{message, type, code}}. HTTP 402 means out of credits (response includes shortfall + an upgrade URL). HTTP 429 means daily pool exhausted on a non-API call. HTTP 400 covers validation errors with a human-readable message.

Pubblichiamo freeai-code su npm + PyPI per il Coder IDE wrapper. Per l'API cruda, gli SDK OpenAI lavorano sul punto base_url all'indirizzo https://api.free.ai/v1 e passano la chiave sk-free-... Stessa cosa per Vercel AI SDK, LangChain, lamaindex, ecc.

Configurare l'URL dell'endpoint in /account/?tab=sviluppatore. Firmiamo ogni carico utile con HMAC-SHA256 [56] la firma è nell'intestazione X-Free-Firma. Gli eventi Webhook sparano per: completamento del lavoro a lungo termine, generazione di share-link, avvisi a basso credito e team invitano all'accettazione.

Moltiplichiamo il costo upstream in gettoni per il moltiplicatore di livello (1.50× retail, 1.30× bulk, 1.15× partner). I modelli auto-ospitati non hanno markup si paga il conto token grezzo. La linea di deduzione su ogni risposta mostra il costo esatto token in modo da non ci sono congetture.

I modelli gratuiti funzionano sulla nostra flotta di GPU auto-ospitata (Qwen 2.5, FLUX, Whisper, Kokoro, ecc.) e sono coperti dalla vostra piscina quotidiana. I modelli a pagamento percorso per i principali fornitori esterni di servizi di pagamento quelli richiedono crediti acquistati e non possono essere pagati dalla piscina quotidiana. Entrambi condividono lo stesso /v1/chat/ endpoint; passa modello:premium/ per optare in un modello a pagamento.

Sì Ogni modello auto-ospitato su Free.ai è open-source sotto licenze permissive (Apache 2.0, MIT). Gli ID del modello che usiamo corrispondono agli ID HuggingFace upstream, e il nostro repo gpu_api è pubblico. Se vuoi la nostra orchestrazione sul tuo hardware, parlaci di un'installazione cloud privata.

A breve. BYOK ti permette di fornire la tua chiave API di fornitore esterno, quindi chiama la bolletta sul tuo account upstream. Fino ad allora, i livelli bulk + partner rasano il markup verso il basso per i clienti ad alto volume.

Love this tool? Share it!

Valuta questa pagina