API del desarrollador

Construya con Free.ai — un token de portador, más de 400 herramientas de IA.

Chat, imagen, video, música, voz, OCR, traducir — todo en un único punto final compatible con OpenAI. Generoso grupo libre, marcado transparente, precios de socios a escala.

10.000 fichas gratis al registrarse. Las tarjetas nunca se requieren para comenzar.

Finalidad única por modalidad

Una URL maneja cada modelo de chat. Una URL para cada modelo de imagen. Elija el modelo con una sola cadena. No hay baraja SDK por proveedor.

Facturación honesta y amigable con el marcado

Los modelos Premium agregan un marcado transparente que disminuye a medida que se escala. Cada respuesta reporta el costo exacto del token.

99 idiomas fuera de la caja

Chat, traducir, TTS, STT — cada modalidad principal cubre 99 idiomas sin configuración adicional. Pase un código de idioma y funciona.

Inicio rápido de 60 segundos

La misma API, cinco idiomas, deja tu llave libre y corre.

curl https://api.free.ai/v1/chat/ \
  -H "Authorization: Bearer sk-free-YOUR-KEY" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "qwen2.5-7b",
    "messages": [{"role":"user","content":"Hello!"}]
  }'
import requests

r = requests.post(
    "https://api.free.ai/v1/chat/",
    headers={"Authorization": "Bearer sk-free-YOUR-KEY"},
    json={
        "model": "qwen2.5-7b",
        "messages": [{"role": "user", "content": "Hello!"}],
    },
)
print(r.json()["choices"][0]["message"]["content"])
const r = await fetch("https://api.free.ai/v1/chat/", {
  method: "POST",
  headers: {
    "Authorization": "Bearer sk-free-YOUR-KEY",
    "Content-Type": "application/json",
  },
  body: JSON.stringify({
    model: "qwen2.5-7b",
    messages: [{role: "user", content: "Hello!"}],
  }),
});
const data = await r.json();
console.log(data.choices[0].message.content);
package main

import (
  "bytes"; "fmt"; "io"; "net/http"
)

func main() {
  body := []byte(`{"model":"qwen2.5-7b","messages":[{"role":"user","content":"Hello!"}]}`)
  req, _ := http.NewRequest("POST", "https://api.free.ai/v1/chat/", bytes.NewBuffer(body))
  req.Header.Set("Authorization", "Bearer sk-free-YOUR-KEY")
  req.Header.Set("Content-Type", "application/json")
  resp, _ := http.DefaultClient.Do(req)
  defer resp.Body.Close()
  out, _ := io.ReadAll(resp.Body)
  fmt.Println(string(out))
}
require "net/http"
require "json"

uri = URI("https://api.free.ai/v1/chat/")
req = Net::HTTP::Post.new(uri, {
  "Authorization" => "Bearer sk-free-YOUR-KEY",
  "Content-Type"  => "application/json",
})
req.body = {
  model: "qwen2.5-7b",
  messages: [{role: "user", content: "Hello!"}],
}.to_json

res = Net::HTTP.start(uri.host, uri.port, use_ssl: true) { |h| h.request(req) }
puts JSON.parse(res.body)["choices"][0]["message"]["content"]

Precios: los descuentos comienzan automáticamente

$1 = 750.000 tokens. Self-hosted modelos factura al costo bruto.

Piscina gratuita
30,000 / day
Solo web — cubre modelos auto-anfitriones
Pay-a-you-go
1.50×
< $500 / 30 días
A granel
1.30×
≥ $500 / 30 días
Partner
1.15×
≥ $2,000 / mes

Desglose completo de los precios →

Lo que se puede construir

Insertar su @handle como agente de chat

Entrena a un AI persona en sus conocimientos, deje caer una etiqueta de guión de una línea en cualquier página. Los visitantes chatear con su IA; su cuenta recoge el costo.

Configurar @yourhandle

Ganchos web

Configure un callback firmado para trabajos de larga duración (gen de vídeo, transcripción por lotes, creación de enlaces compartidos, alertas de bajo crédito). Firma HMAC-SHA256 en X-Free-Signature.

Configurar anzuelos web →

Preguntas más frecuentes

Regístrate gratis en /signup/ — obtienes 10.000 tokens al confirmar. Abre /account/?tab=api y haz clic en Generar. Las teclas son fichas portadoras del formulario sk-free-... y comienza a trabajar inmediatamente. Sin aplicación, sin lista de espera.

$1 compra 750.000 tokens. Los modelos auto-anfitriones facturan el conteo de tokens en bruto; los modelos externos agregan un margen de descuento del 50%. Una vez que gastas $500 en una ventana de 30 días, el margen cae al 30%; a $2.000+ te conviertes en socio y el margen cae al 15%.

Las solicitudes de API se rigen por su saldo comprado y una tapa mensual por clave (por defecto a 1.000 llamadas; elevarlo en /account/?tab=api). No hay un acelerador por segundo en la parte superior — si su clave tiene tokens y usted está bajo la tapa mensual, la solicitud se ejecuta.

Sí. Transmitir flujo:true on /v1/chat/ para recibir eventos de servidor-sent. El formato de cable refleja la convención de streaming OpenAI para que los SDKs cliente existentes funcionen sin modificación.

Sí — el endpoint de chat acepta una matriz de herramientas según el esquema de llamadas a herramientas de OpenAI. Los modelos que admiten el uso de herramientas nativas (Qwen 2.5 family + la mayoría de los modelos premium) devolverán tool_calls; los modelos sin soporte nativo vuelven a un indicador de modo JSON.

JSON estándar: {error:{mensaje, tipo, código. HTTP 402 significa fuera de créditos (respuesta incluye déficit + una URL de actualización). HTTP 429 significa grupo diario agotado en una llamada no-API. HTTP 400 cubre errores de validación con un mensaje legible por humanos.

Publicamos el código freeai en npm + PyPI para el envoltorio de Coder IDE. Para la API en bruto, los SDKs OpenAI funcionan — point base_url en https://api.free.ai/v1 y pasan su clave sk-free-.... Lo mismo para Vercel AI SDK, LangChain, llamaindex, etc.

Configure su URL de endpoint en /account/?tab=developer. Firmamos cada carga útil con HMAC-SHA256 — la firma está en el encabezado de X-Free-Signature. Los eventos de Webhook se disparan para: finalización de trabajo de larga duración, generación de enlaces compartidos, alertas de bajo crédito y aceptación de invitación del equipo.

Multiplicamos el costo ascendente en tokens por el multiplicador de tu nivel (1.50× retail, 1.30× voluminoso, 1.15× partner). Los modelos auto-anfitriones no tienen marcado — pagas el conteo de tokens en bruto. La línea de deducción en cada respuesta muestra el costo exacto del token así que no hay conjeturas.

Los modelos gratuitos se ejecutan en nuestra flota de GPU (Qwen 2.5, FLUX, Whisper, Kokoro, etc.) y están cubiertos por su piscina diaria. Los modelos pagados ruta a proveedores externos líderes — que requieren créditos comprados y no se pueden pagar desde la piscina diaria. Ambos comparten el mismo /v1/chat/ endpoint; modelo de pase:premium/ para optar por un modelo pagado.

Sí — cada modelo auto-anfitrión en Free.ai es de código abierto bajo licencias permisivas (Apache 2.0, MIT). Los IDs de modelo que utilizamos coinciden con los IDs de HuggingFace aguas arriba, y nuestro repo gpu_api es público. Si desea nuestra orquestación en su hardware, hable con nosotros sobre una instalación en la nube privada.

Próximamente. BYOK le permite suministrar su propia clave de API proveedor externo así que llama factura contra su cuenta corriente arriba — usted omite nuestro marcado por completo en esos modelos. Hasta entonces, los niveles a granel + socios afeitan el marcado hacia abajo para los clientes de alto volumen.

Love this tool? Share it!

Calificar esta página