Free AI Hosting | Free.ai
Host AI models for free. GPU access, API hosting, and cloud deployment.
Nube alojada
Utilice la infraestructura Free.ai. Configuración cero, mantenimiento cero. Todos los modelos están precargados y listos para usar a través de API o interfaz de usuario web.
Disponible ahoraDocker Self-Hosted
Ejecute nuestros modelos de código abierto de IA en su propio hardware. Imágenes Docker con soporte GPU, optimizadas para inferencia.
AutoservicioAdministrado privado
Servidores GPU dedicados gestionados por nosotros, desplegados en su región de nube preferida. Aislamiento completo de datos y SLA personalizado.
EmpresaDespliegue en régimen de autoabastecimiento
Todos nuestros modelos son de código abierto (Apache 2.0 / MIT). Puede ejecutarlos en su propia infraestructura GPU:
# Pull and run a model with Docker
docker pull ghcr.io/free-ai/inference:latest
docker run --gpus all -p 8000:8000 ghcr.io/free-ai/inference:latest \
--model qwen2.5-72b --quantization awq
Requisitos mínimos
- NVIDIA GPU con 24GB+ VRAM (RTX 4090, A5000, A100)
- CUDA 12.0+ y Docker con kit de herramientas para contenedores NVIDIA
- RAM del sistema 16GB+, almacenamiento de 100GB+ por modelo
- Para modelos de parámetros 72B: 80GB VRAM (A100) o configuración multi-GPU
¿Por qué el auto-acogedor?
- Privacidad de los datos — Your data never leaves your servers
- Sin límites de tipos — Unlimited inference on your hardware
- Cumplimiento — Meet data residency requirements
- Personalización — Fine-tune models on your data
- Control de costos — Fixed hardware costs, no per-token fees
- Aguas de la Unión y aguas internacionales de la Unión y aguas internacionales de la Unión de la zona del euro — Runs fully offline