Free AI Hosting | Free.ai
Host AI models for free. GPU access, API hosting, and cloud deployment.
Aloxado na nube
Empregar a infraestrutura Free.ai. Cero configuración, cero mantemento. Todos os modelos están precargados e listos para usar mediante API ou interface web.
Dispoñible agoraDocker auto- hospedado
Execute os nosos modelos de IA de código aberto no seu propio hardware. Imaxes Docker con soporte para GPU, optimizadas para a inferencia.
AutoservizoPrivado xestionado
Servidores de GPU dedicados xestionados por nós, implantados na súa rexión de nube preferida. Illamento completo dos datos e SLA personalizado.
EnterpriseCity in California USADespliegue auto- hospedado
Todos os nosos modelos son de código aberto (Apache 2. 0 / MIT). Pode executalos na súa propia infraestrutura de GPU:
# Pull and run a model with Docker
docker pull ghcr.io/free-ai/inference:latest
docker run --gpus all -p 8000:8000 ghcr.io/free-ai/inference:latest \
--model qwen2.5-72b --quantization awq
Requisitos mínimos
- GPU NVIDIA con 24GB+ VRAM (RTX 4090, A5000, A100)
- CUDA 12.0+ e Docker con NVIDIA Container Toolkit
- 16GB+ RAM do sistema, 100GB+ almacenamento por modelo
- Para modelos con parámetros 72B: 80 GB de VRAM (A100) ou configuración multi-GPU
Por que o auto-host?
- Privacidade dos datos — Your data never leaves your servers
- Sen límites de velocidade — Unlimited inference on your hardware
- Cumprimento — Meet data residency requirements
- Personalización — Fine-tune models on your data
- Control de custos — Fixed hardware costs, no per-token fees
- Air- gap — Runs fully offline