Free AI Hosting | Free.ai
Host AI models for free. GPU access, API hosting, and cloud deployment.
Cloud ospitato
Usa l'infrastruttura Free.ai. Setup zero, manutenzione zero. Tutti i modelli sono precaricati e pronti all'uso tramite API o interfaccia utente web.
Disponibile oraDocker Self-Hosted
Eseguire i nostri modelli AI open-source sul proprio hardware. Docker immagini con supporto GPU, ottimizzato per l'inferenza.
Self-serviceGestito Privato
Server GPU dedicati gestiti da noi, implementati nella tua regione cloud preferita. Isolamento dati completo e SLA personalizzato.
ImpresaDistribuzione auto-ospedalizzata
Tutti i nostri modelli sono open-source (Apache 2.0 / MIT). È possibile eseguire sulla propria infrastruttura GPU:
# Pull and run a model with Docker
docker pull ghcr.io/free-ai/inference:latest
docker run --gpus all -p 8000:8000 ghcr.io/free-ai/inference:latest \
--model qwen2.5-72b --quantization awq
Requisiti minimi
- NVIDIA GPU con VRAM 24GB+ (RTX 4090, A5000, A100)
- CUDA 12.0+ e Docker con NVIDIA Container Toolkit
- Sistema 16GB+ RAM, storage 100GB+ per modello
- Per i modelli di parametri 72B: configurazione VRAM 80GB (A100) o multi-GPU
Perché Self-Host?
- Privacy dei dati — Your data never leaves your servers
- Nessun limite di velocità — Unlimited inference on your hardware
- Conformità — Meet data residency requirements
- Personalizzazione — Fine-tune models on your data
- Controllo dei costi — Fixed hardware costs, no per-token fees
- Air-gapped — Runs fully offline