Free AI Hosting | Free.ai
Host AI models for free. GPU access, API hosting, and cloud deployment.
Nuage hébergé
Utilisez l'infrastructure Free.ai. Configuration zéro, maintenance zéro. Tous les modèles sont pré-chargés et prêts à utiliser via API ou interface utilisateur web.
Disponible dès maintenantDocker Auto-Hosté
Exécutez nos modèles d'IA open-source sur votre propre matériel. Docker images avec le support GPU, optimisé pour l'inférence.
Self-serviceGestion privée
Serveurs GPU dédiés gérés par nous, déployés dans votre région cloud préférée. Isolation complète des données et SLA personnalisé.
EntrepriseDéploiement autonome
Tous nos modèles sont open-source (Apache 2.0 / MIT). Vous pouvez les exécuter sur votre propre infrastructure GPU:
# Pull and run a model with Docker
docker pull ghcr.io/free-ai/inference:latest
docker run --gpus all -p 8000:8000 ghcr.io/free-ai/inference:latest \
--model qwen2.5-72b --quantization awq
Caractéristiques minimales
- GPU NVIDIA avec VRAM 24 Go+ (RTX 4090, A5000, A100)
- CUDA 12.0+ et Docker avec NVIDIA Container Toolkit
- Système RAM de 16 Go+, stockage de 100 Go+ par modèle
- Pour les modèles de paramètres 72B : configuration 80GB VRAM (A100) ou multi-GPU
Pourquoi s'auto-hâter?
- Confidentialité des données — Your data never leaves your servers
- Pas de limite de taux — Unlimited inference on your hardware
- Conformité — Meet data residency requirements
- Personnalisation — Fine-tune models on your data
- Contrôle des coûts — Fixed hardware costs, no per-token fees
- Gagné par l'air — Runs fully offline