Free AI Hosting | Free.ai
Host AI models for free. GPU access, API hosting, and cloud deployment.
Cloud Hosted
Verwenden Sie Free.ai Infrastruktur. Null Setup, Null Wartung. Alle Modelle sind vorgeladen und bereit, über API oder Web-UI zu verwenden.
Jetzt verfügbarDocker selbstgehostet
Führen Sie unsere Open-Source-KI-Modelle auf Ihrer eigenen Hardware aus. Docker-Bilder mit GPU-Unterstützung, optimiert für Inferenz.
SelbstbedienungPrivate Verwaltung
Dedizierte GPU-Server, die von uns verwaltet werden und in Ihrer bevorzugten Cloud-Region bereitgestellt werden. Vollständige Datenisolierung und benutzerdefinierte SLA.
UnternehmenSelbstgesteuerte Bereitstellung
Alle unsere Modelle sind Open Source (Apache 2.0 / MIT). Sie können sie auf Ihrer eigenen GPU-Infrastruktur ausführen:
# Pull and run a model with Docker
docker pull ghcr.io/free-ai/inference:latest
docker run --gpus all -p 8000:8000 ghcr.io/free-ai/inference:latest \
--model qwen2.5-72b --quantization awq
Mindestanforderungen
- NVIDIA GPU mit 24GB+ VRAM (RTX 4090, A5000, A100)
- CUDA 12.0+ und Docker mit NVIDIA Container Toolkit
- 16GB+ System RAM, 100GB+ Speicher pro Modell
- Für 72B-Parametermodelle: 80GB VRAM (A100) oder Multi-GPU-Einrichtung
Warum Selbst-Host?
- Datenschutz — Your data never leaves your servers
- Keine Steuersätze — Unlimited inference on your hardware
- Einhaltung — Meet data residency requirements
- Anpassung — Fine-tune models on your data
- Kostenkontrolle — Fixed hardware costs, no per-token fees
- mit einer Breite von nicht mehr als 2 mm, jedoch nicht mehr als 3 mm, — Runs fully offline