Free AI Hosting | Free.ai
Host AI models for free. GPU access, API hosting, and cloud deployment.
Булоқ хости
Free.ai инфратузилмасини қўллаш. Ҳеч қандай ўрнатиш, ҳеч қандай парвариш. Барча моделлар олдиндан юкланган ва API ёки веб UI орқали фойдаланишга тайёр.
Ҳозирда мавжудDocker ўзи хост қилинган
Бизнинг очиқ манбали AI моделларимизни ўз жиҳозларингизда ишга туширинг. GPU қўллаб-қувватлаши билан Docker тасвирлари, индукция учун оптималлаштирилган.
Ўз-ўзини хизмат кўрсатишИдора қилинадиган шахсий
Биз томонидан бошқариладиган, сизнинг мос келадиган булут минтақасида жойлаштирилган ажратилган GPU серверлари. Тоза маълумотлар ажратиш ва тегишли SLA.
КорхонаЎз-ўзини бошқарувчи тарқатиш
Бизнинг барча моделларимиз очиқ манбали (Apache 2.0 / MIT). Уларни ўзингизнинг GPU инфратузилмасида ишга тушира оласиз:
# Pull and run a model with Docker
docker pull ghcr.io/free-ai/inference:latest
docker run --gpus all -p 8000:8000 ghcr.io/free-ai/inference:latest \
--model qwen2.5-72b --quantization awq
Минимал талаблар
- NVIDIA GPU 24GB+ VRAM билан (RTX 4090, A5000, A100)
- CUDA 12.0+ ва NVIDIA контейнер асбоблари билан Docker
- 16GB+ система хотираси, ҳар бир модел учун 100GB+ сақлаш
- 72B параметр моделлари учун: 80GB VRAM (A100) ёки кўп ГПУли қурилма
Нима учун Self-Host?
- Маълумот махфийлиги — Your data never leaves your servers
- Ҳеч қандай тезлик чегараси йўқ — Unlimited inference on your hardware
- Мувофиқлик — Meet data residency requirements
- Танлаш — Fine-tune models on your data
- Ҳисоблаш — Fixed hardware costs, no per-token fees
- Ҳаво бўшлиғи — Runs fully offline