Free AI Hosting | Free.ai
Host AI models for free. GPU access, API hosting, and cloud deployment.
Облачное хранилище
Используйте Free.ai инфраструктуру. Ноль настройки, нулевое обслуживание. Все модели предварительно загружены и готовы к использованию через API или веб UI.
В настоящее время имеется в наличииДокер самоподдерживался
Запустите наши модели АИ с открытым исходным кодом на вашем собственном аппарате. Снимки Докера с поддержкой GPU, оптимизированы для вывода.
СамообслуживаниеУправление частным сектором
Управляемые нами специальные серверы GPU, развернутые в вашем любимом облачном регионе.
ПредприятиеСаморазвертывание
Все наши модели являются открытыми (Apache 2.0/MIT). Вы можете пропустить их на вашей собственной инфраструктуре GPU:
# Pull and run a model with Docker
docker pull ghcr.io/free-ai/inference:latest
docker run --gpus all -p 8000:8000 ghcr.io/free-ai/inference:latest \
--model qwen2.5-72b --quantization awq
Минимальные требования
- NVIDIA GPU с 24GB+ VRAM (RTX 4090, A5000, A100)
- CUDA 12.0+ и Docker с набором инструментальных средств для контейнеров NVIDIA
- 16GB+ система RAM, 100GB+ хранение на модель
- Для моделей параметров 72B: 80GB VRAM (A100) или установка с участием нескольких GPU
Почему в самопоселении?
- Конфиденциальность данных — Your data never leaves your servers
- Отсутствие ограничений по ставкам — Unlimited inference on your hardware
- Соблюдение — Meet data residency requirements
- Упорядочение — Fine-tune models on your data
- Контроль за расходами — Fixed hardware costs, no per-token fees
- Воздушная капельница — Runs fully offline