Free AI Hosting | Free.ai
Host AI models for free. GPU access, API hosting, and cloud deployment.
Được lưu trên đám mây
Dùng cơ sở hạ tầng Free.ai. Không cài đặt, không bảo trì. Tất cả các mô hình được tải sẵn và sẵn sàng sử dụng qua API hoặc giao diện người dùng web.
Có sẵnDocker tự lưu
Chạy mô hình AI mã nguồn mở của chúng tôi trên phần cứng của bạn. Docker images with GPU support, optimized for inference.
Dịch vụ tự phục vụĐược quản lý riêng
Máy chủ GPU chuyên dụng do chúng tôi quản lý, được bố trí ở vùng đám mây của bạn, tách dữ liệu hoàn toàn và SLA tùy chỉnh.
EnterpriseTự quản lý triển khai
Tất cả các mô hình của chúng tôi là mã nguồn mở (Apache 2. 0 / MIT). Bạn có thể chạy chúng trên cơ sở hạ tầng GPU của riêng mình:
# Pull and run a model with Docker
docker pull ghcr.io/free-ai/inference:latest
docker run --gpus all -p 8000:8000 ghcr.io/free-ai/inference:latest \
--model qwen2.5-72b --quantization awq
Yêu cầu tối thiểu
- CPU NVIDIA với 24GB+ VRAM (RTX 4090, A5000, A100)
- CUDA 12.0+ và Docker với bộ công cụ chứa NVIDIA
- 16GB+ RAM hệ thống, 100GB+ lưu trữ mỗi mẫu
- Đối với các mẫu tham số 72B: 80GB VRAM (A100) hoặc cài đặt đa GPU
Tại sao lại là Self-Host?
- Bảo mật dữ liệu — Your data never leaves your servers
- Không giới hạn tốc độ — Unlimited inference on your hardware
- Chấp hành — Meet data residency requirements
- Tự chọn — Fine-tune models on your data
- Kiểm soát chi phí — Fixed hardware costs, no per-token fees
- Khoảng cách không khí — Runs fully offline