開発者API

Free.aiで構築 1つのベアラー・トークン 400以上のAIツール

チャット、画像、ビデオ、音楽、音声、OCR、翻訳 - すべてOpenAI互換のエンドポイントで。 寛大なフリープール、透明なマークアップ、パートナー価格設定。

1万枚の無料トークンが 入会時に与えられます

モダリティごとの単一エンドポイント

1 つの URL が各チャットモデルを扱います。1 つの URL が各画像モデルを扱います。モデルを一つの文字列で選択します。プロバイダごとの SDK シャッフルはありません。

正直でマークアップに優しい請求

自己ホストモデルは原価で請求します。プレミアムモデルは透明なマークアップを追加します。これはスケールアップすると減少します。すべての応答は正確なトークンコストを報告します。

99の言語を 箱から出して

チャット、翻訳、TTS、STT — すべての主要なモダリティは99の言語を追加の設定なしでカバーします。言語コードを送ると動作します。

60秒のクイックスタート

同じAPIで 5言語で キーを入れて 走れ

curl https://api.free.ai/v1/chat/ \
  -H "Authorization: Bearer sk-free-YOUR-KEY" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "qwen2.5-7b",
    "messages": [{"role":"user","content":"Hello!"}]
  }'
import requests

r = requests.post(
    "https://api.free.ai/v1/chat/",
    headers={"Authorization": "Bearer sk-free-YOUR-KEY"},
    json={
        "model": "qwen2.5-7b",
        "messages": [{"role": "user", "content": "Hello!"}],
    },
)
print(r.json()["choices"][0]["message"]["content"])
const r = await fetch("https://api.free.ai/v1/chat/", {
  method: "POST",
  headers: {
    "Authorization": "Bearer sk-free-YOUR-KEY",
    "Content-Type": "application/json",
  },
  body: JSON.stringify({
    model: "qwen2.5-7b",
    messages: [{role: "user", content: "Hello!"}],
  }),
});
const data = await r.json();
console.log(data.choices[0].message.content);
package main

import (
  "bytes"; "fmt"; "io"; "net/http"
)

func main() {
  body := []byte(`{"model":"qwen2.5-7b","messages":[{"role":"user","content":"Hello!"}]}`)
  req, _ := http.NewRequest("POST", "https://api.free.ai/v1/chat/", bytes.NewBuffer(body))
  req.Header.Set("Authorization", "Bearer sk-free-YOUR-KEY")
  req.Header.Set("Content-Type", "application/json")
  resp, _ := http.DefaultClient.Do(req)
  defer resp.Body.Close()
  out, _ := io.ReadAll(resp.Body)
  fmt.Println(string(out))
}
require "net/http"
require "json"

uri = URI("https://api.free.ai/v1/chat/")
req = Net::HTTP::Post.new(uri, {
  "Authorization" => "Bearer sk-free-YOUR-KEY",
  "Content-Type"  => "application/json",
})
req.body = {
  model: "qwen2.5-7b",
  messages: [{role: "user", content: "Hello!"}],
}.to_json

res = Net::HTTP.start(uri.host, uri.port, use_ssl: true) { |h| h.request(req) }
puts JSON.parse(res.body)["choices"][0]["message"]["content"]

価格設定 — 割引が自動的に適用される

1ドル=75万トークン 自己ホストモデルは原価で請求 プレミアムモデルは30日間の使用で値下げ

フリープール
30,000 / day
ウェブのみ — 自己ホストモデルをカバー
利用分割払い
1.50×
500ドル以下/30日
バルク
1.30×
500ドル 30日間
パートナー
1.15×
月2000ドル

完全価格分割 →

あなたが作れるもの

@handle をチャットエージェントとして埋め込む

あなたの知識でAIパーソナを訓練し、どのページにも一行スクリプトタグを落とします。訪問者はあなたのAIとチャットします。あなたのアカウントはコストを負担します。

@yourhandle を設定

ウェブフック

長時間実行するジョブ (ビデオ生成、バッチ転写、共有リンク作成、低信用警告) のための署名されたコールバックを設定します。 X-Free-Signature の HMAC-SHA256 署名。

ウェブフックを設定 →

よくある質問

10,000 個のトークンを確認すると、 /signup/ で無料で登録できます。 /account/?tab=api を開き、 生成をクリックしてください。キーは sk-free-... の形式のベイラートークンで、すぐに動作します。申請も待ち行列もありません。

1ドルで75万トークンを購入できます。セルフホストモデルは原価のトークン数を請求します。外部モデルは、割引時に50%の小売価格を加算します。30日間の期間内に500ドルを支払うと、価格は30%に下がります。2,000ドル以上でパートナーとなり、価格は15%に下がります。日々のフリープール:確認されたアカウントに対して5,000トークン(Web、APIではありません)。

API リクエストは、購入したバランスとキーごとの月間制限に基づいて行われます。デフォルトは1,000コールです。 /account/?tab=apiで制限を上げてください。 上に秒単位の制限はありません。キーにトークンがある場合、月間制限を超えた場合、リクエストは実行されます。

サーバから送信されたイベントを受け取るには、 /v1/chat/ に stream:true を渡します。 ワイヤーフォーマットは OpenAI ストリーミング規約を反映していますので、既存のクライアント SDK は修正なしで動作します。

チャットエンドポイントは OpenAI ツール呼び出しスキームに従ってツールアレイを受け入れます。ネイティブツール使用をサポートするモデル (Qwen 2.5ファミリ + ほとんどのプレミアムモデル) は tool_calls を返します。ネイティブサポートがないモデルは JSONモードプロンプトに戻ります。

Standard JSON: {error:{message, type, code}}. HTTP 402 means out of credits (response includes shortfall + an upgrade URL). HTTP 429 means daily pool exhausted on a non-API call. HTTP 400 covers validation errors with a human-readable message.

私たちは Coder IDE の wrapper のために npm + PyPI 上で freeai-code を公開しています。 原始 API の場合、OpenAI SDK が機能します。 base_url を https://api.freeai/v1 に指定し、 sk-free-... キーを渡します。 Vercel AI SDK、 LangChain、 llamaindex なども同様です。

あなたのエンドポイント URL を /account/?tab=developer で設定します。すべてのペイロードに HMAC-SHA256 で署名します。署名は X-Free-Signature ヘッダにあります。Webhook イベントは、長期にわたって実行されているジョブの完了、共有リンクの生成、低信用警告、チーム招待の受け入れなどに対して発生します。

上流コストをトークンで表示し、 あなたの階層の乗数 (1.50×小売、1.30×大量、1.15×パートナー) で乗算します。セルフホストモデルはマークアップがありません。 あなたは原始トークン数を支払います。 各応答の引き算行は、正確なトークンコストを示しますので、推測はありません。

無料モデルは、私たちのセルフホストGPUフリート (Qwen 2.5、FLUX、Whisper、Kokoroなど) で動作し、日々のプールでカバーされます。有料モデルは、主な外部プロバイダにルートされます。これらはクレジットを購入する必要があり、日々のプールから支払うことはできません。両方とも同じ /v1/chat/エンドポイントを共有します。有料モデルにオプションを入力するには、model:premium/を渡します。

はい、Free.ai 上のすべてのセルフホストモデルは、許容的なライセンス (Apache 2.0, MIT) の下でオープンソースです。私たちが使用するモデル ID は、アップストリーム HuggingFace ID と一致し、私たちの gpu_api のリポジトリは公開されています。私たちのオーケストラを自分のハードウェアにインストールしたい場合は、プライベートクラウドインストールについて私たちに話してください。

まもなく発売予定。BYOKは、自分の外部プロバイダ API キーを提供できるので、コールは上流で自分のアカウントに対して請求されます。これらのモデルでは、マークアップを完全に省略できます。それまでは、バルク+パートナーの階層は、大規模な顧客に対してマークアップを削減します。

Love this tool? Share it!

このページを評価