Step1X-Edit v1p2

Free.ai (self-hosted) · image_edit · ~1000 жетони на edit

Пуснете тук файл или кликнете, за да прегледате

~1000 жетони на edit

Step1X-Edit-v1p2 (ReasonEdit-S, released Nov 2025) — Apache 2.0. StepFun's reasoning image-edit model: pairs a DiT-based decoder with an MLLM front-end, then adds a thinking + reflection pass around the diffusion forward. Trained to match GPT-4o / Gemini-2-Flash edit quality on KRIS-Bench and GEdit-Bench, especially on multi-step, referential, and abstract edits ("fix what looks wrong about her left hand", "match the lighting in this room to a sunset"). Self-hosted on Free.ai's H200 (dedicated venv-step1x-edit). The reflection pass costs ~25-50 s per 1024-side edit but catches the drift artifacts plain diffusion edits often produce. Free tier for /image/edit/ reasoning-mode operations.

Използване чрез API
curl -X POST https://api.free.ai/v1/image/edit/ \
  -H "Authorization: Bearer sk-free-..." \
  -H "Content-Type: application/json" \
  -d '{"model":"step1x-edit","prompt":"your prompt here"}'
API документация Вземете API ключ

Често задавани въпроси

Step1X-Edit-v1p2 (ReasonEdit-S) е резонансен модел на StepFun за редактиране на изображението — освободен ноември 2025 под Apache 2.0. Където Qwen-Image-Edit следва директни инструкции ("направете небето лилаво"), Step1X-Edit причини за многостъпни, референтни, и абстрактни редакти ("съответстват на осветлението в тази стая до златночасов залез на залез", "оправете това, което изглежда анатомски погрешно за нейната лява ръка"). Тя провежда мисъл + размишление кръгове около дифузията напред, обучени да съвпадат GPT-4o /Gemini-2-Flash редактира качеството върху KRIS-Bench и GEdit-Bench. Self-hosted на Free.ai's H200 —NoStream доставчиc.

Qwen-Image-Edit-2511 е най-бързият безплатен редакт на Free.ai — ~10-15 секунди за редактиране, MMDIT гръбначът с Qwen.5-VL текстов кодер. Step1X-Edit е по-бавният, по-умният брат и сестра: DiT декодер плюс отделен MLLM преден край, който провежда мисълен проход (реформира бързия за дифузора) и факультативния премисъл (съпоставете кандидатите, изберете най-доброто). Използвайте Qwen за директни редакции; използвайте Step1X, когато бързата се нуждае от тълкуване, има многобройни клаузи или нещо извън рамката.

Това са премийни модели, които се движат чрез платени доставчици (фал.ai нагоре по потока) и струват 30K-112K жетони за редактиране. Step1X-Edit е напълно самостоятелен на Free.ai H200 под Apache 2.0 и разходи ~2 000 жетони. Премиум модели са все още предстои на сурова верност за фотография на продукта и графично-дизайн запазване; Step1X печели върху мотивиране подтикване и е най-силната отворена алтернатива, която ние кораба.

Мултистъпка ("отстранете водния знак и след това затопляйте температурата на цвета"), референтна ("съответства на рамката на 1985 Polaroid"), интерпретираща ("направете израза й изглежда по-сигурно"), ремонтна форма ("поправи ръката", "поправи хоризонта") и абстрактна ("направете това да изглежда като памет"). За обикновено "промяна на X към Y" редактира, Qwen-Image-Edit е по-бърза.

~2,000 tokens per edit — double the standard image-edit rate (1,000 tokens) because the thinking + reflection passes roughly double wall-clock time vs Qwen-Image-Edit. Anonymous users get 2,500 free tokens/day; signed-in users get 30,000/day — enough for ~15 reasoning edits daily without paying.

~25-50 секунди на 1024-страни редактиране с мислене + отражение увključenо (по подразбиране). Изключване на отражението (enable_reflection=false) го хвърля до ~15-25 секунди с малка точност удар при многостъпни искания. Отражението преминава в режим "поправи ръката, но случайно промени фона", в който обикновено дифузията редактира често.

Apache 2.0 — и двете тежести (huggingface.co/stepfun-ai/Step1X-Edit-v1p2) и GitHub repo (github.com/stepfun-ai/Step1X-Edit). Без териториални изрезби, без MAU капачка, без некоммерчески ездач, без клауза за научни изследвания. Изображенията, които генерирате, са ваши да използвате търговски без хонорари.

~22 GB резидент пик с изключване на модела CPU (transformer + VAE на GPU по време на напред; MLLM + текстов кодетър, включен от CPU). 41.8 GB на диска. Ние резервираме 24 GB слот на H200 и опаковката прекратява при стартиране, ако безплатно VRAM дипове под 18 GB. За самостоятелен домакин ще се нуждаете от 24 GB потребителска карта (RTX 4090) най-малко, идеално 40 GB+ за главата.

Да — преминете enable_thinking=false, за да прескочите прохода MLLM за бързо преобразуване, или enable_reflection=false, за да прескочите многокандидатна селекция кръг. С двете изключени, Step1X се държи като ванилен DiT image-editor на ~12-15 s/edit. Ние поддържаме и двете по подразбиране, защото това е, което моделът е обучен да направи и той съществено бие обикновено дифузия на бенчмарк пакети.

Step1X-Edit-v1p2 (ReasonEdit-S) двойка DiT-базиран декодер с Qwen.5-VL семейство MLLM преден край. MLLM интерпретира инструкцията за редактиране; DiT декодерът рисува редакцията. Класът на дифузорите е Step1XEditPipelineV1P2 (живее върху вилица Peyton-Chen на дифузори, клон стъпка1xedit_v1p2). РегионE задължително ускорява изчисляването чрез прескачане на дифузията в регионите MLLM маркира като непроменена.

Качените изображения се изтриват веднага след завършването на редактирането. Изходът се намира на нашия CDN за 24 часа (7 дни за платените потребители), така че да можете да преизтеглите от /account /?tab=history. Никога не се използва за обучение. Политика за поверителност на /privacy /.

Да — POST multipart to /v1/image/edit/ with image, model=step1x-edit, operation=img2img (или inpaint / outpaint / style_transfer / и т.н.), бърз, опционален enable_ thinking, enable_ reflection, стъпки (по подразбиране 50), direction_scale (по подразбиране 6.0). Носител автентифициране, 10K жетони/месечно безплатно. /api/ има къдри примери.

Love this tool? Share it!

Оцени тази страница