Содержание статьи
- Поддержка Flux в WebUI Forge
- NF4, FP16, FP8, Q8, GGUF: в чем разница?
- Шпаргалка: какие файлы качать
- Запускаем Flux на старых видеокартах
- Решетка на плавных градиентах
- Генерируем картинки в разрешении 2К
- Делаем кадры из фильмов: 16:9
- Негативные ключевые слова
- Способ 1: Flux Guidance Scale
- Способ 2: Dynamic Thresholding
- Способ 3: Perp-Neg
- Раскрываем креативность модели
- Выводы
Поддержка Flux в WebUI Forge
WebUI Forge — интерфейс к Stable Diffusion, любимый многими за его высокую скорость и удобство использования. Первая версия Forge вышла в феврале 2024 года, после чего много месяцев не получала обновлений. Длительное отсутствие разработки привело к созданию форка ReForge, который подробно описан в статье «ReForge. Улучшаем картинки, генерируемые Stable Diffusion». Но вот оригинальный разработчик Forge вернулся — и анонсировал крупное обновление проекта. В списке изменений — переход на Gradio 4 (стало немного удобнее, но ряд расширений перестал работать), использование последней версии PyTorch (стало еще быстрее), появление двух сотен встроенных стилей по примеру Fooocus того же автора (подробнее — в моей статье о нем) и новый механизм распределения видеопамяти, позволяющий достичь максимально возможной скорости генерации на конкретном железе.
Нас же интересует добавление в WebUI Forge поддержки модели FLUX. Теперь можно использовать все возможные варианты модели от полноценной 16-битной до 4-битной NF4. Более того, можно отдельно выбирать VAE и модель (или сразу несколько моделей) текстового декодера.
Как это работает? Почти точно так же, как любая другая базовая модель, за исключением нового параметра Flux Distilled Guidance (в comfy/SwarmUI он называется Flux Guidance Scale), о котором будет чуть ниже. Достаточно переключить интерфейс в режим flux, выбрать модель из списка и указать требуемые VAE и текстовые декодеры.
NF4, FP16, FP8, Q8, GGUF: в чем разница?
Если ты будешь пользоваться Flux, то сильно облегчишь себе жизнь, если запомнишь, в чем разница между различными представлениями модели.
NF4 — это самый быстрый формат в плане скорости вывода результатов, но и самый непредсказуемый в плане разнообразия композиции по сравнению с другими форматами.
GGUF — сжатый формат, в котором может быть представлена модель. В отличие от формата safetensors, файл GGUF может содержать только одну сеть (диффузионную или текстовый декодер). В рамках формата GGUF все версии Q8, Q6 и так далее вплоть до Q1 — это варианты квантования моделей в порядке убывания качества и требований к железу. GGUF — самый медленный формат: при его использовании в режиме реального времени прямо во время генерации производится распаковка частей модели. Зато качество таких моделей максимально приближается к результатам форматов FP8 и FP16. GGUF совместим со всеми видеокартами, включая GTX, а младшие варианты можно запускать даже на видеокартах с минимумом памяти.
Продолжение доступно только участникам
Материалы из последних выпусков становятся доступны по отдельности только через два месяца после публикации. Чтобы продолжить чтение, необходимо стать участником сообщества «Xakep.ru».
Присоединяйся к сообществу «Xakep.ru»!
Членство в сообществе в течение указанного срока откроет тебе доступ ко ВСЕМ материалам «Хакера», позволит скачивать выпуски в PDF, отключит рекламу на сайте и увеличит личную накопительную скидку! Подробнее