Разворачиваем модель Stable Diffusion 3 Medium под ComfyUI

Модель Stable Diffusion 3 вышла вчера, 12 июня, сама модель SD3 Medium и примеры конфигурации были опубликованы в тот же день на Hugging Face. Попробовать модель пока можно только в ComfyUI и вот небольшая инструкция, как это сделать.

  1. Устанавливаем ComfyUI по инструкции

  2. Скачиваем файл модели sd3_medium_incl_clips.safetensors или, если позволяет объем памяти вашей видеокарты, sd3_medium_incl_clips_t5xxlfp8.safetensors. Разница между моделями в том, что первая содержит в себе сразу два текстовых энкодера (OpenCLIP-ViT/G,  CLIP-ViT/L), а вторая дополнительно содержит третий энкодер (T5-xxl). Его можно добавить позднее, положим в папку ComfyUI\models\clip, но можно обойтись и без него только первыми двумя.

  3. Кладем .safetensor файл в папку ComfyUI\models\checkpoints.

  4. Загружаем пример потока генерации для ComfyUI sd3_medium_example_workflow_basic.json. Вы также можете загрузить пример с мультипромптом и ресайзом изображения.

  5. Запускаем ComfyUI,

  6. Нажав на Load, загружаем json файл с примером workflow.

  7. Отсоединяем линки от блока TripleCLIPLoader.

    3fdc07799481000fa006b14fbae47f4f.png
  8. Щелкнув на желтую точку clip у CLIP Text Encode (Prompt) и CLIP Text Encode (Negative Prompt) тянем от них линию и подключаем линк к точке CLIP у Load Checkpoint.

    d3d05a319996f0de0d6d0f78631511f6.png
  9. В Load Checkpoint выбираем модель sd3_medium_incl_clips.safetensors.

  10. В Seed ставим Control after generate в randomize, вводим промпт, нажимаем на Queue Prompt и наслаждаемся возможностями новой модели. На Nvidia RTX 4060 с 8 Гб видеопамяти генерация идет со скоростью 1.35–1.4 итераций в секунду и на картинку 1024×1024 с 30 итерациями уходит около 25 секунд.

67b5fbd98645c6f1acef6a13ee2a8ed1.png

P.S. Если у вас нет мощного железа, можно развернуть ComfyUI и модель на наших vGPU серверах. Как только поддержка SD3 появистя в AUTOMATIC1111, мы добавим генерацию изображений с помощью нее в наш AI чат-бот.

© Habrahabr.ru