Stable Diffusion тред X+57 ====================================== Предыдущий тред >>553397 (OP)https://arhivach.top/?tags=13840 ------------------------------------------ схожие тематические треды - технотред >>543635 (OP) - NAI-тред (аниме) >>556060 (OP) ======================== Stable Diffusion (SD) - открытая нейросеть генеративного искусства для создания картинок из текста/исходных картинок, обучения на своих изображениях. Полный функционал в локальной установке (см. ниже)
⚠️ Стандартные модели stable diffusion (v1.4 - v2.1) от Stability AI значительно отстают по качеству от кастомных моделей (см. ниже). Модели SD XL ставятся и запускаются так же как и любые другие модели SD.
Почему у меня на 8G VRAM SDXL на Fooocus летает и легко апскейлит до 2к, а автоматик1111 с опцией --medvram-sdxl (или --medvram) тормозит и вылетает сoda out of mem? Генерить еще можно, но контролнетом невозможно пользоваться. Что там такого в Fooocus, что он нормально работает? Нельзя как-то опции какие-то подсмотреть там? Как мне работать с автоматик1111 с SDXL? Что прописать в батник?
>>560789 >ничего вылетать не будет У меня отключен шаринг в оперативу в настройках драйверов, поэтому будет. С включенной по полчаса генерит. Но фокусу-то всего хватает.
>>560782 хз, у меня то же самое на ComfyUI (только в Комфи по умолчанию еще может подключаться tiled vae при достижении OOM). Скорее всего тут дело в том, что автоматик нагроможден каким-то говном, что его замедляет, на это могут указывать частые утечки, а также и то, что после долгого его использования нужно перезагружать комп для полной очистки памяти.
>>560794 Если бы в комфи оно было по дефолту, я бы заметил. Скорость генерации картинки одинакового размера в автоматике хоть с --medvram или --lowvram отличается от скорости в ComfyUI.
Да и на обычных sd 1.5 картинки в ComfyUI я могу генерить вплоть до 2.5 без задержек в скорости, а автоматик начинает лезть в оперативку, что заметно по внезапному замедлению в конце генерации.
>>560796 > я могу генерить вплоть Я тебе и говорю потому что там lowram включен. В комфи надо наоборот прописывать highvram чтобы оно работало как в автоматике.
>>560797 >>560800 Тогда почему скорость генерации картинки с 2x hiresfix на автоматике с просто set COMMANDLINE_ARGS=--xformers такая же как и скорость генерации на ComfyUI?
>>560794 >>560797 У тебя видеопамяти не хватает, оно включается динамически когда неизбежен OOM, даже если указать highvram. На 3090 никогда не видел lowvram в консоли.
>>560803 У них разная оптимизация аттеншена. У автоматика на выбор несколько вариантов в опциях, в комфи только одна своя. На старых картах она медленней в пару раз, на новых быстрее чем любая в автоматике, это ещё до всяких AIT и ко. В автоматике как поставишь так и будет - например выдранная из InvokeAI самая быстрая на картах без памяти, но резко замедляется с ростом разрешения.
в общем это всё дохуя зависит от поколения карты и объёма VRAM
>>560795 Ну например затем чтобы оно крашнулось явным образом, тогда я бы заметил и ужался в имеющуюся VRAM. Если оно будет вместо ООМ замедляться в разы, это неудобно и нахуй не нужно.
>>560815 >замедляться в разы По своему опыту, нет никакого замедления в разы, ну, может быть, есть разница в пару-тройку сек. в самом конце, не более того. Всякий раз, ставя в ком. строку что-нибудь вместо автомата, я получаю тормоза в конце процесса.
>>560815 Короче, после замены автомата на: --medvram прогрессия идёт более линейно, без замедлений в конце. У меня 8 гб. И судя по всему этот ключ зарешал.
>>560832 > какое убожество Почему? Только эта модель умеет генерить сало, хлеб, гжель, вафли, краснодарский соус и шашлык. Даже тульский пряник может генерить. Ты просто не ценишь труд людей, представь сколько он времени потратил, фоткал каждый предмет на профессиональный фотик, потом тренил модель.
>>560840 Спасибо подписчикам на бусти, что скинулись мне на панелечки, наши родненькие, не какие-нибудь там панелечки стран НАТО, а наши, родненькие, там в каждом окошке по шашлыку, соусу краснодарскому на тарелке из Гжели.
>>560841 > наши родненькие, не какие-нибудь Конечно НАШИ, надо развивать в сд моделях Русскую культуру, все правильно Хачатурчик делает. А если не нравится что-то едь в гейропу свою.
>>560833 >Дайте промпт и модель на четвертую пикчу. Base Model: realisticStockPhoto_v10 a sexy nude girl with long hair stands with her back to the view on the shore of a dense forest lake looking at a small spaceship flying in the high sky, sunny, strong wind, red and blue laser rays, robot Cylons, beacons, boke, Filip Hodas, cgstudio, space art, something futuristic, (detailed realizm), wide angle shot
Я генерирую всякю хуйню прямо на civitai и потом через photopea корректирую детали. У них на сайте изображения генерируются в формате jfif. Как не проебать метаданные при редактировании?
>>560779 (OP) Анончики, сделайте из этой фотографии контролнет и по нему сгенерируйте тян, а со мной поделитесь вокрфлоу и инструкцией. Я много раз пытался пользоваться контролнетом, но всегда получался цирк уродов.
>>560956 > почему хача прогнали с сивика? Модер цивы перестал удалять все неугодные комменты , пики со сравнениями его моделей с другими и плохие оценки которые занижили его рейтинг. Ведь дебиларейт это топ 1 модель. А пердак у хача на любую критику подгограет знатно, вот он и удалился с цивы.
>>559109 → лол, долбоеб, это мои пикчи. как ты мог видеть их раньше, чем я их сделал, блет? на форче кто-то их спиздил удаленый акк на девианте был - karimisosoup второй - creamyonigirigirl
>>561021 Спасибо анон! Мощный воркфлоу. Конечности и фон получаются с переменным успехом, голова - просто пиздец. Буду экспериментировать с openpose. Модель sdxl/juggernautXL_v7Rundiffusion.safetensors я не нашел, использовал другую sdxl.
>>561117 > Мощный воркфлоу. Стабильный пиздец, 1.5 года - итоги прогресса, у нас есть контролнет, мы можем любой пик сгенерить в любой позе, бла бла бла бла, 1.5 года пиздежа и бесполезных костылей чтобы высрать такой кал.
>>561117 > не нашел Ну хуй его знает. > Конечности и фон получаются с переменным успехом, голова - просто пиздец. Меняй вес на контролнета для первого ксэмплера и не задирай слишком сильно денойз для второго. Можешь еще гроу маск увеличить, но там итак должно быть достаточно.
>>561141 > если SDXL уже умеет в такие позы? Ни одна сд модель не сумеет в такую позу, даже если подключить все костыли и скачть все лоры которые вышли за 1.5 года.
>>561141 Текстом не получится выразить прямо 100% нужную позу, лучше использовать контролнет - прогнать через препроцессор или сделать в блендере/на сайте.
>>561147 а еще SD не умеет в оружие и сколько ты видишь тут людей, генерящих оружие?
Зачем генерить то, что нейронка не умеет генерить.
Генерь то, что она умеет.
Хотел для примера сгенерить говноружься как обычно на SD, но оказалось, что ДжаггернаутXL последней версии умеет в них, лол.
>>561149 SD не умеет генерить лица перевернутые сверху-вниз. Нет такого, что с SD можно сделать любую позу (к примеру позы где тело полностью перевернуто сверху вниз). Но большинство поз можно.
>>561279 Ну в смысле да, strength в ноде контролнета. Тащем-то можешь также силу контролнета для второго сэмплера тоже попробовать поднять, и даже денойз повысить, но есть шанс превратить весь бэкграунд в однотонное полотно. И джагернаут таки скачай, или RealitiesEdgeXL_5 какой-нибудь.
>>561304 Ну первая уже что-то. Денойз на втором сэплере до 0.45 повысь, или переключись на карась с 0.35-0.4 денойза. Если vrav дохуя, можешь хайрезфикс добавить, скопировав второй сэмплер и скормив ему проапскейленную пикчу. А дальше только инпейнт, ибо слишком специфичную позу хочешь для того, чтобы разом нарисовать.
>>561320 Хуй знает, не пробовал, но подозреваю, что у меня OOM будет. Или она так же, как LCM лора жрет?
>>561327 >отключить рандом сид и твикать настройки на зафиксированном. >>561325 >Денойз на втором сэплере до 0.45 повысь, Сделал.
>Если vrav дохуя, можешь хайрезфикс добавить, скопировав второй сэмплер и скормив ему проапскейленную пикчу. Не понимаю. Нужно после второго сэмплера апскейлить латент и отдавать в третий (скопированный со второго)?
>А дальше только инпейнт Инпейнт лица? Пальцы можно фиксить, прогнав картинку через огромный воркфлоу из https://www.youtube.com/watch?v=DoyqCjKdojY (но почему-то когда я копирую ноды оттуда в свой воркфлоу, у меня на картинке ничего не меняется кроме становления лица уродливым и одинаковым для всех генераций).
>>561103 >>561104 >>561106 >>561136 Сгенерируйте какую ни будь красивую эльфийку, элегантную, но не развратную и без тёмных эльфов, истинную арийскую эльфийку.
Последовал совету https://www.youtube.com/watch?v=qbDm1s0ULpQ и для апскейла использовал lineart (lineart препроцессор и canny модель, т.к. для sdxl lineart не выпустили, но пишут, что результат тот же). Получилось пикрил. Думаю я неправильно подключил лапшу. Как надо?
>>561468 > Не понимаю Примерно вот так (пик1) для 2х апскейла. Можешь попробовать латентный апскейл, но там слишком много нюансов, пока с обычным разберись. > Инпейнт лица? Инпейнт всего, что требует инпейнта, если тебе нужно таки получить нормальную конечную пикчу. Автоматический инпейнт делать не рекомендую. Примерно так (пик2) выглядит простейший инпейнт в комфи. Правой клавишей мыши на пикчу, там Open in MaskEditor и русуй маску. Также желательно делать это в отдельном окне, чтобы не перерисовывать каждый раз всю хуйню, ну или заменить Image Remove Background (Alpha) ноду на ручную маску и зафиксировать все сиды.
Если 2х апскейл не тянет, можно использовать вариант на пик3.
>>561492 Как минимум тебе нужно в лайнарт препроцессор подавать пикчу, которую ты апскейлишь, а не оригинальный референс, с которого ты генерируешь. А также повысить разрешение препроцессора и скорее всего использовать apply controlnet (advanced). Вот только ты не апскейлишь, генерируешь с нуля, поэтому оно вообще хуй знает что рисует, т.к. если для апскейла с не слишком большим денойзом лайнарт пикча как бы работает с кэнни, то для генерации с нуля уже не оче.
>>561496 >Примерно вот так (пик1) для 2х апскейла. Пикрил №1. Деталей стало больше, но лица не появилось.
>>561496 >Примерно так (пик2) выглядит простейший инпейнт в комфи. Мне нужно рисовать маску на уже сгенерированной картинке, загружая её в другой воркфлоу, или нарисовать маску на исходнике, потому что положение тян относительно фона не поменяется?
>>561978 > Мне нужно рисовать маску на уже сгенерированной картинке, загружая её в другой воркфлоу This. Туда же canny контролнет подсунь с оригинальной пикчей в качестве референса, примерно, как на пик4. Crop_factor в mask to segs - 2.5-3 норм, если не менял guide_size и max_size в детейлере. Можешь увеличить эти значения пропорционально. Смотри в консольке, что он вырезает и до скольки увеличивает для апскейла. Если больше, чем в три раза - обычно получится не оче, больше, чем в 5 раз - остается только молиться. Смотри в консоли на хуйню вот такого вида crop region (567, 525) x 1.8075001077354018 -> (1024, 948)
>>561978 Бля, про контролнет я напиздел. Он нихуя не как в автоматике работает, хотя может есть какая-то нода, чтобы segs к контролнету тоже подключить. В общем вот так делай, без контролнета, ну или ищи, как segs к нему подключить.
>>562101 >не срать кривой парашей Лицо должно быть вертикально и не перевернуто! Ты тупой? Тебе писали об этом. Прочитай еще раз: ЛИЦО ДОЛЖНО БЫТЬ ВЕРТИКАЛЬНО И НЕ ПЕРЕВЁРНУТО. Ну, не может пока сд в другое. Понимаешь или нет?
>>562121 Просто смени цель. Ты пока не дорос до такого. Через некоторое время получится, когда научишься многому другому. Не майся хуйнёй, делай что-то другое. Ты за этой своей упорой цели не видишь ничего другого. Не хочешь этого признать.
>>562083 > Пикрил2 Маску больше нарисуй, чтоб шею закрывало всю и немного плечо. Если будет лучше, отправляй этот результат обратно в инпейнт и доделывай. Ну или хуй забей пока, как уже посоветовали, и нагенерируй/проинпейнть пару сотен котов хотя бы, чтоб понять, что к чему.
>>562148 Такое ощущение что в треде осталось полтора шиза, которые соревнуются в том, кто высрет наиболее кривой и уродский дегенеративный кал. Пиздец, такой херни не было даже в первых сд тредах. 1.5 года - Итоги.
>>562163 > осталось полтора шиза, которые соревнуются в том, кто высрет наиболее кривой и уродский дегенеративный кал Ты же тот самый художник, у которого с самого начала рвало пердак от любой красивой аи картинки? Пора раскупоривать шампанское.
Решил запустить SDXL модель, вначале картинка генерится нормально, но на последних стадиях превращается в вот это. Старые модели работают нормально. ЧЯДНТ?!
>>562682 Потыкал разные настройки. Похоже без апскейла совсем никак, только он норм добавляет мелкие детали. Но апскейлить маленькие пикчи в XL модели не выходит, слишком много памяти жрёт. Лучше генерить пикчи с высотой 1024, а потом апскейтить с любым коэффициентом, хоть 1.1, главное чтобы денойз был высокий.
Аноны контролнет сломался ну или автоматик, не понятно. Выбираю что нибудь например canny, а в списке моделей пусто. Если нажать кнопку обновить рядом со списком моделей то появляется весь список моделей и кани и лайнарт ну вы поняли. Кто нибудь сталкивался? Контролнет переустановил не помогло. И главное такая ерунда со всеми пунктами кроме ip-adapter, он работает так же как и раньше и при его выборе показывает модели только ip-adapter.
>>562850 >Уже успело устареть. >Updated December 3, 2023 Ты наркоман? Как оно устареть успело за одни сутки? Чем это лора на 8 степов лучше модели на 1 степ?
Устарело, еще когда вышла LCM, чьей копией Турбо и является. При этом базовая турбо XL поддерживает только разрешения 512x512 и вряд-ли кто-то будет ее тренировать дальше. А так, сначала выжали чистую турбо в виде лоры, которую можно использовать с любой XL моделью на разрешениях 1024x1024 и выше https://civitai.com/models/215485/sdxl-turbo-lora-stable-diffusion-xl-faster-than-light А потом объединили с LCM для улучшения качества. Но ни что не мешает использовать ее на 4 шагах как и LCM.
А так, разницы особенно нет между генерить говно за 1 шаг или чуть неочень картинки за 4 шага.
>>562143 >>561984 >>561496 БЛЯТЬ, ПОЛУЧИЛОСЬ! Я рисовал маску на первой картинке, а надо было на второй, которая повёрнута на 270. Теперь генерирует пикрил. Шея длинновата, и над лицом какая-то грязь будто небольшой пучок волос против гравитации, но это уже ЧЕЛОВЕЧЕСКОЕ ЛИЦО, а не мусор. Продолжу эксперименты.
>>563092 Как ты его заставил в таком широком разрешении портрет рисовать? СД ненавидит пустое место, не занятое персонажами. У меня бы он этого деда плашмя положил от края до края или троих дедов нарисовал на переднем плане.
Сап, нейроны. Подскажите нуфагу, есть ли на данный момент нейродвижок, позволяющий генерить короткие видосы а-ля трейлеры к фильмами или рекламы и если есть, то что почитать, чтобы обмазаться и поставить? Хочу сделать небольшой лулз.
>>563107 Ну нихуяж у вас батенька и запросы, сейчас нейронки генерируют такое себе видео... До полноценных трейлеров еще годик минимум потерпеть нужно...
>>563107 Есть Pika.art, демо у них пиздатое. Я не пробовал, но судя по тому что никакой движухи вокруг них не наблюдается, это вероятно черрипикнутая хрень.
А так вообще всё видео в глубоком зачатке пока что, залегай в спячку на год.
>>563143 Безбожно устаревшие картинки, для обыкновенного любителя могут показаться чем-то стоящим, но это от незнания.
Эта зернистость и эффект "фотошопа", присущая старым моделям, из-за которых все картинки выдавали себя как нейроарт.
Прогресс действительно был значителен.
>>563159 ComfyUI это интерфейс от аутиста для аутистов. Если нравится копаться и контролировать каждый этап генерации, выстраивая его именно так как тебе нужно, то это для тебя. Если тебе не нравиться собирать игрушку прежде чем играться с ней, то это не для тебя. А так, в нем сидит по дефолту хорошая оптимизация, по сравнению с автоматиком.
>>563159 В автоматизации и мелком контроле. Насчет аутизма не вполне соглашусь. Да, собирать эту лапшу из нод это аутизм, но работать с этим вручную потом это боль. Если любишь поаутировать именно в контексте генерации, например менять мелкие детали вручную на каждом шаге, постоянно что-то инпейнтить, менять сиды, ресайзить с одной и той же пикчей, то у комфи максимально неудобный интерфейс для этого, точнее там его нет - интерфейс ты сам строишь. Его философия похоже в том чтобы собрать пайплайн, который будет тебе штамповать по заготовленному сценарию штабеля пикч.
>>563159 Ты контролируешь латент, и можешь, например, перебрасывать его из одной модели в другую, изменяя стиль генерации. Можешь делать апскейл другими моделями (чекпоинтами) самого латента, а не картинки. Можешь вообще апскейлить другим промптом.
Там не в чем разбираться, если понимаешь как работает генерация. Просто панельки в юайшках для отсталых, типа Automatic, изображены в виде нод.
>>563192 Короче именно выведения арта в абсолютный идеал твикая мелкие параметры, понял-принял, может однажды дотянуться ручки, но пока буду любоваться вашими артами и аутировать в автоматике
>>563200 Ну из объективного - в силу того что это конструктор, можно делать ебанутые вещи, например кодировать и декодировать пикчи разными вае между семплингом, можно вручную подключать и отключать только клипы лор. Можно поспорить насчет полезности, но это то что навскидку пришло в голову, что действительно полезно в силу архитектуры приложения - скедулеры и семплеры тут разные сущности и ты не ограничен заготовками, а можешь менять их в любой комбинации.
>>563193 В автоматике прямая переброска латента идет только при hiresfix. Во всех остальных случаях ты перекидываешь картинку из txt2img в img2img и прочее. Но это не принципиально большая разница, просто это не только в отношении латента ты можешь регулировать, но и работаешь с clip и conditioning и многим другим.
А еще прикол нод в том, что можно выстроить пайплайн, который будет автоматически пропускать картинку через другие этапы после txt2img без участия юзера.
>>563143 >>563191 Ну в хоббитах и даже в картонной коробке очень дохуя инпейнта, например. В отличие от более современных моделей, которые зачастую сразу выдают готовую пикчу.
>>563178 > Прогресс действительно был значителен. Ок. Давай проверим. Запили мне вот такой пик из Illuminati Diffusion SD 2.1 на самой прогрессивной модели которую ты используешь.
Промт:
[1800 pirates on a pirate ship taking a selfie:award winning photo of a skeleton pirates on a pirate ship, rainy storm, golden hour:0.25]
Как делать лоры? И сколько фотографий нужно? Вот я хочу допустим сделать лору своего города. Сфотографировать самые узнаваемые его места. И на основе этого сделать лору. Сколько фотографий нужно для, условно, старой церкви?
>>563547 Смотрел как то на ютубе видео, там говорили что для тренировки лоры на персонажа нужно от 5 до 1000 изображений. Рекомендуется в районе 20. Должны быть разнообразные планы. Близкий, средний, дальний. Уж не знаю почему рекомендуют так мало, везде пишут что для тренировки модели чем больше тем лучше,но с лорами часто вижу что нужно небольшое количество. И уж не знаю какое разнообразие планов может быть с 20 фото. Сам не пробовал.
>>563430 >>563551 > могут так же > косплееры в позолоченных масках На пике от Illuminati композиция, цветопередача, освещение и контраст гораздо лучше.
Тренирую лоры через Kohya, при создании датасета создаю к каждой пичке из датасета текстовые файлы, в которых указываю объекты, которые не относятся к моему объекту + триггер слово для него. В целом, работает.
Допустим, есть у меня ~100 фото с женщиной в нижнем белье с разных ракурсов и планов на черном фоне. Мне нужно создать лору белья, есть смысл что-то вписывать в текстовый файл помимо woman, black background + триггер слово? Нужно ли указывать цвет одежды? Какое количество фото оптимально запихнуть в датасет?
>>563625 >Почему все думают только об ускорении процесса? Потому что все всегда думают об ускорении процессов? Потому что сейчас потолок это ~20 it/s на топовом железе, что вообще-то пиздец как медленно? Какой ответ ты ожидаешь? И чего ты хочешь, чтобы не делали оптимизацию?
На данный момент главных проблем у старых АМД карт всего три: 1. 8Гб писец как мало для автоматика Поэтому без апскейла ты можешь генерить максимум 840 пикселей дальше уже ошибка Врам Про SDXL забудь.
3. Греется карта при работе пиздец. Чтобы не ёбнулась приходится выставлять кулера на максимум. Генерация напоминает испытание авиационной турбины, которая может ебануть в любой момент.
>>563660 Как будто у меня на десятке есть. >>563666 >максимум 840 пикселей Квадрат, что ли? Я 768x1368 могу одним куском без апскейла сгенерить на своих 4 Гб, нестабильно, правда. >1. 8Гб писец как мало для автоматика Писец мало - это 2 гига, 4 - херово, но жить можно, 6 - ок, но маловато, 8 - норм, если не сдохля, тогда маловато. А основная проблема АМД - кое-что на нём тупо НЕ РАБОТАЕТ.
>>563625 > Почему все думают только об ускорении процесса? Потому что нищета в основном генерит шакалы до 1024х1024. Онлайн-сервисы их приучили, что генерации должны быть говном. В итоге уже год не видим повышения качества, только "ускорялки", которые всё равно приходится выключать если хочется качественный хайрез.
>>563625 > Почему все думают только об ускорении процесса? А о чём ещё? Развитие сд моделей в генерации пиков достигло предела, 1.5 - предел сд в реализме бабских портретов, 2.1 все забыли, кривую базовую sdxl не исправить кроме как долго и затратно обучать. Но даже так xl никогда не сможет понимать промт как дали 3 или генерить пики с качеством миджорни, тут надо делать новую модель. Вот и пилят сейчас всякие ускорялки и xl лоры которые никому в принципе не нужны. Реального прогресса за год было совсем немного: tiled vae апскейл от китайцев, noise offset благодоря которому появилась epic realism, эмбендинг nfixer и модель illuminati (на основе которой появились все sd 2.1 кастомы), ну и openpose.
>>563625 > 0.22 decrease in FID Не опять, а снова. 0.2 - это дохуя, у ToMe было примерно так же. Скоро будем 60 фпс в реалтайме генерить, но с качеством StyleGAN из 2021 года.
Running on CPU Running with only your CPU is possible, but not recommended. It is very slow and there is no fp16 implementation.
To run, you must have all these flags enabled: --use-cpu all --precision full --no-half --skip-torch-cuda-test
Though this is a questionable way to run webui, due to the very slow generation speeds; using the various AI upscalers and captioning tools may be useful to some people.
>>563855 Если не прикидываешься ради троллинга тупостью, то: 1. Скачать DirectML форк тигера вместо базового коломатика: https://github.com/lshqqytiger/stable-diffusion-webui-directml 2. Запускать с параметрами set COMMANDLINE_ARGS= --medvram --sub-quad-q-chunk-size 512 --sub-quad-kv-chunk-size 512 --sub-quad-chunk-threshold 80 --disable-nan-check 2.5 Для работающего инпейнта у меня set COMMANDLINE_ARGS=--lowvram --no-half --disable-nan-check, с 8 гигами можно и медврам оставить. 3. Выставить субквад оптимизацию в настройках автоматика и включить остальные по вкусу. 4. TAESD декодинг в настройках VAE, если хочется разрешения побольше, у меня это на быстрый доступ вынесено, как и настройка ToMe.
>>563042 Видимо все таки новая TurboXL модель вошла в обиход на civitai, что внезапно и неожиданно. Возможности ее мерджа с обычными XL моделями меняет все.
Неужели Stability начали очередной этап развития SD моделей?
>>564080 Зависит от того, с чем ты решил сравнивать, если реальными фото, то нет. an old man and a little girl waving their hands in greeting 1 - nightvisionXLPhotorealisticPortrait_v0791Bakedvae, 2 - epicphotogasm_lastUnicorn.
>>564042 Чел, это пока просто демка, и даже не той модели, которая рекламировалась изначально. Как только имплементируют в какое-то из UI, где можно будет самому ставить разрешение, а не такое шакальное как в демке, можно будет утверждать что-либо.
>>564080 Нет, но появилась XL модель, которая умеет более-менее в оружие.
Любезные господа, а есть ли возможность для ускорения работы моделек (в оснобенности XL), на слабых железках? У меня лэптоп с втроенной 3050, кажется, и оно естественно тормозит на четырёх гигах. Но то тут, то там я вижу чуть ли не генерацию в реальном времени и "прорывы" в скорости генерации.
С контролнетом XL модели генерят по 20 минут, даже с LCM лорами. У меня автоматик, буду благодарен любым подсказкам и наводкам.
>>564092 Подскажи конкретную опцию в батник? И что конкретно это опция режет? Я так понимаю, если бы были только плюсы, то её включали бы по умолчанию все.
>>564076 > очередной этап развития SD моделей? Что ты несёшь шиз? Какой очередной этап развития? Пиздец >>564088 > рекламировалась изначально. > Как только Я за этот год таких демок насмотрелся, что-то реально стоящее тебе в паблик никто не выложит.
>>564095 > что конкретно это опция режет? Васа модели в памяти, все операции всё так же в fp16. > если бы были только плюсы Из минусов - на 3-5% медленнее fp16. По качеству нет разницы. > её включали бы по умолчанию все Как релизнут 1.7, так будет у всех нищуков по умолчанию.
>>564123 > И не лень ему так напрягаться? У него донатов более 100к в месяц с бусти, можно и напрячься. >>564126 > Ещё мыльнее чем 4? Нет, в 5-ой версии реализма стало больше, тут от апскейла и семплера зависит. В прошлых версиях было ультра мыло, и у него делибирейт - это художественная модель. Relibirate - реализм. Кстати и Relibirate 3 вышла.
>>564139 > в 5-ой версии реализма стало больше Что-то не наблюдаю на твоих пиках. Так же как и на 4 - даже намёка на текстуры нет. Ты случаем не хач, что так пиаришь откровенный шлак?
>>564099 Ну для 5-и шагов очень даже не плохо. Если файнтюн пойдет в сторону улучшения этих моделей, то можно ожидать и значительного ускорения всего процесса. И вопрос качества тоже решается последующим файнтюном со стороны коммюнити, уже даже простой мердж с последними моделями на XL дает значительные улучшения, как будто-бы вообще разницы нет между 5-ю и 20-и шагами.
>>564106 Последний Джаггернаут. Если пропишешь к промпту с описанием персонажа holding a (название пушки), aiming at viewer. Но это может просто особенность новых XL моделей, к примеру пик 4 сделан на TurboVisionXL от того самого гитариста, который выйграл в первом конкурсе civitai rtx4090.
>>563159 Одна из вещей которые можно делать в комфи но не в автоматике — это усреднять промпты.
Вот есть у тебя допустим один набор артистов, которые дают один стиль. Есть другой набор артистов, которые дают другой стиль. И ты хочешь смешать понравившиеся тебе стили в определённых пропорциях. Нода ConditioningAverage решает эту задачу.
>>564522 >Пиздуй Неистово поддержживаю. Устроили здесь хуй знает что. Здесь тред для понтов и мерения писек. Здесь важен результат, а не досужый бесконечный пиздежь о ниочём. О чём пиздеть, если результатов ноль? Зачем тогда это всё?
>>564173 Как там бишь оно в автоматике называлось... Prompt editing и Alternating Words, во. Часть шагов фигаришь одним, часть шагов фигаришь другим. Или свапаешь через шаг. Получаешь микс, причем чисто промптом, безо всякой лапши и нодов.
>>564526 >всем тредом Так ведь и нарисовать то нихуя не могут всем колхозом рисуют, рисуют, со всеми блядь умниками, с безумным количеством нод, не в сосянии нарисовать что-то подобие ебальника дял танцовщицы. Это ФЭЙЛ блядь! Стока пиздаболить, столько схем рисовать, а в итоге пук в воду...
>>564092 Есть смысл его не включать? Подключил его на своем RTX 3070 и генерю 3x хайрез.
>>564110 Со стилями стало еще хуже. Правильно сделали что погнали Хача ссаными тряпками негативными ревью с civitai.
>>564671 Нахуя тебе генерить именно это? Тебе дали инструмент который генерит девушку с шестом, зачем тебе нахуй именно эта поза?
Тебе дали инструмент который умеет генерить миллион комбинаций объектов, но тебе нужно зацепиться за один use case к которому нейронка не подходит, нахуя?
Плюс нейронки в том, что то, что она может генерит, она генерит за минуту. Если хочешь сделать, то, что она не может генерить, возьми и нарисуй сам в фотошопе за несколько часов.
Ребзя, не могу найти лору для задирания юбки (платья), вбиваю pulled up, show panties - нихуя не находит. У кого в закладках есть, поделитесь пожалуйста.
>>564680 >>564677 > Какая параша блядь > Правильно сделали что погнали Хача ссаными тряпками Вы просто не цените тяжёлый труд людей которые развивают сд модели. Это хорошая модель уровня миджорни, а возможно и самая лучшая на данный момент вообще из всех СД моделей. Ведь там уникальный датасет с Русской культурой, снегурочками, салом, хлебом, тульсикими пряниками, хрущёвками, краснодарским соусом и гжелью. Даже с учётом того что Хачатура теперь нет на цивите, он остаётся самым популярным креатором в Русском СД коммьюнити, самый популярный дискорд и бусти блог. Так что все эти ваши гневные хейтерские отзывы ничего не стоят, вы просто завидуете успешному человеку который постоянно развивается в отличии от вас.
Боже аноны хелп! я как и вы - я раб амуде. У меня даже вроде нормально генерируются изображения, НО СУКА В ИНПАЙНТ СКЕТЧ Я НЕ МОГУ РАЗДЕТЬ ТЯНУСОВ, ЧТО ЗА ХУЙНЯ, просто высерает изображения типа пикрил. Как фиксить? если это вообще реально пофиксить с амуде-картой этой ебаной, в гугл-коллабе все отлично работало (модель - epicphotogasm / uberRealisticPornMerge)
Анон, хочу поиграться с одеждой на видео, могу ли в фотошопе/афтер эффекте как-то автоматизированно выделить только одежду на всех кадрах и автоматизированно сделать маску для каждого кадра? Полный нубик в этих пограммах, буду благодарен за видео гайд.
>>564818 Денойз 1, контент latent noise (можно и fill оставить, если с ним слушается), only masked для сохранения качества. Модель должна быть inpainting. И зачем скетч, обычного хватит?
https://civitai.com/models/112902 Какой смысл делать турбо модель под только DPM++ SDE Karras, если этот очень медленный семплер поделит на ноль прирост скорости?
>>564813 > Неплохо, а откуда модель? Это модель от Хачатура, в 3-ей версии RELIBIRATE V3 он сделал максимальный фотореализм и текстуру кожи. Он сам нанимал моделей с хорошей детальной кожей и фоткал их на профессиональную фотокамеру. На данный ммоент это лучшая реалистичная модель в мире.
>>564846 Сам ищи на хагинфейсе, я ссылки не выкладываю, а то местные хейтеры гениального Хачатура станут кидать репорты и обвинять в том что я пиарю его модели и т.д.
>>564934 >>564776 Такое ощущение, как будто-бы у Дримшипер не тру Турбо, как у других мерджей. Даже судя по скорости. Или это просто кажется.
А еще заметил, что на турбо моделях лучше генерить на разрешениях как у sd 1.5 К примеру, на разрешении 832x1216 на портретах получаются чрезвычайно плоские лица.
>>564938 Во-первых ни кода ни весов нет. Во-вторых не всё так просто и надо ретренить этот адаптер каждый раз, судя по статье. Плюс ещё какой-нибудь подвох по-любому (например результат говно), иначе бы все давно тренились на маленькой модели и инференсили на большой.
Котаны, накидайте ньюфагу алгоритм действий, как по красоте сделать. К примеру, есть фото человека, немного не в анфас, и хочется прихуярить половину головы робота. Просто через инпейнт, если маской полголовы закрашиваю и генерю, получается довольно рандомно и вырвишлазно. Как сделать пиздаче?
>>565225 Для большинства случаев, да. Но никакого примера, где reference only будет лучше, в голову не приходит. Хотя может есть ситуации, где пиздец, как нужно иметь хайрез референс, т.к. ipadapter безбожно шакалит пикчу перед тем, как шаманить свой блэк маджик.
>>565240 Пробуй. В комфи ipadapter-plus, который по идее лучше обычного, но я хз, обычный не пробовал. Для каждого конкретного случая, возможно придется поебаться со значениями weight и noise.
>>565271 Да я просто возьму фурри модель, она его знает. Просто это интереснее алкашей. Еще возьму старую лору на экраны теликов, надеюсь она не сильно все сломает
Ананасы, обращаюсь к вам. Суть вопроса, имеется animatediff и хочется сделать img2gif анимацию, но анимировать лишь часть, к примеру волосы у девушки, проплывающий кораблик, звездопад, чтобы анимировалась именно область, а остальное оставалось в статике. Пробовал делать на разных моделях и суть такова, что по краям маски к последнему кадру образуется сильный шум. Есть ли фикс или альтернатива решения подобной задачи?
>>565006 ЕМНИП, добавляют мёржилкой 4 дополнительных слоя на UNet. Ну либо тренируют именно под инпаинтинг, такие попытки мне тоже известны, но ничего неизвестно об их эффективности. Короче, это важно.
>>565345 > но ничего неизвестно об их эффективности. Сравнивал добавление мержилкой разницы между базовыми, и между фотогазмом z. Результат разный, значит дообучили. На основе фотогазма результат лучше (для реализма, разумеется)
>>565379 О, класс, спасибо, будем знать! Я такой скрипт видел только в форке diffusers от ShivamShrirao, и то не факт, что в осноной ветке, а не где-то в недрах истории. Интересно, а специализированную модель под outpainting так же можно дообучить?
>>564792 Ты жопой что ли читаешь? Вон в одном из постов, которые ты процитировал >>563973 ответ лежит. Инпейнты любой разновидности на амуде без нохалфа в параметрах запуска тупо не работают. Включая адетайлер и контролнетовские инпейнты. Делают вид, что отработали, но эффект отсутствует. Нохалф нихуёво жрёт видеопамять, поэтому обычно он у меня выключен.
>>564711 >skirt lift в поиске на civitai пишешь и выбираешь прошелся по тому скачиваний, взял несколько, при попытке подключить на текущем сиде, вместо моего перса появляется какая-то всратая левая бабища с задратой юбкой. И так все...
>>564711 >>565814 на цивите может быть результат не одной генерации, а еботы с инпеинтом, контролнетами, хуетами, целым воркфлоу в комфи или инвоуке, итеративным лупбэком, ещё какой-нибудь хуйнёй. Когда уже вы поймёте что один промпт нихуя не значит и прекратите свои дебильные попытки его воспроизвести
>>565259 а потом ты попытаешься его одной кнопкой проапдейтить, а оно нахуй перестанет работать. А ты и хуй знает, что делать, кроме как всё сносить и пытаться ставить по новой меня такой подход подвел, в условиях ограниченных интернетов и отсутствия возможности просто перекачать и переустановить всё что можно. Пришлось ебстись с консолью, питоном, виртуальным окружением, версиями всего говна и зависимостями
>>565979 Есть же хачёвская сборка олл-ин-ван, там все уже есть, причём само обновляется по необходимости. Питон не лезет в систему, торч тоже. Забакапил всё это говно без папок с высерами и лорами, и сиди себе спокойно)
>>565677 Как ты думаешь, если я его процитировал, может все-таки я уже проверил на практике то, что там написано? Получается дерьмо уровня пикрил1-2. Я так и не нашел нормальный способ раздевать тянусов на карте амуде, все ваши приблуды не разу не помогли, пробовал и модели и настройки разные, прописывал no half'ы и прочее = ИТОГ НИХУЯ. На гугл колабе все было быстро и сочно и без хуйни, а с амуде вообще без вариантов на нормальный результат (чтобы было как на пик3). ТАК СУКА НА НВИДИА ВООБЩЕ НИКТО ЭТИМ ДАЖЕ НЕ ЗАПАРИВАЕТСЯ, НАЖАЛ 2 КНОПКИ И У ТЕБЯ ИДЕАЛЬНЫЙ ПИК БЕЗ ТАНЦОВ
>>566046 У тебя на старом скрине было разрешение 800 пикселей, при таком размере картинку пидорасит всегда. И модель была фотогазм без inpainting, нужно скачать с ним
>>566064 >топ 3 Тащемто их всего две. Эпики и Сайберы. Обе жутко непослушные и максимально ебанутые. И поэтому, ебал я в рот весь ваш соцреализм. Вы блядь, поймите наконец за искусство, сила не в фотографии, а в ассоциациях!
>>566058 >У тебя на старом скрине было разрешение 800 пикселей, при таком размере картинку пидорасит всегда. И модель была фотогазм без inpainting, нужно скачать с ним Нахуй это надо когда есть фокус в котором с >>566076 без всего вот этого нормально инпейнт-аутпейнт делает. Впрочем, я и инпейнтил на 1,5 всегда НЕинпейнт моделями и на удобных мне разрешениях (всегда 800х600 и наоборот) и такого как у него говна сроду не видел.
>>566087 Свинья неблагодарная, ты меня в головку пениса целовать должен, за то что я тебе даю иксел модель которая нормально пезды и соски умеет рисовать.
>>565995 Ты наверное удивишься, но у Автоматик и у Комфи зависимости устанавливаются не в систему а в папку venv. Поэтому один раз установив их, можешь сколько угодно переносить из папки в папку и бэкапить.
>>566127 >JuggernautXL с правильным промптом. Кривой кал сосущий жопу у дучайтена. но тебе может норм, если ты никогда женских сосков не видел, а твои тебе отчим в детстве раздавил плоскогупцами.
>>566096 >надоели Еслиб ты знал, как мне этот нос картошкой заебал) Я это конечно люблю, но сука всему есть предел. Ты просто заводишь одного из этих двоих в базу, а у тебя при слове girl ебашится бульба-нос первым делом, я подозреваю, что и эпик и кибер, это одно и тоже, и автор беларус.
>>566162 Лучше установить себе ComfyUI Manager и через него искать и устанавливать. Для ReActor нужно установить дополнительные зависимости из инструкции. У меня он тоже сразу не установился полностью, пришлость делать 1-ый пункт из описания про Troubleshooting
>>566200 >>566216 Да это все IPadapter сильно искажает картинки, подключил его для того, чтобы общее сходство формы головы вытащит, вот как выдает без него.
Кто сможет сделать сочную пикчу, а лучше 2-3 с подменой лица? Есть одна мадам, знаком с ней вживую, дико заводит меня, её лицо и взгляд это что-то Есть ли возможность сделать пикчу с её лицом, но с нейро телом, грудь там, попа, бельё. Если есть, то напишите мне в тг, обсудим, так же скину фотки девушки. Спасибо!)
>>566064 > реалистичные модели на данный момент. Реалистичные для чего? Если генерить только голых баб, то любая популярная реалистик полтораха, все они плюс-минус одинаковые. Если генерить не баб то из sdxl Iris Lux (хотя и баб может) и playground v2 - эта самая новая, обученная на большом датасете пиков из миджорни.
>>566245 > это все IPadapter сильно искажает Применяй по маске. В смысле сначала сделай просто бабу с нужным телосложением, потом загрузи её, как маску и закрась ебло, а уже эту маску отправляй на вход IPAdapter. Чем меньше закрасишь, тем ближе пикча с адаптером будет ближе к оригиналу на том же сиде.
>>566334 > Как через инпейнт? Не совсем, точнее вообще нет. С маской для адаптера ты генерируешь пикчу целиком сразу, просто адаптер влияет только на небольшую область. > схожие волосы и телосложение Ну хуй его знает. Учитывая шакальность входных пикч в ipadapter, телосложение не так просто выжать. Можешь попробовать подключить два адаптера. Первый - обычный со всем телом и noise где-то 0.5 для адапетра, чтобы исключить эффекта вклейки в фотошопе. Второй - фейс модель с маской и еблом крупным планом, в который едва попадают волосы.
Блядь, это ПИЗДЕЦ товарищи, я уже заебался под каждый специфичный промпт качать свою модель, неужели нельзя сделать более или менее универсальную модель.....!?
>>566369 так не качай, на самом деле большая часть моделей взаимозаменяема и на реалистик моделях можно генерить художественный стиль (даже аниме), а на художественных реализм. Реальный эффект дают промпты.
На SDXL больше универсальных моделей, которые могут и в аниме и в реализм и в художку (...кхм-кхм, Дримшипер, кхм-кхм).
>>566374 Незнаю почему но меня угнетают XL модели, что-то в них не то, незнаю как это обьяснить. А дримшейпером 8-м на 1,5 и так пользуюсь, но и он не всесилен к сожалению (60 гиг моделей накачал под всякую хуйню)...
>>566469 >что-то доказывать О, кстати, давно спросить хотел. Можно же отфотошопить что угодно и залить на цивитай под видом генерации? Я уверен так делают. Как модерация это проверяет? Некоторые пикчи там вообще без описания. Они могут быть откуда угодно Даже просто фотки с телефона?
>>566481 > Боже, это ебанная наждачная бумага. О, вы наверно эксперт и СД профессионал, прошу вас показать как нужно генерить идеальные пики. Примеры в студию.
Аноны, подскажите куда выкладывать свои работы? Если с перспективой их монетизировать да да знаю что хуй получится но все же? Где вы свои удачные работы размещаете?