Stable Diffusion тред X+49 ====================================== Предыдущий тред >>512318 (OP)https://arhivach.top/?tags=13840 ------------------------------------------ схожие тематические треды - технотред >>478081 (OP) - NAI-тред (аниме) >>513944 (OP) ======================== Stable Diffusion (SD) - открытая нейросеть генеративного искусства для создания картинок из текста/исходных картинок, обучения на своих изображениях. Полный функционал в локальной установке (см. ниже)
📃 Стандартные модели stable diffusion (v1.4 - v2.1) от Stability AI значительно отстают по качеству от кастомных моделей (см. ниже). Модели SD XL ставятся и запускаются так же как и любые другие модели SD.
бля я нихуя не понимаю спора про сд вс далли в плане, далли это просто неплохая штука изкоробки с ограничениями сд же это как конструктор собери сам вкусовщина+зависит от твоих задач теплое и мягкое яблоки и апельсины мое единственное предположение -- все понимают и просто спорят по приколу
>>517668 Захотел сгенерировать хряка на скутере. >fat hog riding on scooter >extremely fat pig riding on scooter, front view, >extremely fat boar riding on scooter, front view, Вроде, и не то, что хотел, а всё равно доволен. Фиксится добавлением animal к промпту.
>>517676 > так вот и я не понимаю, а чего спорят Так нет никакого спора, как такового, обе сетки на данный момент можно потестить бесплатно и без смс. Есть только пыпытки развести срач на пустом месте, зачастую успешные. И вообще эти нейронкосрачи - это логическое продолжение срачей на тему "не генерите то, что вам нравится, а генерите то, что мне нравится" и "не используйте эту модель, а используйте ту, что мне нравится".
>>517673 Ну вот. Контекст промта дали понимает лучше. Но сралиных в грибном лису поедающих детей на нём не сгенерить. Вместо споров лучше бы думали как одно к другому прикрутить что-бы мегаразьёб хуйдожников фотографов получился
>>517721 У меня на тостере заводится. Тут вопрос скорее в том, потянет ли, а как быстро, и какого размера будет конечная пикча. >>517728 Комфи сам включает оптимизации, если в автоматике без --medvram-sdxl не тянет, то в комфи скорее всего тоже включается.
>>517716 >Контекст промта Тут вопрос в обучении. Если модели скормили картинку и сказали, что это fat pig, то SD и думает, что это fat pig. Бтв, переключился на другую модель. >fat pig riding on a scooter Первый пик. >одно к другому прикрутить С закрытости openAi уже даже Маск бугуртил, так что не будет. Если только не найдётся робингуд, который сольёт данные с серверов. Да и тогда вопрос о необходимости такой хуйни не будет закрыт. Если накидывать больше параметров декодеру, то уже текстовая модель будет ебать мозги и весить сорок гигов, как от LLM. Если не докидывать, то останемся на прежнем уровне понимания промптов. Плюс здесь есть аргумент, что нахуя тебе модель, которая идеально понимает человеческий язык, когда ты можешь сам задать нужные параметры, подключить стили, лоры, текстурные инверсии и получить результат если не лучше, то такой же.
>>517755 Это нормально. Значит она у тебя полноценно используется. Пик2 - sdxl в комфи - не успевает прогреться, т.к. постоянно приостанавливается для оптимизаций. Пик4 - 1.5 с хайрезфиксом в автоматике - меньше махинаций с перекидыванием между RAM/VRAM и карта используется эффективнее.
Сейчас будет ебанутый вопрос: можно ли как-то зацензурить SDXL? Всю голову уже сломал, кое-как прикрутил к нему safety_checker от diffusers, и вроде на нюдесы он реагирует хорошо, возвращает has_nsfw true, но как допустим запретить окольными путями генерировать срущих индусов или убивающих друг-друга евреев и арабов - вообще хз.
ИНБ4: цензурь входной промпт, да, не спорю, как вариант, но хотелось бы иметь защиту от того, чтобы кто-то рисовал что-нибудь похожее на пикрил (Это Кандинский если что).
>>517784 Вроде того, только без гешефта, проект не коммерческий (нет, не правительственный, если что). И если у меня сервис будет срущих индусов рисовать (учитывая что один из меценатов - индус), мне пизды дадут.
>>517716 >Вместо споров лучше бы думали как одно к другому прикрутить что-бы мегаразьёб хуйдожников фотографов получился
сд может работать с изображениями. сд может сгенерировать что угодно. То что ты не умеешь в промт - твои проблемы. дали вообще ничего не может, это игрушка для школьников. Ноль задач. Буквально. Если ты не можешь генерить 100 однотипных изображений чтобы выбрать лучшее и не меняя именно внутреннее содержание этих картинок - то это уже кал. то есть дали это кал.
>>517964 1 - dpmpp_3m_sde karras - выглядит более потрепаным, что вроде неплохо, но нос куда-то не туда ушел. 2 - dpmpp_2m_sde heun karras - нос самое то, но глаза косят. 3 - dpmpp_2m_sde heun exponential - почти норм, но кажется шума больше и глаз вытек. 4 - dpmpp_3m_sde exponential - красавец, но сука с людьми чаще хуйню с конечностями мутит.
>>517964>>518018 Спасибо. А вот с апскейлом/img2img вообще нихуя не понятно, что ему надо. Апскейл 4-го кота с 0.5 денойза. Разницы между сэмплерами почти нет, но есть небольшая разница между планировщиками.
>>518137 > 3 и 4 сильно разъебало Это exponential. Я так понял, он для img2img не оче. A вторая - dpmpp_2m_sde heun karras, в тестах на 1.5 в автоматике он у меня меньше всего косячил в хайрезфиксе. Вот еще денойз 0.3, но тут разница совсем мизерная.
>>518143 Тут они все, как 3 и 4. Обрати внимание на радужку. Она здесь получается плоской, без рисунка. Если бы не было 1 и 2, то я бы хуй знает, может, и не обратил бы внимания.
>>518152 Ну там и в оригинале правый глаз плоский. Хотя может еще и 4xLSDIR (1) усугубляет немного, но 4x_NMKD-Superscale-SP_178000_G (2) слишком сильно шумом засирает. Бля, короче я хз, как sdxl правильно апскейлить. Мало денойза - нихуя не фиксит передний план, много денойза - весь бэкграунд превращается в одно сплошное пятно. И если на коте с уже отсутствующим бэкграундом это нихуя не заметно, то на всем остальном заметно очень даже.
>>518392 жаль, что далеко не все поймут в чем же дело)))) действительно тонко))))) не так уж много и образованных в наше время, кто знает, почему это так интересно и необычно))))
>>518570 Ну конкретно тот пик: emotional, dynamic, vibrant, use of unusual colors, detailed, still from 70s exploitation movie, beautiful ghost of halloween with pumpkin <lora:sunnyrayxo-V2:1>, beautiful background, dark, moody, film grain, extremely clear sharp focus, ultra detailed Negative prompt: low quality, blurry, distorted, saturated, high contrast, featureless, bad features, cgi, 3d render Steps: 30, Sampler: DPM++ 3M SDE Karras, CFG scale: 5.5, Seed: 4282449866, Size: 576x768, Model hash: 00debdee15, Model: epicphotogasm_xPlusPlus, VAE hash: c6a580b13a, VAE: vae-ft-mse-840000-ema-pruned.ckpt, Denoising strength: 0.3, RNG: CPU, ADetailer model: face_yolov8n.pt, ADetailer confidence: 0.3, ADetailer dilate/erode: 4, ADetailer mask blur: 4, ADetailer denoising strength: 0.3, ADetailer inpaint only masked: True, ADetailer inpaint padding: 64, ADetailer use inpaint width/height: True, ADetailer inpaint width: 768, ADetailer inpaint height: 768, ADetailer use separate steps: True, ADetailer steps: 18, ADetailer use separate sampler: True, ADetailer sampler: DPM++ 2M SDE Heun Karras, ADetailer version: 23.9.3, Hires sampler: DPM++ 2M SDE Heun Karras, Hires upscale: 2, Hires steps: 14, Hires upscaler: 4xLSDIR, Lora hashes: "sunnyrayxo-V2: 6bbff3d03808", Discard penultimate sigma: True, Version: v1.6.0-208-g77171923
А вообще, посмотри на странице эпика промпты от автора модели. Там нет большинства токенов, которые полгода назад были нужны, а может и не очень нужны многим моделям. Хотя в naturalsin он всё еще щедро насыпает полотна негатива, включая (worst quality, low quality, normal quality:2), которые тоже не особо нужны. Впрочем и у меня можно негатив почистить. В целом, описывай кратко, что хочешь видеть, добавь немного стилизации по вкусу и что-нибудь типа detailed.
>>518575 Анон, спасибо тебе большое. Испробовал твой промт, координально изменился бэкграунд, буду допиливать. Не совсем понимаю одни говорят пиши максимально много, так нейронка более точно поймет что ты хочешь от нее. Из серии написать не просто девушка, а прям описать 20 лет, высокая девушка, с белыми волосам, зелеными глазами и т.д. А ты говоришь пиши коротко, по сути если писать коротко, то нейронка будет сама допиливать различные аспекты, которые от генерации к генерации будут разные.
>>518754 Ну ты можешь и побольше всякого написать, просто кратко. Я просто рабочую часть твоего промпта скопировал и добавил стиль. Но чем больше ты напишешь, тем меньше вес у каждого написаного токена и больше шанс игнора нейронкой промпта (пикрелейтед, сапогов и банта нет, например). После чего обычно начинается попытка повышения веса у различных токенов, которое до добра не доводит. Ну и описание более одного цвета без костылей обычно не дает ничего хорошего. А всякие ((best quality)), ((masterpiece)), ((realistic)), (detailed), (photo), movie poster, digital art, concept art, detailed, art station, matte painting не просто не нужны, но еще и перебивают друг друга.
emotional, dynamic, vibrant, use of unusual colors, detailed, still from 70s exploitation movie, beautiful ghost of halloween with pumpkin <lora:sunnyrayyxo:1>, wearing a dress with a corset and flared skirt and cargo boots, ribbon in curvy hair, beautiful historical watermill in the background, dark, moody, film grain, extremely clear sharp focus, ultra detailed Negative prompt: low quality, blurry, distorted, saturated, high contrast, featureless, cgi, 3d render Steps: 30, Sampler: DPM++ 3M SDE Karras, CFG scale: 5.5, Seed: 4282449866, Size: 576x768, Model hash: 00debdee15, Model: epicphotogasm_xPlusPlus, VAE hash: c6a580b13a, VAE: vae-ft-mse-840000-ema-pruned.ckpt, Denoising strength: 0.3, RNG: CPU, ADetailer model: face_yolov8n.pt, ADetailer confidence: 0.3, ADetailer dilate/erode: 4, ADetailer mask blur: 4, ADetailer denoising strength: 0.3, ADetailer inpaint only masked: True, ADetailer inpaint padding: 64, ADetailer use inpaint width/height: True, ADetailer inpaint width: 768, ADetailer inpaint height: 768, ADetailer use separate steps: True, ADetailer steps: 18, ADetailer use separate sampler: True, ADetailer sampler: DPM++ 2M SDE Heun Karras, ADetailer version: 23.10.0, Hires sampler: DPM++ 2M SDE Heun Karras, Hires upscale: 2, Hires steps: 14, Hires upscaler: 4xLSDIR, Lora hashes: "sunnyrayyxo: 6bbff3d03808", Discard penultimate sigma: True, Version: v1.6.0-208-g77171923
Как же странно, что некоторые реалистик модели умеют в crossed_legs (с crossed legs еще хуже), а некоторые нет. При этом на аниме моделях это в промпте сразу учитывается.
>>519401 Просто казалось странным, что существуют еще популярные модели, которые не замерджаны друг с другом в такой степени, чтобы у них терялись тэги.
Или может это в процессе мерджа люди теряют часть тегов?
Prompt: detailed, still photo film 35mm ZENIT ET, beautiful ghost of house, a large old hall in the background, dark, moody, film grain Negative prompt: low quality, blurry, distorted, saturated, high contrast, cgi, 3d render Sampler:DPM++ SDE Model:epicphotogasm_xPlusPlus Lora:sunnyrayyxo Steps:30 VAE: vae-ft-mse-840000-ema-pruned
>>519469 Может быть и так, но враскорячку она сидит на двух сидах из трех. А с упоминанием ноги на ногу вообще даже на сиде 2 перестает закидывать ногу на половине протестированных генераций.
Правильно ли я понимаю что если я скачаю ComfyUI из шапки треда, там не будет моделей и мне нужные модели можно просто самому скачать? Простите если платина и тупой вопрос.
>>519703 >ComfyUI из шапки треда Это будет вкат на тяжелом уровне сложности. Automatic1111 - это средний уровень сложности.
>там не будет моделей и мне нужные модели можно просто самому скачать? Да, идешь сюда https://civitai.com/ и качаешь модели (надпись checkpoint у названия). Лучше начать не с XL моделей. Там же можешь нажать на create снизу справа для того, чтобы оценить модель - это легкий уровень сложности.
>>519712 > Там же можешь нажать на create Да, я уже там потыкался и немного гайдов с параметрами почитал, хочу теперь на пека ставить на 3070 генерить. > Это будет вкат на тяжелом уровне сложности. > Automatic1111 - это средний уровень сложности. Почему так? Я сейчас дальше конечно читать буду, но мне показалось что comfyui просто sd без моделей и я только моделей нужных надергаю и все. Это так не работает? Объясни пожалуста эту модульность если не сложно.
>>519724 Да, ComfyUI самый простой по запуску, там уже все зависимости установлены и даже оптимизация проходит автоматически. Но, проблема в использовании, на Комфи ты строишь ноды, то есть сам процесс в деталях настраиваешь в виде воркфлоу, по которому проходит генерация. Это как собери себе UI сам из череды преднастроенных элементов. А вот Automatic1111 это уже просто самое обычно UI, заходишь на вкладку, дергаешь слайдеры туда сюда, нажимаешь на кнопки и генерация уже идет по предопределнному стандартному воркфлоу.
Если совсем просто - Auto1111 это игрушка которая уже собрана из под коробки, бери и играй, а вот ComfyUI это лего, собери себе игрушку из частей и потом играй ею как хочешь.
>>519724 В комфи париться с нодами и все такое, скажем так. А вот автоматик -- это то, что ты описал. Скачал, установил, закинул модели-лоры-расширения в нужные папки, и вперед. >>519669 о/
Сука, 1.5х апскейл обсирается даже без превью и уходит за 30s/it, и то через раз на вае застревает, а 1.41х апскейл - самое то, стабильно держится в пределах 8s/it даже с превью.
>>519750 Это на какой карте ты генеришь, что аж 30s/it? Ну а так, я может хуйню спиздану, но там вроде есть же, что при превышении ВРАМ может задействовать другие ресурсы, но это замедлит общую работу. Мб у тебя это?
>>519757 Ну, ты просто к самому лимиту добрался, судя по всему. Поэтому и 30с/итерация. Как будто ты этого и так не знал, хех. У меня те же самые 34с/итерацию при аспкейле с 1024х1024 в 1.7 раз. Стоит понизить до 1.65 и все, уже 6 секунд на итерацию. 1.6 -- 3.5с/ит.
Я другой анон. Но я могу перечислить те расширения для генерации промптов с помощью ИИ, которые я знаю:
- dynamic prompts: в разделе prompt magic есть много маленьких локальных моделек по 500мб в среднем, дают интересные результаты. Мне больше всего gpt2 нравится
- if_prompt_mkr: немного кривоватое расширение, но если разобраться, результат будет намного лучше предыдущего варианта. Связывает stable-diffusion-webui с text-generation-webui, позволяет тем самым с помощью специальной модели и персонажей генерировать сложные промпты
- chatgpt: не пробовал, но использует chatgpt для этих же целей. Нужен токен от OpenAI
>>519764 Видевокарта -- дело наживное. У тебя уже картинки ого-го. >>519779 А мне больше по-старинке нравится, пихать нужное по разным тхт-файлам и подключать их когда-куда надо. Нагенерил пицот вираций одежды, подчистил, и вперед. (а к ним столько же локаций, причесок, цветов волос, вариантов освещения и типов снимков, и ух).
Кто-нибудь научился справляться с ебучими сосками проскакивающими сквозь одежду / одежду с дебильными точками на сосках? Заебывает адски. Инпейнтинг не предлагать, хочется чтобы сразу при генерации этого не было. Пробовал добавлять в негативный промпт всякое -- nipples, pokies, poking nipples, nipples visible through clothes итд, итп, и тому прочая, но успех так себе.
>>519846 > Пробовал добавлять в негативный промпт всякое naked, nude пробововал? Соски обычно вылезают, если оно начинает рисовать сиськи, а потом одумывается и перерисовывает одежду.
мне блять стейбл дифужон нужен только что бы порнуху генерить. есть сборник моделей под порево, а не это соевое дерьмище с архитектурой и фентези стилями?
>>519904 да почти любая модель умеет в порно, но есть и специальные, ты просто фильтры выключи у себя в аккаунте на civitai. Ты не смотри на то, что их много, фактически это одна и та же модель перемердженная на себя по сто раз и выпущенная под другим названием. И еще, не генерь детей и порно одновременно (несмотря на то, что модель это позволяет).
>>520212 С пальцами там совсем туго. Пока не нашел модели, чтоб на уровне 1.5 пальцы рисовала, зачастую даже если они очень близко, по крайней мере такой, чтоб еще зерна щедро накидывала. С другой стороны, 1.5 мгновенно обсирается, как только в этих пальцах нужно что-то держать, но с 1.5 хотя бы инпейнт есть нормальный в автоматике, а в комфи я так и не вдуплил, как нормально инпейнтить.
>>520217 Не знаю, о ком (чем?) ты. >>520219 1.85 вейт, 0.25 стартинг, 0.75 эндинг степы >>520251 Ну, на пальцы лично мне плевать. В крайнем случае если уж что-то куда-то запостить захочется, всегда есть допил уже в сд1.5 + старый верный друг фотошоп.
А какая вообще модель лучше всего подходит для генерации фейковых кадров из фильмов?
Я тут завел таки Stable Diffusion на Radeon RX580 с 8 гигами памяти. В целом неплохо генерит, но сгенерить что-то больше 1024х768 редко получается - памяти мало.
>>520212 >Так и подмывает заморочиться с сдхл ради таких вот пикч.
Я пока немного модели ковырял, но заметил что сейчас две проблемы: с техникой и со всякими фентези существами. Сколько не пытался сгенерить киборга-минотавра или киборга-кентавра, так ничего толкового и не вышло.
>>520362 > лучше всего подходит для генерации фейковых кадров из фильмов? Хуй его знает. В теории на всех, которые под реализм заточены, можно сделать. На практике у каждой модели свои недостатки. Эти алиены и пик1 отсюда >>520251 - realvisxl, пик2 оттуда же - epicphotogasm_xPlusPlus, но у нее с пониманием промпта туговато. Что-то простое типа стоящей бабы запросто, а алиена, спорящего с бабой на советской хухне - хуй там. >>520362 > RX580 с 8 гигами памяти По идее должно нормально хайрезфиксить до 1536х1152 с --medvram --opt-sub-quad-attention. Вроде она даже в без --no-half может работать, в отличие от 5700, так что даже больше разрешение должна тянуть. > что такое СДХЛ Новое поколение SD после 1.5, если не считать 2.0 и 2.1, которые считать не стоит. На твоей карте оно только в комфи заведется.
>>520386 >с --medvram --opt-sub-quad-attention. Вроде она даже в без --no-half может работать, в отличие от 5700, так что даже больше разрешение должна тянуть.
О, спасибо, буду пробовать.
>На твоей карте оно только в комфи заведется.
То есть, будет работать чисто на ЦПУ и с использованием оперативки?
> будет работать чисто на ЦПУ Нет, на карте. Просто автоматик пытается в оптимизации для sdxl и ругается, что нет --xformers. Кроме того, старые карты с новым торчем не работают. А комфи похуй, он и на torch: 1.13.0 без проблем sdxl крутит и sub-quad-attention использует по дефолту.
>>520370 C кентаврами реально хуйня какая-то, лол. В целом, не удивлён, фоток кентавров хуй найдёшь, а XL явно под фотоконтент тренирована. Но ты самолёты погенерируй. Винты оказываются в самых неожиданных местах. У танков частенько полшестого. А у меня вечно проблема, что картинку распидорашивает, блядь. Слишком давлю своими хотелками на нейронку. Минотавр-меха, вообще охуеть.
Скачал модель, а она ошибку выдает Error: Could not load the stable-diffusion model! Reason: 'Attention' object has no attribute 'to_to_k' Что починить нужно или куда смотреть, я вчера только вкатился.
Где-то с прошлого года нейронками не упарывался. Сейчас не могу понять, проблема с амуде или я где-то накосячил. Требуется помощь амд-богатырей, предпочтительно с 6800хт для полной уверенности. Нужно прогнать эти настройки через комфи и сравнить результат, c sdxl вае и без него, да в терминале посмотреть на наличие ошибок. Модель Juggernaut XL. Собственно файл: https://litter.catbox.moe/wdsuj0.png
>>520784 Из шапки с гайда. Вообще внизу в юай пишет 1.6, но я в душе не ебу... >>520776 Да что мне эти обложки, я вот хочу себе футболок наделать с куаркодмонстром всяких концептуальных. Правда фантазия пока не ушла дальше всяких картин маслом со скрытым словом "жопа". >>520785 Жалею, что не взял 3060 12гб вместо своей 3060ти, но хотя бы рад что все-таки взял нвидию в свое время.
>>520801 По сути sd - это тоже развлечение, а не какая-то далекая "рабочая задача", о которой постоянно твердят продавцы говна, что "вам оно не надо, вы же развлекаетесь"
Реалистичные модели почему-то упорно отказываются скрещивать ноги тянкам(и рисуют их обнаженными по довольно безобидному промту лол - masterpiece, best quality, highly detailed, elf sits in an antique chair cross-legged)
Такую проблему вроде можно контролнетом пофиксить, но пока его нет, использую костыль в виде генерации анимешной моделью лоуреса в нужной позе и потом его апскейлю в реалистичную модель
LDSR апскейлер тупо отвалился нахуй. В процессе зависает, использование видяхи и памяти далеко не 100, но ничего не происходит. Приходится закрывать-открывать консоль.
>>520800 >Вообще внизу в юай пишет 1.6 Да я про модель, а не про версию гуя. >3060 12гб Не так уж 12 гб и дохуя.
>>520869 Лучше вообще его отключи в расширениях, чтобы случайно не поместить систему. Он нейронные сети не использует, результат всего лишь чуть лучше lancoz, а скорость катастрофическая
>>520871 Я бы без апскейла генерировал, по времени даже быстрее получается. Только при 1920 ширине получаю дублирование примерно в половине случаев. Так что или апскейл, или хуи.
>>520873 Он работал раньше, но у меня гит пулл в батнике. По скорости разницы вообще не замечал. Вся система не завешивается, просто SD не делает нихуя.
>>520874 По сути, только когда скачиваешь чекпоинт можно версию посмотреть. Если её автор указал и указал правильно. По косвенным признакам хуй разберёшь, но XL модели обычно больше шести гигов, а 1.5 редко дотягиваются до 5 гигов. Существование 2.0 я не учитываю. Хотя там базовое разрешение аж 768. >8гб у 3060ти vs 12гб у 3060 Каким же надо быть поехавшим, чтобы выпускать младшую карту с большим количеством памяти. Но, хуй знает, у меня частенько памяти не хватает при 12 гигах и всё срётся в оперативу.
>>520948 > Я бы без апскейла генерировал, по времени даже быстрее получается. Только при 1920 ширине получаю дублирование примерно в половине случаев. Так что или апскейл, или хуи. Ты в экстрас апскейлишь, чтоли? Хайрезфикс, апскейл в img2img, апскейл в img2img с любым из скриптов/расширений для апскейла. Всё, что угодно, кроме LDSR.
>>520955 Хайресфиксом. Медленнее, чем генерация сразу. Возможно потому, что у меня вся VRAM забивается нахуй и оно срёт в RAM. >>520991 Лично я не определился. Качаешь с цивитай любую. В них меньше различий, чем в моделях 1.5
Короче опробовал XL и пока странные ощущения Конечно круто что можно сразу обои рабочего стола генерировать, но при этом как-то странно слушается промта и снова есть проблемы с держанием чего-либо в руках, правда тут она выражается в том, что обьект прорисовывается поверх рук
>>521148 я типа начал тестить сд когда ещё в б треды были и забил. а сейчас обновил его, атм поменялся интерфейс и я не совсем понимаю как это теперь работает. раньше на разных моделях было лучше без хайреза, а на некоторых лучше с ним. вот я пробую включать выключать. (раньше там просто галочка была, а сейчас крутилки какие-то не понятные, я не понимаю нихуя, я тупой блять)
>>520386 >По идее должно нормально хайрезфиксить до 1536х1152 с --medvram --opt-sub-quad-attention. Вроде она даже в без --no-half может работать, в отличие от 5700, так что даже больше разрешение должна тянуть.
Попробовал, с параметрами: --medvram --opt-sub-quad-attention --upcast-sampling
На RX580 реально генерит в 1536х1152 и без --no-half. Но появилась проблемка. Если в 1024х768 все генерится в соответствии с вводом, то на большом разрешении 1400х1050 или 1536х1152 начинаются проблемы - появляется сразу много объектов или эффект мозайки. Пробовал генерить и с указанием 1witch, но не особо помогает. DPM++ 2M Karras, CFG Scale 7, Stable Diffusilon 1.5.1. Это косяк модели deliberate или я что-то делаю не так?
>>521008 У меня и так далеко не самые качественные пики получаются, чтобы ещё шаги понижать. Проще, наверное, уменьшить разрешение генерации. Я хуярю 1152х648 сначала.
>>521159 При генерации на чекпоинтах 1.5 чем дальше разрешение при генерации от 512х512 - тем больше шанс удваивания. Так что генерировай поближе к этому, 756 может ещё оказаться нормальным. А потом апскейл.
>>521159 Генерируй на меньше разрешении (576х768, например) и включай хайрезфикс с денойзом 0.3-0.5. И шаги хайрезфикса не забудь поменять, например в 2 раза меньше, чем изначальная генерация, чтоб время не тратить.
>>521221 что ты понимаешь под "отключил"? раньше там была просто галочка, а теперь какая-то ебанина. если я выставляю хайрез степс на 1-4, то получается пикрл.
>>521273 А какую информацию вообще несет в себе макаронина clip? Я сейчас понял, что до этого, наверное, неправильно делал, тянул к сэмплеру макаронину от первой ноды с моделью, а не от последней с лорой.
>>521279 Clip содержит в себе токены, если очень упрощенно. Ради эксперимента, можешь попробовать подключить клип от другой модели. Иногда может получиться результат лучше, но чаще появляются артефакты. В случае с лорами, там зарыто trigger word.
>>521279 clip переводит текст в понятные нейронке векторы, то есть необходимо для декодинга или точнее энкодинга текста. Хер знает, как к нему добавляется лора.
>>521225 >25 шагов Конечно, ебанина. Ставь от сорока шагов семплинга и 20-30 шагов апскейла. Высота 824 для 1.5 моделей это слишком много, лучше в апскейлере вместо 1.5 увеличивай в 2 раза.
Подскажите, есть гайд по установке SDXL? Или просто можно скачать SDXL модель и заснуть её в SD? Или поверх уже установленной SD надо ставить SXDL? А то я что-то не понял по гайдам.
>>521328 XL модели это такие же модели, как 1.5. Впихуешь вместо старой модели - модель XL, смотри, чтобы был refiner baked. И VAE от 1.5 не подходит к XL. Стартовая генерация вместо 512х512 уже 1024 на 1024. Остальное всё по-старому.
>>521414 > каково на 8. Я к тому, что это не особо критично. Главное, чтобы сам чекпоинт в память влезал, остальное похуй. >1.5 на той картинке Ну, я так и думал. На XL скелеты более анатомически правильные, чтоли. Скучные. Полторушка в этом плане более креативая.
>>521354 >Стартовая генерация вместо 512х512 уже 1024 на 1024.
Спасибо! Попробовал - первый блин комом. Самое интересное, что во время генерации изображение выглядело нормально, но сохраненная картинка оказалась вот такой... Но пока откатился на другие модели так как на 8 гигах видеопамяти работает очень плохо.
>>521531 Все не то! Не нравится мне, как там выходит. >>521525 Всегда хочется иметь возможность сгенерить разрешение повыше, не опасаясь ошибок оut of memory.
>>521544 Тогда с прумптом колдуй: 35mm film, film grain, вот это всё. Название камеры и марку пленки тоже можно втетерить. Ну и постворк никто вроде не отменял, делаешь из красивого кадра lut да тонируешь свои генерации. Блура и зерна там же на смарт-слоях можно навалить, сколько взбредет в шальную голову.
>>521551 Ну не "эффект", но ты понял же! Хочу, чтобы выглядело как кадр из фильма 90х/80х. >>521560 Да вот понемногу-потихоньку промпт настраиваю, но все равно как-то не то. Я принципиально не занимаюсь постворком я ленивая жопа, максимум в инпейнте мелочь-другую пофиксить. >>521562 Пока что вот такой: поз: ((analog style, 1980s movie still, classic 90s film still, film grain)), ((woman, wearing short shorts)), 1980s halloween slasher movie style, outdoors, outside, blonde, night, movie lighting, cabin, lake, __faces__
Последнее -- вайлдкарты, чтоб совсем одинаковых не генерировал
нег: (worst quality, bad quality:1.2), easynegative, tattoos, bald, short hair, teeth, open mouth, ((denim, jean, jeans, nude, naked, mask, covered face))
>>521564 Тайлинг вообще не трогал. Прочитал на реддите, что он долговат, да забил. Мне надо все и сразу, да искаробки.
>>521513 С 70-ми проще, большинство фильмов снималось на схожую не самую лучшую пленку и всё еще были кучи ограничений по свету, поэтому большинство фильмов выглядит относительно похоже, кроме исключений на которые не пощадил бюджета. А с 90-ми не достаточно просто добавить 90s movie в промпт, т.к. фильмы выглядят весьма различно, уже везде проникает cgi и прочая постобработка. Наверно лучший вариант будет попытаться кидать в промпт названия фильмов или имена режиссеров и надеяться на лучшее. С другой стороны топ 1.5 модели сильно переучены и дохуя всего позабыли. Так или иначе, долгая ебля с X/Y/Z plot с Prompt S/R может дать какие-то плоды. С сдхл тоже свои проблемы, от большинства моделей сильно разит рендером, а остальные часто и сильно косячат на дальних/средних планах.
>>521606 epicphotogasm_xPlusPlus Больше зерна будет, если с 4x_NMKD-Superscale-SP_178000_G хайрезфиксить, но я 4xLSDIR перешел. Слишком высоко нужно денойз задирать, чтобы артефакты замазать, которые superscale насирает.
>>521590 >Мне надо все и сразу, да искаробки. Так тебя и 4090 не спасёт. Я тоже хочу всё и сразу, только иногда не получается, где-то надо инпеинтить, где-то промптить. Нихуя не делаю.
>>521194 >Первое это сами модели на основе Stable Diffusion Спасибо. А что там за скрипты тогда в директории sgm? >Второе это UI для запуска этих моделей И что такое модель? В общем тут наверное проще как сделать. Откуда копать информацию по всем этим "сетям" и stable diffusion, чтобы не задавать подобных глупых вопросов? Терминологию почитать, как использовать и т.д. Буду очень признателен!
>>521609 Туда-сюда между эпикфотогазмом и эпикреализмом прыгаю, сравниваю. Остальные как-то совсем не то выдают. VHS в любых вариациях тут, увы, лишь генерирует сами кассеты в руках/на заднем плане.
>>521602 70ые пробовал, но там как будто уже 60ые выдает порой, не зашло. На комбо 80ых-90ых вот пока что результат ближе к тому, что хочу.
А вот с названиями фильмов и режиссеров, кстати, звучит хайпово. Надо бы попробовать. Сдхл я пробовал, там чуть поближе к тому, что хочу, но ОЧЕНЬ долго генерирует, так что в жопу.
>>521619 Так я знаю, что слишком много хочу. Но не переставать же хотеть из-за этого? Рано или поздно (надеюсь) все ж доведут до ума всю эту хрень.
>>521602 То же самое на сдохлях. 90-ми чуть больше отдает на некоторых. >>521646 70-е нужно чем-нибудь типа sharp focus, ultra detailed подбадривать. И получается весьма даже 70-е. 60-е это уже совсем цвета распидорашеные и фокус хуй знает где из-за проебаных цветов, хотя может это еще и при ремастере их слишком усердно "улучшают".
Посоветуйте каких-нибудь примеров или промптов для подобной фентезийной хуйни, а то мне как-то уже в голову ничего не лезет. Всю магию почти перебрал, нормально только вода и лед получается, огонь хуита.
>>521660 Не накидает. Фотогазм на vhs tape (пик1) таки пытается 90-е сделать, а vhs шума не добавляет. Но вообще epicphotogasm_v4One4All в этом плане лучше Х. >>521667 > 70ые, но с деталями и фокусом Ну он один хуй мылит, но без этого сильнее.
>>521724 Томущо твой прумпт плох. Особенно photorealistic rendering в кассу, ога. Держи: A) Pr: (Cyberpunk), futuristic, neon, urban, dystopian, Neg: medieval, natural, rural B) Pr: neon lights , dystopian city , hackers , by Josan Gonzalez , Simon Stalenhag , Maciej Rebisz , Mike Winkelmann (Beeple) , Darek Zabrocki, Neg: steampunk, natural, rustic C) Pr: cyberpunk, in heavy raining futuristic tokyo, rooftop cyberpunk night, sci-fi, fantasy, intricate, elegant, neon light, highly detailed, soft light, hdri, smooth, sharp focus, illustration, art by tian zi and craig mullins and wlop and alphonse mucha
>>521721 куаркодмонстер (и твой куарпаттерн) очень сильно влияет на изначальную генерацию повысь стартинг степ, снизь эндинг степ 0.25 и 0,85, например и обязательно хайрезфикс, без него совсем плохо всегда текст в картинку вкладывается
>>521738 хм А - первый пик B - второй С - третий (без генативного фильтра) - кажется лучший пока что из всех >>521743 ну а четвертый - вариант С с измененями которые ты сказал. Апскейлер Latent, hires steps 0
>>521717 Пока самая фотореалистичная пикча в треде. Долго подбирал настройки? Я уже забил на все эксперименты, фотореализма не получается, артефактов дохуя
>>521194 >realities-edge-xl На уровне с 1.5 уже или еще ждем?Ч
>>521897 Comfyui. https://github.com/comfyanonymous/ComfyUI На скрине генерация с dpmpp_3m_sde karras и 2х апскейл с dpmpp_2m_sde heun karras с использованием 4x_NMKD-Superscale-SP_178000_G модели для апскейла. Плюс стили, как в автоматике сделанные textConcat нодой.
RuntimeError: Sizes of tensors must match except in dimension 1. Expected size 1 but got size 2 for tensor number 1 in the list.
Из-за чего появляется эта ошибка при генерации ? С подобными ошибками людям советуют подбирать размер изображения, но с ним всё норм. Подскажите, пожалуйста.
>>521640 >А что там за скрипты тогда в директории sgm? Демо-версия ихнего UI, ни на что не годиться, кроме простой генерации.
>Откуда копать информацию по всем этим "сетям" и stable diffusion, чтобы не задавать подобных глупых вопросов? Это тебе не нужно чтобы генерить. Просто ставишь по инструкции от шапки, качаешь модель с civitai.com и нажимаешь Generate, остальное все только больше запутает. Это как если повар начнет изучать химию, вместо того, чтобы начать готовить.
>>521988 >Они сохраняются вообще? Да, в png файлах картинок.
>>522018 Бля, это что, можно по 100 базы в день зарабатывать тупо ставя эмодзи на бесконечные картинки в civitai? Прям вижу как у каждой картинки будет по сто ржесмайликов.
>>522032 С рэферрелами это вообще просто становится
+500 за то, что кто-то зарегистрировал новый аккаунт по твоему реферралу +600 (500 бонус тем, кто регает по твоему коду + 100 за пролайканные пикчи в день) посредством перевода баллов с этого нового аккаунта на основной.
>>522075 Добро пожаловать в февраль 2023 года, когда это фича впервые появилась и никак ни на что не повлияла.
Все равно, кто-то из тех кто скачивает потом сливает в сеть их. Так было несколько тредов назад с Retro Diffusion, за которую автор просил 50 долларов.
>>522094 В некоторых моделях более-менее работает описание лица человека, будет почти один и тот же из раза в раз. В некоторых не работает -- тут поможет лора.
>>522162 Они еще сделали так, что можно у них на сайте публиковать заказы на тренировку лоры, только проблема в том, что они в виртуальных деньгах.
Интересно, как скоро появится черный рынок по обмену баззов на реальные деньги? (конечно как только они пофиксяк баги, которые позволяют фармить их бесконечное количество раз).
>>522409 чел, 10к это создать 10 временных почтовых адресов.
500 базы тому кто выдал рефералку и кто ею воспользовался = 1000 базы плюс 100 базы начисляют за регистрацию и 100 базы за пролайканные 20 картинок = 200 базы
В итоге, 1200 базы с одной фейковой почты (почту можно любую использовать).
кто-нибудь знает способ, который позволит запихнуть одно изображение в другое на место маски? Есть первая пикча - основная с чёрным пятном (маской) и вторая пикча - то, что нужно вписать в маску.
>>522459 Другой вариант, сначала убрал через инпейнт черное пятно. Просто сделал копи паст персонажа в картинку. Прошелся inpaint only masked маской по персонажу чтобы добавить к нему тени.
>>522578 Блет, ну как ты добиваешься такого эффекта-то, ебаный в рот. Я дошел до схожего ДО апскейла, но любой апскейлер убивает его в ноль -> делает слишком четким и убирает всю изюминку.
>>522169 Наконец нормальные андроиды, особенно на 3 пикче. Все это железо без желания сделать очень походим на человека, а чтобы машиной отдавало. Красота
>>522617 > делает слишком четким и убирает всю изюминку Хуй его знает, я наоборот не могу четкости, а главное исправления косяков получить при апскейле. Либо всё смазывает на высоком денойзе, либо оставляет уродства анатомии на низком, либо добавляет новых. Пик 2 - апскейлю моделью и даунскейлю до нужного размера. Пик 1 - собственно хайрезфикс с примерно 0.3-0.4 денойза, точно выставить нельзя, т.к. в SamplerCustom уровень денойза выставляется шагами, как KSampler (Advanced), heun для dpmpp_2m_sde только так можно получить. Заодно немного повышаю CFG, но разницы почти нет. В итоге для последней пикчи 27 шагов генерации на dpmpp_3m_sde exponential и 11 шагов на dpmpp_2m_sde heun karras для апскейла. Ну и модель realvisxlV20_v20Bakedvae очень щедро зерна накидывает, чтобы хоть как-то замаскировать мыльцо и прочую неприятную хуйню.
>>522578 Я зашел в тред и охуел, сначала подумал, что это картинки из какого-то фильма для референса и подгонки под них. Ты пользуешься сугубо Комфи? И что это за модель?
>>522685 > это бд-ремукс старого фильма Не в этом дело, там дикие искажения на всех пиках, тупо дегенеративное месиво, одни деформации, лиц, объектов, всего.
>>522688 >> Это да, согласен. Надо походу ждать ХЛ2, или пусть сообщество дообучит, чтобы этого бодихоррора было меньше, но у меня сложилось впечатление, что из-за тяжести моделей это нахуй некому не нужно. Жалко конечно, что в стейбл внутри самого себя не следит за такими вырвиглазными моментами, которые часто у него всплывают. Я в соседнем треде по Далли3 офигевал от того, что как он аккуратно рисует лица и не дай боже там некая кривость будет. Опен-аи кинули поверх основной модели еще пару тройку чекеров на анатомию и готово. Хочу чтобы так же было в стейбл, пиздец
>>522697 > Надо походу ждать ХЛ2 Хз что надо ждать, в диффузионной сд модели никогда не будет такого понимания промта и точности как в GAN модели DALL-E.
NVIDIA RTX VSR теперь работает на GeForce RTX 20, а расширение TensorRT ускорит Stable Diffusion Новый драйвер GeForce Game Ready 545.84 (WHQL) принёс много нового. Krzysztof Hepner, Unsplash
В новом драйвере GeForce Game Ready 545.84 (WHQL) инженеры NVIDIA не только реализовали поддержку DLSS 3 в предстоящих обновлениях для Naraka: Bladepoint и Warhammer: Vermintide 2, но и внедрили ещё несколько крупных обновлений: для RTX Video Super Resolution (RTX VSR) и Stable Diffusion.
Обновление RTX VSR до версии 1.5 приносит поддержку видеокарт серии GeForce RTX 20 и новые возможности улучшения потокового видео. Пользователи должны заметить повышение уровня детализации, также технологию теперь можно использовать для улучшения качества видео при воспроизведении в исходном разрешении, в частности, для удаления артефактов сжатия.
>>522736 > Чому в наи-треде рвутся Во всех картинко-тредах рвутся от всего, включая периодические подрывы от SDXL ИТТ и даже подрывы от дали в дали-треде. Традиции /ai/.
>>522713 Проверил. Было 47 секунд на картинку+апскейл. Теперь ровно 40. Хуй знает, это апдейт или просто вот так получилось, надо было нормально проверять. мимо3060ти
Вполне умный вопрос экспертам. Знает ли ИИ все изображения которые будут сгенерированны или нет?
если взять базовую теорию то идёт вектор слов + картинка
имеем 600 тысяч английских слов + картинка если перемножить векторы и картинки будет 360000000000 вариантов всевозможных комбинаций векторов и слов. по типу собака + машина = собака с машиной. и тд
Так вот исходников ток 360000000000 дальше идёт мутация. одного из 360000000000 векторов с мутацией по сиду. от 1 до 1000000000
RuntimeError: Failed to import diffusers.pipelines.stable_diffusion.pipeline_stable_diffusion because of the following error (look up to see its traceback): Failed to import diffusers.models.autoencoder_kl because of the following error (look up to see its traceback): import of xformers halted; None in sys.modules
>>522832 >Если сеть решила что у тебя будет блюр Проблема тут не в сети, а в данных. Прекрасно видно по моделям XL на каком типе фотографий её тренировали. Боке и DOF в моде.
>>522840 >чёрный фон ток единсвтенная генерация Хуй. У SD глубина цвета 24 бита, то есть даже с только с одной чёрной пикчей у нас будет несколько миллионов технически разных генераций. Которые будут выглядеть одинаково.
Как же я намучился с установкой. Одну ошибку гуглишь исправляешь, появляется другая. То питон не той версии, то папку создать не может. Ну после пикрелейтед мои полномочия все, это пиздец просто.
>>522757 Изучил, подвязали LLM к нейросетке, работающей на диффузии, у которой просто дохерища больше параметров чем у SD и captioning датасета для тренировки был сделан чем-то вроде прототипного ChatGPT5.
>>522773 >sdxl не запускается стандартно на автоматике и требует 16GB VRAM Попизди мне еще тут, у меня на RTX 3070 с 8ГБ VRAM запускается спокойно (на ComfyUI) и генерит txt2img без хайреза за 30 секунд, а с двойным апскейлом доходит до 2 минут.
>>522785 Потому что SD 1.5 тоже не может в аниме, почти все аниме модели, которыми пользуются в NAI треде ВНЕЗАПНО основаны на слитой NovelAI модели.
>>523019 Кто-то выше писал про tiled апскейл. Теоретически ты можешь сгенерировать там картинку 512х512 (или даже чуть поменьше), а потом пустить туда. Будет тоже долго, но уж точно лучше твоего пикрила.
>>523019 >>523027 А, ну и если ты только начал и до этого не игрался в том же коллабе ни разу, то проверь настройки генерации обязательно. По идее даже с твоим железом вот такого быть прям не должно.
блять как же заебало любой инпеинтинг -> лотерея, сколько бы не игрался с настройками повезет, и все будет заебись, руки встанут, лицо исправится не повезет, и все, сколько ебись - будет одно говно риряяяя
>>522886 > Хуя ты флексишь Та было бы, чем флексить. Просто попробовал, насколько оно лучше 1.5 справляется с неродным разрешением. >>522944 Попробовал. Апскейл в пикселях - пик2. Латент апскейлер xl - пик3. Хуй его знает, может с меньшим денойзом лучше будет, но у него фатальный недостаток - нет более точной настройки уровня апскейла (пик4), ибо 1.5х - слишком дохуя для моей карты.
>>523045 С пальцами нужно контролнет дрочить, я когда-то на 1.5 убил дохерища времени, пытаясь исправить руки. В итоге получилось 4 пальца с неестественно большим расстоянием между ними, но я уже устал к тому моменту и забил хуй.
>>523050 >насколько оно лучше 1.5 справляется Намного лучше. Правда, я на автоматике, лениво дрочить лапшу в комфи.
>>522756 >Не нужен, далле-3 лучше намного Ага... если не учитывать огроменную бочку дегтя в виде собаки
>потому что sdxl не запускается стандартно на автоматике и требует 16GB VRAM следовательно sdxl работает ток у богатых Так запусти с параметром. Яж как-то сделал эти пики на 3060ти
>>523045 лицо на любой модели в инпейнте должно правиться, только главное выбери only masked и обведи только лицо маской с денойзом 0.40 Работает почти всегда.
Для рук есть более гарантированный способ их правильно заинпейнтить с помощью DWpreprocessor в ControlNet, так как он хорошо детектит руки и всегда строит правильный скелет человеческой руки.
>>523083 Ладошку то и нарандомить можно. А вот сложную форму полусжатой кисти, да с каким-нибудь хитровыебанным углом - даже на канни не получается сделать. Особенно если кисть занимает типа 2% от картинки всего. Разрешающей способности не хватает, заливается в кучу. А я наивный думал, что на 4080 с этим лучше будет... Как же я ошибался.
СДХЛ-кадры-из-фильмов-кун, как ты фиксишь лица? Чет совсем хуевит даже при апскейле. Шо я делаю не так? Решил поизвращаться и запустить реалвизхл на своей 3060ти.
>>523060 Так-то да, но лень! Хочется, чтобы махнул кисточкой и все пофиксилось. >>523083 Ну и сюда же тот же ответ.
>>523100 > Реально ли подобное в SD сделать? Легко > Чтобы при этом пальцы не деформировали Так на твоих пиках все пальцы кривые жесть. И само качество пиков убогое. Это с дали походу, он так херово делает.
>>523106 >Особенно если кисть занимает типа 2% от картинки всего. >Разрешающей способности не хватает, заливается в кучу. В чем проблема использовать only masked инпейнт? Он же обработает выделенную маской зону отдельно на том разрешении, которое ты ему задашь.
>даже на канни не получается сделать Нахуя канни если есть специальный контролнет для скелетов рук?
Также, я заметил, что почему-то детекция рук (Detailer/Adetailer) помогает при их инпейнте с подключением DWpose, хотя я раньше думал, что оно только рисует маску по области вокруг руки.
Только что сравнил результат где я наношу маску и использую DWpose, со старым воркфлоу, где у меня детектор рук еще был подключен, разница заметная.
2-ой пик - генерация без инпейнта 3-ий пик - инпейнт с DWpose где я сам нанес маску вокруг рук 4-ый пик - инпейнт с DWpose где я подключил ноду с BBOX детектором на руки (1-ый пик).
>>523130 >only masked инпейнт Ему ж свой промпт нужен. Что в нем писать, чтоб нейронка понимала, что от нее вообще надо? Плюс, если я верно помню, канни и прочие контролнеты все равно с полной картинки свои данные собирают, потом просто только выбранный кусок используют - т.е. входное разрешение не улучшится. >Нахуя канни если есть специальный контролнет для скелетов рук? На моей памяти он работал очень фигово, особенно на аниме-моделях.
Опять же, у тебя комфи, на который я пересаживаться пока не собираюсь.
>>523135 >Эта фигня ставится на автоматик? Оно изначально оттуда https://github.com/Bing-su/adetailer В последней версии контролнета уже сидит препроцессор DWpose, можно его использовать отдельно при инпейнте или лучше все таки вместе с Adetailer-ом.
>>523140 Ну можно увеличить зону инпейнта и повысить денойз, контролнет заставит рисовать руку там, где скелет был определен, но остальное это как выйдет. Но хотя-бы рука будет. Вот к примеру, добавило палец, это уже само себе по чистому инпейнту сложно.
>>523152 >Ему ж свой промпт нужен. Не обязательно, если не используешь денойз выше 0.5. Плюс контролнет заставит в том месте, где он детектнул скелет руки нарисовать руку (только DWpose)
>канни и прочие контролнеты все равно с полной картинки свои данные собирают Канни дает нейросети только вырисованные линии, depth дает только карту глубин, нейронка сама по себе не понимает, с чего они срисованы. А вот в случае с DWpose (для руки) и openpose (для тела и лица), нейронка получает одно - скелет на место которого она должна нарисовать тело или его часть.
>На моей памяти он работал очень фигово, особенно на аниме-моделях. openpose preprocessor просто не работает с кистью и пальцами, вернее он их как-то не воспринимает, а DWpose принимает их в работу.
>>523168 >нейронка сама по себе не понимает, с чего они срисованы Не совсем. Если ты делаешь инпэйнт по всей картинке, и у тебя на месте маски рука - нейронка и будет там руку рисовать, в зависимости от денойза, конечно. >DWpose принимает их в работу. Ладно, попробуем. Только чую я, детект будет поганым (потому что у меня не фотки, а аниме/иллбстрации в основном), всё одно придется референсы где-то брать.
Пока я использую руки из depth library, обводя их в ФШ, и подкрашивая чутка под основной тон кожи, а потом запуская в инпэинт. Работает вообщем-то удовлетворительно, но нестабильно. Некоторые углы и формы отказывается воспринимать напрочь.
>>523246 Любому сэмплеру нужно больше шагов для сходимости при большем cfg. (другое дело что высокий cfg не особо нужен, и даже с хитростями от комфи рано или поздно пережарит, особенно если модель не заточена)
>>523252 >SDE Мне кажется ты слабо понимаешь как это работает. Это семплер, не сходящийся в принципе, нахера ты сравниваешь то что будет тебе каждый раз разную пикчу выдавать? Я вообще без понятия зачем их люди юзают, они тупо делают всё непредсказуемым, невозможно твикать.
>CFG на восьмёрке 80 не хочешь? У комфи есть хак чтобы избежать пережарки, на заточенных моделях даже работает хорошо. вот только нинужно это
>>523253 >нахера ты сравниваешь то что будет тебе каждый раз разную пикчу выдавать? Потому что мне интересны буквально 2-3 семплера, которыми я пользуюсь. Остальное вообще похуй. И вот на этом семплере видно, что 20 мало, а выше 30 смысла не имеет. Тут меня больше напрягает не семплер, а то, что я использовал "реалистик" модель для генерации inc paint. Качество картинки пиздос.
>80 не хочешь? Редко делаю выше 10, а интерфейс не позволяет крутануть выше 30. >У комфи есть хак чтобы избежать пережарки У меня один хуй картинку распидорасит, какие бы умные системы там ни были.
CFG тот же, сид тот же, апскейлера нет. 150 и 100 шагов имеют минимальные отличия. Зато уже на 60 туман превращается в какую-то абстрактную линию и ебёт глаза тайлинг.
>>523946 У меня страннее - встает на нарисованное, даже если сорт оф хуита, а к нейронкам прям очень высокие требования чтобы приподнялся. Подозреваю вина того что генерируют ебучие пинапы в 90% случаев, а сам заебешься высирать что-то осмысленное и при этом дрочить одновременно.