Stable Diffusion тред X+41 ====================================== Предыдущий тред >>389700 (OP)https://arhivach.top/?tags=13840 ------------------------------------------ схожие тематические треды - технотред >>399707 (OP) - NAI-тред (аниме) >>400326 (OP) - утонувший тред в /fur/ https://2ch.hk/fur/res/277400.html ======================== Stable Diffusion (SD) - открытая нейросеть генеративного искусства для создания картинок из текста/исходных картинок, обучения на своих изображениях. Полный функционал в локальной установке и коллабе (см. ниже) Онлайн-генератор от разработчиков SD: https://clipdrop.co/stable-diffusion
📃 Стандартные модели stable diffusion (v1.4 - v2.1) от Stability AI значительно отстают по качеству от кастомных моделей (см. ниже).
🔞 Без цензуры и полный функци_анал: только ПК-версия и Colab =========================================== 🖥УСТАНОВКА НА ПК💻 https://teletype.in/@stablediffusion/PC_install_SD =========================================== ♾️ GoogleColab со StableDiffusion https://teletype.in/@stablediffusion/Colab_StableDiffusion Если нет возможности или желания установить нейросеть на свой ПК. Colab - это виртуальный бесплатный сервер с видеокартой от Гугла. Пользуясь чужим кодом в интернете вы берете на себя все риски, включая возможность утечки информации. Локальная установка проверенного webui = приватность. ========================================== 🎨 ГАЙД ПО СОСТАВЛЕНИЮ ЗАПРОСА, ВСЕ ХУДОЖНИКИ И СТИЛИ https://teletype.in/@stablediffusion/artists_for_prompts
>>405143 > У автоматика ещё память начала течь в последних коммитах. В последнем коммите 570f42a при работе с внешним VAE и без параметра --no-half-vae всё исправлено.
>>405255 На последнем как раз и течёт при включенном кешировании чекпоинтов. Пытается выделить 40 гигов ОЗУ и срёт ошибками в консоль. А без рабочего кэша рефайнер нормально не подтянуть, не будешь же его в диска грузить постоянно.
>>405143 >Слишком мыла много. >>405266 > я прихуел от резкости пикч Блядь далбаёбы,вы что дрочите на то, насколько пик резкий и не мыльный? Вы вообще ебанутые блять? Да вообще поебать, пусть даже в 8K UHD будет картинка, если в ней блять нет содержания, чего-то интересного, а только ебучая унылая однотипная хуета от полторашной модели, это всё равно останется ссаным дерьмищем.
>>405308 >1.5 так же может в такое. Сделал людей с кроличьими еблами вместо антропоморфных зверей в качестве примера, да, понимаю, далбаёбу полторашному разницы нету, он ёбнутый на голову
Вообще не понимаю блять. При общем времени генерации в несколько десятков секунд (а то и пару минут), эти две с половиной секунды погоды не сделают. Или каломатик пытается угодить нищепользователям с 5400rpm HDD?
>>405283 >пусть даже в 8K UHD будет картинка, если в ней блять нет содержания, чего-то интересного Согласен, если кадр скомпанован через жопу, нет динамики, поза - говно, то значение резкости-хуезкости минимально)
>>405392 >пик больше квадрата 1024х1024 А какой смысл, ведь всё равно тебе его допиливать, убирать пальцы, рихтовать кривые глаза и пр. перед тем как проапскейлишь, апскейлеру похуй на размер картинки.
>>405674 Уже вот-вот. Но уже сейчас доподлинно известно, что органический материал для принтера будет стоить дохуя. Поэтому третий пик будет выгоднее первого. У педобиров экономия будет самая большая.
>>406169 Я вот этим сайтом из шапки треда пользуюсь https://replicate.com/stability-ai/stable-diffusion Я хз что делать, это мой первый раз и я вообще не шарю. Написал то что хочу сгенерировать, а там получаются уродки всякие с вывернутыми локтями и кривыми ебальниками.
>>406179 там модель то наверно дефолтная 1.5, конечно ж говно выйдёт попробуй колабы из шапки, с кастомными моделями зы сам на компе генерю хз чё как там сейчас с сайтами
>>406600 >>406611 Охуенно! Спасибо! Первую >>406600 бы в фул хд. Жаль не брюнетка и без копья со щитом, но это я забыл уточнить.Я так понимаю что имя Афина Паллада нейросетке ничего не говорит?
>>406645 >Я так понимаю что имя Афина Паллада нейросетке ничего не говорит? походу да, либо надо как-то по-другому указать, я тупо через переводчик промпт получил
>>406731 Не генерируй на больших разрешениях сразу. Большая часть моделек тренировалась на картинках разрешением 512\768 дальше этого разрешения будешь залезать, она тебе будет пытаться забить их тем, что просил по несколку раз.
Товарищ Хачапурян высрал видево про Комфи УИ в автоматике, но забыл объяснить самую главную вещь - а нахуя оно вообще нужно? Чтобы наебаться на сто дурных и получить тот же результат, что и с тхт2имг? Я своим куцым умишком так и не понял, что интересного с ним сделать можно. Может вы подскажете, Макакяны?
>>406806 Ничего, в Комфи семплинг обоссаный. Даже текущая кривая реализация в автомактике сильно лучше всего пердолинга в Комфи, автоматик ещё и быстрее.
Подскажите\предположите пж что за модель и лоры для такого стиля генераций. Я не про открытый рот, а рендер, цвета кожи (много розового на щеках, веках, сама кожа бледная), рендер волос более общий, с острыми прядями, без явных аниме-бликов в виде букв Н. Чет гуглил нихуя не нашёл, самое похожее Counterfeit, но там и близко таких пикч не получается у меня
>>408045 Надо попробовать, вижу что на нём есть интересные пики в плане цветовых вибраций по сайту что ты скинул. Стабла очень любит пережигать изображения
>>408050 Не, я полазил и нашёл подтверждение тому, что такой стилёк у генераций из Миджорни. Counterfeit кстати на мыльном превью с подобраным промптом делает нечто похоже, но потом нещадно деталит и уходит в пережжёное, а неоновый цветовой акцент чаще всего-внутренняя часть волос.
Макакяны, как в латент коупл две разные лоры к двум разным областям присобачить? У меня чего-то не работает, такое ощущение, что действуют они разом на всю пикчу, да ещё и с урезанным весом
>>408181 Там нечего подбирать, всё что сделано на стейбле в семи-реализме по структуре абсолютно одинаковое. У миджорни другой эффект, потому что там больше упора на живописность изображения, а не на реалистичность сосок кур-гриль. Аниме ебальник плоский и его она худо-бедно делает по разному, а объёмное лицо всегда такое как на всех пиках итт.
>>408354 А должно быть 2girls, 1cup AND 2girls, триггер лоры, brunette, <lora:simonyan:1.0> AND 2girls, триггер лоры, blonde, <lora:skabeeva:1.0> Какие же порашники беспомощные.
>>408507 Возможны варианты. Если на какой-то реалистичной (дефолтной) модельке тренировать будешь, то скорее всего некоторый эффект будет, но удовлетворит ли он тебя - вопрос.
Стоит ли ожидать от него извинений перед комьюнити? Будет ли он это как-то комментировать в своем видео? Он так и будет делать вид что спит или признает что обосрался?
>>408721 > всем насрать А как же социальная справедливость, вот это всё? Нужно срочно организовывать пикеты с плакатами "Пазог" перед посольством Армении.
>>408710 Было еще шикарно, когда академик Хачапуряйнен рассказывал, как при создании LowRa он подвергал сотни тысяч изображений строгому математическому анализу и жесткому отбору.
>>408710 Ничего не будет Когда у этого еблоида нашли бекдор в его васянских программах - он не придумал ничего лучше чем бегать и угрожать всем судами за клевету Так и тут, будет делать вид что ничего не произошло На его подстилок это никак не повлияет, они там настоящие сектанты, им хоть в глаза ссы
>>408834 Блять, как же убого выглядят потуги хуесосов, которые всеми силам пытаются доказать что такие пики >>407771 можно сделать и на сд 1.5. Лоры обученные на пиках от миджорнии, ахахаха, пиздец вы уёбища тупорылые.
Попалась статейка про ресурс https://www.seaart.ai, типа онлайн нейросеть на базе sd, которая ничуть не хуже декстопной версии. У самого слабое железо. Стоит ли карячиться с коллабом или пыхтеть на старом компе, или можно на этом онлайн сервисе пользоваться, на сколько он хорош?
>>409058 Лучше с коллабом заберись попробуй, если имеешь возможность, щас вроде опять народ нашел как пользоваться. Все эти сервисы кормят пользователя непонятно чем. Я даже негативного промпта там не вижу, то есть что-то уже там за тебя введено. Что еще они где ввели, и что не дадут ввести - большой вопрос. Это если ты конечно хочешь мое охуенно важное мнение.
>>409117 Почему без имени? По промпту 2girls, 1cup, <lora:simonyan:1.25>, <lora:skabeeva:1.25> выдает двух симоняноскабеих. А мне нужно шоб по отдельности.
>>409223 >>409244 Но в целом да, в осмысленную композицию СД не может, что-то сложное заебешься рисовать даже со всем инструментарием и инпейнтами, и не факт что в конце концов нарисуешь.
>>409210 Ты же в курсе что снижение уровня обобщения, повышенная конкретизация и буквальное восприятие задачи в высшей степени характерно для олигофренов, шизфреников и эпилептиков? При чем тут ликорисы на цивите, хлебушек ты ебаный?
>>409290 Питуч с пораши, не способный разобраться с тем, как развесить лоры в Latent Couple (хотя ему все расписали), сдристни. Ликбез закончен, класс закрыт.
>>409978 >>408728 >>408420 >>408276 >>408237 Пиздец, как же убого выглядят арт пики с попыткой стилизации на полторашных моделях по сравнению с sdxl. Просто блевотный кал гнилой макаки.
>>410124 Обидеть профессора Макакяна может всякий. Но ты все же аргументируй свое сегодняшнее заявление, чтоб не прослыть голословным пидорасом, как обычно.
>>410172 >нормальных фотореализм моделей с европейками? Потому что на полтарашном кале одно пиздоглазое ебло на все модели , почти год прошёл - ничего не изменилось. Самые страшные, блевотные ёбла кстати на Хачемоделях.
>>410144 >Можно пример? >>410138 >Но ты все же аргументируй свое сегодняшнее заявление Примеры были в прошлых тредах, если вы настолько слепые кретины что не можете отличить нормальную стилизацию арта от кала макаки, то вам никакие примеры с миллионами аргументов и сравнений не помогут - "В стране слепых и одноглазый Король".
>>410238 > одноглазый король вещает из своего мирка, где индус сделал ему охуенную sdxl, которая даже охуеннее охуенной sd2.1, которую инсдус сделал ему ранее Что-то новенькое. Расскажи подробнее, а говорящие пони сейчас с тобой в одной комнате?
>>410669 Не ну это понятно, просто меня интересует насколько здесь задействован человек. Сколько работы в процентах тут сделал именно ИИ? Вот эти вот тени, все.
>>410669 > Этим надо заниматься лет 20 На SDXL это за пару минут можно элементарно сделать, только лучше. Примеров не будет ибо вы все лохи и не заслужили.
>>410661 >как такого реализма Вы чё ебанулись совсем дауны блять? Это типикал пик, cgi 3render бабы, тупо апскейленый, при этом достаточно криво. Какой тут нахуй реализм? Или тут в треде одни новокеки позорные которые не видели пиков с типикал реалистик 1.5 моделей?
Ну, действительно реалистик может делать эпик реал эво 3, или как его там... хотя нах этот реалистик нужон, вон в окне ваш реалистик энтот, посмотрите, сходите, траву потрогайте...
А это хорошая CGI модель - DreamShaper / NeverEnding Dream / CyberRealistic / majicMIX realistic
>>410748 я хз что это. в наборе стандартных фильтров моего фотошопа такой штуки даже нет. сатурации слегка добавил канеш и резкости, а так больше ничего
giger cute woman in a cocoon, translucent in the forest, a thick cocoon. from roots and arteries. . and transparent roots. there are a lot , pizzas and hamburgers in the cocoon. cocoon thick layer of glass. orange roots and arteries. many big butterflies. capsule and cocoon are autonomous life technologies. giger
Раздевать тянок — это, конечно, весело, но какую модель лучше юзануть, чтобы прикрутить на свою фотку сиськи, женственное ебало и подрочить на себя в бабском обличии?
>>411518 У ботодрочеров. >>411701 Да ты заебал, это постная неинтересная хуйня, какой кокон, какие гамбургеры, какое стекло, кому не похуй . Маппет монстров делай в плюшевом мире с плюшевом гуро.
>>412534 Естественно, у тебя Лора запекалась на условных 512, с ебальником в 300-400 пикселей, а теперь ебальник занимает в 10 раз меньше . Хайрезь хуле, прогоняй через и́2и с генерацией только выделенного ,
>>412226 любую, главное плагин тайлед диффузион, в нём нойз инверсион, денойзинг ставишь 0.7 - 0.8, количество шагов 60-80, количество шагов нойз инверсии - от четверти до половины шагов семплирования
>>412534 >лайфхаками таки заставляешь ег ов полный рост генерить Дожили, fullbody shoot, standing в промпте уже лайфхаками считается. Лору на чем тренил, лайфхокер мамкин?
>>412777 Попробуй лору перетренить на ванильной полторашке, снизив нет дим и альфу до 64, и подняв количество проходов до 3000 в целом, по 200 на фотку. Ну и в промпте не забывай про фуллбади+поза уточнять, чай не сдхл, чтоб за тебя все додумывать.
>>412821 Ну ок. переименовал папку на 200_ Запустил с такими сетингами Модель дефолтная, что с автоматиком шла /Stable-diffusion/v1-5-pruned-emaonly.safetensors
>>412885 Тогда я сделал все что мог, у меня на подобных настройках нормально отрабатывает. Но у меня и датасеты по 25-30 пикч с разным размером обычно.
>>412913 Вот что ещё, я хайрезфикс через хачпурянский апскейлер на 8-10 шагов с денойзом 0.2 делаю. И столько стилей в промпт не накидываю, артстейшен, рендер, мастерпися и вот это вот все.
>>413392 нет, с выходом ртх 5ххх серии скачок терафлопсов и размеров памяти даст реалтайм замену через вебкамеру жирного прыщавого задрота на юную голенькую тян. задроты, начинайте копить на ртх 5090, будете разводить носатых мачо на бабки
>>412309 >откладывается. Через 2 часа будет официальное объявление в дискорде, может выпустят, а может и нет. Но по тем результатам тестовых моделей в дискорде для выпуска релизной 1.0 версии никаких заметных улучшений нету абсолютно.
Аноны, помогите! Удалил несколько программ через прогу Reg Organizer с "чисткой следов". После этого при запуске webui user.bat появилась ошибка: py torch can not connect with GPU и Stable Diffusion не запускалась. Сделал восстановление системы, точка восстановления каким то чудом была только одна на 16:50 сегодня, откуда она взялась я в душе не ебу, кроме неё не было ничего. Восстановился - вроде все норм, работает. Но теперь заметил следующее в консоли:
A matching Triton is not available, some optimizations will not be enabled. Error caught was: No module named 'triton' D:\ai\stable-diffusion-webui\venv\lib\site-packages\pytorch_lightning\utilities\distributed.py:258: LightningDeprecationWarning: `pytorch_lightning.utilities.distributed.rank_zero_only` has been deprecated in v1.8.1 and will be removed in v2.0.0. You can import it from `pytorch_lightning.utilities` instead. rank_zero_deprecation( Model loaded in 5.4s (load weights from disk: 0.5s, create model: 0.6s, apply weights to model: 2.5s, apply half(): 0.5s, move model to device: 1.0s, calculate empty prompt: 0.1s). D:\ai\stable-diffusion-webui\venv\lib\site-packages\torchvision\transforms\functional_tensor.py:5: UserWarning: The torchvision.transforms.functional_tensor module is deprecated in 0.15 and will be removed in 0.17. Please don't rely on it. You probably just need to use APIs in torchvision.transforms.functional or in torchvision.transforms.v2.functional. warnings.warn(
Что это за хуйня разъясните пожалуйста.Что за Тритон? Что за ошибки с Pytorch? Что это все блядь? Я знаю тут есть знатоки, а я на уровне хлебушка в этих вопросах.
Fetching updates for midas... Checking out commit for midas with hash: 1645b7e...
Launching Web UI with arguments: --theme dark --force-enable-xformers --xformers 2023-07-18 20:13:02,330 - ControlNet - INFO - ControlNet v1.1.233 ControlNet preprocessor location: D:\ai\stable-diffusion-webui\extensions\sd-webui-controlnet\annotator\downloads 2023-07-18 20:13:02,431 - ControlNet - INFO - ControlNet v1.1.233 Loading weights [853e7e85c4] from D:\ai\stable-diffusion-webui\models\Stable-diffusion\dreamshaper_631BakedVae.safetensors Creating model from config: D:\ai\stable-diffusion-webui\configs\v1-inference.yaml LatentDiffusion: Running in eps-prediction mode DiffusionWrapper has 859.52 M params. Running on local URL: http://127.0.0.1:7860
To create a public link, set `share=True` in `launch()`. Startup time: 9.3s (import torch: 2.2s, import gradio: 0.9s, import ldm: 0.7s, other imports: 1.9s, setup codeformer: 0.1s, list SD models: 0.1s, load scripts: 2.3s, create ui: 0.9s, gradio launch: 0.2s). preload_extensions_git_metadata for 16 extensions took 1.17s Applying attention optimization: xformers... done. Textual inversion embeddings loaded(2): BadDream, UnrealisticDream A matching Triton is not available, some optimizations will not be enabled. Error caught was: No module named 'triton' D:\ai\stable-diffusion-webui\venv\lib\site-packages\pytorch_lightning\utilities\distributed.py:258: LightningDeprecationWarning: `pytorch_lightning.utilities.distributed.rank_zero_only` has been deprecated in v1.8.1 and will be removed in v2.0.0. You can import it from `pytorch_lightning.utilities` instead. rank_zero_deprecation( Model loaded in 5.4s (load weights from disk: 0.5s, create model: 0.6s, apply weights to model: 2.5s, apply half(): 0.5s, move model to device: 1.0s, calculate empty prompt: 0.1s). D:\ai\stable-diffusion-webui\venv\lib\site-packages\torchvision\transforms\functional_tensor.py:5: UserWarning: The torchvision.transforms.functional_tensor module is deprecated in 0.15 and will be removed in 0.17. Please don't rely on it. You probably just need to use APIs in torchvision.transforms.functional or in torchvision.transforms.v2.functional. warnings.warn( Total VRAM 10240 MB, total RAM 16309 MB xformers version: 0.0.20 Set vram state to: NORMAL_VRAM Device: cuda:0 NVIDIA GeForce RTX 3080 Using xformers cross attention [sd-webui-comfyui] Launching ComfyUI with arguments: --listen 127.0.0.1 --port 8188
Import times for custom nodes: 0.0 seconds: D:\ai\stable-diffusion-webui\extensions\sd-webui-comfyui\comfyui_custom_nodes\webui_save_image.py 0.0 seconds: D:\ai\stable-diffusion-webui\extensions\sd-webui-comfyui\comfyui_custom_nodes\webui_checkpoint_loader.py
>>413613 Чел да я хуй его знает. Я все ставил по гайду в шапке, а xformers просто прописал аргументы в батник и он автоматически их скачал. В консоли написано xformers version: 0.0.20. Torch: 2.0.1+cu118 в веб интерфейсе написано.
>>413508 > Сиськи надо ей побольше и подлиньше запилить, такие, как баклажаны...продолговатые...но крупные и не совсем обвисшие Вот это, кстати, вообще моя личная боль на всех моделях. Они не умеют в приличные натуральные sagging tits (либо я не знаю нужный промт, хотя переписал весь оскфордский словарь) Получается либо силиконовые шарики, либо просто подтянутые молоденькие. Такие чтоб рожавшей, кормящей матери - нихуя.
>>412843 Поменяй AdamW8bit на просто AdamW, проверь ещё раз датасет, если не все пикчи квадратные - включи buckets. 200 шагов на фотку - овердохуя, больше ста и то уже много зачастую.
Про цензуру в SDXL: honestly the "censorship" thing and outrage around that seemed big but was limited. There's like hundreds of millions that have used this tech but a small vocal few complained I think its the right thing to do to make the base as accessibel as possible and to mitigate harms its innovation with integrity but others are free to do as they like again we decided as a team to take our stance and we stick with it
>>414030 >На неделю Да хоть на год, нет смысла ждать уже, по тем результатам которые в дсе, якобы "улучшенной версии", всё стало ещё хуже чем в 0.9, анатомия ещё более кривая, длинные шеи, кривые руки, ещё больше мыла , по ходу они решили слить самую убогую версию для сообщества, а для коммерческих целей нормальную, которая была в самом начале открытия дс бота, оставить в привате. Опять индус наебал всех, всё тоже самое как и с 2.0-2.1
Посмотрел дискорд дифужона, за что там народ голосует и генерит. По ходу к релизу так и не уберут мыло ебаное. Лорами не лечится, но можно делать пластиковые бимбоунитазы.
>>414676 Хотя нет, там было 5 миллиардов картинок.
>375 терабайт могут себе позволить
>Преемник более чем 5 миллиардов пар, LAION-5B, был выпущен в марте 2022 года. На момент его выпуска это был самый большой из существующих свободно доступных наборов данных пар изображений и подписей[6]. Его создание было профинансировано Doodlebot, Hugging Face и Stability AI, компанией, занимающейся искусственным интеллектом, стоящей за финансированием модели преобразования текста в изображение Stable Diffusion, которая была обучена на нем[11].
>>414633 Тебе и не потребуется 3 млрд картинок, что бы генерить что то годное. Потому что тебе же надо что то конкретное генерить, а не все подряд. Допустим ты больной ублюдок - фанат БМВ. Ты надрачиваешь нейросеть на фотках БМВ.
Скормил дохуя фото бмв. И теперь их охуенно ненеришь.
>>414849 Понять бы принципи описания и все. Можно нанять людей и они тебе будут в день по много описаний строчить. Хотя ставлю анус все это описание делалось программно.
>>414816 >Ты надрачиваешь нейросеть на фотках БМВ. То есть для любой вещи которую мне захочется сгенерить надо будет насобирать пачку рефов и запустить обучение. Гениальный план, надежный как швейцарские часы.
>>414909 >Какой сейчас положняк по моделям? Для каких задач?
>>414979 Мыло только в конкретных промптах (ждем лоры и ембеддинги против блюра), анальной цензуры не увидел вообще.
>>415022 >То есть для любой вещи которую мне захочется сгенерить надо будет насобирать пачку рефов и запустить обучение. >Гениальный план, надежный как швейцарские часы. Да, пиздец, ведь на это придется аж 20 минут потратить. Не, хуйня, лучше нафотобашить за час или нарисовать с нуля за пару дней.
>>414986 >толстоту А это не толстота чукча, это реальные факты. Вот тебе ещё факт, а то сидишь в своём манямирке. На 1.5 нельзя сделать естественное лицо европейской бабы, максимум пик-ебло с натянутой cgi текстурой кожи на череп, с отсутствующим взглядом и абсолютно несоответствующей выражению лица мимике.
>>415033 >Да, пиздец, ведь на это придется аж 20 минут потратить. Научи находить все нужные рефы, описывать их и тренировать модель за 20 минут а то я чет не научился. Особенно для тех случаев когда рефов почти нет или они не то.
>>415034 >Сиськи и пизду сгенерируй с хуем в ней А ты попробуй их же в 1.5 сделать
>>415097 Да там без разницы, хоть один сид, хоть рандом. Sdxl в широкоформате на любых промтах персонажа практически не даблебалит, не вытягивает шею, тело, не портит анатомию как полтораха, для которой предел это 512x768,а если увеличивать разрешение, то приходится уже ебаться с промтами, клоузапами, подымать веса. В этом плане sdxl максимально понятна, не требует тупорылых полторашных промтов с десятками токенов через запятую, и на каждом веса накинуты, чтобы получить хоть что-то на выходе.
>>415055 >как же хочется тебе глаза выдавить, а потом насадить хуем твой беззубый рот и кончить в твою глотку, извращуга ебаный. Трогал себя когда это писал?
>>415033 >То есть для любой вещи которую мне захочется сгенерить надо будет насобирать пачку рефов и запустить обучение. Да, что бы получить годный результат. Почему мы бы нет? Вот мне надо генерить БМВ, мне твои Кошко-девочки не нужны. Мне надо качественные БМВ, а не с кривыми колесами и проебаной перспективой, потому чт ореыеренсов было 2.5 шт. Алсо БМВ условно
>>415103 >Особенно для тех случаев когда рефов почти нет или они не то. С хуяли? Открываю гугл и качаю миллион рефов, или ебусь и создаю их на говно модели и пилю напильником.
>>415103 >Научи находить все нужные рефы, описывать их и тренировать модель за 20 минут а то я чет не научился. Хуйдожники уже имеют, а ты идешь нахуй. Об тебя хуй бцудет каждая рисобака вытирать, она то рефы умеет искать. Соси, нейропидор, это было закономерно.
>Особенно для тех случаев когда рефов почти нет или они не то. Мозгов у тебя нет.
>А ты попробуй их же в 1.5 сделать Генерирую регулярно с февраля.
>>415186 Ты сравниваешь дотренерованные версии полторахи с стоковой xl. Да, может полтораха сейчас и выглядит привлекательнее. Но это её предел. Лучше она не станет. У Sdxl напротив, всё впереди. Корректней сравнить её со стоковой сентябрьской полторахой.
>>415119 Не хоть что-то, а что-то конкретное. И 0.9 по композиции из хуже 1.5, пускай ебальники не режет и ноги не вытягивает, но 80% пиков которые лично я генерировал были с ебаной и наискучнейшей центральной композицией, где фигура просто по середине. Ну и ебейшее мыло, как по текстурам, так и по планам. Плюс без рефайнера он почти бесполезен.
В общем ваниль это просто ебаная монструозная хуита, база для дальнейших файнтюнов
Блет, я какой-то одаренный альтернативно, или это все же реальность датасетов. Пытаюсь сгенерировать бабу в сарафане под дождем без зонта, и нихера у меня не получается, даже с толстенным амбрелой в негативе. Ни на какой из реалистичных моделей. Попробуйте кому не влом?
>>415251 >И 0.9 по композиции из хуже 1.5 Пиздец, что за хуйню я щас прочитал, на 1.5 композиция либо портрет-ебло бабы либо тело бабы обрезанное по колени - всё. >Ну и ебейшее мыло, как по текстурам, так и по планам Мыло только на бабах, в общем очередной полторашный сектант высрал хуйню. Не вижу смысла аутисту что-то доказывать дальше.
>>415240 git pull git switch dev Закинуть модели в папку models/Stable-diffusion в webui-user.bat добавить аргументы --medvram --xformers --no-half-vae генеировать
>>415337 Вот кстати наглядный пример убожества полторахи по сравнению с sdxl Абсолютная невозможность отрисовки бабы под дождём, как и собственно дождя
>>415353 Да, именно про это я и писал, что даже с амбрелой с большим весом в негативе, баба в сарафане кладет на меня зонт в любой из моих реалистичных моделек.
Вот про это я писал выше, что бы натренировать модель. Вот надо мне девушку в сарафане без дождя. Тематика у меня фотосессий такая. А ваши говно модели в которых есть все, они не могут в это. Надо точно надрчоеннве модели под каждый пук, я готов ради этого сервак в аренду брать, что бы там обучать их.
>>415409 У него и дождя в промпте нет, он его с помощью мокрых волос получил походу. И сарафана тоже. Так что, строго говоря, эксперимент не соответствует условиям.
> >>415487 Охлаждение и ценник. Я бы 3090 ти лучше бы взял, чуть медленнее, но есть уже отзывы, а значит подвоху меньше можно ожидать, и 24 Гб на случай, если через полгода-год выкатят новый чупер-пупер требовательный алгоритм и модели. ы
>>415487 сейм, хочу взять 4090, или вообще дождаться 4090 TI Но я макаеб, все надеюсь, что coreml оптимизируют и прикрутят к автоматику. Генрею с мака в автоматике
Анон, как у тебя с производительностью в конфи юа? Быстрее/медленнее/так же? На сколько быстрее/медленнее?
У меня генерит шум и медленнее в 2.5 раза. Алсо можно как ни будь настроить последовательность действий в автоматике? Не в конфиЮА.
Пример 1) генерит картинку 2) заменяет лицо через руп 3) апскейлит с контрл нетом 4) проходится по лицу адетайлером Опционально 6) ещё раз проходится апскейлом с контрл нетом
Поверхностное знакомство с конфиЮА дало понимание, что там так можно, но тк у меня не работает амд мак я забил на него и не стал строить эти цепочки.
>>416112 >гений Не просто нений, а гений промта, это кодзима просто гений)
Кстати, сегодня в дискорд полез, оказывается я на хача был подписан ещё хуй знает когда, когда только начался движ, и с тех пор не открывал эту залупу. А тут чёта полез, и смотрю у меня какого-то хуя все разделы закрыты, и для "общения" нужно зарегать телефон!!!
>>416166 Latent — апскейл в латентном пространстве с билинейной интерполяцией, без антиалиасинга. Latent (antialiased) — апскейл в латентном пространстве с билинейной интерполяцией, с антиалиасингом. Latent (bicubic) — апскейл в латентном пространстве с бикубической интерполяцией, без антиалиасинга. Latent (bicubic antialiased) — апскейл в латентном пространстве с бикубической интерполяцией, с антиалиасингом. Latent (nearest) — апскейл в латентном пространстве с интерполяцией методом ближайшего соседа. Latent (nearest-exact) — апскейл в латентном пространстве с интерполяцией методом ближайшего соседа. Усовершенствованный алгоритм, который лучше работает, если кратность апскейла не целочисленная. Lanczos — апскейл в пиксельном пространстве с использованием фильтра Ланцоша. Nearest — апскейл в пиксельном пространстве с интерполяцией методом ближайшего соседа. None — апскейл в пиксельном пространстве с билинейной интерполяцией, без антиалиасинга.
Апскейл в латентном пространстве происходит до передачи весов в декодер VAE. Рекомендуемый денойз от 0.5 до 0.7. Добавляет детали на изображении. При слишком высоком денойзе пидорасит картинку. Апскейл в пиксельном пространстве происходит после выхода готового изображения из декодера VAE. Все ESRGAN и прочие AI-апскейлеры (Swin, LDSR, ScuNET) работают в пиксельном пространстве.
>>416303 >словил 18+ Ну, так не удивительно, там есть раздел с NSFW, и был там всегда, с самого начала. А у всех-ли +18 авторизация только через тлф, или это ноу-хау хачёвских админов?
>>415479 Первый тест файнтюнинга sdxl как универсальной модели( а не онимэдрочева) https://civitai.com/models/111846?modelVersionId=120703 , делал известный файнтюнер 2.1 моделей, когда еще 0.9 не была в паблике 700 000 steps, удалось добиться лишь небольших изменений, в процессе выяснилось что sdxl очень тяжело поддаётся тюнингу и требует более миллиона steps.
"Я не вижу необходимости в тщательной настройке базовой модели, которая уже хороша. Лора работает и работает очень хорошо, гораздо проще обучить LORAs, чем тренировать тонкую настройку, учитывая необходимую машину + качество, которое выходит в LORAs."
>>416304 Спасибо за развернутый ответ. Хотя все ещё дохуя непонятного. Например какой из латентов лучше и ли каждый применяется в особом случае при определенных условиях? Если есть какой-то гайд или ликбез по теме апскейлеров информативный и ты можешь им поделиться - буду очень благодарен. У меня сейчас проблема с мутированием рук и пальцев при апскейле, даже на низких денойзах, хотя кидаю изображение в tile resampler в ControlNet - один хуй сращивает. Хотя возможно это из-за моего стиля и то что бывает руки в тени. Вот например пикрилы - при апскейле правая рука срослась с камнем. Вот как блядь это фиксить? Через Openpose пальцы рисовать? Или ещё как? У меня основная проблема с ебаной мутацией конечностей - если кто знает как решить - буду чрезвычайно благодарен.
>известный файнтюнер 2.1 моделей Математически выверенный яжпрограммист, только для 2.1?
Кстати, лорами нихуя мыло не уходит, но внезапно становится гораздо лучше, если исходники были сняты на древние цифромыльницы, возможно как раз из-за шума и всякого артефактного говна, завтра попробую наложить шума и зашакалить в джипег заведомо хорошие изображения.
>>416651 Может, тренируется всё, ничего не зацензурено.
>>418027 персонаж>действия>стиль У меня такая привычка. Если стиль важнее, то ставлю впереди.То есть I > Film grain, black and white, 1860's, thick milf woman, long wavy hair, fancy dress, on all fours, blowjob, sideview, cum on face, nsfw
есть у меня знакомая с большими сисяндрами, которые прям большие, 7 размер вроде, причём она носит спец обтягивающие топики чтобы не выделяться,а голышом там реально ппц. в общем запилил я лору с её фоток в одежде и сука оно голую выдаёт очень похоже в 80% случаев. как? как нейросеть узнала какие именно сиськи под одеждой? да и других проверял тоже довольно точно выдаёт. видимо по каким-то своим критериям определяет вид сисек. по форме рожи штоле?
>>418807 скинул бы, да search4faces быстро деанонимизирует и количество присланных ей дикпиков увеличится в сотни раз :D скоро нейросети и размер члена по фотке вычислять смогут
>>418826 >присланных ей дикпиков Ты в /ai или где? Мысли глобальнее! Количество присланных ее семье друзьям фоток, где ее семеро негров ебу, увеличится.
Аноны, переключился вроде на дев ветку автоматика, пытаюсь загрузить модель, а мне пикрил >>Loading weights [1f69731261] from X:\SD\stable-diffusion-webui\models\Stable-diffusion\sd_xl_base_0.9.safetensors >Creating model from config: X:\SD\stable-diffusion-webui\repositories\generative-models\configs\inference\sd_xl_base.yaml >Failed to create model quickly; will retry using slow method. >changing setting sd_model_checkpoint to sd_xl_base_0.9.safetensors [1f69731261]: RuntimeError >Traceback (most recent call last): > File "X:\SD\stable-diffusion-webui\modules\shared.py", line 631, in set > self.data_labels[key].onchange() > File "X:\SD\stable-diffusion-webui\modules\call_queue.py", line 14, in f > res = func(args, kwargs) > File "X:\SD\stable-diffusion-webui\webui.py", line 238, in <lambda> > shared.opts.onchange("sd_model_checkpoint", wrap_queued_call(lambda: modules.sd_models.reload_model_weights()), call=False) > File "X:\SD\stable-diffusion-webui\modules\sd_models.py", line 578, in reload_model_weights > load_model(checkpoint_info, already_loaded_state_dict=state_dict) > File "X:\SD\stable-diffusion-webui\modules\sd_models.py", line 504, in load_model > sd_model = instantiate_from_config(sd_config.model) > File "X:\SD\stable-diffusion-webui\repositories\stable-diffusion-stability-ai\ldm\util.py", line 89, in instantiate_from_config > return get_obj_from_str(config["target"])(config.get("params", dict())) > File "X:\SD\stable-diffusion-webui\repositories\generative-models\sgm\models\diffusion.py", line 50, in __init__ > model = instantiate_from_config(network_config) > File "X:\SD\stable-diffusion-webui\repositories\generative-models\sgm\util.py", line 175, in instantiate_from_config > return get_obj_from_str(config["target"])(config.get("params", dict())) > File "X:\SD\stable-diffusion-webui\repositories\generative-models\sgm\modules\diffusionmodules\openaimodel.py", line 857, in __init__ > ResBlock( > File "X:\SD\stable-diffusion-webui\repositories\generative-models\sgm\modules\diffusionmodules\openaimodel.py", line 254, in __init__ > conv_nd(dims, channels, self.out_channels, kernel_size, padding=padding), > File "X:\SD\stable-diffusion-webui\repositories\generative-models\sgm\modules\diffusionmodules\util.py", line 285, in conv_nd > return nn.Conv2d(args, kwargs) > File "X:\SD\stable-diffusion-webui\venv\lib\site-packages\torch\nn\modules\conv.py", line 450, in __init__ > super().__init__( > File "X:\SD\stable-diffusion-webui\venv\lib\site-packages\torch\nn\modules\conv.py", line 137, in __init__ > self.weight = Parameter(torch.empty( >RuntimeError: [enforce fail at ..\c10\core\impl\alloc_cpu.cpp:72] data. DefaultCPUAllocator: not enough memory: you tried to allocate 117964800 bytes.
Комфи загружал нормально, притом не только модель, но и рефайнер. Есть способы пофиксить?
>>419698 >RuntimeError: [enforce fail at ..\c10\core\impl\alloc_cpu.cpp:72] data. DefaultCPUAllocator: not enough memory: you tried to allocate 117964800 bytes.
Делаю на какой-то затычке, 1050 или типа того. Естественно, разрешение уровня 500*500 и ждать по минуте на картинку. Я что-то еще теряю, кроме разрешения и скорости?
>>419876 Не, я тестировал на других цп, и прирост действительно есть, может чистый код на С++ и зависит только от карты, но что-то там автоматик на цп всё ещё обрабатывает. i5-3470-кун
Есть тут кто с видеокартой амд с линукса? У вас Hires fix нормально работает? Изображение 512x1024, dpm++ 2m karras, 30 шагов сгенерилось секунд за 10. А Hires fix, апскейл x2 работал больше трех минут. Сталкивался кто с таким? Видеокарта rx 6700 xt.
Привет нейроаноны! Молю о вашей мудрости. Подскажите пожалуйста нейронку и промпт, которой на вход можно подать любое изображение, а на выходе будет изображение, стилизованное под комиксы или хотя бы под мультфильмы. Отдельно здорово будет, если эта нейронка уже доступна в паблике на Replicate или есть какое то другое публичное бесплатное API. Но если ничего подобного нет, то можно и просто ссылку на веса и промпт. Заранее благодарю
>>422151 Ты хочешь дословно повторить картинку при этом превратив ее в мультфильм? Скорее всего никак. Если хочешь повторить общую композицию, то можно взять любую "2д" модельку, лору на мультфильм прикрутить к ней посильнее вес дав и с исходной картинкой в контролнете пробовать. Это вот тайловый контрлнет был, посильнее и послабже. https://civitai.com/models/13159
>>422219 Спасибо, выглядит как то, что мне нужно А где то можно попробовать именно эту лору с контрл нетом, без необходимости сначала поднимать на своём пека что то? Я загружал какие то дообученые стейбл диффюжены на Репликейт, и он для этого требовал какую ту утилиту, которая собирала докер контейнер, и которая работала только на линуксе Тут я смотрю есть какая то кнопка рана на других сервесах, но на том же Тензоре чот только текс ту имидж
>>422572 > А где то можно попробовать именно эту лору с контрл нетом, без необходимости сначала поднимать на своём пека что то? Разобраться с гугл-коллабом? Там вроде полный функционал автоматика доступен. Но сам я не пробовал, так что хз. Олсо, там выше тебе сервисы всякие советовали, которые перерисовывают картинки с заданым стилем, вроде https://deepdreamgenerator.com
>>422482 Картунайзер хрень какая то, судя по всему, у него нет API, и требует 8 баксов в месяц Но за само слово Cartoonizer - спасибо, по нему выпало куча примеров на пайтоне с разработкой своего картуназейра, пусть качество конечно и не такое крутое, как с контрел нетом. Но сейчас мне и это пойдёт. Когда сам пытался подобное нагуглить, мне какую то нерелевантную хрень кидало
>>422585 С колаба на реплекейт вроде модельку не зальёш, потому что как раз репликейту нужно, чтоб она была в докер обёрнута >Олсо, там выше тебе сервисы всякие советовали, которые перерисовывают картинки с заданым стилем, вроде https://deepdreamgenerator.com Да, я пытался найти подобное сервисы, но мне какуют хрень выдавало, до того как анон выше написал слово "Cartoonizer". Но мне нужно чтоб ещё у сервиса было API, потому что мне нужно автоматизировать процесс по картунизации картинок
Здравствуйте, поясните пожалуйста за версии, постоянно вижу срач здесь по этому поводу, вкатился недавно, установил то, на что гайд в шапке указывает, это 1.4 вроде да? Сильно ли выше требования других версий 1.5 там, или вот SDXL на который тут так дрочат, сильно пизже нужно железо? Бич с 8гб
>>422633 Есть три стула поколения моделей: SD1.4/SD1.5 и все производные от них. 99.9% пикч, которые ты увидишь в этих и прочих тредах сгенерированы на этом поколении. SD2.0/2.1 — зацензуренное мыльное говно, которым кроме пары шизоидов никто не пользуется. SDXL — официально ещё не вышла. Пока доступна только бета версия 0.9. Скорее всего повторит судьбу второго поколения.
Если у тебя видимокарта от Невидии начиная от 20хх линейки (или хотя бы 16хх) с памятью от 8 Гб и больше, то без проблем заработают любые поколения моделей. Правда, для нормальной работы SDXL еще желательно иметь не менее 32Гб оперативки.
>>423301 Не могу понять, почему нейросеточная крипота вызывает зловещую долину? Хорроры с компьютерными и резиновыми чудовищами такого впечатления не оставляют.
>>423377 > зловещую долину Ты точно это имел в виду? > резиновыми чудовищами Они по определению вызывать uncanny valley не могут, т.к. либо слишком сильно заметна резина, либо чудовище изначально задумывалось не похожим на человека. > компьютерными В большинстве случаев отдел спецэффектов, как раз старается избежать такой хуйни, но не у всех получается (диснеевские звездные войны с Леей и Таркиным).
>>423668 Смысл SD XL в том, что его кастомки уже смогут обогнать Midjourney. Через полгода уже выйдет самый мердж всех кастомок от какого-нибудь Хача хуя на civitai и миджорнисвиньи соснут.
Кстати, походу reimagine так и ненужная хуйня полная, понятно почему Мастак думает без него SD XL 1.0 выпустить.
>>423695 К тому времени пользовательская база Мажорни уже успеет пересесть на кастомки SD XL и им ничего другого не останется как закрыть свой проект и слить свою модель в сеть.
Кстати, мочежорни уже умеет в корявый текст как SD XL или еще нет?
>>423704 Пользовательская база мж, это нормисы, которые хотят ввести два слова и нажать кнопотьку и шоб красиво. Какие-то автоматики ставить они не будут, дискорд уже стресс. Мж никуда не денется, я считаю. А разрабы там рукастые, прилепят сдхл. Но в текст вроде не очень умеет, я не пробовал
>>423711 > это нормисы Хуёрмисы, блядь. Нормисам интересны Акция на Пенное 3 по цене 2 и Скидка на пенки от Бабы Сраки рядом с вашим домом , а никак не не медведь в костюме космонавта или пакеты в форме людей в шортах.
>>423769 Он дебил, начнем с этого. > от профессии в сфере дизайна/издательства/etc И что инновационного тут может предложить нейросетка? Все шаблоны еще в начале ХХ века посчитаны и расписаны (типа как пиздато заверстать статью на 3 страницы с иллюстрациями, и там все поля и допуски уже есть, до 1/10- доли дюйма), нейросеть именно по ним и пытается чего-то делать. Пока нейросеть ничего предложить не может, кроме Гарри Поттер в Польше 1939 года, чисто развлекушка для быдла.
>>423791 Этот дебил, как ты говоришь, использует их и в работе, уменьшая потраченное время и улучшая результат. Вот казалось бы да, что может быть проще, чем поменять костюм человеку в фш? А вот нет, едва у тебя нестандартная поза и ракурс, свет и качество, ты день потратишь на фотобашинг, и то выйдет говно. А теперь я сделаю так, словно так изначально фото и было. Это охуеть какая инновационная херня. В подигоафии – да сколько угодно, любой лайнарт и лого, потом трассируешь в вектор и дорабатываешь, экономия на два порядка. Вы просто не умеете эти нейронки готовить
>>423871 > В подигоафии Причина тряски? Давай еще разок - никому en masse неинтересно покупать топовую ласт-ген видюху и загружать 20 ТБ моделей, чтобы получить на выходе с 300 попыток хуитку 1024х1024 72dpi, с которой еще пол-дня ебаться руками. Этот пердолинг вообще никому не уперся, нужно Загрузи свое фото с телефона и получи прикольный аватар в стиле Пиксар/Дисней/онеме И вот тот чувак, который заставит нейронки не заниматься хуйней, а реально отслеживать те же Акция на Пенное 3 по цене 2 и Скидка на пенки от Бабы Сраки с уведомлением на мобильник, будет на коне.
>>423885 >причина тряски Кнопотьки маленькие. Я реально одно из трëх слов переписываю, словно первый месяц смартфоном пользуюсь.
Та я с этим не спорю. Но и мои слова это не отменяет. Впрочем, серьëзные "на коне" нейронки используются везде, от датасотонистов до ебучих спамеров в комментах к постам
>>423943 Только вот ты мальца оторван от реальности. Никому в рекламе и полиграфии в городе с населением меньше миллионника в средней полосе РФ (и любой другой страны, впрочем) абсолютно неинтересно ЧУЧЕЛО ИЗ ПАКЕТОВ С ПРОЗРАЧНОЙ ГОЛОВОЙ ВЕРХОМ НА ГОДЗИЛЛЕ С РЕАЛИСТИЧНЫМ АРБАЛЕТОМ В ДВЕНАДЦАТИПАЛОЙ РУКЕ НА ФОНЕ ШТОРМА И САКУРЫ. Тут нравы куда как патриархальней, здесь топ дизайна белые буквы МЯСО•КОЛБАСЫ на красном фоне или темно-синий ШИН(тут нарисовано колесо)МОНТАЖ на желтом оракале. Самое главное штоп НЕДОРОХА, ну и само собой -белый цвет поярче.
Так, подождите. Речь была про нормисов в целом, или про нормисов конкретно в блинолопатной скотоублюдии aka нефтедыром пынебабве aka рабсийской пидорахии?
>>424010 Если мы даже краем затронем ЭУРОПЕЙСКИЙ ДИЗАЙН, тред скатится в адову вакханалию, поэтому не стоит вскрывать эту тему, даже если ты молод и шутлив.
>>424262 Потому что мало в обучающем сете картинок с маленькими сиськами было в твоей модельке. Или ты используешь не те слова. Можешь лору на маленькие сиськи\ сиськи-прыщи скачать, если хочешь
>>424375 Нахуя? Был смысл доказать что SD может такую же картинку сделать на тему ugly girl.
Можно потратить 20 минут на то, чтобы подобрать промт, но зачем? Если SD XL может это отрисовать по референсу, значит он может это и отрисовать и по промпту.
>>424964 >Видел схожие По композиции и наполнению возможно на некоторых промтах он и сделает примерно как миджорни, но по визуалу нет. sdxl- это примерно уровень миджорни v4, через год возможно и достигнет текущей версии мж v5.2, но вангую что для этого потребуется топовый пека, недоступный большинству бомжей с постсовковых стран.
>>424964 >Видел схожие Вот ещё простой пример. 1-ый пик мж, остальные сдхл. Ни композиции, ни визуала на сд модели просто нету, одна мыльная каша. О каком сравнении с мж вообще может идти речь.
>>405267 >На последнем как раз и течёт при включенном кешировании чекпоинтов. Пытается выделить 40 гигов ОЗУ и срёт ошибками в консоль.
При загрузке читает 4 гб ТЕНЗОРОВ, далее 16 гб занимает RAM при прогрузе модели - и что то раскладывает в своп файле на 30 гигов. Если своп файл есть, то раскладывать не будет. при втором разе
дале при работе 3 гб RAM и 8 гб видео. ВСЁ.
>Сколько Stable Diffusion не дрочи, а до Миджорни никогда не допрыгнешь в ии методы активации одни и те же. значит мидж апскейлит 2-3 раза
>>425161 > --xformers и > --opt-sdp-attention вроде два разных типа оптимизации одного и того же, и не подразумевают параллельного использования. Или я нихера не понимаю.
>>405027 (OP) Сап. Посоветуйте модель для подключения к чат-боту. Нужно, чтобы рисовала аниме, но не в стандартной блевотной стилистике, как на 2 пике. А как на первом пике - хорошо. Алсо, она должна уметь в nsfw.
>>425210 я углубился и ты прав. оставил вот так >--xformers --no-hashing --skip-python-version-check --skip-version-check --skip-torch-cuda-test --upcast-sampling
>>425548 Ну ему надо ж начинать с чего-то копать. Хотя такой стиль рисовки как на первом пике можно просто заколотить в промпт или csv-стиль: (cel-shading, thick lineart:1.1), в негатив: (3d:1.4)
>>425542 короче нет. вернул как было так как стали ошибки происходить. оптимально лично для меня вот так >--xformers --no-hashing --skip-python-version-check --skip-version-check --skip-torch-cuda-test --opt-sdp-attention --upcast-sampling
так всё стабильно и скорость на 0.15 итов выше при одних параметрах на 512x768 с одним промтом чем просто с --xformers без остальных параметров
если брать разрешение выше например 768x1024 разница по скорости ещё больше без этих параметров и с ними
>>424562 Любая нормальная модель в сд это отрисует. Но с заданной композой через кнет и грамотным промптом. Мж делает это за тебя, а так как 95% пользователей в целом ни разу не художники, они даже намеренно не увидят отличий.
Вообще мж скорее всего и работает на том же кнете, генерящий так же через текстовый энкодер и карту глубины, и позу, склеивает и выдаëт пикчу. Потому мж умеет в композ сам по себе, а в сд придëтся его выставлять самостоятельно. Из плюсов – больше контроля, можно сделать ровно то, что тебе нужно, в то время как мж срать хотел на половину токенов, едва промпт длиннее 15 слов.
Рил, заебали споры, что лучше. Это сука одно и то же, только мж "красивенько за два клика", а сд " инструмент и контроль для прямых рук". Вас никто не накажет, если вы будете использовать их оба. Более того, вы можете использовать их одновременно, что даст результаты ещë круче.
Картинка с фотореференса пихается в мж, генерим подходящую композицию. Результат через лайнарт в фотошоп, лайнарт перерисовываем где надо и кидаем в сд кнет, исходную картинку можно для i2i , как на первом примере. Каскад инпеинта, апскейл, кидаем обратно в фш, дорисовываем и накидыаваем нужные эффекты.
Фото > миджорни > дифьюжн > фотошоп. (Иногда по несколько раз приходится кидать из в сд в фш и обратно)
Ну или можно сраться на двачах, какая модель лучше, вместо того, что бы блять начать рисовать что-то крутое
только что заметил миджорниблядка, который похоже не знает что миджорни это просто МОДЕЛЬ стаблы. как любая другая модель.
поробуй на миджорни сделать фотореализм обосрёшься. потому что миджорни надрачивалась на digital art. поэтому там везде композиция такая художественная, неправдоподобная.
возьми похожую модель и получишь то же самое.
при этом все попытки в миджорни сделать фоторелистичных людей в 99% случаев обсираются. ну для артов типа артстейшн да миджорни надрочена. у неё и получается похожие арты, на которых она обучалась.
>>425724 Так там две модели. Базовая и ниджи. Ниджи про арт и аняме, а базовая таки неплохой реалистик выдаëт. Конечно, можно доëбываться, требуя, чтоб было вот как на камеру смартфона снято, но реалистик не обязан вот быть "прям как в жизни". Ему нужно быть достаточно реалистичным, чтоб корректным.
Ну и нужно отдать должное, это невероятно мощные модели, во всяком случае пятой версии мж. Там наверяка и клип пожирнее, и датасет ни в одну нашу видяху не влезет. Работу там проделали достойную. Ещë бы эти модели к томатику прикрутить, и я был бы счастлив
>>425730 Околореалистик только в 5 версии меджорне появился, да и то так себе, сильно на любителя. Меджорне изначальна затачивался под цифровую иллюстрацию.
>>425710 >Фото > миджорни > дифьюжн > фотошоп Чел, это называется - ебля с костылями (хуйнёй), речь о чистой генерации с промта моделью, о возможности модели с нуля создать что-то уникальное. А ты несёшь какую-то дичь просто про фотошопы и инпейнты. >что бы блять начать рисовать что-то крутое Ахахха, рисобака с помощью костылей и референсов пытается делать пики похожие на мж, не позорься с такими примерами.
>>425754 Вся наша жизнь – костыли. Ты думал, чтоб суп сварить, ты просто выложишь продукты на тарелку? А нет, будь добр картоху почистить, сварить, овощи и мясо отдельно, подавать с зеленью. Это процесс. Нейронки не спасут тебя от этого. Ну будешь ты скучные однообразные портреты генерить, ну умница.
А про чистую генерацию не очень корректно говорить, так как мж дописывает стиль за тебя) У нас нет инструментов сравнения моделей лоб в лоб.
>>425724 >в миджорни сделать фоторелистичных людей в 99% случаев обсираются. Когда сд модели будут делать такой фотореал с промта (без костылей) - 1 пик >>425062, тогда и приходи (через годик возможно научаться делать глаза как у человека, а не размазанное кривое пиздоглазое говнище вдавленное в ебло)
>>425777 Ещё раз повторю для умственно отсталых, речь о чистой генерации, а не фотошопе и инпейнте. А мне в пример кидают какие-то пики с референсов и задвигают дичь про эффекты в фотошопе. В таком использовании - сделать пик с промта из сд моделей sdxl что-то ещё может, тестил в дискорде, но визуал и мыло жесть, плюс много других проблем ещё. Остальные сд модели это вообще прошлый век, ни о каком сравнении даже с мж v4 речи не идёт, они вытягивают картинку только апскейлом и инпейнтом, пригодны для генерации тела голых баб, не более. Если ты аутист этого понять не можешь, это только твои проблемы.
>>425816 Шиз-говноежка натаскал чужого говна из дискорда (у него нет денежек на подписку мж), придумал шизоправила и одержал полную и бесспорную шизопобеду. Потеха, господа.
>>425967 Тут зависит от того какого качества исходный пик, какое у него разрешение, что на пике, какая модель используется для апскейла, какого типа апскейл, какой денойз и т.д. Я промт не меняю никогда , но я делаю апскейл след образом: 1. Начальная генерация, потом хайрезфикс ( повышает разрешение и даёт резкости картинке) 2. Потом img2img c 0.35-0.4 денойзом + lora adddetail - на этом этапе исправляются косяки, лица, руки, добавляется детали в большинстве случаев. 3. И финал двойной апскейл 1.3-1.4х с Tiled Diffusion vae и денойзом 0.3 Итог - нет дабл ебал, апскейл практически не срёт лишними деталями даже с начальным промтом. И вообще от начальной генерации больше всего будет зависеть конечный результат, чем выше разрешение и минимум деформаций и искажений на этом этапе, тем лучше финал пик.
>>425985 На сид пофиг вообще, абсолютно не важно. Лучшая модель для апскейла, из всех которые тестировал, это endlessReality v1.1, с негативом ( другие токены не нужны вообще, можно 1.6 поднять до 1.7) "(worst quality, low quality, normal quality,deformed lines,morbid:1.6), lowres,ugly,fused fingers", она творит чудеса, даже на img2img стадии может из мыльной кожи сделать нормальную, но подходит для реализма в основном, стилизацию арта сохранит но добавит немного реалистика всё равно. То есть принцип генерации простой - сгенерить на любой модели которая может в композицию и соответствие промту начальный пик с максимально возможным разрешением. Потом апскейлить по моему методу который описал выше. >>425981
>>426136 У тебя там сколько эпох, наркоман? Для таких ультрамелких датасетов пара десятков эпох - это максимум. Если за 10 эпох нет нормального результата, то ты где-то обосрался. А вообще в 512 1000 итераций - минут 5 на нормальном железе.
>>426272 Не смог я оценить этот метод апскейла. Размазывает текстуры вхламину, с настройками баловался. Я куда лучше сделаю через SD Upscale и инпеинт с контекстным промптом
>>426532 чечиво? ждем среды получается и открываем новые горизонты, хотя пока в поломатике полноценно поддержат и не одна неделя пройдет, ждем короче...
Так смешно порой читать подхрюки пластиковых мижонрисвиней про отсутствие души у sd. руки из заднего прохода и закисшие мозги - вот что вас отделяет от людей из этого треда, эволюционируйте йопта Тема батча - они всегда были тут
>>427160 Включи голову-то, да подумай: как выделить определенную деталь (волосы, губы, глаза, не суть). Ты занятия в Прумптострительном ПТУ прогуливал штоле? Мда, с такими кадрами ИИ никогда художнегов не победит.
Не заходил в тред месяца три, появились какие-то новые крутые реалистичные модели? Заинтересовала эпик реализм в_3, сейчас попробуем заценить. Ну выглядит на самом деле неплохо. Делал на новом ++2м карасе? Не особо понятно, чем он лучше старого, но результат хорош.
>>427409 Милфы это скучно. Их примерно трильон фоток в интернете, зачем ещё генерировать? А вот такое найти проблематично. Ну вот просто представь что только мы, в этом треде сейчас смотрим на эти изображения, которых больше никто никогда не видел, и скорее всего больше никто их и не увидит. Это же, ух.
>>427558 >Photon Очередная каловая модель - пиздоглазое-одноебло на всех. Какая там по счёту на цивите? >>427384 >какие-то новые крутые реалистичные модели? Уже как пол года ничего нового не выходит и не будет, все эти "новые" модели отличаются только названием. Никакого прогресса нету абсолютно. По сути все эти модели можно заменить первым делибирейтом.
>>427412 >Милфы это скучно. И высрал ещё более скучные и унылые пики, ну нах, я лучше буду смотреть на пластиковых милф с делибирейта чем на это говно.
>>427575 При чём здесь Хачапур, я тебе говорю факт- все эти новые модели просто симулякр прогресса, ты думаешь раз они могут делать тёмные изображения, так это типа охуеть эволюция? Я пол года назад на первом делибирате делал вот такие пики, без лор, и контрастфиксов( их еще не было тогда)
делиберикал не может ничего нормально отрисовать. И тогда и сейчас.
Замечу, в неделю даже если взять только цивит, обновляются или появляются около +/- 20 новых моделек. Если у мижорнигомусов нет времени и желания их тестить - это их гомосвинское дело. Это улов за эту неделю, тестирую помаленьку...
>>427603 >не может ничего нормально отрисовать. И тогда и сейчас. Доказывать что либо очередному дауну не вижу смысла, всё равно что черпать воду решетом. Давай, тести "новые" модельки аутист.
>>427609 Кому ты и что доказать можешь, клавун. Ты сначала разберись с головой, очки купи, попей витаминки для глаз и клоаки. В делиберосранической церкви все такие пришибленные?
>>427569 Обосрался с этого гнома. Прогресс моделей заметен, особенно когда ты надолго отходишь от генерирования хуиток. Ну если ты генерируешь одну и ту же тянку 24 на 7, то вопросов нет. Прогресса и правда не увидишь.
>>427774 Сиськи может обвислые нафантазировать? Тут был анон, грозился лору сделать с неидеальными сиськами, но пропал. Я бы и сам сделал, кто бы помог пак собрать, чёт не могу ничего найти подходящего, буквально несколько пикч собрал. Ну или хоть подсказал бы кто где копать.
вголосину, что отрисовано на запрос на коитус с пришельцем в секретном локэйшене) кто животинку сможет идентифицировать? или правда чужой)) забавная моделька тоже получается, но больше для хуежничества наверное
>>423392 Не знаю, как это правильнее назвать, но они кажутся настоящими, даже несмотря на то, что глаз распознает нереалистичное изображение. Наиболее близкое ощущение вызвают старые фото начала 20 века от первых мастеров монтажа. Но все равно не совсем то.
>>423606 Сам ты дурачок. Я не пытался доказать тебе, что знаю такие слова, как "зловещая долина". Мне просто любопытно, почему они такие крипотные, похуй как у вас там называется эта хуйня. Кароче, я иди нахуй, все равно не у тебя спрашивал, гнида ебанная. Рака пизды тебе и твоей матери-шлюхе, чсвшник ебанный.
>>428082 > кажутся настоящими, даже несмотря на то, что глаз распознает нереалистичное изображение Ну с этим всё просто. Слабое освещение и зерно пленки помогают продать ощущение, что хуйня таки находилась в комнате и попала на пленку через объектив, а не постобработкой. Кстати, о CGI. Яркий пример - два разных The Thing. В новом эффекты выглядели устаревшими уже в момент выхода фильма, а у Карпентера эффекты и через 200 лет будут выглядеть охуенно, т.к. вся НЕХ находилась перед камерой. Даже если ты и знаешь, что в момент откусывания рук у доктора, его играл чел без рук, оно всё равно выглядит реалистично, т.к. у него на самом деле нет рук, а освещение помогает продать подмену. Алсо, если интересует реалистичная крипота, советую пройтись по фильмам Кроненберга (The Brood, Videodrome, eXistenZ и т.д.).
>So I did an experiment and I found out that ControlNet is really good for colorizing black and white images.
>I first did a Img2Img prompt with the prompt "Color film", along with a few of the objects in the scenes. the Hed model seems to best. The weight was 1, and the denoising strength was 0.9
Кто-нибудь может подробнее объяснить этот момент? У меня не красится итоговая картинка, а только растягивается вверх и вниз. Или, может быть, вы знаете другие способы хорошо раскрасить черно-белую картинку, кроме как palette.fm?
>>428343 > the Hed model seems to best Ныне SoftEdge, конкретно softedge_hed (пик 4). Эффективность сомнительна, либо уточняй, как он делает, либо ищи другой способ. > не красится Новый контролнет сам копирует пикчу из img2img в свой инпут, но оно нихуя не передается в препроцессор. Нужно самому вручную кинуть ту же пикчу в инпут контролнета. > только растягивается вверх и вниз Пропорции соблюдай в разрешении.
>>428276 >в этом месяце Даже если релизнут сейчас, какая разница, всё равно надо ждать ещё минимум пол года когда модель оттюнингуют до нормального визуала и выйдут кастомки, если вообще смогут это сделать, вангую ничего не получится, ждём ещё год когда выйдет sd 3.0, а пока можно забыть об sd моделях в принципе, генерить однообразный кал в течении года- занятие для говноедов.
>>428388 Завтра вроде обещают выкатить. Скорее всего после стремительного обсёра быстро выкатят XL1.1 или XL1.5 или ещё как назовут, которая наконец сможет делать людей и свиней, а не мыло ебаное, и тут то запануем (нет).
>>428401 > Скорее всего после стремительного обсёра быстро выкатят XL1.1 Ничего они выкатывать не будут, поймите уже наконец, стабилити никогда не сделает бесплатную модель которая будет из каробки делать фотореал баб, блюр на бабах там не случайно возник (все и так понимают почему он там). А из-за хард обучения, универсальных кастом моделей по типу 1.5 не будет, максимум лоры. Так что 99% sdxl будет хорошей моделью для создания артов в различных стилях и не более, реалистик бабы это к 1.5. Это расклад на ближайший год, ничего другого не ждите.
>>428376 Хотя вроде неплохо фото красит. Но 0.9 денойза всё равно дохуя, лицо плохо сохраняется. 1 - hed, 2 - hedsafe, 3 - pidinet, 4 - pidisafe. >>428503 Подозреваю, что промпт таки нужно чуть длиннее.
>>428461 NSWF никуда не выпилили и цензуры не будет, как раз с этим проблем нет. Селебрити вроде тоже никуда не делись, хоть и кривые они там все. >>428504 Лоры не особо помогают делать фотореалистичные пикчи, один хуй всё скатывается в дикий блюр.
>>427441 Эх, неохота дрочиться. Если хочешь, могу скинуть промпт, сам попробуешь? >>427462 Во, самое главное что не скучно. Ну для меня по крайней мере. >>427558 Заценим, пасиба. >>427569 Если ты настолько обкумился что к хуям ослеп, то это твои проблемы. Прогресс есть, может не такой резкий и заметный, но всё равно есть.
>>428657 > муть, вместо результата Ну значит нужно больше промпта, как в позитиве, так и в негативе. Примени стиль для фото. А вот с цветом хуй знает, что у тебя. может на другой модели попробуй. > Потом в фотошопе объединяем ЧБ и цветную и получаем цветной оригинал Хуя ты бог фотошопа. Я понятия не имею, как это в гимпе делать.
>>428537 > Прогресс есть, может не такой резкий и заметный Чел, твои дегенеративные пики по сути мусорный рандом промт + апскейл, такой же хлам можно получить и 1.5 ванилле, никакого прогресса, даже минимального, я не увидел абсолютно.
Адик начал генерироваться как надо, но он всё ещё черно-белый и не хочет становиться цветным. Я пробовал Realistic Vision, Cyber Realistic и Reliberate. Без img2img и ЧБ-картинки всё генерируется цветным.
Промт такой: >color film, color photo of mature men, RAW photo, a red armband with a swastika on the shoulder of one of them, 1980's style photo, real colors
В релизном 1.5 поломатике, как и в дев уже где-то неделю, поломаны лоры. Похоже не у всех. Если у кого-то поломано, лечится заменой def create_module(self, net: Network, weights: NetworkWeights) -> Network | None: на def create_module(self, net: Network, weights: NetworkWeights): в extensions-builtin/Lora/network.py
>>429276 У меня только AdditionalNetworks не работает с XL09 и с плагинами на locon/lycoris крашится, но внезапно без них всё работает через Extra Networks.
>>429326 У меня sdxl вообще в автоматике не работает. Пишет We do not support vanilla attention in 1.13.0+rocm5.2 anymore, as it is too expensive. Please install xformers, а sub-quad attention оно вообще игнорирует похоже, хотя в комфи с ним sdxl нормально работает. Зато цивитаи хелпер поломался и триггеры не выдает, но locon нормально работает.
>>429343 Так там чинить нечего. Либо новую видимокарту покупать (ну нахуй), либо ждать чуда от автоматика (маловероятно). А мыльное поделие так-то и на комфи можно крутануть, но не нужно.
>>428950 Ну так значит ты слепошарый уебан, заебал. Никакого прогресса блядь, никакого прогресса, слепошарое уёбище, пиздуй в свой нейродроч раздел и генерируй там своих пластиковых шалав, уёбище.
Посоветуйте нубу парочку нетолерантных моделей, в которых по промпту "уан гёрл" по умолчанию выдаёт белую девушку, по тегу "чёрные волосы" не срёт азиатками в 95 случаях из 100 и на "тёмную кожу" и не рисует африканку/мулатку. Модели желательно не очень старые.
Как называется эффект, который появляется, когда вертишь в руке какую-нибудь карточку с блестящим покрытием, и на ней появляются такие лёгкие отблики от отражающегося света?
>>430067 Попробуй glare, или reflected glare или feflected flare (это другое, но тоже может дать похожий эффект). Главная проблема - заставить рисовать блики на поверхности карточки, а не на самом изображении, glossy surface может с этим помочь.
Stability AI с гордостью объявляет о выпуске SDXL 1.0; долгожданная модель в серии Stable Diffusion! После того как вы все возились со случайными наборами моделей в нашем Discord-боте с начала мая, мы, наконец, выбрали победителя и коронованного кандидата для выпуска SDXL 1.0, который теперь доступен через Github, DreamStudio, API, Clipdrop, и AmazonSagemaker!
Ваша помощь, голоса и отзывы на протяжении всего пути сыграли важную роль в превращении этого в нечто поистине удивительное — это свидетельство того, насколько действительно замечательно и полезно это сообщество! Мы благодарим вас за это!
SDXL был протестирован и сравнен Stability AI с различными генеративными моделями, в том числе с проприетарным моделями и предыдущими поколениями Stable Diffusion. В различных категориях и задачах SDXL выходит на первое место как лучшая модель генерации для изображений на сегодняшний день.
Некоторые из наиболее интересных функций SDXL включают в себя:
Модель преобразования текста в изображение высочайшего качества: SDXL генерирует изображения, признанные лучшими по общему качеству и эстетике в различных стилях, концепциях и категориях слепыми тестировщиками. По сравнению с другими ведущими моделями SDXL демонстрирует заметное улучшение качества генерации в целом.
Свобода самовыражения: лучший в своем классе фотореализм, а также возможность создавать высококачественные изображения практически в любом художественном стиле. Четкие образы создаются без особого «странного ощущения», которое придает модель, что обеспечивает абсолютную свободу стиля.
Расширенный интеллект: лучшая в своем классе способность генерировать концепции, которые, как известно, трудно визуализировать для генеративных моделей. Например, руки и текст, или пространственно расположенные объекты и лица (например, красный прямоугольник поверх синего прямоугольника).
Более простые подсказки: в отличие от других генеративных моделей, SDXL требуется всего несколько слов для создания сложных, детализированных и эстетически привлекательных изображений. Больше нет необходимости в абзацах квалификаторов.
Точность: подсказки в SDXL не только просты, но и более соответствуют назначению подсказок. Усовершенствованная модель CLIP SDXL настолько эффективно понимает текст, что такие понятия, например, как «The Red Square», воспринимаются как отличное от «a red square». Эта точность позволяет сделать гораздо больше, чтобы получить идеальное изображение непосредственно из текста, даже до использования более продвинутых функций или точной настройки, которыми славится Stable Diffusion.
Вся гибкость Stable Diffusion: SDXL предназначен для сложных рабочих процессов проектирования изображений, которые включают генерацию текста или базового изображения, inpainting (с масками), outpainting и многое другое. SDXL также можно настроить для концепций и использовать с ControlNet. Некоторые из этих функций появятся в следующих выпусках Stability.
Присоединяйтесь к нам на сцене с Emad и Applied-Team через час, чтобы ответить на все ваши животрепещущие вопросы! Все подробности в прямом эфире!
>>430192 Пиздец ты не благодарный. Индусы делали, старались, а он нос воротит. Генерировай давай в 1024, подумаешь мыльно, зато сразу видно что не проходимец с 1.5, а современный диффундатор.
>>430115 Sdxl для местной босоты, которая не отличается особым интеллектом, всё равно что мёртвому припарка - абсолютна бесполезна. Для них критерием охуенного пика считается РЭЗКОСТЬ и ЧОТКОСТЬ. И похер что на выходе это либо пиздоглазая баба одноебло >>429946 либо однотипная, лишённая начисто композиции и какого либо смысла, кривая убогая хуета >>429719, зато чотка и резка, а значит заебись.
P.S. Вообще странно что они так тянули с выходом, ибо даже 0.9 версия уже была вне конкуренции по созданию арта и начальных пиков с нужной композицией.
>>430192 >с гиперреализмом Да похуй какой там реализм, хоть 100к блять заапскейль, если на пиках нет интересного содержания, композиции, эстетики, разнообразия, то сразу в помойку.
>>430261 > композиции Сколько можно? Ну сколько можно, блядь. Анон, будь ты человеком, обучи своего бота новым фразам. Из треда в тред одна и та же хуета. Или ты вообще запустил его сюда и забыл?
>>430261 >на выходе это либо пиздоглазая баба одноебло >>429946 ЧСХ, мне так ничего и не посоветовали, только похвалили и обосрали. Окайфейс, сам подберу что-нибудь методом рандома на цивике как обычно.
>>430261 Любитель мыла, ты? 1.0 всё так же даже бабу нарисовать не сможет, а ты тут рассказываешь как ахуенно рисовать котов в шляпе. Вангую даже в пальцы на уровне 1.5 не сможет ваша SDXL.
>>430294 Проиграл в голос со 2-го пика, ёбаный коллаж из фотошопа >Любитель мыла И тебе даже апскейл не помог, все пики с мыльной пластиковой кожей, нахуй вообще генерить такой кал?
>>430320 > Пять, как положено. Только большого пальца нет. Ну ожидаемо. У них хорошо только на словах, а как показать - так пук в лужу. >>430321 > ёбаный коллаж из фотошопа Про освещение слышал? > пластиковой кожей Хочешь мохнатую? Держи, я же не с мыловарней SDXL. Могу ещё больше шерсти сделать, как у мужика.
Да уж, ну и хуйня. Анатомия пиздец, освещение проёбано - даже тени в разные стороны, пальцев нет, лица криповые. И это ещё по рефайнером. Всё в мж-фильтре как будто катаракта. Если проходишься рефайнером по генерациям из 1.5 - становится только хуже и мыльнее. Ждём файнтюнов. Шерсть у котов как обычно заебись.
И SDXL-шиз ещё будет что-то про кожу и лица рассказывать? Вот 1.5 против SDXL с рефайном. У SDXL ебучий рендер, ещё и кривоватый. Промпт одинаковый. Ну и хуйня.
>>430644 Память как будто меньшая из проблем. Докупить планку оперы не трудно. А вот то, что время генерации выросло в разы - вот где беда. На 1.5 получаю 8 секунд на генерацию, XL 2:20.
>>430635 Ты я вижу ньюфаг. Базовый промт. Дальше сам
RAW uhd photo of the most beautiful 25 yo woman ginger in the world, underwater, hair floating, glistening, real skin, nipples, pores, sexy pose, focus on the perfect face, emotive eyes, smiling and aroused, (wide shot)1.4, nikon z 5, award winning photo, sharp focus, ektachrome
neg
china, japan, render, cgi, digital painting, (text)1.2,(logo)1.2, (watermark)1.2, b&w, (cartoon, 3d, bad art, poorly drawn, close up, blurry, disfigured, deformed, extra limbs)1.5. black. southern nationality. anime. non-sexuality. mutant. errors. wrong. ugliness. vaginal
>>405027 (OP) Ребят, помогите разобраться, наверняка были похожие случаи и уже поясняли, но в десятках тредов я потеряюсь. К сути. Как сделать что бы пегас на пикрил не был железным? Эта проблема встречается часто. Например пишешь хочу девушку в красных туфлях а у неё тогда всё красное и платье и банты и всё рандомно, есть какие то методы решения?