Stable Diffusion Flux тред X+113 ====================================== Предыдущий тред >>877089 (OP)https://arhivach.top/?tags=13840 ------------------------------------------ схожие тематические треды - аниме-тред >>878654 (OP) ======================== Stable Diffusion (SD) - открытая нейросеть генеративного искусства для создания картинок из текста/исходных картинок, обучения на своих изображениях. Flux — открытая нейросеть нового поколения для генерации изображений от стартапа Black Forest Labs, основанного бывшими разработчиками Stable Diffusion. Полный функционал в локальной установке (см. ниже)
Пример промпта (запроса) для sd1.5 или SDXL: an european girl, standing, high quality, soft focus, 8k, photograph by nick nichols Пример промпта (запроса) для Flux: This photo shows a small smiling young caucasian adult woman with blonde hair wearing a pink t-shirt with the words "SD3" and panties sitting on a white couch with her legs crossed in a yoga pose, in the background of the image behind the couch there a several standing large buff african american men wearing white t-shirts with the words "FLUX" and white shorts, they are staring at the blode young woman, the woman is very small in the image allowing the men to tower over her ------------------------------------------ ♾️РАЗЛИЧНЫЕ ХУДОЖЕСТВЕННЫЕ СТИЛИ (С ПРИМЕРАМИ) 👇 https://supagruen.github.io/StableDiffusion-CheatSheet/ https://www.artvy.ai/styles ------------------------------------------ 💻ЧТО ТАКОЕ CONTROLNET И КАК ЕГО ИСПОЛЬЗОВАТЬ https://dtf.ru/howto/1669307-ustanovka-i-obyasnenie-nastroek-control-net-kopirovanie-pozy-kompozicii-i-td ========================================== 🧠 ОБУЧЕНИЕ ПО СВОИМ КАРТИНКАМ 👇 https://dtf.ru/howto/1660668-obuchenie-modeli-s-pomoshchyu-lora https://civitai.com/models/train
>>882323 → Несколько вариантов: 1. Использовать лоры корректирующие генерацию (дмд, пцм, хупер, етц) или импрувнуть модель через дмд 2. Использовать более консистентные современные семплеры с мокрописями без мультистеппинга (3М это мультистеп у тебя) 3. Использовать фейсайди как гайдер лица 4. Использовать адетайлер для лица
>>882333 (OP) >Stable Diffusion (SD) - открытая нейросеть Что это значит? Бинарник доступен? Так это не открытая, а доступная для скачивания. Открытая это когда доступны все исходники и ты можешь на своем домашнем компе (ну ладно, на каком-то мощном компе) повторить сборку бинарника из исходников. Можно ли повторить такое с СД? С флюкс? Значит они закрытые. Просто бесплатные бинарники.
>>882410 >Значит они закрытые. Просто бесплатные бинарники. Хуярники, это черная коробка в виде диффузионной матричной векторной модели и токенайзера, которые магическим способом с помощью уравнений очищают латентный шум и энкодируют в картинку тебе в ебальник на библиотеках питона, соответственно имея многомиллиардный датасет, навыки в машинлернинге, много много жпу и много времени ты можешь повторить любую нейросеть или сабсеть нейросети зная изначальные данные для тренировки и имея точно такие же входные данные для обучения.
>>882521 >3 минуты? >1мин 22сек Да, нормальный ультимативный тайловый апскейл с хайрезфиксом и детайлером в 2 прохода и рефайном длится 3 мин. Остальные виды апскейлов тупо скам с блюром в 4к.
>>882521 ебло тупое, ты в куре как дмд работает? он меняет векторы по таймстепам делая их ближе в пороговому значению, то есть идет работа с моделью собственно как любая лора делает, при этом дмд не содержит стилистических данных, следовательно т.н. шакальные волосы хотя я не считаю что то что ты назвал шакалами это шакалы это просто скилишью оператора нейросети и/или недообученность конкретного файнтюна
>>882540 если их через свд вместе соединить (а там можно около 20 лор без потерять соединить примерно), то может что-то прикольное выйти, а если последовательно то это действительно шиза алсо че за шифт
>>882489 Спо сильно меняет стилистику делая так скажем цвета ярче, а углы круче. Поэтому для апскейла чтобы консистенцию сохранять надо менее забористое чтото.
>>882549 >если их через свд вместе соединить Что это? Именно эти лора не работают параллельно, ну или я что-то не то делаю, я пробовал через модель мерж адаптер в составе комфи - чёрная пикча, а последовательно вроде как ожидаемый эффект. >че за шифт Пикрил оффсет шифт. Это по ситуации.
>>882672 Ты можешь думать всё что угодно, тебе никто не запретит. Я знаю что там небыло доп вмешательств и доказывать что-то никому не собираюсь... Хочешь верь хочешь нет это дело твоё. Я просто генерю что и как мне в кайф.
>>882658 >Анон просит показать прямо и открыто >байт засчитан Мда, что я наблюдаю итт. Байт это когда он поливает тебя говном и манипулирует тобой, чтоб ты засветил что-то там. Он жепросто тех. вопросом интересуется. Сказал бы просто "не покажу". Смысл оскорблять...
>>882704 > Я просто генерю что и как мне в кайф. Не только. Если бы ты молча свои дегенерации дегенерировал и выкладывал - это одно, но ты же еще и пиздишь на весь тред, какие они охуенные. Вот это >>882564 создание с двумя парами сисек точно заслужило место в следующей шапке.
>>882716 >Покажи где Контекст посмотри. Ты агрессию врубаешь. >все такие тонкие душевные натуры Может и так, оскуфился я, чёт раздобрел в посленее время, сорт оф пмс с обратным эффектом. Принуждаю к доброте.
Меня аж злость берёт, то ли я тупой и не правильно вписываю некоторые промты, то ли сама аи'шка не правильно меня понимает. В общем суть моей проблемы в том, что я хочу чтобы у моего сгенерированного персонажа была губная помада кремо-бежевого отенка, на что я пишу в промтах: creamy beige lipstick, на что он мне генерирует розовую помаду, хотя она должна выглядеть примерно как пикрил (не эксперт в женской помаде, могу ошибаться), окей, не работает, переписываю промт на creamy beige matte lipstick, но он ничем не помогает. Меняю промт на beige matte lipstick, и это так же ничем не помогает, даже если я напишу - beige lipstick, это ничем не поможет, и помада останется розовой/светло розовой. В общем ЧЯДНТ?
>>882822 Уже разобрался с проблемой, но спасибо за ответ, анон. Всё оказалось слишком просто, мне просто не давал другой промт установить цвет, потому что, я прописал для него цвет, и выходом из данной ситуации стало временное удаление цвета с него. После чего всё заработало, включая даже тот промт, который давал мне вот этот анон >>882750(но меня сейчас не это беспокоит, а несколько другое, но я думаю разберусь с этим)
>>882548 >он меняет векторы по таймстепам делая их ближе в пороговому значению Тем самым уменьшая разнообразие. Хотя его и хватает, но ты замечал, что с дмд, например количество поз на один промпт становится меньше? Например, я жаловался на бабу на траве, что она всегда в одну сторону лежит, слева голова, справа ноги, а оказывается это дмд был виноват.
>>882540 У меня шаблон на Спо+хуйпер+дмд+пцм. Вообще дофига крутил такого. Потом устал. Потом обнаружил, что лоры можно отнимать, стать отрицательный вес и всё по новой. Теперь ты)) пробуй с отрицательным весом некоторые лоры из твоего набора.
>>882862 >Тем самым уменьшая разнообразие. Нет > но ты замечал, что с дмд, например количество поз на один промпт становится меньше? Нет >я жаловался на бабу на траве, что она всегда в одну сторону лежит, слева голова, справа ноги, а оказывается это дмд был виноват Ты шиз
Сап аноны. В общем наигрался с нейронкой от мелкософта и гугла, они годные и рисуют хорошо. Но, огорчает, что там все зацензурено. Хочу локально на пеке что то делать пека с ртх3050 на 8гб, 12400F и 16гб оперативка, на неё заведется какая-нибудь нейронка? И можно гайд о установке, просто раньше подобного никогда не ставил и в этом вопросе совсем профан
>>883065 Там много информации. Вот смотри, например, по этому гайду можно поставить нейронку на комп и локально пилить контент без цензуры? И какое там будет качество? Сильно будет отставать от того что выдает бинг или гугл?
>>883067 Фокус весьма неплох для вката нубаса, но ты там будешь заперт в довольно жестких рамках. > Сильно будет отставать от того что выдает бинг или гугл? Зайди на civitai.com, полистай, посмотри что можно генерировать на разных моделях. Качество не будет отставать, оно другое.
Аноны, хочу апскейлить пикси по инструкции из треда, где сначала проходились аура ср-ом, а потом даунскейлили с помощью моделей, ни у кого не сохранилась инструкция? Или кто пользуется сбросьте воркфлоу плиз.
>>883122 Олсо вместо пцм можно взять дмд на 1 цфг 8-10 степов лцм, будет быстрее, ну и дмд вообще мало отсебятины рисует при апскейлах/даунскейлах, удобненько.
Такие вопросы, есть SD Automatic111 чистой сборки, скачал две модели, всё работает но мне нужно сделать качественно сгенерированные фотки ЕОТ, есть её фотки. Вопросы как это сделать? Стандартные модели не дали мне нужное качество, поэтому подумал либо обучить свою модель (как это правильно сделать) либо взять готовую и до обучить её (как это можно сделать и какую вообще модель лучше для этого скачать)
>>883251 У sd с female pov совсем туго, что не удивительно, ведь большинство pov прона смотрит на девку, а не от нее. Поэтому результат не хуй пойми что, а наоборот ожидаемый - она смотрит вниз, в кадре есть есть сиськи, pov того, кто снимает. Чтобы сделать наоборот, нужно очень сильно изъебнуться.
>>883204 Комп нормальный? Обучение много ресурсов жрет. Лучше всего обучать LoRA на базовой SDXL модели, а генерить на Natvis, получается как будто фотки ирл.
>>883063 Если хочешь локальный Далл-Е, то бери Flux Dev (может в квантовом варианте Q4 и запустится на 8ГБ). А так, остается SDXL и Пони (если хочешь хорни).
>>883204 >есть её фотки. Вопросы как это сделать? InstantID
>>883295 >Если хочешь локальный Далл-Е, то бери Flux Dev (может в квантовом варианте Q4 и запустится на 8ГБ). >А так, остается SDXL и Пони (если хочешь хорни). Можешь, пожалуйста, кинуть ссылку на гайд? И как понимаю там можно генерить без цензуры?
>>883284 видеокарта норм, но 12 гб озу так себе, stable diffusion и flux могут и 32 отожрать. с 12 будет в своп уходить возможно. обучать можно этой тулзой https://github.com/Nerogar/OneTrainer/ там пресеты встроенные на всякие случаи
>>883285 https://github.com/Nerogar/OneTrainer/ скачай, погугли как с этой прогой обучать. я сам гайды не смотрел давно, хз где лучший. методом тыка да чтением справочных материалов допёр
в этом OneTrainer теперь и лоры для flux обучать можно, на 4-битной квантизации. в 12 гб влезает, вроде и в 8 может, если разрешение, батчи и размер rank\alpha понизить. на 4070 ti на один шаг уходит полторы секунды. вместо 10 секунд на fp8 квантах в другой обучалке kohya_ss.
>>883433 Пиздец пластик, зачем ты въёбывает такой высокий гайденс, смысл в деталировка, если шерсть выглядит не как шерсть, а как потное ебало генерик-бабы из флюкса, я удивлён тем, что он котёнку двойной подбородок не пррисовал.
>>883443 Я просто свой старый т2и переделывал на новые ноды и котеночком в процессе потестировал, а окно с 4 из другого воркфлоу скопировал. И кто то говорил что негатив во флюксе можно, что то нихуя.
Никак не могу понять, почему InstantID не ставится в комфи, при загрузке всё время пишет "(IMPORT FAILED): /home/user/StabilityMatrix/Data/Packages/ComfyUI/custom_nodes/ComfyUI_InstantID" ставлю по инструкции отсюда: https://github.com/cubiq/ComfyUI_InstantID?tab=readme-ov-file Если кто сталкивался помогите.
>>883475 Ты все пекеджи через пип поставил? InstantID requires insightface, you need to add it to your libraries together with onnxruntime and onnxruntime-gpu.
>>883492 Я подозреваю что у StabilityMatrix свой python и окружение, если знаешь комманду то подскажи пожалуйста как поставить эти расширения в окружение этого питона.
>>883495 >>883494 пикрел ставит в ембедед питон комфи портабл второй вариант поставить в системный питон и тупа библы скопировать из системного питона в ембедед питон
Аноны, а есть какой-то плагин для описания композиции с помощью грубого скетча типа пикрил. Про контролнет знаю, про img2img тоже, никто их них такие изображения не читает нормально, по смыслу скэтча. Ну или я что-то не так делал.
>>883584 Это да, а реализм? Чтобы скэтч читался не впрямую а именно как пояснение на тему «что имеется ввиду»? Вот допустим промт: family of three standing at green meadow during daylight, father at left, mother at right, daughter in the middle, everyone is holding hands Можно как-то взяв этот промт, показать подобную картинку для доп пояснение, что я имею ввиду?
The image is a colorful, hand-drawn illustration featuring three people standing together on what appears to be a sunny day. The person on the left is wearing blue pants and has a smiling face. In the middle, there's a child with blonde hair, dressed in a green dress, also smiling. To the right, another adult is depicted wearing an orange top, also with a smile. They all seem to be enjoying their time outdoors. Above them, the sky is filled with fluffy white clouds, and the sun is drawn with a bright yellow circle and a happy face. Below them, the grass is lush and green, and there are pink flowers scattered around. The overall atmosphere of the image is cheerful and warm.
>>883583 Очевидный апскейл в 4к с двумя тайловыми апскейлерами есрган, ультрашарп, препроцессор и контролнет, рейфан.
>>883592 Нет, имею ввиду можно ли из этого скетча получить что-то типа пикрила обе фото просто нашел в инете, поэтому не все детали скэтча отражены на фото
>>883597 Можно всё. Вот я к примеру делал что-то похожее из картинки слева >>883013 Но тут не нужно описание, тут нужно это >>883592 >Очевидный апскейл в 4к с двумя тайловыми апскейлерами есрган, ультрашарп, препроцессор и контролнет, рейфан. Можно из скетча сделать фото 1 в 1 или наоборот, с разной степенью точности. Для этого описание картинки совсем не нужно.
>>883602 В >>883013 у тебя все таки не скэтч, а очень детальное изображение. Да, такое можно вытащить, я в курсе. А вот из скэтча с семьей на лужайке можно как-то получить фотореализм семьи на лужайке, с сохранением всех деталей скэтча( например в каком идут порядке и что держатся за руки)?
>>883589 Тут у тебя вариантов немного: Научиться рисовать скетчи людей, а не stick figures. Снижать вес и end_step контролнета, пока не появятся люди. Ну и главное, не рисовать улыбающееся солнце на фотографиях.
>>883603 >в натвизе получить Натвиз без дмд или дмд&спо ни на что не способен. Такое же овно, типа джагернаута. Унылые соски, мятые глаза. Только с этими лорами он пригоден.
>>883612 >а не stick figures Так в том соль, чтобы не заниматься рисованием, а просто грубо обозначить композицию, условно «папа стоит лицом к камере прямо справа и держит дочь за руку» Собственно мне кажется что словами описать сложные композиции кадра куда сложней чем накидать скэтч. А рисовать я не умею, мне за этим и нужен SD
>>883617 >да можно Хз, как? Куда копать? Я вижу что img2img процессит скэтч именно как изображение, а не как «схему» условно говоря. Чтобы из скетча бралось именно смысловой компонент, условно вот стоит человек, вот собака, а вот машина, а не вот «кружок на треугольнике»
>>883626 Какой имено? Там можно палками позу человека накидать, но опять таки, если я не только человека хочу, а лошадь? Кошку? Собаку? Машину? Контролнет поймет скетч машины как машину? А не как квадрат с трапецией сверху и двумя кружками снизу ?
>>883632 Да, конечно модель, я оговорился. Ну так куда скормить скетч контролнету? Допустим вот тот скетч с семьей держащейся за руки, чтобы модель поняла из скетча какую композицию кадра я хочу?
>>883640 >>883640 >это же не из палок делать Собственно в этом и вопрос, реально ли сделать из палок. С одной стороны наверняка реально, вряд ли обучить понимать stick figures невозможно, вопрос есть ли готовые инструменты. Вот в том же контролнете можно позу задать через openpose. Но опенпоза это не скетч, и если я например проебусь с анатомией, условно нарисую одну руку длинней другой, то и на выходе будет хуйня, хотя модель анатомию знает, могла бы и исправить
>>883654 > скетч Но эта хуйня не скетч, а полноценный рисунок, хоть и хуевый. С ебанутыми пропорциями свойственными детскому рисунку, и прочей хуйней, которой не место на фото. Какой бы препроцессор ты не выбрал, CN и модель будут видеть там то, что там есть. И наоборот, не смогут увидеть там то, чего нет, а именно реальных человеческих пропорций.
Вобщем разочаровался я в InstantID, ожидал от него большего. Сколько я ему фотографий людей не скармливал он фактически не переносил лица, что-то отдаленное было но это не то... Пробовал разные модели. IPAdapter и то более правильно лица переносил. У кого нибудь вобще InstantID нормально лица переносит? А-то может я что-то не так делаю.
Чет говно какое-то эти ваши дмд. Оно кроме фоточки 1вумен с сиськами ничего не может? Меня реальные задачи интересуют, ну там например фурри-футу сгенерить качественно сможет? Да меня бы и 100 шагов устроили, честно говоря, если на выходе будет не однообразный слоп а что-то нормальное.
>>883668 Возможно у есть недопонимание. Я когда говорил скетч именно и имел ввиду такие «детские» рисунки, которым человек не умеющий рисовать сможет в условном пэинте показать что он хочет на изображении увидеть. Но в целом идея строить фотореалистичные изображения на основе детских рисунков не выглядет бредовее чем идея строить фотореалистичные изображения на основе текстового описания, однако же. Опять таки, ты когда пишешь 1girl standing не пишешь про анатомию ничего, модель сама знает что там к людей с анатомией. Почему тогда нельзя взять из детского рисунка только то что важно, например позу этой 1girl, в какой части кадра она стоит и так далее, а анатомию уже сама модель нарисует какую надо
>>883713 Не должен, это дистиллят из фойнтюненой базы сдхл и 1.5, он буквально работает с любой сдхл, все что он делает это использует конкретные таймстепы и векторы которые позволяют а) быстрее достичь результата б) получить выше конститенцию в) убрать так скажем шумные векторы или токен ликинг поэтому может генерить вне размеров датасета спокойно
>>883718 > использует конкретные таймстепы и векторы Отсюда кстати минус дмд, он не может работать с рес и ренжкутта современными семплерами. Ну как не может, картинку он дает, но жарит шопиздец так как таймстепы у дмд от лцм.
>>883724 > Можно ли в имя весь промпт выводить? Можно, но не нужно - гарантируемый обосрамс на первом же двоеточии. Лучше использовать ноду из WLSH пака и потом достать промпт load image нодой оттуда же.
>>883753 >1920x1080 на сдохле >а пачиму артифакты мям действительно почему это? чтобы снизить вероятность артефактиков надо или шринк с раунетами юзать или дмд >Может дело в сэмплинге? в семплинге тут проблема в том что он мультистеповый
>>883705 > Опять таки, ты когда пишешь 1girl standing не пишешь про анатомию ничего, модель сама знает что там к людей с анатомией Вообще-то пишу photo, если модель умеет в что-то, кроме фото. > есть недопонимание Возможно. Котролнет - это такой же кондишн, как и текст. И его кондишн конкатится к текстовому. В случае с 1girl standing просто промптом в юнет идут веса стоящей вангирлы, и модель рисует на основе этого кондишена. С детским рисунком в контролнете, в юнет идет стоящая вангирл и вместе с ней ебаный подсолнух, который и напраляет генерацию в сторону рисунка, какой бы фотореалистичный промпт не сопровождал эти палочки с гигантской головой.
>>883770 Какой тогда семплинг юзать? Сори просто я только 2 день как начал в этом копаться. До дмд и шринк еще не дошел. >>883838 >1344*768 делай, а дальше апскейль. Спасибо.
>>883937 Ну так у тебя контролнет не передается в картинку непосредственно, есть специальный интерпретатор, который понимает как опенпоза контролнета должна влиять на фото. Точно так же можно написать интерпретатор, который будет из детского рисунка вытаскивать смысловую часть, а не понимать буквально
>>883940 >Какой тогда семплинг юзать? смотря что ты хочешь и под какие задачи, какая у тебя карта, какое у тебя желание по занимаемому времени генерации и какие входные данные (допустим с дмд 75% семплеров ниже не работает)
>>883948 >Вот такая крипота еще выходит. >1574x986 >1920x1080 ну вы поняли к чему приводит когда нуба сразу на комфи сажаете, в фокусе он бы понял в чём косяк
>>883705 >>883937 Для наглядности прикладываю генерациb на основе собственно шедевра с ультра правильной анатомией.
>>883955 Вот только опенпоз препроцессор ничего не может разглядеть на детском рисунке, а все остальные видят там гигантские головы. Ты конечно можешь натренировать отдельный контролнет для этих целей, но станешь ли ты этим заниматься, если никто другой не будет?
>>883971 Пик 1 - 3 минуты в гимпе. Остальное - этот пик, пропущенный через HEDPreprocessor и с union-promax контролнетом. Может полноценный HED и лучше сделает, но я дохуя всяких контролнетов поудалял.
>>883948 Обучаю хайрезу бесплатно без смс Семплеры шедулеры не обязательно такие же юзать, алайнер в виде TCD выбран во втором случае потому что дмд на 3цфг зажарит картинку. Соответственно если с раунетом или шринком юзать без алайнеров, то нужно миллиард токенов прописывать и задирать цфг выше. Есть вариант через Skimmed CFG юзать дмд чтобы негативы жрало или другие семплеры если очень надо, след постом покажу.
Я попробовал дмд в комфи, фордже и фокусе. Везде, естественно, по разному генерит. Но почему-то в фордже красивее. Почему так? В фокусе и комфи видно, что шагов не хватает. К примеру в фордже 4 шага, а тоже само в фокусе и комфи требует 6-8 шагов для такого же качества. Что за магия?
>>883978 Эм я либо не понял прикола либо твои пики говно без хайреза. Где там хайрез-то? Я такой хайрез могу в виндовском просмотрщике исделать за наносек.
Первый пик с воркфлоу, накидал с простым апскейлером под натвис+дмд2 лора, апскейлер лица не меняет и мутаций мало. До этого использовал скачанный с цивита воркфлоу, неудобна.
Аноны, а действительно есть ли место где делятся своими воркфлоу ребята, типа вот так самое збс апскейлить и остальные аноны критикуют, кидают свои, выбирают лучшее? А то треды какие-то ни о чем "у тебя говно, мыло, Кококо", а как исправить и т.д. хуй, минимум полезного, чтоб вкатиться по нормальному.
>>883603 а я попросил нейросеть теги для генерации нейросетью для данного изображение придумать, выдало вот это "vintage" "retro" "Polaroid-style" "film-like quality" "grainy texture" "natural sunlight" "warm tones" "soft shadows" "candid feel" "informal composition"
Уже есть хороший системный промпт с подключением к библиотеке нодов или какие-то другие ухищрения, что генерировать лапшу текстом? Или можно хотя бы это делать кодом без ллм? Я рот ебал для каждого малейшего пука таскать эти недопровода как додик-плёточник, а а1111 не позволяет, допустим, сгенерить во флакс, а потом сразу пройтись по генерации Instant-ID на XL с LCM.
>>884040 Я этого тоже не понимаю. Это похоже на конкуренцию. Боятся поделиться секретами чтобы тебя же не обошли. Обошли в чем и где? Может все здесь в коммерцию работают на генерациях? Заказы потеряют, если много людей будут уметь генерировать красивые пики, без мыла и т.п.? Ну так не жалуетесь тогда. Я буду постить мыло на натвис+дмд+спо. Пока кто-то не покажет как делать это без мыла и т.п. Не нравится - предлагай. Нет предложений? Продолжаем.
>>884040 >>884126 рибятки вы новинькие в тредисе, про мыло пиздит ток мылошиз/флюксошиз, игнорируйте посты где кто-то что-то пишет про мыло просто и всё
>Пока кто-то не покажет как делать это без мыла шарпенинг чтобы как аватарка у дагестанца в нулевых делается - нодами на данную фичу - специальным инишл нойзом, который highres - двупроходкой или особенными семплерами типа рестарта или RK с шагами около 40-50 - апскейлом - контролнетом можно все вместе юзать в принципе, но смысл? это вопервых снижает скорость просчета делая сдхл инструментом уровня флуха с такой же скорость и заради чего? вместо 10 картинок в минуту получать одну, но зато ебать четкость навалена будет ахуеть, ну и нахуя
мыло это пик1, но никто такого в треде не постит, все доебы в постах со словом "мыло" это доебы к реализму как таковому
>>884174 О да, эти мантры мыловара о том, что существует только замыленная нечеткая картинка и, разумеется, ультрашарп аватарка дагестанца! Логика без изъянов. Вы тут видите наебку? Я - нет, все в порядке, совершенно логичные рассуждения.
>>884236 >>884251 это юнет для формирования полноценного чекпоинта сдхл дпо, нужно ток если нужна базовая модель которую будешь файнтюнить или выделять из нее фичи в другую модель
>>884040 >>884126 Я вот тоже не понимаю. Вы залётыши или что? Я чуть ли не каждый тред свои выкладываю. Так же и другие аноны итт показывают воркфлоу. Сколько не спрашивал какие-то наработки всё показывали, разжёвывали и их ддушонка не разрывается на части от того что они засветили идею. И тут залетает в тред 2-хдневный нуб и ему не дают всё и сразу готовенькое и он уже в истерике называет всех здесь куркулями. Читай тред внимательно и все ответы на свои вопросы найдёшь. В гугле этих воркфлоу жопой жуй кстати и на том же сивитаи.
>>884031 >На самом деле Ты не замечаешь, что dmd2_sdxl_4step_lora генерят в комфи на 8-ми шагах >>884028? А ничего, что в названии dmd2_sdxl_4step_lora указано 4 шага? На фордже она работает в 4 шага норм. А на комфи и фокусе ей 4 шага мало, это видно. На самом деле я прав. Ты тонко забайтил на картинки, но давай сам сравнивай. Я только факты изложил.
>>884284 Нихуя не понимаю что там, я юзаю Swarmui но до вкладки с comfy еще не доходил, решил пока с базой разобраться. В общем поставил лору с natvis, и переключил на LCM и 1 cfg, кажется сильнее мылит чем если бы без этого лора использовал.
>>884315 >фокусе Не работает, совсем... Дело не в шагах, уже и lcm выбираешь, и кфг ~1 и шагов не больше 10, а получается хуйня. Не работает натвис с этой ебаниной в фокусе.
>>884341 >Ну смотри сюда: Я не он, но ты тут не прав. Универсально нет шедулера. Всё зависит от кучи факторов. Откуда кто знает что у тебя там за настройки.
Нейрач, более года не заходил. Недолго баловался SD 1.5 с аутоматиком и безнадёжно отстал от трендов. Читая тред, узнал, что сейчас в тренде модель Flux и ComfyUI. Ля, с чего начать? Как накатить-то?
>>884390 И ссд и проц до 100%. Пока с 32 тоже норм, если что, будет выжираться файл подкачки. В общем если хочешь вообще комфортно, то 64 это база для твое сборки.
В комфи есть ноды на ллм модели для генерации промптов или распознавания картинок, но при общении через эти ноды ллм не запоминает контекст и каждое новое обращение она воспринимает как первый раз. Так вот вопрос, есть какаята нода памяти для ллм, чтобы она не забывала диагол при новом запросе? Да там в нодах есть строчка для выставления контекста, но она не работает...
>>884528 Ок, понял тебя. Я хоть и слежу за всем этим, но такой ноды не встречал. Сомневаюсь что она есть, т.к. это чисто для фана и не будет куда-то серьёзно выкладываться с паками нод для ллм.
Аноны, что я делаю не так? Две пизды в запросе, одна на каблуках и в колготках, другая босая. Как написать чтобы все в кучу не мешалось? А то или обе босые или обе обутые
>>884597 Ну то есть если в сдохле надо описать нескольких совершенно разных персонажей, разные позы, разный внешний вид, разные выражения лиц, то этого никак не сделать?
>>884606 Может он и есть но я такого способа незнаю. Сколько пробовал, никогда не получалось. У сдшки (до 3й версии покрайней мере) текстовая модель слабая.
>>884615 >текстовая модель слабая А есть другая? Я пока вижу выход только задать лорой персонажа и использовать лору. Ну фактически упростить описание, вместо кучи слов описывающих перса просто указывать имя. Так работает? Я смогу тогда иметь по разному одетых и ведущих себя и выглядящих персонажей?
>>884653 >Я смогу тогда иметь по разному одетых и ведущих себя и выглядящих персонажей? Думаю что нет, когда в кадре больше одного персонажа то любая моделька начинает тупить, даже с лорами. Насчет флюкса не скажу, надо пробовать но пока он топ в плане понимания промпта.
>>884667 >но пока он топ в плане понимания промпта. Как задетектить хайпонормиса залетевшего в аишку из хвалебных статей про мижорни дома флюх... У ауры лучшее понимание промта.
>>884028 Решил попробовать разобраться в комфи, у меня таких нодов даже нет, может потому что у меня SwarmUI? Еще не понял прикола, ты генеришь пичку и тебе приходится вручную сохранять ее, а если я хочу поставить на поток 50 пикч и отойти от пк, как быть?
>>884706 Какой ещё свармкал? Откуда ты его выкопал? Тебя тянет к васянствам чоль? Может у тебя и винда сборочка, а? Щас как тресну. Ставь комфи, по твоему васяноподелию тут никто ничего не знает. К комфи можно поставить хоть 100 в очередь и пойти гулять.
>>884706 >ты генеришь пичку и тебе приходится вручную сохранять ее Ставишь нод Save picture >а если я хочу поставить на поток 50 пикч и отойти от пк, как быть пикаешь Queue prompt 50 раз и отходишь
>>884715 Поставил этот комфи, тех нод которые нужны были нет как у коммента выше >>884028 , и зачем тогда я это ставил? В SwarmUI все намного удобней в плане интерфейса.
>>884743 >которые нужны были нет Они тебе не нужны. А что нужно поставь через комфименеджер. >и зачем Действительно, ведь на самом деле тебе нужен был фокус или фордж. Комфи для пердоликов. А вообще юзай что нравится, но ожидай что тебе могут подсказать что-то по сварму этому итт.
>>884748 Ну я к натвису прикручивал. В лора только кадры из фильмов 60х. В натвисе у тебя будет шлюха из 2020 стилизованная под ретро как на твоём пике, а там натурально всё окружение и цвета, лица это ретро.
>>884786 Гегель мог бы сказать, что это является результатом духа времени (Geist der Zeit), который проявляется в различных формах в каждый исторический период. Он считал, что каждая эпоха имеет свой собственный дух, который влияет на все аспекты жизни, включая культуру, политику, искусство и даже черты лица людей.
Карл Маркс мог бы сказать, что это результат материальных условий производства, которые меняются от одного поколения к другому. Он считал, что экономические силы движут историей, и что люди, живущие в ту или иную эпоху, отражают эти экономические условия в своей внешности и поведении.
Чарльз Дарвин мог бы сказать, что это результат эволюционного процесса естественного отбора. Он считал, что черты лица людей могут меняться в течение поколений под влиянием окружающей среды и условий жизни. Например, люди, живущие в высокогорных районах, часто имеют более широкие носы, чем люди, живущие на равнинах, по