Китайский сервис по генерации ИИ-видео достаточно высокого качества, понимает как текстовый промпт, так и картинку. Лучше всего понимает китайский, но русский и английский понимает также. Три 5-секундных видео в день генерируются бесплатно, для большего дальше нужно либо менять Гугл-акк, либо платить для доступа к полному функционалу.
Американский стартап по генерации ИИ-видео. Лимит 30 генераций в месяц, дальше нужно платить (для граждан РФ никак, увы). Ну либо поменять Гугл-аккаунт, заведя новый и заново генерировать бесплатно.
В качестве промпта можно указывать как текст, так и изображение. Также можно дополнять изображение текстом, объясняя что с ним следует сделать.
Еще один китайский сайт. На данный момент самый крутой по качеству сервис, но при этом самый дорогой. Есть бесплатная версия, но с ограниченным функционалом и очень долгим временем генерации. В платной есть доступ к генерации длинных видео, видео с высоким разрешением, управление движениями объекта на видео, специальные эффекты типа синхронизации движения губ при речи персонажей и т.д.
В декабре 2024 вышла в общий доступ первая версия Соры. По качеству картинки превосходит все прочие модели, но пока уступает в качестве анимации и приверженности промпту как минимум Клингу. Также присутствует самая жесткая цензура. Прайс-лист на январь 2025 - 20 долларов за 50 видео по 5 секунд в месяц и 200 долларов за 500 видео в месяц с возможностью генерировать 20-секундные сцены + сцены в более высоком качестве. Для генерации из России, естественно, нужен платный VPN, так как санкции.
Китайский IT-гигант Tencent выкатил свой сервис по генерации ИИ-видео, есть как обычная версия по подписке, так и локальная версия, но требуется видеокарта от 40Гб.
Еще один вин от китайцев. Бесплатно дается 80 кредитов при регистрации, промпт по тексту, картинке или референсу (объекты, сцены, персонажи и инструкции по действию с ними). Генерация 1 ролика в 4 секунды стоит всего 4 кредита и занимает несколько секунд.
Кроме того, Google анонсировал свою супер-современную модель генерации ИИ-видео под названием Veo-2, которая пока не вышла в общий доступ, но по качеству анимации и пониманию промпта пока оставляет все остальные модели далеко позади.
>>1015622 (OP) >Hunyuan >но требуется видеокарта от 40Гб >40Гб Нахуя ты эти дебилоидные описания повставлял? Сразу боюсь прочесть остальные пункты, узнать какая там шиза написана. Названия и ссылки - этого достаточно. На крайняк структурированная инфа где есть img2vid/vid2vid/last-frame/lipsync. >Vidu >Еще один вин facepalm.jpg
>но требуется видеокарта от 40Гб Поскольку такого количества видеопамяти нет даже на 5090, то ждём реализацию для нескольких GPU. Если туда ещё и грамотный параллелизм заложат, то и вовсе шоколадно может получится. Хотя всегда есть вариант "нищеброды, идите нахуй" - и даже собиратели ригов таки туда пойдут.
>>1015880 >Поскольку такого количества видеопамяти нет даже на 5090 И да, я знаю про "workflow для 12гб", но модель уровня клинга явно захочет большего, может и намного.
>>1015882 Речь идет о модели, которую все крутят на 12 гигах и даже на 8, никаких «от 40 Гб» не существует, кроме шапки. Не надо их хуйни делать хуевые выводы.
В отличие от других моделей, Хуньюан умеет генерить любые разрешения и длительности (тот же LTX на кастомных разрешениях пидорасит страшно), поэтому 12-16-24 гига ограничивает тебя исключительно по произведению разрешения на количество кадров. Чтобы хуйньюнуть 1280720257 кадров с использованием FP16 модели без выгрузки на оперативу — нужно 80 гигов, да. С выгрузкой на оперативу размер модели становится не важен (а еще есть и FP8 жмыхи), и из 80 ты уже имеешь 55 требуемых, вместо 257 кадров выставь 129 и получишь уже 27,5 гигов, а ужав там-сям разрешение или еще количество кадров, уже влезет на одну 3090. Ну простите, не 10 секунд HD-видео, да! Но на одной видяхе запускается.
>>1016060 Опа! Прошлые 3д сетки легко влезали в 16гб. Треллис уже была довольно неплохой. Эта ещё лучше что ли? Ничего не слышал про неё. Кто-то тестил? Сходу поставить не удалось (ну сука как обычно), фейл при билде pytorch3d, попытаюсь разобраться позже, у них установка описана под линукс.
>>1016046 >FP8 жмыхи В смысле жмыхи? Есть ебланы, которые на fp16 крутят видео? Генерю 960x544x73 на очень комфортной скорости. Как-то соберусь, структурирую инфу, закину в тред, с советами, с вопросами.
>>1016420 >Как-то соберусь, структурирую инфу, закину в тред, с советами, с вопросами. Было бы очень полезно. Тут недавно кидали второй вариант workflow для 12гб с лорой - только на нём и генерю, только лоры меняю. Подробный гайд что почём было бы вообще отлично.
господа анонче, ковыряюсь в клинге с крестиками, ставлю креатив на 0.2, генерация, и оно какого-то хуя скидывает на дефолт 0.5, в конце генерации ебучий провал с "Try again". Что за хуйня? на разных акках. Началось вчера\сегодня
>>1016482 > "Try again" Не прошло пост модерацию. вы обосрались. Можешь не жмякать трай эген, оно не пройдет в таком виде. А вообще не пиши сюда эти залупанские вопросы. Креатив вообще можешь не трогать, кстати, ни на что не влияет. Точнее... это как в виду масштаб движения или как-то так. Не трогай, середина это авто. Чтоб тебе стиллы не генерило достаточно прописать стил слайдшоу и вот это всё в негатив, а в позитив "фотография кам ту лайф", но по большей части это от композиции на фото зависит, а так же от цвета фото и зернистости. Проще говоря - если у тебя фото выглядит как фото и нет подразумеваемости действий - ты идешь нахуй. Так же если у тебя тянка держит руки над головой вытянутые - она за 5 сек до сисек достать не успеет. Чаще всего. А теперь съеби нахуй.
>>1016325 Щито? Где связь, чувак? Ну нету — так сделай. Я локально кручу, на кой фиг мне коллаб делать? Кому надо — сделайте коллаб себе и крутите там (если там есть + 20 гигов оперативы, конечно, не шарю).
>>1016420 73? fast? =) У нее 73 кадра один из лучших показателей. А фиг знает, я тоже fp8 кручу. Я вообще к тому, что это не сильно важно, на самом деле, время генерации отличается, но сама возможность выгрузить хоть всю модель на оперативу есть. А в видеопамяти просто держать сами кадры. Поэтому 12 гигов из рил. Я тоже на 73 генерю.
>>1016425 Если на моем, то я там пояснялки вставил, вроде, простенькие. Вообще, гайд было бы хорошо, но мне лень, надеемся на анона выше.
>>1016425 О, я попробовал выгрузить вообще все на оперативу (20/40) и получил 8667 МБ в пике на видеопамяти с твоим разрешением. При этом время генерации вышло 199 секунд против 39 (т.е., в 5,1 раза), а общий 238 против 53 (т.е., в 4,5 раза). Выгрузка на оперативу не сильно критично повышает время относительно 15/0 слоев. И занимает норм.
>>1017283 >Ранвэй Кал говна сосущий жопу у виду, клинга и пиксверса, которые условно бесплатные. В 2к25 за пайволом обычно лежит кусок говна для гоев. Все остальные рекламятся через триалы и конкурируют за рыночек.
>>1017030 >Ну нету — так сделай. >Я локально кручу, на кой фиг мне коллаб делать? >Кому надо — сделайте коллаб себе и крутите там (если там есть + 20 гигов оперативы, конечно, не шарю). Сделайте мне калаб, спасибо мужики!
>>1017316 Pixverse и, говорят, vidu. >>1017310 Ищи комфи коллаб, в нём импортируй ноды хуньян. >>1017030 >fast? Нет, "честные" 25 шагов со всеми возможными оптимизациями. Фаст - хуйня в большинстве случаев. Можно поиграться, но в основном сильно портит изображение. Аркейн превращается в обоссаное аниме, например. Эффект примерно как с ебучим дмд на рисовальных моделях. С реализмом чуть лучше, можно юзать, если хочется что-то быстро потестить.
>>1017453 https://github.com/kijai/ComfyUI-HunyuanVideoWrapper Эта нода позволяет выгрузить часть в ОЗУ. У меня такое разрешение влазит в 94 кадра с выгрузкой только двойных блоков. С твоим объёмом врама можно генерировать намного дольше, мне кажется. Я для фана в фасте ставил 320x240 и минуту мог уместить в 16гб. Конечно, это не имеет смысла без vid2vid. А как быстро генерит? Алсо, сохраняй в mp4. >>1017590 Сделай мне денежный перевод в виде крупной суммы.
>>1017316 pixverse лучше всего подходит, но понадобится много демо аккаунтов, их можно реюзать каждый день фичу регистрации с точкой и плюсом надеюсь знаешь ролики по 5 секунд, но можно продлять бесконечно можно делать скриншот последнего кадра предыдущего видео в png и дальше продлять с тем же промптом и seed пример релейтед а потом срастить ролики в любом видеоредакторе продлять через встроенную фичу extend video не рекомендую, качество видео будет все хуже и хуже через несколько генераций конечно будет каша, если камера поедет или персонаж повернется
у kling то же есть фича extension, качество еще лучше но в триал режиме будешь ждать целую вечность то ято
>>1017453 Выгружай больше слоев на оперативу (вплоть до 20/40), уменьшай разрешение видео.
>>1017994 Кстати да, неочевидно, но сохранение в webp долгое, надо в мп4 сохранять. =)
———
Всем напоминаю, что есть мой воркфлоу https://files.catbox.moe/udwb8c.json для ComfyUI на Hunyuan со следующими характеристиками: • настройки по умолчанию оптимизированы для 12 гигабайт видеокарты • подключена выгрузка слоев, по умолчанию стоит 20/0 • сохранение в mp4 в отдельную папочку • fp8_fast для скорости • оптимальные настройки сэмплера для 73 кадров, 12 шагов • подключена лора и активизирована лора • подключен рандомайзер промпта, позволяющий генерить сходные по сути ролики, отличающиеся в деталях • добавлены подсказочки • если выгрузите 20/40 слоев и выставите 61 кадр, то может влезть даже в 8-гиговую видяху • оперативы жрет много, этого не избежать, простите, запаситесь хотя бы 32, а лучше 48.
1. Установил ComfyUI https://github.com/comfyanonymous/ComfyUI 2. Зашел в папку ComfyUI/custom_nodes и сделал git clone https://github.com/ltdrdata/ComfyUI-Manager 3. Запустил ComfyUI. 4. Перетащил туда json-файлик (прямо в браузер кидай). 5. Зашел в Manager справа сверху и нажал Install Missing Custom Nodes, там установил ComfyUI-HunyuanVideoWrapper, ComfyUI-VideoHelperSuite, comfyui-impact-pack. 6. Перезагрузил. 7. Скачать все файлы из подсказки в воркфлоу, раскидал по папочкам (о, папочки надо прописать, да!): fast fp8 в ComfyUI\models\unet\hyvideo , лору в ComfyUI\models\loras\hyvideo , лаву в ComfyUI\models\LLM, VAE в vae, clip в clip, я думаю, это очевидно, но тоже надо добавить. 8. Нажал Execute или Выполнить внизу синяя кнопочка такая.
Ну и все.
Кто хочет коллаб сделать (прости, чел, ну не шарю я в них, лень мне разбираться) — как тебе уже сказали, ищи коллаб с комфиуи, и просто выполняй шаги сверху, будет тебе коллаб с хуньюаном.
>>1018281 GGUF долго работают, ты уменьшаешь потребление памяти чуть-чуть, время растет сильно.
>>1017994 >Сделай мне денежный перевод в виде крупной суммы. Братан, на пельмени и стопарик последние потратил. Будь братом, помоги, выручи. Как мужик мужика.
>>1015622 (OP) > ComfyUI + Hunyuan Где почитать как поставить эту бандуру на Винду с 4090? Я вижу только мануал под прыщи. 100% же есть варик поставить всё это на Шиндус. Да и сами вы, думается мне, сидите не под прыщами
>>1019889 Я не он, но могу составить план вместо него: 1)я сообщаю, что никуя не работает, накачалось двадцать гигов хуеты, которая не работает, ни один воркфлоу не работает, потому что нихуя не инсталлируется из слегка устаревших нод. 2) оголтелые сторонники этого всего добра с умным видом рассказывают, что все ок, просто надо все делать правильно и вовремя все обновлять. 3) все равно ничего не работает.
>>1018775 >Выгружай больше слоев на оперативу (вплоть до 20/40)
Так это замедлит все, не?
>GGUF долго работают, ты уменьшаешь потребление памяти чуть-чуть, время растет сильно.
Вот оно что. Я не могу заставить 8-битную дефолтную модель работь в сварме, только ггуф почему-то. Но вроде можно 16-битную в 8 бит режиме запустить, попробую сегодня.
>>1019998 > накачалось двадцать гигов хуеты Потише, братишка, в этой ситуации. Эта "хуета" будет тебе заебатые картинки рисовать и чуть ли не минет делать, если ты поймёшь как с ней управляться.
Clip text encoder (has autodownload): https://huggingface.co/openai/clip-vit-large-patch14, (only need the .safetensor from the weights, and all the config files) to: ComfyUI/models/clip/clip-vit-large-patch14
5. Запускаешь run_nvidia_gpu.bat 6. Слева вверху выбираешь открыть workflow и идешь в папку ComfyUI\custom_nodes\ComfyUI-HunyuanVideoWrapper\examples , там выбираешь hyvideo_lowvram_blockswap_test.json если мало видеопамяти или че хочешь, если много.
Сложный тока пункт четыре — все скачать корректным образом. Все остальное делается даже не думая. Всего потребляется ~20 гигов, из них 9-12 на видеокарте и ~10 выгружено в оперативу.
Если у тебя 24 гига, то не проблема. Все упирается в «контекст» — разрешение умноженное на количество кадров. Разрешения: 512х320@129 и 1280х720@17 Где-то между помещается в 12 гигов видяхи (рабочий стол у меня работает на второй видеокарте, если че).
Вот так как-то. Ах да, может там еще какие модули понадобятся, но их при загрузке воркфлоу можно будет поставить кнопкой Install Missing Custom Nodes, без проблем.
Это заработало, но достаточно медленно, плюс было непонятно, как пристегнуть к этому лору (или несколько). Уже в этом треде кинули воркфлоу, который генерит видео гораздо быстрее, плюс там лору можно подключить. Качал ещё несколько воркфлоу с civitai - типа простых, всё в одном - но там замучаешься ставить дополнительные ноды, сложно разобраться плюс результат хуже.
>>1017375 У меня в прошлом треде выложен десяток видосов примеров с фаста, ледяными королевами и двойными лорами с Аватаром. Всё там норм с фастом.
>>1019661 Comfyui лучше сразу устанавливать со всем нужными нодами в комплекте вот этот: https://github.com/YanWenKun/ComfyUI-Windows-Portable/releases, гайд по установке Ханьюань в Comfyui https://rentry.org/crhcqq54, на 4 пункт можешь забить, и на 3 тоже если установил Comfyui по ссылке выше. (Если никогда не устанавливал Comfyui то надо ещё установить Git и Python 3.10 или новее, при установке питона обязательно поставить галочку в инсталлере в пункте: установить Path). Клипы качаешь сразу в нужную папку командой git clone через git bash.
>>1020181 >Всё там норм с фастом Ну что я могу сказать. Если ты это >>997084 → или >>994347 → считаешь норм качеством, то ты ебнутый на голову. Хуйня без фаста генерирует сильно лучше, фаст лишь для забавы и тестов, его результаты лучше никому не показывать.
>>1020005 Сочувствую. =с Но тебе скинули хороший гайдик (ах да, мой=). Попробуй по нему. Скидывай ошибку. И почекай занятость оперативы. Если у тебя 16 или 32 могут быть косяки с ней.
>>1020306 >абсолютно все включая разработчиков знали про эту фичу >ыыы я кнопочку нажал и все пропало >как раз после большого обновления ты как та шапокляк, но только тупорылая малолетняя шапокляк
>>1020356 >Сочувствую. =с >Но тебе скинули хороший гайдик (ах да, мой=). >Попробуй по нему.
8-битная модель из гайда заработала, спасибо, но она ничуть не быстрее 6-битного ггуфа. 1-секундное видео 944x544 на 50 шагах делается 3 минуты. 2-секундное - 8 минут. 5-секундное видео(121 кадр) на 50 шагах делается 30 минут. Може так и надо?
>>1020470 >1-секундное видео 944x544 на 50 шагах делается 3 минуты. 2-секундное - 8 минут. 5-секундное видео(121 кадр) на 50 шагах делается 30 минут. Очень качественное, но можно порезать качество и разрешение и будет быстрее. Разрешение потом можно поднять апскейлером, качество рефинером, а скорость ещё бустануть через TeaCache Sampler (сам только начинаю разбираться во всей этой каше).
Потом в программе во вкладке models находим нашу модель, нажимаем три точки в верхнем углу, выбираем edit metadata (пик 1) потом выбираем тип модели - hunuyan video и ставим дефолтное разрешение 720х720(пик 2)
Все, можем генерировать, настройки генерации желательно выставить на пик 1, количество кадров лучше выставить кратное 24 + 1(25 для 1 секунды видео 49 для 2 секунд, 73 для 3 секунд и т.д.), можно выставить 1 кадр для генерации картинки - можно быстро проверить промпт.
При первой генерации сварм сам скачает vae и клип-модель. Это может занять время.
>>1020383 >ты как та шапокляк, но только тупорылая малолетняя шапокляк Ок. Как скажешь. Если я такой тупорылый, то почему без проблем ломаю ЛЛМ одним и тем же способом с момента появления клауди? Так же я ломаю виду с выкрученными в космос гайками и клинг, с крестами или без. На клинге и так по сути нет цензуры никакой, потому что китайцы модель детекта тренировали неправильно. Ну или умышленно неправильно, чтобы не было отказов непонятных. Я эту хуйню еще на клинге 1 заметил, когда тупо накидывал туда картинки с порнухой. Виду, кстати, уязвим для моего обычного текстового взлома как любая ллм, причем такая хуйня только на нём прокатывает, но мне текст2видео не интересно. Но делиться я с таким заносчивым хуйлом как ты не стану.
Установка teacache на cварм реальмо ускоряет генерацию в два раза. 1 секундное видео 944х544 пикрел генерировалось 90 секунд вместо 180 без чайного кэша.
Установка проходит нажатием одной кнопки install teacache в advance sampling после чего там появляются пикрел натсройки. Для модели хуйнян надо выставлять 0.15.
Ну ок, запустил тот комфи что под оболочкой сварма сидит, вот лог. И вторым пиком лог сварма, но он по-сути лишь оболочка этого комфи, так что влиять не должен. Не вижу в логе ничего криминального, да и генерация 100% идет в видеокарте - судя по её нагрузке в диспетчере задач.
>>1021027 За генерацию на 4090 на указанных разрешении и количестве кадров надо узнавать у людей с 4090. Я не скажу точно. У меня на 4070ti 5 минут ушло на 944x544@25 на sageattn. В принципе, если у тебя не sageattn и не flash_attn, то норм скорость.
Короче, ребят, я седня порылся с хуньюаном, попробовал разное, погуглил, почитал.
Если хотите, я могу собрать готовую сборку под винду с воркфлоу и отдельно все модели. И выложить на хостинг. Но я не уверен, нужно ли это кому-то. Воркфлоу, который я кидал, мне кажется достаточно адекватным (Enhance Video я попробовал, он мне даже подпортил видос), появился новый Swarm, возможно это никому не нужно, и тратить день на красивое с sageattn и flash_attn смысла нет.
Отзовитесь, кто хочет, но не может, поставить себе генерилку (но имеет железо, которое ее потянет).
Ну а если не надо, то и время тратить не буду, тащемта. =)
Чего в во всех моих гайдах не хватает, кстати, это пункта про установку cuda 12.4. Я забываю об этом, потому что у меня-то он уже давно стоит. А комфи он нужен.
Кстати, там вышла NVidia Cosmos. Кто пробовал, че как?
>>1021217 На самом деле, лично я сомневаюсь. Я держу версию пайторча в комфи и куды на компе одинаковыми потому что ну вроде как!.. Но на деле, какого-то буста от 12.1 => 12.4 я не чувствовал. Но это все пиздаболия, решай сам, конечно.
>>1021178 >появился новый Swarm, возможно это никому не нужно, и тратить день на красивое с sageattn и flash_attn смысла нет. Нашёл инструкцию, как поставить тритон и куду на винду, чтобы flash attention заработала (ну или sage attention, у кого 4090): https://purz.notion.site/Get-Windows-Triton-working-for-Mochi-6a0c055e21c84cfba7f1dd628e624e97 >Воркфлоу, который я кидал, мне кажется достаточно адекватным Хороший, особенно радуют Notes на русском. Но надо бы расширить, тот же TeaCache прямо просится. Множественные лоры, апскейл - это всё нужно. Но при этом хотелось бы сохранить простоту и понятность, а не как у тех воркфлоу, что на civitai выложены - там мешанина и лапша и хрен поймёшь что где. Такого не надо.
>>1020319 Сильно лучше качество? Ну так сделай такой же видос снежной королевы и выложи сюда в сравнении с моим видосом фаста 720х1280 10 шагов, а аноны тут заценят насколько в разы лучше качество твоего видоса, для этого и создан этот тред, иначе ты просто пиздишь. Тем более никто не спорит что оригинальная модель генерирует лучше фаста (это ежу понятно), но качество не сильно различается, а генерирует фаст в 8 раз быстрее, тем более ещё можно чай подключить и скорость генерации ещё возрастёт.
>>1021262 Жопу зашей, возьми и сделай, раз не веришь. Я для себя сразу провел тесты и увидел колосальную разницу. Хочешь жрать говно - жри. >генерирует фаст в 8 раз быстрее Я сначала не понял что это за бред, а потом вспомнил, что это маркетинговый тейк даунов, выпустивших фаст модель. У этих клоунов на промогифках базовые модели рисуют шум вплоть до 49 шага, когда в реале на 20 уже готовый результат. В лучшем случае, Фаст быстрей в полтора-три раза. Опять же уточню, я и сам юзаю ее время от времени, но защищать эту модель глупо.
>>1021467 Справедливости ради, обычная на дефолтных 20 степах себя норм чувствует, хоть и мыльновато, а фаст себя на 6 хуево чувствует, хотя они и обещают, и по факту нужно 10-12 ставить. Учитывая, что она сама по себе крутится быстрее, получается те самые 2-2,5 раза ускорения, да. Так что, so-so… Иногда лоры ее вытягивают, а иногда лоры ее закапывают наоборот.
>>1021467 Понятно. Вид животного: пиздабол обыкновенный. Я уже выкладывал свои видосы. А твоих "супер качественных" видео я здесь нихуя не вижу. Но мне не сложно сгенерить несколько видосиков на 4090. Угадай какие из них оригинальная модель на 30 шагах, а какие фаст на 10. Охуеть в разы качество хуже на одних из этих видосов по сравнению с другими, да? Так по твоему?
ЗЫ: для тех кто скачал новый воркфлоу и не разобрался в настройках, чтобы не было левых артефактов у фаста параметр Guidance надо ставить 9, а Shift 17. Также можно поиграться с семплерами и планировщиками, первые два видоса сделаны на euler + simple, вторые два на lcm + linear_quadratic.
>>1023111 > Guidance надо ставить 9 Мне иногда 11 больше заходит, я его и запихнул в свой воркфлоу. Сравнивал прям на одних сидах через 0,5, пришел к 11. А шифт на 17 лучший, да.
>>1023111 2 и 4 - обычная 1 и 3 - фаст С Энид разница бросается в глаза, но не такая сильная как у меня было. С орангутангой почти не заметно. Жаль, примеры довольно статичные. Вчера снова генерил на фаст и плевался, не знаю почему так. Стояло как раз 9/17, не пробовал менять дефолтный FlowMatchDiscreteScheduler.
>>1023611 А вот и неправильно. 2 и 4 это фаст. А знаешь почему ты не угадал? Потому что и обычная и фаст генерят одинаково (как и заявляли разработчики). Одинаково это значит и фаст и обычная генерят с большим разбросом качества, и та и та модель могут выдать картинку конфетку, а могут картинку г... Только обычная, как я и говорил генерит лучше, т. е. больше выдаёт качественных видосов чем фаст, а на фасте могут время от времени проскальзывать артефакты (10 шагов всё-таки).
ЗЫ: вообще 3 видос от обычной модели я пытался сделать отличным, но заебался генерить (а генерить надо долго), так как обычная модель никак не хотела делать по Лоре нормальные черты лица Ортеги показывающей язык.
Ну, как умеют, пытаются. Результат так себе. Иногда потребуется сильно вспотеть, чтобы получить желаемое. Для конкретных простых движений проще найти ЛОРУ на том же civitai.com или huggingface.co Например, точно видел еблю с тентаклями, не помню на какую модель.
Господа, берите ПЕНИС в руки и дерзайте. https://github.com/NSFW-API/P.E.N.I.S. P.E.N.I.S. (Prompt-based Evolutionary Nudity Iteration System) Система организаций подсказок для создания промптов в LLM и Replicate с обратной связью.
>>1024445 Читай спецификации. На пирамид например >The fluxmini version can run with 7GB VRAM, currently it only supports 5 second videos (temp 16). Fp8 severely reduces quality and is not recommended, only use it if you must. А вообще зачем, я все вывожу в онлайн и не парюсь. Свою 3090Ti использую только для Hunyuan
>>1024708 С какими настройками генерить на фасте я давал инфу, можешь поставить значение Guidance выше. Воркфлоу для 12VRAM карт и модели стандартные (не GGUF), настройки плиточного вае декодера: 256, 64, 64, 8.
>>1025242 Какие же долбоебы тупорылые просто заповедник. Вместо того чтобы репортить хуйню они что-то там объясняют. Для последнего бумера вообще новость: если твои личинки смотрят этот нейрослоп, можешь их сразу отвезти в швейцарию на эфтаназию. А кто-то тут еще кукарекал что ютуп борется с ИИ калтентом.
>>1024329 На данный момент такой модели нет, обещали выпустить в первом квартале, ждем.
Из фотки в видео LTX-Video, там куча ограничений (разрешение/сцены), но она маленькая и на 6 гигах запускается Q8 GGUF версия + Q6 t5xxl, работает в меру быстро, рекомендую попробовать.
>>1024429 Уточню, КогВидео 5б хорошо делает, но она жирная и долгая, пирамидфлоу и мочи говно, к сожалению, ЛТХ на их фоне получше выглядит.
>>1024542 Честно, я встречал такую фигню, не стал копать сильно, не подскажу. Но вижу, тебе подсказали попробовать ггуф версию. Она точно должна сработать, там жорины кванты, отдельный механизм, который изначально под проц ваще рассчитан.
>>1024921 Потыкаю этот воркфлоу ради интереса тоже.
>>1024542 >>1024921 >>1025155 Почекал я эту модельку с этим воркфлоу. 1. Медленнее, конечно. Во-первых, GGUF, во-вторых, возможно нет какой-то ускорялки, в-третьих, на оперативу выгружается почти вся модель, как я понимаю, никакого деления. Против 40 секунд 52 у Q4_0 и 58 у Q8_0. 2. Качество и у Q4_0 и у Q8_0 вполне себе норм, но другой семплер и картинки другие, но это похуй. 3. На q4_0 у меня вышло 9900 мб видеопамяти, на q8_0 вышло 11000 мб видеопамяти, но я подозреваю она просто взяла лишку.
Как итог: воркфлоу нормально, грузить можно как обычную модель, так и GGUF, будет медленнее, чем на официальном, но ггуф скорее всего пойдет на старых видяхах. Нет, мне проверять лень.
А вообще, стандартный воркфлоу даже на паскалях идет, на чем же запускалось-то…
Где какая — попробуйте угадать. ИМХО, для Q4_0 получается достойный результат.
>>1025336 Кто искренне думает, что я пизжу — себе в штаны срет, это личное дело каждого. Мне вот искренне похуй, если честно. Не верите — не надо, разбирайтесь сами, жрите говно. Поднимать ког и пирамиду с мочи мне лень, я их снес, как незаслуживающие внимания. Да и генерить там по 5 минут, нахер надо время тратить.
ЛТХ воркфлоу выложу ща, собрал пару дней назад. Ну и ханьюан тоже щас сделаю пару вариантов.
>>1025407 Нажать одну кнопку для тебя слишком сложно? Окей, не буду грузить твою одну извилину (понимаю твою ненависть ко всему, где линий больше одной), последний раз выложу пацанам, и съебусь, ок? :)
Ну и кроме шуток, я не уловил, нахуя выкладывать видео, если их каждый может пачками генерить. Ценность видосов полгода назад и сейчас — небо и земля. Никто же не выкладывает свои рп под видом книг в LLM-треде.
Третья версия воркфлоу для оригинальной ноды HunyuanVideo. 12 гигов, фаст модель, в ноде есть куча ноутов с ссылками что и откуда качать и куда кидать. https://files.catbox.moe/givdzc.json
https://files.catbox.moe/6jhgsq.json Кастомное img2video воркфлоу для LTX-Video, 6 гигов, GGUF-вариант, ноуты с ссылками внутри, VAE юзаю от 0.9 версии, потому что на моем ноуте с 3060M VAE От 0.9.1 версии не завелась. Экспериментируйте. Сам-то я оригинал юзаю на 12-гиговой видяхе. =) >>1024329 Это для тебя, можешь пробовать.
>>1025407 Все, скрины лапши кончились. =) Это для тебя.
Больше ничего делать не буду, не ребят напрягать, ни время тратить, да и модельки дальше пойдут только пизже.
>>1024921 >Анон, а зачем ты пытаешься генерить на оригинальном воркфлоу, когда есть нормальный Почему ты это называешь нормальным? Там ни блоксвапа, ни чая, ни компиляции. На моей 16гб оно забило больше 15гб врам и спустя 3 шага ещё писало, что будет генерить 10 минут. Это пиздец. Я в таком разрешении около 3 минут генерю в "оригинальном" воркфлоу. И почему киджаевский флоу - оригинальный, если он на левых кастомнодах? мимо
>>1025545 Называю так, потому что на 4090 у меня генерится на этом воркфлоу то, что не может на оригинальном со свапом. Генерится на 4090 быстрее чем на оригинальном с фастом и без фаста. На нём можно использовать модели GGUF. Так подключи чай и прочее, чё так лень что ли? Оригинальный - равно первоначальный воркфлоу для Ханьюаня.
>>1025912 >О, спасибо, что напомнил о компиляции! >Подрубил, поигрался со слоями, ускорил на 45% генерацию. Объясните, что это такое в применении к задаче генерации видео и как это сделать. Тоже хочу ускорить.
>>1026241 Ставишь тритон, добавляешь блок HunyuanVideo Compile, запускаешь, компилится, а потом работает заметно быстрее. Вкратце так. Но тут лапша запрещена, так что никаких вам ускорений, приказано страдать. =D
Тут можно погенерить видосики (см. примеры) https://chat.qwenlm.ai. Долгая задержка, ограничение по количеству в сутки и цензура присутствуют, зато бесплатно). Держу в курсе
>>1026894 У меня на 4090 такого никогда не было. Но это точно можно исправить так как народ свободно делает нормальные видосы на low VRAM.
>>1027517 У Квен неплохая видеомоделька. Еще бы в опенсорс выложили. Хотя все зависит от размера, конечно. Но, молодцы, явно движутся в сторону мультимодалок. Уже все есть — и распознавание, и генерация. Думаю, к концу года релизнут полностью коммерческий проект.
>>1027517 >Но это точно можно исправить Ага, это я что то не ту лламу подключил
Но теперь я еще больше озадачен вроде как разрешение и количество кадров влияют на отжор видеопамяти, однако мне тут нагенерило видео 848х480 на 73 кадра и нормально, память не вылетала. Генерило конечно минут 20, но уже хоть чтото.
Попробовал запилить в тик-токе аккаунт бабы, выложил пару видосов, сгенерированных Sora. Планировал хайпануть на индусах-кумерах. В итоге, Тик Ток пидорнул в теневой бан, видосы не залетели в рекомендации, висят с нулем просмотров. У кого был такой опыт, что я делаю не так?
>>1027867 Там выгрузка модели в оперативу идет. Чем больше выгрузишь — тем больше можно сгенерить. Выгрузишь всю модель — генерировать можно прям нормас даже на 12 гигах. > минут 20 Сочувствую, что за видяха?
>>1027870 Ты угараешь над собой. Так это или не так — не знаю. Очевидно, что тикток эту хуйню сканит и всех сегенеренных отправляет отдыхать. Год назад заебись идея была, последние пару месяцев, после выхода Minimax и обновления остальных моделек, и, особенно, выхода HunyuanVideo в опенсорс — ну такое прям, опоздал.
>>1027904 Я видел в тиктоке дохуя очевидно сгенеренных видосов, с кривыми объектами, трансформирующимися в движении, с кучей просмотров и комментов от всяких америкосов. Как блядь от может определить, что видос сгенерирован? Я и сам не всегда на глаз могу понять.
>>1027916 Тогда два варианта. Либо определялка генерации обучилась на какой-то конкретный паттерн, и тебе не фартануло. Либо там вообще иначе работает и чисто по стране/впну/еще чему-то отправляет в бан, даже не анализируя видео. =( Тады хз, шо делать. Я не тик-токер.
>>1027888 А что с img2vid? Походу квен в такое вообще не может, по крайней мере на chat.qwenlm.ai картинку не загрузить. Меня лично в связи с моими актуальными задачами интересует только img2vid, с упором на консистентность персонажей. Все онлайн сервисы сейчас с персонажами справляются прямо скажем не очень, и это при том, что человеческие лица - это то, что они умеют генерировать лучше всего.
А квен в видео хорош, реально. Наверное потому, что первая (кажется) мультимодалка с видео, то есть промпт хорошо понимает и чётко передаёт. Эх, такую бы радость - да без цензуры :)
Поставил себе локалку hunyuan, появился вопрос - есть ли возможность как-то продлить кусок видео, чтобы оно бесшовно продолжалось? Ну или бесшовный луп сделать. Прикрепил кусок штуки, которую хочу продлить.
Чёт никак не могу понять как заставить hunyuan с enhance-a-video добавить https://github.com/NUS-HPC-AI-Lab/Enhance-A-Video Юзаю стандартный воркфлоу, но к нему оно не подключается, а собрать свой не получилось. Может кто поделиться своим опытом?
Ну охуеть теперь, КлингАИ выпилил фишку с крестом. Я хз как теперь нищеброду типа меня генерить видосики с сисиком писиком. Анон, есть чтото подобное на замену? Выручай анон, это была самая крутая штука, я был в восторге. Теперь както приуныл.
>>1030647 Я чёт как-то не осилил ноды Kijai. У меня в целом какая-то трабла после обновы Comfy, что автоматом ничего не подкачивается, приходится как долбику выискивать самому.
>>1031196 Полезны, если они дельные, а главное верные. Здесь анон недавно выкладывал воркфлоу для 12гб, причем рабочие - вот это действительно полезно, а хуита в шапке не по делу и вводит в заблуждение.
>>1034265 Странно, что Топаз (если не качать с торрента) стоит 200$ и его покупают, когда для апскейла видео есть охуенный по твоему заявлению бесплатный RealESRGAN)
Какая же хрень эта hunyuan. Даже бегущую в слоу мо женщину с трясущимися сиськами загенерить не может. Жаль у qwen ограничение по генерациям, он справляется с таким на ура.
>>1035821 Я делал воркфлоу для 6 гигов на gguf: >>1025496 Но у него safetensors и файнтюненная версия. Она гораздо быстрее Hunyuan по понятным причинам.
Его воркфлоу >>1035835 работает через Florence, и немного лишней видеопамяти отжирает, обрати внимание. В начале создает описание картинки, а потом его использует как часть промпта.
>>1035789 А где такой (ltx-finetuned-3b-v2) тюн можно скчать? Чот не гуглится. Вообще находил только один файнтюн, dream diffusion называется. Чел который её тюнил убрал возможность скачать, и вторую версию уже только за бабло отдаёт. Для видосов кст можно звук сгенерить, вот такой фигнёй https://github.com/kijai/ComfyUI-MMAudio
А что с Hailuo Minimax? Что он такой загруженный со вчерашнего дня? Обычно я в 6 утра ставил по 3 видео с трех аккаунтов и через 5 минут первое уже сгенерировалось. А сейчас очереди огромные.
>>1015622 (OP) Аноны, слёзно прошу, выполните реквест, мне ради прикола: анимируйте 1-ю пикчу так, чтобы нидзя взял свою жопу рукой и начал сочно сжимать её, совсем чуток развернувшись. Если не получится, то сделайте чтобы на 2 камера зазумилась ближе и ниндзя начал тверкать.
>>1038025 >Мне тредовские пиздаболы обещали img2vid hunyan в январе. Что случилось? Откуда была инфа и кто обещал? Нифига, я тоже здесь спрашивал. Точный ответ не помню, то ли в конце первого квартала, то ли во втором. Никакого января. Сам бы хотел так-то.
>>1038002 Очереди так и не рассосались. Еще и даже нсли до тебя очередь доходит часто ошибку выдает и не генирирует. Это еще совпало с обновлением месяца. Мб с этим связано? Хотя бесплатные генерации каждый день дают.
>>1028049 Подскажи что в промпте передаёшь? Пробую что-то подобное что у тебя в третьем видосе сотворить, но почти всё что генерится - статичное, такой динамики движения нет. Саб.
>>1025496 Сап. Можешь помочь? Хочу начать видосы генерить после картинок. Есть 4099 и 24 гига. Твой воркфлоу оптимален и для них? Или есть более оптимальный?
>>1041871 >а ноды то откуда взять? или они при наличии тритона появляются? А там в Менеджере в строке поиска если ввести - не появляется? Там много всего есть. Если нет, значит где-то на гитхабе, ставить по ссылке. Одно из двух.
>>1039741 Странно что никто не тестит и не пишет. Я и сам молча гоняю второй день, но скинуть нечего. Реально охуенная реализация. Лицо держит лучше клинга. Только движения слабые, но это скилл ишуе, у меня и без имг2вид не получалось ничего сложного запромптить. Из минимальной инфы добавлю: это вшито в ноды Kijai, активируется, когда прокидываешь одну пикчу в samples. Есть две лоры, на 320х512 и 544x960. Именно такие разрешения и ставил, 65 кадров, на этих настройках работает. С другими не экспериментировал, луп тоже не пробовал на имг2вид, интересно сработает ли на 320x512x201, в 544p не влезет столько. Компиляция, блоксвап, фаст модель, лоры, ip2v - всё это совместимо. Бывает генерит почти статичную пикчу или смену сцены, но я считаю это тоже скилл ишью, зависит от промпта и пикчи. Интересно что это за чудеса вообще такие, почему сразу не было, почему пишут, что это требовало обучения модели, как оно работает и как совместимо со всеми прошлыми моделями, чего ждать от tencent и почему нет end-frame.
>>1041864 Можно поиграться с выгрузкой (не выгружать в оперативу, а все держать в видеопамяти), или сделать разрешение повыше, или сделать кадров побольше.
>>1041572 Это в плагине от Kijai встроено. Дважды тыкнул по workflow и набрал в поиске.
>>1042563 Что ж, сейчас заценим. Насколько я понял, технически, это не специализированная модель, а хитрая попытка подсунуть стартовое изображение, и судя по превью, работает так себе. Вполне возможно, что полноценная моделька будет гораздо лучше. Ну или нет, как повезет, ща потещу.
>>1039741 >>1042563 Итак, попробовал я эти лоры и попытку энкодить первое изображение. В силу того, что у оригинальной модели свой генератор изображения, она училась на том, чтобы рисовать свои кадры, и когда ей даешь картинку, сгенеренную не ей, или фото, она ведет себя случайно. Иногда мы получаем просто хуйню, не следует промпту, потерянные цвета. Иногда мы получаем рандом, где совершенно другой персонаж делает другие вещи. Иногда мы получаем достойное видео.
Короче, такое ощущение, что это на 75% хороший вариант — пересидеть до их официальной модели. И разрешения хорошие у лор.
В общем, пробовать можно, но рассчитывать на что-то особо не стоит.
Мне тут по работе дали задачу освоить хуньян для анимации прона. До этого я занимался картинками и текстами. Потыкал, до качества челов с треда и Civit ещё далеко...
>>1042795 Можно и мне такую работу? Много зарабатывать приходится? А сколько работать? Что там к этому качеству стремиться. Скачал видео с civit, закинул в комфи, уже можешь такое же сгенерить, если памяти хватает.
>>1042799 >А сколько работать? Как и везде - фуллтайм. Я работаю на игровое подразделение одного чёрно-оранжевого сайта, там сейчас задача анимации порно картинок одна из главных. Текущий пайплайн включает дорогую и долгую работу аниматоров. Всех хотят заменить на нейронки. Если шаришь и умеешь, то легко найдёшь работу в любой из игровых команд.
>>1042868 Ага, персонаж должен быть один и тот же.
Есть порнхаб, у них есть игровая площадка - нутаку. Там полно игр. В каждой игре есть набор персонажей и секс сцен с ними (картинки). В идеале сцены должны быть анимированы. Каждую игру делает сторонняя команда разработчиков. Сейчас команды нанимают аниматоров, которые вручную анимируют картинки. Нутаку хочет помочь своим командам делать анимации быстрее и дешевле. Моя задача построить для наших команд пайплайн, которым они смогут анимировать сцены в своих играх.
Без шуток, есть есть есть умение генерировать красивые видосы, то можно найти понравившуюся игру, написать команде и устроиться к ним работать задорого.
>>1042919 Вообще, звучит, будто тебе проще генерить картинки, а потом их анимировать. Либо через воркфлоу выше с лорой, либо через LTX-Video. Ну, как минимум, можешь попробовать.
Хотя, если у тебя есть компьют, то обучить лору на персонажа проще, я полагаю.
>>1043039 >проще генерить картинки, а потом их анимировать Ну да, картинки уже есть. Например на картинке тян на члене прыгает, надо сделать так, чтобы картинка превратилась в небольшую гифку, где она на нём прыгает.
Спасибо за рекомендации. Завтра буду ресёрчить дальше.
Компьюта особо нет т.к. каждя игровая студия будет запускать это всё на своей инфраструктуре. Но на ранподе что-то арендовать они могут, да.
>>1042795 >Мне тут по работе дали задачу освоить хуньян для анимации прона. До этого я занимался картинками и текстами. Потыкал, до качества челов с треда и Civit ещё далеко... Вы долбоебы просто и хуйней занимаетесь. Зачем осваивать говномодель. когда можно как другие западные кокбанчики (на ютубе их тыщи) арбузить корпоративные нейронки? Найди эффективный способ обхода цензуры и зарабатывай. В крайнем случае ты не поверишь но: расцензурить будет проще, чем хуйнянить кривое говно с нуля. Вы ж ебучие порнушники, в РФ это И ТАК УГОЛОВКА, вы вне правового поля. Не поебать ли вам на копирайты? Любые ватермарки можно свести, кстати.
Ну и не рекомендую живущим в РФ на его призывы откликаться. Это крайне не безопасно в нынешней ситуации. Нет гарантий что это не тащ майор палку хочет заработать. Сперва подсадит такого лошпета к порнушникам, а потом оформит всё по красоте, взяв с него показания в обмен на более легкое швабрирование.
Получилось смешать 2 лоры на хуньюуань для 12 гиговой карты, но генерация работает как то странно один раз может 3.5 минуты генерировать а другой 10 минут ролики по 5 секунд, непонятно от чего зависит, видеопамять и гпу гузятся на 100%, но при этом видюха почему то всего на 56 градусов прогревается, такое ощущение что где то что то работает не так.
>>1043721 >но генерация работает как то странно один раз может 3.5 минуты генерировать а другой 10 минут ролики по 5 секунд, непонятно от чего зависит, видеопамять и гпу гузятся на 100% Нехватает видеопамяти. Попробуй поискать на цивите другой воркфлоу под 12гб, и выгружать все остальные вкладки браузера перед генерацией
>>1042953 >>1043039 >OmniHuman-1 >Currently, we do not offer services or downloads anywhere. Что вы там пробовать собрались? Хуй они такое в опенсорс вывалят.
А что там пока с генерацией видосов на проце, есть воркфлоу, пробовал кто-то? Мне собственно видосы как таковые не нужны, мне нужно просто покрутить любой объект чтобы сделать пяток кейфреймов.
Я вообще ебу что ли, у меня 64 гига оперативы на игровом компе, при генерации занято ~40-45, плюс видяха на 12 забита. Если у вас там видяха на 12 и оператива на 32, то… напрашивается идея, что оно свопится на диск в файл подкачки.
Замеры-замерчики.
>>1043768 Да на здоровье, разницы между видеокартой и процом технически-то нет, все эти ваши торчи и на проче работают. Просто в 10~100 раз дольше. В ComfyUI есть плагины, которые позволяют выгружать модели и контекст либо на другую видяху, либо в оперативу. Не помню названия.
Просто будь готов к результатам не через 5 минут, а через 2-3-5 часов. Если тебе норм. Ну а может и раньше, я не пробовал, честно.
>>1045544 включи камеру на смартфоне, там все в режиме реального времени и полный контроль над движением камеры и происходящем на экране там даже есть кнопочка AI
>>1043835 >не через 5 минут, а через 2-3-5 часов. По 40 минут на коре ай3 с 4мя ядрами. Поставил базовый пайплайн с гитхаба ЛТХ. STG не запустился, потому что тамошнему йоба-семплеру нужен именно bf16, а бф16 нужен куда-девайс. В общем img2video унылый как у всех этих моделей, что онлайн что локал, тупо не читает всю визуальную инфу с картинки и не знает что с ней делать. Годится картинку немного анимировать. Еще у этого LTX такой прикол, что ему нужно скармливать картинку пропущенную через ффмпег-сжатие с 30 црф, а то он ее будет считать статичным слайдом. В ткст пободрее, но там обязательно нужно новеллу писать в качестве промта, да и подозреваю с соей все норм. Еще такая жопа, превью почему только в 16х16 пикселов. Короче все сыро и печально, ну хоть комфи поставил зато. Когда пойдут массово все эти новые процы на стопицот ядер наверное будет реальной альтернативой гпу. Главный затык это куда которую задроты не думая суют везде в качестве единственной опции.
>>1046731 >Еще у этого LTX такой прикол, что ему нужно скармливать картинку пропущенную через ффмпег-сжатие с 30 црф, а то он ее будет считать статичным слайдом Вообще-то любая картинка это по определению и есть статичный слайд. LTX требует детального описания в промпте, какие действия должно осуществлять то, что изображено на картинке. Если просто дать картинку с бабой в ванне и написать "женщина купается в ванне", то на выходе будет практически статичная картинка со слегка вибрирующими пикселями.
>>1046815 Не там именно штука в том что если дать хай-квалити фото без артефактов, ЛТХ его трактует как статичный объект и будет делать драматичный накат или вообще нихуя, игнорируя промт. А вот если картинку обмазать квадратиками, то он узнает брата колю и может ее заанимировать даже вообще без промта. Это во всех гайдах поминается и я сам с таким столкнулся.
Он писал о том, что модель обучалась на шумных кадрах. И качественные отсутствуют у них в датасете, поэтому она не умеет анимировать. Надо сжимать в шакалы, и тогда ЛТХ работает хорошо.
>>1046852 >ЛТХ, он маленький и быстрый. И тупой, да. Ну если его использовать в T2V с предложенными промтами, то выглядит как-то вот так. Вообще у меня ни в одной модели не получается с img2vid как я хочу, ближе всего в vidu. Загружаю комфи с форсед f8 при загрузке и на моих 16гб памяти немнего влезает в своп. А куде нужен бф16, с ним вообще залило в своп 10 с лишним гигов. Хуньюаню наверное будет мало совсем 12ГБ карты.
>>1047178 Надо еще потерпеть. Помню мне тут на доске один додик доказывал, что генерация видео на локалке невозможна, сору никогда не выпустят в отрытый доступ и вообще вся хуйня заглохнет.
>>1046731 Кайфую с ltx. Ещё бы руки с пальцами не превращала в жертву фрезерного станка, вообще б покайфу было. Жаль что для неё лор никто не пилит. Нашёл только одну лору, вроде неплохо хуй между сиськами мнёт.
Вопрос про img2vid Hunyuan (LeapFusion). Я вот гонял первый день, охуевал, оживляет пикчу, часто лицо сохраняет безупречно, все классно, только движения иногда кривые, нужно играть с параметрами и промптом. А сейчас последние дни пробую, получается одна хуита. То статичное фото, то слайдшоу, то вместо видео какие-то шумы разъедают изначальное фото, частично пытаясь что-то врисовать. Доходит до абсурда - делает переход и генерирует почти точную копию одежды, и позу, но генерирует своё лицо. Казалось бы, нахуя? Похоже, длинные промпты, описывающие изображение и что с ним будет - вредны. Попробовал идею из треда про компрессию кадра ffmpeg, разницы не заметил, даже когда убивал пикчу в ебучие шакалы. Проверил параметры на удачных результатах, это в основном пикчи сгенеренные с дмд, в видео промпте чаще всего просто теги того что изображено и что будет происходить, само действие уже почти происходит на изначальном фото, enhance: 3-4, 0.8-1.0, teacache: 0.15-0.25, steps: 20, в encode noise: 0.0, latent: 1.0 . Если надо, то качество потом можно повысить, я лишь пишу, что на таких настройках получалось хорошо оживить изображения. Что для вас работает? Какие параметры, стиль промпта, особенности фото. Что помогает, если изначально не получается хорошее видео?
>>1048895 LTX-Video 2b маленькая, быстрая, картинки из коробки, но тупая и хуево не людей анимирует. HunyuanVideo 13b, LeapFusion лора, большая, медленная, через костыль, но если фартанет — хорошая анимация получится. Лучше подождать полноценной img2vid Hunyuan, обещали в первом квартале.
>>1049170 По их тестам сопоставима/чуть обходит Hunyuan, имеет img2vid, но «выкатили» они только папиру и сами тесты. Модели пока нет. Или ждем, или не дождемся. =)
>>1048971 Квен единственный понял, что татуировки должны быть на лице, но перепутал расу танцовщиц на заднем плане. Клинг не туда поместил татуировки, хотя в остальном всё почти идеально. Хайлуо заморозил танцовщиц и вообще проигнорировал татуировки.
В Клинге еще можно вроде синхронизировать речь, но это только в платной версии.
>>1049614 Ппц. Нигры больше не нужны для клипов. Можно создать полностью АИ артиста. Прикиньте. АИ репер. Музыка есть где делать, фото для инсты тоже, теперь и клипы. Это пиздец. Я бы на месте западных реперков бы давил бы всех этих жидов кто нейронки делает. Это же пиздец!!1
>>1049614 И как раз для клипов такие переходы через каждые 3-5 секунд вообще нормально воспринимаются. Во всех клипах так почти, такой рваный монтаж и склейки. Это же пиздец
Анон, короче. Нужна подписка на клинг. Где выгоднее всего взять? На офф сайте если брать то как будто хуйня, 660 кредитов всего, но там написано что еще каждый день дают. А по сколько?
>>1049624 >Можно создать полностью АИ артиста. Прикиньте. >АИ репер. >Музыка есть где делать, фото для инсты тоже, теперь и клипы. Это пиздец. Я бы на месте западных реперков бы давил бы всех этих жидов кто нейронки делает. Это же пиздец!!1 Ты тупой просто. А в рекламной компании Suno наоборот негрорепер участвовал, который был среди продвигателей увеличения синтетических инструментов. Вообще, рэп никогда реальную музыку и не использовал, самые первые рэперы уже дрючили пластинки, и под это рэповали, им чем дешевле тем лучше. Поэтому негрореперу даже в тему сделать АИниггера, которого он будет тупо продюсировать, попивая коктейли со шлюхами на своей вилле. Чё думаешь у негрожопа высшая идея хуярить музло в живую 24/7? Они это ради бабок делают. Это тебе не беложопые дрочилы типа роллингов лед зеппелин, зизитопов и прочих, которые выросли из музыкальных задротов хуяривших сессионными артистами. К тому же у макак нет никакой консолидации, он готов один жить на вилле, даже ценой того что пара сотен тыщ рэперков нахуй отпадет. Это как торговля наркотой и оружем. Им тупо похуй. И мне кстати тоже. Хули ты трясешься? Чё рэпер дохуя или музыкант?
>>1049990 Какой же ты дегенерат. Тоже самое будешь писать про тех кто делает кино или аниматор кто мультики рисует. Художников заменили уже почти. Сейчас пришли за музыкантами. Дальше киношники. Ты тупой гречневый васян просто
>>1050100 >Художников заменили уже почти. Где их заменили? В твоем воображении? Ты визгун типа тех русачков, которые агрятся на анекдот про жидов рассказанный в компании, когда сами евреи в той же компании с него рофлят. Хрр-тьфу в еблище те, съеби нахуй отсюда, трясун зашкафный.
>>1050110 Справедливости ради: 1. хх.ру никак не отражает действительность, ибо распространенная практика — создавать вакансии, получать тысячи отзывов (в Мск явно больше 580 художников ищет работу, речь скорее о десятках тысяч=), а потом выбирать кто дешевле всех сделает то, что тебе надо (а что не надо — вообще игнорировать, ну отозвалась тыща человек на несуществующую вакансию и хуй с ними). 2. Сравнение настолько охуенное, что я даже потерял связь между автором и примером. х)
Ахах, большинство вакансий типа - нужон иллюстратор для покраски пряников, тканей, аниме фигурок, заборов, ну или учитель рисования. А компутерные художники не нужны.
>>1050269 Я тебе специально показал иллюстраторов. Обосрался - обтекай.
>>1050122 >Справедливости ради: Я просто взял ХХ. Естественно реально на нормальном ресурсе ЕЩЁ больше вакансий. У меня много знакомых художников, кто-то из них стал использовать нейронки упростив себе работу, но без работы не остался буквально никто. Кукарекающий выше пидорас - просто самый обычный пидорас, не способный понять, что ИИнегер - это мечта любого негрорепера, но остальным это не угроза. Что-то меньше всяких витуберш не стало, хотя их может заменить любая ТТСка легко, а за ту сторону мониторы может сидеть двачер червь пидор. Но... чё то не заменяет. А ответ прост: пизде пиздеть только надо, а червю пидору майнтейнить целую систему. Так же и профессиональный художник юзая дифуззию и планшет - нахуярит норм картинку за полчаса, а пидор прумптер будет инпейтом перддолиться часа три и закономерно отсосет у профессионала.
>>1050293 Дело не в ХХ, дело в самих вакансиях. Они никак не отражают реальный рынок, и я объяснил почему. Ты бесплатно устраиваешь опрос, кто готов работать на тебя за еду. Вот и весь «рынок вакансий». Кого из них возьмут и на какую зп — обсуждается в собесах и регулируется договорами, налогами, в общем, все гораздо сложнее, чем вакансии. Рабочих мест гораздо меньше чем вакансий, так и живем.
По второй части, многие совершенно не понимают, о чем идет речь. Художник ≠ профессионал. Художник — это 100000 15-леток из ВК и два десятка профессионалов на всю Россию. К последним вопросов нет. А первые… Ну ты еще скажи, что не видел десятков рекламных плакатов, сгенеренных нейронкой, висящих на похуе во всех городах. Ну так вот. 15-летки (99% художников в контексте диалога) и правда идут нахуй. =) А если человек профи, то о нем не говорили.
Так же, говоря о рэперах — не говорят о Снуп Доге или Эминеме. Речь о сотнях тысяч рэпующих чуваков, которые там че-то сингл, лейбл, туды-сюды, купили булку на заработок.
И видео, опять же, туда же. Снимать фильмы — это не про… Впрочем, фильмов хороших уже не осталось, тут похую совершенно.
Окей, книги. Погугли статистику по тиражам от авторов. Больше всего в России издается и покупается… Да все те же, Донцова, Маринина, Устинова, женские романы и детективы. Далее у нас идет фантастика с фэнтези и попаданцами. Заменить то же не сложно.
Короче большинство ≠ профессионалы, когда люди говорят, что нейронка заменит ту или иную профессию, это не значит, что нейронка заменит элитное произведение искусства, но 99% любителей в сфере нахуй пройти могут.
Думаю, таким образом недопонимание между вами может быть устранено.
Но если автор первоначального комментария искренне верят, что и Снуп Дога заменят, то я умываю руки.
>>1050342 Ах да, накину про программистов. Как было замечено кем-то и растиражировано не так давно, у зумеров есть проблема — завышенные ожидания как по зп, так и по навыкам. Они искренне себя считают умными, незаменимыми и «ну бля, я пишу код профессионально, а нейронка тупит». Хотя на практике эти люди на должности джуна — пишут хуже coder-7b. А мнение крутых дядек «да не, нейронки хуже стажеров!» основываются на том, что их стажеры — это вчерашние сеньоры с 5-детним опытом (литерально), конечно нейронки хуже них пишут, без вопросов. =) На деле имеем ту же проблему — некорректное понимание общности, и полностью ненужных «спецов» де-факто.
Да, оператор ллм норм, но «джун JS» это нахуй не нужное сейчас.
>>1049614 И вот возвращаясь к изначальному видео, честно скажу, в условной кафешке, где на заднем фоне МТВ крутят, мне было бы похуй на то, насколько эти негры неаутентичные. Они выглядят как негры с МТВ и поют как негры с МТВ. Вывод: негры на МТВ нахуй не сдались теперь.
Если вы, блядь, дохуя ценитель негров с МТВ — тогда совсем другой разговор. Но вряд ли вы фанатеете по дженерик говну, скорее всего у вас есть любимчики и вполне конкретные, с четкими причинами.
>>1050360 >> честно скажу, в условной кафешке, где на заднем фоне МТВ крутят, мне было бы похуй на то, насколько эти негры неаутентичные 99 процентов негров рэперков и не только негров именно такие. дяде жиду продюсеру они больше не нужны. нейронки худшее что было с человечеством. мне нужны новые антибиотики, а не дженерик негры. лучше бы все мощности тратили на расчет протеинов
>>1049580 тебе онлайн типа? для клинга поверх сосков нарисовать загогулину или зарисовать полупрозрачным белым, раньше клинг сам дорисовывал вместо белого что нужно, сейчас хз для пиксверс в /nf/ найди специфический тред, там пример
ну и модели без цензуры image2video есть на tensor.art (50 кредитов ежедневно) и nim.video (300 кредитов однократно) для тестирования пойдет, главное правильные промпты делать, у каждой модели свои заморочки
>>1049580 примеры обхода цензуры есть определенный фетиш использовать для клубнички модель, которая не тренирована на порнухе, и понятия не имеет, как выглядят половые органы
>>1049891 в демо режиме используй через регистрацию по мейлу просто придется подождать в очереди, и потом еще чуть-чуть, и еще немножко, а потом кофе попей что-ли че как дурак три часа в экран смотреть
Еще один сайт в стиле Ним.видео. Доступны Клинг, Хайлуо, Люма, Пиксверс, Пика, Сивид и их собственный генератор (Полло)
Отличие в том, что в бесплатном режиме на Ниме тебе дается 300 кредитов одномоментно, и дальше всё, плати (ну а платить проблемно из РФ). Здесь же дается по 20 кредитов бесплатно каждый день + 25 кредитов каждую неделю при условии ежедневного захода на сайт.
>>1051626 >Здесь же дается по 20 кредитов бесплатно каждый день + 25 кредитов каждую неделю при условии ежедневного захода на сайт. Ага, и одна генерация 30 кредитов самая минимальная. То есть как еблан ходить туда и через день генерить одно видео в хуйне, когда всё это есть бесплатно и без вот этого анала на сайтах оригинальных. Не таскай сюда этих ебанутых посредов, плис. Нельзя хотя бы один видос сгенерить сразу с чистого акка - резко нахуй.
>>1052233 ключевая фраза hand forcefully shoving OBJECT straight forward inside her можно добавить between butocks дальше описываешь субъект, позу, обфусцируешь промпт, если триггернется
Если я хочу видеокарту чтобы она быстрее всего в topaz video ai(или похожем софте) улучшала качество видео(конкретно, старые записи телепередачч, шоу, например, с 480р до 1080р), то на какие параметры смотреть? Условно, 3080 ti или 4070 лучше? 4070 ti super 16gb или 3090 24gb?
>>1055153 >ты не найдёшь 3xxx новые, а те, которые тебе продавать будут, куплены были в 2020м под майнинг Зато ты найдёшь топовые 3xxx за ~70к, а всё что выше - существенно дороже даже в пересчёте на единицу производительности.
>>1055171 >>1055153 В днс их полно, шизло, но да спецом для вас сидят в подвале с майнинга переделывают и в новые коробки кладут. хррр-тьфу. Совсем уже ебанулись. 90% населения срать на нейронки, даже близко нет ситуации когда майнеры выжали розницу. Долбоебы оскотинились уже в своем нейромирке.
>>1055085 Справедливости ради, 4070 ти с выгрузкой на оперативу хуньюан генерит быстрее 3090 все же. Но объем оперативы дает о себе знать в других случаях.
>>1055085 б/у 3090ti 24gb по цене примерно соответствует новой 4070ti 16gb, по производительности тоже, если судить по старому сравнению генерации картинок но 24 гига всегда предпочтительней главное не наткнуться на перегретый кирпич с авито и не забывай что 30 серия очень требовательна к охлаждению, особенно VRAM мне когда-то пришлось сделать себе такую примочку из серверного радиатора и термопрокладки, чтобы не беспокоится за перегрев
>>1055184 30 серии в ДНС почти нет, отфильтруй по наличию