привет двачмэны, запилил киберпанк-клип с Мочи, но русский у меня кривой — только с бабкой и родителями болтаю, так что не шарю в сленге и вообще не уверен, что тут всё норм по переводу и грамматике.
>>946041 бля а ведь неплохо пердолится, мне нравится
Jailbreak Google MakerSuite для Таверны
Аноним08/11/24 Птн 21:02:27№943772Ответ
Мужики, яйца горят, я не могу жить без кунинга, прошу всех нейрочадов с двача помочь, скиньте нормальный JB для гемини, чтобы прилично описывал rape, футачек и прочие приколы.
Аноны, а вы понимаете что Стабилити ЭйАй провели нам шершавым по губам в своих публичных моделях? Как и большинство других популярных сервисов. Они вшили в свои базовые модели ватермарку, якобы из благих намерений (чтобы не портить датасеты). Но также слили сервисам фильтрации нейро-контента все инсайды по своим ватермаркам. Как итог, какой-нибудь Hivemoderation с вероятностью 99% процентов задетектит картинку анона, даже если тот сделает снимок экрана монитора.
Я легко могу это доказать. Специально откапал пикчи 5-летней давности от Artbreeder, в которых даже самый долбоеб опознает АИ. И что думаешь, анон, Хайвмодератион не определил ни одну из них! А все потому что нет в таких сервисах никаких нейросетей обученных находить различия между АИ и человеком. Там тупо алгоритм с паттернами ватермарок. Он не способен старый Артбридер найти, ведь тогда ватермарок даже еще не существовало.
Так что если ты мечтаешь поднять бабок на Пиксиве или Девиантарте, то забудь, тебя определят в АИ-загон даже после многочасовых правок АИ-арта, даже если эксперт-искусствовед не с способен будет отличить его от человеческого. При этом корпорации получили модели без ватермарок и могут спокойно наебывать народ, любой детектор покажет околонулевые значения даже самому всратому их арту.
>>942716 >>942704 >>942692 Я заметил, что при улучшение качество фотографии с помощью нейростей AI . Результат нейросети 100% 99% Фотография была обработана с помощью нейросети 2% оригинальная фотография не подвергалась улучшению качество с помощью AI
>>942716 Ты какой-то говносервис нашел. Я только один знаю нормальный которому слили все актуальные данные по ватермаркам - Hive Moderation. У него норм точность, если загрузить 100 АИ-картинок то 95 определит. Остальные могут вообще 50/50, что было поводом для срачей и нытья хуйдожников которых окрестили АИшными.
>>942724 >>942736 Можешь не заморачиваться с шумом, отражением, обрезанием, поворотом. Ничего не получится без существенного искажения картинки. Шум сильнее всего влияет потому что ватермарка считай что на минимальных колебаниях тона и яркости построена.
адоб ИИ генеративная заливка в фотошорте /adobe/
Аноним31/10/24 Чтв 17:41:47№936856Ответ
адоб ИИ генеративная заливка в фотошорте
есть ли какие то бесплатные пиратские обходы их системы запрещающей юзать эту функцию??
Аноны а чем ключи на гопоту вида sk-xxx отличаются от sk-proj-xxx че за хуйня
ИИ для трейдинга
Аноним# OP26/10/24 Суб 11:00:01№931723Ответ
Хай. Прочитал сегодня что существуют какие то ИИ для трейдинга. Вроде они могут анализировать тренды рынка, давать приблизительные оценки будущей стоимости бумаг и т.д. Так вот вопрос: реально ли это или прогрев гоев и если такая тема есть насколько это доступно обычному мимокрокодилу мамкиному инвестору?
>>931723 (OP) Трейдинг для обычных людей это игромания, по сути. Рил кабан трейдинг это инсайды-инсайдики, а не потешные манянейронки. Если ты не приближен к лядим лядимычу попыту, то ты не трейдер, а сраный лудоман. Найди нормальную работу
Stable Diffusion Flux тред X+126 ====================================== Предыдущий тред >>933778 (OP)https://arhivach.top/?tags=13840 ------------------------------------------ схожий тематический тред - аниме-тред >>930737 (OP) ======================== Stable Diffusion (SD) - открытая нейросеть генеративного искусства для создания картинок из текста/исходных картинок, обучения на своих изображениях. Flux — открытая нейросеть нового поколения для генерации изображений от стартапа Black Forest Labs, основанного бывшими разработчиками Stable Diffusion. Полный функционал в локальной установке (см. ниже)
Пример промпта (запроса) для sd1.5 или SDXL: an european girl, standing, high quality, soft focus, 8k, photograph by nick nichols Пример промпта (запроса) для Flux: This photo shows a small smiling young caucasian adult woman with blonde hair wearing a pink t-shirt with the words "SD3" and panties sitting on a white couch with her legs crossed in a yoga pose, in the background of the image behind the couch there a several standing large buff african american men wearing white t-shirts with the words "FLUX" and white shorts, they are staring at the blode young woman, the woman is very small in the image allowing the men to tower over her ------------------------------------------ ♾️РАЗЛИЧНЫЕ ХУДОЖЕСТВЕННЫЕ СТИЛИ (С ПРИМЕРАМИ) 👇 https://supagruen.github.io/StableDiffusion-CheatSheet/ https://www.artvy.ai/styles ------------------------------------------ 💻ЧТО ТАКОЕ CONTROLNET И КАК ЕГО ИСПОЛЬЗОВАТЬ https://dtf.ru/howto/1669307-ustanovka-i-obyasnenie-nastroek-control-net-kopirovanie-pozy-kompozicii-i-td ========================================== 🧠 ОБУЧЕНИЕ ПО СВОИМ КАРТИНКАМ 👇 https://dtf.ru/howto/1660668-obuchenie-modeli-s-pomoshchyu-lora https://civitai.com/models/train
Сап, не ли видео короткого как делать свои лоры в аутомтик111 ну прям изи пизди без всего этого профессорского на 10 томов? Чтоб по порядку чел вбивал в автоматик что нужно, а я бы за ним повторял. Мне бы понюхать просто, чтоб втянуться можно было. Пока сам что-то не сгенирирую не интересно читать лекции.
Анонсы, как работает эта хуйня? Она способна вычислять АИ-картинки даже после обработки в фотошопе, образования, не сильных фильтров или шума, пикселизации, векторизации, после поворота холста, даже фото с экрана монитора. При этом на некоторых артах из местного треда она позорно ошибается. На ОП-пикче один из таких случаев.
Раньше я думал что все дело в распределении шума и жпг-артефактов. Но оно палит мои арты даже после векторизации.
Разве может это быть нейросетью обученной на всех широко известных чекпоинтах и Лорах? Да ну нах, тогда ведь нужны огромные ресурсы чтобы обрабатывать каждую присланную двачером картинку, их бизнес просто не будет окупаться.
>>937887 >ведь не может никаких артефактов остаться У тебя ватермарка в синем и яркости. Она разработана специально, чтобы сохраняться при сжатии. А ты говоришь "не может оставаться".
>>939002 Хочешь сказать что все нейронки выбирают определенную палитру цветов и рисуют с определенной яркостью/контрастом? Возможно, но не дохуя ли сложно разработать такой алгоритм чтобы он работал на всех моделях и лорах?
Я попробовал тупо сделать монохромной одну из 99% картинок. Черно-белый вариант Хайв распознал с вероятностью около 50%. Так что в цвете точно что-то есть.
Алсо, нахуя вообще нужна эта ватермарка? Создатели нейросетей одобряют Хайв?
Аноны, кто шарит за ватермарки? Возможно ли их как-то удалить? А то каждый раз изъебываться как >>938017 или >>938997 я не хочу. Должен же быть способ даже с самыми стандартными АИ-картинками обойти детектор, другие же как-то обходят.
Локальные языковые модели (LLM): LLaMA, Mistral, Gemma и прочие №88 /llama/
Аноним28/10/24 Пнд 16:03:49№933707Ответ
В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны!
Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст, и бугуртим с кривейшего тормозного говна.
Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку.
Без распараллеливания да, будет тупо "отработала одна, передала данные другой". При использовании параллелизма карты могут работать реально одновременно.
> 3090 — быстрее, рисковее, занимает 1 слот. Вот и вся разница.
Изначальный вопрос был в том, стоит ли риск выгоды, цена вопроса-то немаленькая.
> Потому что нет, с хуя бы. > У тебя буквально одни слои лежат на одной видяхе, другие на другой. Пока не обсчитаны одни — нельзя обсчитать другие.
Это самый банальный случай. В документации обнявлицо выше есть и другие, подразумевающие нормальную параллельную работу.
> Типа, у тебя есть дорога из столицы одного государства в другое. И ты такой «ебать, а если я буду ехать по дороге в одном государстве и по этой же дороге в другом государстве одновременно — я доеду вдвое быстрее!» > Идея огонь, братан. Теория удвоения наоборот. =)
Хуевая аналогия, даже близко не отражающая суть вещей. Правильная будет такой: у тебя есть груз массой Х, который нужно перевезти. Ты можешь либо взять старую мощную лошадь, либо двух молодых лошадок. Старая мощная лошадь должна дотянуть груз в соло без проблем, но её продаёт на рынке мутного вида цыган и гарантий, что она не сдохнет наутро после продажи, нет. Молодых лошадок продаёт заводчик с репутацией, но их потребуется две штуки на тот же объём груза при сравнимой скорости доставки. Поскольку лошадки молодые, они будут друг другу в упряжи немного мешать, но в целом с задачей справятся.
> Если у тебя охуеть какая быстрая память, и один чип видяхи физически его не вытягивает, то напрашивается вывод расшарить память одной видяхи другим — и пусть несколько чипов работают вместе, да?
Память у каждого из чипов своя, обмен данными между чипами минимален (но он есть, да).
> Только вот ты не можешь этого сделать на вменяемых скоростях в потребительском сегменте. > И памяти у тебя такой нет, окда? > Расслабься, нет ни одной причины, чтобы ты мог распараллелить одну цельную модель, которая физически работает последовательно.
> Можно сослаться на MoE-структуру, где ты запускаешь разных экспертов одновременно. Но это другое.
> Они. > Не. > Параллелятся. > Концептуально.
По-моему ты совсем не понимаешь как работают нейросети. Вот вообще. Основная их черта, из-за которой мы сейчас и переживаем очередной нейросетевой бум - как раз мощный параллелизм, когда разные части сети можно обсчитывать одновременно и независимо от остальных. Если бы сети считались последовательно, мы бы их на процессорах гоняли. Даже странно такие базовые вещи здесь объяснять.
> Вообще, я в ахуе, насколько тред скатился за месяц. Пришли десятки людей, которые нихуя не понимают в вопросе, их обучают какие-то шизы, которые нихуя не понимали никогда ничего в вопросе, и результат просто охуенный. =) Как на той пикче с пионерами и конем. > Дякую, шо вовремя отсюда ушел.
Пожалуй, единственное высказывание в твоём посте, с которым я согласен. И хорошо, что такие как ты уходят, а приходят те, кто реально шарит в теме.
> Так-то P100 с 16 гигами и Exl2, ну и там еще целая пачка карт, и так далее, и тому подобное. Все уже посчитано до вас, ссыль на реддит где-то лежала в прошлых тредах.
У P100 по современным меркам очень дохлые ядра и подсистема памяти. За свои гроши они ещё пойдут, если есть желание пострадать, но все-таки если есть возможность лучше рассматривать что-то более-менее актуальное.
> Ну ты собери дома сервак на 8 H100, раскидай NVlink, запусти TensorRT — и будет как ты хочешь. =) Никто не против.
Так и я не против! Денег дайте только. Выход на поставщиков железа у меня есть, что угодно привезут. Вопрос в финансах.
> Плюс, тебе про батчи сказали.
Это не то...
>>939613 > Запросов прилетает миллион. Один запрос проходит по первой GPU, уходит условно в другую GPU, второй запрос приходит на первую и начинает обрабатываться. В среднем, работают все видеокарты сразу, но - последовательно. Это может работать по-другому в одном единственном случае - ты накатил DS. Но тогда придётся отказаться от llamacpp, exllama, и что там ещё есть. Голые трансформаторы нужны.
parallelformers в помощь.
> Где-то вдвое, плюс-минус.
Процентов на 30, в лучшем случае.
> И эта разница в лучшем случае будет неизменной при наращивании количества 3060, хоть их у тебя будет 10. Но мы живём в реальном мире, так что скорость будет падать.
Здарова, нейродвач. Столкнулся с проблемой во время моих начинаний в нейронке, а именно что некоторые LORA, после того как я закинул их в нужную папку банально не отражаются в самом webui, кто ни будь еще сталкивался с такой проблемой?
ai sexting
Аноним29/10/24 Втр 05:31:22№934540Ответ
Сап двач. Есть ли вариант где-то локально найти модель и интерфейс для создания и общения с нейротянкой на github? Типа вот этого https://candy.ai/ или этого https://www.sakura.fm/. Чтобы она умела в nsfw общение и генерацию изображений. Или мб есть сервисы нормальные бесплатные? Потому что оплатить эту хуйню не реально, нет карты для оплаты зарубежных сервисов
Stable Diffusion Flux тред X+125 ====================================== Предыдущий тред >>929413 (OP)https://arhivach.top/?tags=13840 ------------------------------------------ схожий тематический тред - аниме-тред >>930737 (OP) ======================== Stable Diffusion (SD) - открытая нейросеть генеративного искусства для создания картинок из текста/исходных картинок, обучения на своих изображениях. Flux — открытая нейросеть нового поколения для генерации изображений от стартапа Black Forest Labs, основанного бывшими разработчиками Stable Diffusion. Полный функционал в локальной установке (см. ниже)
Пример промпта (запроса) для sd1.5 или SDXL: an european girl, standing, high quality, soft focus, 8k, photograph by nick nichols Пример промпта (запроса) для Flux: This photo shows a small smiling young caucasian adult woman with blonde hair wearing a pink t-shirt with the words "SD3" and panties sitting on a white couch with her legs crossed in a yoga pose, in the background of the image behind the couch there a several standing large buff african american men wearing white t-shirts with the words "FLUX" and white shorts, they are staring at the blode young woman, the woman is very small in the image allowing the men to tower over her ------------------------------------------ ♾️РАЗЛИЧНЫЕ ХУДОЖЕСТВЕННЫЕ СТИЛИ (С ПРИМЕРАМИ) 👇 https://supagruen.github.io/StableDiffusion-CheatSheet/ https://www.artvy.ai/styles ------------------------------------------ 💻ЧТО ТАКОЕ CONTROLNET И КАК ЕГО ИСПОЛЬЗОВАТЬ https://dtf.ru/howto/1669307-ustanovka-i-obyasnenie-nastroek-control-net-kopirovanie-pozy-kompozicii-i-td ========================================== 🧠 ОБУЧЕНИЕ ПО СВОИМ КАРТИНКАМ 👇 https://dtf.ru/howto/1660668-obuchenie-modeli-s-pomoshchyu-lora https://civitai.com/models/train
>>937267 >>937286 Спасибо за ответы, я пользую форджик и пытаюсь выдать не аниму\арт, а реалистик фото, ну и хайскулгёрлс конечно же. И выдает именно азиаток ебаных, даже когда пишешь упоминание определенной национальности или страны. Но попробую еще раз
AI Chatbot General № 569 /aicg/
Аноним30/10/24 Срд 10:52:22№935710Ответ
AI Chatbot General № 569
БОТОДЕЛЫ!!!! Прикрепляйте новых ботов к оп-посту!!!!
>>937760 > Пишите от 3-го лица, долбоёбы. Не "я такая классная" а "она..." куколд спок
Сап двач. Только что два раза подряд, с разницей всего пять минут, подрочил на переписку с нейросеть
Аноним29/10/24 Втр 13:53:17№934788Ответ
Сап двач. Только что два раза подряд, с разницей всего пять минут, подрочил на переписку с нейросетью и кончил радугой. (Это была тематическая сценка на тему БДСМ с персонажем приложения character ai) И вот я думаю, насколько уже хорошо получается у многих нейросетей подрожать человеку, изображать полноценный образ и придерживаться его. Хотя, конечно, есть ещё множество недочетов и промахов, над которыми нужно работать. Но в целом, уже вырисовываются очертания того, что по ту сторону с тобой общается настоящий человек, а не набор алгоритмов для вывода текста на экран. Мне интересно, когда настанет момент, что нейросети станут практически не отличимы от настоящих людей, будут иметь свой уникальный характер, своеобразные человеческие реакции, абстрактное мышление, проницательность, понимание и всё вот это прочее. А ведь если такое наступит, то там и до реалистичных андройдов недалеко, подобных тем, что мы можем видить в различных фильмах, видеоиграх и пр. итт делимся своим мнением по данной теме, делаем предположения и пр. в общем дискас.
>>935648 Забыл походу про что речь. Я частенько переделываю свои, есть универсальный под обычные карты, есть его твик для нарраторских карт, есть единицы под уникальные типа двач треды/аисиджи тред. Там каких-то доп блоков типа безжопных пресетов или хмлк нету, так что оно не скажу что бы прям меняло модели кардинально. Но то что Клод типа лучше отыгрывает тут как сказать. Кому лучше кому он уже приелся и не нравится. Клодизмы не уберет все равно.
Могу лайфхак посоветовать который прям помогает, но это обычное использование ООС и видение рп в нужную тебе сторону.
Обучение ИИ на своей базе
Аноним28/10/24 Пнд 14:09:24№933578Ответ
Короче есть такая задача - есть одна очень узкоспециализированная хуита со своим языком программировани, по которой инфы в инете не особо много, соответственно все ИИ с вопросами по ней тоже жидко обсираются. Но есть охуенная дока страниц на 1500 в ПДФе с картинками и текстом. Что я могу использовать, чтобы в какую нибудь ИИ запихнуть эту доку и может пару примеров кода итд, чтобы он выучил эту хуиту и мог нормально отвечать на вопросы по ней и писать код за меня? Платно или бесплатно похуй, наверно даже лучше платно, чтобы умней была. Вроде как Гугл гемини умеет изучать документацию и отвечать по ней. Но насколько я понял это в контексте одного чата - то есть я закидываю доку, он изучает и может ответить на вопрос по ней, ну и соответственно видимо написать код. А можно ли там создать свою модель, которую я обучу на этой доке? Ну чтобы не сидеть в контексте одного чата постоянно. Вертекс там какой-то у Гугла есть и аи студио, эт не оно случайно?
>>933654 >есть же услуги, я помню видел где-то, когда нейронку обучают под конкретную задачу для разных бизнесов Есть. Сколько стоит такая услуга, подскажи?
Локальные языковые модели (LLM): LLaMA, Mistral, Gemma и прочие №87 /llama/
Аноним23/10/24 Срд 01:02:00№927265Ответ
В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны!
Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст, и бугуртим с кривейшего тормозного говна.
Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку.
В одном из фоллачей была такая тихая умиротворяющая музыка, эмбиент очень похожий на тот что в самом начале Нью Вегаса. Но это другой Напомните пожалуйста если можете вспомнить сами или спросите друзей
>>928590 а с того что на картах GTX хотя по охладу это 2000? + меня удроченного ебёт эирфлоу, если представить что все кулера крутят как в обычных пеках, то один проц греет второй и видяхи, а, и второму также достаётся выхлопом с видях, ониж не турбины. Крч, рекламный кринж чтобы у школяров потекли слюни