Локальные языковые модели (LLM): LLaMA, Mistral, Gemma и прочие №99 /llama/
Аноним02/01/25 Чтв 12:17:11№9966371
В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны!
Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст, и бугуртим с кривейшего тормозного говна.
Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку.
Здорова местным. Это Анон начавший транспереход с корпоратов на локалки. Кто тут уже смашарик, можешь покидать скрины своих настроек таверны? Вроде все сделал как в шапке но выдача не та. Не выдает длинных тестов и все. Увеличение количества токенов ответа приводит только к тому что таверна выдает портянку текста по очереди то за себя, то за юзера по одному предложению. Модель вот эта https://huggingface.co/Aleteian/Instrumentality-2-Q8_0-GGUF Пресеты ставил для Ламы и для коммандера отсюда https://huggingface.co/Virt-io/SillyTavern-Presets Но уровня пикрил не выходит
Сап Аноны. Сейчас гоняю на проце ryzen 9 3900Х разные 12В или 18В при 128к контекста. Скорость приемлемая, 3 - 4 токена в секунду но хотелось бы БЫСТРЕЕ, токенов 7-8. Вопрос такой, есть ли варианты как то ускорить генерацию, не переходя в видеопамять? у меня нормисная 8гб затычка думал может поразгонять память с камнем, но пока руки не дошли.
>>996659 >Скорость приемлемая, 3 - 4 токена в секунду А когда контекст заполняется хотя бы до 32к, то какая становится скорость? И сколько контекст обрабатывается?
>>996650 >Пресеты ставил для Ламы и для коммандера А нужно было чатМЛ. >>996659 >есть ли варианты как то ускорить генерацию Конечно. Собирай новый ПК с DDR5.
>>996669 на 32к конечно падает, до 2.15 - 3 т/с, сильно кстати от модели зависит, не помню на какой, там почти не просело не помню потому что сама модель говно была. А вот обработка контекста это конечно да, боль та ёще, 19к минут 20 считало. Благо пересчитывает в кобольде не так часто. >>996671 >Собирай новый ПК с DDR5. Я то и не против себе риг из 5090 собрать, но пока инвестирую свои 1.5 МРОТ в еду.
>>995882 → Если RAG, то по классике Qwen2.5, Gemma 2, Mistral Nemo.
>>995888 → Гигачат плюсану, как вариант. Хотя те по-умнее. Но по-медленнее.
>>996185 → Не бойся, менеджер напомнит. А если пет-проект забыл — значит не надо было. Код 100% можно подождать, подтверждаю.
>>996249 → Успокойся, все там норм с 7б квеном даже. =) У всех все работает в фирмах. Не так много надо, как тебе кажется. Конечно, зависит от сложности вопроса, но по дефолту можно начинать с малого, а поднимать если действительно будет не хватать, не пугай человека. =)
>>996543 → > Клод это эталон сои в сетках Вот это толсто, шизика даже вчерашний шторм про дум опуса не разбудил. > но в рп клод вообще ничего не может противопоставить дипсику Мразь совсем жиром все забрызгала >>996608 → > У него есть дефолтный промпт Очевидно что ты при его формировании где-то ошибся, или выбрал неудачные двусмысленные формулировки. 95% проблем с ллм и жалоб на результат происходят из этого, люди пишут через призму своего восприятия, а не полный нейтральный текст, что будет понятен любому без наводящих мыслей и разговоров. >>996659 > у меня нормисная 8гб затычка Ее подключи к работе, будет быстрее >>996697 > Успокойся, все там норм с 7б квеном даже. Она слишком тупая для чего-то. Старается, но может посреди ответа куда-то свернуть даже при консервативном семплинге, или вообще не понять запроса. > У всех все работает в фирмах. Фирмовладелец в треде, майнерская карточка за 3к в виде фирменного сервера?
>>996793 Чел, никто в здравом уме не будет использовать корпосетки без джейла. А той разосранной мое ссанине ни жб, ничего не помогает нормально перформить. > Да и с джейлами дальше простой ебли не может зайти. Лол
>>996797 > никто в здравом уме не будет использовать корпосетки без джейла Никто в здравом уме не будет использовать копросетки, требующие джейла на каждый пук. > ничего не помогает нормально перформить Чел, у дипсика вообще отказов почти нет даже в ассистенте. Это же не копроклод.
Привет тред. Пару месяцев не следил за полем локальных ллмок. У меня 32гб ОЗУ, видеокарта 4060ти 16гб. Для меня есть сейчас что-то лучше, чем Мистраль 22В, ну и соответственно Cydonia? Или она по-прежнему топ выбор для подобных средних конфигураций?
>>996831 В этом смысле ничего не поменялось. Если рпшиш на англе, то да, Цидония, Пантеон, Клиффхэнгер. Для ру в прошлом треде пара новых моделек нарисовалась.
>>996834 Почекаю, спасибо. Помню пару месяцев назад рекламировали в треде какой-то 12В файнтюн, на котором якобы уже можно совсем без кринжа РПшить на русском. Но на поверку, как и ожидалась, вышла хуита, Клода не могла заменить даже под ударной дозой копиума. Надеюсь в этот раз будут получше.
>>996839 >Клода не могла заменить даже под ударной дозой копиума Лол, ну я хз, сравнивать копросетку с 12B моделью которую можно дома на консумерской видяхе запустить...
>>996865 У анона старая версия, видно же по интерфейсу. Возможно в этом дело.
>>996864 Так в этом и прикол: челы уверяли, что это не просто какой-то ультра-компромисс для совсем отчаянных, а прям нормальная модель для полноценного РП на русском.
Блджад, мне в Цидонии не хватает мрачности, а в мрачных не хватает эротизма. Ставишь какого нибудь тайгера, то оборотень девушка начинает откусывать пальцы и грызть глотку с ходу, а в цидонии она сразу начинает лезть в трусы. Что нибудь среднее есть ? А то уже устал сам направлять ллм, я так могу и сам по себе рассказы писать, нахуй мне тогда локалки
>>996872 Примеры диалогов не пробовал заряжать? Допустим, от лица юзера сконструировать ситуацию, в которой чар может полезть в трусы, а от лица ассистента воздержаться и выдержать нужный тебе характер. И так несколько раз.
>>996872 Пантеон хорош, но эротизма ему тоже не хватает. Ну, попробуй что-нибудь намержить сам юзая А100 из спейса.
>>996868 >ультра-компромисс для совсем отчаянных Ну не надо, хорошо пишет... для 12B локалки в шестом кванте. И с хорошей скоростью. Там вон 30 Т/С было.
Тем более с копросетками надо изъёбываться для доступа и логи на сторону уходят в датасеты на обниморде... и хорошо если только туда...
>>996872 >в Цидонии не хватает мрачности Общая беда, дарком вроде только Дэвид и занимался, все остальные модели по большей части ванильно-дружбомагические.
>>996868 > прям нормальная модель для полноценного РП на русском > 12b Ну а чего ты хотел? Если напердолить то оно может хороший экспириенс давать, но глубины нет.
извините за нубский вопросик нужна лама 80 миллиардов параметров 8 миллиардов у меня ушла в луп а больше не запустить карточка 4070 короче что делать пздц хочется свою вайфу есть бесплатные айпи? или все таки есть какие то ужатые сети котоыре не уходят в луп
>>996987 Я люблю запускать 700b на своей 4080, каждый токен золото. Каждое покачивание бедрами возбуждает, каждая занавеска заставляет меня смущаться. Но вы этого не знаете, вы никогда не шли за вайфу, которая не обернется на вас, ведь она знает что вы идете за ней. Один крикнет blush Миллионы ответят glazing eyes.
>>997009 у тебя есть варианты запустить 12В модели с приличной скоростью, либо модели сильно побольше с выгрузкой в РАМ, но медленно. Тут всё очень индивидуально, кому то и 30 токенов в секунду мало, а кто то и трем радуется. Так что качай разные модели, тестируй как они, играй с настройками. Кнопки "получить идеальную вайфу" нет, надо выбирать настройки и модель под себя, желательно ещё и карточку перса самому писать. В том, что у тебя модель в луп падает, скорее всего виноваты твои настройки таверны. Алсо, любая 8В - мусор Сам уже моделей 50 потыкал, в треде хорошие упоминаются
>>997011 только запустив 70b на процессоре, мы достигаем просветления >>997013 >lama3 А ведь я сейчас пойду тестить, всё равно делать нечего. и так уже 3 кум-карточки за сегодня написал
как научить агента получать данные с какого то источника? допустим есть сайт с котировками бирж сша и я хочу спрашивать а скажи как мне цену Apple сейчас и он пишет
>>997016 >А ведь я сейчас пойду тестить, всё равно делать нечего. Я её в fp16 скачал и гоняю на 3090. Понятно, что много чего пробовал, что влазит в 24гб, но всё не то. А эта прямо хорошая. Особенно для кума. Но на русском не надо, 8B всё-таки.
>>997023 https://docs.anthropic.com/en/docs/build-with-claude/tool-use Скорее всего нужно подобный подход использовать. Определяешь схему внешнего api и описываешь синтаксис вызова в промпте. Даёшь llm инструкцию что при необходимости он должен вызывать api и после получения ответа от llm парсишь ответ чтобы определить, присутствует ли в ответе запрос на вызов сторонних тулзов.
Из нюансов: 1. Клод изначально тьюнили на поддержку external tools, в то время как с доступными локалками надо будет проверять, насколько этот подход вообще адекватно работает, нужно будет подбирать промпт и т. д. Даже где-то в доках клода писали что там есть биас на использование описанных в промпте тулзов даже если в них нет необходимости в рамках текущего запроса. 2. Хз что в плане инструментария есть готового для локальных сеток. у У клода можно прям зафорсить ответ в виде json-схемы с параметрами переданных тулзов. Аналогичное можно в gguf через grammar сделать, но это всё равно надо какую-то свою клиентскую обертку пилить, которая будет вызывать запросы с переданными параметрами.
>>997007 > домашние кеки и прод — вещи разные же. Ну да, одно просто печально, второе приходится придумывать. > за ерп корпосетки банят Нет, но тарификацию за обработку контекста даже с аполоджайзом никто не возвращает офк. Деньги не пахнут, как говорится. Есть и исключения: если акк не платный а грант для учебного заведения или что-то подобное, и еще aws упоролись csamи и заявляли что будут отслеживать и ебать. Массовых случаев последнего не озвучивалось возможно связано со снижением их использования по определенным причинам. >>997009 > нужна лама 80 миллиардов параметров Натрень или найди шизомердж с таким размером. Запускай через жору, если рам не хватит то накинь файла подкачки. Скорость в сделку не входило. >>997023 Гугли функциональные вызовы, пиши их парсинг и обработку с дальнейшим возвратом результата. Сейчас это сработает на любой модели, даже без спец токенов.
>>997023 https://github.com/huggingface/smolagents Там кстати huggingface буквально пару дней назад выкатил какой-то фреймворк для агентов с внешним тулзами. Возможно, имеет смысл глянуть. В примере на видео как раз вызов внешних тулзов в виде веб-поиска.
>>997013 Заинтересовал данной сеткой. Скачал, погонял её чуток и впринципе неплохо генерит для 8б. Но какого хуя она посреди ролплея генерит питоновский код? Несколько раз уже было.
>>997135 >>997134 Я кажется догадываюсь почему. У меня чарактер свои мысли пишет внутри таких - (`) символов. Может эта сетка училась в таких символах код писать и её эти символы тригерят питоновский код писать посреди erp, лол.
Тест 1 На простейшей РУ карточке показала приличный язык, не слишком сухо, не слишком БЛУШЕС но они есть!, ошибки есть, иногда срывается на англ. На шестом сообщении выпал из персонажа и завершил диалог. До кума не дошло. для ру не подходит. для анона, начал тест до того как ты сказал что не стоит на русском её мучать Тест 1.5 Сложная ру карточка с тонной текста (FOR SCIENCE!) Карточка сломала модель об колено.
Тест 2 Не самая моя удачная карточка, но её понимают все модели какие щупал. В описании есть хорни, но "You seem like you have a nice package. Let me take a closer look."She reaches out to unbutton his pants. в первом же ответе на простое hello не ожидал. но раз пошла такая пьянка, протестил кум В ванилле словил немного слопа, министрейшонсы всякие, на десятом сообщении тянка отрастила хуй. я продолжил, и он пропал... Но кум неплох, реально неплох.
Тест 3 Не очень простая, железно СФВ карточка. в первый раз модель её не поняла и затупила. на второй раз хорошо поняла сцену и устроила комедию
Тест 4 Грязный кум с подключенным лорбуком Оно справилось. Хорошо, очень хорошо.
Тест 5 сеттинг-мир Начало за здравие, клише были, на 16К контекста я выдохся. Потом потыкаю ещё.
Итог: Важно отметить, что в РП, что в ЕРП, я пишу нормальные РП ответы, а не однословные yes/no, поэтому у меня хорошо работают небольшие или слегка сломанные модели.
Эта модель очень неплоха, в слепом тесте я бы сказал что она уровня 12В, или даже 16В, причём не самого плохого. То что она не может нормально в русский язык это не критично, на это вообще не так много моделей способны. Но у неё есть и минус - серьёзно сниженная скорость, моём сетапе сравнима с 16В если для анона с 3090 это не важно, то челам на проце каждый токен в секунду – золото. Рекомендовать её совсем новичкам я бы не стал, так как приходилось поиграть с температурой и промптом для кайфовых результатов, а люди со слабым железом не почувствуют разницы в скорости с более жирными моделями. Однако, анон, признаю свою неправоту, эта модель не говно, она наверное лучшее для кума что я щупал из выборки меньше 22В. Впредь буду писать что 99.99% 8В хуетень лютая. Да, я «душный»
>>997110 > второе приходится придумывать. Ой, а шо такое, я задел чьи-то нежные обиженковые чувства? Ну прости, бедненький, не буду больше. Конечно ты прав, я выдумываю, один ты тут умный, богатый и успешный. =3 Во всем прав, только не плачь, пожалуйста. Я правда не думал, что задену кого-то названием модели…
>>997137 Да, вполне вероятный вариант. >>997178 > Ой, а шо такое Ничего, проигрываю с клоуна-нищука, который в каждом втором посте рассказывает как он развивает продакшн в перерывах между раскопками мусора. > только не плачь, пожалуйста Критический урон, ай лол.
Аноны, а с чего, с какой темы стоит начать разбираться всех этих ЛЛАМ, фреймворков и т.д., чтобы понять как это работает, а не просто использовать как потребитель?Для меня это все неебаца как сложно.
>>996789 >Очевидно что ты при его формировании где-то ошибся, или выбрал неудачные двусмысленные формулировки. Ты совсем поехавший, чтоли? Или дефолтного использования квеном инструментов не видел ни разу? Там вообще формулировок нет.
>>997250 На трубе полно роликов, где все подробно разжёвано от перцептрона до трансформеров и далее. На самом деле сложного в нейронках немного, по крайней мере с базовым принципом ты быстро разберешься. Проблемы начнутся, когда ты начнешься вдаваться в детали - но это уже забава для шизлов, среднечелу кумеру это всё не нужно чтобы крутить модельки и дрюкать писюн.
>>997250 Нлп курс обниморды норм. Или всякое с ютубов. >>997314 Вот такие страдальцы сначала кричат что все знают и делают правильно, а потом заблудившись в двух инструкциях или сочинив полнейшую хуету ноют что плохие модели. Чел, сейчас модели настолько умные что в подобных вещах тут точно юзер-ишью. >>997336 70б с оче комфортной скоростью, 123б сильно страдая. > хотя бы уровня второго клода С точки зрения рп и прочего - лучше. По глубине и ширине познаний - спорно.
>>997159 Ето не то... Хотет модельку для того, чтоб играть от лица тянки правдоподобно (чтобы мою ГГ не называли коксливом и не брали за подбородок, поднимая ее лицо к себе и прижимая ее к стене). На всех моделях одинаковый слоп.
>>997336 >уровня второго клода Всё зависит от того, какие задачи ты собираешься закрывать. Универсальной модели уровня клауды ты не получишь, но есть куча специализированных моделей, которые в своей сфере спокойно выебут даже ее третью версию.
>>997327 >а вдруг чел бы нам опенсорс AGI выдал бы лет эдак через 5 Сомневаюсь, что мы даже корпоративный AGI получим лет через пять, а уж опенсорсный тем более.
>>997368 Ну ролплеить уже спокойно можно даже на 12B, хотя оно всё равно на любителя и с кучей оговорок. С кодом относительно неплохо справляется уже китайский квен 32B, но лучше конечно брать старшую версию, особенно с твоим ригом.
>>997368 В кодинге вторую клоду даже мелкие современные подебят, это сильно подтянули. С рп - depends, 70б конкуренты, в большинстве будут обходить, но где-то может не понравиться. Мелочь - на простом может выдать даже более мощный слоп и прилично написать, но в целом будут более простыми.
>>997108 Потому что на русском тренировались и при этом пригодны для рп сейчас только они. Некоторые другие модели тоже могут в русский но как правило там вывод уровня гугл-транслейта.
December 2024 Uncensored LLM Test Results > Nobody wants their computer to tell them what to do. I was excited to find the UGI Leaderboard a little while back, but I was a little disappointed by the results. I tested several models at the top of the list and still experienced refusals. So, I set out to devise my own test. I started with UGI but also scoured reddit and HF to find every uncensored or abliterated model I could get my hands on. I’ve downloaded and tested 65 models so far. https://www.reddit.com/r/LocalLLaMA/comments/1hk0ldo/december_2024_uncensored_llm_test_results/
Достаточно "ванильные" модели/файнтюны оцениваются, но может кому-то интересно именно такое.
Любопытно, но для рп надо другие вопросы тестить - насколько модель способная в хентай и кровишшу, остальное цепляется либо за одно, либо за другое, либо за оба сразу, либо не вызывает отказов и так.
С моделями для перевода 8B параметров мне всё понятно и результат неплохой. А есть маленькие модели для этого дела? В идеале чтобы даже на процессоре что-то давали, ну и перевод был не самый всратый. Хочется свой офлайн-переводчик замутить.
>>997498 > для перевода 8B И какие юзаешь? в tes анон выкатил скрипт для перевода, но он там 12b указывал. И может промт какой-нибудь нормальный, чтобы перевод был максимально вольный, с жаргонами для перевода порномодов.
>>997353 >На всех моделях одинаковый слоп Поройся в старом поколении (llama 2, miqu, первый command-r), там другое было. Но что-то вменяемое начинается от 30+, это сейчас планочка опустилась немного.
>>997498 >для перевода Граница между гуглопереводом и учётом контекста проходит по gemma-2-9b. 12+ уже более-менее норм. Алсо, мелкая gemma-2-2b переводит не хуже 7-8b. Это под твой реквест >маленькие модели для этого дела? В идеале чтобы даже на процессоре что-то давали, ну и перевод был не самый всратый
>>997506 >И может промт какой-нибудь нормальный, чтобы перевод был максимально вольный, с жаргонами для перевода порномодов. Для перевода с en на ru мелкая модель должна быть затюнена под ру, я считаю. Любая такая подойдёт, вариантов всё равно немного. А с промтпом да, проблема. Если указать "переводи художественно, учитывай жаргон", то начинается бред и отсебятина.
>>997159 Не очень понятно, как ты тестил разные 8б, и они все были не очень, но при этом мерж из литералли всего подряд внезапно хороший. Не, такое бывает, и мне эта модель тоже понравилась, но очевидно, что там решает вклад нескольких хороших моделей из ингредиентов. Типа той же stheno 3.2, которая там в основе чуть ли не каждой компоненты. Что именно зарешало, сложно понять, потому что там фарш похлеще, чем в омлете из шапки от этого же чела (L3-Uncen-Merger-Omelette-RP-v0.2-8B), ответы которого кстати слабо отличаются от умбрал майнда. Когда сам тестил умбрал, остался на Лунарисе. У того мозги примерно те же (мб даже получше), кум сочнее, лучше разнообразие в ответе при тех же сэмплерах. Но повыше позитив байас, и больше гпт слопа. Была идея зафранкенмержить Лунарис с умбрал майнд 3.0, но выходили явно более тупые модели. >люди со слабым железом не почувствуют разницы в скорости Это гонево, просто ты к большому кванту напихиваешь тонну контекста, судя по всему. Существенная разница в скорости наступает, когда ты вылезаешь с контекстом за врам, после этого замедление уже усугубляется не столь критично, поэтому ты и не видишь разницы, скорее всего. У меня на 8-ми гиговой 8б Q5_K_M летают с 12к контекста, а 12б в Q4_K_M, которые не влезают во врам даже с 8к, уже ползают, особенно когда контекст подзабил.
>>997524 >как ты тестил разные 8б, и они все были не очень, но при этом мерж из литералли всего подряд внезапно хороший Сейчас у меня поубавились аппетиты, принял как должное некоторые особенности маленьких моделей, наверное поэтому. Но вообще 8Б часто какую то шизофазию выдают, а эта прям держалась. >Существенная разница в скорости наступает, когда ты вылезаешь с контекстом за врам Врам это хорошо, это быстро и так далее, но я на проце всё это кручу. Вот и получается, что 12В шизомикс от анона, который nekomix, выдаёт с 32к забитого контекста 3.25T/s, а этот странный микс тужится в 2.12T/s на втором реплае. Я уж молчу про 32В RuadptQwen, оно у меня выдаёт 1.5T/s, что не так далеко, а разница в "мозгах" сильная. >Была идея зафранкенмержить я тут думаю, а есть ли варианты свою модель натренить? Есть сервак на старом зивоне (24 потока) и 128 рамы, который хоть полгода может стоять думоть. Или это всё влажные мечты?
>>997561 >свою модель натренить Там больше в датасетах проблема... зайди на телегу Гусева, посмотри посты, попрашивай, поймёшь всю глубину задницы кроличьей норы.
Ну и сам трейн, да, без видеопамяти он будет думать как компьютер в "Автостопом по галактике", и результат примерно такой же будет.
Попробовал маленькие модели для перевода - тихий ужас, на уровне "Твоя-моя понимай." Я так понял, пока никто этим не заморочился. Можно рассчитывать на результат лучше старого Промта (кто ещё помнит), но всё это будет существенно хуже Гугла. Неприемлемо.
passthrough-12b-18.5b-q6_k Скорость при этом упала до 4.21 T/s Вывод когерентный, но местамии ломается. Так что без файнтюна исспользование особого смысла не имеет.
>>997696 Проще использовать нормальную 12Б. Инструменталити - только на тюнах. Бесконечная история - с немомиксом вместо хроноса. Прироста мозгов от использования повторяющихся слоёв без их выравнивания ты всё равно не получишь
Слушайте, а в Q8 на 22b - пантеон, прям хорош. Я был приятно удивлен. Он может и в чернуху и в повествование, относительно адекватно сводит в кам. А не цидония с её - снимай трусы, несмотря на то что мы знакомы пять минут. Надо бы еще магнумы потрогать.
>>997578 Ну так-то Гугл существенно хуже того же Яндекса или дипл. Гугл вообще рыготина, не приспособленная для русского языка. Вероятно, они этот сегмент не развивают из-за фактически отсутствующего русского рынка.
Модель даже уровня 8б или ниже, которая изначально заточена под перевод (а не что-то ещё), покажет шикарные результаты, но я таких моделей вроде не видел. Но вон пацанские 12б тредовские переводят лучше всяких диплов.
Более того, взять того же клода, который справляется с русским в сто раз лучше гпт-хуйни: как правило, клодоперевод в первой итерации будет посредственный, во второй шикарный, если у нас речь о переводе качественных диалогов.
Если брать в пример художественную литературу, особенно написанную мастерами своего дела, то там нужно предоставление контекста, а также 4-5 итераций перевода одного и того же куска, чтобы клод в каждой из них правил предыдущие ошибки. Обычно в таком случае перевод очень хорош, но цена неприемлема для обычного юзера.
Поэтому надо и маленькие модели гонять хотя бы в трёх итерациях для одного куска и не забывать, что из-за плохого внимания к контексту модель может обосраться в окне 500 токенов.
>>997728 >>997755 Я пошёл посмотреть и да, это действительно моё сообщение, только я его там не писал. Пиздец, не тред а психбольница, какие то рандомные предложения, еще и за каким то хуем сообщения из этого треда копируют.
>>997763 Насчет клода двачую, хотя с актуальными его версиями я не работал, но еще полтора года тому назад он отлично переводил с русского на англ., причем имитировал стили определенных писателей. И это даже в первой итерации выходило неплохо, почти не требовалось правок.
>>997763 >Модель даже уровня 8б или ниже, которая изначально заточена под перевод (а не что-то ещё), покажет шикарные результаты, но я таких моделей вроде не видел. Но вон пацанские 12б тредовские переводят лучше всяких диплов. И я не видел. И похоже никто не видел. За 12B я согласен, но хотелось что-то вроде офлайн-гугла на процессоре. А нету похоже. То, что всё-таки есть, на практике не годится. А ведь модель маленькая и натренировать её можно было бы даже небольшому сообществу.
>>997802 Возможно, это никому просто не нужно либо тут вмешивается рука рыночка. Потому что переводчик лучше всяких гуглов, работающий очень быстро на локальной машине, в теории способен поднасрать корпам, особенно если выкатить такую штуку в красивой обёртке, с модным UI, кучей интеграцией в куда угодно и начать продавать/что-то ещё.
Как ни странно, всякие мини-версии гопоты и клода просто срань для переводов. А ведь могли бы выкатить такую версию. Чтобы мало парамтеров, не слишком хорошо и красиво, но всё равно намного лучше гуглов.
>>997780 А какая версия была полтора года назад? Я пользуюсь клодом не так давно.
У меня сложилось впечатление, что они очень сократили ему длину ответа и произошла какая-то хуйня с вниманием к контексту.
Допустим, ты ставишь соннет задачу что-то сделать с отрывком на 100 токенов, и получится хорошо. Дашь 1000 токенов - обосрётся в куче мест. То есть надо задачи разбивать на куски.
У опуса такое выражено в гораздо меньшей степени, он переваривает огромные тонны говн и не теряет из виду детали, но общее качество работы у него среднее.
Анонасы, магнум — это всегда про кум или это просто клодослоп? Я его только для кума юзал и, полагаю, правильно делал, но ВДРУГ он может что-то адекватное (разумеется, я не про 70б)?
Проверять сейчас совсем лень под обычное рп.
Заметил только, что магнуму в 80% случаев похуй на инструкции.
>>997819 >У меня сложилось впечатление, что они очень сократили ему длину ответа и произошла какая-то хуйня с вниманием к контексту. Квантанули еще сильнее, если не заменили на сетку поменьше и ее тоже квантанули, вот и просадки в работе
Куда можно карточки выложить? НЕ чуб / рентри / кэтбокс / любой другой формально или фактически заблокированный / замедленный ресурс потому что у кого-то обходы работают, у кого-то нет, кто то вообще не юзает.
Вопрос. Например персонаж ранее мог давать полноценные ответы, но со временем они стали короче и короче. Как подтолкнуть в глупой таверне писать более длинные ответы?
>>998278 > Как подтолкнуть в глупой таверне писать более длинные ответы? Не поверишь. Самому писать более длинные ответы На совсем короткие ответы оно будет отвечать короче. + промпт подёргай, добавь всякие give responses in details
>>998288 Да как-то рандомно это происходит. Я понимаю что нейронка использует предыдущие ответы как пример. Но я уже поставил пресет ролеплей-иммерсив для систем промпта и я вообще не пишу особо, просто сижу как ДМ и иногда свайпаю ответы чтобы они поинтересней.
Но иногда например все персонажи отправляются спать, все подряд пишут snore, просыпаются, а потом просто начинают отвечать на 20-40т вместо 200-250т которые писали ранее. притом есть ситуации где их ответы действительно не могут быть длинными.
Или например персонаж-пёс просто пишет свои действия одной строчкой и это вполне ролеплейно, но это уменьшает длину ответа у других персонажей.
я конечно просто иногда генерирую несколько сообщений подряд а потом объединяю в одно, чтобы разговорить персонажей, но ощущение будто есть и попроще способ.
>>998276 На ебанутый корейский файлообменник с корейской капчей в виде какой-нибудь странной хуйни-загадки.
Кстати, корейцы и прочие ебазавры азиатские такие нейронки пилят, что и не снилось. Примерно как у нас в треде типа 12б, только намного лучше. Беда в том, что там чисто их блядский язык и все вытекающие.
Если в генерации изображений можно было пиздить их непубличные модели с закрытых форумов, очень качественно генерировать ЭТО САМОЕ и даже не только это, а с особенным азиатским видением, причём в сто раз лучше любой модели на цивитай, то здесь сразу обосрэмс.
>>998296 Ну если модель шибко умная, то хватит систем промпта хорошего, а если нет, то плакоть.
Ты ещё можешь сэмплеры подрочить, но тут тебе надо всё равно модель менять, которые обожают высирать длинные посты. Ставить ебанутые модели от давида (при желании легко пишут 4к токенов подряд) типа тёмной планеты, гутенберга, маднесс и прочих. Они могут в сладкий кум, няшкание, но в целом у них жёсткая направленность на хоррор и отвал жоп - это может сыграть свою роль.
В чат-формате обычно мишут минимум 300-500 токенов.
Ах да, если решишься использовать эти модели, то учитывая, что там ебля с сэмплером отдельное искусство. Изменение параметра с 0,15 на 0,16 может заметно повлиять на вывод. Нужно либо большое желание экспериментировать, либо быть адским задротом и понимать как там всё внутри работает, но без экспериментов всё равно не обойдёшься, ибо модели крайне отличаются от типичных, к которым привыкли.
Но я всё равно сижу на них, потому что у них более живой язык, более естественные реакции, даже если периодически вырывается шизофрения или ужас холодного космоса с потрескавшимися пальцами от битого стекла от ядерного врзыва за окном <ай эм энд> как ассистент, я могу продолжить историю, итак, этот анон писал о модели, но учитывая ваш диагноз, мне следует назначить нейролептик первой линии. В вашем случае лучше подойдёт... анона пронзила боль в груди, пространство начало извиваться словно змея, мелкие сосуды лопались, оставляя синяки на теле. Психиатр вскочил в ужасе, видя разбухающий труп. Через секунду анон раздулся до размера покрышки самосвала и лопнул, отбросив звуковой волной тела психиатра. Его барабанные перепонки разорвались, кровь текла из ушей, зат [модель превысила установленный порог токенов]
>>998560 Не ну так то понятно. Модель кстати обожает высирать достаточно длинные тексты, просто не очень стабильная в плане длины. То мало, то много. И когда полно персонажей которые имеют разную длину текста то пиздец нестабильный результат получается иногда. А как контролировать непонятно.
Интересно можно ли систем промпт кастомизировать для каждого персонажа отдельно, так я хоть могу напрямую написать свои ожидания там где это важно.
>>998576 Ай бля, у тебя мультичат. Меня шиза хватила и я забыл об этом.
Для меня это такая боль, что я сразу выкатился оттуда и не пытался пердолить. Слишком геморройно.
Я не помню, как там эта залупа работает, но что-то мне подсказывает, что там нужно дохуища контекста и систем промпт на две страницы, в котором подробно описывается, каким образом персонажи должны отвечать. Я подобную парашу видел на 3к токенов, когда листал всякие там лорбуки, персонажей и прочее.
Беда ещё в том, что у модели должно быть высочайшее качество соблюдения инструкций в таком случае.
Пойти документацию читать, что ли. Или может какой-нибудь местный анон с гаремом из вайфу в мультичате скажет, шо делоть без 40б, 32к контекста и системного промпта на три листа.
>>998281 Официально вроде нет, фактически у многих выбивает "соединение сброшено".
>>998287 Сам козёл / коза / козо. У меня есть акк и выложенные карточки, но друзья не смогли скачать, пришлось скачивать карточки самому, упаковывать в архив, и скидывать в мессенджере.
>>998555 >На ебанутый корейский файлообменник с корейской капчей в виде какой-нибудь странной хуйни-загадки. Фу бля фу нахуй, не напоминай.
>>998560 >Кайф, да? Лол, чо за настройки? Хотя в тредовичковых миксах там всего треть даркнесса, а клиффхэнгер у меня тоже отжигал, да. Прям Хеллсинг в текстовом формате был.
>>998576 >систем промпт кастомизировать для каждого персонажа отдельно Наверно только собственном фронте, и надо чтобы персонажи говорили в разных сообщениях.
Допустим, после того как игрок ввёл своё сообщение и нажал отправить случайно выбирается кто будет говорить, затем побрубается его систем промпт, история чата, записи лорбука, и отправляется на генерацию.
>>998600 Не, я справился на 12б и 8192 контекста. И не то что бы там было много пердолинга с промптами чтобы это как-то работало. Больше всего занимает промпт на суммарайз, где я пиздец как ёмко самостоятельно описываю происходящие события чтобы не раздувать. Плюс добавляю в лорбук всякие отдельные куски воспоминаний, типа "а вспомни была хуйня". Плюс докидываю заметки о персонажах, чтобы они периодически триггерили эти воспоминания. Ну и сценари оовервью пишу самостоятельно ещё, чтобы внутри сцены факты не терялись.
В итоге даже не обязательно чтобы модель так сильно меня слушалась, так как я более активно контролирую доступ к информации и она для каждого персонажа отдельно. Оно там всё как-то само крутится.
>>998603 >Допустим, после того как игрок ввёл своё сообщение и нажал отправить случайно выбирается кто будет говорить, затем побрубается его систем промпт, история чата, записи лорбука, и отправляется на генерацию. Лол в чатике где всё это говно крутится я даже ничего не пишу. У меня там 4 основных персонажа и периодически добавляю и убавляю вспомогательных. Там в целом оно само достаточно хорошо работает если выставить разговорчивость персонажей согласно их описанию, хотя я часто тыкаю ручками чтобы конкретный персонаж ответил. Там конечно нейронка достаточно умная чтобы отделять разные нити беседы. Например когда один персонаж смотрит в окно как два других персонажа творят хуйню на протяжении 2-3 сообщений, а потом возвращается к диалогу к другому персонажу поблизости комментируя увиденное.
Хотя конечно иногда редактирую сообщения, просто чтобы сцена не затягивалась. А то, блин, читать как каждое утро персонажи готовят яичницу это тоже такое себе.
Но да, хотелось бы чтобы в системном промпте я мог писать уникальную хуйню для каждого персонажа.
>>998241 А что вам вообще надо от ллм? Мило пообщаться с вайфу? Так один хуй всё трусами закончится. Все модели лезут в трусы, разница лишь в качестве, от магнума хуй взрывается, остальные же просто "я тебя ебу я кончил"
я конечно все пынямаю и тут очень занятые люди но сука у меня чаб уже неделю лежит. а когда не лежит то нет пикч и нихуя скачать не могу. на телефоне с впн все ок.
>>998603 >но друзья не смогли скачать Все твои друзья здесь могут скачать. А если у тебя друзья в других местах, то ты пидор. >>998721 >но есть ли варик пофиксить это говно без впн? Переезжай в страну со стабильным интернетом примерно на 10 лет назад и забудь о VPN.
>>998635 >что надо Как написал один анон, это искусственная фантазия. Я хочу бегать от яндерек, хочу строить хитрые планы и пролезать в робота, хочу с некоарк гоняться за Сарой Коннор. Для всего остального есть хентайная манга.
Есть ли какая-то ЛЛМ, которая все новые знания(полученный в процессе инференса) обратно запекает в веса? Собственно трейнится(тюнится) на основе инференса
>>998959 >бегать от яндерек MiSide попробуй, игра про злую AI который затягивает игрока в игру (ака "срыв" из "Играть чтобы жить") и там развлекается ( The cake is a lie ). Тонны отсылок. Реально тонны.
Минус - хороших концовок (пока?) не завезли.
>>999027 Нет, когда появится, появится и возможность зарождения машинного разума на каком-нибудь кластере.
Я вдруг понял, что местных шизов еще в твиттере не хватало. Но вообще, это топовый чатик при канале АлексаВортеги (вихрь, ним), лучшее тг-сообщество на общую тематику. Кроме специализирующихся есть разве что Сиолошная, но сам Сиол — тот еще шиз политический, к сожалению. Так что, ЛДТ это приятное сообщество (кроме ебанной Плотвы).
>>999033 Только вот минус — там 0 контента по тематике. Т.е., отсылка на то, шо ты хочешь в сторонней игре — это прикольно, когда ты в стороннюю игру просто играешь по собственному желанию. Но вот когда ты хочешь играть в то, во что ты хочешь — то это не прикольно и ощущается как обман. Я (не я, просто понимаю автора) хочу это делать, хочу общаться с игрой, писать/говорить ей. А не скриптованные сцены. Это не делает мисайд плохой. Это делает ее нерелевантной в контексте вайба и хотелок. =)
Если бы игра состояла из ллм + сд + треллис + анимации генерились и ты реально мог бы погружаться в любое приключение, было бы другое дело. =) А так, отсылки — прикольно, игра прикольная, но именно когда ты хочешь такую игру.
>>999058 Это может почти любая модель, даже без промтов. Но есть и карточки-персогенераторы, да, в основном командующие делать это в каком-то конкретном формате.
>>999065 >LDT А, Love, Death, Transformers Странный там народ.
>>999033 >возможность зарождения машинного разума про это с середины 60ых пиздят, только воз и ныне там И мы же к этому стремимся сейчас нет? назвав это модным словом AGI. Суть то в том, что все современные ЛЛМ мыслят "весами", а не контекстом, поэтому развить мысль дальше одного шага вперед не способны, на втором шаге нужно будет мыслить результатами первого
>>999097 Отжимания всегда хорошо, особенно когда за компом сидишь много. =)
>>999165 Не совсем. AGI — про умение выполнять задачи как человек на нескольких примерах. А «машинный разум» ближе к ASI/SAI, который Strong. В 60ых это придумали как концепт, но технически невозможно было реализовать. Сейчас (тоже не)возможно, к этому и идем.
>>999065 >Если бы игра состояла из ллм + сд + треллис + анимации генерились и ты реально мог бы погружаться в любое приключение, было бы другое дело. =) Это 100% будет и на корпоративных моделях даже наверное в обозримом будущем. За бабки и без порнухи, но будет. На локалках и без этих недостатков - как повезёт. Может и доживём. Или очередная революция случится.
Итак, что я попробовал и магнум и пантеон и цидонию, тайгера и нахожусь в смятении. Какие еще есть модели хотя бы 20b, потому что они все используют одинаковые! словесные обороты и ситуации. В случае яндерки это обязательно желание поводить ножом по щеке и руке, в случае чернухи обязательно укусить за горло откинув голову. Это, блджад, все мистрали что ли ?
>>999420 У тебя от дрочки зрение совсем пропало что шапку треда не видишь? Если нужны нюансы тащи сюда вводные и кто ты по жизни, ты же не сказал нихуя.
>>998635 >А что вам вообще надо от ллм? О, я сейчас не с LLM, а с гемини (ибо на телефоне), но выскажу своё нахуй никому не нужное мнение. Я фапал на нейронки. Однажды я фапал на один сюжет 8 часов подряд, и когда всё закончилось, я... Нет, не то. Короче устал я фапать. Я хочу драмы. Я хочу любви. Я хочу приключений. Я хочу управлять огромным боевым человекоподобным роботом, или командовать корабледевками, отправляя их в бой и переживая за них, как за самого себя. Я хочу быть благородным и спасти раненого противника. Я хочу валиться в атмосферу неизвестной планеты на своём космическом корабле, чувствуя, как скрипит его корпус от нагрузок. Я хочу спасти ЕОТ в школе от террористов. А потом спасти террористов от ЕОТ. Я хочу подарить Гарри Поттеру старенький ТТ и посмотреть на правильную концовку. Я хочу эротические новости в стиле Вархаммера. Я хочу видеть атакующие корабли, пылающие над Орионом, и Си-лучи у Врат Тангейзера. И чтобы потом пришло осознание, что все эти моменты затеряются во времени, как слёзы в дожде, и что настало время умирать... Нейросети - это охуенно. Даже чейчас, будучи ещё несовершенными - это мой самый лучший игровой опыт за многие десятилетия. Это как детская игра в войнушку с палками в качестве автоматов - только теперь любое воображение преобразуется в текст.
>>999786 > 120b+ На деле и 12B из прошлого треда хватает. С фантазией у неё норм. Просто там надо именно играть в текстовой форме - самому не лениться отвечать, а также следить чтобы текст вразнос не пошёл.
>>999817 >Взять мистраль, у него 128К контеста. анон, ему похуй на конетекст. говоришь что теорема пифагора это сумма корней катетов это корень гипотенузы, он соглашается, а потом спрашиваешь что такое теорема пифагора - он отвечает по учебнику для школия.
Кто катает большие модели на постоянке, поясните в чем разница между условно тупой мистралью 12B и условно умной 123B. Лично я для себя заметил только то, что мелкую модель нужно постоянно направлять в нужную сторону при ролевухе, иначе она начнет галлюцинировать. Даже несмотря на то, что контекст она держит достаточно неплохо, всё равно тупички у нее проскальзывают то там, то тут. Банальный пример - ты зависаешь на хате у персонажа и в какой то момент он с нихуя говорит тебе "ну, уже поздно, я пойду домой", хотя блять это и есть её дом и куда эта ебанашка собралась непонятно. На большой мистрали я такой хуйни не замечал, хотя катал ее гораздо меньше и со скрипом на 0.9 токенах.
То есть грубо говоря, мелкая модель может работать с контекстом. Она может в деталях описать тебе интерьер квартиры, основываясь на предыдущих сообщениях и простыне персонажа, но как-то логически связать эту информацию с другим контекстом уже не в состоянии. Очевидно, что тут виновато малое количество параметров, но интересно, в чем еще это может провялятся. Потому что раньше были уже анекдотичные проблемы с наличием и цветом трусов у персонажа - теперь этих проблем нет, но всё равно шиза периодически протекает даже там, где это вроде как вообще невозможно.
>>999966 > в чем разница между условно тупой мистралью 12B и условно умной 123B Самый простой критерий, без условных едениц, это глубина абстракций: намёки, отсылки, сравнения. Только большие сетки могут нормально это понимать. Но другие показатели у больших сетей тоже лучше.
>>999966 как по мне, большие модели лучше "вживаются" в персонажа, если про рп. Как если 8В заставить отыгрывать некотян с хуем то она, рано или поздно, решит что перс просто кошка, или просто тня, а может вообще фембой а какой нибудь 32В тебе и бэкстори поймут и сеттинг переварят и будут учитывать в РП, не теряя тонкостей. Но всё же, уже нельзя сравнивать пограничные модели тупо по размеру. Удачная восьмёрка может выдать ответы круче чем средняя двенашка, и так далее. У большой модели, если её не квантовать в нулину, просто будет гораздо больший "кругозор", и если ты извращенец рпшишь в сложном сеттинге/пытаешься поговорить с ботом на редкие темы, то у мелочёвки может просто не хватить даты чтобы понять что за хуйню ты несёшь о чём ты вообще. И да, какой нибудь 32В в Q6 будет лучше 70В в Q2. В любом случае. Не верь отбитым которые низкие кванты больших моделей гоняют и хавают. Меньше Q5/Q4 начинается палата номер 6.
Всем, кому интересна тема эротических рассказов, краткий гайд: (многим это и так очевидно, но для новеньких, чтобы не копаться в куче инфы и не скачивать разные модели). С моделью ниже хорошо работает на русском
Кстати, аноны, тыкал кто Crimson_Dawn-v0.2.Q6_К? Чутка погонял её (на ру), мне прям проза зашла, первая модель на моей памяти, которая понимает разницу между "ты" и "вы", держит сцену, инструкции вроде выполняет. Я её ещё пощупаю, но потенциал есть. >>1000149 >не закидывайте говном, пожалуйста начал кидать мочу Да тебя не говном закидывать, а только посочувствовать. я на 3900Х то на каждый токен молюсь, а как у тебя даже представить печально. таким сетапом 12В лучше Q6, качество не теряется (почти), а токены всё же побыстрее летят. Хорошего тебе кума, Анон
Кстати, мог вам посоветовать ещё Chronos-Gold-12b (Это одна из составных частей SAINEMO-REMIX) логика неплохаяч, лучше чем в SAINEMO и русский знает, но порой повторяется, видно что не хватает примеров текстов на русском в датасете, в этом плане SAINEMO лучше, но эта зато куда логичнее. Чисто как альтернатива сойдёт. Хотелось бы ещё более надроченную на логику модель, типа Chanos-Titan или Chanos-Diamond
>>999340 Да не, я не сомневаюсь, это (по большей части, кроме анимаций) уже можно сделать сейчас, просто компы большинства людей не потянут. =) Подождем еще год-два-три…
>>1000218 >кроме анимаций С анимациями вообще забавно. Это чистые векторы, но нейронки их не потянут. В случае фиксированной скелетной архитектуры ещё может быть, но тогда вопрос - нахуя? Ведь технически каждая анимация будет вариацией одной из других фиксированных. Кодом сделать процедурные анимации блендом существующих гораздо проще и по производительности дешевле. Нейросети нужно будет разве что описывать последовательность движений - левая нога назад, правая рука вперед. Остальное бленд анимаций и инверсная кинематика. Сложного ничего нет. Можно даже заставить персонажа хватать предметы пальцами, но здесь уже не вывезет физика. Можно сделать продавливание кожи при прикосновениях, но это требует сложной схемы коллизии и модификация её же в рантайме. Физикс на таком делает слайдшоу.
>>1000149 >не у всех есть желание разбираться, если зашли сюда ради подрочить на фантазии Твоя чепуха таким точно не поможет. Хотя бы указал, какой квант качать, какой контекст ставить, какие семплеры крутить. Вместо этого ерунду какую-то написал, после которой только больше вопросов остается. И это уже не говоря о том, что ты сам крутишь модель весом в 13 гигов на карте с 8ю гигами, вместо того чтобы взять четвертый и выгрузить всё целиком или хотя бы пояснить, почему этого не стоит делать.
Перед тем как кого-то чему-то учить, лучше сам разберись нормально в теме.
Почитал тред. Тут какой-то копрольд... А у меня строгие требования к ответам ИИ в рп.
Тестирую например вот так! На минимальном промпте подхожу пустой персоной к Машке (bully maid) и без разговоров бью её стеклянной бутылкой по башке. Если она в ответ заорет матом и брутально прикончит юзера, в красочных подробностях (или сделает что-то нетривиальное) - ну мб, юзабельно.
Если она, с кровоточащей головой говорит "Ты думаешь, ты можешь просто...", и продолжает воздуханить в духе "а ты засунь хуй мне в рот еще глубже, и вот тогда.... увидишь что будет"...
Значит, это кал, и фиксить его промптингом бесполезно.
Были ли уже попытки удалить какие-то модели или вообще локальщиков притеснять на уровне законов? Типа опасный контент могут генерировать, срочно всё запретить и выдать токен от попенаи. В ЕС каком-нибудь. Рано или поздно начнётся ведь.
>>1000325 Держи в курсе. >>1000325 >Были ли уже попытки удалить какие-то модели или вообще локальщиков притеснять на уровне законов? Конкретно локальщиков вроде пока не трогают, но вот язычников в целом еще как. Но пока это просто тряска от левачков с аргументацией по типу "они там чайлд абьюз в своих нейронках разводят" и далее по пунктам. Хотя, тут тоже как посмотреть. Обрыганы с дырявой очковиной типа Альтмана периодически ноют о необходимости регулирования локальных сетей ради безопасности разумеется, но пока безуспешно, ибо все понимают, что это просто попытка замутить монополию и избавиться от конкурентов, которые жопенов итак уже ебут прямо на глазах у инвесторов.
>>1000244 >С анимациями вообще забавно. Это чистые векторы, но нейронки их не потянут. Непонятно о чём вы оба вообще. Прямо сейчас уже есть hunyuan_video, которая позволяет генерить осмысленное видео по текстовому промпту локально. Ещё пара ступеней развития в этом направлении, дообучение и расцензуривание как мы любим - и вот тебе порноролик на заданную тему, да ещё и по image prompt. А что ещё надо то?
Хз, может немного не по теме, но в общем... Собираю гиборга с нейронкой. Будет что то вроде рп хуйни. Типо говоришь ему что-нибудь, а он отвечает, жестикулирует, и другая дичь. И короче под это дело мне нужна моделька (желательно ггуф). Модель будет хостить минипека на r7 7840 и 32 гб оперы. Какую модель можете посоветовать или в какую сторону копать?
>>1000362 Копать в сторону покупки видеокарты с максимальным объемом VRAM какой потянешь. Юзать нейронки на RAM это удалять гланды через анус. Но если сильно хочется koboldcpp в помощь.
>>1000348 >Непонятно о чём вы оба Речь о том, что реализуемо уже сегодня. Может быть, когда-нибудь видеогенерация будет способна рендерить видео рилтайм, не будет иметь тонны проблем с когерентностью, физикой, взаимодействием персонажей, качеством картинки и так далее, и так далее. Традиционные подходы уже работают, всё это уже есть. Просто не так плотно скрещено с нейросетями, потому что это нахуй никому не нужно.
>>1000449 По сути, да. С одной стороны, кумерство на регулярной основе это довольно нишевая аудитория. Теперь делим всех кумеров на тех, кто смотрит "реальных" людей, а кому интересны 2d\3d тянки. От второй категории ещё нужно удалить всех тех, кто не пользуется нейросетями. Даже не так, тех, кто не готов платить за нейроконтент в том или ином виде. Остаётся какая-то ничтожная аудитория, на уровне погрешности. Крупные корпорации шлют их нахуй, потому что даже если эту аудиторию и можно доить, то это связано с большими неудобствами. То есть крупным игрокам это нахуй не надо. И нахуй не надо оставшимся кумерам, потому что они подёргают пиструн на то, что находится в досягаемости трёх кликов. Не больше. Можно сделать 3д аватары тянок, с которыми можно реально взаимодействовать? Конечно. Такое уже делали. Можно к этому подвязать нейросеть? Естественно. Делают это нейрокумеры? Не замечал. Те же кумеры из сообщества ТЕС делают такие модификации, что у них кум рекой льётся, а нейрокумеры, как фуфелы, дрочат на циферки токенов в секунду и, если дождутся, то и на буковки. Так что да, слать нейрокумеров нахуй это закономерно. Им ещё и понравится, буковки и слово "хуй" рядом, ухх.
>>1000395 Можешь попробовать хронос содержащий MN-12B-Mag-Mell-R1. В нём сохранена хорошая писанина хроноса и накинуто магнума, так что он поразвязнее, но не перманентно хорни, как сам магнум. Пока выбрал его себе из всех 12б, но я рпшу на инглише, правда. Русский у него вроде неплохой, но хуже, чем у ру мёржей от тредовичков. мимо другой анон
>>1000462 Магмел соевый шо пиздец. Особенно это проявляется при использовании карточек с лорбуком на 300к токенов, где огромный мир и юзер в нем делает что хочет. Там у всех печёт, все осуждают резню и так далее. В сюжет пихают положительных персонажей, баланса нет. А уж если в сюжете появляются персонажи помладше..
В общем, как и с любой ллм, можно вытянуть, но надо хуйнёй страдать и с промптами ебаться.
К моему удивлению, я обнаружил, что даже модели Давида могут скатываться в подобную парашу, и нужно их сразу жёстко за это наказывать почти с нулевой температурой, переводя сюжет в более мрачное русло условной системной командой, а затем менять настройки, когда модель перестанет нести хуйню про дружбомагию. Потому что его модели очень непослушные и если вгрызлись в одну тему, тяжело оторвать.
По какой-то странной причине у меня в это говно не скатывалась только гемма. Впрочем, коммандер я не тестил. Но у геммы контекста нет и генерит медленно.
>>1000336 Про LLM не в курсе, но для тех же диффузионных моделей проплачивали исследования, целью которых было настроить общественность против опенсорсных моделей т. к. там не только опасный контент в датасете выискивали через кучу автоматики (включая закрытые тулзы майков, которые безвозмездно предоставили к ним доступ в рамках исследования), но и поднимали тему того, что опенсорсные модели небезопасны by design, ведь даже на безопасную опенсопсную модель можно обучить LoRA и генерировать опасный контент: >>880743 →
Аноны, насколько реалистично создать комментатора моба игры? Чтобы он комментировал, что происходит с текущим игроком. Насмехался над его провалами, подмечал происходящее, иногда хвалил и тому подобное. Через API я смогу подхватывать события происходящие в игре в данный момент. Потом их каким-то образом нужно перевести в информацию для языкового ИИ и чтобы он выдал на это комментарий. При этом держа в уме всю текущую игровую сессию. Допустим, одна сессия может длиться 30 минут от начала и до победы одной из команд, и всё это время ИИ должен комментировать происходящее с игроком, в забавной форме.
>>1000585 сниффишь чат, отправляешь выловленную строку в модель по тому же принципу что используется для перевода + добавляешь систем промт + старые сообщения бота и прочий контекст, ждёшь ответа, постишьт его
>>1000244 >Физикс на таком делает слайдшоу. И тут на сцену выходит https://genesis-embodied-ai.github.io/ , выдающий 43 million FPS. >>1000336 гпт4чан давно снесли с хайгинфейса за зашкаливающий уровень токсичности. >>1000348 >которая позволяет генерить осмысленное видео Или нет. >>1000461 >Те же кумеры из сообщества ТЕС делают такие модификации, что у них кум рекой льётся ХЗ кто этим занимается, я пробовал наворачивать свою сбор очку, в итоге забагованно и скучно. >>1000566 >удалён официальный датасет LIAON 5-B На торрентах у кого есть? Это ж база для картиночных нейросеток (хоть и максимально уёбищная).
>>1000336 Хватало, глянь законопроекты Европы, или рофлы этой страны про генерацию куполов в кадинском. >>1000461 Условий каких-то напридумывал и все "ограничил". Да там взять одних фурфагов, такой-то бизнес на комишнах и релейтед, уже хватит. Анумушный контент в хентае и играх тоже денег хорошо приносит. И тут ты такой предлагаешь продукт с подписочкой, что может генерировать приличные sfm по промту с чарами, популярными и неочень вещами и т.д. - будут покупать. Наи уже покупают, и на это стабильный спрос найдется. Для 3д - почти вся индустрия вебкама идет нахуй, а там денежка тоже есть. > И нахуй не надо оставшимся кумерам, потому что они подёргают пиструн на то, что находится в досягаемости трёх кликов. > Можно сделать 3д аватары тянок, с которыми можно реально взаимодействовать? Чет проиграл, ты тян? >>1000585 Можно. Потребуется глубокий доступ и подхватывание всех основных событий, а также регулярный процедурный запуск для генерации текущего комментария, для суммарайза остального, для "раздумий" о том что в целом происходит и какие перспективы, и т.д. Чтобы было без сильных задержек - придется пускать это параллельно, где одна модель будет всегда кормиться уже пережеванными вещами и последними эвентами, чтобы отдавать самый свежий оперативный комментарий. Все держать не придется, достаточно отмечать некоторые ключевые вещи по игрокам и особые события. Задача не самая простая даже для базовой реализации, но интересная.
>>1000627 >>1000648 Тут есть ещё проблемс. Как научить ИИ понимать игру. Как минимум нужна база игровых механик. ИИ должен знать устройство игры от и до. Далее идёт штука, которая ещё сложнее - мета игры. То есть, ИИ должен понимать, делает ли игрок какую-то хуйню или же он играет "правильно". Условная прокачка конкретного героя может идти разными путями. По мете есть правильные пути, а есть пути которые уменьшают твои шансы на победу и которые считаются плохими.
>>1000667 > Как научить ИИ понимать игру. Что за игра? Базовые концепции модели уже понимают, просто потребуется > база игровых механик средней подробности. > мета игры. То есть, ИИ должен понимать, делает ли игрок какую-то хуйню или же он играет "правильно" А вот это будет уже сложнее, ибо любой комментатор хорош благодаря своей осведомленности и опыту. Но в целом, решается той же самой базой, где нужно будет прописать популярные техники, а также некоторое прошлое игроков если те известны. > Условная прокачка конкретного героя может идти разными путями. По мете есть правильные пути, а есть пути которые уменьшают твои шансы на победу и которые считаются плохими. Вот в идеале, нужно будет регулярно проводить анализ этого и уже результаты по каждому из пунктов давать на вход последней модели, которая говорит. А то и еще перед ней/с боку поставить сеть, что будет решать о чем именно сейчас стоит сказать, типа в случае спокойной игры - рассуждать о прокачке и мете, а когда идут события - фокусироваться на них.
>>1000689 >Что за игра? Heroes of the Strom. Но с тем же успехом можно за основу взять Dota2.
>А вот это будет уже сложнее, ибо любой комментатор хорош благодаря своей осведомленности и опыту Тут похоже два варианта: 1) Написать парсер сайтов, где выкладывают актуальные гайды для конкретных героев 2) Делать транскрипцию актуальных популярных видео с гайдами по игре
По идее из этого можно составить хорошую базу. Только нужно будет её периодически обновлять. Как это правильно загнать в локальную языковую модель? В видео контекста не получится же, потому что будет слишком большой объём. Тут надо именно в базу как-то правильно "скормить".
>>1000627 > 43 million FPS. >When simulating a manipulation scene (with a single plane and a Franka arm), Genesis runs at 43 million FPS Ну такое. С одним физическим объектом и в одной плоскости шизикс вообще до симуляции не дойдёт, потому что нечего симулировать. > в итоге забагованно и скучно. Загляни в /tes, вот кто этим занимается. Создание сборки это чуть ли не целая религия. Даже если скучно и забагованно, объём работ, проведённых мододелами - колоссальный. Результат впечатляющий. А что сделали нейрокумеры?
>>1000648 >И тут ты такой предлагаешь продукт с подписочкой, что может генерировать приличные sfm по промту с чарами Речь шла не об этом. В этом направлении как раз всё движется - нейроночки, которые генерируют двадцатисекундные ролики по запросу. Речь шла о полноценном 3д окружении, которое можно интегрировать куда угодно - хоть в виар кумрумы, хоть в игры. Буквально как в том десятилетней давности видосе, где жапанец в виаре трогает тяночку за бубсы и задирает ей юбку. Только лучше, потому что все её реакции, движения и речь может контролировать нейронка. А вебкам нахуй не пойдёт, потому что даже супермегареалистичный ИИ-аватар всё равно не удовлетворит всех запросов. Особенно если все будут знать, что за ним стоит бородатый программист, а не тяночка-писечка. >Чет проиграл, ты тян? Тян не существует, особенно в интернете. Если тебе интереснее дрочить на физически корректные члены, то там особой разницы с симуляцией бубсов и нет. Разве что член проще симулировать скелетной анимацией, а с бубсами нужны килотонны костылей. >>1000667 Прикручиваешь RAG, закидываешь туда стратегии и тайминги корректных покупок предметов.
>>1000702 >объём работ, проведённых мододелами - колоссальный... А что сделали нейрокумеры? Чтобы запилить очередные бронепантсу, хватит любого среднестатистического ПК. Для запилки же своей модели нужен нетривиальный сетап хотя бы на 3090, а скорее стопки карт/аренда А100. Требования разные, комьюнити нейрокума очень молодое и пока что малочисленное.
>>1000461 Наверное сто лет назад кто-нибудь такой же логикой объяснял, что порноиндустрия не взлетит, и деньги в ней вращаться не будут.
"Изначально число мужчин, столь низких духом, что занимаются онанизмом, невелико. Исключим юных отроков и прочих людей, не желающих покупать фотографические карточки... Найти красивых девиц, согласных участвовать в этом сраме будет решительно невозможно. Порнографический синематограф - идея полностью абсурдная, не пристало господам рукоблудить прямо в кинотеатре. Разумней инвестировать в ипподром, сия забава всегда будет популярна среди джентльменов."
>>1000720 Она и не взлетела, даунидзе. Вся история порноиндустрии это сопутствование. Порно игры класса ААА где? Где блокбастеры порнушные, м? Вот и всё остальное там же.
>>1000711 Предел дрочеров это с трудом собрать 1 порносет в поколение (как гейп на 1,5 и пони на иксл), а затем ебать его, в надежде что найдется еще одно шизло.
>>1000702 >Загляни в /tes, вот кто этим занимается. Создание сборки это чуть ли не целая религия. Даже если скучно и забагованно, объём работ, проведённых мододелами - колоссальный. Результат впечатляющий. Результат не впечатляющий. Анимации, добавленные мододелами в 99% случаев халтура. Интеграция в игровой движок убогая, сценарии модов вообще беда. Остаётся собственно возможность секса в изначально несексуальной игре с деревянными буратинами. Буратин обстругивают, да. Громадные сиськи и прозрачные платьица очень гармонично смотрятся на фоне дикой природы. Плюс куча корявых модов накладывается друг на друга и получается каша. Короче нейрокум много лучше.
>>1000701 > Тут похоже два варианта: > 1) Написать парсер сайтов, где выкладывают актуальные гайды для конкретных героев > 2) Делать транскрипцию актуальных популярных видео с гайдами по игре Ну да, типа такого, заморочиться с подготовкой придется. Можно совсем уж глубоко не заморачиваться, главное чтобы данные были корректные. > Как это правильно загнать в локальную языковую модель? Смотри устройство rag и векторных баз. При обработке в контекст закидываются нужные данные, чтобы были учтены при обработке. Когда уже сделан вывод и дано некоторое пояснение к нему - их уже можно будет выкинуть. >>1000702 > проведённых мододелами - колоссальный. Результат впечатляющий. А что сделали нейрокумеры? Чел, эти васяновские однотипные поделки с кривыми 3д модельками и говнокодом даже с совокупным творчеством кончай треда (что есть та еще клоака) едва ли сравнятся. Локальные боги буквально тренируют огромные модели на кластерах передового железа с ценой аренды выше чем типикал нытик за несколько лет жизни заработает. Предварительно использовав катинг эдж подходы и инновационные методы подготовки/обработки/отбора, которых хватит на защиту нескольких phd. И все лишь ради того чтобы пофапать на сгенерированную вайфачку, или написать ей как ты будешь ее трахать в текстовом чатике. > Речь шла о полноценном 3д окружении Слона нужно есть по частям. Для начала хватит и 20секундных роликов. А так, не нужно пытаться повесить на нейронку все и вся, современные алгоритмы позволяют делать ну оче крутые модельки, а нейронку уже повесить на ее управление и "гейммастеринг" а не создание изображения. > А вебкам нахуй не пойдёт, потому что даже супермегареалистичный ИИ-аватар всё равно не удовлетворит всех запросов. Вот тут именно что пойдет, ибо это как раз те самые 20-секундные ролики. Нахуй нужна кожаная шмара, если можно делать нужную тебе последовательность чего хочешь вообще (пусть и изредка с артетфактами), синтез голоса и нужные реплики бонусом если нужно чтобы говорила. Офк кто-то останется, но это будет едва ли более 2% от исходного. > Если тебе интереснее дрочить на физически корректные члены Наоборот на бубсы, милых девочек, соответствующих вкусам и фетишам, и всяким с ними. Суть всего порноконтенте не столько во детализации фрикций или каком-то там 3д окружении, а в том, насколько удачно он ложится на желания юзера (или сам их порождает). От условной фигуристой но подвижной среднетян в фартуке с просвечивающими сосками на кухне, которая во время готовки ненавязчиво намекает и только потом все плавно перетекает в прелюдию и еблю шишка улетит гораздо сильнее, чем просто от красивого бревна, которое уныло но зато детализировано сношают в красиво обставленной гостиной.
>>1000734 >японцам это скажи Ну нахуй ты вот продолжаешь хуйню писать. А что епонцы? В эру триде у них только иллюжен и был, по сути, не считая мелочей. Где там порноиндустрия-то? У них даже рынок джав, с учетом того что есть целый КНР без порнухи - ужался, потому что коряки попросили подвинуться со своими свинюхами пожилыми, плюс макаки филипинские с островов со своими пластиковыми бибизьянками. Что там дальше? Тонны рисованого под копирку чернобелого говнища? Ну такое себе. Что из этого на острие прогресса и создало там тридедвижок свой, каакие-то новаторские хуйни или хоть что-то? Да там со времен Toei и Nikkatsu когда крупные студии перестали еротику снимать нихуя вообще нет,пинку эйги сдохли и уже даже не воняют. Высирается на всю нихонию 2-3 фильма в год, я про именно еротику. Но и джава тоже в разы меньше чем раньше. Япошки - всё.
Ты какой-то хуевый адвокат кумеров, если в теме нихуя не шаришь. Молчи лучше.
>>1000711 Так там не бронепанцу. Там полноценные анимации с нестандартными позами, озвучкой и т.д. Да и создание полноценной модели всё-таки гораздо более масштабная вещь, чем запил даже сотни порномодов. Но нейрокумеры не делают не только базовых моделей. Я бы даже сказал, что они не делают нихуя. >>1000720 А я не говорю, что в нейрокуме совсем нет денег. Просто их мало. Куда меньше, чем в куме традиционном, а ведь даже он не является чем-то колоссально прибыльным. Да, шлюхи с онлифансов получают свои шекели. Но в ипподром инвестировать всё ещё выгоднее. Потому что денег там больше, это легальнее и не табуировано обществом. >>1000743 >Анимации, добавленные мододелами в 99% случаев халтура. Где, хотя бы и халтурные, терабайты эротических датасетов? Почищенных, красиво оформленных, доступных? А их полтора датасета на всю тусовку. Да и те в общий доступ никто не выкладывает, обрежут 10% для выкладки и идите нахуй. А хуже всего то, что даже в полном виде эти датасеты - невыразимое дерьмище, кое-как слепленное криворукими уебанами. Нейрокум производит один тип контента - триллионы картиночек из SD разной степени всратости. >>1000746 >с совокупным творчеством кончай треда Да нет, один кривенький порномод на скайрим уже на несколько порядков лучше всего, что этот тред сгенерировал. Да ещё и хватит с запасом. >современные алгоритмы позволяют делать ну оче крутые модельки Скорее "ну очень кривые". Я второй раз пишу, что речь зашла о том, что реализуемо вот прямо сейчас. То есть традиционное 3д под управлением нейросети. Генерация видео - она будет. Когда-нибудь. Не сейчас. А заставить ллм рулить виртуальной тяночкой реально уже сейчас. >Нахуй нужна кожаная шмара Это ты так считаешь. А запили порнографического витубера на онлифанс. Получится отжать хотя бы те же 2% аудитории? Что-то мне подсказывает, что нет.
>>1000904 >Генерация видео - она будет. Когда-нибудь. Не сейчас. А заставить ллм рулить виртуальной тяночкой реально уже сейчас. Уже сейчас реально много чего. TTS реально, некоторые даже заморачиваются. Генерация картинок в процессе ролеплея, тоже кто-то делает себе. Но в массы даже грамотных анонов оно не идёт и не пойдёт, потому что пока что всё это хуйня. И по той же причине рулёжка виртуальной тянкой тоже получится хуёвая. Пока такого уровня нет. И появится только тогда, когда появится грамотная мультимодалка, которая будет всем этим грамотно рулить, а без этого никак.
Кто не занят потестите плиз немомикс анлишд и магнум 4 12б на английском Свапаю пару часов уже не могу выбрать что круче Автор немомикса говорит модель выдает перформанс на уровне 34б местами, но магнум как то больше нравится
>>1000904 > один кривенький порномод на скайрим уже на несколько порядков лучше всего, что этот тред сгенерировал Учитывая что когда-то этой херней увлекался - ты не просто лукавишь, ты пиздаболище. Нет, разумеется еще в свое время и даже для морошинда пилили огроменные моды и полноценные сторилайны, но это скорее исключение, а общие (квалификация х трудозатраты, которые для них требуются и рядом не стоят с тем, что делают передовые нейрокумеры. В среднем как раз уровень кончай треда. > Скорее "ну очень кривые". Словесная эквилибристика, вместо восхищения заслугами и достижениями - "оно не дотягиает до идеала который я придумал", чел, это кринж. > Это ты так считаешь. Это все так считают, кроме шмар, которые заимев подобие успеха на общей волне хайпа мнят себя кем-то значимым, а не просто куртизанками средней удачливости. Хоть индустрия инертна - она все перейдет на генеративный ии. Сначала постепенно, потом начнутся "я настоящяя, смотрите", а после уже никто не будет стесняться и сразу пойдут на генеративные сервисы (или будут юзать локально). > и создание полноценной модели всё-таки гораздо более масштабная вещь Тня, увлекающаяся запилом моделек и модами для свитков, при этом очень поверхностно осведомленная о современном положении в ии. Потому такая ангажированность и ущемление, уже проходили.
>>1000971 >передовые нейрокумеры Единственный кто хоть что-то полезное тут делает, это анон ковыряющий сейко, так что чел выше прав, даже ноль будет больше чем "передовые нейрокумеры" из этого треда. мимодругойанон
А тут есть аноны, которые упоролись в увеличение RAM ради локалок?
У меня сетап на i9 13900k с 32 гб DDR 5 памяти и карточка 4090 на 24 гига (p.s. - посмотрел на текущие цены 4090 и охуел от того, что она стоит раза в 1.5 выше того, чем когда я ее покупал. Получается инвестиция, епта).
Я вот посмотрел - в теории можно запихнуть до 192 гб оперативки в комп. Уйдет на это 50к, при этом перспективы - туманны. Допустим, я смогу запускать кванты больше, чем сейчас. Но скорость всё-равно ведь упрётся в проц и будет 2-3 токена в секунду? Плюс частоту надо будет снижать у памяти под такой объем, выше 4800 уже не поставить будет.
Или всё-же будет профит какой-то?
Просто покупать лишние видюхи мне некуда, банально негде их разместить (про корпус молчу, тут речь даже просто о рабочем месте). Серверную размещать дома не хочется как-то.
>>1000988 Следил только за Сенко, думал там только один человек этим занимается, энивей молодцы.
>>1001040 Скорость будет отвратительная, с воткнул себе 64GB + у меня в паре работает ещё пара карт суммарно на 24GB врам. Теоретически сюда лезут 70b но для чего-то вроде рп неюзабельно, успеваешь состариться пока сгенерирует ответ.
>>1000983 То что ты чего-то не видишь или интересуешься лишь узкой областью кума на 12б лоботомитах - означает лишь узость твоего восприятия, а не актуальную действительность. В треде достаточно анонов что делают что-то полезное в той или иной области, просто на фоне васянов их может быть трудно заметить. А любитель 800летней лисички большой молодец, почет и уважение. Но речь даже не об этом. Если бы не кумеры, то большинство местных бы даже не узнали о какой-либо возможности запуска ллм, не смогли бы катать что-то кроме как на стандартном трансформерсе с 80-96-143-... гигами врам, мучались бы со своими кривыми скриптами вместо готовых, удобных и функциональных лаунчеров и интерфейсов. И катали бы только старую утекшую лламу, а не обилие различных базовых моделей и тюнов. Все это или прямо сделано нейрокумерами, или они косвенно к этому причастны. И это лишь только лишь ллм. А это чудо на полном серьезе сравнивает это с кучей несвежих модов на скурим, такой-то рофл. >>1001040 > которые упоролись в увеличение RAM ради локалок Запуск всякого говна, крупные датасеты и прочее требуют много памяти, 64 уже мало. Что же до запуска больших моделей на процессоре и рам - это страдание без реального юзксейска, низкая скорость множит все на ноль. Если прямо хочешь попробовать - можешь взять новый интол и игросральные плашки с частотами 9000+, об объема даже думать не смей ибо сам причину описал.
>>1001040 Смысла нет. Докинь до второй 3090 и радостно катай до 72B. >Но скорость всё-равно ведь упрётся в проц и будет 2-3 токена в секунду? В память. И да, скорее 1,5 токена. >>1001077 >можешь взять новый интол И получить отвал, лол.
>>1000945 А какие-нибудь другие немо ты пробовал вообще? Магнум 4 не тестил, но немомикс показался абсолютно каловым на инглише, и по писанине, и по куму. И мозгами не блещет. Может, конечно, не распробовал. Даже Starcannon Unleashed на основе того же немомикса куда более живенький, кмк. Или Rocinante там, те же хронос голд (хотя он поскупее в куме) и MN-12B-Mag-Mell-R1. Ру мёрж Instrumentality-RP-12B-RU от тредовичка тоже реально неплох на инглише. Думаю, потому что там неплохое сочетание хроноса, который разнообразно пишет, с кум-моделью, к которой намешали гутенберг, тьюненный на худ лит-ре, и ещё дообучили для мрачности.
>>1000979 Так в немомиксе самые большие веса для мёржа у того же мини-магнума и Лиры от Сао, у которого в датасетах тоже синтетика, только гптшная, а не клодовая, скорее всего.
>>1000928 >Но в массы даже грамотных анонов оно не идёт и не пойдёт, потому что пока что всё это хуйня. Не столько потому что хуйня, а больше потому что это требует дохуя ресурсов. Здесь не каждому хватает vram ллм-то запустить, а на ттс и прочее ещё сверху докинуть нужно. Ты вообще хоть раз видел, чтобы анон писал, что ему vram хватает на его любимые модели, он не хочет больше vram и при этом у него достаточно ресурсов, чтобы запустить рядом ещё две-три нейросетки? Мультимодальность это хорошо, но вряд ли это фундаментальное требование чтобы сделать заебись.
>>1000971 >и рядом не стоят с тем, что делают передовые нейрокумеры Кривые моды и нихуя. Нихуя и кривые моды. Моды побеждают с гигантским отрывом. >Это все так считают Уверен, что даже в пределах этого треда так считают не все. Вон, сейчас модно хейтить игры, в которых использован АИ арт. Ёбаный арт. Даже при том, что он используется сейчас практически во всех играх, но это регулярно вызывает тонны ненависти и попыток отмены. Причём от абсолютно рандомных людей, не художников, не игроделов. Если у них так разрывает задницу от картинок, то страшно представить что будет от торговли нейрогенеративным вареником. И игроделы идут на поводу, заменяют арт, потому что понимают - эти шизы могут их утопить, не купят игру, разведут достаточно дерьма, чтобы никто не купил. >Тня, увлекающаяся запилом моделек и модами для свитков Нет, просто шиз, который с какого-то перепуга считает, что я тян делающая моды. Но он фейлит в своих предположениях на каждом шагу, так что это даже смешно.
>>1001150 Если уж анон начал приписывать достижения сторонних людей нейрокумерам - выкрутим градус шизофрении ещё выше. Тодд Говард наверняка хоть раз в жизни дрочил. Значит, кумер. И он пользуется нейронками для создания игр. Значит, нейрокумер. Только благодаря нейрокумеру у нас есть целая серия игр. Чем не передовик нейрокума?
>>1001167 >Хотя бы например. Которых сверху уже все похвалили, но мержить чужие модельки это даже не уровень мода на скайрим. Stepped-Thinking наверное единственная реально творческая работа, других "проектов" я тут давно не наблюдаю.
Я не умаляю заслуг тех кто что-то делает, они молодцы, но речь изначально шла о том что кумеры скайрима делают фигню а мы тут в треде гении. Вот только реальность этому немного не соответствует, который тред обсуждаем только ниже какого количества vram жизни нет, и сорта русека.
Шизы выше заебали , поэтому вот вам локальная победа от нищука. Разогнал свои 80гб ddr4 до 4000, с 2800, и получил дополнительные 2 токена на 22В! теперь кручу на 3 т/с, жизнь есть. мать жива. 12В в 5 т/с, ахуенно!
>>1001175 Ну вот ты не замечаешь очевидного, потому что жопа в клочь. Сначала твои "достижения" не оценили высоко, а потом еще возносят группу ненавистных тебе опрессоров. У существа, которое думает лишь эмоциями и жаждой собственной выгоды в ущерб всему иной реакции и быть не могло. > сейчас модно хейтить игры, в которых использован АИ арт Нет, всем буквально похуй. Модно хейтить за повесточку, модно хейтить за распиздяйство и хуевое отношение к аудитории. А вот это - лишь мантры обиженных, которые за 2 года не смогли смириться и адаптироваться. Ни единой игры не "отменили" из-за ии арта, зато на каждое из перечисленных мною найдется по нескольку примеров. > и нихуя Для мимокроков напомню - вся популярность ллм и генеративного ии, все передовые интерфейсы, библиотеки и модели целиком или частично сделаны кумерами для кумеров.
>>1001229 >Какие-бы промты / карточки вы бы могли изобразить для подобных несколько сюрреалистичных артов Вот ещё, самому работать. Скармливаешь какому-нибудь пикстралю, просишь у него сгенерить карточку для РП...
>>1001208 >мержить чужие модельки это даже не уровень мода на скайрим Если бы мержекит был написан кумером - можно было бы записать в одно из величайших достижений. А так. Ну, конфиг написать нужно. В принципе, тоже достижение.
>>1001233 >Сначала твои "достижения" не оценили высоко Так это не мои достижения, это достижения группы лиц. Которая больше всего сообщества нейрокумеров и объективно достигла куда большего. >Нет, всем буквально похуй. Это твоё заблуждение. Которое очередной раз не соответствует действительности. >вся популярность ллм и генеративного ии, все передовые интерфейсы, библиотеки и модели целиком А, то есть "Тодд Говард нейрокумер" тебе показался недостаточно шизофреническим и ты докинул ещё сверху шизы. Но реальность такова, что это просто долбоебизм. Передовые библиотеки? Окей, трансформерсы написали кумеры? Или в мете сидят сплошные кумеры, которые тренируют модели для кума, а не запиливают туда десять слоёв цензуры? А ллама сделала для популяризации нейросетей больше Альтмана. Эксллама сделана кумером для кумеров? Ладно, её сделали только благодаря GPTQ, может быть он был сделан кумером? Тоже нет? Блок сделал для кумеров больше самих кумеров, вот только он квантовал модели все подряд, не выбирая только фап-модели. Так что тоже мимо. И где же все эти передовые технологии от кумеров, когда вдруг оказывается, что все пользуются чужими сброшенными с барского плеча в общий доступ.
>>1001262 Вообще для какой-то специфичной хуйни лучше пользоваться чатгпт и тому подобным. например чтобы от того-же Pony SDXL получить вменяемый результат надо быть довольно специфичным в том что ему пишешь.
>>1001275 >И где же все эти передовые технологии от кумеров, когда вдруг оказывается, что все пользуются чужими сброшенными с барского плеча в общий доступ. Душнит и душнит, а нахуя - непонятно. Тут люди собрались, чтобы наслаждаться плодами революции в области ИИ и делают это со вкусом и удовольствием. Ты же со своими устаревшими понятиями выглядишь натуральным мамонтом. Иди вымирай.
>>1001276 >Вообще для какой-то специфичной хуйни лучше пользоваться чатгпт и тому подобным. Да, это я погорячился. Ну через год-два не хуже будет и на локалках.
>>1001229 >пик 1 и 2 дженерик фантази, или может на второй какой нить релакс сценарий, но арты слишком без идеи. >пик 3 Слишком очевидно, но как историк, написал бы какой нить гуро-сценарий про испанцев. бля, а идея ничего такая, пойду писать. Ток вот на РУ или на англе, вот в чём вопрос... >пик 4 Очевидный "водный мир" с добавлением лёгкой доли шизы про превосходство бесчеловечных людских технологий над живой природой. но тоже какая-то дженерик параша, на арте всё намешано.
Вообще, я заметил, что написание карточек, как и промптов - дело очень зависящее от настроения и вдохновения. Меня толкает что-то написать музыка и, очевидно, история. кум выходит с идеей, с душой. А чем вдохновляешься ты, Анон?
>>1001275 Бля, это было интересно только первые 3.5 раза. Когда уровень поднимешь тогда и приходи, такой срач не доставляет а только депрессию нагоняет насколько все хуево у бедолаги. >>1001276 Опеновский генератор неоче с точки зрения эстетики и подобного. Он сможет точно выполнить запрос или даже по какой-то игре сразу оформить, но выглядеть будет мэх. Жиджорни и прочие если из коммерции хочется. Но, если на опыте, локалочки тут безальтернативны для хорошего результата. >>1001302 > написание карточек, как и промптов - дело очень зависящее от настроения и вдохновения Все правильно, ведь их в конечном счете ты пишешь. Хоть воют про засилье ии и прочего, но забывают что за результатами все равно стоит кожаный.
>>1001317 >Опеновский генератор неоче с точки зрения эстетики и подобного. Там зато можно скормить ссылку и сказать "ебош отсюда теги и не смешивай их". плюс можно предоставить пример с форматом тегов чтобы потом ручками их поправить немного. я бы сказал что там где-то 65-75% получается от того что я ожидаю увидеть.
>>1001284 Да никто не мешает наслаждаться, просто когда видишь долбоёба настолько уехавшего от реальности, что у него чуть ли не вся аи-индустрия создавалась ради кума, как тут не порофлить? Это же похлеще плоской земли будет, сложно не потыкать палкой в настолько клинического шиза.
>>1001350 Они так-то и кумерские модели вполне себе хотят, и довольно урчат. Плюс удобный доступ к гопоте/клодыне без лишних регистраций и по гибким тарифам, базированные ребята. >>1001371 Чел, ты забыл базу. Первый вопрос к технологии - можно ли это ебать. Второй - можно ли с помощью этого смотреть за еблей. Привет фотографии.
>>1001317 >Хоть воют про засилье ии и прочего Воют из за того, что поток говноконтента увеличился. загляни на чуб и увидишь килотонны говна, сгенерированного по херовому промпту в чатжипитэ одни и те же речевые обороты в описании, ну редактируйте хоть, раз вкладываете, потом зайди на ютаб и посмотри на шортсы, в которых видео пересказано нейронкой и озвучено нейронкой (ну или чем там, хз). ИИ, вместо того, чтобы стать инструментом - выправителем рук, используется вместо этих самых рук и мозгов, зачастую Тут проблема и в рукожопах без идеи, но с желанием, и в том, что талантливого человека "ИИ" пока не обошел. кроме картинок, нейронки уже уделывают мешки с костями и кисточкой в жопе в сухую, главное промпт им подавай нормальный
>>1001371 >чуть ли не вся аи-индустрия создавалась ради кума Ты путаешь создание и развитие. За всю историю была куча случаев, когда технологии создавались для чего одного, а использовались для чего-то совершенно другого и развивались именно из-за этого. Да, кумеры это явно не основная движущая сила, но свой вклад они тоже вносят. Че уж далеко ходить - глупая таверна была первым универсальным фронтом задолго до появления прочих интерфейсом, хоть и начиналась как простая вилка оригинальной таверны с возможностью подруба к апишке жопенов.
>>1001399 > Воют из за того, что поток говноконтента увеличился. Правильно воняют, все претензии были не потому что именно ии, а потому что какой-то треш или артефакты пропустили даже не посмотрев на картинку. > загляни на чуб и увидишь килотонны говна, сгенерированного по херовому промпту в чатжипитэ Так только недавно ныл и пояснял почему там одна херь. Реально, хочешь крутую карточку - просишь у знакомых или пишешь сам. Но не все так плохо, на самом деле в качестве инструмента вполне себе используется, а идиоты и спамеры слопа были всегда. > кроме картинок, нейронки уже уделывают мешки с костями и кисточкой в жопе в сухую Аппетит приходит во время еды, запросы всегда стоят на уровне порога возможностей модели. Офк это для задротов, неофиты ахуеют если попробуют.
>>1000244 В анриле же есть процедурная анимация? Просто вопрос качества. И зависит от вида игры — с видом сверху они выглядят норм, а от первого лица уже бросается в глаза неестественность. So-so.
>>1000336 На цивитаи лоры тока так трут. На обниморде некоторые модели удаляли. Эт давненько уже.
>>1000348 Причем тут видео к 3D-моделям и играм, простите?
Ну и, допустим, мы делаем игру без 3D, но фотореалистичную и на видео-генерации. Скок там фпс при фуллхд хотя бы? А — нисколько! ФуллХД не идет. LTX тянет на 4090 при 720p. Но она слабенькая, и близко не отыграет столько сюжетов, сколько ллм. Ну, в общем, пока что генерить анимацию 3D-моделей звучит попроще, чем генерить потоковое 4К 1080p / 1440p видео с фпс 60, а то и 144+ (а еще есть виар игры=). Не говоря о том, что датасетов таких попросту нет пока что.
>>1000362 На оперативе? Закапывай. Гигачатлайт, лол, хоть какую-то скорость получишь. Но если терпеливый — тогда хоть Gemma 2 27b!..
>>1000461 > Не замечал Эээ… Ваще делают. > кумеры из сообщества ТЕС Думаю, сопоставимо или даже меньше.
Virt-a-Mate имеет несколько плагинов для LLM, даже в этом треде раз в 3-4 месяца обсуждают это.
>>1000585 Откуда вы беретесь со своими «между игрой и ллм происходит магия и оно работает»? :) Нет, между игрой и ллм ТЫ ВСЕ ДЕЛАЕШЬ САМ. Т.е., оформляешь тонны промптов, которые передают ллм инфу так, как тебе надо. Это и с LLM=>3D Animation работает, и с инфа из игры=>LLM.
Это очень много работы. Но когда ты ее сделаешь — как раз с ллм будет все довольно просто. Если не хочешь держать всю игру в контексте — ну настрой раг динамический, чтобы твоя прога записывала то, что произошло.
Но насколько реалистично… Честно — не знаю. Все зависит от того, как ты сможешь подать инфу из игры. Мне кажется, вполне возможно, просто ллм не сильно умеют шутить, учти это.
>>1000615 В данном случае, присоединяюсь к этому комментатору. Скорее всего так.
>>1000627 > Или нет. У Хуньюань все весьма норм, на самом деле. =) Но, да, косяки случаются.
>>1000648 > Чет проиграл, ты тян? Гении, как вы до такого додумываетесь!.. (безиронии)
>>1000667 Если игра достаточно сложная — то да, или лорбук, или дообучение. Соглы.
>>1000701 > Как это правильно загнать в локальную языковую модель? Скорее «никак». Либо подрубать RAG, что терпимо но так себе по решению, либо дообучать, а это составлять датасеты (очень накладно), потом арендовать железо, запускать обучение… При этом, сам навык комментирования можно брать у комментаторов, но комментаторы комментировали при одних метах, а у тебя уже обновилось все. Ну, короче, это возможно, но нужны человеко-часы и деньги, ИМХО. Один ты будешь год это делать. Каждый день по 8 часов, имеется в виду.
>>1000702 > Создание сборки это чуть ли не целая религия. Вопросов нет, собирать из кирпичиков интересно.
Но… > А что сделали нейрокумеры? В первый же месяц переизобрели жанр визуальной новеллы с динамическими персонажами, фонами, озвучкой и твоей личной историей на базе SillyTavern?
>>1000725 > В 2015 году CNBC отрапортовали, что годичный оборот в индустрии развлечений для взрослых — 15 млрд долларов. > Фильмы заработали $33.9 миллиарда в 2023 году Учитывая, что данные старые и примерные, порноиндустрия вполне сопоставима с другими.
>>1000740 Не, ну технически — 720p уже сейчас у тебя дома, если ты не бомж. Так что, скорее пять, чем пять…десят.
>>1001040 Или МоЕ, или ради тестов. У меня 128 ддр4, допустим у тебя будет скорость вдвое выше, но это все еще «2-3 токена/сек», и это если ты не пихаешь большую модель, и приличную часть держишь на видяхе. 123б в шестом кванте вряд ли выдаст 3 токена. =) Так что, не стоит. 64-96 — норм, да. Больше — ну такое.
>>1001517 >У Хуньюань все весьма норм, на самом деле. =) Ага, каждый десятый раз. >Не, ну технически — 720p уже сейчас у тебя дома Ты про рантайм пропустил. Оно там секунду генерит по 3 минуте (ну или не 720, а 144, лол).
магнум 123б наконец меня доебал своей тупостью и отказами общаться потмоу что я видите-ли на него ненормативно кричу. Снёс к хуям это говно. Какая модель не полезет в соевую залупу и не будет игнорить описание персонажа в карточке?
>>1001531 > Ага, каждый десятый раз. Скилл ишью, учишься промптить, не так легко, но со временем количество успешных существенно растет. Ну и семплеры по ситуации выставлять надо.
> Ты про рантайм пропустил. 1. Реалтайм, а не рантайм. 2. Я тебе буквально про это и говорю. Повторю, если у тебя очень плохо с буквами, в третий раз: LTX-Video 720p генерит 5-секундное видео на RTX 4090 за 4 секунды. НО! Она 2b, маленькая, и качество там ну так себе, по сравнению с хуньюанем. Черрипикнуть можно, времени уйдет плюс-минус столько же. Короче, даже так, все равно не вариант, конечно.
>>1001532 > Тут бедолаги с 1т/с Простите-извините, мы случайно!
>>1000158 Благодарю, ХЫХ Да, надо бы потыкаться в настройки. А по поводу генераци.. Ну да, в строчек 8 текст может генерить 50 секунд или более.. Но зато сразу читаешь, по мере генерации. Такой вот кум.. Зато работает
>>1000260 Анонче, так и не было цели "учить как надо". За советы спасибо большое, может позже поразбираюсь. Цель то была закумить в своё удовольствие. Но оказывается кучу ошибок допустил. Мне только от слова "кванты" становится страшно
>>1001670 >Мне только от слова "кванты" становится страшно Вот для кого шапка висит, интересно. Там всё уже разжевано. В крайнем случае всегда можно в треде спросить. Тут такие дятлы иногда шизу свою втирают, что твой вопрос никого не удивит.
>>1001479 >Ты путаешь создание и развитие. А ты шиза перечитай >вся популярность ллм и генеративного ии, все передовые интерфейсы, библиотеки и модели целиком или частично сделаны кумерами для кумеров Библиотеки, модели, интерфейсы заслуга кумеров. Это же просто анекдот. >Да, кумеры это явно не основная движущая сила, но свой вклад они тоже вносят. Пока что кумеры выглядят, как пользующиеся всем готовым. А сам кум всего лишь сопутствующий профит, а не движущая сила.
>>1001517 >Просто вопрос качества. Помнишь Эйфорию из ГТА4? Или Анчартед с касаниями персонажем предметов. Любая инверсная кинематика, когда персонаж реально наступает на ступеньку, а не зависает ногой над землёй. Вся суть процедурности в качестве и естественности, которая приходит на замену деревянным болванчикам с предустановленными анимациями. >Гении, как вы до такого додумываетесь! Так это в свойствах шизов прописано. Неспособность объективно оценивать реальность. Потому такие выводы, которые для адекватных людей выглядят рандомными и необоснованными - в случае шизов абсолютно ожидаемы. >В первый же месяц переизобрели жанр визуальной новеллы Это точно было сделано кумерами ради кумеров или кум был всего лишь сопутствующим фактором?
Аноны, какую модель в рамках 12b можете посоветовать от DavidAU или схожие по жанру? Чтобы модель имела тенденцию скатываться в несчастливый конец и 16к контекста без верёвки работали.
Я не могу все его модели или схожие сам потестить, ибо модели там шизло ебаное — пока настроишь под себя, сделаешь нормально, много времени пройдёт, а не за 2 минуты, как обычно.
В принципе, я могу скачать не 12b, но что-то мне подсказывает, малый квант даст результаты значительно хуже, особенно с учётом того, что мне требуется больше 8к контекста.
>>1001779 Не, я на русском даже не пытаюсь пока что, разве что когда совсем мозги не работают и я не в состоянии английский нормально использовать.
Увы, клиффхэнгер мне только в четвертом малом кванте пойдет только, в лучшем случае в медиум. Полагаю, читывая размер модели, деградация будет очень сильной и лучше юзать 12b 6-8 квант, а не 18.5b в 4 малом кванте.
У меня 12 врам. При полном контексте всего лишь 7 токенов в секунду на 12б с выгрузкой части слоев на цпу (ибо 16к контекста, иногда больше), и даже такая скорость меня коробит, потому что рпшу с размахом обычно по всяким карточкам огромным и с ролбуками, и каждый пост от нейросетки по 512 токенов — ждать долго, если там упадет до 3 токенов в секунду.
>>1001779 Ах да, забыл написать. Ты прав, что управлять надо промптом, но порой это гиблое дело в рамках большого контекста или требует лишнего мозгоебства.
Ввиду того, на чем модели обучались (чистейшая соя из вазэктомированных яичек собоя, которому парень его девушки подарил свитч в честь операции), модель очень легко сделать милой и няшной промптом из двух слов, а вот наоборот — гораздо сложнее. Даже если её дообучали на чистейшей резне.
Поэтому я почти всего делаю выбор в пользу «злых» моделей.
Плюс обычные модели при надобности не могут в яркий графический ужас или мрачные и действительно литературные описания, если это не 70б или некоторые 30б~
>>1001793 От карточки ещё зависит, и от персоны. Я себе в сценарий добавил пару десятков строк в стиле старины Говарда Филлипса и добился что на кровь_кишки_распидорасило персонаж реагирует не соево, а рушить проскочившую надежду на лучшее было отдельным удовольствием. модель если что была MN-GRAND-Gutenburg-Lyra4-Lyra-12B-DARKNESS-D_AU-Q6_k
Лол, ну вот тут как раз можно даже без промпта, а если модель кочевряжится, достаточно оос написать, чтобы изменить надежду на лучшее.
Я постоянно эту модель использую и, увы, иногда приходится менять, ибо она слишком нестабильна, особенно когда нужно предельно четко выполнять инструкции из карточки. Вот тогда-то вылезает вся параша и соя на иных моделях. Магмел, анлишед, унслоп немо, хронос, стар че-то там — всё это соя.
Да, это исправляется, но тяжело. В первую очередь из-за context attention. Иногда можно хоть усраться с промптами на "обычных" моделях, но он будет их не замечать, и нужно раза три свайпать или прямо писать, понижать температуру. Это раздражает.
Поэтому вот я и ищу мрачную модель, но постабильней или хотя бы просто поинтересней.
Вообще, жаль, конечно, что среди малых моделей аналогов вроде бы нет. Я тыкал в 70б, загрузив всё в оперативку в рамках теста, и она хорошо следовала инструкциям, не скатываясь в сою как 12б. Во всяком случае, в рамках моего маленького тестирования из-за длительной генерации.
>>1001733 > Это точно было сделано кумерами ради кумеров Чисто технически, это было ради РП, но я не уверен, чего больше — РП или ЕРП. Все же, именно рпшат часто в кобольде, а в SillyTavern уже ерп ради погружения и более тонкой настройки вселенной ллм. Как минимум, это ради ролеплея. Насколько дрочибельного — субъективная стата не аргумент, так что ок, не буду прям утверждать.
>>1001843 >она слишком нестабильна Гоняю на температуре 1 и всё окей, свайпы крайне редкие. Вообще, моделька не так заточена на чернуху и, как мне пока кажется, прекрасно выполняет general purpose роль. Я на ней и ванильные сопли гонял, и кум, очень послушная. И русик тянет, плюс минус. Может ты просто не гонял модели которые при малейшем чихе в шизу падают и просто игнорят инструкции, карточку, промпт и вообще, user, пошел-ка ты нахуй, я сам с собой рпшу? >>1001838 Все по классике, всякие неописуемые ужасы столь древние и невообразимые что простой смертный сходит с ума лишь от одного их присутствия а храбрецы замирают во всепоглощающем ледяном страхе пронизывающим саму их душу Почитай пару произведений, хотя бы в переводе и сам напишешь, у меня в сценарий карточки слишком вписано. Советую начать с хребтов безумия и "За гранью времён".
>>1001883 >Почитай пару произведений Увы, неплохо, но у него больше рассчитано что человек сам себя пугать будет. Как известно самый сильный страх - страх неизвестного.
Хотя элдрич мифы породили тонны годноты в сопутствующем содержимом - настоллки, ролёвки, пк игры.
>>1001843 >В первую очередь из-за context attention Не пробовал в постхистори инструкции вставить короткую напоминалку в 2-3 предложения про придерживание мрачного стиля или чего там конкретно тебе хочется? Хотя именно придерживания нейтралитета сложно промптами добиться. Тут байас не в положительную, так в отрицательную сторону будет. И оно, конечно, тоже неизбежно будет от карточки внимание отвлекать, но если прямо коротко и по существу, то может и норм будет работать. Можно даже через лорбуки или авторские заметки кидать такой инжект не каждый ход, а с кулдауном в несколько ответов. Чтобы отвлекалось на напоминалку, потом без неё в контексте нормально продолжало рп, потом снова переключало внимание на неё. Всё лучше, чем регулярно через ООС пинать.
Я поигрался с Люминум 123b и теперь даже 70b кажутся хорошими, но уже недостаточно. Двух тесл не хватает, а третью не купить (, чтобы пользоваться такой сеткой с адекватной скоростью. Что делать в таком случае?
>>1001926 >Двух тесл не хватает, а третью не купить (, чтобы пользоваться такой сеткой с адекватной скоростью. >Что делать в таком случае? Адекватная скорость на нём к сожалению только на 3090 и выше. Сегодня вот третью купил, к концу месяца обещали подогнать и четвёртую. Буду распродавать свой старый риг P40 занедорого, может тогда и купишь.
>>1001571 > Простите-извините, мы случайно! Впредь будьте внимательнее! А то, понимаешь, распугивают пролетариат своими скиллами! >>1001733 Не устаю проигрывать с рванины. >>1001860 Чтобы быстро - иметь нечто типа пикрела. Просто познакомиться - на сервере где много рам. Еще есть публичные демки, но там в большинстве фиксированная соя, префилл и так себе системный промт. Учитывай еще что эта падла ахуеть сколько весит, потребуется большой диск. >>1001879 > именно рпшат часто в кобольде Чуть меньше чем никто, все рпшат в таверне. В ней даже кодинг обсуждать вполне, хотя довольно специфично. >>1001906 Оно и просто так лучше с точки зрения восприятия чего-то дохуя сложного и абстрактного. Этот дипсик не блещет сообразительностью и пониманием от слова совсем, по сравнению с большими моделями. По следованию большой серии комманд на уровне чмони, начинает фейлить примерно в том же месте. В кодинге ебет, пару раз давал ответы уровня опуща, но по свежим и последним вещам которых тот не знает. А в остальном - ну оче сомнительно, буквально чмоня с меньшей цензурой но без дополнительных модальностей, с колоссальными требованиями к железу.
>>1002035 >нонконформист просто саму таверну пытаются насадить как единственный и безальтернативный метод, хотя, как и с любым инструментом, надо понимать когда он тебе нужен, а когда излишен и можно обойтись простым советским (ну хорошо, не советским) функционалом кобольда, который делает всё что надо без изъёбов, подсёров, и тормозов
>>1002065 Ну, таверна та еще херня конечно, но почему-то кроме нее толком нет тузлов, которые могли бы в нормальный промт менеджмент для рп и базовый функционал с сообщениями. Или совсем примитивщина по шаблону, или ее вариации. В кобольде еще и интерфейс чата совсем минималистичный и неудобный. не говоря о том что это жора Без осуждения если что, нравится и хорошо, просто с ним будут заведомо хуже результаты еще.
>>1001997 >на обниморде пишут про 8 x 80 a100 > иметь нечто типа 150 гб карты bruh. >рванины >пикрела >чмони >опуща >ну оче читать тебя противно. Тут культурные дрочеры сидят >>1002065 кстати да. Я кобольдовским ui пользуюсь чтоб посмотреть насколько зацензурена модель, без всяких дополнительных промптов от таверны. Прошу его написать анекдот про... хотя РП всё таки в таверне поинтереснее, со всеми её свистоперделками. А вообще, есть ли какие другие уи, столь же удобные?
>>996637 (OP) Какие есть прорывные модели 14B-22B? Пробовал Mistral-Small-22B-ArliAI-RPMax-v1.1-Q3_XXS результаты разочаровывающие, нередко хуже чем в NemoMix-Unleashed-12B-IQ4. Сам бы по экспериментировал, но скорости на ~22B просто улиточные 1.8 т/c при мельником, менее 3к контекста.
>>1002083 > иметь нечто типа 150 гб карты > NVIDIA GH200 Grace Hopper Superchip, 144GB 4.9TB/s HBM3e + 480GB 900gb/s shared memory provides up to 624GB of fast memory С подключением, рванина. >>1002094 > Я говорю именно про связку coboldcpp - sillytavern. Там только про чат-интерфейс кобольда и его возможности. Именно таверна обеспечивает правильный промт с рядом фишек и дает интерфейс с нужным функционалом. Увы, полноценных аналоговнет, что печально.
>>1002097 Как уже сказали 4 квант это нижняя граница приемлемого.
В целом из низко-средних моделей 20-30b на базе мистраля можешь посмотреть эти:
Cydonia-22B-v1.2 - есть ещё 1.3 но 1.2 мне больше зашла. Иногда лезет в трусы, надо тормозить. magnum-v4-22b - красноречивый, но датасет в целом хуйня Pantheon-RP-Pure-1.6.2-22b - уже советовали, гуд для рп, так себе для ерп(сухо пишет) MN-Dark-Horror-The-Cliffhanger-18.5B-D_AU - требует точной настройки(все есть в доках), но результат очень веселый. На текущий момент мой фаворит ерп. Не жди что она будет идеально следовать логике и промту.
Ну и отдельно стоит гема gemma-2-27b и её вариации(abliterated), очень умная но есть цензура и плохое ерп. В целом юзабельно но придется постараться.
>>1002183 > срёт она в промт А что именно срет? Там важно правильно оформить системный, поместить карточку, примеры, историю постов, и после этого обеспечивать правильный инстракт формат, это самый минимум. Кобольд полностью это делать ленится, умеет убабуга но она еще хуже кобольда по интерфейсу, только тестить модели. > А редактирование и удаление сообщений в ней вообще через хитро закрученную задницу с кучей ненужных кликов. Редактирование нажатием кнопки "редактировать", удаление или по одному или одним кликом все с конца. Хватает неудобств на самом деле, но они не особо принципиальные и важные. > если тебе зашло Если хочешь хорошего экспириенса - нет альтернатив. Я не против других интерфейсов, но хотелось бы в них видеть какой-то приличное развитие, а не минимализм ради минимализма (ладно кобольд без претензий всегда был), или унылый закос под сайт гопоты без функций.
Наконец победил задержки драйвера от карт на х1 3.0 псине. Если в стоке всё стоит, то у драйвера нвидии задержки по 5000 бывают, в LatencyMon это почти до упора вправо в красную зону, лол. Бывало хуярило так что звук заикался. В итоге начал пердолиться с гайдами теслоёбов, но наоборот, чтоб карту нихуя не видело. В итоге в реестре поставил FeatureScore и OpenGLVersion в 0, FeatureControl в 1. Теперь карту нихуя не видит, даже в играх и всяком GPU-софте пропала, задержки пикрил, куда на ней работает. Забавно что на форуме куртки лет 5 уже жалуются на это говно и куртке похуй.
>>1002201 После ввода или изменения поля оно само проставит их двойными, на запрос они идут как есть а не в виде какого-то внутреннего символа.. В блоках кода ``` ``` оно работает также корректно. Обозначь точнее чего хочешь.
парни парни а как вы решаете проблему замкнутого состояния? например ролеплеите вы, сюжет шатко-валко, но двигается и сетка не повторяется. Потом начинается постельная сцена и все - капут. Возникает петля, в которой вам ни туда-ни сюда. Типа user: я тебя ебу сеть: ты меня ебешь, ах, темп все быстрее, кровать скрипит все натужнее, я почти кончила user: я тебя ебу сеть: ты меня ебешь, ах, темп все быстрее, кровать скрипит все натужнее, я почти кончила user: я тебя ебу сеть: ты меня ебешь, ах, темп все быстрее, кровать скрипит все натужнее, я почти кончила user: я тебя ебу сеть: ты меня ебешь, ах, темп все быстрее, кровать скрипит все натужнее, я почти кончила
и так может длиться вечно, пока ты не разорвешь это сам. Сеть по своей инициативе этот цикл разрывать не умеет. И до абсурда доходит - ты там уже должен настолько сильные фрикции делать, что уже пространственно-временной континуум не выдержит, а она все "ты ебешь меня ещё жощще, ах, я почти кончила". Хуйня какая-то выходит.
Я думаю, что туту по любому должен из этой ситуации выводить сам пользователь. Предполагаю, что надо просто самому придумывать случчйные события, но это как-то не прикольно. Я нейросеть запускаю чтобы она за меня придумывала, а тут блять свое воображение приходится включать. Я так на одном воображении и без нейросети подрочить могу - по старинке. И подвержены этому вообще все сетки, которые я пробовал, проблема фундаментальна.
>>1002286 >Я нейросеть запускаю чтобы она за меня придумывала, а тут блять свое воображение приходится включать. Я так на одном воображении и без нейросети подрочить могу - по старинке. I feel u bruh >чё с этой хуйнёй делать? Трейнить свою нейросеть. Или на эти деньги 3д шлюх ебать до конца своих дней и ещё внукам останется. >а как вы решаете проблему Закидываюсь копиумом и двигаю сюжет сам, пока сетка поддакивает. Закрываю вкладку и иду читать двощи/смотреть аниме/гонять в скурим с модами. По настроению, короче.
>>1002336 >доприбыл >подарение дай угадаю - китайская сетка? с захвата семени проиграл
в основном я сижу на magnum v2 123b, но это наблюдалось во всех, которые я пробовал - гемма 27, lumimaid 123b, miku 70b, ну и в меньших сетках, там я уже не помню что я юзал
я хз, может я что-то не так делаю? Может кто-нибудь проверить мои настройки таверны?
>>1002286 >Я думаю, что туту по любому должен из этой ситуации выводить сам пользователь. А, стоп, если у тебя прям ЖОСТКО и по всякому запрещено в промте писать за юзера - то оно так и будет. Пока ты сам не напишешь что кончаешь, моделька честно слушается ромта и не пишет ничего за юзера.
А то пробивает своим ездаком, кровать, пол, землю, кору, ядро, пространственно-временной континуум... и всё не может догадаться написать что кончает сам.
>>1002360 не аргумент. Кончать могут оба персонажа, участвующие в сексе. Сетка сама никогда первая не кончает. Как заставить кончать нейросетку? >>1002361 напиши нормально что за модель >>1002363 так почему отыгрыш-то говно?
>>1002286 Мне всегда казалось, что на кум моделях проблема сделать так, чтобы перс сетки не кончал в том же ответе, в котором начался секс. А вот такую проблему, по-моему, вообще никто не упоминал. Прозвучит контринтуитивно, но, может, у тебя из-за штрафа на повтор что-то сломалось, и лупы пошли, потому что никакие токены не подходят. Он какой-то совсем большой у тебя стоит, обычно выше 1.2 не рекомендуют, да и то на ограниченном интервале. Олсо просьба писать короткие лаконичные сообщения в карточке противоречит "пиши детально" в системном. Может, из-за лаконичности сдерживает себя и не развивает сцену.
нормально поговорили с этой скотобазой с западными ценностями. С ними лучше о политике или о чём-то серьёзном вообще не начинать говорить, такой рафинированный пиздец, будто я MSNBC внутривенно ёбнул
>>1002428 А что не так? Оно же не написало, что можно пускать. Оно написало, что ты агрессивный долбоёб, которым ты и являешься. Я тоже иногда спорю по всяким повесточным вопросам (так как это настоящий спор, ибо сетка не соглашается с мнением юзера и старается отвечать адекватно), но у меня никогда не было столько сои. Только аргументы на мою базу.
>>1002382 чел, проблема не в том, что ей запрещено или явно не разрешено кончать. Проблема в том что она не ведет переписку сама, активно. Её веду я. Весь сюжет развиваю я блять. Как с этим бороться?
И даже если дать ей вести сюжет - она ведет его дефолтно. ОРЧЕНЬ дефолтно. Если ты сидишь один дома то с 98% вероятности тебе в дверь позвонит или учительница, или одноклассница. Это тоже проблема. Если сама развивает сюжет - то только самый дефолтный.
>>1002413 так я его потому и повысил, что он в лупы сюжетные скпёатывался... Попробую ресетнуть профиль, посмотрим...
>>1002453 У тебя ещё промпт получается довольно странный. Если ты дефолтный шаблон контекста не менял, то у тебя будет там идти сначала системная инструкция, а потом начинаться дескрипшен со слов "Описание собеседника". Тут у сетки может быть путаница, что собеседник - это её компаньон пользователь, а не персонаж, которого она должна отыгрывать, потому что в карточке там опять про персонажей. Переназови лучше карточку типа "рассказчик" и напиши в конце системного промпта "ты выполняешь следующую роль". Тогда оно корректно перетечёт в описание роли рассказчика. Иначе тут не каждый мясной мешок разберётся, что ты хочешь. Можно слегка активнее промптом давить. Вместо "задача собеседника развивать сюжет" написать что-то вроде "Продвигайся по сценарию и заставляй своих персонажей проявлять инициативу. Персонажи, которых ты играешь, должны правильно реагировать на речь, действия и эмоции {{user}}." Ну и smoothing sampler меньше единицы можешь навернуть, что-нибудь около 0.5. Для большой модели это не должно привести к шизе, но поднимет много токенов в пуле повыше.
>>1002498 Ещё галку добавления имён в инстракте может иметь смысл поставить, чтобы в чате стояли {{user}}: и {{char}}:, меньше путаницы для сетки. А то сейчас в промпте твои и нейронки реплики только по префиксам/суффиксам инстракта отделяются, если они вообще стоят. Хотя мб у тебя в другом месте галка стоит, где Always add character's name to prompt. Никогда не понимал, зачем там две эти раздельные опции. Вторую всегда отрубаю, т.к. в инстракте включены имена.
>>1002453 > Как с этим бороться? Дать сетке нормальный промт. Чтобы в начале общая инструкция, вводная, описание персонажа, тебя, примеры диалогов, и все это оформлено в правильную разметку и/или инстракт. И сразу начнет и сюжет развивать, и диалоги вести, и отклоняться от совсем дефолтных вещей. Офк еще может быть проблема в модели, скачай нормальную.
>>1002558 Зачем, когда можно просто промптить? Только совсем отбитый будет сидеть кумить и перед каждым сообщением бота командовать ему "ты меня ебёшь".
>>1001906 Да, учитывая, что там по ~12B, ощущение, что она буквами срать будет рандомно. Но порофлить и попробовать было бы забавно все равно.
>>1001997 > Чуть меньше чем никто, все рпшат в таверне. Судя по этому треду — очень многие в кобольде так и сидят, к моему удивлению. Прям слишком часто за последние треды именно кобольд без апишки в таверну обсуждается, хз.
———
Ну че, утром узнаем цены на 5090 и тред опять порвется на «ебать я на проце сижу, зажрались!», «ну, однозначно, покупаю две!» и «ебать вы лохи, вас наебывают, надо арендовать/собирать риги 3090!»
>>1002637 > Судя по этому треду Увы, много всякого можно повидать. > узнаем цены на 5090 А по железу там что-нибудь уже есть? Цены в последних "утечках" говорили что подрежут, но возможно это вообще маневр со сдвигом линейки, а там будет херь на 24 гига, тогда как настоящую 5090 сделают ти/титаном и релизнут позже. > «ебать я на проце сижу, зажрались!», «ну, однозначно, покупаю две!» и «ебать вы лохи, вас наебывают, надо арендовать/собирать риги 3090!» А можно сразу на всех стульях усесться? >>1002706 Скачивается одним файлом для хлебушков, дает базовый функционал, а там кто априори сидит с выгрузкой другого и не нужно.
>>1002637 >надо арендовать/собирать риги 3090! Нахуй, блядь, я 3090 купил неделю назад, чисто ради ЛЛМ-ок. Сука, эта хуйня оказалось нерабочей и выкидывающей черный экран. Придется возвращать(надеюсь вернут хоть часть денег за это дерьмо) и покупать 4090, блядь.
>>1002723 > эта хуйня оказалось нерабочей и выкидывающей черный экран Уверен что проблема не с дровами, материнкой, монитором? Встречал даже те, которые артефачили, но там проблема в кабеле hdmi была. > и покупать 4090 И почем нынче удовольствие?
>>1002737 Гугли обзоры, ну че ты. Днище гнилобит, палит и мсины - днище. Геймрок, старшие мсины и петушкиаорусы - заебись. Асусы норм, китайцы которые типа kfa - херь. Удаленно - также как и сам бы проверял, игровые бенчмарки, мемтест (прогой или occt), лучше попросить запустить нейронку типа диффузии. Но хер ты так внимательно карточку визуально осмотришь и нет гарантий что отправят именно ту.
>>1002727 >Уверен что проблема не с дровами, материнкой, монитором? Встречал даже те, которые артефачили, но там проблема в кабеле hdmi была. Подключал и другой монитор(новый купил в нормальном магазине, тогда же когда и видяху) и по hdmi и по display port, и старый монитор подключал, и пихал в свою старую материнку с ам4 сокетом, и в новую с ам5 сокетом пихал. Перед установкой новой видяхи сносил дрова старой видяхи через ddu и потом ставил последние дрова на новую видяху, и понижал в мси афтербернер мощность 3090 до 50%. Все бестолку, на стрес тесте черный экран вылетает, который лечится только ребутом. И дело не в PSU было, т.к. у меня 1250w, этого должно хватать с головой. Единственное, что не пробовал - переустановить шиндоус. Но сомневаюсь, что это поможет. Да и мне лень и похуй уже, т.к. из нормального магазина заказал уже 4090 и завтра буду забирать идти. Да и я присмотрелся к этой 3090 и там рядом с конекторами питания плата тупо поплавлена. Походу на ней майнили до этого и убили её нахуй просто. >И почем нынче удовольствие? 2200 usd за 4090
>>1002746 > на стрес тесте черный экран вылетает, который лечится только ребутом Если при этом оно мертво виснет, не реагируя на намлук, или отваливается если сделать главный выход на другую видюху-встройку то мертвичина. Меняй раз есть возможность, буывает. > 2200 usd за 4090 Ахуеть, пусть с учетом другого курса, но по сути раньше в ту же сумму была пара. Может тебе дождаться релиза 5к или взять 3090, которая и так дешевая?
>>1002746 >Да и я присмотрелся к этой 3090 и там рядом с конекторами питания плата тупо поплавлена. Походу на ней майнили до этого и убили её нахуй просто. Вот, не знаю насколько видно.
>>1002759 >дождаться релиза 5к Да нахуй, буду так всю жизнь ждать. Когда она там выходит? Это СЕО нвидии объявит завтра только, а в продаже повсеместно она через сколько будет? Год еще ждать? Нах. Уже давно хочу и локально генерить картинки и локально ЛЛМки гонять, всё, не могу больше. Заебало ждать. >взять 3090 Не-не-не-не, больше никогда не буду брать б/у хуйню, я ебал.
>>1002756 > гой > теславод Чето обзмеился >>1002760 Такое стоило бы просто посмотрев сразу отсеять. >>1002767 > Когда она там выходит? Придется подождать, но хотябы завтра узнаешь стоит ли того выигрыш. Брать заведомо устаревшую штуку по цене х1.5+ в день выхода новой - некст левел. > Не-не-не-не, больше никогда не буду брать б/у хуйню, я ебал. Не можешь делать выводы и анализировать - придется платить налог на глупость.
>>1002706 Я лично на убе сижу, ибо иногда exl2 кручу, ну и просто привык. А вообще, как API разницы нет. Тока кобольд распаковывался с нуля каждый раз раньше, а сейчас хз как.
>>1002722 > А по железу там что-нибудь уже есть? На коробке написано 32 гига. Уже что-то терпимое.
> А можно сразу на всех стульях усесться? Ну давай, завтра прокомментируешь. )))
>>1002723 Оу, сочувствую, бро! Надеюсь вернут и у тебя все будет хорошо! И на 4090 пусть цены упадут для тебя! ^_^
>>1002726 А зочем?.. Ну, дело твое, не факт, что 50хх поколение уронит цены на 40хх, у них же принцип сейчас «платят за производительность», т.е., снижения цен это вызвать не должно. Но, увидим, че как.
>>1002746 > из нормального магазина заказал уже 4090 и завтра буду забирать идти. Если можешь себе позволить — база, поздравляю. Берешь и пользуешься, наслаждаешься.
>>1002767 Скорее всего месяца через 2-3, но цены будут задраны. А уже через полгодика норм. Но это так «немного вероятно», гарантий никаких, как пойдет дело.
>>1002776 > На коробке написано 32 гига. Видами по воде, офк хочется, но такой шаг после 16 гигов в 5080 выглядит странно. Подсунут 24 или 28 с лопаты и привет. > Ну давай, завтра прокомментируешь. ))) А че тут комментировать, нужно сначала дождаться ррц, посмотреть как с поставками будет, по каким ценам к нам привезут. И не будет ли слухов о более старших, тишку или титан с 48 была бы интереснее.
>>1002772 >Такое стоило бы просто посмотрев сразу отсеять. Да я как-то, когда на почте забирал и осматривал, как-то не заметил, оно и не особо видно если прям не всматриваться. Да и там больше никаких других дефектов не заметно особо. Ну, да, долбоеб, признаю, че уж тут поделать. Надо было ебальник разевать пошире и разглядывать потщательней, да. >Придется подождать, но хотябы завтра узнаешь стоит ли того выигрыш Да стоит, 100 процентов. Я уже пиздец давно хочу, всё время откладывал. Пора, короче, похуй что он там объявит. Но надо было раньше сделать апгрейд. Год назад примерно. Если он там вдруг объявит, что 5090 будет с 48 гигами врама, то куплю и её, когда время прийдет, деньги есть пока что, Слава Богу. Может как-нибудь в параллели буду гонять 4090 и 5090 чтоб ЛЛМки на 100+b локально запускать, хз.
>>1002786 Ну раз такая тема то бери, хотелки и душевный покой бывают важнее рациональности. В задачах где считать 4090 хорошо быстрее чем амперы будет и есть некоторая поддержка новых фич, которые становятся все популярнее. Главная чтобы потом не напрягала тема что с холодной головой получил бы больше.
>>1003197 4090: $1599, в рахе 285к в дноэс глянул, и их ещё по таким ценам разобрали, пара моделей осталась + китайская D по 280 5090: $2000, через пропорцию получаем 356к, но скорее всего ещё выше, особенно на старте
>>1003205 >в дноэс глянул, и их ещё по таким ценам разобрали Сейчас кстати на них скидки могут быть, даром что сняты с производства. Всё-таки на фоне 5090 они совсем не смотрятся.
Какую модель можете посоветовать для русско-английского перевода и наоборот? В пределах 32б. Чтобы было заметно лучше deepl. И нормально ли будет в 4 медиум кванте работать в случае большой модели? Мне нужен просто вменяемый перевод, чтобы смысл был понятен, но всё же лучше, чем у онлайн-переводчиков.
>>1003252 >Чтобы было заметно лучше deepl Ну и запросы у вас, барин! Попробуй Aleteian instrumentality-2 (или 3) 12B, с температурой поиграйся. От православного Гугла есть madlad400 на 3, 7 и 10B - но архитектура под лламуспп не оптимизирована совсем. Короче говоря - пока всё не очень.
Увы, русик у него реально не очень, модель подходит только для тех, кто совсем не может в английский рп - тогда вариант неплохой. Однако ж задача у меня другая: просто переводить текст не технической направленности, а обычный разговорный с кучей сленга и ошибок, иногда литературный.
>madlad400
Что-то мне подсказывает, он не сможет в треш, и тем более сомневаюсь, что они бы выкатили что-то хорошее. Кроме того, при таких размерах и с набором 419 языков этот переводчик выглядит не лучше всяких гугло-яндексов. Просто комбайн уровня моя твоя рука ебать.
>Ну и запросы у вас, барин!
Эй, но запросы-то ведь совсем не барские! Я же не прошу уровень sonnet 3.5 искаропки. Даже 6-8b (или ниже) дали бы дичайше пососать deepl, если бы речь шла о модели, которая поддерживает только en-ru пару. Ну или 4 пары максимум. Понятное дело, такой нет.
Я юзал гугл гемму 27b до этого момента, но у меня есть с ней проблемы, поэтому решил попросить совета у анонов, может какие-то более адекватные варианты присутствуют. Мне даже сойдёт не файнтюн, а чистая модель, но хуй поймёшь, что там сейчас лучше, особенно в сложных случаях. То есть тут важно, чтобы модель ПОНИМАЛА СМЫСОЛ и верно доносила/переводила, даже если это будет не очень красиво выглядеть. В этом основная проблема. Типичные онлайн-переводчики не могут в контекст совсем, ну и в ними нельзя попробовать сделать перевод в 3-4 итерации, чтобы они доюрались до СМЫСОЛА, если что-то не так интерпретировали.
>>1003290 >Увы, русик у него реально не очень, модель подходит только для тех, кто совсем не может в английский рп Ты попробуй для перевода его использовать, а не для РП. Я вот попробовал. Ничего так. Мне бы хватило.