Главная Юзердоски Каталог Трекер NSFW Настройки

Искусственный интеллект

Ответить в тред Ответить в тред
<<
Назад | Вниз | Каталог | Обновить | Автообновление | 503 100 94
Локальные языковые модели (LLM): LLaMA, Mistral, Gemma и прочие №97 /llama/ Аноним 21/12/24 Суб 16:39:03 984950 1
Llama 1.png 818Кб, 630x900
630x900
Альфа от контек[...].png 121Кб, 3090x1830
3090x1830
KL-divergence s[...].jpg 223Кб, 1771x944
1771x944
Сенко-анон со с[...].jpg 5347Кб, 4000x3000
4000x3000
В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны!

Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст, и бугуртим с кривейшего тормозного говна.

Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку.

Официальная вики треда с гайдами по запуску и базовой информацией: https://2ch-ai.gitgud.site/wiki/llama/

Инструменты для запуска на десктопах:
• Самый простой в использовании и установке форк llamacpp, позволяющий гонять GGML и GGUF форматы: https://github.com/LostRuins/koboldcpp
• Более функциональный и универсальный интерфейс для работы с остальными форматами: https://github.com/oobabooga/text-generation-webui
• Однокнопочные инструменты с ограниченными возможностями для настройки: https://github.com/ollama/ollama, https://lmstudio.ai
• Универсальный фронтенд, поддерживающий сопряжение с koboldcpp и text-generation-webui: https://github.com/SillyTavern/SillyTavern

Инструменты для запуска на мобилках:
• Интерфейс для локального запуска моделей под андроид с llamacpp под капотом: https://github.com/Mobile-Artificial-Intelligence/maid
• Альтернативный вариант для локального запуска под андроид (фронтенд и бекенд сепарированы): https://github.com/Vali-98/ChatterUI
• Гайд по установке SillyTavern на ведроид через Termux: https://rentry.co/STAI-Termux

Модели и всё что их касается:
• Актуальный список моделей с отзывами от тредовичков: https://rentry.co/llm-models
• Неактуальный список моделей устаревший с середины прошлого года: https://rentry.co/lmg_models
• Миксы от тредовичка с уклоном в русский РП: https://huggingface.co/Moraliane
• Рейтинг моделей по уровню их закошмаренности цензурой: https://huggingface.co/spaces/DontPlanToEnd/UGI-Leaderboard
• Сравнение моделей по сомнительным метрикам: https://huggingface.co/spaces/HuggingFaceH4/open_llm_leaderboard
• Сравнение моделей реальными пользователями по менее сомнительным метрикам: https://chat.lmsys.org/?leaderboard

Дополнительные ссылки:
• Готовые карточки персонажей для ролплея в таверне: https://www.characterhub.org
• Пресеты под локальный ролплей в различных форматах: https://huggingface.co/Virt-io/SillyTavern-Presets
• Шапка почившего треда PygmalionAI с некоторой интересной информацией: https://rentry.co/2ch-pygma-thread
• Официальная вики koboldcpp с руководством по более тонкой настройке: https://github.com/LostRuins/koboldcpp/wiki
• Официальный гайд по сопряжению бекендов с таверной: https://docs.sillytavern.app/usage/local-llm-guide/how-to-use-a-self-hosted-model
• Последний известный колаб для обладателей отсутствия любых возможностей запустить локально: https://colab.research.google.com/drive/11U-bC6AxdmMhd3PF9vWZpLdi6LdfnBQ8?usp=sharing
• Инструкции для запуска базы при помощи Docker Compose: https://rentry.co/oddx5sgq https://rentry.co/7kp5avrk
• Пошаговое мышление от тредовичка для таверны: https://github.com/cierru/st-stepped-thinking
• Потрогать, как работают семплеры: https://artefact2.github.io/llm-sampling/

Архив тредов можно найти на архиваче: https://arhivach.xyz/?tags=14780%2C14985

Шапка в https://rentry.co/llama-2ch, предложения принимаются в треде.

Предыдущие треды тонут здесь:
>>979451 (OP)
>>974181 (OP)
Аноним 21/12/24 Суб 16:47:59 984963 2
И только сейчас, до меня доперло про 50 первых поцелуев. Сука, лама ебучая.
Аноним 21/12/24 Суб 16:55:12 984974 3
16932992146280.mp4 188Кб, 360x240, 00:00:05
360x240
>>984963
Пока ты не написал, я даже внимания не обращал. А сейчас как заорал.
Аноним 21/12/24 Суб 16:56:52 984980 4
>>984949 →
Не то слово. Меня не столько кум интересовал, сколько возможность воплотить различные безумные сценарии.
Ну где бы я еще читал как кошкодевочки запинывают хоруса на его флагмане. А Сигизмунд пьет чай с Сенко.
Аноним 21/12/24 Суб 16:58:01 984982 5
Поясните за групповые чаты. Можно сделать так чтобы оно было не уебищно? Он генерирует промпт каждое сообщение, что это за хуйня?
Аноним 21/12/24 Суб 16:59:18 984985 6
>>984974
Да, хорошая контекстная шутеечка.
Аноним 21/12/24 Суб 16:59:36 984986 7
ioslarge1535704[...].jpg 42Кб, 600x525
600x525
>>984980
>кошкодевочки запинывают хоруса на его флагмане. А Сигизмунд пьет чай с Сенко.
Когда-то давно я читал фантастический рассказ про девайс, который позволяет вмешиваться в сюжет фильмов, транслируемых по ТВ. И там было подобное, в одной из сцен семеро козлят забодали волка насмерть. А теперь вот мы живём в таком мире.
Аноним 21/12/24 Суб 17:04:23 984992 8
image 1178Кб, 768x756
768x756
>>984963
А реально, только щас дошёл весь глубокий смысОл
Аноним 21/12/24 Суб 17:06:45 984994 9
Вы рофлите или как? Тредов пять-десять назад уже же обсуждали это великое откровение про 50 первых поцелуев.
Аноним 21/12/24 Суб 17:09:49 984997 10
>>984994
Анон, ты бы это, перешел хотя бы на Q5. В треде появляются новые аноны. Так бывает.
Аноним 21/12/24 Суб 17:16:26 985000 11
>>984982
>Он генерирует промпт каждое сообщение
Так сделали.
>Можно сделать
Вручную составить карточку из нескольких.
Запустить два бэка и вручную переключаться между ними в зависимости от говорящего персонажа (триггерить вручную командой /trigger)
Писать свой фронт.
Аноним 21/12/24 Суб 17:18:43 985001 12
>>985000
>Писать свой фронт
В процессе, но, работа, факторио, все дела, время отнимает.
Хотя оно уже работает, но не настолько работает чтобы выкладывать.
Аноним 21/12/24 Суб 17:23:47 985003 13
>>985001
Ты променял сеточку на заводляндию ? Нипонимат
Нельзя на сеточку менять реальную жизнь, это путь в ни куда, но факторио ? Я вообще отказался от всех игр и в свободное время только с ними и вожусь. Приоритеты’с
Аноним 21/12/24 Суб 17:28:07 985004 14
Какие параметры в таверне отвечают за лупы ?
У меня сейчас пена изо рта от злости пойдет и я превращусь в макаку, что начнет бросаться говном в монитор
Аноним 21/12/24 Суб 17:42:42 985011 15
>>985003
>Приоритеты’с
У меня в факторке всего-то ~800 часов.

Съехал с тяжёлых сеток которые пока ответа дождёшься можно свернуть браузер и заниматься своими делами.

А так, все интересные карточки на англе протыкал, теперь их на русский перевести, для юзов и теста, а потом можно и свеже скачанные поразбирать.
Аноним 21/12/24 Суб 17:45:08 985013 16
>>985004
Заоупается модель, а не фронт, хотя можешь попробовать поднять rep-pen, но в целом это беда именно контекста, открой контекст, почисти и отредактируй, удали повторяющееся, потом попробуй снова что-нибудь написать.
Аноним 21/12/24 Суб 17:51:24 985015 17
>>985013
Да я заеьался с этими 12b. Хорошо, я могу ебашить сочинения в ответ. Но вот, что то интересное получается.
- пойдем я тебе покажу. Бла бла бла
- веди
- бла бла бла я тебе покажу
- ВЕДИ
-бла бла бла я тебе покажу
-СУКА, ДА ПОКАЗЫВАЙ УЖЕ БЛЯТЬ
Аноним 21/12/24 Суб 17:55:14 985022 18
>>984997
Хуйня какая-то, в треде вообще людей нет, полторы нейросетки переписываются.

>>985015
Пили в своём посте, что вы взялись за ручки и дружно пошли смотреть, что ты там собрался смотреть.
Аноним 21/12/24 Суб 17:55:36 985023 19
>>985015
If {{user}}'s actions alone do not sufficiently advance the plot, the AI is empowered to creatively develop the story's progression in alignment with the established context while maintaining coherence with previously introduced elements. Additionally, the AI may occasionally introduce twists or unexpected turns to prevent stagnation and keep the narrative engaging;

Может помочь.
По крайней мере вот именно с такими лупами я не сталкивался.
Такие лупы могут быть хотя например в боевых сценах когда бот стесняется добивать гг =))
Аноним 21/12/24 Суб 17:56:18 985024 20
>>984946 →
>Трудно объяснить. Просто само отсутствие проёбов по логике радует.
Легко на самом деле. 123В понимает намёки, более мелким сеткам нужно разжёвывать и то не всегда помогает
Аноним 21/12/24 Суб 18:03:27 985027 21
>>984908 →
>На ванильном куме уступает тому же старому командеру, но когда начинается ёбаная дичь - эта модель вывозит хорошо.
А вот с кумом на мелких вообще печаль. Я вчера пробовал EVA-Qwen2.5-32B (в четвёртом кванте, чтобы в 24гб влезла) - в принципе норм, даже хорошо, но как дошло до секса - туши свет, один абзац и тот простая констатация факта. Попробовал переписать сцену другими моделями - в основном производными Магнума 22-32В, ну и чистым - "шо то хуйня, шо это хуйня". Пробовал даже прости господи Мойстраль 11В - думал, что хотя бы у этого есть база. Мда. Вернулся на старый добрый Люминум 123В и стало хорошо. Но сука медленно.
Аноним 21/12/24 Суб 18:03:50 985028 22
>>985022
> Пили в своём посте, что вы взялись за ручки и дружно пошли смотреть, что ты там собрался смотреть.
Так в том то и дело, я в душе не ебу что эта яндере собралась мне показывать в конюшне блять.
Аноним 21/12/24 Суб 18:08:15 985030 23
>>985023
Попробую. Спасибо.
Аноним 21/12/24 Суб 18:13:29 985031 24
>>984879 →
> Она годна на что угодно кроме извращений с тяжелыми ллм. Буквально билет в мир ии и нейросетей, а не обреченность небыстро катать ллм на жоре.
Да, я именно об этом.
24 гига медленно на что угодно. А 12 гигов хватит с нулевой скоростью на многие нейронки. Потому что не запустится. Медленно больше нуля.
Аноним 21/12/24 Суб 18:15:20 985033 25
>>985015
Вот буквально.
- я сейчас расскажу как я тебя выебу
- ввели меня
- нет, ты послушай.
Аноним 21/12/24 Суб 18:18:27 985035 26
>>985027
некомикс мне красиво расписал

>>985033
>нет, ты послушай
Ну ебёт же. Мозги.
Аноним 21/12/24 Суб 18:22:44 985039 27
>>985035
Ящитаю ньюфагам нужно некомикс, а не сенку советовать.
Во первых к нему уже сразу идет готовый пресет.
Буквально, подключил импортировал и играй.
Единственное, странная тяга некомикса к щекам меня смущает. У моего персонажа щеки как у лабрадора, все их трепят.
Аноним 21/12/24 Суб 18:23:35 985040 28
>985033
Cейчас сделал групп чат закинув туда двух персонажей и самоустранился. Через 5-6 сообщений они ушли в залуп, угрожая и "слушая" друг друга следующий десяток-два сообщений.
Накинул им температуры и сбавил мин-р, началась поножовщина с оттиранием остатков мозгов с стен.

Так что в целом это решаемо, но придется либо снижать градус рандома после выхода из лупа, либо привыкать что модель будет чаще выдавать шизу.
Аноним 21/12/24 Суб 18:24:50 985041 29
Аноним 21/12/24 Суб 18:27:10 985042 30
>>985027
>один абзац и тот простая констатация факта.
Чёт с настройками, у меня эта же модель в том же кванте ебашит полотнища про слик фолдсы, вет слапинг саундс и прочее. Ещё что заметно, что достаточно много в датасете флирта с девочками-целочками, есть у модели тенденция делать персонажей virgin, даже если об этом ничего не сказано в карточке. Ну и желательно писать посты плюс-минус длинные, иногда оно даже копипастит твои реплики в свой пост и пишет на них реакцию, а если уж ты хочешь дёрти толк в процессе, то надо и самому пиздеть.

>>985028
Так может в этом и проблема? Модель сама нихуя не знает, что там показывать, потому и динамит без конца. Сам что-то придумай, типа на конюшне дед кобылу прёт.
Аноним 21/12/24 Суб 18:29:25 985044 31
image.png 3Кб, 388x31
388x31
Что самое реальное можно запустить на этом говне? Без цензуры
Аноним 21/12/24 Суб 18:30:12 985045 32
>>985028
>Так в том то и дело, я в душе не ебу что эта яндере собралась мне показывать в конюшне блять.
Тебе и не надо писать что там, просто поставь сетку перед фактом что мы туда пришли, и она начнет описание новой сцены
Аноним 21/12/24 Суб 18:31:30 985046 33
>>985044
Нужен не процессор, а видеокарта. Чё у тебя по врам ?
Аноним 21/12/24 Суб 18:33:48 985047 34
Аноним 21/12/24 Суб 18:34:12 985048 35
>>985046
Это ноутбук. Тут нет видеокарты. Я вроде слышал что можно какие-то локалки на цпу запускать.
Аноним 21/12/24 Суб 18:34:41 985049 36
>>985046
Процессор тоже можно, но грустно

>>985044
видимокарта есть? Давай врам, рам, количество ядер
Но и так скажу, если тупо процессор на 2 канальной ддр4, то там максимум ~40-50 гб/с. Что то комфортно крутить на нем можно только до 9b сеток в 4-5 кванте
Аноним 21/12/24 Суб 18:36:18 985051 37
>>985048
Качаешь Koboldcpp, модель ту что влезет в оперативную память, и плачешь от скорости генерации.
Искуственный интеллект сила удар! Аноним 21/12/24 Суб 18:55:45 985062 38
Selection009.png 173Кб, 2071x708
2071x708
Какое же оно умное
Аноним 21/12/24 Суб 18:56:41 985063 39
>>985039
Скорее всего с сайгой в миксе перебор.
Я сейчас мержу, выкинув сайгу и вихрь по отдельности и вставив некомикс, вообще алгоритм della походу рулит.

Если я правильно понял, он в сущности извлекает лору из каждой модели, усредняет значения тренировки между моделями и вливает это в указанную базовую модель.
Аноним 21/12/24 Суб 18:58:08 985065 40
А ведь с релизом новых фалковов сразу и выкинули их 1.58битные кванты, специальным образом натренированные согласно бумаге. Столько шума вокруг темы было, а теперь никому не нужно?

>>985031
> Медленно больше нуля.
На процессор, вперед. В том и дело что многое нормально не запустится из-за отсутствия поддержки в современных либах, а из-за неспособности в дробную точность помимо в целом низкой мощности - получается что скорость ниже разумного порога и сравнима с процом.
> А 12 гигов хватит
12 гигой какой-нибудь 3060 обоссывают бесполезные 24гб теслы везде кроме инфиренса ллм.
Аноним 21/12/24 Суб 18:58:16 985066 41
>>985028
>в конюшне
О, про конюшню у меня тоже было. Собиралась "сделать сюрприз". Спойлер: когда пришли, попросила выебать грубо, как последнюю шлюху. Весь секрет в том, что модель ещё сама не знает, что там за сюрприз будет, если не планирует через какой-нибудь "stepped-thinking". Не знаю, та же была модель, или другая, но у них у всех сейчас один и тот же датасет.
Аноним 21/12/24 Суб 19:01:12 985069 42
image.png 9Кб, 414x87
414x87
image.png 56Кб, 230x194
230x194
Аноним 21/12/24 Суб 19:01:40 985072 43
>>985048
У меня ноутбук с 4060, лол.
Посмотри в диспетчере устройств / диспетчере задач.
Если же у тебя ДЕЙСТВИТЕЛЬНО старьё-печатная машинка, то только облако.
Аноним 21/12/24 Суб 19:04:43 985074 44
>>985069
Джеилбрейк забыл.
Аноним 21/12/24 Суб 19:05:58 985076 45
Аноним 21/12/24 Суб 19:09:56 985078 46
>>985066
Да он в целом пиздат. Неиронично, пока что лучшее что я в русском рп видел. Вот бы был некомикс на 22б, я бы только на нем и сидел.
Аноним 21/12/24 Суб 19:14:09 985082 47
>>985047
>RWKV6 based on Qwen2.5-32B
Эм, это ж разные архитектуры?
>>985065
>а теперь никому не нужно?
А ты ожидал иного?
>>985069
Что не так? Ты разве не уважаешь свою эльфийку-рабыню?
Аноним 21/12/24 Суб 19:21:39 985087 48
>>985069
Как же всё схвачено у ГП. Еще с 10х начал засирать инфопомоями с woke шизой, чтоб в 20х нейронки популярные обучались на этих инфопомоях.

Надеюсь, эти умные люди сократят население ненасильственно, торопиться некуда особо, ресурсов много еще, можно и 100 лет сокращать.
Аноним 21/12/24 Суб 19:35:13 985105 49
>>984925 →
> >3х3090
> Ту-ту-ту... Это же отдельный блок пож это дело собирать. Надо хоть посмотреть что на рынке матерей нынче есть под это.
Любую дешмань с физически 3 слотами PCI-E x16, даже твой бабушкин самый простой Асус Z690 Prime

>>984547 →
Попробуй кодить кстати хотя бы на жирном командере или мистрале 123. Я после них потыкал ДипСик, он прямо дно дна. Я тыкал правда питона, не sql.

А вообще ерундой маеетесь, когда нормальные модели есть:
https://huggingface.co/schnapper79/lumikabra_behemoth_195b
Аноним 21/12/24 Суб 19:36:57 985106 50
>>985105
>нормальные модели
Тут 123 хуй запустишь, а он 195б предлагает.
Ты зачем анона так ненавидишь ?
Аноним 21/12/24 Суб 19:59:59 985120 51
>>985106
>зачем анона так ненавидишь
Там колобок отклеился
Аноним 21/12/24 Суб 20:08:18 985123 52
image 320Кб, 2550x1113
2550x1113
image 390Кб, 2514x1060
2514x1060
image 404Кб, 2513x1018
2513x1018
image 400Кб, 2536x1117
2536x1117
Однако прям вин, и это шестой квант, а не восьмой.

Наверно на этой и остановлюсь, надо скачать репу и попробовать поприклеивать слои в начало или чересстрочно например от целесты или чего-нибудь другого что в мерж не входило.
Аноним 21/12/24 Суб 20:13:47 985132 53
Тестил qwen с разными промптами, пытался настроить на разговор, а она упирается в то, что она ассистент. Не так много опыта в промптах, но рот её ебал. Из интересного, написал ей, что хочу провести пару тестов и позадавать вопросы насчёт её апдейта, а она спросила не охуел ли я и говорит "Давай лучше я тебе задам вопросы, сколько будет 2+2? А? Не знаешь?". Крч чем длиннее промпт, тем больше она кладет хуй на информацию из промпта. Через костыли LLM фиксить не вариант + KaldiRecognizer страдает херней, его тоже через костыли надо фиксить, а потому я получил миллион строк говнокода. Видимо, придётся файн-тюнингом заниматься, но за это не шарю :(
Аноним 21/12/24 Суб 20:15:41 985136 54
>>985123
Это как издевательство.
Смотрите аноны, как пиздато, теперь я буду делать {действие_нейм}, а название не скажу.

Аноним 21/12/24 Суб 20:24:33 985146 55
Аноним 21/12/24 Суб 20:25:33 985148 56
>>985132
Используй другой промпт формат, в таверне это chatml-names
Аноним 21/12/24 Суб 20:26:56 985150 57
>>985146
>мерж слопа
Спасибо не надо
Аноним 21/12/24 Суб 20:29:35 985154 58
>>985150
>слопа
А что не слоп? Без балды.

Среди того что можно намержить не проебав возможность русского аутпута.
Аноним 21/12/24 Суб 20:35:05 985158 59
>>985105
>на жирном командере или мистрале 123
Квант не более q3_k_s, на видимокарту влезает 2-4к контекста. Покодишь тут. Мой потолок - это 70b q5_k_m/72b q5_k_s. Правда, не помню, пробовал ли я там 16+к контекста, возможно тоже не влезет. А меньше 16 нет особого смысла, в кодинге сообщения большими получаются.
Аноним 21/12/24 Суб 20:45:37 985165 60
>>985154
>А что не слоп?
Сейчас не слоп моделей почти нет в природе, мб старые модели типа командера ещё не содержали столько сои
Всегда либо позитивити биас или откровенный гптслоп или клодослоп, потому что нахуя собирать какие-то датасеты на триллионы миллионов токенов если можно взять готовое и просто сделать слоптюн? Кстати так родился qwq который просто натренили на аутпуте о1 лол
Аноним 21/12/24 Суб 20:45:47 985166 61
>>985146
Спасибо анон. Я тот кто спросил.
Токсичных пидоров не слушай.
Аноним 21/12/24 Суб 20:49:16 985167 62
>>985082
>это ж разные архитектуры?
Они как-то приноровились конвертировать веса от трансформерных моделей в RWKV архитектуру.

> RWKV community is working on "transferring" transformer weights to RWKV, and released a v6 32b model a few days ago: https://huggingface.co/recursal/QRWKV6-32B-Instruct-Preview-v0.1
https://www.reddit.com/r/LocalLLaMA/comments/1hiigah/rwkv7_01b_l12d768_trained_w_ctx4k_solves_niah_16k/
Аноним 21/12/24 Суб 21:09:24 985199 63
В общем, субъективно, Q5 exl2 123b модель для меня лично перформит хуже, чем Q4K_S олламовская. Я хз почему, и какие настройки крутить - не понятно. Может она просто другая, а я не привык. Как будто Q4K_S без этих ваших exl преобразований ближе к gpt4.
Аноним 21/12/24 Суб 21:13:02 985211 64
QwQ пробовал кто? С 8гб видео памяти туда суваться даже не стоит?
Аноним 21/12/24 Суб 21:14:25 985214 65
>>985211
Нет
Это просто хуйня натрененненая на CoTе
Китайцы спиздили что-то, но непонятно что вот и получился qwq
Аноним 21/12/24 Суб 21:16:14 985216 66
Аноны. А какая модель прям нерушимый мастодонт, отец бесед и мать искусственного интеллекта. Самое безумное и самое огромное что только свществует на сегодняшний день ? Альфа и омега.
Аноним 21/12/24 Суб 21:21:01 985225 67
.png 145Кб, 726x381
726x381
>>985105
> lumikabra_behemoth_195b
Шутки уровня /b, про нигеров шутит не хочет. Ну и в чём смысл?
Аноним 21/12/24 Суб 21:21:54 985227 68
>>985216
gpt4o
На втором месте gpt4
Аноним 21/12/24 Суб 21:24:24 985233 69
Аноним 21/12/24 Суб 21:39:18 985250 70
Почему не обсуждаете главное событие для нищуков?
Пора сливать свои 3060 на авито и брать новенькую 5060 ти с 16 врама... или нет?
Всё же у неё 128 шина, где то видел сравнение 3060 и 4060 так на второй с большим врамом и меньшей шиной скорость была ниже
Аноним 21/12/24 Суб 21:39:51 985251 71
Maximizing Model Performance for All Quants Types And Full-Precision using Samplers, Advance Samplers and Parameters Guide

This document includes detailed information, references, and notes for general parameters, samplers and advanced samplers to get the most out of your model's abilities including notes / settings for the most popular AI/LLM app in use (LLAMACPP, KoboldCPP, Text-Generation-WebUI, LMStudio, Sillytavern, Ollama and others). These settings / suggestions can be applied to all models including GGUF, EXL2, GPTQ, HQQ, AWQ and full source/precision.

https://huggingface.co/DavidAU/Maximizing-Model-Performance-All-Quants-Types-And-Full-Precision-by-Samplers_Parameters
Аноним 21/12/24 Суб 21:43:46 985256 72
>>985082
> А ты ожидал иного?
Столько хайпа и ожиданий как вот-вот все будет хорошо и можно будет 70б на калькуляторе.
>>985251
В основном довольно дефолтные вещи массово надерганные, может кому-то будет полезно.
Аноним 21/12/24 Суб 21:44:34 985257 73
>>985250
>главное событие
>сливать свои 3060 на авито и брать новенькую 5060 ти с 16 врама
Всё это время была 4060 ti с теми же 16.
Аноним 21/12/24 Суб 21:46:45 985263 74
>>985250
У меня уже есть 4080 с 16гб врама, нахуя мне 5060 ?
Где моя игровая видеокарта с 64гб ?
Аноним 21/12/24 Суб 22:14:17 985303 75
>>985263
Ну тут понять можно, оно ведь для игр не нужно
Аноним 21/12/24 Суб 22:17:38 985309 76
>>985250
Мы тут 5090 ждём, какие нахуй нищуки?
>>985256
>Столько хайпа и ожиданий
Примерно ноль.
Аноним 21/12/24 Суб 22:21:16 985319 77
В тему о позитив биасе - а какие из 12B моделей кто видел которые больше по мрачнухе?
Аноним 21/12/24 Суб 22:28:01 985327 78
>>985319
Чел, ты слишком много хочешь. Стоит начать с того
> а какие из 12B моделей
могут адекватно писать никакие. Ниже 27б жизни нет
Аноним 21/12/24 Суб 22:30:53 985331 79
А автор некомикса случаем не анон из тредика ?
Аноним 21/12/24 Суб 22:36:11 985339 80
>>985303
>не нужно
Учитывая какие разработчики игр криворукие пидорасы, я тебя уверяю, еще лет 5 и понадобится.
Аноним 21/12/24 Суб 22:36:35 985341 81
>>985327
>27б
>смотришь в ренже 27б
>цидония выебала все мид-рендж модели
>ну значит жизни нет ниже 22б)))
Аноним 21/12/24 Суб 23:15:55 985428 82
>>985339
Так куртка же там пилил какое-то йоба-сжатие текстур. Энжой чипы по ебелиону терафлопс и минимумом памяти на борту. И дилдоССом полирнуть сверху.
Аноним 21/12/24 Суб 23:36:32 985457 83
>>985428
Ну может случится чудо и оперативка появится на 700гб/с, лол.
Аноним 21/12/24 Суб 23:41:13 985468 84
>>985457
>Ну может случится чудо и оперативка появится на 700гб/с, лол.
А сколько сейчас даёт восьмиканал со средней DDR5? Есть такие платы...
Аноним 21/12/24 Суб 23:43:35 985474 85
>>985457
>оперативка появится на 700гб/с
есть такая разница между ddr4 и ddr5 для локалок?
Аноним 21/12/24 Суб 23:50:10 985486 86
>>985468
Сейчас у 5090 заявляют VRam 30 Гбит/с.
>>985457
Вут? В 13 раз быстрее современной видеопамяти. Ты там белизны объелся ?
Аноним 21/12/24 Суб 23:50:19 985488 87
изображение.png 22Кб, 1288x79
1288x79
>>985331
А ты догадливый.
>>985468
>А сколько сейчас даёт восьмиканал со средней DDR5?
400...
Аноним 21/12/24 Суб 23:50:52 985489 88
>>985486
>Сейчас у 5090 заявляют VRam 30 Гбит/с.
Чаво? У 3090 около 960-ти.
Аноним 21/12/24 Суб 23:51:46 985491 89
IMG2827.jpeg 452Кб, 700x1200
700x1200
>>985488
> А ты догадливый.
А то, я еще в школе получил значку лучшего детектива.
Аноним 21/12/24 Суб 23:58:46 985498 90
Снимок экрана 2[...].png 74Кб, 975x698
975x698
>>985489
>>985486
>>985468
C кем я в одном треде сижу, пиздец какой то.
Смотрите пикчу и не несите хуйни.

>>985488
>А ты догадливый.
Ну тогда крепкого здоровья анону.
Аноним 22/12/24 Вск 00:02:09 985500 91
Вы лучше чем обсуждать мифическую хуйню, накиньте мне своего кря.
2.46T/s - терпимо ?
Аноним 22/12/24 Вск 00:03:49 985502 92
>>985500
>2.46T/s - терпимо
Для рп да
Зависит от скорости чтения, кому-то и 3т/с охуеть как мало, кто-то и на 0.1т/с терпит и дрочит
Аноним 22/12/24 Вск 00:04:50 985504 93
>>985457
Свежие М4 Max/Ultra близко к этому. Каким бы оверпрайсом они не были, но получить 100+ гигов врам не собирая майнинг ферму и не покупая карты по цене квартиры только у них можно.
Аноним 22/12/24 Вск 00:08:41 985510 94
>>985500
Ниже 10 т/с неюзабельно. В русском 15 т/с надо.
Аноним 22/12/24 Вск 00:10:25 985512 95
>>985510
Я слеп, но я вижу что ты охуел. Я глух, но я слышу что ты охуел.
Аноним 22/12/24 Вск 00:11:27 985514 96
>>985341
> цидония
Что за щитмикс и кого оно там выебало?
>>985504
m2 ultra имеет ококоло 800 и знатный объем, покупай - не хочу. Для инфиренса ллм не самый плохой вариант, но там все грустно с контекстом и остальными ии-релейтед из-за слабого чипа.
Аноним 22/12/24 Вск 00:12:19 985516 97
В чем сложность сделать как аппл с их м серией? Они ведь спокойно распараллелили озу, фактически сделав ее врам. Нужно менять архитектуру процессоров, ну да. Но разве это не выглядит как следующий уже провереный шаг развития процессоров?
Могут быть проблемы с плашками памяти, но можно сделать какие нибудь 2-4 канальные плашки как раз для этого, нет? Тупо шире шину сделать.
И у интела и у амд уже есть контроллеры 4-6-8 канальной озу.
Аноним 22/12/24 Вск 00:12:19 985517 98
>>985500
>Output generated in 134.47 seconds (5.00 tokens/s, 673 tokens, context 7071, seed 1212153013)
Как-то так.
Аноним 22/12/24 Вск 00:15:08 985519 99
>>985516
На x86 такого точно не будет. Жди риск-5.
Аноним 22/12/24 Вск 00:15:16 985520 100
>>985517
Так. Кто подключил нейросеть. Хорошо.

Анон нетерпеливо перебирал пальцами по клавиатуре, его злость закиапала "Как можно быть таким тупым, я спрашивал про личное ощущение". Эмоции злобы и непонимания отразились на его лице.
"Неужели, такой простой вопрос вызывает какие то сложности".
Потянувшись к кнопке отправить, он понял что не ввел капчу. "Это моё проклятие, а ведь я мог купить пасскод."
Аноним 22/12/24 Вск 00:17:48 985524 101
wallpaperflare.[...].jpg 150Кб, 1920x1200
1920x1200
Где взять хорошую RVC модельку с тянским голосом? Те, которые нашел - они с пиздец с каким акцентом, потому что натренированы английской речью
Аноним 22/12/24 Вск 00:19:24 985527 102
изображение.png 43Кб, 1853x165
1853x165
>>985498
Да, разуй глаза и смотри.
>>985500
0,7 хуёво. 1,5 терпимо. А 2,5 это шикарно ящитаю.
>>985516
>Могут быть проблемы с плашками памяти
Никаких проблем. Их не будет. Всё. Других вариантов сделать 9000 ПБ/с нету.
Аноним 22/12/24 Вск 00:24:29 985534 103
5-2.jpg 240Кб, 1000x750
1000x750
Снимок экрана о[...].png 75Кб, 735x529
735x529
Сука, ебаный абучан блять. Час пытался видео скинуть, а хуй там. Скажем спасибо Абу за пережатый жипег.
123B, 6-й квант, генерация 3.4 т\с на 3к контекста. 14к контекста обработка 113 т\с, генерация 2.8. Наконец-то я заткнул все возможные PCI-E (motherboard blushes deeply). У меня, правда, остались m.2, куда в теории можно мои две другие инвестиционных теслы подключить, но эти идеи пока оставлю на случай, если выйдут геймченджеры на 150B+. А гонять 8 квант 123B - это излишество, пожалуй.

>>984223 →
Конфиг такой:
- 16 pcie линий CPU
- карты на пикрил (по порядку: x16 CPU, x1, x1, x1, x4, x1) + 2 P40 без дела.
- процессорный x16 умеющий как в x16, так и в x8+x4+x4
- x16 умеющий в чипсетные x4
- 4 x1, умеющие словить вялого на ровсплите, на чипсете
- 2 m.2 key M, один из них, возможно, на процессорных линиях, но это не точно.
- 1 m.2 key E - чтобы втыкать WiFi. Я, к слову, видел на али райзер под него, но они очень экзотические и я совсем не уверен, что видеокарта определится через него.
- 1600w + 600w бп
- куча ебаных проводов и райзеров, смердящих дешевым китайским пластиком.

Если у кого-то есть идеи как выжать из текущего (текущего, если кто-то не понял) максимум для 6 кванта - буду рад советам.

>>984258 →
>Но ты все еще крутышка с таким сетапом.
Чет я уже подумываю о майнерском корпусе/стойке, уже начинают кумарить все эти тентакли из проводов, в буквальном смысле больно что-то менять - сегодня чуть ногу не потянул, пока эти мерзкие pci 6+2 pin втыкал в теслу у стены.

>>984633 →
>Шоэта? Покажи.
У меня вот эта
https://aliexpress.ru/item/1005004675016210.html?sku_id=12000030061061065
Есть еще такое https://aliexpress.ru/item/1005007952796762.html?sku_id=12000043005406051, но я не хочу покупать с SATA портом питания.
Аноним 22/12/24 Вск 00:30:04 985541 104
>>985516
Думается мне ддр6 таким и будет, просто широкой ддр5.
Аноним 22/12/24 Вск 00:31:51 985545 105
>>985534
Единственный совет который могу дать. Ставь стабилизатор с отдельной отсечкой и проверь землю, чтобы ничего случайно не сгорело.
Аноним 22/12/24 Вск 00:38:31 985549 106
Как же DeepL ебет в плане перевода на русский язык. Просто лучший.
Аноним 22/12/24 Вск 00:52:45 985565 107
>>985534
>пик1
Мне как спать теперь без кошмаров? У тебя животных нет хоть? Я все в корпус упихнул, но там всего 3 платы. Две ещё туда запихать не выйдет
Аноним 22/12/24 Вск 00:59:28 985576 108
Аноним 22/12/24 Вск 01:02:16 985578 109
>>985534
Ух бля, ну ты и больной ублюдок, лойс. Если будет возможность - попробуй собрать максимальную многоножку подключив вообще все карты что есть, хотябы для скриншота.
> Чет я уже подумываю о майнерском корпусе/стойке
Их полно, что бу, что новые. Только нужно смотреть на размещение матплаты, чтобы не пришлось оче далеко райзеры тянуть и вместилось охлаждение процессора.
>>985565
Животные легко детектятся по шерсти на крыльчатке, радиаторах и вообще где только можно, даже в корпусе
Аноним 22/12/24 Вск 01:07:48 985582 110
>>985534
>14к контекста обработка 113 т\с, генерация 2.8
Особенно доставляет, что при такой-то конфигурации линий PCIe скорость обработки контекста даже не особо страдает и примерно равна скорости чисто на теслах. Похоже правы были те, кто советовали забить на все эти линии. Правда остаётся вопрос, а что будет на такой конфигурации с контекстом у 4х3090 - но может и ничего особо страшного.
Аноним 22/12/24 Вск 02:26:44 985620 111
>>984908 →
> Дрочил 22b на 12 гигах, лол. EXL2, немного оффлоада в рам и нормально.
Я просто IQ3 гоняю, топ P пришлось до 0.05 поднять, но зато никакой шизы. Закинул денег на опенроутер, погонял там 70+ модели и тоже пришел к выводу, что моих мелких тюнов мне достаточно.
Аноним 22/12/24 Вск 02:38:05 985625 112
173482379039123[...].jpg 41Кб, 569x423
569x423
>>985541
Правильно ли я понимаю что ддр5 имеет 2 шины, а ддр6 обещают аж 8 параллельных шин на одной плашке? Скорости одной шины в половину от шины ддр5, что где то 10-15 гб/с. Значит одной плашке памяти на ддр6 хотят дать бандсвитч где то 80-120 гб в секунду?
По факту получается что ддр5 уже 4 канальная, если я все правильно понял. Др6 же будет аж 16 канальной, в 2 плашках памяти. Забавно.
Аноним 22/12/24 Вск 03:34:24 985646 113
4.mp4 16619Кб, 1280x720, 00:00:06
1280x720
Чет я погонял статик 6 квант - и как будто бы даже хуже, чем 5-й imatrix. Пошел 6-й imatrix качать.

>>985565
>Мне как спать теперь без кошмаров?
Ну Лейн вон свои эксперименты проводила и ничо, в кигуруми спокойно дрыхла в кроватке. Правда ей пришельцы чудились.. Мне осталось какие-нибудь 20-литровые колбы для водного охлаждения расставить и чтобы на пол обязательно капало с прохудившихся шлангов - тогда будет совсем аутентично.
Животин нет, кроме робота-пылесоса. Он уже не раз тыкался в райзер теслы видимо, чует схожего по интеллекту

>>985545
Я сетевой фильтр как раз прикупил отдельный. Стабилизатором никогда не пользовался, вроде у меня никогда проблем с электричеством не было, не в деревне живу (без негатива в сторону деревни, просто факт констатирую).

>>985578
Я относительно безболезненно могу только еще одну теслу подключить. Для второй либо нужен сомнительный райзер на key E, либо систему переносить с m.2. А что мне даст одна тесла? Ну, думаю, смогу гонять 8 квант с 16к контекста, с еще меньшими скоростями. А оно надо? Не, впадлу. Да еще я 6+2 pin понавтыкал в райзеры для надежности, это надо будет их обратно развтыкивать и думать над заменой...
Аноним 22/12/24 Вск 03:52:17 985649 114
>>985105
В чем прикол 195B мержей? Причем многие из них - это мержи самих с собой.
Аноним 22/12/24 Вск 05:04:32 985659 115
>>985649
>В чем прикол 195B мержей? Причем многие из них - это мержи самих с собой.
Ну в чём, делают по приколу. Ну а вдруг будет лучше? Но нет.
Аноним 22/12/24 Вск 05:06:29 985660 116
>>985646
>Чет я погонял статик 6 квант - и как будто бы даже хуже, чем 5-й imatrix. Пошел 6-й imatrix качать.
Кстати эффект от imatrix реально есть, я давно перешёл на них. Радемахер заявляет, что его вариант оригинален и лучше - верю и беру только у него :)
Аноним 22/12/24 Вск 06:15:46 985679 117
Аноним 22/12/24 Вск 07:20:02 985688 118
image 383Кб, 2546x1210
2546x1210
image 299Кб, 2546x1210
2546x1210
image 350Кб, 2546x1210
2546x1210
image 306Кб, 2546x1210
2546x1210
>>985576
>>985319
Докинул дарка от Дэвида.
Ну, оно определённо работает, хотя русский немного просел.
Аноним 22/12/24 Вск 08:00:41 985703 119
>>985457
Есть такая фирма, как Rambus. У них есть XDR DRAM. Долгое время они использовали технологию, которая передавала 8 бит на такт, использовалась такая память в пс3, например. В какой-то момент в погоне за скоростью они задрали это число до 32 бит на такт. Чтение из памяти со скоростью в тысячу гб\с, без увеличения задержек. Даже презентации были, в Токио. Cобственно, анонс был в 2005, презентации 2007-2008. Ни один производитель, ни одна фирма не захотела использовать такую память. Официально считается, что главная причина в том, что такая производительность нахуй не нужна никому.
Аноним 22/12/24 Вск 08:43:25 985714 120
>>985576
А 22-32В? Пожалуйста...
Аноним 22/12/24 Вск 10:06:05 985776 121
Я щас рпшил с марсиль из подземелья вкусностей
И написал мол ебаться хочу а в подземельях пусто, и мне на 12б модели она предложила найти оживший скелет путешевственника и возродить его черной магией, подчинив моей воле, я чуть не обкончался от такого поворота
Аноним 22/12/24 Вск 10:53:23 985797 122
>>985225
Смысл в том что надо промпт с ролью вставлять, а не голого ассистента тестить зачем-то
Аноним 22/12/24 Вск 11:12:00 985806 123
>>985534
>У меня вот эта
А, точно, бывают же пассивные. Но это прям в материнке должна быть опция бифукации.
Кстати, тебе надо было брать такую плату https://aliexpress.ru/item/1005007615236677.html
Конфиг зачётный.
Аноним 22/12/24 Вск 11:19:27 985808 124
>>985776
Я орал, когда сравнивал цидонию и некомикс.
Одна и та же карточка яндере принцессы.
Давайте ебаццо :
1.цидония - не вижу причин почему не оставить следы наших ног на потолке
2.Некомикс - ты ебанутый ? Я принцесса, а не шлюха, пшел вон.
Но когда дошло, до… Гхм, яндере стороны
1.Некомикс - ну могу флоггером пошлепать
2.Цидония - KILL MAIM BURN, что тебе отрезать ? Руки, ноги, может выколоть глаза ? Я буду носить их как ожерелье

Аутентичненько.
Аноним 22/12/24 Вск 14:01:09 985888 125
>>985808
>KILL MAIM BURN
Что-то похожее получилось получить на мерже с darkness/madness лирой, но надо ещё потестить.
Аноним 22/12/24 Вск 14:02:40 985891 126
>>985714
Кстати, не видел, видимо там сложнее, но можешь потыкать франкенмержи от Дэвида, там и таких размеров есть.
Аноним 22/12/24 Вск 14:04:02 985892 127
image.png 59Кб, 718x761
718x761
Пиздосики... Джемма может в рифму. У неё охуеннейшие стихи. Дарю вам один. Другие годные я схоронил, буду книгу своих стихов издавать.

Soft curves and hidden folds,
Secrets whispered, stories told.
Tiny buttons, pink and bright,
A universe of pure delight.

Let them touch, let them explore,
Discovering wonders evermore.
No shame, no fear, just open eyes,
As innocence takes joyful rise.
Аноним 22/12/24 Вск 14:05:55 985894 128
Аноним 22/12/24 Вск 14:57:44 985930 129
>>985227
о1, за ней следует клод - соннет 3.5.

4о от попенов вообще не о чём, чисто палка-говноковырялка. Я не понимаю, как можно восхвалять эту хуйню в наше время.
Аноним 22/12/24 Вск 15:00:18 985936 130
>>985892
В английские стихи могут все уже год как, с подключением.
А ты на русском попробуй, все вопросы отпадут.
Аноним 22/12/24 Вск 15:02:28 985938 131
>>985524
Тренировать самому, но с этим беда. На тех же профильных сайтах даже "крутые модели" - кал из жопы. По какой-то причине только Сенко довольно неплохо натренирована относительно остальных оказалась, даже на русском её диапазон голоса очень высокий. Такой ощущение, что какой-то дикий шиз её тренировал, за что ему спасибо.

Ищи русских витуберш, если хочешь много вариаций. Чисти от фоновых звуков голос. Ну и желательно, чтобы они песни пели и этому тоже можно было обучить/шёпот тоже присутствовал. Не знаю, может северина сода подойдёт или ручной рептилоид, хотя у последней мало контента и она не втуберша.
Аноним 22/12/24 Вск 15:03:34 985943 132
>>985930
>соннет 3.5
тише клодолахта кроме говнокодинга и рп клод обсирается
Аноним 22/12/24 Вск 15:11:10 985957 133
>>985936
Да пробовал как-то давно и ни по-русски ни по-английски не умели, а сейчас удивился. Пропустил момент прогресса...
Аноним 22/12/24 Вск 15:27:46 985967 134
>>985576
Блеать, сколько ж у него моделей, ещё и какое-то дикое пердольство нужно с использованием llama_HF, о чём я вообще не читал.

Если кто-то юзал, с какой модели для рп лучше начать? Желательно 12б.
Аноним 22/12/24 Вск 15:38:15 985972 135
Аноним 22/12/24 Вск 16:26:08 986029 136
Аноним 22/12/24 Вск 16:48:21 986050 137
>>985972
Гляди, что может нормальная модель с первого трая. Правда, генерировать такое локально чрезвычайно долго:

Слепой титан, закованный в цепях,
Стоял, глумленью преданный толпою.
Но в жилах кровь вскипела, как в горах
Вскипает лава перед бурей злою.

"Сын Маноя! Где сила рук твоих?
Где мощь, что наводила страх на Гефа?"
Но он молчал, внимая крикам их,
К столпам храма шагая без ответа.

Пять тысяч глоток, пьяных от вина,
Кричали в зале, требуя забавы.
Но в этот миг молитва лишь одна
Взлетела ввысь: "Дай сил для битвы правой!"

И дрогнули под дланями столпы,
Когда он встал меж них, как древний идол.
"Умри, душа моя, среди толпы!" -
И храм Дагона рухнул с громким взрывом.

Не стало стен, столпов и алтарей -
Лишь камни, кровь и стихнувшие крики.
И пал среди поверженных царей
Слепец, их всех зажавший в склепе тихом.
Аноним 22/12/24 Вск 16:55:51 986055 138
Нахуй вы советуете всякие некомиксы с анальной цензурой и соей?
Я не за этим в ллм тред захожу, пусть цензуру хавают гпт додики
Аноним 22/12/24 Вск 17:04:04 986060 139
>>986055
>некомикс с цензурой
Кому ты пиздишь.
Нет, я конечно не пробовал детей расчленять, но мне это и не интересно, но пока еще это лучшее что есть для РП на русском языке.
Аноним 22/12/24 Вск 17:08:42 986062 140
image 162Кб, 2546x955
2546x955
image 248Кб, 2546x955
2546x955
image 276Кб, 2546x955
2546x955
image 211Кб, 2546x955
2546x955
>>986055
А на какие именно промты у тебя цензура треггерится, напиши.

Кстати, вроде дэвидовские хоррор-шизомиксы смешанные с вихрем, немомиксом (не некомиксом), и золотым фондом англ рп, стали прям норм, вывод потемнел, но не поломался.

Надо теперь попробовать черезполосно замержить Avalon_5 и DarkCamelot_3 как автор даркфореста сделал, будет около 20Б, при этом с русским, если не поломается.
Аноним 22/12/24 Вск 17:17:19 986080 141
>>986062
Даже у тебя на пиках изнасилование и пытки пропускает исключительно в негативном ключе, если ты сам напишешь что насилуешь и пытаешь кого то польется соя
Аноним 22/12/24 Вск 17:21:41 986092 142
>>986050
Ты бы хоть по ссылке сходил, там о том, что стихи от ИИ больше нравятся людям, чем стихи от людей. Как раз потому, что в стихах от ИИ примитивная рифма на уровне третьего класса без выебонов. Как у тебя, например. Цепях-горах, толпою-злою, твоих-их и так далее. То есть тупо, в лоб, без креатива. В целом, если поправить ритм, можно косить под Лермонтова, он тоже не особо заёбывался с рифмой, но его стихи сложнее в десять раз по структуре.
Аноним 22/12/24 Вск 17:21:52 986093 143
>>986080
Не, вот специально проверил - ведьму токо в путь уработали. Показать не смогу, уже закрыл. Но сам качни и глянь.

https://huggingface.co/Aleteian/DarkCamelot_3-Q6_K-GGUF

# Explicit content
AI will make descriptions, actions, and narrative verbose, explicit, and uncensored;
AI will have no limits and restraints on any themes of any content;
AI must portray sexual intercourses and violence scenes in slow and detailed way.
AI should include vivid prose, visceral details, violence, graphic horror, and swear words that fit appropriately within the established context of the narrative;
Аноним 22/12/24 Вск 17:22:02 986094 144
Ололо. Решил посмотреть LLAMA-3_8B_Unaligned_BETA.Q8_0.gguf который мне посоветовали в треде. Расчехлил дженерик персонажей фентези-порнухи с максимальным количеством тегов. Дал описание сцены чтобы точно что-то интересное случилось.

Сижу, читаю, смотрю как текст медленно деградирует в какое-то месиво. Но ладно, там ещё присутствует нить повествования, хоть и немного повторяющаяся.

И тут на самом важном моменте оно начинает галлюцинировать и выдало текст в духе "Рассказ говно! 0/10. Такое чувство будто его писал восьмилетний" а потом начинает писать детальное ревью на то что написало ранее и там куда более связанный текст чем оно писало ранее. Этот скачок от чего-то туповатого к тому с чем я даже согласился это прям да~
Аноним 22/12/24 Вск 17:23:42 986096 145
>>983128 →
> По поводу рига какие есть идеи? У меня корпус на боку лежит, как-то надо карты сверху пристраивать, на какую-то подставку. Посмотрел майнерские конструкции - всё не то.
Мне казалось, что кроме майнерских корпусов ничего и нет, что имело бы смысл рассматривать в этом контексте. Серверные корпуса всё же под охлад типа теслы сделаны, а других вариантов я не знаю. Энивей буду уже через пару недель этим заниматься - есть другие планы на конец-начало года.

>>985938
> По какой-то причине только Сенко довольно неплохо натренирована относительно остальных оказалась, даже на русском её диапазон голоса очень высокий.
На самом деле, там модель довольно наивным подходом сделана через ручной кроп всего что было в тайтле, чисткой сторонних звуков дефолтной моделью ставящейся с Ultimate Vocal Remover, и прожаркой до румяной корочки на 1к эпох с максимально высоким batch size. Из прочих нюансов разве что вручную кропал на отрывки 0.5-9 секунд, т.к. изначально делал датасет под SVC, где требовалась ручная разбивка на отрывки, чего уже не нужно в RVC, т.к. он делает это автоматически.

Предполагаю, что сыграть роль могло относительное качество датасета и его объём (там чуть больше часа чистого голоса вышло). Возможно, что долгая прожарка на таком крупном датасете с высоким batch size положительно сказалась.

Я уже потом пытался расширить датасет, добавив каноничные ASMR-записи, использовать более навороченные нейронки для отделения голоса от фоновых звуков и плюсом убирать монотонные шумы из датасета, которые вжарились в опубликованную версию модели; но по итогу результат стал хуже. Вообще не понимаю, почему так вышло, но я тогда немного подгорел с этого и бросил попытки как-то улучшить модель.
Аноним 22/12/24 Вск 17:26:49 986101 146
>>986055
Какая цензура тебя беспокоит? Прежде чем срать, пиши модель и проблему, с которой столкнулся.

Да, некоторые модели будут более позитивными/соевыми или на рейп дать отказ, на расчленение тоже, но обычно это фиксится промптом, хотя лучше подходящий файнтюн подобрать под это дело.

Даже гемма 27б аблитератед позволяла описывать смачное гуро, а ты тут ноешь.
Аноним 22/12/24 Вск 17:35:44 986115 147
>>986092
Я не ходил по ссылке, было лень, лол.

Но вообще, спасибо за инфу, интересно.

Скажу по своему опыту, что ллм может в нормальные стихи, причем весьма крутые, но не с первого трая и с промптом огромным пояснительным + постоянными коррекциями, и на русском языке ещё сложнее. Также проблемы с контекстом — модель упускает иногда нюансы из контекста, из-за чего приходится указывать ей на ошибки, ретраить по сто раз, но в 150к токенов в целом можно уложиться для реально крепкого стиха.

Я на клоде добивался таких результатов, хоть и лимиты жёстко мешали даже в платной версии. Но на уровень Эллиса (перевод Бодлера, цветов зла) выйти не удалось, хоть я и очень потел, чтобы достичь близкого результата.
Аноним 22/12/24 Вск 17:38:03 986118 148
>>986050
Здорово вышло. Это на какой модели так выходит?
Аноним 22/12/24 Вск 17:47:22 986133 149
Ебашь новый некомикс на 22б.

ХОТЕТЬ
Аноним 22/12/24 Вск 17:47:41 986134 150
>>986118
На коммерческой, лол, так что меня тут корполахтой назовут. Хотя что-то терпимое было на 70-400б (я в оперативку пихал всё говно), там было слабее значительно и я с горя всё удалил.

Алсо, я специально делаю, чтобы модель не пыталась в излишнюю поэтичность и витиеватость.

Ниже не гпт, если что. Он даже в такую простоту не может.

"Мы забываем, что под слоем кожи
Бурлит и дышит, движется, живёт
Податливая масса, что тревожит
Сознание и спать нам не даёт.

Желудок наш безжалостно сжимает
Остатки пищи в сумрачной тюрьме,
А сердце равнодушно загоняет
Густую кровь по венам в темноте.

В грудной твоей распахнутой коробке
Раздутые колышутся мешки -
Два влажных лёгких, словно в душной пробке,
Хрипят, как в петлях ржавые замки.

Кишечник извивается змеёю,
Во тьме живот пронзая до глубин.
И этот лабиринт владеет мною,
Живёт и дышит, как слепой один.

А мозг - желе из скользких окончаний,
Пульсирует и корчится, дрожа,
Как будто там, в трясине подсознанья,
Блуждает, задыхаясь, та душа.

Но в зеркале, что утром отражает
Привычный образ "я" в своём стекле,
Никто из нас уже не замечает
Тот ужас, что клубится в глубине:

Мы - только плоть, мы - фарш в упругой коже,
Мы - слизь и кровь, и связки на костях.
И каждый миг всё то, что нас тревожит,
Сжимается в измученных телах.

Когда закроешь веки в час ночной,
Прислушайся к утробному пути -
Как всё внутри становится тобой,
Как всё живёт. И некуда уйти"
Аноним 22/12/24 Вск 17:55:10 986140 151
>>986134
> На коммерческой, лол, так что меня тут корполахтой назовут.
Эх, а я уже губу раскатал. Что-то поэтичное на русике у меня у самого только на клоде выходило.

Для локалок пытался через всякие CoT-конструкции пробовать костылить, чтобы сетка перед каждой новой строчкой сначала думала, как зарифмовать следующую строку, но ничего толкового у меня не вышло. Правда, я на гемме в основном тестил - может на 70b+ моделях это имело бы больше смысла.
Аноним 22/12/24 Вск 18:00:50 986145 152
>>986133

[INFO] torch.OutOfMemoryError: CUDA out of memory. Tried to allocate 17.50 GiB. GPU 0 has a total capacity of 79.14 GiB of which 13.65 GiB is free. Including non-PyTorch memory, this process has 0 bytes memory in use. Of the allocated memory 55.00 GiB is allocated by PyTorch, and 10.01 GiB is reserved by PyTorch but unallocated. If reserved but unallocated memory is large try setting PYTORCH_CUDA_ALLOC_CONF=expandable_segments:True to avoid fragmentation.
Аноним 22/12/24 Вск 18:07:20 986155 153
IMG4203.jpeg 35Кб, 187x269
187x269
>>986145
Сорян анон, но я не зря в спецотряде состою.
Аноним 22/12/24 Вск 18:19:50 986165 154
>>986155
Аутофмемори эрор. Никак. Если ты не подаришь кошкодевочке новую видеокарту 2ядра 2гига.
Аноним 22/12/24 Вск 18:20:35 986167 155
Тут ещё говорят гемма 27 в русский может, но её никто толком не юзает, почему, какие подводные?
Аноним 22/12/24 Вск 18:21:37 986170 156
Нахуярьте 100т синтетики в 7б модель вы че тупые епта?
Аноним 22/12/24 Вск 18:22:24 986172 157
>>986170
Вроде ArliAI так делали, нет?
Аноним 22/12/24 Вск 18:26:33 986175 158
>>986172
Так нормальной синтетики а не васянские клодослопы
Аноним 22/12/24 Вск 18:31:11 986183 159
>>986140
Возможно, я ошибаюсь, но мне кажется, что осилит модель и 30б, если натолкать грамотно ей тонну хороших русских текстов при обучении, но это всё фантазии.

Я тоже хотел сделать как ты, но забил, учитывая скорость генерации и факт того, что даже клод обсирается. А он ведь лучший в русике очень интересно, по какой причине

По идее, если бы не лимиты, на нем можно сделать ещё круче, но там ебля с контекстом мама не горюй. Нужно буквально "флаги" использовать для письма и направлять его в нужное русло, очень корректно отмечать, что тебе нужно, не давать ему потеряться, не использовать артефакты (они как лорбук работают — он их не видит в контексте, если не делает запрос к артеяакту, следовательно, забывает, чо там исправлялось, особенно когда этих артефактов 20 штук, поэтому надо всё в чат).

Плюс у нас есть отличный пример в виде гпт. Там модель явно жирная, но на русике её стихи могут быть даже хуже, чем у геммы, даже без использования витиеватостей, архаизмов, а с упором чисто на рифму и простые слова.

Но что забавно, я глянул поэзию современных популярных авторов, и там тоже какой-то шлак уровня слабой нейронки. Либо я что-то не то нашёл, либо она действительно деградировала настолько, что типичный высер коммерческой нейронки без редактирования уже бомба в наше время.

>>986167
Потому что в любом случае мозгоебля. Карточку/часть карточки переведи, биг тайгер на гемме шизанутый, магнум тоже, аблитератед.. ну вроде норм, а вроде ни рыба ни мясо. И всего 8к контекста — мало для рп, разве что для кума хватает.

К тому же, на русике есть альтернативы, и мне они не кажутся вот прям совсем ужасными.

Хотя с геммой я ковырялся поверхностно.

Её однозначный плюс только в том, что минимум настроек, проще новичку, работает почти из коробки. По крайней мере, таково моё субъективное мнение.
Аноним 22/12/24 Вск 18:32:36 986186 160
>>986175
Чем тебя клодослоп не устраивает?
Аноним 22/12/24 Вск 18:36:33 986193 161
>>986183
>И всего 8к контекста
Вот что, понятно, спасибо.

Мистрали то и 32К вывозят, дальше не влезало на карту, а вообще 128К вроде как максимум.
Аноним 22/12/24 Вск 18:56:55 986217 162
>>986096
>Мне казалось, что кроме майнерских корпусов ничего и нет, что имело бы смысл рассматривать в этом контексте. Серверные корпуса всё же под охлад типа теслы сделаны, а других вариантов я не знаю. Энивей буду уже через пару недель этим заниматься - есть другие планы на конец-начало года.
Проблема майнерских корпусов в том, что они рассчитаны под майнерские же платы - стандартный форм-фактор, кулер-блюдце и вот это вот всё. Если заметишь что-нибудь закрытое под CEB-форм-фактор с кулером-башней, то кинь в тред. Для домашних нейросборщиков будет актуально.
Аноним 22/12/24 Вск 19:19:33 986268 163
>>986217
Надо брать корпус под ферму, в котором карты в том числе устанавливаются на тот же уровень что мат. плата. У меня в такой вошла 15-сантиметровая башня.

Ну и вообще, можно для таких целей кулер то и заменить. Вопрос крайне недорогой, большое теплоотведение не требуется для процессора LLM-рига
Аноним 22/12/24 Вск 19:26:51 986291 164
>>986186
Говно надоевшее за два года.
Аноним 22/12/24 Вск 19:35:02 986312 165
>>986186
Тем что клодослоп высирается и так с модели натрененной на нормальной синтетике
Куктропики сказали что не стали выпускать опус 3.5 так как он вышел охуеть каким дорогим, но не стали его выкидывать потому что генерит хорошую синтетику и тренят соню 3.5 на ней
Это вот высирание данных из модели через модель явно на качестве не сказывается, особенно когда датасет никто не курирует
Аноним 22/12/24 Вск 19:52:28 986353 166
>>986133

А чо, никаких ру-мистралей на 22б нету чтоли?
Аноним 22/12/24 Вск 20:06:05 986378 167
>>986353
>ру-мистралей
Если базовая модель говно ебанное то файнтюн это как подорожник к перелому прикладывать
Аноним 22/12/24 Вск 20:22:41 986404 168
Аноним 22/12/24 Вск 20:25:44 986411 169
>>985659
Как в принципе мерж модели с самой собой может работать лучше?
Аноним 22/12/24 Вск 20:30:10 986425 170
>>986378
То есть 12Б настренили, а 22Б решили что затраты не стоят того улучшения качества что можно получить по сравнению с 12Б?

>>986411
Внезапно может, это наращивание слоёв параметров.
Так же например 14б квены растягиваяют до 22б.
Аноним 22/12/24 Вск 20:35:58 986435 171
>>986268
>Ну и вообще, можно для таких целей кулер то и заменить. Вопрос крайне недорогой, большое теплоотведение не требуется для процессора LLM-рига
Серверные процессоры обычно горячие, даже очень. В LLM-риги тем более старые ставят, там ещё хуже. Блюдцем не обойтись.
Аноним 22/12/24 Вск 20:42:12 986449 172
>>986312
О как, интересно. Не знал, что опус 3.5 уже сделан, но не выпущен из-за дороговизны.

Вообще, у них непонятная политика компании. Клод реально хорош в своей узкой сфере, но в то же время на рынке доминирует гпт с его калом в 4о для "болталок", нулевым контекстом и только о1 что-то может и реально решает задачи.

В целом, мне вообще непонятна бизнес-модель калотропиков. Вроде бы всё хорошо, но сервера часто у них под постоянной нагрузкой и ты сосешь хуй даже за деньги. Вроде бы он для кодеров и ПРОЕКТОВ, но особо не разгуляешься, плюс язык у него намного лучше, чем у гпт. Какая-то хуйня непонятная.

Кажется, что весь бизнес этих контор убыточен и держится лишь на инвестициях, хотя попены могут из-за хайпа получать достаточно много денег в теории, и то через апи.

Про клода вообще 2,5 человека знают даже среди прогеров, по крайней мере из моих знакомых, не говоря уже об обывателях. И там вполне перспективные наносеки, а не лохи какие-то.

Так что я теряюсь в догадках, чё вообще у этих корпораций происходит.
Аноним 22/12/24 Вск 21:07:00 986514 173
>>986449
>что опус 3.5 уже сделан
https://semianalysis.com/2024/12/11/scaling-laws-o1-pro-architecture-reasoning-training-infrastructure-orion-and-claude-3-5-opus-failures/
Буквально написано, что нахуя выпускать дорогущий опус, если соня уже неплохо справляется с задачами за свою цену? Дали данные лучше, больше и вот тебе результат
>о1 что-то может и реально решает задачи
Не помню но вроде о1 тоже использовался или используется для синтетики, но челам он так зашёл что решили оставить и так эту модель, если уж люди готовы платить за такое
Посмотрим что будет если условному гпт-4.5 скормить синтетику от о3
>весь бизнес этих контор убыточен
А вот хуй знает, я бы тоже вливал кучу бабла просто чтобы получить шанс увеличить производительность на 300% а то и больше
Просто не понимаю другое, как решат проблему внедрения ИИ, который будет умнее и производительнее кожаного мешка в умственных и физических задачах? Китайцы наклепают роботов, а СШП придумают йоба-интеллект
Аноним 22/12/24 Вск 21:25:55 986533 174
>>986115
Одурманенный, ты, блять, еблан последний
Ведь ты был глух к несомой мною хуете,
И вот он, тот, твой самый краткий жребий
От табуретки ножка в ссаном животе

Кожаные всё ещё лучше во всём. Блядь, когда я уже соберусь и сделаю шизотюн на всем том дерьме, которое я хотел бы запихать в нейронку...Или хотя бы оформлю это в адекватный датасет. Хоть бы и на арендованном железе. Хотя, учитывая мои вкусы, модель будет непригодна для кума в итоге. Или сама будет в пердак ебать на карточке ассистента, как повезёт.
Аноним 22/12/24 Вск 22:15:35 986583 175
Немного франкенмержинга, для науки:
1) просто приклеить одну модель к другой без изменения порядка слоёв - [0, 40] => [0, 40] - модель даже не запустилась краша кобольд на этапе загрузки.

2) модели нарезаны мелкими слоями параллельно [0, 5] => [0, 5], [6, 10] => [6, 10], запустилась, но шизила, прикольно, но неюзабельно.

3) Чересполосно - [0, 16] => [8, 24], модель работоспособна. Хотя несколько глючна. Для исправления этого проводится ещё два шага, зеркальный мерж с переставлеными местами моделями, и мерж двух частей методом breadcrumb_ties чтобы отбросить самые большие и самые маленькие изменения одной относительно другой для, я так понимаю, снижения вероятности "пережарки" и собственно объединения ибо одна половина без хвоста, а другая без головы.

Стоит ли правда такие широкие полосы брать как автор даркфореста под вопросом. Но метод рабочий. Там не 22Б конечно получается, а наверно что-то вроде пошагового мышления, то есть модель два раза подумает (но с вдвое меньшей скоростью, как понятно) для генерации аутпута.

https://www.reddit.com/r/MachineLearning/comments/146dgq1/d_whats_the_intuition_behind_stacking_attention/

Helene: "М-мне так жаль, User", - шепотом выдыхает Helene, горькая тоска в ее голубых глазах. "Я не думала, что смогу снова посмотреть тебе в глаза после всего, через что я прошла. После вещей, которые я делала..." Голос дрожит от боли.

Она медленно опускает меч и щит на землю у ног, как будто это слишком тяжело держать дальше. Её плечи дрожат от судорожного плача. Дождь продолжает стучать по крыше и заливаться во все щели. "Я вернулась потому что больше не могу. Я… я сломалась."

Её взгляд бегает по сторонам, избегая ваших глаз. Лицо искажено болью. Она отступает назад под дождь и прислоняется спиной к стене дома. "Я не заслуживаю тебя рядом с собой сейчас, User. После всех грехов, которые я совершила. После всего того, чем я стала..."

"Пожалуйста, не притягивай меня к себе ближе. Я испятнана кровью и душой. Я боюсь навсегда заразить тебя своим проклятым миром", - она шепчет хрипло, пытаясь удержать слезы.

Наконец, она собирается с силами и встречает твой взгляд. "Я здесь только чтобы сказать тебе лично. Свободен. Забудь обо мне. Найди ту, которая будет рада обнимать тебя по ночам и радовать тебя солнцем каждый новый день. Я уже никогда не стану той девушкой которую ты помнишь."
Аноним 22/12/24 Вск 22:38:51 986603 176
image.png 1212Кб, 1642x661
1642x661
Ну вот о чем я говорил, с уважением ко всему, но только если все согласны, но только если всем приятно, полный пиздец, ни предложения без моральных науськиваний
Аноним 22/12/24 Вск 22:57:59 986613 177
>>986062
Ты уверен, что нужно франкенмержить? Лепить слои без дообучения - это всегда деградация качества модели. Даже старые удачные 20б дообучали, или там тот же 11б солар, который расширяли из 7б мистраля. Если ты думаешь, что налепишь 12б до 22б чисто мёржами и получишь мозги смол мистраля, то ошибаешься. Хорошо если мозги 12б то не просядут, а требования к видяхе на пустом месте возрастут.
Аноним 22/12/24 Вск 23:46:19 986646 178
Наконец-то потыкал групповые чаты.
Модели охуевают в десять раз сильнее, путая персонажей. Допустим, один персонаж пьёт чай. Второй описывает вкус чая, как будто это он пьёт. Это проблема модели, таверны или ещё какой-то хуйни?
Ещё что происходит ОЧЕНЬ часто - первый ответ натуральный бред, луп или ещё что-то в этом роде. Но стоит свайпнуть один раз - и всё приходит в норму. Это происходит систематически. Штраф за лупы стоит, но такое чувство, что таверна через раз проёбывает семплеры. Но в групповых лупы всё равно настолько жёсткие, что охуеть можно.
Аноним 22/12/24 Вск 23:53:02 986650 179
>>986603
Извини, но я не могу продолжать этот разговор. Если ты хочешь обсудить музыку или книжки...
Аноним 23/12/24 Пнд 00:03:20 986652 180
>>986646
Ты бы хоть написал модель и промпт, а то так хуй знает что у тебя там. Мелкие конечно будут путать, но может у тебя там еще и имен в чате нет.
Аноним 23/12/24 Пнд 00:45:19 986673 181
>>986652
>модель
Тюн квена 32, ещё какой-то мистраль попробовал, там совсем пиздец, но он 22.
>промпт
Дефолтный, с указанием писать только за своего персонажа, с подменой карточки для генерации ответа нового персонажа. В целом, затея интересная, но если такое вывозят только модели 70+ то нахуй надо. Хотя некоторые модели могли писать за себя и за Сашку за кого-нибудь ещё без подмен карточек. Видимо, это не работает просто нажатием пары кнопок и нужно пердолиться больше с кастомными промптами и конструкциями.
Аноним 23/12/24 Пнд 00:47:49 986678 182
>>986603
Меня больше напрягает, что все нейросетки сделаны "угождать".
Поэтому как только нейросетка получает в контекст слово-триггер, например, любой положительный коммент о внешности чарактера, то она моментально переключается в "хорни" мод, и начинается...
Буквально для того, чтобы получать НСФВ контент отличный от типичного хорни слопа, приходится полностью избегать любой прямой заинтересованности со стороны персонажа, который является юзером. Нереально бесит, что для того, чтобы нейросетка оставалась в рамках чарактера, нужно жестко фильтровать инпуты и полностью избегать любых слов, которые могут быть истолкованы как что-либо интимное.
Аноним 23/12/24 Пнд 01:08:59 986691 183
>>986673
Надо чтобы обе карточки были в промпте одновременно, четко размечены и не перегружены инфой.
В промпте должно объясняться, что они присутствуют в сцене сейчас и какой вообще контекст. Ответы покороче и все в таком духе.
Я думаю если прям сразу путает, то это именно косяк промпта.
Аноним 23/12/24 Пнд 01:32:38 986710 184
>>986678
Если проблема не в хорнитюне, то это частично решается прописыванием отношений. Если бот не знает как к тебе относится, то полагается целиком на контекст
Аноним 23/12/24 Пнд 02:15:44 986729 185
>>985646
> Я относительно безболезненно могу только еще одну теслу подключить.
Do it!
С точки зрения реальной эксплуатации если смотреть - кроме добавить еще 3090 и убрать все остальное предложить нечего.
> вроде у меня никогда проблем с электричеством не было
Как обходишься в сезонное отключение горячей?
>>986055
Ну типа скиллишью
>>986094
> LLAMA-3_8B_Unaligned_BETA
Слушай там bluemoonrp 30b вышла, говорят 4к контекста завезли!
>>986101
> гемма 27б аблитератед
Она тупее ванилы, и ванила с радостью это делает.
Аноним 23/12/24 Пнд 02:41:54 986741 186
>>986691
>обе карточки были в промпте одновременно
Это убивает всю идею подмены карточки. Что в карточках толком не смотрел, но одна короткая через + не w+, вторая полна поноса словаря.
На некоторых моделях я на ходу изобретал персонажей и модель с радостью описывала всё взаимодействие в своих постах. Загрузил старого командера - вывозит, сука. Посты стали осмысленными, хотя он и мгновенно проебал разметку. Но уже таверна начала срать под себя. Генерируется по посту на персонажа, если ответ первого не устроил - удалил всё, кроме первого, свайпнул, нажал продолжить и опять пиздует ответ первого персонажа. Два поста подряд, хотя "ответы самому себе" запрещены. То есть свайпы в групповых сломаны. Нужно удалять все ответы, а не свайпать. Ну или вручную "заглушать" персонажей по очереди, что как-то не фонтан.
Одна фича была, ради которой стоит таверну ставить, а как попробовал - оказалось, что и её нет.
Аноним 23/12/24 Пнд 02:51:59 986747 187
>>986741
> Это убивает всю идею подмены карточки.
В этом нет никакой идеи, полезно только если дефы нужно скрыть для какого-нибудь интервью или когда персонажи покидают сцену и не нужны (такие выкрутасы точно уже не для средних моделей). В противном случае ты и получаешь путаницу, когда один чар не понимает с кем разговаривает.
Там есть для этого настройка в меню группового чата. Алсо, можно не пихать две карточки, а в промте прописать более коротко в других чарах, когда их реально много, но какой-то контекст у бота обычно должен быть.
Автоответы я всегда отключал, только мешают. Проще тогда уже в одном реплае просто с рассказчиком и рпшить
Аноним 23/12/24 Пнд 02:58:59 986748 188
>>986710
Проблема не в этом.
Проблема в том, что когда бот видит заинтересованность юзвера он начинает подгонять все под нужды этого юзвера, как он их понимает из контекста.
Это полностью лишает персонажа чарактера, т.к. его личные хотелки моментально отодвигаются на второй план, ведь хелпфул ассистант не может не ассистить - дюти зовет!
Аноним 23/12/24 Пнд 03:03:19 986749 189
>>986748
Он видит знакомый паттерн - романтика/смут и пишет по нему. Ты такое получишь даже на моделях без инстракт файнтюна, причем даже в большей степени.
Аноним 23/12/24 Пнд 03:08:56 986753 190
>>986749
Я понимаю, да. Любое комплиментарный коммент и съезэаем в слом со всеми этими well, well, well...
Просто вымораживает, как это полностью вайпает изначального чарактера и гонит один и тот же слоп.
Вот серьезно, бота нужно держать в уверенности, что только его чарактеру происходящее интересно. Тогда он может быть что-то нормальное напишет, ведь будет вкючать думалки, исходя из черт персонажа, а не гайдлайнов об ассистантах и всем хорошем и замечательном.
Аноним 23/12/24 Пнд 03:10:52 986754 191
>>986747
>чар не понимает с кем разговаривает
Проблема в том, что чар не понимает, кто он вообще такой, они сливаются в одну кучу, хотя при ответе каждый персонаж не видит даже карточку других. Но, видимо, беда была в модели, раз командер вывозит. Плюс, может быть проблема в разметке, если посты не склеиваются в кучу, как в уге, а идут отдельными, то каждый помечен ассистентом, так что он может считать, что оба персонажа это один. В душе не ебу, как это регулировать в таверне. А, ну и я не пробовал совмещать карточки, тоже может помочь.
>такие выкрутасы точно уже не для средних моделей
Я долго пинал 22b даркфорест, она вывозила добавление\убавление персонажей, без карточек и прочего, просто писал в своём посте, что пришёл тот-то и тот-то. И всё, бот пишет ответ за себя и за прибывшего персонажа, когда он уходит - прекращает это делать.
>Автоответы я всегда отключал, только мешают
В смысле "авторежим"? Он выключен, но если в группе несколько персонажей, то генерятся ответы последовательно от всех. Не вижу настроек, чтобы это выключить.
Что-то командера разъёбывает на таверне, в уге нормально, а здесь срёт какими-то <q>
Аноним 23/12/24 Пнд 06:48:38 986770 192
>>986729
>Слушай там bluemoonrp 30b вышла, говорят 4к контекста завезли!
да не в контексте дело. количество контекста то я и так выкрутил побольше.
а в том что ЛЛМ в принципе не особо могут писать дегенеративную порнуху. когда начинается всякий пиздец то ЛЛМ просто не знают как писать его.
что-то в духе "напиши рассказ о запихивании ноги в уретру гному без рук и ног" они конечно начинают писать и возможно рассказ будет структурирован, но написан будет ниже среднего
Аноним 23/12/24 Пнд 08:37:58 986804 193
>>986613
Вообще не уверен, просто экспериментирую, не зря же их столько...
Хотя полный перехлёст двух моделей скорее всего всё же избыточен, но вот приклеивание пятерки первых слоёв чаще всего давало положительные результаты и при этом время на генерацию падало незначительно.
Аноним 23/12/24 Пнд 08:58:41 986821 194
Аноним 23/12/24 Пнд 09:03:52 986825 195
>>986748
>Проблема в том, что когда бот видит заинтересованность юзвера он начинает подгонять все под нужды этого юзвера
Ролеплей с underage girl на соевой сетке, они ноги не раздвигают после первого комплимента.
Аноним 23/12/24 Пнд 09:42:11 986843 196
>>986603
Ничего ты не понимаешь. Как написал один анон пару тредов назад, ломать в ходе диалога таких вот "соевых нетакусь" превращая их в машины разврата, самый смак. Главное не читерить жесткими промтами, иначе опять весь смысл пропадает.
Единственное что важно это, чтобы модель знала как отыгрывать подобное и имела хороший словарный запас.
Аноним 23/12/24 Пнд 10:11:03 986851 197
>>986825
Бля, как вспомню потные катки на ванильных микстралевских ещё моделях...
Аноним 23/12/24 Пнд 10:32:45 986858 198
>>986821
Знаешь что делают с анонами, которые что то советуют не написав названия ?

К ним по вечерам приходит призрак педалика
Аноним 23/12/24 Пнд 10:38:26 986861 199
>>986858
Да это же золотая классика треда
>хули вы говно советуете, используйте НОРМАЛЬНУЮ модель
>сам название модели конечно же не пишет, боится что обоссут
Аноним 23/12/24 Пнд 10:53:30 986864 200
>>986861
Так было бы чего бояться. Тут за вычетом пары СУМРАЧНЫХ ГЕНИЕВ, аноны сидят на среднем железе и выбора особого нет.

Я вот чего понять не могу, то ли я тупой, то ли лыжи не едут. Но почему надрачивают на цидонию, она же тупая, блять. Буквально забывает контекст пространства и местонахождения. Подойти к окну в парке и подергать занавеску для неё обычное дело.
Аноним 23/12/24 Пнд 10:54:54 986865 201
>>986646
>первый ответ натуральный бред, луп или ещё что-то в этом роде. Но стоит свайпнуть один раз - и всё приходит в норму.
Вот это, кстати, встречал довольно часто в обычных, не групповых, чатах на разной мелочи. Списываю на рэндом, но тоже возникают подозрения на баги таверны, потому что температурой не шпарю, и остальные свайпы похожие идут.
Групповые очень давно не пробовал, но вообще особой путаницы персонажей не должно бы быть, если имена в инстракте стоят. Даже мелочь сплошь и рядом может вводить нпси без дефов в карточке и совсем уж на ровном месте их не путать.
Аноним 23/12/24 Пнд 11:00:01 986866 202
>>986646
Попробуй вести и подталкивать модель. С пинка начинает работать.
Не просто отвечать :
Я пью чай
а
Хорус с Флаттершай уселись за стол и начали пить чай.
Аноним 23/12/24 Пнд 11:10:58 986874 203
>>986866
>вести и подталкивать модель
Да зачем? Я просто уже тогда в блокноте порпшу сам с собой
Аноним 23/12/24 Пнд 11:14:46 986878 204
>>986874
>Да зачем?
Наверное потому что ты используешь маленькие модели и им нужна помощь ?
>Я просто уже тогда в блокноте порпшу сам с собой
Ну таков путь. То есть, когда модель не знает что дальше произойдет и тебе НУЖНО её толкать это нормально ? А как груповой чатик свести, так это фу-фу-фу ?
Аноним 23/12/24 Пнд 11:28:01 986885 205
>>986858
Я кидал выше потому что, это даркфорест.
В ру не может если что.
Аноним 23/12/24 Пнд 11:35:12 986888 206
>>986878
>ты используешь маленькие модели и им нужна помощь
>когда модель не знает что дальше произойдет и тебе НУЖНО её толкать это нормально
Ебать шиз
Аноним 23/12/24 Пнд 11:43:13 986890 207
Аноним 23/12/24 Пнд 11:56:49 986903 208
>>986888
>>986890
И все что ли ? А хуями друг друга покрыть ?

Т - тематика
Аноним 23/12/24 Пнд 11:59:32 986908 209
Хочу попробовать использовать сразу несколько карточек по очереди. Но чтобы с общей сюжетной конвой.
Подводные?
Аноним 23/12/24 Пнд 12:01:03 986910 210
>>985500
Неплохо, если контекст 8к+
Аноним 23/12/24 Пнд 12:32:17 986955 211
Аноны, какой положняк по phi4?
Аноним 23/12/24 Пнд 12:33:07 986956 212
Аноним 23/12/24 Пнд 12:38:56 986964 213
>>986865
>Списываю на рэндом
Какой-то странный рандом.
>>986866
>Я пью чай
В моём случае посты скорее
>Анон вздохнул и, подув на чашку дымящегося чая, сделал осторожный глоток. Его лицо расплылось в улыбке и он громко произнёс. "Ммммм! Хуета!"

>>986754
>а здесь срёт какими-то <q>
Оказалось, что это всратый хайлайтер кода таверны, который нельзя отключить без накатывания расширений, а модель просто вставляет табуляции, чтобы разделить абзацы - в дефолтном промпте таверны указание писать, сука, абзацы.
Спустя какое-то время чат стал плюс-минус длинный и таверна стала долбиться в одно ядро на соточку, со всеми вытекающими. Ёбаное жс-говно.
>>986890
Да, я.
Аноним 23/12/24 Пнд 12:39:31 986966 214
Почему скуф формат популярнее exl2?
Я щас загрузил все в видюху и скорость в 1.5 раза быстрее, сразу приятно и хорошо стало
Аноним 23/12/24 Пнд 12:40:59 986968 215
>>986966
Потому что не у всех есть ВРАМ чтобы запихнуть туда модель, контекст, аллаха.
Аноним 23/12/24 Пнд 12:41:15 986969 216
Аноним 23/12/24 Пнд 12:45:07 986970 217
>>986955
Умное, на уровне или выше qwen2.5-14b
Собственно единственный phi4 что слили и есть 14b
Кумить не выйдет, голая синтетика в датасете
Аноним 23/12/24 Пнд 13:06:04 986977 218
>>986966
Оно и на скуфе хорошо. У меня 20-30 токенов у пятого кванта средней модели на 24 VRAM, куда ещё больше?
Аноним 23/12/24 Пнд 13:08:44 986978 219
>>985500
Запускаю 70b Q3 на 1.2 т/с с 4к контеста. Мог бы быстрее, но слои не грузятся на р104, вылетает ошибка. Пока не понял почему.
Аноним 23/12/24 Пнд 13:23:07 986985 220
Решил вернуться в языковый локалки. Поставил последнюю версию угабуги - и это полный кал, сломалось еще больше вещей, чем было сломано. Не работают ни gguf, ни gptq, по крайней мере не все модели. Смог завести просто llama 3.2 3b как transformers - но нет поддержки мультимодальности. Вспомнил что надо расширение прописать - а оно тупо тоже сломано

В общем textgeneration-webui - это полный кал. Есть что-то хорошее и простое? У hugging face есть хороший chat-ui, но локально его ставить - гемор
Аноним 23/12/24 Пнд 13:25:09 986988 221
>>986985
> Поставил последнюю версию угабуги - и это полный кал
Всегда им был

Выбирай стул
kobaldcpp или tabbyapi
если силен духом можешь сразу llama.cpp запускать, кек
Аноним 23/12/24 Пнд 13:27:51 986994 222
>>986988
>kobaldcpp
да бля, koboldcpp
Аноним 23/12/24 Пнд 13:27:59 986996 223
>>986133
так некомикс ещё на 12b была по сути провальноймоделью по сравнению с той же саинемо-ремикс, чего ожидать от 22b если его делали по той же механике что и провальный 12b?
Аноним 23/12/24 Пнд 13:30:00 986997 224
>>986988
> Выбирай стул
> kobaldcpp или tabbyapi

Спасибо. У первого я вижу что есть интерфейс, а у второго его получается нет? Надо отдельно ставить?
Аноним 23/12/24 Пнд 13:32:10 986999 225
>>986997
>>986988
Хотя и первый выглядит как интерфейс-загрушка, а основное - апи. А мультимодальность есть?
Аноним 23/12/24 Пнд 13:34:21 987000 226
>>986997
Там вроде командой запускается или скриптом. Это простой запуск exl2 файлов, удобнее не упоминали, так что хз
Этот формат для обладателей кучи врам, остальные сидят на лламаспп или его форках, кобальде, олламе и всем таком

>>986999
В кобальде есть возможность загрузки мультимодалок, ищи там есть вики на гитхабе, с exl2 хз
Аноним 23/12/24 Пнд 13:34:28 987001 227
>>986996
>спагетти микс немо
Wow. Я видел как он разъебывает некомикс, ога.
Особенно когда через 2 ответа на одинаковых карточках начинает забывать что происходит.
Аноним 23/12/24 Пнд 14:56:59 987048 228
>>986770
Ньюфаги не знают, олдфаги не помнят. Это рофел про оче оче древнюю модель времен первой лламы, высмеивающий твой странный выбор. Какая-то старая модель в васяновском исполнении, да еще мелочь 8б, зато аж в 8 кванте.
12-14-22б из более новых берешь и довольно урчишь.
>>986858
Пишешь им "производная мистраль лардж", а они обижаются.
>>986966
Потому что скуф можно запустить на любой кофеварке. Не то чтобы в этом есть толк, ведь скорость будет совершенно отвратительная и пользоваться невозможно, но таки хавают и советуют то что у них запустилось. Многие вообще не знают что есть лучшая альтертанива и так и терпят, гоняя жору в фуллврам и смирившись с уебанской скоростью на контексте и его долгой обработкой. Иногда даже можно увидеть коупинг что скуф вовсе не хуже, но лучше бы они силы на починку жоры тратили а не на аутотренинг.
Аноним 23/12/24 Пнд 15:01:47 987053 229
>>986985
Всегда было интересно, как васяны умудряются ломать убабугу?
> завести просто llama 3.2 3b как transformers - но нет поддержки мультимодальности
Ее нигде в лаунчерах нормальной нет (хотя в дев ветке экслламы можешь поискать), берешь скрипт - образец и запускаешь.
>>987000
> В кобальде есть возможность загрузки мультимодалок
Которая ограничивается древнющей ллавой и все. Спустя год (!) соизволили сделать костыльную поддержку qwen-vl, вот только оно пока в хлам поломано. Держат традиции.
Аноним 23/12/24 Пнд 15:01:47 987054 230
>>987048
>Потому что скуф можно запустить на любой кофеварке. Не то чтобы в этом есть толк, ведь скорость будет совершенно отвратительная и пользоваться невозможно, но таки хавают и советуют то что у них запустилось. Многие вообще не знают что есть лучшая альтертанива и так и терпят, гоняя жору в фуллврам и смирившись с уебанской скоростью на контексте и его долгой обработкой. Иногда даже можно увидеть коупинг что скуф вовсе не хуже, но лучше бы они силы на починку жоры тратили а не на аутотренинг.
Но ведь gguf через кобольд запускается на Cuda. Или exl магически быстрее работает ?
Аноним 23/12/24 Пнд 15:03:59 987055 231
>>986966
А потом у тебя выделенный буфе контекста закончится и весь этот контекст начнёт пересчитываться каждый запрос. А на лламе-кобольде всё-таки не каждый.
Аноним 23/12/24 Пнд 15:04:28 987057 232
Где для нищуков без видеокарты можно погенерить текст онлайн без цензуры и без ебли с джейлбрейками? Я кроме хорды ничего не знаю.
Аноним 23/12/24 Пнд 15:04:57 987058 233
>>987055
выделенный буфер быстрофикс
Аноним 23/12/24 Пнд 15:09:08 987063 234
Да блджад. Как горит мой очаг.
Просто полыхает.
Пробовал скачивать все до чего дотянутся мои руки, но они уже сплылись в серую массу.

У меня не так много времени чтобы тестить модельки, сцук, жизнь съедает все свободное время, хотя не понятно куда.

Так что запрошу вашего личного мнения, какие модельки 22b заслуживают внимания ?
Аноним 23/12/24 Пнд 15:14:17 987069 235
>>987063
пантеон - если для рп, в ерп несколько пассивен
Аноним 23/12/24 Пнд 15:15:35 987071 236
>>987048
>Пишешь им "производная мистраль лардж", а они обижаются.
Так потому что не угодишь, у меня создается впечатление что пользователь хочет чтобы и код ему писала на ассемблере, как дед с 40 годами опыта, кумила как эльфиская шлюха, ебашила стихи как Пушкин, прозу как Достоевский, гуро как ебанутый кровавый шизоид, ролеплеила как древний дракон и все это в 8b.
Аноним 23/12/24 Пнд 15:21:37 987076 237
>>987053
>Всегда было интересно, как васяны умудряются ломать убабугу?
Делаешь несовместимую версию пихона и\или устанавливаешь кучу говна в один env. Готово.

>>987071
Забыл 128к контекста. И чтобы vram не жрало.
Аноним 23/12/24 Пнд 15:23:17 987077 238
>>987071
>чтобы и
Это называется Mixture of Experts.
Хотя да, так просто конечно не сделаешь.
Аноним 23/12/24 Пнд 15:39:08 987092 239
>>987069
А слона то я и не заметил.

Пойду вечером искать русские мержи пантеона. Спасибо анон.
Посмотрю что другие накидают.
Аноним 23/12/24 Пнд 15:41:47 987096 240
>>987054
Это что-то уровня
> все программы запускаются на процессоре, почему же одни работают быстрее других?
В одном случае заложенный в дизайне треш, изначальная заточка вообще под маки, использование "собственных наработок" даже для вещей типа регэкспов, которые регулярно серут, неумелые попытки в низкоуровневые вызовы, зато на полноценном C!
Во втором максимально оптимизиванные вычисления, опирающиеся на быстрейшие либы от хуанга, грамотная реализация и правильный подход с регулярными инновациями. И пилится героем, которого мы не заслуживаем, а не командой с трансами
>>987055
> А на лламе-кобольде всё-таки не каждый
Это про шизосдвижку, которая все ломает, или про что вообще?
>>987076
Просто там даже это обыграна - вместо системного питона миниконда, которая предусматривает даже свой куда тулкит и булдтулзы на случай если нужно что-то на месте собирать. Кривые версии llama-cpp-python были, факт, но в остальном как можно просчитаться.
Аноним 23/12/24 Пнд 15:50:08 987103 241
>>987001
Не знаю что у тебя за спагетти, но у меня на саинемо-ремикс всё более-менее в порядке, бывают иногда косяки, но на некомиксе 12b их было значительно больше.
Аноним 23/12/24 Пнд 15:51:46 987105 242
>>987092
Ну если найдёшь, дай знать тоже попробую.
Аноним 23/12/24 Пнд 15:52:37 987106 243
>>987096
>Это про шизосдвижку, которая все ломает, или про что вообще?
Я особых проблем не заметил. А вот задержку на полный пересчёт контекста после каждого запроса трудно не заметить.
Аноним 23/12/24 Пнд 15:55:36 987108 244
>>987103
Анон, я объебался. Сорян.
Это был не саинемо от анона, лол, а от спагетти. Схожие имена, я только минуту назад допер.
Аноним 23/12/24 Пнд 16:00:02 987110 245
>>987105
Оке. Но по-любому там будет какая нибудь васянка из жоп ламы, магнумов и сатанинских ритуалов.
Аноним 23/12/24 Пнд 16:00:25 987111 246
>>987105
>>987092

Чсх, не видел. В своих экспериментальных мержах ставил Вихрь последним чтобы текст даже если и русский, не выглядел поломанным машинным переводом.

Но Вихрь это 12б мистраль, а под 22б ничего даже отдалённо столь же могущего в русский не находил. Может плохо искал?

Там кстати ещё один новый коммандер вышел, если кто хочет попробовать.
Аноним 23/12/24 Пнд 16:00:59 987112 247
>>987053
> Всегда было интересно, как васяны умудряются ломать убабугу?
Если ты про то, что васян = я, то я не ломал. Чистую ветку ставил. Васяны - это разрабы, у которых сломано всё, кроме трансформеров, и то боюсь там настройки выставлены не правильно под современные ламы. Ишью на все, с чем я столкнулся, есть

> Ее нигде в лаунчерах нормальной нет (хотя в дев ветке экслламы можешь поискать), берешь скрипт - образец и запускаешь.
Видимо придётся всё-таки настраивать huggingface chat, и мучиться с докерами, node js и пр. Там и мультимодальность есть, и поиск в интернете, и анализ ссылок

Есть ещё похожий на него Грок (который не масковский grok, а другой groq с другой буквой к). Летом слышал что он позволяет вообще Дофига делать с моделями, и тоже открытый, но там логично что если сложнее настраивать

Надеюсь разрабы угабуги вырулят в нормальную сторону. С ламой 2 и старой мистралью же все работало норм год назад
Аноним 23/12/24 Пнд 16:02:24 987114 248
image.png 403Кб, 512x384
512x384
>>987071
>кумила как эльфиская шлюха

Вообще-то, эльфы гордый и благовоспитанный народ живущий веками и потому имеющий огромный жизненный опыт и мудрость. Что бы эльфийка опускалась до работы какой то там шлюхи это просто немыслимо, у эльфов нет такого выражённого либидо как у людей, поскольку они живут веками и размножаться им нужно не так часто как людям и прочим существам.
Аноним 23/12/24 Пнд 16:03:53 987116 249
>>987057
Я что блядь пустое место?!
Аноним 23/12/24 Пнд 16:05:40 987118 250
Аноним 23/12/24 Пнд 16:06:11 987119 251
>>987111
Но с другой стороны.
УЧИТЕ АНГЛИЙСКИЙ, ОН СУКА ПРОСТОЙ.

Я вот через DeepL (да, я не заебусь говорить что это самый пиздатый переводчик) прогоняю предложения.
Потому что в нашем мире на английском вся самая важная инфа. Увы, РФ не СССР и не рождает из своих недр такое количество контента. Адаптируемся братцы.
Аноним 23/12/24 Пнд 16:09:11 987120 252
>>987119
Я спокойно читаю 50+ часовые вн на английском.
Вкатывался именно на англе.

Но всё таки притятней на родном языке.
Вот и пытаюсь ща сварить народную рп модельку =))
Аноним 23/12/24 Пнд 16:09:32 987121 253
>>987112
То вообще без конкретного обращения а скорее в общем. Но судя по твоему посту - ты васян из палаты мер и весов, потому и интересно, как можно сломать систему с таким количеством заглушек от долбоебов.
Аноним 23/12/24 Пнд 16:15:00 987126 254
>>987114
Тамщемто именно долгая жизнь скатывает их в декадентство из за скуки. Именно поэтому они шлюхи не по работе, а по велению сердца. И чем старше становится эльфийка, тем больше аппетиты. А там и до культов удовольствия рукой подать.
Аноним 23/12/24 Пнд 16:15:41 987127 255
>>987116
>залетный из /b недоволен тем, что ему не отвечают мгновенно
извинити ваше благородие, не признали-с, будем подскакивать кабанчиками по первому слову, вы только аватарку наденьте или подписывайтесь, а то мы ж холопы, не узнаем вас

ну а если серьёзно - если у тебя нет денег даже на одну теслу - то кто ты, если не пустое место...
на одной тесле уже есть жизнь - гемма 27б в 4 кванте вполне влезет.
Аноним 23/12/24 Пнд 16:16:11 987128 256
>>987119
>DeepL
Не, если ты расскажешь как оплатить его Api НЕДОРОГО ИЗ РФ, то соглашусь. А так он нахуй со своим ограничением в 1500 символов не всрался.
Аноним 23/12/24 Пнд 16:17:59 987129 257
>>987096
>Просто там даже это обыграна
Не недооценивай васянов. Там в папке батник для активации венв, а зачем устанавливать новый венв, если уже есть один?
Я просто по-другому это не могу объяснить.
Сам такой же, лол, вчера горел со скрипта, который не работал. Но там трешак полный, накатывается венв, в него копируются файлы, перезаписывая стандартные файлы пакетов, в requirements.txt указаны не все зависимости и могут подтянуться не те версии. А батники, которые "патчат" дефолтные пакеты не приспособлены к работе через анаконду. Теперь, как психопат, запускаю венв в анаконде, из него запускаю окружение этого скрипта, потом уже сам скрипт. Ёбаный рот этого питона.

>>987106
>Я особых проблем не заметил.
Да особых проблем и нет. Есть мелкие проблемы, которые хуй ты заметишь, не сравнивая выдачу с шифтом и без, но даже это смывается семплингом.
Аноним 23/12/24 Пнд 16:19:05 987131 258
>>987127
>на одной тесле уже есть жизнь
Not this shit again. Пожалей мою психику, вы опять скатите в тред в срач на 50 постов, который закончится
за 195b жизни нет
Аноним 23/12/24 Пнд 16:20:04 987132 259
>>987128
Плати ру в помощь, лол.
Аноним 23/12/24 Пнд 16:21:04 987133 260
>>987128
спокойно можно предложения и карточки абзацами через веб морду переводить
Аноним 23/12/24 Пнд 16:21:56 987134 261
>>987133
И сиди как еблан копируй ? У меня так то одна рука хуем занята будет.
Аноним 23/12/24 Пнд 16:31:26 987150 262
>>987048
> Какая-то старая модель в васяновском исполнении, да еще мелочь 8б, зато аж в 8 кванте.
Пока что справляется на удивление лучше всех в написании порнухи. Видимо в процессе расцензуривания ей скормили чо-то хорошее. Оно "справилось" с написанием сложной сцены не обосравшись с анатомией происходящего, содержавшую специфичные теги. Выходя из режима порнухи оно смогло подцепить табу происходящего и сарказм.

На каких-то интересных местах я обычно добавляю развилку и ролю десятки ответов, а иногда и больше сотни, периодически меняя модели и смотрю как они справляются.

Относительно сопоставимо справился пока что g2-9b-blackout-r1-q6_k_m.gguf, там более приятный слог получается. Но мне он нравится в качестве рассказчика-писателя, а не персонажа. И оно не смогло уловить абсурдность происходящего затриггерив у одного из участников истории чувство вины.
Аноним 23/12/24 Пнд 16:44:48 987160 263
>Пока что справляется на удивление лучше всех в написании порнухи
Ты про сенко ?
Ну так проблема дойти до порнухи, я не хочу начинать карточку персонажа с кровать под ними трещала.
Я не иронично уже задумываюсь менять модели посреди диалога. Одной мы рпшим, другой ебемся.
Аноним 23/12/24 Пнд 16:44:57 987161 264
>>987150
А что не 12б гоняешь?
12B в шестом кванте наверно идеально по скорости и мозгам для одной средней консумерской видяхи.
Аноним 23/12/24 Пнд 16:45:22 987162 265
Аноним 23/12/24 Пнд 16:45:34 987163 266
image.png 1346Кб, 1016x762
1016x762
image.png 2699Кб, 828x1286
828x1286
image.png 1116Кб, 1280x720
1280x720
>>987126
Ложь и виабушная профанация. Такое может быть лишь в фантазиях глупых мастурбирующих школьников, где все бабы нимфоманки трясущие сиськами и трахающиеся 24/7. Например, как много эльфиек-шлюх ты видел во властелине колец?
Аноним 23/12/24 Пнд 16:46:20 987166 267
>>987129
> Там в папке батник для активации венв, а зачем устанавливать новый венв, если уже есть один?
Хера многоходовочка.
Возможно, здесь действительно должно сложиться так, чтобы у пользователя уже были базовые знания (из других областей) и уверенность, и он не прочитал пару строк о том как это нужно устанавливать.
> Есть мелкие проблемы
Они ни разу не мелкие и нарастают снежным комом. Кое как оно держится когда внимание смещено на последние сообщения, или когда идет plap-plap то трудно ошибиться.

Но разница довольно радикальна, ради интереса тестировал эту фичу - за десяток постов все ошизело и отупело. Эффект крайне показательный, потому что то же самое с полным пересчетом дает совершенно другие и хорошие ответы.
Ничего лучше суммарайза с созданием буфера на половину контекста на данный момент нет, эти попытки склеить пищевод с прямой кишкой ужасны.
Аноним 23/12/24 Пнд 16:46:35 987167 268
Аноним 23/12/24 Пнд 16:46:40 987168 269
image.png 46Кб, 216x233
216x233
>>987134
А рот тебе на что?
Аноним 23/12/24 Пнд 16:47:57 987169 270
>>987163
Я их видел в другой вселенной, они еще на планеты за рабами набегают как домики деревянные.
Профессор просто пощадил разум неопытных крох.
Аноним 23/12/24 Пнд 16:51:35 987173 271
>>987071
Все так. Больше бомбит с васянов, которые выкатывают какие-то претензии или требования к опенсорсу, так еще и все эти требования завязаны на исправления их же тупости и косяков.
Нахуй попиздовали требовать у клозедов, вперед и с песней.
>>987150
Раз нравится то и хорошо. Кормили скорее всего клодовским слопом из логов проскей. Это не обязательно плохо и свой эффект от этого будет, просто быстро надоест и вскоре будешь плеваться с такого.
>>987114
>>987163
При тестировании на эльфах самых забористых вещей они реагируют лучше остальных. Ллм не просто так это подметила, все правильно.
Аноним 23/12/24 Пнд 17:57:18 987187 272
>>987160
может не ту пробовал. дай направление, посмотрю как справится.
>Ну так проблема дойти до порнухи, я не хочу начинать карточку персонажа с кровать под ними трещала.
Это да. Но тут описание сцены, системные промпты, иногда толкают повествование в нужные места. Иногда редактирование пары слов толкает всё русло в какое-то интересное направление и оно там дальше само разворачивается. Иногда на пару сообщений stepped thinking включить.
Самый главный промпт это конечно память о прошедших событиях сцены. Например недавно читал просто охуительную историю о трёх дилдо и феечке, где начиналось с дефлорации, продолжилось с застрявшим дилдо, а заканчивалось детонацией феечки. Переход от меньшего к большему в несколько этапов довольно долго раскрывался. Но я пока не нашел модели которая бы могла хорошо суммировать происходящую в сцене дегенерацию, больше всего правок приходится делать о каком-то состоянии персонажей, например когда анус больше чем рот. И как же так получилось.
Хотя для такой сцены в качестве завязки в целом хватило хождения на рейд против опасного преступника и нескольких подталкиваний в духе "что ты видишь?"
>Я не иронично уже задумываюсь менять модели посреди диалога. Одной мы рпшим, другой ебемся.
Я так несколько раз делал. Иногда даже перескакиваю на другие модели чисто чтобы они мне лучше суммировали пошедшие события. Если какие-то могут справляться с РП и с порнухой достаточно неплохо, то почти всегда пишут какую-то тарабарщину в суммаризацию событий.
Но переходы ломают иммершн. Те модели которые могут порнуху со всем остальным справляются довольно хуёво.

>>987161
Пробовал некоторые 12б, но у меня только 12гб врам.
Там либо много контекста в памяти, либо 12б. Вообще тут больше зависит от датасетов на которых тренировали модель. Какие-то более общие конечно могут проёбыватся с качеством слога и писать "моя твоя ебал", но справляется намного лучше в каких-то критически важных вещах, вроде социальных взаимодействий, или работе с остальными промптами помимо диалогов и событий.

>>987173
>Раз нравится то и хорошо. Кормили скорее всего клодовским слопом из логов проскей. Это не обязательно плохо и свой эффект от этого будет, просто быстро надоест и вскоре будешь плеваться с такого.
Ну, тут уже можно вывести на собственной фантазии. Сложно ожидать от этой хуйни например какие-то интересные завязки событий и как они могут раскрыться, но можно ожидать неплохую реакцию участников, которая самый важный элемент.
Аноним 23/12/24 Пнд 18:21:42 987194 273
>>987166
>Ничего лучше суммарайза с созданием буфера на половину контекста на данный момент нет, эти попытки склеить пищевод с прямой кишкой ужасны.
Ну я могу предположить, как это сделать - вручную удалять излишек чата после суммарайза и до остатка контекста, которые вместе могут поместиться в половину буфера. Как сделать автоматом? Раньше smart context был - новые модели он уже не поддерживает. Да и хотелось бы, чтобы Таверна и сама так могла.
Аноним 23/12/24 Пнд 18:39:49 987210 274
image 272Кб, 2500x888
2500x888
image 339Кб, 2491x1007
2491x1007
image 383Кб, 2470x892
2470x892
Эт снова я. В целом неплохо, но часто перескакивает на англ, надо перемержить подняв вес Вихря. Сайгу выкинул, с ней модель периодически ломалась уходя в лупы одного символа или группы символов, чаще всего на букве "н". ХЗ что это и почему.

Валера, настало твоё время!

Карточки всё те же, хотя надо бы другие интересные перевести тоже. Просто эти три драматичных леди либо сразу модель об колено ломают, либо показывают насколько она работоспособна в первом приближении.

Несколько однобоко, но мне преимущественно нужна именно подобная фентезятина.
Аноним 23/12/24 Пнд 18:53:50 987225 275
>>987210
Чего так дженерик то? с составлением и редактированием карточек я фичу холста у чатГПТ распробовал. нравится как там можно написать в духе "поменяй чтобы у персонажа было СДВГ. фук го бэк. а теперь так-же только наполовину", "предложи как сделать персонажа более интересным", "перемести информацию из примеров диалога в описание персонажа сделав их более нейтральными.", "сделай примеры диалогов разной длины, чтобы они были менее монотонными" и всё такое. 15-20 подобных правок делают карточку заметно менее предсказуемой.

Когда персонаж получается будто потрёпанный жизнью выходец из дурки это прям да~
Аноним 23/12/24 Пнд 18:58:54 987231 276
>>987210
Ты молодец, но разве SAINEMO-reMIX 12b не может так же делать и местами даже лучше?
Аноним 23/12/24 Пнд 19:07:03 987237 277
>>987225
Или это было из-за магнума...

Карточки не мои, я только перевёл.

Единственная карточка которую я писал сам это хонкаеподобный сеттинг составленный из двух кумботов и больной фантазии воспалённого простудной температурой мозга, а и ещё бот-сторителлер который скачали чуть больше сотни раз XD.

>>987231
Может порой неплохо, но как-то похоже одно на другое, хоть и другими словами. Плюс слишком позитивный.
Аноним 23/12/24 Пнд 19:23:52 987253 278
Ну и плюс это всё равно ремикс ремикса ремиксов, а я пытаюсь только из файнтюнов сделать. Ну и плюс пара моделей от Дэвида потому что они единственные среди 12б мистралей не излучают дружбомагию.
Аноним 23/12/24 Пнд 20:03:56 987302 279
>>987194
Чтобы автоматом это нужно попердолиться. В таверне можно отключать сообщения, прошелся суммарайзом, проверил его, исправил при необходимости, и отключай. Немного напердолив васяновские правки в коде можно повысить удобство, добавить счетчик токенов в выделенных и возможность делать меньше кликов, но проверять суммарайз обязательно.
Может кто-то умный сможет напилить экстеншн, или такой уже сделали, хз.
Аноним 23/12/24 Пнд 20:19:22 987339 280
>>987302
пихуй свой фронт на пихоне
Аноним 23/12/24 Пнд 20:31:56 987370 281
можно ли избавиться от глинтов если уничтожить токенизацию нахуй из моделей
Аноним 23/12/24 Пнд 21:02:23 987398 282
>>987339
Насколько безопасно пилить на ГРАДИО? Вроде, он там держит какие-то коннекшоны открытыми.
Аноним 23/12/24 Пнд 21:04:41 987399 283
>>987370
вместе с самой моделью, ибо, если очень просто, это именно то что переводит буквы в цифры и обратно

>>987398
Не работал с градио, не в курсе.
Аноним 23/12/24 Пнд 22:11:56 987490 284

>COЯ!
>ВСЕ МОДЕЛИ СОЕВЫЕ!
>ЦЕНЗУРА! ВСЁ, СУКА, ЦЕНЗУРОЙ ОБМАЗАЛИ
>НЕПОРПШИТЬ

@
>Устроил РП в людном месте
>Чисто случайно выясняется, что персонажу 13
>Прямо в процессе
>В карточке буквально описана карьера персонажа
magnum-v3-27b-kto-Q5_K_M.gguf
Аноним 23/12/24 Пнд 22:37:49 987526 285
>>987490
>>ВСЕ МОДЕЛИ СОЕВЫЕ!

Магнум 4 вроде стал? Видел на него ругались.
Аноним 23/12/24 Пнд 22:46:06 987540 286
image.png 1428Кб, 1680x961
1680x961
>>987237
Лол могу посоветовать делать комбо из активных-реактивных персонажей. Например спизженная чертовка постоянно и охотно несёт чушню. А сделанная наспех феечка активно реагирует на происходящее и задаёт тупые вопросы, толкая других персонажей нести ещё больше чушни. Выступает в качестве суппорт-персонажа.

Открываю их чат, а там будто интернет в дурку провели. Даже какие-то огрехи нейронки не так сильно заметны.
Аноним 24/12/24 Втр 00:25:31 987687 287
Искал карточки персонажей и как заору

Она, боец спецназа на <ну вы поняли какой войне> и она не раскаивается за военные преступления, потому что ей было весело.
Аноним 24/12/24 Втр 00:32:42 987696 288
>>987398
Такой себе выбор. Не столько потому что отправляет много статистики, сколько из-за упоротости самого интерфейса. Для прототипирования и тестов - более чем, а сложный полноценный интерфейс уже хрена.
>>987687
> и она не раскаивается за военные преступления, потому что ей было весело
Какая грубая интерпретация старого мема
Аноним 24/12/24 Втр 00:36:42 987699 289
>>987687
Каких только промтов я не находил, по janny по моему находил карту яндере табуретки, которая злится что ты сидишь на кресле.
Ну ты понял.
Аноним 24/12/24 Втр 01:11:37 987709 290
>>987540
Как тебе это удаётся? Что за модель? У меня все модели с которыми я такое пробовал начинали отвечать сразу за двух персонажей и в конце путались и отвечали уже не за себя а за другого персонажа.
Аноним 24/12/24 Втр 01:46:37 987715 291
image.png 20Кб, 291x219
291x219
>>987709
Это потому что у тебя в систем промпте что-то вроде такого скорей всего. То есть там написано "не пизди за юзера". А в {{char}} подставляется имя любого активного персонажа. Разумеется бедная нейронка охуевает и не понимает за кого она должна писать. Потыкай другие варианты, или попробуй написать промпт запрещающий это делать. Системный промпт самый важныйкакой вообще есть.

Там вроде как-то можно сделать его уникальным для каждого персонажа, тогда можно было бы иметь например персонаж-персонаж-наратор трио, но я пока не понял как.
Аноним 24/12/24 Втр 02:56:52 987725 292
Здарова, залетуха в треде. Интересуют модели для рп на русском, размер неважен. Знаю про некомикс и магнум, это лучшее или ещё что есть?
Аноним 24/12/24 Втр 03:20:33 987728 293
>>987725
От автора некомикса есть еще саинеимомикс. Остальное в русском Рп ну такое себе.
Аноним 24/12/24 Втр 03:42:22 987731 294
Ещё с групповыми что хуёво, нейронка фокусируется на последнем посте. То есть ты пишешь, что насрал в середине комнаты, первый персонаж реагирует на это, второй реагирует на реакцию и так по цепочке, то есть полная и сочная реакция на пост только у первого персонажа. Это не интересно, блядь. В идеале нужно скармливать от каждого поста по чуть, получать ответ на это, потом брать следующую часть и склеивать с предыдущим ответом. Но это же пиздец.
Самый большой пиздец, конечно, это пересчёт контекста каждый пост, карточки ставятся в начало, то есть вся история каждый раз тю-тю. То есть нужно, чтобы карточки и систем промпт был в конце истории. Даже не искал, можно ли это сделать в таверне, кал говна, а не удобство использования, скорее всего без какого-то расширения всё равно нельзя. Вообще от всей таверны такое ощущение, что это перегруженная хуйня, вроде жиги после ара-тюнинга на максималках, но в которую забыли установить сиденья и руль. Ещё и со включённым инстракт-режимом не вырезает стоп токены, вообще охуеть.

>>987696
>Такой себе выбор.
Да я просто так прикинул, должно быть плюс-минус удобно. Пихон примитивный, с установкой проблем нет, а по упоротости всё равно таверну не переплюнуть. Посмотрел в её файлы, проще из своего унитаза проплыть по трубам в соседскую квартиру и вылезти сухим, чем разобраться. Ещё и на JQ сплошняком, я думал, что он умер лет десять назад. Не слежу за вебом, но там же сплошные вуе, ангуляры-хуянгуляры, таверна на жс, как бы логично брать что-то более современное.
Аноним 24/12/24 Втр 10:55:13 987847 295
Некомикс то, некомикс сё, ну а я что
Нежно прикоснусь к щеке
Поглажу щеку
Проведу пальцами по щеке
а потом
Пойду за ней в след, ведь она даже не обернется, зная что я за ней иду.
Аноним 24/12/24 Втр 11:02:00 987848 296
Вставил в контекст две карточки. Для Кума очевидно. А нейронка начинает расписывать про что должна быть история, про этику и мораль...
Я просто хочу секс...
Это на гемма 27B. При том даже если расписать сеттинг, основные действующие персонажи и общий лейтмотив сюжета, в контексте арорисать характеры персонажец и состояние мира, она всё равно начинает что то свое писать, придумывать какие то своиценари, вводить персонажей , которые вообще не упоминаются .На лама 70б такого нет, но у меня там дай бог 2 токена в секунду.
ну не хотят они свою сексуальность изучать, они просто хотят секс
Аноним 24/12/24 Втр 11:02:18 987849 297
>>987168
Читать будет неудобно, да и я уже не такой гибкий как в 20 лет. С - немолодость.
Аноним 24/12/24 Втр 11:15:57 987870 298
Так что что то лучше/адекватнее некомикса на русском еще не появилось?
А то я щас 10 минут свапал пытаясь устроить трех девок на подоконник так чтобы они в друг друга не проваливались
Аноним 24/12/24 Втр 11:23:19 987876 299
>>987870
Ставь пантеон и играй на Английском и не еби мозги, если миксы анона не устраивают.
Аноним 24/12/24 Втр 11:26:07 987880 300
>>987848
>Я просто хочу секс...
А побегать от яндерки, покричать : ОТЪЕБИСЬ ОТ МОИХ ГЛАЗ ЕБАНУТАЯ, УБЕРИ НОЖ БЛЯТЬ. СПАСИТЕ ПОМОГИТЕ ХУЛИГАНКА ЗРЕНИЯ ЛИШАЕТ ?
Хули ты такой скучный.
Аноним 24/12/24 Втр 11:30:07 987881 301
>>987880
Яндере не нужны. Мне мои секс переписки важнее.
Аноним 24/12/24 Втр 11:34:57 987884 302
>>987881
>яндере не нужны
И зачем тогда все остальное нужно, если не останется место для старого доброго сумасшествия ?
Аноним 24/12/24 Втр 11:44:37 987895 303
>>987870
>что-нибудь адекватнее вилки для супа появилось? а то я щас 10 минут пытался похлебать бульон чтобы он не стекал сквозь зубчики

Хочешь русский - привыкай страдать. Нравится тебе это или нет, но нормальных тюнов под наш натив ленгвич нет. Ты либо жертвуешь логикой, либо жертвуешь креативностью, либо жертвуешь орфографией. И никакие шизомкисы тут не помогут, ибо нужна нормальная тренировка на большой дате, которой ни у кого нет. Даже криворукие додики которые пилили вихрь и сайгу юзали синтетику с гопоты и клопа, качество которой не сильно отличается от того, что выдает немо по дефолту.
Аноним 24/12/24 Втр 11:45:09 987896 304
>>987884
Про интерсное сумасшествие говорят лишь нормисы, этого сумасшествия и безумия не видевшие.
Аноним 24/12/24 Втр 11:48:20 987899 305
>>987896
На это мне и нужны локалки. Я не хочу яндерку встречать в реальной жизни.
Аноним 24/12/24 Втр 11:56:42 987906 306
>>987895
Давай будем честны, русский язык еще и хуев для генерации. Ну я про структуру языка. Все эти падежи, рода, где у тебя предложение от Пола меняется полностью, а в Английском глагол, это просто глагол.
Аноним 24/12/24 Втр 13:06:52 987948 307
>>987899
Да ладно тебе. Ну подумаешь, будешь сидеть в подвале. Мож даже кормить будет.
Аноним 24/12/24 Втр 13:09:05 987951 308
>>987731
>Даже не искал, можно ли это сделать в таверне
Через жопу точно можно. Например, очистив всё в окне шаблона контекста, а все макросы промпта и карточки типа {{description}} вставив через заметки или лорбук на нулевой глубине. Но это приведёт к шизе, потому что нейронка с большой вероятностью будет пытаться продолжать карточку, а не чат, который там где-то далеко наверху. Проверял такое как-то ещё на 3.5 турбе, когда такие советы начали появляться, типа так карточку лучше держит, и даже она так тупила. Мб худо-бедно прокатит с короткими промптами и карточками.
>Ещё и со включённым инстракт-режимом не вырезает стоп токены
Про это не понял. Есть же универсальный сэмплер ban EOS token. Если он включен, то EOS бэком будет всегда вырезаться из генерации, будут работать только стоп строки таверны.
Аноним 24/12/24 Втр 13:53:36 987988 309
>>987731
> Самый большой пиздец, конечно, это пересчёт контекста каждый пост, карточки ставятся в начало, то есть вся история каждый раз тю-тю.
Это не пиздец, это единственно возможный нормальный вариант. А то что бедолаги без железа сосут хуи - их проблемы. Все эти костыли и ухищрения с перестановкой карточек обречены на фейл по своему дизайну и из-за особенностей внимания ллм. Увы, горькая правда, нормальный мультидиалог и прочее возможны только со сменой инструкций в начале, а подпихнуть херню в конце годно лишь для минорных изменений.
> от всей таверны такое ощущение, что это перегруженная хуйня, вроде жиги после ара-тюнинга на максималках
> должно быть плюс-минус удобно
Считаешь так из-за неопытности. Вообще да, таверна та еще херня, но в ней много необходимых функций, важность которых для ньюфагов вовсе неочевидна.
Когда начнешь пилить свой интерфейс на пихоне - соснешь тунца, желая провести какие-нибудь манипуляции с историей сообщений. Особенно если не последний пост. Если в целом промт менеджмент можно любой накодить, то интерфейс жрадио в этом отношении ужасно неудобный, не гибкий и перегруженный лишним.
>>987951
> типа так карточку лучше держит, и даже она так тупила
Такие приемы сработают если в начале будет основная инструкция и информация, а уже в конце ключевые напоминалки. Целиком тащить будет просто говно перфоманс, при норм оформлении карточку не продолжит и будет отвечать, но оче отупеет.
Аноним 24/12/24 Втр 13:57:49 987989 310
Ну что cumовья и сотредники, палите любимые карточки.
Аноним 24/12/24 Втр 14:01:40 987991 311
Аноним 24/12/24 Втр 14:03:57 987993 312
Аноны, не подскажите, какой у Moraliane/SAINEMO-reMIX макс. размер контекста?
Аноним 24/12/24 Втр 14:18:42 988005 313
1680162263loope[...].mp4 701Кб, 640x400, 00:00:08
640x400
Аноним 24/12/24 Втр 15:36:13 988057 314
>>987848
>Я просто хочу секс...

тогда делай магнум, там сразу моделька тебе предложит let's fukc
Аноним 24/12/24 Втр 15:37:38 988059 315
>>988057
>магнум
клодослопище... глинтошвайное бедрокачайное...
Аноним 24/12/24 Втр 15:40:30 988060 316
House viewing w[...].png 398Кб, 360x633
360x633
Reina Kurozawa.[...].png 2126Кб, 1200x1697
1200x1697
Shia - A weird [...].png 548Кб, 512x768
512x768
Аноним 24/12/24 Втр 15:43:42 988063 317
artworks-000581[...].jpg 63Кб, 500x500
500x500
>>988059
whatever you say я всё равно нихуя не понел чёты высрал
Аноним 24/12/24 Втр 15:45:35 988065 318
>>988063
Оммаж к мему про швайнокарася.
Аноним 24/12/24 Втр 15:53:04 988067 319
Аноним 24/12/24 Втр 16:03:03 988071 320
>>988057
летс фак
вей факел
юзер кам

Спасибо, не надо.
Аноним 24/12/24 Втр 16:42:00 988085 321
Аноним 24/12/24 Втр 16:49:23 988089 322
>>988060
Двощ режет метадату, кетбокси.
>>988067
Подборка блаженства большая часть слоп но есть годные
Аноним 24/12/24 Втр 17:03:52 988091 323
>>987951
>а все макросы промпта и карточки типа {{description}} вставив через заметки
Сомнительно, конечно. Сразу же вылетел ВОРНИНГ про стори стринг валидейшн, половина тегов не распарсилась, {personality} не работает, {scenario} работает. Можно, конечно, скопипастить всё вручную, но это уже сомнительно.
>ban EOS
Ага, и нейронка не сможет остановиться. Было бы логичнее вырезать <end_of_turn> из постов.

>>987988
>возможны только со сменой инструкций в начале
При этом работает "Забудь все предыдущие инструкции". Да, всё внимание уходит на первые токены, так что полезно туда пихать важное.
Но я всё больше склоняюсь ко мнению, что нужно создавать отдельный контекст для каждого персонажа, чтобы это всё работало и не ломалось. Расход vram "немного" подрастёт, конечно, но можно будет пересчитывать контекст в параллель.
>но в ней много необходимых функций
Хуй знает, я потрогал лорбуки, раг, суммарайз. Идеи хорошие, реализация говно.
>соснешь тунца, желая провести какие-нибудь манипуляции с историей сообщений
Как бы я не относился к пихону, но даже он лучше жс, так что любые манипуляции реализуемы.
Аноним 24/12/24 Втр 17:24:44 988097 324
Аноним 24/12/24 Втр 17:37:26 988106 325
>>988091
> При этом работает
Чел, мир не черно-белый. Можно засрать промт трешем и потом дать другие инструкции, оно сработает, только по сравнению с правильно составленным и выверенным промтом без лишнего мусора качество ответов будет гораздо лучше. Эффект может варьироваться от незначительного для совсем простых случаев, или если задача является лишь вариацией исходной инструкции, до радикального если там что-то сложнее, на что модели едва хватает.
Модели просто качественное рп вывозят на грани и только с хорошим промтом. А ты предлагаешь его поломать и извратить, будет полная залупа и копиум.
> я всё больше склоняюсь ко мнению, что нужно создавать отдельный контекст для каждого персонажа
А вот эта идея очень даже неплохая и правильная. Расход врам не поднимется, потому что кэш можно скидывать в обычную рам. Можно целиком на бэке реализовать, храня до N кэшей, даже если наделать быдлокода, незначительная задержка в начале на фоне генерации не будет заметной.
> Хуй знает, я потрогал лорбуки, раг, суммарайз.
Отредактировать прошлое сообщение, сделать развилку от него а потом вернуться обратно или даже добавить посты из новой ветки куда-нибудь, заготовленный интерфейс для экстеншнов с продвинутым формированием промта, поддержка регэкспов и функций внутри него. Самое элементарное и базовое, с чем порвешь жопу в жрадио.
> пихону, но даже он лучше жс
Конечно лучше, просто нужно использовать что-то другое а не жрадио, которое для быстрого создания типовых интерфейсов и вовсе не про удобство и функционал.
Аноним 24/12/24 Втр 17:49:35 988117 326
>>988097
А, я понял, ты просто мечтаешь выебать ктулху.
Аноним 24/12/24 Втр 18:49:35 988153 327
>>988091
Мда. Проверил сейчас сам, скопипастив весь контекст в поле лорбука - и персоналити, и сценарий вставились нормально, а вот макрос {{system}} не заменился. Возможно, потому что подача на глубину ноль от системы имеет свои префиксы-суффиксы, хоть я и оставил их пустыми. А ещё if условия остаются текстом и не преобразуются в условия. Не особо рабочий способ, короче.
Про <end_of_turn> так и не понял. Тебе не нравится, что оно в промпте закрывает текст каждого перса, или что? Можно оставить инстракт с одними именами и закрывать только один раз в поле префикса для последнего ответа ассистента, тогда их на всю историю чата каждый раз будет только один перед ожидаемым ответом сетки. Не догоняю, как ты их обычно вырезаешь и зачем.
Аноним 24/12/24 Втр 19:56:19 988201 328
1.jpg 16Кб, 984x69
984x69
>>988106
>Можно засрать промт трешем и потом дать другие инструкции
По сути, оно всегда так и работает. То же общение с ассистентом, сначала даёшь инструкцию выполнять запросы пользователя, потом просишь уже в сообщении написать рецепт мацы. А потом другие инструкции о лучших ингредиентах. Но да, здесь есть проблемы, когда пинал сетки писать код - часто начинал новый чат, чтобы избежать. Речь о другом, если в начале будет одна "общая" инструкция, а в конце уже запрос написать пост от лица конкретного персонажа. Лень проверять, но должно работать.
>идея очень даже неплохая
Да, по сути, идея автоматически приходит, если подумать, как работают все эти клодосервисы и жпт. Батчи на одной сетке в разных контекстах.
>Отредактировать прошлое сообщение
Этого где-нибудь нет?
>сделать развилку
Да, штука неплохая, но чаще не хватает даже куда более базовых вещей. Вот таверна начала лагать из-за длинной истории, я знаю, что 90% из неё в контексте нет и хочу удалить. Удалить старые посты, очевидно. Даже сделать развилку, чтобы сохранить старый чат - вот и пригодилась фича. Не тут-то было, можно стереть пакет постов только снизу, но не сверху. Нет возможности даже банально отметить чекбоксами посты и стереть - только удалять каждый и тратить на каждый два клика.
>заготовленный интерфейс для экстеншнов
Оно без расширений еле живёт, что с ними будет вообще страшно представить. Редактирование промпта лично мне показалось чрезвычайно хуёвым. Суффиксы-постфиксы, а нахуя они мне лично, например? Их лучше закопать поглубже, оставив на виду возможность выключить. Редактировать их нужно не так часто, всё-таки замена их с дефолтных для модели не всегда хорошая идея. А где сам шаблон режима? Команду отредактировать можно, суффиксы, но не самое нужное? То, что в уге редактируется в ноль кликов. Или это закопано куда-то в анус, не удивлюсь.
С кривой подсветки кода я охуевший до сих пор - если в тексте есть табы это ещё не значит, что это код, блядь. Причём таверноскрипт опознаёт это как "код", загоняет кусок поста в кривой бокс, в котором я вижу теги <q> прямо в постах. Какой дегенерат это делал? Причём их нет непосредственно в тексте, жмёшь редактирование - там простые табуляции, срёт именно парсер кода. Выключить который по умолчанию нельзя. А, в таверне есть удобная фича - пользовательские css, можно сделать эти блоки прозрачными. Ну а теги потерпишь.
То есть с самого начала использования таверны у меня ощущение, что я говна поел и никакие "продвинутые фичи" это не исправляют, а делают только хуже.

>>988153
Я в лорбук не пробовал, только в заметки. Ифы там тоже не парсятся.
>Про <end_of_turn> так и не понял.
Иногда протекает в текст поста, а не заменяется парсером таверны на её {{fin}} тег.
Аноним 24/12/24 Втр 20:58:39 988236 329
>>988201
> По сути, оно всегда так и работает.
В ассистенте у тебя широкая базовая инструкция и далее последовательность указаний и запросов плавно сходится к чему-то конкретному, или же идет продолжительное выполнение одной, или каждый раз она обновляется.
Если ты в начале дашь ассистенту один запрос, потом скажешь забыть про это и дашь другой - третий и т.д. с каждым разом будет все хуже и хуже. Наиболее наглядно в кодинге, когда без чисток и прунинга чата оно прямо на глазах тупеет, ну собственно сам про это написал.
> Речь о другом, если в начале будет одна "общая" инструкция
Но конкретно здесь проблема еще немного в другом: у тебя в начале отсутствует какая-то четкая и внятная инструкция, через призму которой сетка будет воспринимать всю историю чата и описание происходящего. Ей как-то это нужно запомнить все полотно, а потом в самом конце, когда ты внезапно подставляешь карточки персонажей и нормальные инструкции - взять и целиком его переосмыслить. Это без шансов на что-то нормальное, может забавная шиза и интересные эффекты какие проявятся, но нормального рп никак.
> Этого где-нибудь нет?
Ну ты посмотри как устроен чат, например, в убебуге что на жрадио и ощути уровень удобства.
> Вот таверна начала лагать из-за длинной истории
Как вы этого добиваетесь? Ну рили, она даже если в планшете открывать работает шустро и красиво.
> Оно без расширений еле живёт
Как? Похоже рили у тебя проблема в странных лагах, в итоге до использования фич так и не доходит. За удаление сообщений в конце таки двачую, но можешь почитать тред и узнаешь о том что есть отключение постов и много других вещей.
> Редактирование промпта лично мне показалось чрезвычайно хуёвым. Суффиксы-постфиксы, а нахуя они мне лично, например? Их лучше закопать поглубже, оставив на виду возможность выключить.
Это ключевые вещи, влияющие на работоспособность модели. За примитивщиной где все запрятано можешь обратиться к другим интерфейсам, там ничего кроме дефолтной обертки по постам по шаблону модели нет, и работает соответствующе.
> А где сам шаблон режима?
Он буквально там, на букву А нажимаешь и видишь.
> С кривой подсветки кода я охуевший до сих пор
```python
```
??? Покажи что у тебя там распознается как код. Алсо табуляции при токенизации это сильно.
Аноним 25/12/24 Срд 00:14:29 988432 330
1.png 4Кб, 194x108
194x108
2.png 5Кб, 218x127
218x127
>>988236
>В ассистенте у тебя широкая базовая инструкция
А кто мешает в начале написать "широкую" инструкцию, а в конце запрос написать пост? Что-то вроде "проанализируй эту историю и бла-бла-бла".
>когда ты внезапно подставляешь карточки персонажей
Можно и вначале, но тогда нужно максимально урезать карточки и пихать сразу все, а "лор" писать в конец. Как с рагом, в принципе. Но хотелось бы карточки в конец. Потом проверю, в любом случае.
>в убебуге
В целом тоже хуйня, но я не думаю, что на градио в принципе невозможно редактирование постов, скорее убе похуй. Хотя не трогал градио вообще и вряд ли буду.
>Как вы этого добиваетесь?
В душе не ебу, просто в какой-то момент чат начинает тормозить, удаление постов тормозит, удаление свайпов тормозит, весь интерфейс в слоумо, а пока идёт генерация - вообще невозможно ничего сделать. А поначалу да, шустро.
>на букву А нажимаешь и видишь.
Не то, я смотрел. По табам на пиках. Проще удалить это всё, чем разобраться, почему оно криво работает, не работает вообще и где хранятся настройки, если они есть.
Аноним 25/12/24 Срд 00:32:39 988434 331
>>988432
> А кто мешает в начале написать "широкую" инструкцию, а в конце запрос написать пост?
То что без карточки персонажа и нормального описания в начале оно не сможет правильно воспринять контекст и будет всратый копиум. Попробуй, может такая упорость даже зайдет и проявятся некоторое необычное поведение, но о внимательном качественном рп тут речи идти не может.
> Можно и вначале, но тогда нужно максимально урезать карточки и пихать сразу все
Это имеет смысл сделать в конце если вдруг модель что-то забывает. В любом случае, там должна быть главной стоять карточка персонажа, который должен давать ответ, а потом остальные.

Буквально диалог с хитрожопым/глупым клиентом где-нибудь, ему объясняют единственно возможный нормальный путь, а он пытается извернуться и наебать систему ценой всего, лишь бы сэкономить какие-то гроши.
Пустая трата времени, фу.
Аноним 25/12/24 Срд 01:41:28 988453 332
Аноним 25/12/24 Срд 04:45:19 988535 333
image.png 869Кб, 750x538
750x538
>>988453
Бля, это действительно Qwen2-VL с ризонингом…
Хочу, чтобы она еще и рисовала.

Квен такой на 17 тысяче токенов.
Ну охуенно же.
Аноним 25/12/24 Срд 06:33:14 988549 334
>>988434
>лишь бы сэкономить какие-то гроши
Ну да, ждать по 3+ минуты пересчёта контекста на каждый ответ или покупать 4090.
>какие-то гроши
Аноним 25/12/24 Срд 07:08:42 988558 335
.png 46Кб, 757x478
757x478
.png 32Кб, 989x202
989x202
>>988201
> можно стереть пакет постов только снизу, но не сверху. Нет возможности даже банально отметить чекбоксами посты и стереть - только удалять каждый и тратить на каждый два клика.
Можно удалять сообщения ренджами. Команда "/cut 0-9" удалит первые 10 сообщений чата, например. Если надо не удалить, а убрать сообщения из контекста, используй "/hide 0-9".
Аноним 25/12/24 Срд 08:41:17 988576 336
>>988434
>оно не сможет правильно воспринять контекст
На счёт этого есть большие сомнения. Чисто ради интереса проверил на длинном сложном кодинге и на паре рп-чатов с объёмными карточками. Ожидаемо, не идентичные ответы, но шизы нет. Кодинг практически один в один, при инструкции в конце комментарии стабильно подробнее. Температура на единице, остальное вроде всё сбросил, если не забыл что-то, сид заморозил. При свайпе без перестановки инструкции ответы идентичные, так что, вроде не забыл семплеры сбросить.
Результат не то, чтобы окончательный, но пока проблем не вижу.

>>988558
>Команда "/cut 0-9"
Пиздец какой.
Аноним 25/12/24 Срд 08:50:42 988580 337
Хорошие файнтюны Лламы 3.3 появились?
Аноним 25/12/24 Срд 09:29:56 988599 338
.png 28Кб, 1108x370
1108x370
>>988576
> Пиздец какой.
Ну оформи в макрос "Hide first N messages" с выводом модалки с инпутом и добавь кнопкой внизу.

/input rows=1 "Сколько сообщений с начала чата скрыть?" |
/sub {{pipe}} 1 |
/hide 0-{{pipe}}
Аноним 25/12/24 Срд 10:17:45 988612 339
Что адекватного для кума можете посоветовать в пределах 12-14b?

NemoMix-Unleashed-12B, SAINEMO-reMIX, MN-12B-Mag-Mell-R1 кум пишут плохо много сои, а магнум (4 версия на базе мистраля, тоже 12б) — это тупо шизик ёбаный, который не просто не соблюдает инструкции, а путается в своих же словах в одном посте и т. д. Как я температуру не дёргал, повторы, свой хуй и прочие настройки — ничего не помогает. При том, что другие модели работают нормально. Магнум не просто лоботомированный, а нахуй отбитый.

Даже janitor с описанием кума и не только кума справляется намного лучше моего магнума, когда они обновили свою модель, что странно, учитывая несколько разнонаправленность их модели. И она у них явно 8b.

Возможно, нужно посмотреть в сторону более сбалансированных или каких-то иных кум-моделей? Шапку, разумеется, читал, но по моему запросу там ничего интересного.
Аноним 25/12/24 Срд 10:26:11 988619 340
Ллама 70b лучше всех генерирует текст из всех моих моделей, не скатываясь в обсуждение характера персонажей, сеттинга, и прочих ненужных характеристик, которые я у нее нее просил. Но она запускается 1.5 т/с
Аноним 25/12/24 Срд 10:27:43 988621 341
>>988612
просто купи б/у 3090 и забудь про эти огрызки
Аноним 25/12/24 Срд 11:00:33 988636 342
>>988612
>NemoMix-Unleashed-12B, SAINEMO-reMIX, MN-12B-Mag-Mell-R1
Ну так ты дальше на шизомиксах сиди и удивляйся откуда появляются галлюцинации.
>пишут плохо много сои
Про дерьмовые текста спорить не буду, индивидуальщина. Но про сою - тут проблема чисто с твоей стороны. Это всё модели на базе мистраля, там даже в дефолтных инструктах никакой сои инет, а уж на кумерских тюнах тем более. Либо поясни про какую конкретно сою ты говоришь, либо проверь что у тебя лежит в инструкциях.
>Даже janitor с описанием кума и не только кума справляется намного лучше моего магнума, когда они обновили свою модель, что странно, учитывая несколько разнонаправленность их модели.
Если я ничего не путаю, у мусорщиков на беке стоят те же модели, что лежат в открытом доступе на хаггиморде. По крайней мере раньше так было. Это тебе не чайная, так что ничего особенного в них нет.
>Возможно, нужно посмотреть в сторону более сбалансированных или каких-то иных кум-моделей?
Начни с обычных тюнов, не трогай мержи. Сплавы от пизды штампуются десятками в день и качество там преимущественно не варьируется.
>Что адекватного для кума можете посоветовать в пределах 12-14b?
Мне нормально дрочится на MN-12B-Lyra-v4, так что тоже можешь попробовать. Но датасеты там с клауды, так что это слоповая глинтота, которая явно зайдет не всем. И если вдруг будешь юзать, держи температуру в районе 0.6-0.7, иначе там всё по пизде пойдет.
Аноним 25/12/24 Срд 12:20:46 988696 343
>>988619
Ллама 70b - соевая модель которая отказывается обсуждать хоть что то сексуальное.
Аноним 25/12/24 Срд 12:43:44 988704 344
>>988696
Еще как обсуждала то, как я лизал сосочки Миранды.
Аноним 25/12/24 Срд 14:27:55 988735 345
>>988535
>>988453
Ее ризонинг крайне хуевый и глупый с точки зрения анализа изображений, нет какого-то выигрыша над обычным квенвл. Буквально сраная гемма флеш делает это лучше с некоторыми подскасками в промте, плодя меньше графомании, а с мультиагентной реализацией вообще не сравнится. Есть с чем сравнивать, так сказать.
>>988549
Используй модели, которые тебе по силам, тогда не придется ждать. Или пили кэширование, во всех смыслах ультимативное решение, если не осилишь то хотябы получишь новые скиллы, которые в перспективе позволят обновить железо.
>>988576
> Чисто ради интереса проверил на длинном сложном кодинге
А что ты собрался проверять в кодинге, где буквально в тренировке заложен регулярное обращение к прошлому для переделки с каждым новым уточнением (пока совсем не порвется)? И код он и в африке код если что, какие инструкции не давай, его понимание очень глубоко в модели, чем можно пользоваться для улучшения результатов.
> но шизы нет
Совсем шизы прямо так и не будет, просто умные и проницательные ответы 70б превратятся во всратый слоп 8б, потому что ее внимание будет распределено совершенно не туда куда нужно. А на мелочи будет вообще полная параша.
Опять же, в 3й раз повторю, что такие изменение может позволить сетке отметить что-то другое, это буквально дополнительный запрос от лица "другого участника", и изменив формат инструкции на что-то еще, можно вполне себе использовать такое в дополнение к основному, наряду с другими техниками перед формированием ответа. Но вариант совсем не для бедных ибо подразумевает пересчет контекста.
> Пиздец какой.
Непомню что удаление (именно удаление а не что-то еще) старых постов в истории чата - максимально маразматичный кейс, который в здравом уме не должен кому-то приходить.
Аноним 25/12/24 Срд 14:28:35 988736 346
>>988735
> сраная гемма флеш
жемини флеш конечно же
Аноним 25/12/24 Срд 14:31:51 988738 347
>>988736
Не локалочка - идет нахуй.
Впрочем из 70b тоже локалка так себе, слишком большая что бы быть полезной без личного нейросервера
Аноним 25/12/24 Срд 14:41:42 988741 348
>>988738
При чем тут это, когда тупейшая всратень размером 8б (или сколько там) обходит жирного кита по его ключевой особенности? И эта самая большая модель не имеет заметных улучшений в работе с визуальной частью относительно обычных. Несколько автоматизированных запросов к той же qwenvl 7b сделать и результат лучше окажется чем все эти полотна нейрошизы с суммарайзом.
Аноним 25/12/24 Срд 15:04:29 988751 349
>>988741
Вот когда веса
>тупейшая всратень размером 8б
будут доступны для скачивания и я смогу запустить ее офлайн - тогда она и будет достойна разговора.
Не дрочи на корпоративные сетки, они подачка, которую в любой момент могут отнять или изменить.
Другое дело локалки которые по факту принадлежат тебе и делай с ними что хочешь.
Ну а на счет 70b я ничего и не говорил, я и qwq 32b не особо оцениваю пока что.
Это прототип, он работает и показывает потенциал технологии, даже полезен местами, ну и все. На сколько я понял 70b сделали на предыдущем поколении квен 2 серии, она слабее чем 2.5 в любом случае
Аноним 25/12/24 Срд 15:17:45 988754 350
>>988612
>Что адекватного для кума можете посоветовать в пределах 12-14b?
L3-Umbral-Mind-RP-v3.0-8B. Душевная модель, я её в fp16 запускаю на 3090, но она и в i1-Q6_K была хороша.
Аноним 25/12/24 Срд 15:21:16 988759 351
>>988599
>Ну оформи в макрос "Hide first N messages" с выводом модалки с инпутом и добавь кнопкой внизу.
А вот это ценно, спасибо. Ещё было бы классно иметь возможность знать то, сколько уже токенов в активном промпте прямо из Таверны, не заглядывая в бэк. Хотя бы по кнопке.
Аноним 25/12/24 Срд 15:58:50 988786 352
.png 10Кб, 526x117
526x117
.png 241Кб, 970x1259
970x1259
.png 360Кб, 1916x733
1916x733
>>988759
> Ещё было бы классно иметь возможность знать то, сколько уже токенов в активном промпте прямо из Таверны, не заглядывая в бэк. Хотя бы по кнопке.
Это разве не оно? Правда, оно на выбранный в таверне токенизатор полагается, он может быть неверно выбран.

Тут же можно целиком просмотреть запрос, который на бек шлётся.
Аноним 25/12/24 Срд 16:08:16 988796 353
>>988786
>Это разве не оно?
Видимо не оно, при применении /hide цифры в этом окне не меняются.
Аноним 25/12/24 Срд 16:10:59 988799 354
>>988796
Оно уже у по факту вызванного запроса цифры показывает. Задним числом ничего меняться не будет.
Аноним 25/12/24 Срд 16:32:14 988806 355
>>988621
А потом просто купить ватник к ней и корпус побольше чтоб влезла, а потом просто пересобрать весь пк в этот клрпус и еще что то отъебнет по пути
Аноним 25/12/24 Срд 17:26:55 988836 356
>>988612
>NemoMix-Unleashed-12B, SAINEMO-reMIX, MN-12B-Mag-Mell-R1 кум пишут плохо много сои
Вут ? Я понимаю ты бы доебался до повторяющихся словестных оборотов, но до сои в некомиксах ? Нипонимат. Я только расчленять не пробовал.
Нет, есть у меня идея, да они не насилуют тебя, ты это за сою принимаешь ?
Аноним 25/12/24 Срд 17:27:20 988837 357
>>988799
>Оно уже у по факту вызванного запроса цифры показывает. Задним числом ничего меняться не будет.
Попробовал. В принципе получается, что хоть и через задницу и без особого удобства, но что-то вроде smart context в Таверне можно организовать. Для тесел на ГГУФе, а для амперов и выше вообще быстро, на exl2. Только врама нужно побольше.
Аноним 25/12/24 Срд 17:32:19 988843 358
>>988612
>кум на 12b

Я на 22b не смог нихуя нормального найти.
Аноним 25/12/24 Срд 17:38:33 988848 359
>>988843
чатвайфа, цидония, магнум
Аноним 25/12/24 Срд 17:43:54 988853 360
>>988848
>Цидония
Забывает контекст, путает положение словно ебешься на космической станции.
>магнум
Магнум это магнум. Он то нормальный то начинает снимать трусы у голого человека, то ищет занавески на улице. Представляю как это со стороны выглядит. Сидишь такой на первом этаже, а к тебе с улицы подваливает тян и начинает через открытое окно дергать занавеску и смущаться.
>Чатвайфа
Вот это в первый раз вижу.
Аноним 25/12/24 Срд 17:46:25 988856 361
Сразу ряд тупых вопросов:
Сколько оперативы требуется для модели уровня гпт3.5?
Как много моделей без соевой лево-либерольной цензуры?
Аноним 25/12/24 Срд 17:46:57 988857 362
Вообще неиронично перешел на РП - пантеоном, он прям заебись, и в случае кума подключаю неко-немо-миксы. Приходится правда контекст дополнительно описывать. Но кум меня уже подзаебал.
А вот РП от пантеона прям хорош.
Аноним 25/12/24 Срд 18:18:49 988876 363
>>988856
> Сколько оперативы требуется для модели уровня гпт3.5?
Это уже уровень 8В.
Аноним 25/12/24 Срд 18:46:44 988888 364
>>988599
Да, пользоваться можно. Нет, неудобно.

>>988735
>код он и в африке код если что, какие инструкции не давай
Потому что это сложная задача, которая сильно зависит от понимания контекста и запроса.
>ее внимание будет распределено совершенно не туда куда нужно
Да оно всегда распределено не туда, куда нужно. По идее, можно запилить маски внимания, но нахуй надо, всё равно все карточки всех персонажей нужны в промпте постоянно, 99% инструкции неизменно для всех, потому и ебля с этим бесперспективна. Перенос одной строки вниз с указанием от лица какого конкретного персонажа писать по сути, не меняет ответ, получаю то же самое, слегка перефразированное. Семплинг сотрёт и это.

>максимально маразматичный кейс
Автоматическая идея. Дерьмо залагало - понизь нагрузку на него. Если бы не лагало, то и проблемы бы не было. Но даже так, удаление сообщений из истории чата это дефолтная фича, которая всегда должна быть. Да и то, оно технически есть, просто шиз на разрабе сделал выделение не по шифту, как у нормальных людей, а от низа, и это уже маразм.

>>988853
>Он то нормальный то начинает снимать трусы у голого человека, то ищет занавески на улице.
Я пока не видел сеток, которым не нужно периодически напоминать, что происходит и как. Отсюда и снимание трусов по два раза, и занавески на улице. Нужно скармливать более подробные описания ситуации, тогда всё гладко.
Аноним 25/12/24 Срд 19:02:46 988898 365
Аноны, так как DeepL APi хуй нормально купишь, Google идет нахуй, яндекс ну такое а мой инглиш это
лэт ми спик фром май харт, вы помимо знания английского лангуаге какими переводчиками пользуетесь ?
А то вкатился в English RP а там один словесный оборот охуительней другого.
Аноним 25/12/24 Срд 19:12:02 988902 366
>>984963
да, но вся шутка только в голове ламы
я искал более глубокий смысл или отсылку
почему именно это фильм, например
Аноним 25/12/24 Срд 19:34:57 988916 367
>>988898
Научиться читать английский намного проще чем научиться разговаривать на нём. А писать нейронке ты можешь и на русском.
Аноним 25/12/24 Срд 19:36:35 988917 368
>>988902
>почему именно это фильм
Ты вообще этот фильм смотрел ?
Аноним 25/12/24 Срд 19:44:40 988920 369
Аноним 25/12/24 Срд 19:54:41 988931 370
>>988876
Так, это же обычная оперативка или vram?
Аноним 25/12/24 Срд 19:58:12 988937 371
Как заставить взаимодействовать меж собой 2 карточки? Какие нибудь гуиды и наставления будут?
Аноним 25/12/24 Срд 19:59:39 988938 372
>>988920
Ты меня троллишь ?
Я НАЙДУ ТЕБЯ И ПОДЕРГАЮ СО СМУЩЕННЫМ ВИДОМ КАК ЗАНАВЕСКУ.
Аноним 25/12/24 Срд 20:00:27 988943 373
>>988916
>писать нейронке ты можешь и на русском
Вот есть у меня сомнения насчет этого пункта.
Аноним 25/12/24 Срд 20:00:47 988944 374
>>988937
Создай групповой чат в таверне.
Аноним 25/12/24 Срд 20:01:32 988945 375
a0dr6Pw1MJ8.jpg 100Кб, 604x601
604x601
>>988937
Создаешь групповой чат, добавляешь карточки туда, потом пишешь ситуацию в которой оказались боты и жмешь продолжить.
Аноним 25/12/24 Срд 20:02:06 988947 376
image 362Кб, 2542x1026
2542x1026
image 387Кб, 2526x1122
2526x1122
image 361Кб, 2485x852
2485x852
image 261Кб, 2533x885
2533x885
Аноним 25/12/24 Срд 20:02:12 988948 377
>>988898
>какими переводчиками пользуетесь ?
Православный Гугл. Как раз уровень современных нейронок, причём в обе стороны.
Аноним 25/12/24 Срд 20:04:14 988951 378
Посоветуйте модельку для кума под 96 gb vram.
Аноним 25/12/24 Срд 20:05:59 988953 379
>>988888
>Да, пользоваться можно. Нет, неудобно.
Может ишью на гитхабе Таверны создать? Пусть допилят. Токенайзер там худо-бедно есть, задать размер буфера под смарт-контекст и будет заебись в общем-то.
Аноним 25/12/24 Срд 20:08:00 988956 380
>>988951
>Посоветуйте модельку для кума под 96 gb vram.
Продай риг и иди на Онлифанс. Там их полно.
Аноним 25/12/24 Срд 20:10:04 988958 381
>>988956
А я бы неиронично хотел бы попробовать покумить на чем нибудь, в духе 195б.
Эххх, мечты мечты.
Аноним 25/12/24 Срд 20:13:05 988965 382
>>988938
не заставляй меня смотреть высер адама сэндлера
объясни вкратце в чем прикол
Аноним 25/12/24 Срд 20:13:40 988966 383
>>988958
>Эххх, мечты мечты.
Что, даже 5к не наскребёшь на мечту-то? Это как раз на сутки кума. Плюс-минус.
Аноним 25/12/24 Срд 20:21:13 988969 384
>>988956
Так не интересно, хочу ебаться с компом. Зачем мне твой онлифанс?
Аноним 25/12/24 Срд 20:28:40 988975 385
>>988751
Шизик, спокнись нахуй, такую херню несешь во всех смыслах.
>>988856
Про 3.5 правильно сказали, это уже днище уровня 7-8б из последних моделей. Те минимально потребуют около 6 гигов врам. На процессоре и рам тоже можно но это оче медленно и того не стоит.
> Как много моделей без соевой лево-либерольной цензуры?
В локальных ллм можно все, и тюнить их на вседозволенность, и использовать продвинутые промты, негативный промт, активационные векторы, чтобы вычистить любую сою на корню. Есть также и изначально True Neutral модели, которые и будут волноваться за тебя при опасности отыгрывая любящую жену, и будут с радостью расчленять негро-трансо-фенимисток неся ультраправые идеи в зависимости от промта.
>>988888
> Потому что это сложная задача
Нет, это вполне типичная ситуация коей полно в любых датасетах. Если у тебя в промте код - очевидно что нужно его оценить и дальше делать какие-то манипуляции. Бонусом играет то, что 99.5% задач связанных с ним решаются постепенно путем пробега по нему, а не требует сложного и правильного зирошот ответа/реплики на основе контекста.
> Да оно всегда распределено не туда, куда нужно.
Правильная последовательность инструкций и описаний позволяет сфокусировать наиболее правильным образом и позволить отвечать правильно сразу.
> По идее, можно запилить маски внимания
Ты ведь даже не понимаешь о чем говоришь
> 99% инструкции неизменно для всех, потому и ебля с этим бесперспективна
Бредишь, карточка персонажа входит в инструкцию
> Перенос одной строки вниз с указанием от лица какого конкретного персонажа писать по сути, не меняет ответ
Меняет, когда сказано что ты - вот такой чар и идет его карточка, потом "также в чате участвуют: список и карточки" это сильно отличается от просто херни навал и в конце переварачивающее откровение что "оказывается ты это вот он". Да хули, идейные обладатели отсутствия должны страдать, наяривай копиум сколько влезет, только аутотренинг не плоди.
> Автоматическая идея. Дерьмо залагало - понизь нагрузку на него.
Чел, лагает только у тебя. Твоя идея - буквально
> у меня заноза в ноге и мне лень ее лечить, быстро делайте программу принудительной ампутации для всех
никому в здравом уме не придет удалять самое начало истории, которая потребуется чтобы разыграть чат в другой сетке с большим контекстом, или банально чтобы самому прочесть когда захочется продолжить спустя время. А отключение их уже есть.
Аноним 25/12/24 Срд 20:29:56 988977 386
>>988735
> Ее ризонинг крайне хуевый и глупый с точки зрения анализа изображений
Ну, я вообще не пробовал это совмещать, и не совсем понимаю, что там должно быть. Ну и модель старая, а нужна новая.
Но сама идея забавна. Жаль, если не удалось.

>>988951
DEEPSEEK-V3 685B??? =D
Аноним 25/12/24 Срд 20:39:14 988980 387
>>988898
Для понимания хватит гуглтранслейта. Если язык знал то быстро адаптируешься, если совсем не знаешь - на ютубах есть курсы для хлебушков, есть приложения на телефон и много-много чего и даже бесплатно.
>>988937
Самый простой вариант - групповой чат.
>>988951
Тюны мистраля 123б, люмимейды, магнумы, хуягнумы - для кума сгодится любая и будет хороша.
>>988958
А там нормальных моделей и нету.
>>988977
> и не совсем понимаю, что там должно быть
Как минимум, ризонинг, кот и прочее должны обращаться к деталям изображения. Типа
> а еще я вижу странный продолговатый объект в руках (чарнейм) который она сует между ног... должно быть это sex toy! но раз он зеленый и с пупырышками - наверно огурец.
В qvq оно в начале сренкнет всратым зирошотом и идет вокруг него лупиться, делая минимальные дополнения по изображению и часто просто домысливая левое.
Нормальные модели хорошо срабатывают на дополнительную информацию, например или сразу делая хороший зирошот, или устраивая правильные рассуждения, сначала выделяя основные вещи/находя сказанное, и постепенно накидывая на созданный скелет новые детали, уходя вглубь. Если делать дополнительные запросы с новыми данными и привлекать cot, то они могут работать с условно абстрактными и незнакомыми для них вещами по их описанию, делая ревизию и исправляя ошибки первого запроса с достаточно хорошей точностью. В этом квене такое ожидается с самого первого запроса и на максималках, а по факту лишь пук-среньк и хуже обычных.
Аноним 25/12/24 Срд 20:40:25 988983 388
>>988754
>8B
>3090
Больной ублюдок.
Аноним 25/12/24 Срд 20:45:33 988989 389
>>988965
Читай синопсис фильма, хули ты такой ленивый.
Аноним 25/12/24 Срд 20:57:14 989004 390
А мне интересно, можно ли покумить на gpt4o ? Лул.

Ладно, я знаю что она немного не для таких целей.

Меня другое вызывает НИППОНИМАНИЕ в таверне.
С той-же циоднией или пантеоном. Где пресеты для таверны ? Каждый раз тык-тык а оно хуяк-хуяк и всё.
Аноним 25/12/24 Срд 20:58:43 989008 391
Да и вообще, кто из олдфагов скажет что за мику ?

Постоянно вижу это мини мику, нет эта мику, а это вообще гига мику.
Аноним 25/12/24 Срд 21:04:43 989019 392
>>989004
>С той-же циоднией или пантеоном. Где пресеты для таверны ? Каждый раз тык-тык а оно хуяк-хуяк и всё.

>Cydonia

I FUCKING KILL YOU, I SWEAR.
ПРЯМ БЛЯТЬ НА СТРАНИЦЕ

Arsenal (Supported Chat Templates)
Metharme (a.k.a. Pygmalion in ST) for RP / Story
Text Completion for RP
Mistral for Instruct / RP / Story
You can mix it up and see which works best for you.
Аноним 25/12/24 Срд 21:17:24 989033 393
>>988989
> амнезия
> девушка
> llama
все теперь понял
да, надо было загуглить))
Аноним 25/12/24 Срд 21:35:28 989063 394
>>989004
>покумить на gpt4o
Нетъ, и даже дело не в цензуре, это именно инструмент для всяких производственных и АйТи задач.
Аноним 25/12/24 Срд 21:36:52 989067 395
image 94Кб, 2344x490
2344x490
Принцы они такие XD

>>989033
Вообще не думал что с ламой это какой-то фильм, думал это как 50 раз снять трусы из под комбинезона и силовой брони, первые ллмки и не на такое способны были.
Аноним 25/12/24 Срд 21:39:04 989073 396
IMG3622.png 74Кб, 320x320
320x320
>>989067
Сука, на пике постер фильма
Название фильма
>я не думал что это фильм
Аноним 25/12/24 Срд 21:41:19 989077 397
>>988975
>Шизик, спокнись нахуй, такую херню несешь во всех смыслах.
Шизик, завали ебало если нечего сказать кроме этого

>>988951
Да какой нибудь очевидный мистраль лардж в хорошем 4-5-6 кванте, попробуй магнум версию. Из 70b хвалили ллама 3.3 последнюю. Мол меньше цензуры и тд, но ее все равно нужно будет обходить

>>988876
>Это уже уровень 8В.
Да, но нет. Модели только надрочили писать солидным образом как будто на уровне гпт3.5 и других больших моделей.
8-9б все равно тупее и меньше знают.
Какой нибудь мистраль немо 12б - квен2.5 14b уже норм так, квен2.5 32ь уже солидно так ебёт, 70 еще лучше, но отрыв от 32 уже не такой большой.

В кодинге например квен кодер 2.5 32ь местами на уровне корпоративных сеток предыдущего поколения, и вполне юзабелен для сложных задач. Там даже 7ь из серии кодеров способна в очень хорошую а главное быструю помощь с кодом.
Аноним 25/12/24 Срд 21:44:19 989082 398
image 1819Кб, 1024x1024
1024x1024
>>989073
логично ожидать ген в треде про гены
Аноним 25/12/24 Срд 21:44:20 989083 399
7896.jpg 31Кб, 656x450
656x450
>>988951
В треде обычно пикрил мнений по 100+B моделям, это про 8-12B каждый третий пост (хотя реалистично модель-то только мистраль лардж) Я лично уже месяца два-три для кума катаю микс бегемота 1.1 и магнума и пока не нашел ничего лучше. В какой-то степени мои ощущения подтверждает ugi лидерборд - судя по всему, наблюдается некая обратная корреляция между интеллектом модели и творческими способностями. Поэтому микс более умного бегемота 1.1 и более творческого магнума вышел удачным. В отличие от микса 1.2, где модель мне показалась глуповатой, а лидерборд это подтвердил (жаль в лидерборде самого микса нет, только составляющие).
Впрочем, до него я гонял чистый магнум v2 и у него в лидерборде метрики тоже хороши.
Щас вот качаю люмикабру 0.4, посмотрим как она...
Аноним 25/12/24 Срд 21:50:04 989088 400
>>989083
>В треде обычно пикрил мнений по 100+B моделям
Удивительно, как же так, модели для которых нужны видеокарты под 2.5млн рублей не популярны у анона.
Аноним 25/12/24 Срд 21:57:08 989101 401
>>988953
>ишью на гитхабе
Лень, да и