делаю илюстрацию впадаю в флюстрацию в флюстрации ебашу твою маманцию
пшёл нах пахнешь как собака
ИТТ обсуждаем опыт нейродроча в своих настоящих задачах. Это не тред "а вот через три года" - он тол
Аноним24/12/22 Суб 16:39:19№3223Ответ
ИТТ обсуждаем опыт нейродроча в своих настоящих задачах. Это не тред "а вот через три года" - он только для обмена реальными историями успеха, пусть даже очень локального.
Мой опыт следующий (golang). Отобрал десяток наиболее изолированных тикетов, закрыть которые можно, не зная о проекте ничего. Это весьма скромный процент от общего кол-ва задач, но я решил ограничится идеальными ситуациями. Например, "Проверить системные требования перед установкой". Самостоятельно разбил эти тикеты на подзадачи. Например, "Проверить системные требования перед установкой" = "Проверить объем ОЗУ" + "Проверить место на диске" + ... Ввел все эти подзадачи на английском (другие языки не пробовал по очевидной причине их хуевости) и тщательно следил за выводом.
Ответ убил🤭 Хотя одну из подзадач (найти кол-во ядер) нейронка решила верно, это была самая простая из них, буквально пример из мануала в одну строчку. На остальных получалось хуже. Сильно хуже. Выдавая поначалу что-то нерабочее в принципе, после длительного чтения нотаций "There is an error: ..." получался код, который можно собрать, но лучше было бы нельзя. Он мог делать абсолютно что угодно, выводя какие-то типа осмысленные результаты.
Мой итог следующий. На данном этапе нейрогенератор не способен заменить даже вкатуна со Скиллбокса, не говоря уж о джунах и, тем более, миддлах. Даже в идеальных случаях ГПТ не помог в написании кода. Тот мизерный процент решенных подзадач не стоил труда, затраченного даже конкретно на них. Но реальная польза уже есть! Чатик позволяет узнать о каких-то релевантных либах и методах, предупреждает о вероятных оказиях (например, что, узнавая кол-во ядер, надо помнить, что они бывают физическими и логическими).
И все же, хотелось бы узнать, есть ли аноны, добившиеся от сетки большего?
>>992427 Читать вместо десяти строк тривиального кода с минимальной вложенностью любого типа сотни строк текста от нейросети... Ну кому-то иногда может и нужно...
Все что я там написал это касается LLM моделей. Но если взять модели PPO, A2C и другие модели глубокого обучения они способны уже сегодня показывать очень серьезный уровень самостоятельности и исполнительности. Я не понимаю почему об этом никто не говорит. Еще лет 7 назад была новость о том что PPO модель победила в турнире по Доте 2. Но ее гораздо сложнее обучать, чем написать промпт для LLM. Сейчас все пытаюся всунуть ИИ в новые боевые самолеты 6го поколения. Там 100% будет PPO или какая то такая модель.
Работаю тимлидом. Предметная область объемная, а помимо изучения нужно проводить собесы (и вычислять челиков которые читают ответы на вопросы с экрана и перепечатывают код решения практического задания) и заниматься прочей унылой хуйнёй. Собственно, я больше не программист нахуй, я Jira developer. И собственно в последнее время пытаюсь активно выкатиться в эксплуатацию нейронок. В целом, создавать задачи из предметной области или погрузиться в новую помогает очень хорошо. Если правильно написать Промт может на пол года вперёд задач написать. Их, конечно, нужно будет более детально прорабатывать, но прорабатывать их подробнее можно в том же чате. Вот нарезал порядка 15 задач на ближайшие несколько спринтов, на неделе буду презентовать эти задачи коллегам которые погружены получше меня, узнаю, какую услугу мне предоставил жпт.
>>1019473 Попробовал, перестали генерироваться NSFW ответы. Совсем. На compatible просто аполоджайзил направо и налево, а так просто застревает.
Да, у меня скилл иссуе. Подскажите как этого дипсика пробить.
Нейродвача и искуственных борд тред
Аноним25/10/24 Птн 02:25:56№930555Ответ
Недавно в бредаче всплыл интересный тред посвященный генератору постов двача на основе ИИ. И генератор совершенно не хуйня и он вполне себе хорошо копирует слог среднего анона и даже превосходит его. "Аноны" метко подшучивают над опом и темой его поста и если развитие проектов такого типа продолжиться то каждый "анон" в сгенереном треде будет иметь свое мнение и личность и можно будет уже самому с ними посраться, появятся шизы. Хочу создать тред исключительно по данной теме, если это продвинется дальше то каждый сможет иметь свой офлайн двач с куклами, пони, бесконечными консолесрачами и постами в стиле того самого без всяких новомодных течений. Можно будет вернуться в любую эпоху и имитировать даже несуществующие эпохи двача типа если бы двач существовал при царе Рюрике, Сталине и тд. Все приведено естественно как пример. Также реквестирую в тред любые материалы по теме генерации борд в режиме реального времени если они у вас имеются.
Такс, анончики, возможно супернубский вопрос, но таверна частенько лютейше тупить начинает при вводе текста. Помогает переоткрытие вкладки. Есть понимание из-за чего и как это подлечить?
Китайский сервис по генерации ИИ-видео достаточно высокого качества, понимает как текстовый промпт, так и картинку. Лучше всего понимает китайский, но русский и английский понимает также. Три 5-секундных видео в день генерируются бесплатно, для большего дальше нужно либо менять Гугл-акк, либо платить для доступа к полному функционалу.
Американский стартап по генерации ИИ-видео. Лимит 30 генераций в месяц, дальше нужно платить (для граждан РФ никак, увы). Ну либо поменять Гугл-аккаунт, заведя новый и заново генерировать бесплатно.
В качестве промпта можно указывать как текст, так и изображение. Также можно дополнять изображение текстом, объясняя что с ним следует сделать.
Еще один китайский сайт. На данный момент самый крутой по качеству сервис, но при этом самый дорогой. Есть бесплатная версия, но с ограниченным функционалом и очень долгим временем генерации. В платной есть доступ к генерации длинных видео, видео с высоким разрешением, управление движениями объекта на видео, специальные эффекты типа синхронизации движения губ при речи персонажей и т.д.
Чет хуйня какая-то. Отрубил впн и внезапно обнаружил что rentry.org не работает с обходом по dpi. А без него работает. Чзх? Такое поведение конечно норма для ру сайтов с длинными адресами где можно обосраться при пидорасинге адреса, но с рентри то чё?
Опытные нейросеюзеры, помогите разобраться плз. Хочу использовать нейросети для создания артов для в
Аноним13/01/25 Пнд 12:54:58№1009831Ответ
Опытные нейросеюзеры, помогите разобраться плз. Хочу использовать нейросети для создания артов для визуальной новеллы. Какие нейронки для этого лучше всего подойдут? Можете как давать советы, так и направить на какой-нибудь гайд. Я совсем не шарю пока.
- ComfyUI -- чтобы запускать модели - Дальше нужно пойти на civitai.com и скачать модель -- SDXL либо Flux - SDXL/Flux -- чтобы рисовать по описанию - У Flux гораздо лучше качество, но для него нужен мощный CPU. Плюс эта модель более цензурирована. Если использовать Flux, то одна из лучших моделей на его основе -- Pixelwave. - У SDXL качество чуть хуже, но он запускается на дешевых GPU и может изобразить гораздо больше сцен. Хорошие модели -- CyberrealisticXL, RealVisXL; а также модели на базе Illustrious/NoobAI (например, NoobAI personalmix). V-pred модели позволят получить лечший цветовой диапазон. - Дальше нужно изучить инструменты для того, чтобы работать с персонажами. Это IP-Adapter для SDXL и Fluxtapox/Redux для Flux. - Дальше -- инструменты для работы со сценами -- например, ControlNet. (Скажем, вы хотите изобразить один и тот же дом днем и ночью -- тогда нужно использовать Depth/Canny controlnets) - Потом -- инструменты для региональной генерации. LayeredDiffusion, omost, latent couple. Это нужно, чтобы размещать персонажей в правильных местах, и чтобы персонажи не "протекали" друг в друга.
Где начать? stable-diffusion-art.com очень полезный и доступный ресурс.
Обмена моделями тред. Первый. Экспериментальный. Под БАЗУ нейрогенерации уже созданы номерные треды
Аноним06/01/23 Птн 16:00:02№33171Ответ
Обмена моделями тред. Первый. Экспериментальный.
Под БАЗУ нейрогенерации уже созданы номерные треды SD и WD+NAI. Меж тем, это всего несколько моделей, тогда как только на Фэйсе их более 112 тысяч. Этот тред для тех, кто копнул хоть немного глубже: необязательно до уровня обскурщины, выпиленной даже из даркнета, а просто за пределами того, что удостоилось своих тредов. ИТТ делимся находками и произведенными результатами.
>>1013726 >test-time скейлинг Лол, развод гоев на шекели в космических масштабах. >>1013820 Справедливости ради, у динамиков 10 лет назад была гидравлика.
>>1012454 >Вот ты можешь находиться нигде и в нескольких положениях одновременно? А квантовые частицы могут. Они могут не иметь свойства положения в пространстве. А ты не можешь. И это только одно из их свойств, которые полностью теряются на макро уровне. Так зачем пытаться экстраполировать какой-то параметр с фундаментального уровня до макро, если нам известно, что другие параметры экстраполировать нельзя? >Даже если жизнь каждой отдельно взятой частицы предрешена ещё до большого взрыва - это абсолютно ничего не говорит о том, есть ли свобода воли у человека вообще. Это не связано никак.
Ты хуйню не неси. Квантовые эффекты влияют на макромир. Ты или детерминизма придерживался или квантовой неопределенности. Ну и каша у тебя в голове, пиздец просто.
AI Chatbot General № 600 /aicg/
Аноним16/01/25 Чтв 10:51:38№1012582Ответ
AI Chatbot General № 600
БОТОДЕЛЫ!!!! Прикрепляйте новых ботов к оп-посту!!!!
Лол бля, давно openai цензуру ввел? Помню как можно было вообще всякую 18+ дичь нести(ну в рамках приличия, впрочем, без всякой жести), а сейчас смотрю все, ни-ни, не хочет никак на откровенные темы писать.
Лол бля, давно /ai/ цензуру ввел? Помню как можно было вообще всякую 18+ дичь нести(ну в рамках приличия, впрочем, без всякой жести), а сейчас смотрю все, ни-ни, не хочет никак на откровенные темы писать.
Вот сука.
Локальные языковые модели (LLM): LLaMA, Mistral, Gemma и прочие №100 /llama/
Аноним08/01/25 Срд 16:57:11№1004489Ответ
В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны!
Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст, и бугуртим с кривейшего тормозного говна.
Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку.
Вот сижу я и думаю. Лорбук это пиздато, лорбук это хорошо, но он работает только с сухими фактами по кейвордам. А вот динамика отношений, особенно если я хочу долгое раскрытие - должна быть в суммарайзе. Но блять, какой в таверне максимальный размер сумарайза, который не будет проёбан ? Есть ли ограничение, или я могу ебашить туда войну и мир ? Запрашиваю личного опыта.
Оффлайн (около)свободные модели для картинок помимо Stable Diffusion: ♦ Flux, OmniGen, Auraflow, Hunyuan, Lumina, Kolors, Sana Оффлайн модели для анимаций: ♦ HunyuanVideo, Lightrics (LTXV), Mochi, PyramidFlow, CogVideo, AnimationDIFF, Stable Video Diffusion Приложения помимо ComfyUI: ♦ Fooocus, webui-reForge, Stability matrix, webui-Forge (мёртв), webui от Automatic1111 (мёртв)
Обсуждение просмотров, подписок и заработка по AI артам №3 /subs/
Аноним05/09/23 Втр 13:38:08№477091Ответ
Меряемся числом подписчиков, выясняем оптимальную стратегию по выкладыванию артов в паблик, зарабатываем на платных галереях и комишенах, пытаемся вывести деньги из-за бугра если вы являетесь жителем этой страны, бугуртим от бана нейронок на артплощадках.
Обсуждаем всё, что относится к публикации своих артов и способам их монетизации.
>>1010487 Вот чего не знаю, того не знаю. С патреона можно через изистарт выводить, но там свои задвиги, я пока не пробовал потому что ленивая жопа, и мне лень завести патреон как и пиксив.
Листаю еблеботов на chub и недоумеваю с того, какие мерзкие фантазии у людей. Одни хотят трахать фем
Аноним12/01/25 Вск 14:36:01№1008646Ответ
Листаю еблеботов на chub и недоумеваю с того, какие мерзкие фантазии у людей. Одни хотят трахать феминизированное быдло с шараги (school bully), другие собственных мамаш. Третьи фурри и кошкоженщин. Это типа чучело, написавшее такого бота, подсознательно хочет трахнуть кошку? Какой ужас.
Полкаталога засрано аниме-ебальниками десятилетних "младших сестрёнок". Частенько мелькают библео-фэнтезийные еблеботы, типа ангелодемонов и анальных эльфов из усраться как загадочного леса. Как правило с перекошенным аниме ебальником, что объясняет, из какого "произведения" такая зая взялась (очередного дебильного япошкинского переосмысления духовных традиций белого человека). А ещё конечно же трапы и конкретно геи, что тождественно. Блевать тянет.
И изредка мелькает что-то другое. Как ни странно, но то, что нравится мне (BBW и SBBW), практически не встречается вообще (заговор иудеев). На многих сайтах даже тегов таких нет. Вот всё что угодно, из того, что я описал выше, есть в изобилии, а просто женщины с телом не анорексички — редкость.
Реквестирую карточки/ботов полных женщин (мамку не предлагать, свою тоже)
Как понять сид? Вот есть генерация, промпт и их сид. Если мне например цвет кожи надо поменять или прическу или еще что-то. Адетайлер это не поменяет. Если я добавлю лору, изменится промпт, как это повлияет на генерацию сделанную по одному сиду?
А вот если вы делаете что то запрещённое то съебите с российского сайта. Эмигрируй отсюдова.
Запускать запрещённое средство обхода блокировок что бы получать штраф/суд/сгуху что там будет ради неясно какой хуйни явный перебор. Залейте на не заблоченные сайты. Хоть архивом с текстовыми файлами на яндекс диск.
Исследования ИИ тред #2 /research/
Аноним08/10/23 Вск 02:45:17№511426Ответ
Обсуждаем развитие искусственного интеллекта с более технической стороны, чем обычно.
Я ничего не понимаю, что делать? Без петросянства: смотри программу стэнфорда CS229, CS231n https://see.stanford.edu/Course/CS229 (классика) и http://cs231n.stanford.edu (введение в нейроночки) и изучай, если не понятно - смотри курсы prerequisites и изучай их. Как именно ты изучишь конкретные пункты, типа линейной алгебры - дело твое, есть книги, курсы, видосики, ссылки смотри ниже.
Почему python? Исторически сложилось. Поэтому давай, иди и перечитывай Dive into Python.
Можно не python? Никого не волнует, где именно ты натренируешь свою гениальную модель. Но при серьезной работе придется изучать то, что выкладывают другие, а это будет, скорее всего, python, если работа последних лет.
Стоит отметить, что спортивный deep learning отличается от работы примерно так же, как олимпиадное программирование от настоящего. За полпроцента точности в бизнесе борятся редко, а в случае проблем нанимают больше макак для разметки датасетов. На кагле ты будешь вилкой чистить свой датасет, чтобы на 0,1% обогнать конкурента.
Количество статей зашкваливающее, поэтому все читают только свою узкую тему и хайповые статьи, упоминаемые в блогах, твиттере, ютубе и телеграме, топы NIPS и прочий хайп. Есть блоги, где кратко пересказывают статьи, даже на русском
Где ещё можно поговорить про анализ данных? http://ods.ai
Нужно ли покупать видеокарту/дорогой пека? Если хочешь просто пощупать нейроночки или сделать курсовую, то можно обойтись облаком. Google Colab дает бесплатно аналог GPU среднего ценового уровня на несколько часов с возможностью продления, при чем этот "средний уровень" постоянно растет. Некоторым достается даже V100. Иначе выгоднее вложиться в GPU https://timdettmers.com/2019/04/03/which-gpu-for-deep-learning заодно в майнкрафт на топовых настройках погоняешь.
Когда уже изобретут AI и он нас всех поработит? На текущем железе — никогда, тред не об этом
Кто-нибудь использовал машоб для трейдинга? Огромное количество ордеров как в крипте так и на фонде выставляются ботами: оценщиками-игральщиками, перекупщиками, срезальщиками, арбитражниками. Часть из них оснащена тем или иным ML. Даже на швабре есть пара статей об угадывании цены. Тащем-то пруф оф ворк для фонды показывали ещё 15 лет назад. Так-что бери Tensorflow + Reinforcement Learning и иди делать очередного бота: не забудь про стоп-лоссы и прочий риск-менеджмент, братишка
Список дедовских книг для серьёзных людей Trevor Hastie et al. "The Elements of Statistical Learning" Vladimir N. Vapnik "The Nature of Statistical Learning Theory" Christopher M. Bishop "Pattern Recognition and Machine Learning" Взять можно тут: https://www.libgen.is
Напоминание ньюфагам: немодифицированные персептроны и прочий мусор середины прошлого века действительно не работают на серьёзных задачах.
Disclaimer: Шапка сгенерирована нейросетью и нуждается в чистке.
И целого интернета мало Насколько высок риск инбридинга языковых моделей
В июле 2024 года в Nature вышла статья британских и канадских специалистов по искусственному интеллекту, которые задались вопросом: что произойдет с обучением нейросетей, когда интернет заполонят тексты, написанные другими нейросетями (а ждать уже недолго)? Ученые проанализировали, как современные языковые модели генерируют тексты, если и учатся на таких же сгенерированных текстах — и пришли к неутешительным выводам: языковые модели ждет вырождение. Но действительно ли стоит бить тревогу по поводу будущего генеративного искусственного интеллекта?
>>1008469 Да бля всё равно не смогут АГИ создать на чистом перцептроне с бэкпропагейшеном. Надо скрещивать его с Хопфилдом, Больцманом и Кохоненом, как оно в мозге хуманов и работает скорее всего. На одних трансформерах вечно ехать не сможем, давно понятно.