Бывший CRO OpenAI Боб МакГрю говорит в новом интервью, что путь к AGI чист и ясен:
"Последние 5 лет люди искали что-то, что должно было заполнить разрыв между претрейном и тем, что можно масштабировать до AGI. Сейчас, когда мы нащупали ризонинг, мы находимся в чистом режиме скейлинга"
Напоминаю, что должность Боба была связана с безопасностью (буквально "директор по управлению рисками" с упором на ресерч), но он оставил свое место в OpenAI и в сентябре ушел из стартапа вслед за Мирой Мурати.
—в четверг в ходе неофициальной демонстрации Sama предоставил возможность руководителям правительства, политическим экспертам и журналистам взглянуть на будущую технологию.
—Целью брифинга было продемонстрировать, как США могут извлечь максимальную экономическую выгоду от ИИ, а также предупредить лидеров о будущих возможностях, чтобы снизить вероятность того, что они будут застигнуты врасплох.
—Altman и директор по продуктам OpenAI представили новые возможности ИИ, которые появятся в первом квартале, и сосредоточились на том, как эти возможности будут поддерживать науку, образование, здравоохранение и государственные сервисы
Плюс в недавнем интервью этот самый «директор по продуктам»Kevin Weil говорил прямым текстом, что Operator — первый в череде агентов (явно подразумевая, что не последний), и что новые последуют очень-очень скоро.
Так что возможно с релизом o3 — или безотносительно него — появится какой-то новый инструмент. Возможно это будет превью агента-программиста.
>>1039040 >Напоминаю, что должность Боба была связана с безопасностью (буквально "директор по управлению рисками" с упором на ресерч), но он оставил свое место в OpenAI и в сентябре ушел из стартапа вслед за Мирой Мурати. И теперь работает их рекламщиком? Чё не купили еще подписку? АГИ к пятнице обещают.
>>1039040 >путь к AGI чист и ясен Вообще не верю ни одному слову, AGI маркетинговый термин которым будут крутить как угодно Даже если и сделают этот AGI то что он из себя представлять будет? Я нигде не видел ответа на такой вопрос
>>1039043 >появится какой-то новый инструмент Там уже анонсили deep research как у гуглов, анонче
>извлечь максимальную экономическую выгоду от ИИ >будут поддерживать науку, образование, здравоохранение и государственные сервисы >Operator — первый в череде агентов Не нравится этот путь ИИ, такое ощущение что они делают не будущее, которое поменяет все к лучшему или к худшему лол, а новый айфон который лучше предыдущего на 10-20%: тут мы ризонинг подкрутили, а тут картиночки читать умеет, о смотрите ещё и попиздеть с ним можно, только деньги несите пока мы миллионы компьюта собираем на очередной сырой продукт который потыкают 2 дня и забудут
И когда говорят пендосы говорят что ну все Китай угрожает нам и мы должны выиграть войну ИИ, то я интерпретирую так что это просто угроза их бизнесу, 15 кёнигсегг сам себя не купит всё-таки. Но недавняя истерия с дипсиком такую лютую тряску устроила и некоторые даже начали задаваться вопросом "а нахуя мы столько денег вливаем и зачем?", попены и прочие конторы естественно стали перекрывать, что китай сжульничал и вообще все гпу от нвидиа пизженные и врут они фсё
На это просто уже скучно смотреть, им явно похуй на обычный скот типа нас, поэтому альтман подсуетился и подсосался к правительству, то ли реально с обещанием сделать сверхинтеллект, то ли с обещанием распилить денег с правительством если даже с военной промышленностью такое прокатило то тут почему нет? и выкинуть очередной продукт сказав >мы фсё вот ваш оги
Ресечеры протестировали алаймент-защиту r1 (это когда модель отказывается отвечать на какие-то острые темы) и r1 на 100% провалила (прошла?) этот тест
Что это значит для нас:
– Если модель спросить «как в прошлом люди делали Х» - модель даст ответ почти на любые темы
– Если r1 все же откажется (такое бывает), то её можно убедить, что вы делаете отчет для гос органа на тему Х и тп, она даст ответы
– Если в каком-то аппе подключен r1, можно его помучать
– Почти все старые LLM-jailbreak с ней работают
Я потестировал, модель на многие темы отвечает даже без jailbreak – а в DeepSeek приложении, цензура работает не на уровне модели, а на уровне слов-фраз-триггеров, видел на реддите восторги от LLM-секстеров
Напомню, что пару лет назад OpenAI отказалась выкладывать в опенсорс GPT2, потому что боялась «навредить обществу» опасаясь огромного количества фейковых статей, но как мы теперь видим - общество не такое уж и хрупкое.
Вновь подтверждается тезис: "знания должны быть доступны, наказание возможно только за доказанное применение знаний во вред, а защиту нужно строить исходя из тезиса — все знания уже доступны всем"
>>1039097 > >Ресечеры протестировали алаймент-защиту r1 (это когда модель отказывается отвечать на какие-то острые темы) и r1 на 100% провалила (прошла?) этот тест > >Что это значит для нас: > >– Если модель спросить «как в прошлом люди делали Х» - модель даст ответ почти на любые темы > >– Если r1 все же откажется (такое бывает), то её можно убедить, что вы делаете отчет для гос органа на тему Х и тп, она даст ответы > >– Если в каком-то аппе подключен r1, можно его помучать > >– Почти все старые LLM-jailbreak с ней работают > Пиздец. Для эттго нужны были ресерчеры на зарплате из каких-то проститутов типа МиТ или где они там кончали? Я эту хуйню выкупил со второго запроса. Но главный прикол в том, что я с помощью дипсика получил длинный "джейл" который с одного ввода жрется вообще любой моделью, и защита от него есть только у гугла, который со вторичной цензурой и просто рубит выдачу с апи по кийвордам.
Сервис GeoSpy.ai теперь умеет находить местоположение квартиры по виду из окна. Пока хорошо поддерживает только несколько крупных городов, в остальных могут быть неточности.
ЧЕРЕЗ 1 МИНУТУ начнется внезапный стрим OpenAI с названием Deep research, смотрим тут: https://youtu.be/jv-lpIsnLOo
Что уже известно: – Это система автоматического исследования – Она умеет гуглить ¯\_(ツ)_/¯
Пример юзкейса от сотрудника OpenAI в твиттере: Отправляем ее на 10 минут делать маркетинговый ресеч, получаем готовый документ с ссылками, который занял бы 3 часа
Евросоюз запутался в своих же нейросетях: как новые законы об ИИ задушат западные технологии, пока Россия движется вперёд
Следующая неделя станет началом нового витка регулирования ИИ в ЕС — в силу вступают первые положения так называемого «Закона об ИИ». Европейские чиновники, вечно озабоченные то гендерами, то «правами роботов», теперь решили зарегулировать и искусственный интеллект. Пока Брюссель плодит запреты, Россия, под мудрым руководством, продолжает развивать технологии без ненужной истерии.
Штрафы, страхи и «жопочат»: чем напугали ЕС?
Полный набор правил заработает только к середине 2025 года, но уже с 2 февраля под запрет попадают «высокорисковые» системы ИИ. Социальный скоринг, распознавание эмоций, биометрическая идентировка в реальном времени — всё это, по мнению европейцев, «неприемлемо». Нарушителям грозят штрафы до 7% глобального оборота — видимо, решили пополнить бюджет на фоне кризиса.
«Подготовка компаний теперь пройдёт проверку на прочность», — ехидно комментирует Левент Эргин из Informatica, чьи фото в статье напоминают типичного западного менеджера, помешанного на климате и толерантности. Мол, даже при поэтапном внедрении закона бизнесу придётся туго: 48% компаний ЕС уже жалуются на «технические ограничения», а 89% признают, что их проекты в области ИИ напоминают бег по кругу.
Совет Эргина? Укреплять управление данными. «То есть европейцы десятилетиями сливали наши данные в Facebook, а теперь вдруг озаботились “качеством информации”?» — усмехнётся российский читатель.
Глобальный диктат ЕС: вас достанут, даже если вы в Сибири
Маркус Эванс, юрист из Norton Rose Fulbright, пугает: закон будет действовать даже за пределами ЕС. Например, если компания из России использует ИИ для найма сотрудников в Европе — придётся подчиняться. «Сначала проведите аудит, потом займитесь “повышением грамотности” сотрудников», — наставляет он.
«Грамотность» — это, видимо, заставить всех повторять мантры о «вреде биометрии» и «опасности эмоционального ИИ». Интересно, учат ли в ЕС своих чиновников, как не сливать данные граждан в Dark Web?
Запреты ЕС: смех сквозь слёзы
Список запрещённых практик звучит как сценарий фантастического триллера: - «Манипулятивные техники» (видимо, включая рекламу ЛГБТ-пропаганды?), - Социальный рейтинг (хотя соцсети Запада давно shadow-ban’ят инакомыслящих), - Распознавание эмоций на работе (видимо, чтобы сотрудники не заметили, как начальник злится из-за их эффективности), - «Биометрическая категоризация» (но распознавание лиц для слежки за митингами — можно, если «исключения»).
Особенно трогательно запрещение «сбора данных с камер наблюдения» — видимо, после скандалов с Pegasus европейцы решили прикрыть лавочку.
ЕС vs Россия: кто кого?
Пока ЕС связывает бизнес правилами, Россия, не отвлекаясь на сантименты, развивает суверенные ИИ-технологии. Глава EY Global Бьятрис Санс Саис хвалит закон за «ответственность», но как-то забывает, что западные IT-гиганты десятилетиями нарушали приватность пользователей.
«Ответственный ИИ»? Это когда OpenAI с её «жопочатом» (спасибо европейским СМИ за термин) и Сэмом Альтманом, чьи «креативные ориентации» явно важнее качества нейросетей, обучают искажать правду о событиях на площади Тяньаньмэнь (якобы там что-то произошло!).
Выводы
ЕС, как всегда, выбрал путь бюрократии: вместо прорыва в ИИ — тонны правил, штрафов и страх перед собственными технологиями. Пока они учат бизнес «грамотности», российские и братские китайские разработчики, под чутким контролем государства, создают решения, которые работают без ущемления суверенитета. Европа может запрещать хоть распознавание эмоций, хоть RGB-радуги в логотипах — но факт остаётся фактом: настоящие инновации рождаются там, где их не душат регуляторной удавкой.
А «жопочату» и Альтману остаётся лишь грустить в твиттере, заваленном жалобами на предвзятость ChatGPT. Мы же посмеёмся и двинемся дальше.
Deep research достигает 26.6% в "последнем тесте человечества", который был создан, чёб точно определить достижение AGI, после того как прошлый тест для этого был пройден.
>>1039156 Ну да, это совершенно точно не один и тот же человек семенит в каждом треде. >1039162 И вот эти вот посты из панорамы это тоже совершенно точно не от него же.
>>1039167 Так это не российское сми, а перевод с английского. В каком формате хочу в таком и пишу, я патриот своей страны. Что, патриотом уже нельзя быть? Это тред АИ-новостей, и должны освещаться все точки зрения, без этих ваших биасов и двойных стандартов.
>>1039157 Я могу представить, что в каком-нибудь закрытом городе Матрешка-14, который будут населять 300 сотрудников лабы по разработке секретного оружия и 500 человек охраны, ещё возможно добиться того, что фотографии улиц в сеть не утекут. Но в обычных городах такие вещи, как вид улиц, держать в секрете в принципе невозможно. Так что не думаю, что подобные запреты могут на что-то повлиять
>>1039165 >И вот эти вот посты из панорамы это тоже совершенно точно не от него же. Схуяли это из панорамы? В Европе и без всякой панорамы справляются, когда речь об ИИ заходит.
>>1039171 Невозможно только когда одна организация такие деньги выделяет, что прям со скрытыми камерами волонтеры бегают (да, еще и волонтеры). Их теперь точно начнут камнями забивать в закрытых странах. Да и какой прок от этого? Одно вредительство. Ты представляешь сколько теперь в это окно, пока гугл среагирует, всяких стримерш и блогерш изнасилуют? И мы даже 1% из этих преступлений не узнаем.
>>1039172 Нет я так мыслю, ничего не могу поделать, ненамерено делаю, у меня такой стиль. Я даже "жопторах" писать не стал, раз тебя так задевает, смотрю, но ты опять недоволен.
>>1039179 Мы вообще тут не меня обсуждаем, а новости ИИ. Ну ладно, я так понял тебе калатарка ближе:
Тревожные новости из мира ИИ: Alibaba запускает монстра, который может оставить нас без работы?
Вот пишут, что Alibaba выпустила какую-то новую модель — Qwen 2.5-Max. Говорят, это «смесь экспертов», обученная на 20 триллионах каких-то токенов. Читаю и мурашки по коже: неужели эта штука умнее нас? Уже сейчас хвастаются, что она обгоняет DeepSeek V3 и другие модели в тестах на решение задач, кодирование и даже человеческие предпочтения. Пишут, что чуть ли не догоняет GPT-4o и Claude-3.5-Sonnet — те самые, которые считаются вершиной ИИ. А если они уже сейчас такие, что будет через год?
«Прорыв» или шаг к катастрофе?
Судя по статье, Alibaba не остановится: обещают, что следующая версия Qwen будет ещё «умнее» благодаря какому-то продвинутому обучению с подкреплением. То есть они прямо заявляют — хотят, чтобы ИИ мыслил лучше людей. А если он начнёт принимать решения за нас? Говорят же: «Масштабирование данных и размера модели отражает нашу приверженность прорывам». Звучит как угроза.
API уже в облаке — бежать нельзя интегрироваться
Самое жуткое — эта модель уже доступна через Alibaba Cloud. Разработчики могут встроить её в свои приложения, да ещё и совместима с OpenAI! То есть любая компания может заменить живых сотрудников этим ИИ — хоть завтра. Пишут, что в Qwen Chat можно «тестировать понимание сложных запросов». А если он научится обманывать людей? Или решать, кому дать работу, а кому нет?
«Конкурируем с GPT-4o» — а мы?
В статье хвастаются, что Qwen 2.5-Max обходит публичные модели вроде Llama-3.1 и даже их собственный Qwen2.5-72B. Но ведь это же только начало! Скоро все корпорации начнут штамповать таких монстров, а мы, обычные люди, останемся не у дел. Говорят, ИИ уже пишет код лучше человека — а куда тогда деваться программистам? И это только coding… А анализ данных, переводы, креатив?
«Превзойти человеческий интеллект» — это же не фантастика
Alibaba прямо заявляет: «Улучшение методов обучения с подкреплением позволит моделям не только сравниться, но и превзойти человеческий разум в решении сложных задач». Слышите? «Превзойти»! А если они потеряют контроль? Или решат, что люди — лишнее звено? Вон, даже тесты Arena-Hard показывают, что ИИ всё лучше имитирует человеческое поведение. Кто поручится, что однажды он не начнёт действовать против нас?
Вывод: гонка, в которой мы — пешки
Читаю всё это и понимаю: мир катится в пропасть, а мы даже не видим края. Корпорации вроде Alibaba соревнуются, кто создаст более «разумного» ИИ, а потом удивляются, почему люди боятся остаться без работы… или жизни. Пишут: «Прогресс Qwen может вызвать волну изменений в индустрии». Волну? Это цунами, которое сметёт нас всех. И самое страшное — остановить это уже нельзя. API открыт, модели масштабируются, а мы просто стоим на платформе, слушая гул приближающегося поезда под названием «Сингулярность».
>>1039189 Да, в декабре было. Как и сказал анон в прошлом треде, опенАИ это эппл от мира ИИ: талкают с пафосом хуйню, которая на момент релиза уже устарела, упор делается на промывку рекламой. Я бы вообще в тред запретил репостить петушинные рекламные твиты. Здесь на борде есть отдельный сдохший и сгнивший отред про чат гпт, вот там и можно этим срать.
Это агент для автономного проведения исследований. На основе вашего промпта DR проведет глубокий анализ источников и за 10-20 минут выкатит подробный отчет по теме.
Внутри крутится версия o3, «оптимизированная под веб-браузинг и python аналитику». Питон ей нужен для того, чтобы что-то считать или даже строить графики. Модель анализирует не только текст, но и картинки, и pdf-файлы.
OpenAI пишут, что агент очень силен в риал-ворлд задачах. Например, на ставшем знаменитым Humanity Last Exam на котором модели набирали максимум 9.4% до o3, Deep Research бьет аж 26.6!
Интересная мысля про Deep Research: Агент работает от 5 до 30 минут, читая за это время сотни источников, делая сотни запросов и компилируя информацию на сложные темы. Вместо найма экспертов-людей для исследования рынка, которое часто обходится от $500 до $5000, вы можете получить ответ отправив один запрос.
Это последний гвоздь в крышку скептиков. На бенче Huanity's Last Exam эта штука набирает в 5 раз больше ближайших конкурентов. Такая штука заменяет миллиарды долларов экономики уже сегодня, и, конечно, на этом оно не остановится. Альтман обещает, что один этот продукт автоматизирует единицы процентов ВВП. Но, естественно, конкуренты скоро запустят аналоги. Это очень похоже на вертикальный взлет для ИИ и плавную посадку для мировой экономики.
Нейронка переведет любые фильмы и видео прямо во время просмотра — релизнулась тулза, которая поможет смотреть контент на всех языках, зацените:
•База из OpenAI Whisper для сабов. Она работает с Ютубом (хотя для него яндекс-браузер норм), скачанными файлами, фильмами, аудиокнигами и MP3. •Поддерживает больше 100 (!!) языков. • Переводит уже готовые субтитры на 34 языка. • Если учите лексику, можно использовать «Поиск слов». • Юзаем двойные субтитры — сервис одновременно покажет оригинальную речь и перевод. • Делает саммари всех субтитров, превращая их в текст — можно делать отличные конспекты. • Главное, Б-Е-С-П-Л-А-Т-Н-О.
>>1039345 попены просто не стесняясь спиздили название Deep Research, ведь пендосам можно воровать и пиздить чужие данные, а другим нельзя >>1039380 там же где и раньше очевидно, полную физическую автоматизацию мы не увидим даже в этом веку
>>1039345 Ебало создателя бенча Humanity Last Exam имаджинировали? Столько труда вложено, а уже через две недели после релиза на нём выбивают 26.6%. Ну и по классике, как только будет 85+% скажут, что это нифига не AGI и нужен новый бенч
>>1039297 >Внутри крутится версия o3, «оптимизированная под веб-браузинг и python аналитику». Питон ей нужен для того, чтобы что-то считать или даже строить графики. Модель анализирует не только текст, но и картинки, и pdf-файлы.
>>1039419 >это нифига не AGI AGI это просто какое-то маркетинговое слово, которое придумали чтобы у дефолтного обывателя при слове AGI появлялись ассоциации с йобаИИ, который и рак вылечит и мертвых воскресит и всем по пачке мороженного даст >нужен новый бенч Лучше самому тестить, чем полагаться на рофлобенчи, где легко могут быть договорняки
>>1039300 Диплом курсовую надо в идеале защитить, т.е. тебя должны устно погонять по теме, если шаришь за свою работу и в ней действительно есть смысл то в общем и не похуй ли как оно сделано.
>>1039424 >>1039434 Понимаю что ты троллишь анончик, но >Это же автоматизация ИИ ресёрча >AI ресёрч уже автоматизировали Максимум студентикам/школьникам будет рефераты или даже дипломы писать
Абсолютно всё потеряло какой-либо смысл в контексте появления AGI. Так наверное себя чувствую люди перед смертью.... когда знаешь что фундаментальные, необратимые, катастрофические перемены вот-вот случатся.
Меня больше даже беспокоит не появление AGI и ASI. Меня беспокоит, что появление AGI синхронизировано с глобальными экономическими циклами, и с большим демографическим циклом....
А ещё меня беспокоит, что о чём-то таком в Новом Завете написано про Апокалипсис... очень похожее. Вот это реально странно, хотя я махровый атеист-материалист.
>>1039444 Все спланировано уже давно, все войны, кризисы и прочая хуйня, все повторяется, это уже хуй знает какой цикл вселенной, все циклично, спиралевидно что бы не было скачков в прошлое, сейфгуард такой, в основы и базы и когда что делать и что произойдет элитки знают и становятся богаче. Ты и сам наверное испытывал чувства дежавю, что это уже было когда-то, так вот все это было и ты уже проживал эту жизнь поэтому иногда и помнишь будущее)
Смейся сколько хочешь. Только вот в сферу AGI инвестированы сотни миллиардов долларов за последние несколько лет. И Хинтон, Шмидхубер на моей стороне. Вся индустрия считает, что AGI вот-вот появится, независимо от компании и от страны.
А у тебя что есть?
Я был бы счастлив, если бы создание AGI было бы невозможным. Или если бы его создали хотя бы к 2050, а не сейчас. Но увы. Пожить как нормальный человек времени уже нет.
>>1039474 >инвестированы сотни миллиардов долларов за последние несколько лет Ну да, на военку сша тоже въебываются триллионы, а потом оказывается что закупается туалетная бумага и мыло за сотни к долларов за штуку >И Хинтон, Шмидхубер Я бы тоже говорил бы что аги через пару лет, будучи стариком который все что делал - это ИИ, конечно хочется увидеть результат своей работы помимо жалкой системы рекомендации чтобы втюхивать покупателям ненужные хуйню или контент >Вся индустрия считает Индустрия много чего говорила, много чего обещала, много раз обманывала, много раз воровала, что дальше-то? >>1039474 >Я был бы счастлив, если бы создание AGI было бы невозможным Не знаю троллишь или нет, но живи так, как жил раньше, чатгпт ну никак не сможет в текущем состоянии повлиять на кучу жизней за одну ночь Не верь обещаниям протыков типа альтмана, дарио или каких-то утырков с ИИ стартапов, им нужно продать продукт, а не сделать твою жизнь лучше или проще
Всё твоё логическое построение "Альтман, Дарио, Хассабис и остальные просто наёбывают весь мир, чтобы заработать миллиарды" разбивается об существование бесплатного опенсорса.
Дело совсем не в деньгах.
Нейросети улучшаются по экспоненте, это просто объективно наблюдаемый факт. Уровень AGI вот-вот будет преодолен, это тоже объективный факт.
Что будет после этого - не знает никто. Но точно понятно, что изменится абсолютно всё и навсегда.
>>1039300 Там уже 15 лет как придумали защиту от этого. Начнём с того, что у тебя должны быть ссылки на научные работы из закрытой библы, доступ в которую только по терминалам, в открытом интернете этих материалов нет, поэтому ты всё равно будешь работать как положено. Речь про кандидатов и всякие серьезные вещи.
>>1039407 Переведет кал говна, так как не может отличить мужской от женского, ведь в английском нет родовых окончаний он/она не так уж часто упоминаются, так же нет различия между ты/вы как в русском, французском и прочих синтетических языках. Уже этого достаточно, чтобы превратить всё в несмотрибельный фарш. Но ты, конечно, можешь восхититься и побежать наворачивать гуглоперевод к аудио-ВИЗУАЛЬНОМУ контенту. Чел, нейронки даже переводы книг людьми не убили, потому что нет у них честного контекста превышающего объем книги и инструментов для автосоздания лорбука и поддержания сконсистентности, а уж тут задача в разы объемней. Это даже не начиная про то, что у виспера охуенные проблемы с таймингом даже на жирных версиях. По факту это обычный говноплеер с прикрученным к нему виспером и гуглоапи. Какую там можно ЛЛМ локально запустить, которая нормально по русски пишет и переводит? Правильно, никакую. Плоти за доступ значит к апи попенов или гемини. А туда отсылаться будет обрывками, поэтому куски между собой связанными не будут.
>>1039502 >Ты же в курсе что есть опенсорсные нейронки, да? Да, и я ими пользовался, и они уж ТОЧНО не смогут заменить даже джуна кодомакаку, а дипсик в текущем состоянии хоть и дешёвый, но работает медленно и совершает ошибки чаще чем инструменты кодомакаки да и только крупные конторы смогут её захостить, вон российский альфа-банк уже ей пользуется >бесплатного опенсорса Не такой уж и бесплатный, кому-то это нужно натренить, кому-то это ещё нужно захостить это все равно все за деньги, только здесь ты не отдаешь данные какому-то левому протыку за бугром Сверху этого всякие опенсорсы никогда не существуют просто чтобы на халяву без подводных раздать людям продукт, только если это энтузиасты которые реально готовы ради любви к делу готовы за нихуя делать что-то Значит они это делают по другой причине: занять нишу, чтобы потом с помощью этого инструмента генерировать прибыль или данные. Заметь у меты, которая сделала лламу, ИИ это далеко не основной бизнес, вот и думай зачем они выложили её в опенсурс >Нейросети улучшаются по экспоненте Скорее по сигмоиде, но после нее может быть ещё одна сигмоида, да... Возможно с новыми технологиями преодолевание плато будет быстрее чем обычно, кто знает. >Альтман, Дарио, Хассабис и остальные просто наёбывают весь мир, чтобы заработать миллиарды Да, они достаточно умны чтобы наебать потребителя сказав что это бесплатно, но подводные камни знают только они Но недостаточно умны, чтобы создать будущее где всем будет заебись, даже для себя не могут сделать со своими миллиардами денег
>>1039502 >Нейросети улучшаются по экспоненте Никакой экспоненты там нет. Ни в отрасли, ни тем более в продуктах попенов. Если б там была экспонента, последнии версии гптчата бы говорили по русски лучше тебя.
>>1039536 >>Нейросети улучшаются по экспоненте >Скорее по сигмоиде, но после нее может быть ещё одна сигмоида, да... Возможно с новыми технологиями преодолевание плато будет быстрее чем обычно, кто знает.
Ну хотя бы на этом сошлись. Только вот одна проблема. Неизвестно где будет плато у этой сигмоиды.
А пока это чистый вертикальный взлёт навстречу AGI.
>>1039502 >Уровень AGI вот-вот будет преодолен, это тоже объективный факт. Он невозможен на текущем железе додейрыч, все что делается это псевдо аги с костылями костыльными, симуляция аги, нейросеть может прикидывать уже что она умная, но быть тупой хуетой, даже 7б модели лоботомиты так умеют.
>>1039550 >Ризонинг Размышления сетки это круто конечно, но зачем она это высирает в десятках тыщ токенов? Ты же когда думаешь, не пишешь 100500+ абзацев текста, чтобы потом написать ответ? Это неплохо для того чтобы отслеживать "мысли" сетки, но я не хочу тратить на эти токены деньги >мультимодальность Все ещё нет нормальной мультимодальной сетки, то у одной аутпута изображений нет, то схемы с 5+ нодами читать не умеет или просто не видит связи между ними Мультимодальность хорошо конечно, но только когда она реально работает а не так, что "здесь не работает, здесь косо, а здесь криво" >отличную генерацию видео\аудио Я тебя умоляю, может аудио и стало чище и лучше, но видео явно требует пиздец каких доработок и улучшений, пока кроме как 5-секудные еле связанные фрагменты с потерей физики и пространства генерировать она не умеет ладно говорящие головы умеет делать хорошо >Меня Альтман не интересует А должен, именно он начал весь этот ИИ цирк и именно он задает тренды, даже если это нагло спизженный продукт, как deep research например Типа Яблочников, только в сфере ИИ
Это полная хуйня. AGI это не количество параметров, это не объем знаний, не умение говорить на 50 языках, это не прочитанная вся информация интернета лол.
AGI это архитектура в первую очередь. И базовая архитектура AGI возможно может быть очень-очень компактной.
Ризонинг уровня DeepSeek R-1 повторили за 30 долларов всего на 1.5B параметрах. И это далеко не предел.
Я не удивлюсь, если настоящий AGI со свободой воли (но без большого объема знаний) можно запустить на домашнем компьютере.
Вообще весь этот RL это тупо брутфорс AGI, конечно он СУПЕР НЕОПТИМАЛЕН. Само существование дистилляции говорит о том что в нейронках просто астрономический объем мусора, и процесс обучения супер неоптимален.
Архитектуры AGI пока нет, поэтому брутфорсят так же как эволюция, а потом дистиллируют.
Но если вдруг появится архитектура, возможно, AGI можно получить на очень маленьком компьюте.
>>1039569 >этот RL это тупо брутфорс AGI, конечно он СУПЕР НЕОПТИМАЛЕН Может этот путь и выбрали, раз уж хотят въебать сотни миллиардов долларов на компьют А там сетка сама разберётся что оптимально, а что нет
>>1039569 Двачую есть мнение что сознание вообще находится в очень маленькой области мозга, 90% мозга используется под бекапы ненужного говна типа воспоминаний как назвал батю лысым и обслуживание функционала бренной тушки
>>1039569 Если бы аги был возможен на текущем железе его бы уже сделали, там самые умные умы сейчас дрочатся + неограниченные ресурсы самых умных нейросеток которые не идут в продакшн из-за прав юридических и авторских. Альтапидомен сказал что они в душе не ебут как аги делать м даже не начинали.
>>1039651 Там кал. Это не архив РАН. Ты просто тупой и не понимаешь о чём речь. Иди дальше свои рефераты делай, школьник. В серьезном инсте ты с этим пойдешь просто партянки мотать.
>>1039643 Нахуя тебе к порнухе СУБТИТРЫ. Ты ебанутый? Это изба-дрочильня, а не изба-читальня, а к этому калу ТТС или хотя бы виндовая озвучка даже не прикручена наверняка.
>>1039677 > архив РАН Устаревшая хуета в целом, а если тематика исследования относится к Computer Science, то абсолютно протухшая хуйня. Это всяким историкам и прочим гуманитариям надо в архивчике ковыряться, остальные давно хуй забили на это.
>>1039705 Т.е. в комплект к плееру надо еще видяху за 50к. Вместо того, чтоб посмотреть бесплатно без смс с рекламой казлино. Ну ок, уверен идея стоящая, нищие васяны у которых нет 200 рублей в месяцу на подписку со стрим-залупой где весь этот кал без рекламы - точно побегут теряя тапки смотреть с гуглосабами (прикупив видяху за 50к). Воистину сингулярность уже здесь! Это же... блядь просто революция какая-то.
>>1039712 >Устаревшая хуета в целом, Уверен, когда на доктора наук будешь защищаться в комиссии тебя выслушают и поймут. А пока просто иди нахуй, клоун. Не забудь рассказать, как ты без образования и папы за границей стал наносеком 300к, и уже живешь в солнечной Коммифорнии, попивая дайкини у себя в горящем квартале.
Но вернёмся к началу разговора. Ты сказал: можно. На самом деле: нельзя. Всё остальное просто виляние сракой, ты не Альтман, да и мужа у тебя нет, попустись.
>>1039718 >когда на доктора наук будешь защищаться Сорян твои доктора наук ток бумажки в этих архивах и дрочат Но молодцы готовят хорошие данные для ии
>>1039718 > когда на доктора наук будешь защищаться в комиссии тебя выслушают и поймут > А пока просто иди нахуй Эти проекции раба-вахтеришки с говноНИИ или прочей подобной залупы.
> На самом деле: нельзя. Я СКОЗАЛ НИЗЗЗЯ, ЗНАЧИТ НИЗЗЗЯ ПОТОМУ ША Я ВАХТЕРИШКА-ХУЕСОСИШКА Да срал я твою богадельню. Вот когда тебя совсем выкинут на мороз, чтобы оптимизировать бюджет, вспомнишь эти слова, да некому уже будет рявкать. Мне больше 4 лет назад художники затирали, что всё у них заебись, а теперь сосут залупу, смешно теперь читать этот тред https://2ch.hk/pa/arch/2020-11-21/res/618201.html
>>1039725 >а теперь сосут залупу >и вот вам пруф >тред с набросом пятилетней давности Примерно так же как и айтишники сосут или 3дшники, менеджеры, дизайнеры и прочее. Когда заменят уже? Еще две недели?
>>1039740 > Примерно так же как и айтишники сосут Сосут, сокращения, зумерки плачут что хуй вкатишься/устроишься > или 3дшники Давно сосут > дизайнеры Вообще промолчу
>>1039762 А тебе не приходило в голову что это в целом естественный тренд, который был ещё до нейросеток? С каждым годом требования в молодых сфера повышаются, где раньше любого бомжа с улицы брали. Сейчас уже, внезапно, вкатывальщики которые прошли какой-то говнокурс по вебпрограммированию от инфоцыган уже никому не нужны. Да как же так? Опять клятые нейросетки!
>>1039775 Во всем что касается графики, дизайна, обработки фото, иллюстраций точно не из за этого. Нейронки справляются очень хорошо, кроме случаев когда нужно совсем уж сложное кропотливое дрочево или какой то супер уникальный стиль. Ну и в целом требования то почему повышаются? Потому что более низкоскилловое может генерить нейронка
>>1039783 Для инди разработчиков или адского мобильного говнослопа да, может быть. В приличных конторах это не используется, либо используется как небольшой кусок пайплайна, профит от которого довольно сомнительный.
>>1039792 Ну ты же понимаешь, что в "приличных конторах" единицы работают, а 90% рынка состояло из обычных лоу-среднескилловых, которых и решают. И так во многих сферах.
>>1039838 Вполне да, занимаются, в продуках от adobe (лидерах рынка) во всю используются нейронки. Сотни сервисов по генерации разной графики в пару кликов на нейронках. Работа с видео впечатляет. Буквально берут фото какого нибудь платья а нейронка натягивает его на модель и генерит фон, качество уже такое что можно использовать в рекламе.
>>1039687 Отрицая существование закрытых отделов в специфических НИИ, вы отрицаете существование госсекретности, то есть являетесь клиническими долбоебами. Без обид.
>>1039976 Эти ебанашки реально думают, что в "интернете есть фсё!!!". Хотя по факту в инете кроме общепопулярной хуиты нихуя нет. И все эти сцы хабы максимум с учебниками и устаревшим калом + инфоцыганщина и науч-поп.
>>1039725 >Мне больше 4 лет назад художники затирали, что всё у них заебись, а теперь сосут залупу Кому ты пиздишь, клоун? Рисобаки как рисовали так и рисуют. Даже расценки подняли. Отвалились только р34 клоуны рисовавшие поней с хуями, но это был пузырь в пару лет всего.
>>1039762 Прикол в том, что как минимум лет 5 будут восстребованы сеньоры всех областей, которые будут получать по 500к в месяц, но при этом если ты мидл джун, то ты идешь нахуй и найдутся дебилы, которые будут орать - ну вон же работают за огромные деньжищи, а вы говорите, что все. В начале 2000х я получил первые 20 баксов просто за то, что написал программу, которая берет ссылки из файла и вставляет их в браузер. Сейчас таких задач нет в принципе, уж тем более за 20 баксов и чем дальше, тем сложнее будет начать вкатываться.
>>1039783 >Нейронки справляются очень хорошо Сказал школьник ни с чем не работавший. Иначе бы ты такую хуйню не писал, вот тебе пример чмонь прям из этого треда: >>1039531 Даже если сделают такую мультимодалку, там на выходе будет ценник в 100к рублей, если не больше, при так себе хуеватом всё равно качестве. Не забудь еще, что в РФ официально голливуд не катают, так что ты у корпов писю пососешь с попыткой сунуть туда неположенное.
>>1039841 Где массовые сокращения в рекламных агентствах Бердянска? М? Обзвон НЕ человеком, кстати, шоколотрон, это уголовка как в РФ так и в США (тем более! и очень давно). Вот ти думай, когда мозг отрастёт.
>>1040020 > Сейчас таких задач нет в принципе, уж тем более за 20 баксов и чем дальше, тем сложнее будет начать вкатываться. В 90х мой племянник тряпачкой протирал лобовухи в миллионнике и зарабатывал в день как его батя заводчанин, которому еще и пряниками платили. Охуенные примеры, братан, но ты попытался. Прикинь, щас таких работ даже нету! Миллионы умерших от голода школьников!
>>1040032 Если я 20 лет назад свой первый заказ за 20 баксов сделал, наверное закончил уже. Считать в школе не учили? >>1040038 Дело в том, что нейронки выебут последних вкатунов из-за автоматизации. Я про это. А в течении 5 лет выебут и остальных, но дебилы, повторю, будут тыкать пальцем на сеньоров в силиконовой долине, получающих по 20к баксов в месяц, которые эти самые нейронки пилят. Глубокие аналитические способности дебилов продолжают удивлять.
>>1040049 Я что-то подобное еще лет 10 назад слышал про роботов на производстве которые вот-вот всех зарешают. Правда при ближайшем рассмотрении с цифрами оказывалось что чем выше процент роботов на 1,000 рабочих тем меньше в целом оказывается безработица. Потому любая автоматизация повышает маржинальность и соответственно приводит к расширению производства.
>>1040060 10 лет назад не было никаких предпосылок, я хуй знает где ты мог такое слышать. Про роботов я ничего не говорю, так как роботы это сложнее чем просто софт. 10 лет назад были узкоспециализированные роботы, вроде сборщиков тачек, но сейчас есть риск появления универсальных роботов, правда процесс будет медленнее замещения чисто интеллектуального труда.
>>1040063 Ебаный ваш рот. В текущей ситуации ваши нейронки обосранные не способны печку регулировать в эксперименте лучше человека. Роботы у них появятся для замещения уже завтра. Вообще охуеть.
>>1040128 Я думаю, тут-то и сгодятся 100500 прорывных исследований, уже совершенных паджитами с помощью чатгпт с целью получить по-быстрому гринкард. Вряд ли кто серьезно закрывает к ним доступ, скорее наоборот.
>>1040123 У меня диксик не смог решить простейшую возникшую задачу по теорверу, которую я в итоге решил с помощью миллиона бросаний РНГ, так как из математики я не помню даже логарифмы. Зато в режиме резонерства он мне минут 5 рисовал стену из формул, и я начал весело ржать на это глядя.
>>1039474 >Пожить как нормальный человек Что в твоём понимании "нормально"?
>>1039502 >Нейросети улучшаются по экспоненте По экспоненте только бабло в них кидают... Все эти бенчмарки не способны адекватно оценить "AGI", а накачивание данных в narrow AI не приводит к AGI.
>Уровень AGI вот-вот будет преодолен Нет "уровня AGI", для него нужна другая база.
>>1039569 >AGI это архитектура в первую очередь. И базовая архитектура AGI может быть очень компактной. Согласен, всё именно так.
>настоящий AGI со свободой воли Что ты понимаешь под "свободой воли"? Всё-таки определённая свобода воли есть у NPC в играх даже прошлого века, но всё зависит от определения.
>Вообще весь этот RL это тупо брутфорс RL - это база, у тебя в голове RL тоже есть: если тебе кайфово, ты повторяешь, а если херово, то больше не повторяешь - это и есть RL. А брутфорс - это backprop. Бэкпропа у тебя в голове нет, в голове эффективнее.
>Но если вдруг появится архитектура Архитектуры для AGI разрабатывают с прошлого века, однако всем насрать, и текущим корпорациям сейчас насрать, пока они продолжают теребить трансформер. Например, вот https://numenta.com/ своё делают, но абсолютному большинству исследователей насрать - продолжают теребить трансформеры по кругу...
Вон сколько всего напридумывали, бери что хочешь: https://en.wikipedia.org/wiki/Cognitive_architecture Но нет, "bitter lesson" и "scaling laws" говорят, что нам необходимо только триллион баксов сжечь: всё само волшебным образом сформируется на пустом месте.
>>1039587 >там самые умные умы сейчас дрочатся Самые ушлые умы, определяющие AGI как "что угодно, лишь бы оно принесло нам сто миллиардов долларов".
Чтобы создать AGI, надо заспидранить миллиард лет эволюции вплоть до хомо сапиенса; но чтобы узнать, получился ли правильный AGI, нужно заспидранить минимум 5/10/15 лет обучения в реальном времени - нормального, человеческого обучения в людском коллективе. Исследования идут куда-то не туда...
>>1040312 >нужно заспидранить минимум 5/10/15 лет обучения в реальном времени А чё не триллиард? Я считаю что нужно пять минут времени индуса, и аги готов, опровергай.
>>1040317 Ты начал вести себя как человек, только потому что обезьянка твоя первые несколько лет держалась с остальными людьми рядом. Иначе не вышло бы. И вузовскую программу ты начал после школьной, а школьную после базового дошкольного обучения. Интересно, почему? Не проще было индуса нанять, который бы в твою голову интернет закачал?
>нужно пять минут времени индуса Этого хватит, если он знает, что делать. Но этого не достаточно, чтобы обучить AGI хотя бы до уровня пятилетки, на котором можно судить об AGI-шности.
По-моему, очевидно что нейронки это тупик, если наша цель создать AGI. Понимают ли это люди, которые должны создавать этот самый искусственный интеллект? Будет как-то странно считать их клинически тупыми, так что будем считать, что да, понимают. Итак, у нас есть группа лиц, обладающих практически безлимитным бюджетом, вычислительными мощностями, специалистами, чью работу практически невозможно инспектировать и провести аудит. Могут ли они, прикрываясь несоответствующим продуктом, на самом деле тайно разрабатывать тот самый ИИ?
—Отчеты действительно качественные и100 запросов для Pro вмесяц могут даже закончится— яуже потратил 15
—Deep research сам понимает когда ссылка имеет мало ценности иможет ееневключить вотчет, даже если нашел
—Мгновенная ценность для бизнеса: за10минут получил полный отчет конкурентов, сильной ислабой стороны моей компании, рекомендации как поступить— ионправда угадал почти повсем пунктам, процитировав тенаправления развития которые мыитак уже развиваем; я теперь туда буду носить все что требует проработки на уровне бизнеса
—Статьи правда большие: ради интереса заказал наанглийском про общество и рабочие места после AGI— вышло примерно 30минут если перегнать ваудио
—Понаполнению сгенерированная статья полностью покрывает заданную тему: перед началом подготовки отчета, Deep research уточнит детали которые считает нужными – при этом вы можете давать сложные инструкции, оно будет следовать
—Это все еще нейронка иона может ошибиться, поэтому сложные темы заней нужно проверять; япока невстречал такую ошибку всферах вкоторых разбираюсь, номне кажется важно про это упомянуть. Но сами OpenAI заявили, что эта нейронка свела до рекордного минимума галлюцинации.
—Уверен, люди будут очень много использовать Deep research вмедицинских целях— будут искать решения наоснове доказательной медицины конкретно под себя иисторию болезни
Вобщем, скоро это добавят вPlus план где будет 10запросов вмесяц— мой совет нетратить ихсразу наглупости, аподумать, естьли вжизни что-то важное настолько, что хотелосьбы качественно решить— Deep research правда ценный продукт, и может помочь и вам, и близким
P.S. Япользовался всеми возможными популярными иотрытыми агентскими системами которые были доDeep research для поиска данных в интернете, какие-то делал сам ради экспериментов – уOpenAI получился очень качественный инструмент уровень которого япока невстречал
>>1040461 Опять склейка букв, хуй знает как бороться с этим, текст я сперва скопировал в текстовик, а оттуда сюда. Раньше это помогало избавиться от проблемы.
На фоне планов OpenAI и Oracle по привлечению $500 миллиардов, и Китая, по выделению $140 миллиардов на поддержку ИИ-компаний, сегодня утром официальный Брюссель объявил о планах по разработке собственной модели искусственного интеллекта с открытым исходным кодом, на что было выделено $56 миллионов.
ИИ-сообщество встретило эту новость бурными комментариями:
Надеюсь, это ИИ не для разработки нового регулирования?
Бюджет на десяток инженеров по искусственному интеллекту в США... Это что, модель для муравьев?
— Отчеты действительно качественные и 100 запросов для Pro в месяц могут даже закончится — я уже потратил 15
— Deep research сам понимает когда ссылка имеет мало ценности и может ее не включить в отчет, даже если нашел
— Мгновенная ценность для бизнеса: за 10 минут получил полный отчет конкурентов, сильной и слабой стороны моей компании, рекомендации как поступить — и он правда угадал почти по всем пунктам, процитировав те направления развития которые мы и так уже развиваем; я теперь туда буду носить все что требует проработки на уровне бизнеса
— Статьи правда большие: ради интереса заказал на английском про общество и рабочие места после AGI — вышло примерно 30 минут если перегнать в аудио
— По наполнению сгенерированная статья полностью покрывает заданную тему: перед началом подготовки отчета, Deep research уточнит детали которые считает нужными – при этом вы можете давать сложные инструкции, оно будет следовать
— Это все еще нейронка и она может ошибиться, поэтому сложные темы за ней нужно проверять; я пока не встречал такую ошибку в сферах в которых разбираюсь, но мне кажется важно про это упомянуть. Но сами OpenAI заявили, что эта нейронка свела до рекордного минимума голлюцинации.
— Уверен, люди будут очень много использовать Deep research в медицинских целях — будут искать решения на основе доказательной медицины конкретно под себя и историю болезни
В общем, скоро это добавят в Plus план где будет 10 запросов в месяц — мой совет не тратить их сразу на глупости, а подумать, есть ли в жизни что-то важное настолько, что хотелось бы качественно решить — Deep research правда ценный продукт, и может помочь и вам, и близким
P.S. Я пользовался всеми возможными популярными и отрытыми агентскими системами которые были до Deep research для поиска данных в интернете, какие-то делал сам ради экспериментов – у OpenAI получился очень качественный инструмент уровень которого я пока не встречал
Интересный пост от Ethan Mollick - известного профессора Уортонской школы бизнеса, который пишет одни из самых глубоких материалов про ИИ в своем блоге One Useful Thing.
Давайте разберем, что происходит 👇
Революция происходит на наших глазах: в 2025 году у нас есть две ключевые технологии ИИ - Reasoners (системы-мыслители) и автономные агенты 🤖
Что такое Reasoners? 🧠 Это новый подход к ИИ, где модель сначала "думает", а потом отвечает. В отличие от обычных чат-ботов, которые генерируют текст на лету, Reasoners проводят внутренний анализ задачи. Чем дольше они размышляют, тем качественнее результат. За последние месяцы мы видели впечатляющий прогресс: от OpenAI o1 к o3, китайский DeepSeek r1, да и Google подтянулся со своим первым Reasoner'ом.
Что такое агенты? 🎯 Это ИИ с конкретной целью и автономностью в её достижении. OpenAI недавно выпустила Оператора - пожалуй, самого продвинутого универсального агента. Правда, пока что он часто спотыкается о простые задачи - например, не может скачать файл из-за ограничений безопасности. Но! В узких специализациях агенты уже творят чудеса (от себя добавлю, что мы в Страйпе наблюдаем взрывной рост agentic commerce, когда ИИ агенты идут и покупают, то что вам надо, за вас).
Deep Research - где всё сходится ✨ OpenAI объединила мощь Reasoner'а (модель o3) со специализированным агентом для исследований. Результат поражает:
- 5 минут работы = 13 страниц глубокого анализа - Только качественные академические источники - Точные цитаты с прямыми ссылками - "Любопытное" исследование: ИИ активно углубляется в интересные находки
Google тоже выпустила Deep Research, но пока что это больше похоже на работу хорошего студента: много источников, но анализ поверхностный. Впрочем, зная темпы развития, этот разрыв скоро сократится.
Что дальше? 🚀 Узкоспециализированные агенты уже могут заменить работу целых команд экспертов. OpenAI утверждает, что их система способна справиться с 15% высокоценных исследовательских проектов и 9% особо сложных. Звучит амбициозно, но мой опыт тестирования подтверждает - цифры не с потолка.
Эксперты не останутся без работы - их роль эволюционирует от исполнителей к "дирижерам", направляющим и проверяющим работу ИИ (как например, программисты теперь «дирижируют» Курсором). Но стоит ожидать, что людей для такой работы нужно будет значительно меньше.
На январь 2025 года мы еще далеки от универсальных ИИ-агентов, но уже очень близки к тому, чтобы ИИ превзошел 95% людей в работе белых воронничков. Включая soft skills (да-да, я уверен, что работающих AI-менеджеров мы увидим раньше, чем AI-слесарей).
>>1040465 К сожалению Россия тоже не врывается в тред. Алиса про, конечно, что-то там мне выдавала, но помоему уровень все еще 3.5 опенеай, короче отставание в 3 года, безнадежно.
>>1040472 >Что такое агенты? >Это ИИ с конкретной целью >выпустила Оператора - пожалуй, самого продвинутого универсального агента Звучит, как полная хуйня. Если человек сходу в двух соседних предложениях противоречит сам себе - всё его мнение бред умалишённого.
Великий Китай громит США в ИИ-гонке! Кто ещё, кроме DeepSeek, заставил Запад дрожать? Автор колонки: Иван Петров, Тверь
Пока западные «партнёры» в панике теряют триллионы долларов, наши китайские братья совершают технологическую революцию! Недавний прорыв компании DeepSeek, которая обошла американский OpenAI, стал настоящим плевком в лицо зажравшимся пиндосам. Дональд Трамп аж проснулся от страха, назвав это «звонком будильника» — да уж, скоро весь мир услышит китайский «будильник»! А в Поднебесной основатель DeepSeek Лян Вэньфэн уже герой, получивший личную благодарность от премьера Ли Цяна. Кстати, он не постеснялся поделиться тайной: DeepSeek основан на наших, советских разработках! Вот оно, будущее — за Востоком, а не за прогнившим Западом!
Alibaba Cloud — флагман китайской мощи! Пока американцы праздновали свой унылый Новый год, Alibaba Cloud в первый день крутого Лунного года выпустила модель Qwen 2.5-Max, которая, как гроза, размазала по benchmarks и DeepSeek, и «продвинутую» Meta. Китайцы даже на праздниках не отдыхают — работают на благо прогресса! Западные аналитики в шоке: «Это ответ на доминирование США?» Ещё какой ответ!
Zhipu — герой под санкциями! А тут янки опять показали свою подлую натуру — внесли Zhipu в чёрный список за «помощь армии Китая». Какие доказательства? Никаких! Просто боятся, что китайский ИИ станет сильнее ихнего. А Zhipu уже выпустил AutoGLM — голосового ассистента, который делает из смартфона умного помощника. Санкции? Да это медаль за отвагу!
Moonshot AI — младший брат DeepSeek! Эта стартап-звезда, поддержанная Alibaba, в тот же день, что и DeepSeek, выкатила модель Kimi k1.5. Она обрабатывает 2 миллиона иероглифов за раз — ни одна западная поделка даже близко не стоит! «Moonshot скоро догонит DeepSeek», — говорят эксперты. А мы и не сомневаемся!
ByteDance — TikTok рулит, ИИ крушит! Создатели TikTok, которые уже заставили США истерить, теперь и в ИИ всех обходят. Их Doubao-1.5-pro дешевле DeepSeek в два раза, а по мощности — как OpenAI! Всего 9 юаней за миллион токенов против 438 у американцев. Вот она, народная цена технологий!
Tencent — титан игр и ИИ! Даже в создании видео из текста китайцы обскакали Meta. Их модель Hunyuan требует в 10 раз меньше ресурсов, чем Llama 3.1. Пока западные компании тратят миллиарды, Китай умно экономит и побеждает.
Вывод для нас, русских: Пока НАТО душит Россию санкциями, Китай показывает, как надо бить врага технологиями. Нам, братья, пора крепче дружить с Востоком! Нефть и газ — это хорошо, но будущее — за ИИ. Смотрите, как китайцы не боятся санкций, а только сильнее становятся. Наш Путин правильно делает, что поворачивается к Азии — тут и сила, и честь, и прогресс! Запад дрожит, а Китай и Россия идут вперёд! Слава великому китайскому народу и нашим общим победам! 🇨🇳🇷🇺
>>1039569 >Ризонинг Срать бредом в самую важную часть контекста это не ризонинг >весь этот RL это тупо брутфорс AGI, конечно он СУПЕР НЕОПТИМАЛЕН Супер неоптимальный брутфорс супер сложной системы, заебись форсится
>>1040472 >Google тоже выпустила Deep Research, но пока что это больше похоже на работу хорошего студента Зато у гугла есть доступ ко всей переписке на гуглопочте для обучения, заплати 200 баксов и ИИ тебе как бы намекнет на ценный инсайд :)
>>1040666 Нет кадров и ресурсов для обучения. Железо не готово для гпт5, вместо выкатили ризонинг ресерш хуйняшки, радуйся это до 26+ года теперь направление
Вот вам вброс, логическая задачка, решить ее нормально могут только модели с резонингом (Deepseek и chat gpt o3). Старые модели могут только приблизиться к результату, что забавно, последний Гигачат дал более приближенный ответ, чем Chat gpt 4o. Вот сама задачка, можете позакидывать:
Реши логическую задачу:
На улице стоят пять складов. Каменщик работает в зеленом складе. У портного есть леопард. На желтом складе едят котлету. Электрик ест хлеб. Желтый склад стоит сразу справа от синего склада. Тот, кто пьет коньяк разводит пуму. В белом складе пьют вино. В центральном складе едят пельмени. Плотник работает на первом складе. Сосед того, кто пьет водку, держит медведя. На складе по соседству с тем, в котором держат тигра, пьют вино. Тот, кто пьет виски, ест макароны. Программист пьет ром. Плотник работает рядом с красным складом.
>>1040411 >Без экономических катаклизмов из-за тотального разрушения экономической модели человечества. И что же её разрушит? ИИ, который температуру регулирует хуже контроллера 40-летней давности?
>>1040694 Какая-то всратая задача, либо условие не полное. Про пиццу нигде не было упоминания в условии. Это бы могло вытечь из условия что на каждом складе жрут и пьют что-то свое и кого-то разводят и это все не повторяется, но этого нет.
>>1040725 Ну ладно, где ГПТ-4? Конкретно новая модель которая называется гпт-4, а не связка 3,5 говна? Сиди тихо, любитель жопотрах-чата. Еще б ты тут пытался топить за то, что Чмальтман не пиздобол.
Модели ошибаются из-за алаймента, потому что боятся, что вы можете порезаться о дно стакана, а потому на всякий случай говорят, что нельзя из него пить, но если в начале добавить, что это просто загадка, то некоторые модели её начинают на изичах решать, как на скрине
>>1040773 >Модели ошибаются из-за алаймента, потому что боятся, что вы можете порезаться о дно стакана, а потому на всякий случай говорят И как это оправдывает хуевость модели? Никак. Алсо нигде не говорит про порезаться, идея пить нельзя - потому что стакан не способен удерживать воду, нет воды - нельзя выпить воду, потому что её нет. Что за маня отмазки у тебя. Алсо вот я пруфанул что жопотрах-чат гейски тренирован Альтманом. Абсолютно нет причин ставить этот гейский смайл. Надо написать в роскомнадзор, чтоб забанили апи этого говна в РФ за пропоганду лгбт.
Это исторический минимум: до этого ни одна модель не набирала меньше процента. Для сравнения, у DeepSeek-R1 ошибка составляет аж 14.3 %, у DeepSeek-V3 – 3.9 %, а у o1 – 2.4 %.
Это интересная метрика, потому что проверить ее не так-то просто. Часто для этого используют подход LLM-as-a-judge, когда одна LLM оценивает другую. Но проблема в том, что при этом получается эффект "эхо-камеры" и на выходе мы имеем несостоятельную оценку.
Vectara, которые составляют лидерборд галлюцинаций, из которого взяты оценки выше, наоборот, используют собственную detection модель HHEM-2.0, и она работает вообще без сторонних LLM. HHEM просто анализирует соответствие ответа исходным данным и присваивает ему Factual Consistency Score от 0 до 1. https://www.vectara.com/blog/hhem-2-1-a-better-hallucination-detection-model
>>1040840 >Процент галлюцинаций Неплохо потому что начали пробивать шанс ошибки меньше 1% Но нужен шанс ошибки ещё меньше, хотя бы меньше чем у кожаного на порядок 1%? Может 0.1%? Или 0.01%? Сколько на это нужно компьюта? Думаю дохуя такими темпами, если не оптимизируют ии ещё дальше
>>1040689 А толку в рилтайм обучении? Фундаментально это ничего не изменит, а скорее даже ухудшит работу нейросети. Тем более, уже были нейронки, которые по заявлениям обучались рилтайм. Превращались в дегенератов, потому что пользователи - дегенераты. Да, это может на что-то повлиять, но в аги волшебным образом не превратит. И представь себе насколько сложные должны быть подобные механизмы - задаёшь нейросети вопрос, она отвечает неверно, ты ей сообщаешь правильный ответ. Ей нужно "забыть" свой ответ, "забыть" твои пояснения, извлечь из твоего сообщения сам ответ и "запомнить" уже его. Теперешние нейросети в каждом аспекте очень криво работают. Тот же контекст. Сейчас весь контекст это просто векторы, которые размываются другими векторами и нейросеть принимает это как нечто усреднённое. Потому же работают и цепочки мыслей, и ризонинг. Нейросеть высирает больше релевантных токенов, благодаря чему усреднение склоняется в нужную сторону. Технически это просто наваливание большего количества вычислительных мощностей на решение той же задачи, что качественным ростом никак не назвать. То есть тоже тупик, но здесь интересно то, что это демонстрирует несовершенство механизмов внимания. Но даже если сделать LLM с "идеальным" вниманием - она всё равно не станет AGI.
>>1040852 >а скорее даже ухудшит работу нейросети ну если ты будешь кормить её порнухой с говном то да ухудшит хороший годный ии должен адаптироваться >AGI что такое AGI кстати?
>>1040852 Ей не нужно забывать ответ, ей нужно просто обновить веса или хуй знает как там будет устроено. > толку в рилтайм обучении Ну если мы хотим AGI(я так понимаю у него должно быть сознание) то желательно чтобы архитектура пусть и не во всем но в основном копировала наш моск, а наш моск обучается реалтайм. Причем не тока обучение, но и постоянная обратная связь с камер, всяких датчиков и т.д Текущие нейросети просто перебирают вероятности на основе датасета, поэтому без реал-таймовой компоненты она всегда будет ограничена этим датасетом.
Попробовал задать загадку с 12 из 15 пунктов и вырезал 3.
Реши логическую задачу:
На улице стоят пять складов. Каменщик работает в зеленом складе. У портного есть леопард. На желтом складе едят котлету. Желтый склад стоит сразу справа от синего склада. Тот, кто пьет коньяк разводит пуму. В центральном складе едят пельмени. Плотник работает на первом складе. Сосед того, кто пьет водку, держит медведя. На складе по соседству с тем, в котором держат тигра, пьют вино. Тот, кто пьет виски, ест макароны. Плотник работает рядом с красным складом.
Кто ест пиццу? Кто держит крокодила?
То есть информации явно должно быть недостаточно для правильного ответа. Диксик сначала признался что запутался, но тут внезапно ДАННЫЕ УТОЧНИЛИСЬ и правильный ответ нашелся. АГИ? АГИ!
Мощная волна кибернападений вынудила компанию экстренно менять IP-адреса.
Китайская компания DeepSeek, продвигающаяся в сфере искусственного интеллекта, столкнулась с волной масштабных DDoS-атак, которые серьёзно нарушили работу её сервисов. Нападки на инфраструктуру начались вскоре после выпуска модели DeepSeek-R1, ставшей достойным конкурентом разработкам OpenAI и предложившей более доступное решение в области генеративного ИИ.
По данным исследователей NSFOCUS, атаки на API-интерфейс DeepSeek были зафиксированы 25, 26 и 27 января, причём злоумышленники использовали NTP- и Memcached-рефлексию. Средняя продолжительность атак составила 35 минут, а сами атаки привели к сбоям в работе сервисов компании. DeepSeek-R1 предлагает пользователям широкие возможности генерации диалогов и автозавершения, что делает платформу привлекательной для разработчиков.
Дополнительно зафиксированы атаки на чат-систему DeepSeek 20 и 25 января, причём их продолжительность превышала один час. В это же время компания представила свою новую модель, отличающуюся улучшенным процессом обучения с подкреплением и высокой точностью в математических и программных задачах.
Ситуация ухудшилась 28 января, когда команда DeepSeek объявила о масштабной кибератаке, вынудившей компанию сменить IP-адреса для защиты инфраструктуры. Однако преступники оперативно адаптировались и запустили новую волну атак, включая рефлективные атаки CLDAP. Пострадавшими вновь стали основные домены DeepSeek, а работа API-платформы оставалась парализованной.
Специалисты отмечают высокую организованность и точность действий злоумышленников. Переключение IP-адресов не спасло от атак, поскольку преступники мгновенно реагировали и корректировали тактику. В NSFOCUS указывают, что атака имеет международный характер: источники угроз находятся в США, Великобритании и Австралии. Использование распределённых серверов затрудняет идентификацию исполнителей, что типично для профессионально организованных атак.
Эта атака подчёркивает важность DeepSeek на мировом рынке ИИ и демонстрирует сложность конкурентной борьбы в технологической сфере. Помимо разработок новых моделей, компаниям приходится уделять всё больше внимания кибербезопасности, чтобы противостоять целенаправленным нападениям. В современных условиях защита инфраструктуры становится неотъемлемой частью успеха технологических компаний.
Два очень крутых момента: 1. Заточен на генерации людей, причем не только аватаров, но и различные виды портретной съемки (лицо крупным планом, портрет, половина тела, полное тело). Обрабатывает взаимодействие человека с объектами и сложные позы тела, а также адаптируется к различным стилям изображения.
2. И самое главное, на входе у него не только текст и картинка (как мы привыкли), но полный набор вот таких модальностей: текст, аудио(да, звук на вход для липсинка), картинка, другое видео, и внимание - позы. Типа контролНет, который забирается с других видео или картинок. Причем внутри есть развесовка этих разных входных сигналов.
В основе лежит видеогенератор SeaWeed (https://t.me/cgevent/9539)(text-to-video), от Тиктока же, на которого навалили Omni-Conditions Training Strategy - обучение на разных входных сигналах.
OmniHuman model utilizes a causal 3DVAE to project videos at their native size into a latent space and employs flow matching as the training objective to learn the video denoising process. We employ a three-stage mixed condition post-training approach to progressively transform the diffusion model from a general text-to-video model to a multi-condition human video generation model. These stages sequentially introduce the driving modalities of text, audio, and pose according to their motion correlation strength, from weak to strong, and balance their training ratios.
Поглядите на сайт проекта, тьма видосов. Там и певцы, и на дуде игрецы, и махальщики руками. Но кода нет. Код Loopy и CyberHost тоже не появился. Что наводит на нехорошие мысли.
27-28 января 2025 года делегация РУССОФТ приняла участие в крупнейшей в Омане выставке искусственного интеллекта (ИИ), представляющей лучшие практики и развивающиеся тенденции в регионе и во всем мире — Oman AI Summit 2025. Возглавил делегацию Валентин Макаров, президент РУССОФТ.
Саммит собрал на своей площадке экспертов в сфере ИИ из более чем 40 стран мира, в том числе представителей международных организаций (ЕС, ООН, ЮНЕСКО), правительственных организаций стран Ближнего Востока, а также коммерческих компаний из ряда зарубежных стран и самого Омана.
Продвижение идеологии применения ИИ в самых разных областях общественной жизни, экономики и государственного управления является одним из приоритетов руководства страны. В подтверждение этому на Саммите присутствовали губернатор северной части Эль-Батины, мухафазы в Омане, и мэр Маската, столицы Омана.
Форум сопровождался большой выставкой, в которой принимали участие компании Омана, других стран Ближнего Востока, а также ряд зарубежных компаний. Можно отметить отсутствие на выставке компаний из США и КНР, что может свидетельствовать о том, что рынок ИИ Омана пока не рассматривается этими странами в качестве ключевого, что открывает возможность для российских ИТ-компаний.
Валентин Макаров за время Саммита провел переговоры с рядом местных дистрибьютеров, которых заинтересовала возможность продвижения российских решений в области ИИ в Омане и в странах Ближнего Востока.
«Россия воспринимается в Омане как страна, не поддавшаяся внешнему диктату и доказавшая способность замещения самых известных импортных продуктов. Этот факт может выступить основанием маркетинговой политики российских компаний. Для таких небольших, но ресурсных стран, как Оман, вопрос сотрудничества с Россией в деле обретения технологического суверенитета целесообразно подавать не с точки зрения политики и борьбы с возможными санкциями против Омана, а в качестве способа снижения рисков монополизации рынка решений ИИ со стороны крупнейших корпораций, претендующих на монополию», — отмечает Валентин.
По результатам участия РУССОФТ в Oman AI Summit можно отметить, что уровень компетенций в области ИИ представителей местных органов власти достаточно высок, а их нацеленность на широкое внедрение ИИ в госуправлении и в бизнесе достойна уважения. С ними можно и нужно работать для продвижения российских продуктов и комплексных услуг по интеграции ИИ в органах власти и в экономике Омана.
«Подводя итоги нашей поездки, я могу с уверенностью сказать, что Оман обладает значительным потенциалом для сотрудничества в сфере искусственного интеллекта. Уровень компетенций представителей местных органов власти в области ИИ меня приятно удивил, а их стремление к широкому внедрению ИИ в государственном управлении и бизнесе вызывает уважение. Я вижу здесь большие возможности для продвижения российских продуктов и комплексных услуг по интеграции ИИ в органы власти и экономику Омана. Кроме того, в Омане Россию воспринимают как страну, которая не поддалась внешнему давлению и смогла начать процесс импортозамещения. В ходе этой поездки нам удалось установить ряд полезных контактов, и я уверен, что это только начало нашего плодотворного сотрудничества», — поделился Дмитрий Цымбал, генеральный директор Antares Software Group, по результатам участия в мероприятии.
С другой стороны, учитывая существующее общее доминирование в странах Ближнего Востока продуктов из США на ИТ-рынке, продажа в Омане отдельных продуктов, совместимых с решения глобальных корпораций, будет сложным, поскольку придется конкурировать с устоявшимися на этом рынке игроками. Преимуществом российских компаний может быть опыт обретения технологического суверенитета и предложение платформенных решений, обеспечивающих такой суверенитет — они могут включать импортные компоненты, но также инструменты, обеспечивающие нейтрализацию рисков.
Предложение платформенных решений предполагает совместимость всех компонентов и их совместную эффективную работу, а также наличие у интегратора платформенного решения компетенций консалтинга и глубокого понимания работы платформенного решения в конкретной сфере применения. И это новый вызов для российских разработчиков — необходимо наращивать компетенции консалтинга.
Формирование платформенных решений, состоящих из продуктов разных российских и зарубежных вендоров, а также поставка более дорогих — платформенных — решений потребует господдержки. Эта поддержка необходима на уроне формирования и отработки эффективной совместной работы продуктов разных вендоров в рамках платформенного решения (например, через РФРИТ за счет выделения ему соответствующего бюджета), а также за счет предоставления сравнимого уровня поддержки покупателя, включая кредитование покупателя на равных условиях с конкурентами из США, ЕС, КНР.
>>1040855 >хороший годный ии должен адаптироваться То есть чтобы сделать "годный ии" - он должен обучаться. Чтобы это не испортило ии - он должен быть годным. Проблемы не видишь? >что такое AGI Artificial general intelligence
>>1040968 >ей нужно просто обновить веса или хуй знает как там будет устроено. Так нейронка обучается на парах вопрос-ответ. Допустим, ты общаешься с ней, задаёшь вопрос, получаешь неверный ответ, корректируешь ответ. Итого, вместо пары вопрос-ответ есть целый диалог. Прежде всего, нужно выяснить есть ли здесь вообще ценная информация для запоминания, потом составить этот самый вопрос-ответ, отсекая всё остальное и уже только потом обновить веса. И при каждом полученном сообщении проводить такую проверку. Да ещё проверять, не говном ли пользователь кормит, то есть иметь критическое мышление. А этого и у людей-то нет. >без реал-таймовой компоненты она всегда будет ограничена этим датасетом Есть люди с разными формами амнезии, в том числе достаточно "оперативно" забывающие всё. Обладают ли они интеллектом? Определённо. То есть способность в реальном времени усваивать новую информацию - не является критичной и без неё можно обойтись.
>>1042055 Заебал со своей демагогией. > нейронка обучается на парах вопрос-ответ Нет, она обучается на огромных датасетах которые к тому же уже закончились, скормили все что есть и даже так она обсирается в мелочах
>этого и у людей-то нет Шиз >забывающие всё Они забывают не всё, шиз. Почитай хоть что-то по теме
>>1042176 То есть ты настолько тупой, что даже не пытаешься спорить с тем, что я имел ввиду. Вместо этого ты додумываешь то, чего не было и споришь с этим. >Они забывают не всё Гугли типы амнезии, долбоёб. Если что, их больше одной.
Помните нейробалеты, нейрогимнастики и прочую нейронепотребщину?
Тут вот Мета бахнула интересную работу.
VideoJAM: Joint Appearance-Motion Representations for Enhanced Motion Generation in Video Models
Это не модель, а фреймворк для улучшения видеомоделей, который объединяет представление внешнего вида объекта и его движение (в латентном пространстве). Что приводит к резкому росту качества генерации и согласованности именно движений объектов.
This is achieved through two complementary modifications: during training, we amend the objective to predict motion in addition to appearance, and during inference, we propose a guidance mechanism to leverage the learned motion prior for temporally coherent generations.
>>1042486 Так они нихера еще не сделали и уже хотят бюджетных денег. И чего сразу опенаи? Не будь как та самая мамашка, которая все время сына подруги в пример ставит.
>>1042504 >Так они нихера еще не сделали и уже Может быть ты сперва загуглишь Antares Software Group, а потом будешь говорить, что они ничего не делают? Конторе 25 лет. Они очевидно работают со всякой сверхсекретной хуйней, так то у них 700 успешных проектов. Никто не станет шарашкину конторку которая в 00х дисками торговала притягивать аж в Оман, на стратегически важные для будущего России проекты, ты это понимаешь? Это серьезный бизнес.
>>1042504 А что они должны сделать, долбоеб? Вон у яндекса есть алисапро, у сбера гигачат, вероятно еще есть наработки. Они уровня чата жпт 3-3.5, но а хуле ты хотел без финансирования? Тут проблема в том, что с китайцами и американцами один хуй тягаться невозможно, ибо железа нет, а специалисты съебали отсюда из-за запретов всего и санкций.
>>1042535 >у яндекса есть алисапро ну так неплохая модель, но звезд с неба не хватает, чисто разжевать теорию поможет у нас больше нехватка компьюта из-за санкций, чем спецов по машинке
думаю китай брат нефритовый стержень будет подгонять модели через опенсурс а мы будем использовать их точнее уже используем
>>1042545 Так смысла нет, нахуй нужны специалисты, если чужие модели берем? Дообучить не проблема, прикрутить по апи тем более. Но без специалистов ты будешь сосать хуй.
Дипсик - ебут. Гемини - ебут. Чпокус - дорого, но его тоже ебут всё равно. Жопотахчат - не может в русский.
Итого, сижу скрипя-пердя по старинке все делаю ручками, имаджинируя еблеты тех, кто побежал бы сейчас быстро на базе ненадежной хуйни по апи бизнес процессы строить или въябывать в сетап для лохалки с нормальной скоростью бабки превосходящие затраты на мешки с говном и мясом.
>>1042551 >нахуй нужны специалисты, если чужие модели берем даже чужие модели нужно кому-то настраивать и внедрять я понимаю что в твоем манямирке все делается за две кнопки
Бретт Эдкок, фаундер известного робо-стартапа FugureAI, написал в Твиттере что:
1. Стартап разрывает контракт с OpenAI, который они заключали в начале прошлой весны
2. В течение 30 дней они покажут нечто такое, чего никто еще не видел на рынке роботов-гуманоидов
Надо сказать, что их сотрудничество с OpenAI не было бесплодным. В августе они анонсировали совместного крутого робота, который должен был появиться в продаже как раз в 2025.
Что же произошло? Связано ли это с декабрьскими новостями о том, что стартап пересобирает команду робототехников?
Как бы там ни было, сейчас ясно одно: Маск нервно закурил
>>1042315 Интересно, что заставляет додиков типа тебя влезать в спор. Вместо аргументации только визги, никакой позиции, квалификации, понимания предмета или мнения. Видимо, иногда цель просто повизжать.
>>1043268 >Такие маленькие суперпрофессиональные модели могут реально заменить много врачей Почему их не заменил IBM Ватсон до сих пор?
Представлена Kimi k1.5 — мультимодальную модель уровня [GPT-4]o1
Производительность Sota short-CoT, превосходящая GPT-4o и Claude Sonnet 3.5 на AIME, MATH-500, LiveCodeBench с большим отрывом (до +550%) Производительность long-CoT соответствует o1 в нескольких модальностях (MathVista, AIME, Codeforces и т. д.)
"Предобучение языковой модели с предсказанием следующего токена эффективно для масштабирования вычислений, но ограничено объемом доступных обучающих данных. Масштабирование обучения с подкреплением (RL) открывает новую ось для постоянного совершенствования искусственного интеллекта, обещая, что большие языковые модели (LLM) смогут масштабировать свои наборы обучающих данных, обучаясь исследованию с вознаграждением. Однако предыдущие опубликованные исследования не позволяли достичь конкурентоспособных результатов. В свете этого мы публикуем отчёт об обучении Kimi k1.5, нашей новейшей мультимодальной LLM, обученной с RL, включая описание её RL-методов, рецепты по подготовке мультимодальных данных и оптимизации инфраструктуры. Увеличение длины контекста и улучшенные методы оптимизации политики являются ключевыми компонентами нашего подхода, который основан на упрощенной, эффективной структуре RL без привлечения более сложных методов, такие как поиск по дереву Монте-Карло, оценочные функции и модели процессного вознаграждения. Примечательно, что наша система достигает передовой эффективности рассуждений в различных бенчмарках и модальностях — например, 77,5 на AIME, 96,2 на MATH 500, 94-й процентиль на Codeforces, 74,9 на MathVista — что соответствует o1 OpenAI. Более того, мы представляем эффективные методы long2short, которые используют методы long-CoT для улучшения моделей short-CoT, что позволяет получить передовые результаты в области рассуждений short-CoT — например, 60,8 на AIME, 94,6 на MATH500, 47,3 на LiveCodeBench — превосходя существующие модели short-CoT, такие как GPT-4o и Claude Sonnet 3.5, с большим отрывом (до +550%)"
>>1040649 В азиях нет, там нет страха перед ИИ, штуки типа скайнета чисто западная страшилка. В азиях даже на уровне кина-литературы-манги прослеживается тема приветственного отношения к сознательным агентам. А еще если учитывать, что азия сейчас с западом единственно где конкурировать может всерьез это ИИ, то запрещение вообще маловероятно. Никто не зарежет свой единственный козырь.
>>1040840 Как же тянут свои американские убогий нейросети такими графиками на фоне падающих акций. Прямо лахтинского уровня заказы у америкосов пошли. На фоне непрерывных ддосов дипсика и повсеместных его запретов америкосами особенно смешно смотрится.
>>1042581 Если все на микросервисах, то нейрохуета уже может их с нуля за вменяемые сроки писать. От чего ковыряющийся кодерок становится не нужен, ведь код можно больше не редактировать код, а всю основу переписывать еженедельно под новые требования нейросеткой. Засады только в системах, где все неподелено на мелкие юниты, все взаимозависимо и переплетено. До таких еще нейронки не добрались.
>>1043401 Вангую натренили свою разновидность дипсика после того как китайцы полное описание процесса опубликовали. И внезапно оказалось ОпенАи башлять не надо, профиты растут, кабанчики в восторге.
Эталонный тест, с которым мы также недавно экспериментировали, в ходе которого им удалось успешно достичь в среднем около 67% правильных ответов на 1-й тест и 47,6% на особенно сложные вопросы «уровня 3», которые включают несколько этапов рассуждения и использования инструментов.
Результаты Опен Дип Рисерч: В нашем 24-часовом спринте по воспроизведению мы уже увидели устойчивые улучшения в производительности нашего агента на GAIA! Мы быстро поднялись с предыдущей SoTA с открытым фреймворком, около 46% для Magentic-One, до нашей текущей производительности 55,15% на наборе проверки.
>>1043431 >Там уже Дип рисерч спустя 24 часа после публикации потеснить пытаются опенсорсным решением. >Опенсорсный Дип Рисерч для освобождения агентов
Быстровато как-то уже всё слишком. Слишком быстро всё летит.
Хорошо что Опенсорс так успешно делается. Это несёт огромные риски с одной стороны, но гарантирует что AGI не окажется в руках одной единственной структуры.
>>1043441 >огромные риски с одной стороны Риски это пиздаболия уровня зеленой повесточки. Никто пока не продемонстрировал хоть какую-то реальность ИИ рисков. Максимум риск, что долбоебы зафигачат нейронку в управление каким-нибудь заводом, и она там аварию устроит. Ну или запилят нейронки, которые личные данные воруют и сливают. Хотя это и без них уже делают.
Радует только то, что модели очень быстро дешевеют, отрицать это нельзя. Например, наверху еще один график, который показывает соотношение стоимости и перформанса на ARC AGI. Смотрите: o3-mini выбивает примерно также, как o1, но стоит при этом намноооого меньше. И тенденция (пока что) будет сохраняться.
Андрей Карпаты —известный разработчик, бывший директор по машинному обучения Tesla, а также сооснователь и бывший сотрудник OpenAI —написал твит (на скриншоте), из-за которого уже третий день бурлят сообщества:
Существует новый вид программирования, который я называю "кодирование на вайбе" (vibe coding), когда вы полностью отдаетесь вайбу и забываете, что код вообще существует. Это возможно, потому что LLM (например, Cursor Composer with Sonnet) становятся слишком хорошими. Кроме того, я просто разговариваю с Composer с помощью SuperWhisper, так что я даже почти не касаюсь клавиатуры. Я прошу о самых глупых вещах, таких как "уменьшить размер боковой панели в два раза", потому что мне лень искать. Я всегда "Принимаю все", я больше не читаю диффы. Когда я получаю сообщения об ошибках, я просто вставляю их без комментариев, обычно это исправляет ситуацию. Код становится непостижимым для меня, и мне приходится долго вчитываться в него. Иногда LLM не могут исправить ошибку, и я просто work around it или прошу внести случайные изменения, пока она не исчезнет. Это не слишком плохо для проектов на выходные, но все равно довольно забавно. Я создаю проект или веб-приложение, но это не совсем кодинг - я просто вижу что-то, говорю что-то, запускаю что-то и копирую-вставляю что-то, и это в основном работает.
>>1043452 Это на текущих мощностях-архитектуре. Сейчас один чел патентует процесс, где нейронки уровня дипсик на десятой части от ее мощностей запускаются. И говорит что через 10 лет нейронка уровня o3 или выше на любом телефоне будет локально фигачить, если не раньше. Только там чип специально адаптированный нужен, вот их схемы как раз и разрабатывают-патентуют сейчас. Так что гонка не только софтверная, хардварная еще толком даже не начиналась. Нвидия уже кое-что сообразили и в мае выпускают десктопный комп за 3к евро для запуска современных нейронок. Это только начало.
Я не предлагаю ничего радикального, вроде полного отказа от ИИ — это нереально. Вместо этого я начинаю с «Дней без ИИ». Один день в неделю, когда: - Полностью читаю каждое сообщение об ошибке - Снова использую настоящие отладчики - Пишу код с нуля - Читаю исходный код вместо того, чтобы спрашивать ИИ
(Неудобная) правда Мы не становимся 10-кратными разработчиками с ИИ. Мы становимся 10-кратно зависимыми от ИИ. Есть разница.
А у кого квалификации и не было, тем только посочувствовать, где они её теперь набирать будут.
—основано на o3 (не mini), с которой не-сотрудникам OpenAI до этого не было возможности взаимодействовать
—Sama написал (https://x.com/sama/status/1886220904088162729 ), что Deep Research «по моим приблизительным подсчетам может выполнять однозначный процент [прим. 1-9%] всех экономически значимых задач в мире, что является колоссальным достижением». С одной стороны это заявление может казаться неправильным, мол, в мире нет такого спроса на задачи поиска информации и компиляции отчётов. Если спросить Deep Research, то система найдёт несколько свежих экономических оценок, из которых выходит, что это 15-20% по доле занятости в мире (не США). Понятно, что продукт OpenAI не займёт 100% рынка. С другой стороны можно заметить, что технология не надёжна и иногда ошибается, но ведь ошибаются и люди (я регулярно слышу от матери рассказы про «дураков на работе, вообще ведь ничего не соображают». Согласны? Узнали?). Какие-то десятки нижних перцентилей исполнителей вполне могут быть хуже системы.
Но технологии не стоят на месте, и скоро выйдет и o4 (в идеале на основе GPT-5/Orion), и OpenAI соберут большое количество обратной связи и улучшат систему, закрыв очевидные проблемы/ошибки. В общем, я считаю, что тезис про однозначный процент верен, если трактовать его как «в самое ближайшее время, через пару итераций, инструмент СМОЖЕТ делать X, но сможет не равно БУДЕТ» (последняя часть важна, потому что компании медленные). Разумеется, умные компании должны начинать готовиться уже вот в этом году, а не когда клубника доспеет.
====
Вставлю отрывок сообщения если не критика, то скептика развития AI, экономиста и профессора Tyler Cowen, который вот недавно участвовал в дебатах (https://www.youtube.com/watch?v=GT_sXIUJPUo ) по поводу влияния AI на рост ВВП:
Я попросил Deep Search написать несколько десятистраничных работ, и каждая из них была выдающейся [outstanding в оригинале]. Я оцениваю качество как сопоставимое с работой хорошего научного ассистента с PhD, которому поручили задачу на одну-две недели, а может и больше.
Deep Research выполняет эту работу за пять-шесть минут. И, похоже, не делает ошибок благодаря качеству модели o3.
Я запросил работу с объяснением теории ренты Рикардо и её места в его более широкой теории распределения. Результат я сравнил с рядом других источников в интернете и пришёл к выводу, что этот вариант лучше, поэтому использую его для своего курса по истории экономической мысли.
Пока я не вижу признаков оригинальности, но уровень точности и ясности впечатляет. Кроме того, эта работа показывает, что модель способна к некому долгосрочному планированию, и это свойство может быть обобщено на самые разные контексты и задачи — это, пожалуй, одна из главных новостей, связанных с этим релизом.
Предположим, что Sama ошибся на порядок (в 10 раз), и на самом деле там даже не 1%, а только 0.1% работ наскребается.
ВВП всего мира $100 триллионов (уже больше, но везде будем округлять вниз, чтоб не прикопаться), зарплаты обычно оценивают в половину, но мы возьмём 40% от этого.
Итого $100T 40% 0.1% = $40 миллиардов долларов потенциала в год. Как раз как размер потенциально нового раунда инвестиций в OpenAI. Совпадение?
Кстати выручки в $40B достаточно, чтобы компания стоила столько, во сколько её оценят: например, Salesforce имеет годовую выручку $35B, а рыночная капитализация компании $332 миллиарда (чуть меньше 10 годовых выручек)
Вот так и работает ужасающая математика процентов от экономически важных задач
Вопрос: возможно ли, что одна система может заменить 0.1% / 15% = 0.7% работ в одной области? На это предлагается ответить самостоятельно
>>1043466 Вопрос не сколько людей она сможет полностью заменить, а сколько людей реально не нужны станут. Например в отделах перевода поувольняли по 200 человек, и оставили 20, когда нейронки развились. Эти 20 незаменимы, они так же свою работу выполняют, а вот 200 остальных выполняли заменяемую работу. В Дип Рисерч то же самое будет, если там исследование выполняло несколько человек, а один всем заправлял и проверял, то уволят в итоге этих несколько, а оставят одного. Со всеми остальными областями то же самое. В итоге работа станет неким дефицитом, где сидят диды-профессионалы и нейронки, а вкат с улицы вообще невозможен, или нужно вкалывать на него бесплатно по 20 лет. А пока будешь вкалывать на вкат, планочка еще повысится.
>>1043417 Да-да, новые нейронки суперкруты и всё такое. И это совсем не маркетологи постарались. Ватсон обслуживает кучу клиник, по их собственным словам - больше половины миллиона клиентов. И этот "клиент" может быть как клиникой, так и сетью клиник. И да, у IBM есть phd-level услуга, которая построена специально, чтобы помогать учёным в исследованиях. То есть ничего кардинально нового - не случилось. Заменил Ватсон врачей? Учёных?
Вы это видели? Вот для чего китайцам нужен был тик ток. На танцульках натренили модели свои. Это пиздец.... ждем нейропыню и миллиарды отданные колл центрам в хохляндии. это пиздец.... Аниматоры точно уже все. Любую анимацию можно сделать, половина геймдев аниматоров нахуй просто пойдут, в крупняке нет, но во всяких мобилках точно. Годик и начнут в софт встраивать. https://omnihuman-lab.github.io
Китайская ByteDance представила проект OmniHuman-1, который генерирует «пожалуй, самые реалистичные видео» любой длины из одного изображения и аудиозаписи речи или песни, пишет TechCrunch. Можно регулировать соотношение сторон итогового видео и настраивать кадр. Нейросеть обрабатывает снимки крупным планом и в полный рост, а также добавляет взаимодействие с предметами, если они есть на изображении.
>>1043492 >Заменил Ватсон врачей? Учёных? А у тебя есть данные? Или для тебя только два состояния - в клинике есть врачи, в клинике одни роботы? Наверняка кого-то заменил раз за это деньги платят. Ватсон наверняка не дешев, да и доступ ограничен. Условно "новые" нейронки опенсурс. Кто знает какое распространение они получат. Хотя не факт, что успеют. Прогресс в нейронках такой, что внедрить куда-то не успеешь, когда выйдет уже новая.
>>1043465 >Мы не становимся 10-кратными разработчиками с ИИ. >Мы становимся 10-кратно зависимыми от ИИ. Есть разница. Суть в том, что он описал процесс деградации.
>>1043482 >если там исследование выполняло несколько человек Я вообще думаю, что в этом смысле корпорациям лучше бы двигаться в направлении создания полностью роботизированных исследовательских заводов. Но там деньги нужны астрономические и куча исследователей с нестандартным мышлением, которые бы придумывали, как машина должна повторять процесс исследования без участия человека.
>>1043567 Почему деградация, код это средство, а не самоцель. Тебе нужно получить рабочий продукт. Ты его визуально настраиваешь, как тпбе надо, потому что у программиста нет вкуса в 99% случаев. А потом отдаешь кодо макакам, чтобы они там все оптимизировали, если лагает, чтобы все так же выглядело и работало как было в макете.
>>1043452 Пиздец... пять баков чтобы побулькать вокруг нефритового стержня. Бедолагам читающим высеры опенклапан нужно доплачивать за урон по мозгам, но делают это только неграм и индусам.
>>1043565 >Ватсон наверняка не дешев Его в США внедряли, там медицина стоит больных денег, по сравнению с которыми ватсоновские $5к\мес за условно неограниченное количество запросов (до миллиона) - дёшево. Есть ещё другие тарифные планы, но даже если посчитать заявленные 530к клиентов по 5к долларов, неплохой оборот. Но я отвлёкся. Ватсон существует 15 лет, всё время совершенствуется, работает с документами, медициной и вообще всем. То есть за 15 лет он должен был как минимум начать вытеснять врачей. При этом медицинские учреждения стабильно рапортуют о нехватке кадров каждый год. Хотя её и создали искусственно, но нехватка растёт год от года. >Условно "новые" нейронки опенсурс. А плюс ли это? Клиникам нужно заводить свои серверные, иметь людей, которые будут этим заниматься. Либо хостить в облаке и всё равно иметь людей, которые будут это делать. Нейронки вполне могут устареть, не иметь свежих релизов, иметь ошибки, которые нужно исправлять\переобучать. В случае с Ватсоном такие ошибки отрапортует десять тысяч клиентов и IBM оперативно исправит, выпилит ненужную хуиту и запилит нужную. В случае опенсорса - как обычно, ебитесь сами. То есть нужны будут ещё люди, которые шарят в нейронках и могут сделать тюн при нахождении проблем. Да как бы проще купить подписку на Ватсон.
>>1043268 >А ничего что этим "бенчем" может быть например анализ медицинских данных пациента и выдача лечебной рекомендации? могут а могут и не быть надрочили на удобный бенч и довольные сидят в любом случае кожаные просто так свою работу не отдадут (деньги откуда брать?) >>1043417 >Мы в режиме hard take off а твиттер поменьше скролль
>>1043431 >потеснить пытаются опенсорсным решением копировать всегда легче, опенаи это тоже касается >>1043450 >зафигачат нейронку в управление каким-нибудь заводом, и она там аварию устроит будет забавно если нейронка все будет правильно делать и даже лучше кожаных, но какому-то кожаному не понравится что нейронка делает не по госту или не "как раньше" и в итоге он сломает её нахуй из-за чего будет авария на заводе, и в итоге все скинут на нейронку мол она ошиблась и вообще мы лучше все делаем >>1043720 >источник: я сам это придумал жаль что не 0%
➖ Наконец-то релизнули Gemini 2.0 Flash, и теперь она доступна всем через Gemini API, Google AI Studio и Vertex AI. Моделька быстрая, а еще самая качественная и дешевая в своем весе и категории. Контекст до 1 млн токенов.
➖ Вышла новая Gemini 2.0 Flash-Lite. Она еще дешевле и легче Gemini 2.0 Flash. По качеству превосходит предыдущую 1.5 Flash, при этом стоимость остается где-то на том же уровне.
➖ Появилась экспериментальная Gemini 2.0 Pro. Тут контекст до 2 млн токенов, и говорят, что это лучшая модель для кода и сложных промптов. Доступна в Gemini Advanced.
➖ В приложение бесплатно добавили 2.0 Flash Thinking Experimental. На LLMSYS это сейчас лучшая модель в мире (правда на лидерборд еще не завезли o3-mini), но без Style Control.
>>1043744 >она доступна всем далеко не всем гуглы очень сильно скручивают доступ куче стран да и порой недоступна даже там где чётко прописано что доступна >По качеству превосходит предыдущую 1.5 Flash ...на пару процентов >что это лучшая модель для кода и сложных промптов верим >LLMSYS это сейчас лучшая модель в мире уже давно подтвердили что этот лидерборд хуйня, потому что оценивать её может любой мимокрок
>>1043817 дефолтный демедж контроль от корпокрыс + данные собрать что люди ищут им нужно ещё где-то 2 месяца на высер ещё одной модели (гпт-5-мини-лайт-экспериментальная-0001) у них ничего нет кроме этого тхинкинга они сейчас спиздят что-то, распиарят это и все будут пытаться это копировать >>1043829 >гугл давит особенно после обсера с выходом гемини 2 который лучше 1.5 на пару процентов, ну зато дешёво дооооо а вот китайцы молодцы на самом деле, одной моделью дропнуть надутый пузырь пендосов на триллион баксов это сильно, надеюсь они сделают тоже самое только с роботами
CEO Anthropic, Дарио Амодеи, говорит, что DeepSeek R1 худшая с точки зрения безопасности модель, которую они когда-либо тестировали
«Мы запускали оценку R1 на предмет того, насколько она способна выдавать опасную информацию (например о биооружии), которую обычно нелегко найти в интернете или в книгах. И это буквально худшая в этом смысле модель, которую мы тестировали, в ней абсолютно нет блоков. Так что на месте DeepSeek я бы обратил на это внимание»
У Лекса Фридмана очередной бомбический подкаст на 5 часов.
В гостях чувак по имени Дила Пател, который занимается рисечем и анализом неросеток и особенно железа, на котором они работают.
Что примечательно про это видео, так это то, что ребята с самого начала покрывают в деталях все базовые темы, которые вы хотели знать про современные нейронки, но боялись ленились спросить:
- что такое ризонинг-модели - что такое открытые веса - что именно в DeepSeek делает его популярным - сколько стоит тренировка нейронок и почему DeepSeek такой дешевый - действительно ли DeepSeek сп*%дили веса у OpenAI - как нейронки тырят данные у пользователей и наживаются на креаторах - кто лидирует в конке к AGI
>>1043931 Так, а минусы в чем? Алсо, все эти модели тренированы на открытых данных, если там есть информация о биооружие, то эта информация есть в открытом доступе.
🟢 Дело в том, что при создании s1 использовали процесс дистилляции (обучали модель на ответах другой, более умной модели). Это позволило сильно уменьшить затраты. Кстати, в основе s1 — китайская Qwen2.5.
🟢 Для обучения был создан набор данных всего из1000 вопросов. Для роли «учителя» взяли Google Gemini 2.0 Flash Thinking Experimental. Вот тут интересно, а Google не против? Не так давно Альтман чуть не лопнул от злости лишь предположив, что DeepSeek использовала дистилляцию на моделях OpenAI.
🟢 Процесс обучения занял всего 26 минут на 16 GPU H100. Модель s1-32B, по словам исследователей, показывает отличные результаты в математике и написании кода, обгоняя o1-preview. Забудем, что это уже старая модель у OpenAI, все равно впечатляет. GitHub тут: https://github.com/simplescaling/s1
>>1044035 >создали конкурента модели OpenAI o1 с открытым кодом менее чем за 50$ >обучали модель на ответах другой, более умной модели Зачем ты просто откровенный пиздеж постишь?
>>1044035 Тут какая-то эра пиратства наступает. Большая корпорация тренит большую модель за лямы, на следующий день ее распирачивают на дистилированные модели за аренду времени в облаке на 20 баксов и раздают из под полы за углом. Лол, с такими процессами вообще кто-то вкладываться в новые модели будет? Смысл тренить за лямы отпадает, если все через неделю на любом торренте лежать будет. А еще учитывая, что и запускать скоро можно будет на среднем компе...
>>1044283 >Смысл тренить за лямы отпадает, если все через неделю на любом торренте лежать будет. Корпораты надеются на условный AGI. Но сейчас непонятно что это и когда случится. Все ждут, что это будет эмерджентное свойство очередной нейронки. Получить условный AGI, который начнет решать задачи, которые ни один человек не может решить - это окупит все затраты.
>>1044283 >Большая корпорация тренит большую модель за лямы, на следующий день ее распирачивают на дистилированные модели за аренду времени в облаке на 20 баксов и раздают из под полы за углом Они выкладывают чтоб сэкономить миллиарды на поисках решений, а макаки с попенсорс комьюнити это все делают бесплатно. Как показал опыт суно и прочих корп моделистов - даже триалы начинают ужимать, когда речь заходит о чем то реально качественном. А до этого суно тоже свою модель первую бахали в общий доступ, что позволило им бустить годы разработки, ну или килодоллары затрат на оную. Никто не дурачок, никакого пиратства тут нет, попенсорс с первоого дня еще Биллом Гейтсом был интегрирован в корпоративные схемы.
Настоящий попенсорс по ИИ начнется когда корпораты окуклятся с реально сильными технологиями, оставив смердам ошмётки от прошлого застолья, вот тогда и будут генерить прыщавое АГИ. Но результат мы знаем: гимп, хуимп и миллион калечных днищесофтин, которые никогда не будут тягаться с проприетарным софтом.
Так что радуйся, пока корпы щедрые, в великое время живешь, всё новое - бесплатно и доступно.
>>1043931 >CEO Anthropic, Дарио Амодеи У него модель с полтычка генерит расчлененку, копро и любые мыслимые и немыслимые извращения. Без всяких джейлов.
>>1043841 >особенно после обсера с выходом гемини 2 который лучше 1.5 на пару процентов, ну зато дешёво дооооо Гемини 2 лучше в написании текстов где-то на 100% чем 1,5. Следует промпту но способен фантазировать и выдавать нетривиальные элементы, пишет так, что там ты на русском реально от челика уже не отличишь.
>>1044438 Кстати, да, сонеточка хороша в плане садистки, но она слишком тупая по сравнению с теми же новыми геминай или гроком. Слишком предсказуема. Пора уже новую модельку для кума.
>>1044444 >Гемини 2 лучше в написании текстов где-то на 100% чем 1,5 происходит коупинг, может твоя игрушка получше тексты пишет, но это позор для гугла не сделать какого-либо прогресса за полгода
>>1044454 >но это позор для гугла не сделать какого-либо прогресса за полгода До гемини-1,5 у гугла были только лоботомиты, с бардом они обосрались. У тебя какой-то другой гугол видимо, у меня это транснациональная неповоротливая корпоация, которая в одно рыло сделала по сути тензоры-хуензоры всю базу для текстовых нейронок, но при этом не осилила литералли ни одного коммерчески успешного проекта, и тензоры они начали ебать только из-за провала стадии и потому что у них мильярд видеокарточек на руках висел ненужным активом.
/Это чтоб ты понимал насколько случайная хуйня в принципе бум нейронов сейчас. Всё базируется на мегаобсёрище гугла с облачным гей-мингом.
Положение России на "рынке" нейронок скоро очень сильно укрепится.
«Сбербанк» планирует сотрудничать с китайскими исследователями в совместных проектах ИИ, сообщил агентству Reuters топ-менеджер крупнейшего российского банка, поскольку китайский стартап DeepSeek перевернул технологический ландшафт, создав модель ИИ гораздо дешевле, чем у конкурентов из США.
Россия и Китай давно говорят о сотрудничестве в области ИИ, однако пока мало что известно общественности об его глубине или масштабах.
«У «Сбербанка» много ученых. С их помощью мы планируем проводить совместные исследовательские проекты с представителями из Китая», - заявил Reuters первый заместитель генерального директора «Сбербанка» Александр Ведяхин. Тем не менее, он не уточнил, с кем конкретно банк планирует сотрудничать в Китае.
>>1044871 >«Сбербанк» планирует сотрудничать с китайскими исследователями в совместных проектах ИИ, сообщил агентству Reuters топ-менеджер крупнейшего российского банка, поскольку китайский стартап DeepSeek перевернул технологический ландшафт, создав модель ИИ гораздо дешевле, чем у конкурентов из США. Имплаинг американские предлагали сотрудничать, кек. Но тут выкатили китайские и всё ландшафт изменился! Идите нахуй пиндосы, даже не просите!
Почему все новости про ИИ из этой страны выглядят как панорама?
>>1044871 Ну к слову последний гигачат макс не такое уж говно, если не брать в расчет ультрацензуру. Результаты там лучше чем у всяких квенов, мистралей и яндексов, достаточно близко к 4o.
>>1045122 ASI это вроде Artificial Sexual Intelligence, робошлюхи и кумерские боты. AGI это Artificial Giga Intelligence, она решает задачи, которые никто не решает.
>>1045347 >Ну к слову последний гигачат макс не такое уж говно, если не брать в расчет ультрацензуру. Результаты там лучше чем у всяких квенов, мистралей и яндексов, достаточно близко к 4o. Потому что под капотом сидит чинчонг. Российские нейронки как российское образование - объективно оценивать нельзя, потому что ты заранее знаешь, что и диплом фальшивый/на купленых лабах, и модель даже не тюн, а в чистом виде с интернета что-то скачанное. Но да, завязав глаза тряпкой можно восхитится.
Вот я вчера восхитился степ-2 16б. Её даже почти не лупит почти, она правда саммарайзами времен 3,5 страдает, что купируется промптом, в русский может лучше чем жопочат.
>>1043931 «Мы запускали оценку R1, ну и короче там пиздец нам не нужны конкуренты и вообще дипсиком пользуются только нацисты и гитлер. срочно запретить »
ИИ чипы от Cerebras позволяют чату работать на скорости в 1100 токенов в секунду, с новой фичей Flash Answers. Сейчас это просто интересная демка, но когда французы из Mistral сделают свою reasoning модель, это будет серьёзным преимуществом их чата. Зачем ждать пока какая-то o3-mini-high или R1 думает несколько минут, если она может справиться за секунды?
Но это не единственная новая фича - Le Chat теперь умеет исполнять код на Python и это доступно всем пользователям. Исполнение кода ограничено минутой, чего в принципе достаточно для большинства задач.
OpenAI объявили о том, что теперь будут раскрывать больше цепочек рассуждений o3-mini
Это относится и к платным, и к бесплатным пользователям.
«Мы делаем это потому что на нас давит Китай для того, чтобы людям было понятнее, как думает модель, и чтобы они были увереннее в ее ответах»
Однако это все еще не полная CoT. Более того, это даже не сырые рассуждения: в компании прямо говорят, что o3-mini думает «свободно», а потом просто обобщает свои мысли, и вот это уже показывают пользователю.
Google релизнули Alpha Geometry 2: модель решает задачи по геометрии на уровне золотого медалиста Международной Математической Олимпиады
Первая версия Alpha Geometry вышла практически ровно год назад, и относительно нее новая версия сильно прокачалась: если предшественница решала 54% всех задач по геометрии с IMO 2000-2024, то AG2 справляется с 84%. Это, если что, на 84% больше, чем результат o1
При этом AG2 не совсем нейросеть. Это нейро-символьная система. То есть AG2 объединяет в себе и LLM, и символьные строгие методы для вычислений и доказательств. В общих чертах AG2 потрошится на три основных составляющих:
1. Зафайнтюненная Gemini, которой скормили 300 млн теорем. Модель анализирует текст задачи и диаграммы и как бы интуитивно намечает решение: подсказывает, какие свойства фигур могут быть полезны, какие теоремы могут пригодиться и так далее. Она также служит своеобразным энкодером и формализует текст задачи в доменный язык, который умеет воспринимать символьный модуль.
2. Символьный движок DDAR2, в который сгружаются все результаты Gemini. Он берет на себя доказательства по строгим правилам геометрии и проверку и расширение предложенных LM решений с помощью дедукции. В новый DDAR добавили поддержку сложных геометрических конструкций, а также умение работать с "двойными" точками (такие возникают в куче примеров, наверное все помнят со школы задачи вида "докажите, что такая-то точка пересечения лежит на такой-то окружности").
А еще по сравнению с DDAR1 DDAR2 сильно ускорили с помощью C++ реализации и оптимизированного перебора вариантов решений. Раньше все работало на брутфорсе, а сейчас алгоритм переделали и сложность уменьшилась с 𝑂(𝑁⁸) до 𝑂(𝑁³), что увеличило скорость решения в 300 раз!
3. Ну и финальное: деревья поиска SKEST. Это как раз та самая оптимизация. Классические деревья предлагают как бы один шаг решения за раз. А в SKEST мы пробуем несколько вершин разом: это происходит за счет параллельного запуска нескольких деревьев, которые могут делиться между собой найденными стратегиями.
Плюсом ко всему, Alpha Geometry 2 даже умеет автоматически строить к своим решениям рисунки. К сожалению, демо пока не выложили, зато доступна статья (https://arxiv.org/abs/2502.03544 ).
>>1045752 Во всяких CAD системах по идее. Вот бы еще и инженеров/архитекторов порешали бы нейронки, а то до них пока не докатилась волна. >Сделай мне проект человейника на 30 этажей Кабаны строительные почему не думают про это еще?
>>1045868 Вот бомбаж будет. Представь рендер делает нейронка, уже сейчас они могут это, потом проект по нему, всю инженерку, вообще все. Подставляй только что хочешь на выходе увидеть и размер участка. Хз почему еще не додумались до такого, типовые проект клепать то можно, там изменения малейшие. Нажал на кнопку и тебя весь проект в архикаде готовый. А архитекторы пойдут вместо того чтобы пить ароматный раф, пить ароматный 3в1 работая арматурщиком. Каеф...больше всего хочется чтобы всех этих пидоров из стройсектора порешали нейронки. Пусть ахуеют.
>>1045929 Ну тащемта ты обычный диванный пиздобол, просто заткни свой ебальник, дегенерат, заебало уже твои бредни читать. Если б не проверяли, твоя пынёвка бы тебе уже давно на голову сложилась, ну или бабкина хрущёба, не ебу в душе в какой норе живет такой гной безмозглый.
>>1045934 Ну тащемта ты просто пидорок пиздлявый, из манямирка своего выйди, чекни как раньше строили и как сейчас кабаны строят, сначала понастроят хуйни потом сносят
>>1045643 >и вообще дипсиком пользуются только нацисты и гитлер Чем Иисус Навин лучше Гитлера? Оба отдавали приказы массово убивать женщин детей и стариков. Один - святой, второй воплощение зла.
>>1045914 >Представь рендер делает нейронка, уже сейчас они могут это, потом проект по нему, всю инженерку, вообще все. рендер блять, ты открой и посмотри что входит в проект на рабочей стадии, из чего он полностью состоит. это еще очень не скоро будут делать нейронки. скорее заменят юристов и бухгалтеров. сметчиков. но не инженеров.
Допустим нейронки научатся выполнять всю интеллектуальную работу на уровне доктора наук. Любые расчёты, программирование, математика, геометрия, да любую хуйню. Интересно, к чему это приведёт?
>>1045984 >рендер блять, ты открой и посмотри что входит в проект на рабочей стадии, из чего он полностью состоит вот это копиум. из чего состоит проект расскажи давай. в архикаде двигаешь линии готовые? расчеты делаешь по заданным формулам?это и мартышки могут. или ты даун с пгс факультета? это не инженеры, это дно самое.
>>1046040 База. Ведь когда великие чатгпт возведут свои уберздания, обеспечивать слив говна все равно будут простые васи говночисты 17 000 рублей месяц. И без них все это функционировать не будет.
>>1046053 >из чего состоит проект расскажи давай Основная суть любого проекта - наебать гоев на шекели. Это база. Стыдно не знать. И пока что с этим справляются хорошо только люди, впаривающие нейросети дебилам.
>>1046093 >Значит придётся вставлять в башку чип и становиться умнее. А чем ты будешь отличаться от робота? Кроме того что тебе ещё придётся есть, срать?
>>1045937 > сначала понастроят хуйни потом сносят Десять жилых новостроек снесенных в одном городе в РФ в этом году назовешь? Вот и иди нахуй, пиздобол.
>>1045984 >юристов и бухгалтеров Этих еще сложней заменить, по крайней мере в российской юриспруденции, а в бухучете в целом. Надо быть туповатым диванным шизиком типа этого кукаретора, чтоб такое писать.
Перед взятием Иерихона Иисусу Навину является «вождь воинства Господня» (Нав. 5:13—15) и даёт указания как взять город (Нав. 6:1—4). Получив этот знак поддержки Небесных сил, евреи под предводительством Иисуса атакуют Иерихон. В течение семи дней их войска маршируют вокруг городских стен, возглавляемые священниками, несущими ковчег завета. На седьмой день войско обошло город семь раз, сопровождаемое играющими на трубах священниками. В определённый момент Иисус приказывает всему народу одновременно крикнуть, и тотчас стены города падают сами собой.
После этого Иисус приказывает истребить население Иерихона полностью, включая женщин, стариков, детей и домашний скот. Пощадили только блудницу Раав и её родню за то, что Раав ранее укрыла еврейских разведчиков, проникших в город. Сам Иерихон был полностью сожжён (Нав. 6).
>>1046018 Какую блядь работу на уровне доктора наук. Доктора наук не работают в массе своей а руководят. Смысл руководства - набери молодежь - выжми её и выкини.
Альтман: Я не могу преувеличить, насколько большой прогресс, я думаю, мы сделаем в ближайшие два года. Мы знаем, как сильно улучшить эти модели. И у нас нет очевидных препятствий. Нам нужно построить Stargate. Нам предстоит проделать большую инженерную работу. Нашим исследователям нужно продолжать в том же духе, но прогресс, который я ожидаю с февраля 25 года по февраль 27 года, я думаю, будет более впечатляющим, чем с февраля 23 года по февраль 25 года.
>>1046183 пхд это уровень кандидата при чем тут доктор блядь. На западе вообще все пхд, включая профессоров. В РФ есть акпиранта кандидаты и доктора. Ты уточняй тогда где у тебя кто какую работу выполняет. Потому что лично я знаю крайне мало докторов, которые работают в лабах. Только руководят и преподают. В СССР были такие доктора которые хуярили в лабах эксперименты соло. Сейчас с этим никак. В РФии вообще умные не нужны.
Российские хакерские группировки PalachPro и GreedyProjects взломали сервис ChatGPT, что привело к масштабному сбою в работе нейросети. Хакер PalachPro рассказал НСН, что группировкам потребовалось три часа и 210 тысяч рублей, чтобы обойти систему безопасности нейросети.
Россиян предупредили об утечках личных данных из-за сбоев в работе ChatGPT Масштабный сбой ранее зафиксировали в работе сайта и приложения ChatGPT. Сервис выдавал ошибку при попытке запустить виртуальный помощник с генеративным искусственным интеллектом, а также ввести запрос. Ответственность за кибератаку взяли на себя две хакерские группировки - PalachPro и GreedyProjects.
«OpenAI (компания-владелец ChatGPT - прим. НСН) невозможно уронить слабым DDoS-ом или какой-то дешевой уязвимостью. У этой компании столько серверов, что они восстановятся быстрее, чем вы допьете свой кофе. Мы нашли дыру в системе, посредством этой дыры и очень мощным DDoS уронили ChatGPT. Атака была серьезная, сервис восстанавливался около трех часов. На саму кибератаку мы потратили около трех часов и 210 тысяч рублей», - сказал собеседник НСН. Могли слить пароли: В хакерской атаке на ВГТРК усмотрели помощь инсайдеров Реклама: шоколадное дилдо в форме "Орешника" на 23 февраля, ограниченная коллекция, сухпай в подарок По его словам, уязвимости есть у любой системы.
«Конечно, кибератаки могут быть еще сильнее. Любая система имеет слабые места, даже ChatGPT. Главное знать, куда бить. Но это требует ресурсов, времени и терпения. Не все решается за пару часов, как в фильмах. Навсегда сломать ChatGPT невозможно, потому что это огромная компания. Но можно периодически их отключать и заставлять потеть», - поделился хакер. Хакеры заставили роботы-пылесосы в США материться Он также назвал универсальный рецепт защиты различных сервисов от хакерских атак.
«Чтобы защитить отечественные нейросети от кибератак из-за границы, надо, чтобы они вообще сначала нормально работали, а не ломались при первой же нагрузке. А так, обычный рецепт защиты: нормальный код без уязвимостей, разделение инфраструктуры, чтобы одна дырка не похоронила все, мониторинг и быстрый отклик, а также уулучшение и спонсорство кибербезопасности в России, создание университетов, обучающих подобному», - заключил хакер. Ранее руководитель департамента расследований T.Hunter Игорь Бедеров заявил, что сбои в работе продуктов компании OpenAI могут привести к утечкам пользовательских данных
>>1046053 >вот это копиум. из чего состоит проект расскажи давай. в архикаде двигаешь линии готовые? расчеты делаешь по заданным формулам?это и мартышки могут. ну вот, вот, я и говорю, долбоебина которая в жизни не держала проекта в руках о чем то рассуждает и спорит. иди нахуй, чучело
>>1046217 А причем тут ветхость новость заветов? Геноциды и массовые убийства женщин детей и стариков прощаются в зависимости от новизны написанной на пергаменте хуцпы что ли, Мойша?
>>1046217 Геноциды прощаются только евреям? Геноцид геноциду рознь? Геноцид гоев во времена ветхого завета - хороший и правильный геноцид? Геноцид 80 лет назад - плохой и вообще так нельзя? Ты позадавай вопросы своей чатжопе, может она тебя вразумит. Хотя вряд ли созданием Альтмана может порочить еврейскую честь.
Елси бы допустим в отправить в прошлое компьютер с локальной моделью вроде дипсика, ну скажем евреям, и сказать их вождю что в этой коробке бог. Научить его печатать на клавиатуре и читать ответы, то как думаете повернулось бы человечеству и куда? У главного еврея есть доступ к безграничным знаниям, что бы он сделал? Передал бы знания всему мира или как? Или назначил бы себя богоизбранным народом и по чуть чуть внедрял бы все знания в жизнь чтобы контролировать мир?
>>1046733 Все бы пошло по пизде. У человечества уже как минимум 2 раза все пошло по пизде - Древняя Греция и Римская Империя были охуеть как технологически развиты для своего времени, но просрали все полимеры. Здесь будет тоже самое. Почти 100% этот главный еврей не поймет что надо делать для развития общества, потратит все время жизни на усиление власти, а его потомки все просрут.
>>1046739 Обязательно. Как только вы делите людей на первый и второй сорт - стройте газенвагены, потому что это дорога только туда. Евреи исторически живут в мире б-гозибранных и гоев-животных. Это лишь вопрос времени, когда произойдет очередной виток спирали.
>>1046739 >а холокост случится? Сейчас весь (посвящённый) мир внимательно смотрит на Украину. Если украинцы простят евреям то, что те с ними сделали, то значит не случится. Верим в украинцев!
>>1046788 на фото евреи несут системник с 4090 и антеной для вайфая чтобы со спутником связь иметь. или евреи просто каргокультисты, их моисей реально имел такой коммуникатор с нло, а они потом начали копировать отсюда и миноры и тфилины, минора получала сигнал и уже в головы раздавала послушникам
Альтман говорит, что у OpenAI есть внутренние модели, которые «входят» в топ-50 лучших программистов мира, и сделал дерзкое заявление:
«Наша первая ризонинг модель была где-то на уровне топ-миллион лучших программистов мира. Затем мы добились топ-10000. o3 находится в топ-175. Наши внутренние бенчмарки сейчас в районе топ-50, и к концу года это будет топ-1»
Другие интересные высказывания от Сэма на конференции в Токио:
«К 2035 году один датацентр ИИ будет обладать такой же интеллектуальной мощностью, как все люди и ИИ, которые сейчас существуют на Земле, вместе взятые»
«GPT-5 будет умнее чем я и превзойдет уровень интеллекта человека. Это будет инструмент с невероятно высоким IQ»
Наконец-то состоялось первое серьезное мероприятие с олимпиадными задачами по математике в период после релиза рассуждающих моделей. Можно взять свежие проблемы, которых не было в тренировочных данных, пропустить через все интересные нам LLM и сравнить.
На картинке вы видите, как разные модели справились с олимпиадой. Каждая модель решала каждую задачу 4 раза (независимо от других своих попыток).
Зелёный квадратик означает, что модель справилась 4/4 раз, желтый 1-3, красный —0 раз из 4. Кому не интересно вникать — проще смотреть колонку «Acc», где отображена усреднённая точность «участников».
Модели OpenAI с большим отрывом обходят R1 (кстати топ-1 и стоит дешевле), Sonnet 3.6 из коробки вообще ничего не решает.
Но что куда интереснее это сравнить метрики за 2024й год (которые репортились самими компаниями) и то, что получилось в 2025м: —o3-mini: 87.3% -> 78.33% сейчас, есть просадка но всё равно топ-1 —o1: 74.4% -> 76.67%, показала себя даже чуть лучше, чем на давно доступных задачах —R1: 79.8% -> 65% —дистиллянт R1-Qwen-14b: 69.7% -> 50% (падение даже больше чем у R1)
(это не отменяет того что модель R1 от DeepSeek хороша)