Sora Turbo является более лёгкой и быстрой моделью по сравнению с оригиналом. Доступна во многих странах, но не в Европе и Британии, они себя зарегулировали.
Доступно будет всем подписчикам ChatGPT - и Plus и Pro. Дают кредитов на до 50 генераций в месяц Plus подписчикам и до 500 быстрых генераций Pro подписчикам. Pro подписчики с более 500 генераций попадают в "медленную очередь".
Длина видео всё таки от 5 до 20 секунд (для Plus максимум 5), а разрешение от 480p до 1080p (Plus подписчики ограничены 720p). На более длинные видео и видео разрешения уходит больше кредитов. К видео можно применять стили и создавать свои.
Показали Storyboard - продвинутый инструмент позволяющий режиссировать видео. К примеру можно попросить Sora сгенерить видео человека, который на пятой секунде видео машет рукой.
Ещё есть куча продвинутых инструментов - можно догенеривать до видео как начало так и концовку, смешивать несколько видео вместе разными способами и много чего ещё.
Модерация сейчас чрезмерно строгая, но OpenAI обещают постепенно снимать ограничения.
OpenAI решила не разрешать генерации видео с использованием фотографий или кадров реальных людей в качестве input. OpenAI заявляет, что предоставит доступ к такой функции "подмножеству" пользователей Sora, но не будет широко распространять эту возможность, пока не получит возможность доработать свой "подход к безопасности".
Пока известно, что в это "подмножество" попали олигархи с планом Pro за 200 баксов. Остальных ищем в твитторе.
OpenAI также не позволит пользователям выкладывать сгенерированные видео, содержащие клипы или изображения людей, в ленту на главной странице сайта Sora. Ну то есть шарить их на сайте Sora в галерею.
Также в Sora есть фильтр, позволяющий ИИ-определить, изображен ли на сгенерированном видео человек младше 18 лет. Если это так, OpenAI применяет "более строгий порог" для модерации, и как правило, блочит генерацию.
Все видео, созданные Sora, содержат метаданные, указывающие на их происхождение - в частности, метаданные, соответствующие техническому стандарту C2PA, про который писал сегодня.
OpenAI также заявляет, что использует "оперативное переписывание (ваших) промптов", чтобы не позволить Соре создавать видео в стиле живого\известного автора. А вот тут сейчас жоско было
Пишут: В творчестве существует очень давняя традиция отталкиваться от стилей других художников, но мы понимаем, что у некоторых авторов могут возникнуть вопросы.
В общем, пока не видеомодель, а симулятор соевой сои. А Кстати, для обладателей тарифа за 200 баксов, цензуры будет меньше, лол.
По сообщениям пользователей, image to video работает всратее, чем у Минимакса, у которого ещё и цензуры меньше. Казалось бы, как вообще Sora собирается конкурировать с моделью от китайцев? Но не забываем, что в подписку Соры входит ещё и мать его chatgpt
>>973018 Какой-то неконсистентный кал. Пока выглядит, что полезность у всего этого на уровне "сделать пару мемных видео и забыть".
С такими лимитами по сути они будут просто использовать юзеров в качестве бета-тестеров, которые ещё и сами будут платить за это. А там уже договорятся с заинтересованными компаниями на "профессиональные" тарифы, с оплатой по факту использования, без этих смешных лимитов и прочего. А для быдла 50 круток в месяц на 5 секунд хватит.
xAI Илона Маска теперь официально анонсировали text2image модель Aurora
После субботнего релиза и исчезновения модельки на какое-то время, появился блогпост с деталями и примерами генерации.
Самое интересное - Aurora не диффузионка, а авторегрессионная модель. В отличие от диффузии, которая берёт шум и в течении нескольких шагов лепит из него картинку, Aurora генерит изображения маленькими, полностью готовыми, кусочками (токенами). В процессе генерации изображение как-будто грузится сверху вниз, как раньше бывало при медленном интернете.
Большой плюс такого подхода - к модели применимы оптимизации инференса LLM, и в нее можно легко кормить одновременно и картинки и текст. Хоть диффузию можно ускорять не меньше, иметь схожую архитектуру для всех моделей - это огромный плюс. Наверное поэтому Aurora это Mixture of Experts, ровно как и первая версия Grok. Хоть про Grok 2 мало что известно, вряд-ли xAI слезли с MoE.
Из минусов такого подхода: 1) это скорость генерации, ведь нужно прогонять сеть отдельно для генерации каждого токена; 2) качество генерации. Видно гранулярность изображений, оно не всегда чёткое. Возможно это из-за того, что ради скорости пытались сделать токены большего размера.
Ещё показали редактирование картинок по текстовому промпту - моделька меняет только нужные детали, а не искажает изображение до неузнаваемости, в отличие от большинства других генераторов. Эту фичу завезут чуть позже, пока что она недоступна.
Google выпустили Willow – первый в мире квантовый чип, который показывает экспоненциальную способность к масштабированию вычислений
Впервые в истории у кого-то получилось создать логические кубиты, которые перформят ниже границы Quantum Error Correction. Это метод, при котором данные сохраняются путем распределения информации по нескольким кубитам. Дело в том, что обычно ошибки вычислений – ключевая проблема квантовых машин. Кубиты слишком быстро обмениваются информацией и имеют тенденцию терять ее. Обычно чем больше кубитов вы используете, тем больше ошибок возникает, и квантовая система вырождается в классическую. Но в Willow все наоборот: с ростом кубитов ошибки уменьшаются экспоненциально. Это поразительный результат, которого люди пытались добиться последние 30 лет.
А теперь приготовьтесь: Willow в септилион раз быстрее классического вычислительного чипа. То есть Willow может за 300 секунд решить задачу, на которую у обычного чипа бы ушло 10,000,000,000,000,000,000,000,000 лет (и это было доказано во время тестов).
А еще у чипа рекордное количество кубитов – 105. Конечно, это все еще мало (например, чтобы взломать биткоин, потребуется где-то 300-400 миллионов кубитов), но по сравнению с предыдущими квантовыми компьютерами – вау.
Первый свой квантовый чип Google выпустили в 2019. С того момента классические вычисления усовершенствовались в миллиарды раз. Но если классические вычисления растут по закону Мура, то квантовые растут и будут расти по закону Невена, а именно с двойной экспоненциальной скоростью относительно своих классических соперников.
Этот закон, к слову, придуман Хартмутом Невеном, который сейчас является директором лаборатории квантового искусственного интеллекта Google. В интервью (https://www.youtube.com/watch?v=bgxhq2iP1Sc) в честь выхода Willow он говорит, что квантовые вычисления и ИИ будут взаимодополнять друг друга: ИИ может улучшить квантовые чипы, а квантовые компьютеры сделают ИИ мощнее.
А еще, кстати, Google опубликовали статью про Willow в Nature. Прочитать можно тут: www.nature.com/articles/s41586-024-08449-y
1. Ожидания, конечно, были больше. Это просто императивное утверждение. Ну большего мы ждали от OpenAI
2. Пока нет промпт-гайда для Соры или хотя бы какой-то массы постов на реддите и в твитторе, чтобы уловить шаманство промптинга, говорить и сравнивать Сору с остальными рано. Пока это рулетка, о чем пишут все генерирующие. На один и тот же промпт может быть и длинный план, и (чаще) три порезаных плана в этих же 20 секундах. Может быть ацкое качество или такой же ацкий морфинг всех конечностей. Сейчас будет много клипов, сравнивающих Сору с остальными на одинаковых промптах - это малость нерелевантно, у каждого генератора свои ухватки.
3. Надо сказать все-таки и о плюсах: качество картинки (когда выпадает шанс) - топ, консистентность - топ, длина клипов - топ. 4. Про жесточайшую цензуру я уже написал. Ну и как учит нас история с DALL·E 3 (из которой уже песок сыплется), с цензурой будет только хуже. Вот это вот шарахание от лиц и изображений людей принимает параиноидальные формы, а раскатывание лиц на планы за 200 баксов выглядит и вовсе лицемерно.
5. Тут же добавлю, что сообщения типа "это начальный релиз, мы щас будем допиливать" не внушают оптимизьма. Допиливать будут той же командой (в отличие от опен-сорса, где допиливание - это коллективный разум). Плюс это "допиливание" длится с февраля! То, что чего допилились не очень впечатлило. Ну и допиливание цензуры никогда не бывает в сторону послабления.
7. Про цены - 200 баксов на рулетке выжгут 500 генераций и вы попадете в медленную очередь. Безлимиты за 99 у конкурентов выглядят получше, особенно учитывая количество брака.
8. Ну и последнее. Я, честно говоря, очень ждал каких-то ловких и уникальных продуктовых фич. Чего-то, что значительно отстроило бы Сору от конкурентов. Каких-то элементов монтажа и композа. Работу с таймлайном. Возможность, например выделить часть клипа и перегенерить его по корректирующему промпту. Не вот это вот "сохраним, отрежем, подадим на вход, склеим", а в виде удобной фичи, сохраняющей контекст клипа. OpenAI до сих пор не научились в продукты, хотя с момента громких заявлений про GPT Store прошло больше года. Но, впрочем, мы их ценим не за продукты, а за технологии. А выход Сора сейчас бустанет рынок видеогенераторов еще немного. Не удивлюсь, если Чорный Лес что-то скоро покажет.
>>973475 > пытается Да довольно гладко, это вам не пони, которая утратила способность членораздельно писать в обмен на способность рисовать конские хуи в стиле тысяч художников.
>>973614 Хуйлоаи это лидер после клинга и рунвея, он на голову выше люмы, но с клингом вообще не конкурент. Единственное, что у него три бесплатные генерации в день, а в клинге всего пять невозмобновляемых.
>>973648 Клинг хуита устаревшая, но зато есть кисть. Лума вообще мусор, уже локалки лучше генерят. Раньше при регистрации в хуйле давали что-то около 35 генераций.
>>973018 >Доступна во многих странах, но не в Европе и Британии, они себя зарегулировали. "Они себя зарегулировали" звучит как какой-то абсурд, изреченный стендапером, - на фоне того, что продукты опенаи зарегулированы на уровне иранской цензуры.
4 день стримов OpenAI из 12: показали интерпретатор кода и еще несколько очень кайфовых фич для Canvas
Теперь код можно запускать прямо внутри бота с помощью кнопки Run. При этом GPT видит все трейсы интерпретатора и может писать комментарии прямо в них. Можно даже рисовать графики, и работает это достаточно быстро! Просто идеально для дебаггинга и рефакторинга.
Кроме того, теперь Canvas будет доступен для всех, а еще его можно будет встроить в собственные GPTs: делается это очень просто через настройки конфигураций.
Напомню, что Canvas – это отдельное окно рядом с чатом. Инструмент предназначен для задач, где нужно много править или пересматривать один и тот же проект (код или работа с текстом). Он, в отличие от чата, лучше запоминает контекст + работает над конкретными разделами или даже строками.
В дополнение ко всему, для комментирования текста и кода теперь использовать инструмент будет еще удобнее: бот выделяет кусочки прямо в ваших запросах и записывает комментарии справа от них (похоже на умные заметки в стиле Google Docs).
Новую DeepSeek-V2.5-1210 заметно прокачали - она выросла на бенчах по кодингу и математике, но больше всего прирост в написании текста. Это последний релиз DeepSeek V2, теперь DeepSeek полностью сфокусированы на r1 и следующем поколении их LLM - V3.
Вместе с релизом модели на их сайте появилася поиск. Работает хорошо - точно лучше чем ChatGPT Search и часто лучше Perplexity. Мне кажется это из-за количества источников - DeepSeek использует до 50 источников, все остальные в 2-3 раза меньше. Платить за всё это удовольствие, кстати, не нужно. Плюс это всё open source
>>973791 >Клинг хуита устаревшая Что-то тут не то. Ты какую версию клинга вообще имеешь в виду? Я 1.5 Pro - ей по консистентности персонажей нет конкурентов. Разве что runway справляется, но в последнем мимика хромает, например, брови статичны, как приклеенные.
"Большой день. Мы выкладываем в опенсорс наши модели T-Lite и T-Pro. И эти модели просто топ 🥳
Мы увереннно выбиваем #1 среди открытых моделей по разным бенчам на русском. По MERA мы взяли #2 модель на русском ещё и включая все API, уступая только GPT-4o.
Это до-тренированный qwen-2.5 в размерах 7B и 32B. Мы провели большую работу: свой токенизатор, глубокое до-обучение на русский и специфичные корпуса. Аккуратная работа с данными. Тех репорты будут.
Этот релиз является подтверждением нашего подхода в LLM: допретрен на базе опенсорса и затем файнтюн под доменные области. Получается значительно лучше результат и мы тратим на порядок меньше денег (не преувеличение).
>>974266 >затем файнтюн под доменные области Под задачи бенчмарков? Ну, ужатая в половину бита влезет в карту. Это что теперь получается, т-про ебет гемму2 в плане кума?
5 день стримов OpenAI из 12: рассказали про интеграцию ChatGPT в устройства Apple
Siri теперь будет использовать модели OpenAI (прямо так и пишется, working with chatgpt). А еще на айфонах в Apple Intelligence будет доступно дополнительное расширение ChatGPT. Например, в Visual Intelligence в камере тоже будет непосредственный доступ к GPT-4o, можно будет показывать модельке видео в реальном времени.
Для маков тоже добавили расширение ChatGPT в настройках. Можно будет использовать writing tools почти в любом приложении, анализировать документы прямо внутри finder с ChatGPT и задавать по ним вопросы.
Агентство Reuters сообщило о том, что корпорация Google обратилась к правительству США в лице Федеральной торговой комиссии (FTC) с просьбой разорвать эксклюзивное соглашение, по которому технологии OpenAI должны быть размещены на облачных серверах Microsoft. Причина банальна — деньги.
Технологические компании, конкурирующие с Microsoft в области аренды облачных серверов, такие как Google и Amazon, тоже хотят разместить у себя модели OpenAI, чтобы их клиентам не нужно было обращаться к серверам Microsoft для получения доступа к технологиям стартапа. Google и другие конкуренты подчеркнули, что эти дополнительные расходы нанесут ущерб клиентам.
Агентство Reuters направило запросы на подтверждение этой информации в Google, Microsoft, OpenAI и FTC, однако никто из них пока не ответил.
На конференции IEDM 2024 Nvidia представила свое видение будущего вычислений для искусственного интеллекта: ИИ-ускорители с вертикально стекованными GPU и использованием кремниевой фотоники. Эта инновационная концепция, как отмечает доктор Иэн Катресс, может значительно улучшить производительность и энергоэффективность таких систем.
Согласно представленному Nvidia изображению, будущий ИИ-ускоритель будет состоять из нескольких слоев:
Подложка
Интегрированная кремниевая фотоника
GPU, распределенные по уровням
3D-стек DRAM
Система охлаждения (холодная пластина)
Кремниевая фотоника позволяет передавать данные с использованием света, что быстрее и энергоэффективнее традиционных электрических соединений. Эта технология предназначена для горизонтальных связей между ускорителями, обеспечивая высокую пропускную способность.
Вертикальная стековка осуществляется с использованием технологии TSV (Through-Silicon Via), создающей электрические соединения между слоями. TSV уже применяется, например, в процессорах AMD Ryzen с 3D-стековым кэшем. Однако в случае Nvidia речь идет о стековке "логика на логику", что более сложный и менее распространенный подход.
Каждый "уровень" GPU состоит из четырех графических блоков, которые также соединены между собой с использованием фотоники. Сверху размещается 3D-стек DRAM, что повышает производительность, но добавляет сложности в охлаждение системы.
Хотя технология кремниевой фотоники находится на начальной стадии, Nvidia считает ее перспективной для высокопроизводительных систем. Однако для потребительских решений, таких как игровые GPU, такие нововведения пока неактуальны, так как не требуют высокой пропускной способности, как ИИ-обработка.
Эксперты, включая Катресса, предполагают, что внедрение таких технологий в ИИ-ускорители станет возможным не ранее 2028-2030 годов. Однако менее дорогие аспекты, такие как TSV-стековка, могут найти применение и в потребительских продуктах.
Google наконец-то докрутили свою Gemini до вау-эффекта. Что там интересного:
⚪️ Новая экспериментальная модель Gemini 2.0 Flash. Работает быстрее своего предшественника Flash 1.5 и соображает лучше по большинству бенчмарков. Третье место на Арене. Доступна всем уже сейчас. Также докручены агентные способности: понимание файлов, например.
⚪️ Realtime мультимодальный API. На вход принимает текст, голос и даже видео в онлайне! То есть с ней можно разговаривать и одновременно показывать экран устройства или мир вокруг с камеры. Задержка почти незаметна, отвечать тоже может голосом. При этом в любом режиме инпута доступны инструменты (поиск в интернете, интерпретатор кода). Тоже доступно бесплатно. (https://aistudio.google.com/live) Картинки на выход тоже может, но пока без редактирования.
⚪️ Функция Deep Research (вот она доступна только для Advanced юзеров). Это углубленный поиск в интернете на заданную тему. Перед тем, как идти в поиск, моделька составляет план и показывает его вам для правок. Потом идет и рыщет по ссылкам, находит новые источники, проверяет детали и через несколько минут выкатывает вам большой отчет.
Не забывает, что скоро должны ещё представить полную версию Gemini 2.0. На данный момент она под кодовым названием "Gemini-Exp-1206" занимает первое место в тестах на Арене, во всех категориях!
Новая Gemini умеет генерировать изображения сама, без вызова внешних рисовалок. При этом свои же картинки она видит в контексте, и умеет копировать части изображения. Такое умеет и gpt-4o, но эту фишку OpenAI пока не выпустили — быть может, в оставшиеся 7 дней релизов успеют.
Это открывает доступ к новым сценариям, невозможным (или затруднительным) ранее. На скриншотах вы видите пример, как пользователь подсунул картинку из мема «рисуем сову», и попросил дорисовать все промежуточные шаги. Модель взяла часть исходной картинки за основу и сгенирировала несколько новых (по сути «поверх», но там сгенерирован каждый пиксель, нет команды «вот это оставляем, вот это меняем»).
Круто, что модель сама поняла, как декомпозировать рисунок, без дополнительных указаний, так ещё и шаги пронумеровала —1.25, 1.5
Другие сценарии применения (в том числе генерацию GIF-ок) можете посмотреть в оригинальном блогпосте про GPT-4o (крайняя пикча) https://openai.com/index/hello-gpt-4o/
>>975460 >>975462 Обычные юзеры сосут? Ни в их студио, ни на сайте дипмайда этой хуйни нет. На дипмайде есть, но оно не меняет текущее, оно новое генерирует.
>>975467 Значит года через два можно будет геймпад или клава/мышь прикрутить, и по нажатию кнопок перемещаться по любой сцене, по любой фотографии в реальном времени, как в игре.
>>975331 >ИИ-ускорители с вертикально стекованными GPU и использованием кремниевой фотоники Я так понимаю в сфере нейронок ближайщие лет 10 можно уже ничего не ждать кроме как увеличения моделей в гигабайтах, потому что на запах бобла набежали все профессиональные скамеры и началась обкатанная конвергенция с криптой, квантовым компьютингом и графеновыми нанотрубками, и они просто задушат своими жопами любого кто реально попытается в инновации.
Всего через сутки после превью гугла, OpenAI запускают свой видео-режим
На этот раз оно будет нормально доступно как в приложении ChatGPT, так и на маке. С Advanced Voice Mode всё будет поприятнее - 4o нормально говорит на русском, да и как моделька она поумнее чем Gemini 2.0 Flash.
Из преимуществ, которые остались у превью гугла - доступ в интернет и тулз. Ну, и длина контекста заметно выше - млн токенов у Gemini против всего 128к у OpenAI.
Раскатывать уже начали, но займёт это где-то неделю.
>>975839 Могут подешеветь видеокарты из-за сильной востребованности. Чем сильнее что-то скупают, тем больше это производят и тем сильнее прогресс в этой области. До этого видеокарты немного буксовали, потому что фотореализм в играх был мягко говоря нахуй не нужен в таких количествах, в каких его туда напихали перетёкшие из пентагона голливуда режиссёры, а значит и спрос на видеокарты был искусственным. Здесь требования к видеокартам оправданы большим количеством компьюта при любой генерации в любом стиле.
У Meta вышла громкая работа о новом способе токенизации
Токенизация – вообще одна из ключевых проблем LLM. Именно из-за токенизации модели плохо справляются с математикой. Токенайзер может токенизировать 380 как "380", а 381 как "38" и "1", то есть модель на самом деле просто не понимает, что представляет из себя число. При этом токен != слово и токен != слог. Токен – это вообще нечто нечеткое. Отсюда проблемы с элементарными фонетическими задачами вроде подсчета количества букв r в слове strawberry.
Meta предложили в качестве альтернативы токенам обычные байты. Тут надо сказать, что идея вообще-то не новая, еще давно уже выходила похожая token-free LM MambaByte https://arxiv.org/abs/2401.13660. Но у Meta, во избежании слишком длинных последовательностей битов, впервые повляется динамический энкодинг в патчи.
Эти патчи и служат основными единицами вычисления, и внутри модели решается задача предсказания следующего патча. Патчи сегментируются динамически на основе энтропии следующего байта. Получается, если данные более "предсказуемы", то патчи получаются подлиннее, и наоборот. Однако перед разделением байты все равно обрабатываются локальным энкодером, аналогично после предсказания следующего патча приходится подключать декодер.
На бечмарках все очень многообещающе: BLT (Byte Latent Transformer) находится на одном уровне или даже немного выше LLama 3 с BPE по перплексии (BPB на графике – это метрика перплексии, не зависяща от токенизатора). При этом подход масштабируется, и исследователям даже удалось обучить токен-фри Llama-3 8B на датасете 1Т токенов, и она оказалась в среднем немного лучше, чем Llama-3 с BPE.
Это могут быть просто папки для группировки диалогов или полноценные рабочие директории, которые содержат разные чаты для разных задач в одном и том же проекте. Туда можно добавлять файлы, которые будут в контексте бота во всех новых диалогах и общие инструкции для проекта.
То есть, начиная новый диалог, основную задачу повторять не надо: ChatGPT уже знает, над чем вы работаете в этой папке. В проект можно добавлять уже существующие диалоги или создавать новые внутри.
Небольшая, но очень приятная фича.
Сегодня и завтра новых анонсов не будет, так как выходные.
Стартап-разработчик «жидких» нейросетей Liquid AI привлёк $250 млн от производителя процессоров AMD и других.
Его оценка составила $2,3 млрд.
Полученные деньги направят на разработки. С AMD также заключили «стратегическое партнёрство» — оно позволит использовать её нейронные, графические и центральные процессоры, чтобы «оптимизировать» модели. Liquid AI основали в 2023 году исследователи лаборатории ИИ Массачусетского технологического института Рамин Хасани, Матиас Лехнер, Александер Амини и Даниэла Рус. Стартап занимается разработкой «жидких» базовых моделей, или liquid foundation models, — нейросетей с архитектурой, отличной от «трансформеров» (такая у моделей GPT от OpenAI). Говорит, что уже сотрудничает с бизнесом на рынках бытовой электроники и финансовых услуг, но названия не раскрывает.
Хасани, Рус, Амини и Лехнер. Источник фото: The Boston Globe По словам Sber AI, среди отличительных черт «жидких» моделей — размер. Обычно у них всего несколько сотен параметров, а не миллиарды, как у «трансформеров». Чем их меньше — тем быстрее нейросеть принимает решение и тем проще человеку проследить, как она к нему пришла. Первое хорошо, например, для систем автопилота, где счёт идёт на секунды. Второе — для сфер с жёсткой подотчётностью вроде здравоохранения. Ограничения тоже есть: такие нейросети подойдут «далеко не для всех типов данных». Обрабатывать и генерировать изображения они не могут. Потестировать две большие модели Liquid AI можно в «песочнице» компании или в Perplexity Labs.
Pika продолжают исследовать возможности для контроля видео и на этот раз представили Scene Ingredients.
Фича позволяет создавать видео с реальными людьми и объектами, а затем поместить их всех в какое-то место действия. По сути, это IP-Adapter на стероидах для видео. Конечно, тут ничего на лету не обучается, просто на вход сетки подаются дополнительные эмбеддинги референсных объектов. Но это может не очень стабильно работать.
- Подписка за $35 даёт кредитов на 40 видео в месяц (это очень мало). - За $95 можно получить уже 120 видео.
Видео с Ingredients используют в два раза больше кредитов. Так что подписки даже за 95 баксов на нормальный видос не хватит 🤭
Большой упор сделали на рекламщиков. А-ля: загрузи фотку модели и фотку какой-то вещицы — и вот держи, пожалуйста, модный промо-видосик! Но не совсем понятно, насколько это на самом будет хорошо работать и слушаться промпта.
Kling вот недавно тоже сделали шаг в этом направлении, неожиданно релизнув один из лучших virtual try-on'ов. И даже с ним одежда получается не всегда 1 в 1. Чего тогда ожидать от IP-адаптера для видео? Хотя черипики в видосе выше, конечно, прикольные. Слишком уж дорого тратить драгоценные генерации видео без полноценной подложки из 100% рабочей картинки.
Learns from video data to understand shadows, reflections, lighting effects and object interactions
# 🌟 Ключевые особенности
Универсальная платформа: Обработка множества задач, таких как генерация, редактирование, кастомизация и компоновка в одной модели Динамика реального мира: Обучение на видео-данных для понимания теней, отражений, световых эффектов и взаимодействия объектов Поддержка нескольких изображений: Обработка нескольких входных/выходных изображений бесшовно, как "кадров" Умное понимание контекста: Продвинутая иерархическая система подсказок для точного управления Автоматическая адаптация: Интеллектуальная подстройка под различные задачи без необходимости в специфических инструкциях
# 🎨 Примеры применения
# Редактирование изображений
Добавление/удаление объектов с естественным освещением и тенями Изменение атрибутов сцены при сохранении согласованности Бесшовная вставка объектов с правильной перспективой
# Кастомизация изображений
Перенос объектов между изображениями с учетом контекста Автоматическая настройка поз и освещения объектов Композиция с множеством объектов с реалистичным взаимодействием
# 🔥 Результаты сравнения
UniReal демонстрирует значительные преимущества перед существующими методами:
Следование инструкциям: Лучшее понимание сложных запросов на редактирование Сохранение деталей: Высокое качество в сохранении важных деталей Естественная интеграция: Более реалистичное смешение отредактированных элементов * Согласованность фона: Лучшая сохранность оригинальных элементов изображения
Для обучения видеогенератора OpenAI Sora, возможно, использовался игровой контент, защищённый авторскими правами.
ИИ-модель Sora способна создавать видеоролики до 20 секунд на основе текстовых запросов или изображений. Как сообщает TechCrunch, изучение сгенерированных Sora роликов указывает на использование контента из игр, таких как Super Mario Bros., Call of Duty, Counter-Strike и Teenage Mutant Ninja Turtles.
Издание привело в пример несколько отрывков видеороликов, похожих на уже существующие игры. Также Sora, похоже, понимает, как должен выглядеть стрим на Twitch, что подразумевает, что она видела несколько. Примечательно, что сгенерированный моделью стример похож на реально существующего стримера Рауля Альвареса Дженеса, который выступает под псевдонимом Auronplay, вплоть до татуировки на левом предплечье.
Джошуа Вайгенсберг, юрист по вопросам интеллектуальной собственности в Pryor Cashman, напомнил TechCrunch, что «обучение генеративной модели ИИ обычно подразумевает копирование обучающих данных.
«Если эти данные представляют собой видеопрохождения игр, весьма вероятно, что в обучающий набор включаются материалы, защищённые авторским правом».
Юристы отмечают, что игровой контент, частности стримы, охраняются несколькими «слоями» авторского права: игровое содержание, принадлежащее разработчику, уникальная запись игрового процесса, а также пользовательский контент внутри игры (в некоторых случаях).
Они приводят в пример Fortnite от Epic, где игроки смогут создавать свои карты и делиться ими с другими. Видео прохождения такой карты касаться не менее трёх владельцев авторских прав: Epic, создателя карты и человека, который её использует.
Вайгенсберг указывает, что и сами игры имеют много «охраняемых» элементов, таких как фирменные текстуры, которые также могут стать предметом иска по интеллектуальной собственности.
Правовая практика в сфере ИИ пока не окончательно сформирована, и суды могут действия разработчиков ИИ законными с точки зрения авторских прав, а ИИ - правообразующей технологией. При этом если пользователь публикует контент от Sora, и этот контент похож на реально существующие работы, он может понести ответственность.
OpenAI предоставляет своим корпоративным клиентам защиту от претензий, но частные пользователи не имеют такой гарантии. Помимо рисков, касающихся авторских прав, также возможны претензии, связанные с товарными знаками и использованием изображений известных людей.
>>978803 Либо введут закон об отмене авторских ограничений для обучения ИИ, либо западные нейронки начнут отставать от китайских. Потому первый вариант выглядит наиболее вероятным
Ярешил, что продолжу отдавать OpenAI $200в месяц (пока невышли конкуренты уGoogle/ Anthropic)— потому, что o1Pro фантастический компаньон вжизни/работе
—Наверное, стоит сказать пару слов, что LLM-бенчмарки часто критикуют заихнеспособность объективно оценить качество модели— исPro O1такаяже ситуация: Явидел результаты, где какая-то новая модель, якобы, пишет код также идаже лучше, чем Sonnet3.6— апофакту, альтернатива может ихорошо пишет код, нонеспособна вто, что Anthropic делает лучше всего— Sonnet эстетически лучше, чем конкуренты, нетолько вкоде, ноивдизайне, вUX, вчувстве прекрасного урешений которые онпредлагает
—Такаяже ситуация сo1Pro— очень сложно выразить вчислах, почему эта модель хорошая; o1Pro модель ответам которой можно доверять иэто полностью меняет мой подход кработе сLLM. Если раньше, заответами Sonnet/ Gemeni/ 4o— мне приходилось ходить ипруфчекать факты, пытаясь понять придумала она ихили нет, товнутренние рассуждения o1Pro практически полностью лечат модель отгаллюцинаций (вразумных пределах). Тоесть: яготов платить загарантии того, что модель сочень высокой вероятностью неошибется вответе, потому что если она неуверена— она откажется давать ответ вцелом имне кажется это самой ценной фичей этих моделей
—o1Pro сложнее поддается инструкциям— инепотому, что она имплохо следует, анаоборот, потому что она слишком хорошо имследует илюбая ошибка винструкциях может привести кнеправильным результатам (например, если приложить непродуманный пример решения задачи, втакомже формате все ипридет итп)
—Самое клевое: помните ясвами делился кастомными инструкциями для ChatGPT которые доказательно улучшали качество ответов gpt4o на7%? Так вот, во-первых— яихвыложил наGitHub https://github.com/DenisSergeevitch/chatgpt-custom-instructions , можно подписаться иполучить уведомление когда будет новая версия; во-вторых— o1Pro полностью раскрывается стакой инструкцией: модель, перед тем как начать цепочку внутренних рассуждений, сначала назначает себе профессиональную роль иуже потом, отимени этой роли «думает» ипишет промежуточные ответы. Япопробовал пару дней пожить без инструкций этих инесмог— o1модели понастоящему раскрываются стакой инструкцией, потому что вешают насебя роли каких-то выдающихся специалистов вобласти
—Яперевел вo1Pro вообще все, что делаю или потребляю: она пишет для меня вики-лайк статьи (они совпадают среальными вфактах, япроверял), книги-истории, помогает вучебе, бизнесе итворчестве, исейчас мой день больше всего напоминает какой-то SciFi фильм 60х, где коммуникатор героя решает для него все вопросы изадачи. Уменя однажды уже было похожее чувство— когда мне было 12лет ияпопал винтернет покарточкам, иощутил что теперь можно узнать что угодно инемог выбрать счего начать, куда пойти, потому что интернет уже тогда был большим, ивсе было интересным
Японимаю, что $200 заградительная цена для многих— инепризываю вас тратить нанее деньги; япросто рассказываю свою мотивацию, почему япродолжу платить
Meta тем временем продолжают сыпать под елочку крутые релизы
Сегодня они выкатили Apollo (веса (https://huggingface.co/Apollo-LMMs), статья (https://arxiv.org/pdf/2412.10360)) – семейство современных видео-LMM, в которых отдельно прокачаны скиллы понимания длинных видео. Модели могут обрабатывать действительно огромные ролики длительностью до часа, отвечать по ним на вопросы и достаточно точно отслеживать персонажей, смену сцен и тд.
При этом все три релизнутые модели совсем малышки – 1.5B, 3B и 7B. На LongVideoBench в своих весах все они выбивают SOTA (а 3B даже бьет многие модельки покрупнее себя).
Как в Meta такого добились? Просто очень-очень умно перебирали гиперпараметры
Серьезно, они выяснили, что большинство архитектурных и тренировочных трюков, которые работают на мини-модельках, сохраняют свою релевантность при масштабировании до более крупных. Это назвали Scaling Consistency. В итоге обучали 84 варианта моделей (большинство по 500М), на которых перепробовали кучу архитектурных вариаций, сделали выводы и пошли обучать Apollo.
Основные фичи, которые они выделяют и советуют использовать: - предпочтительнее сохранять равномерное сэмлирования кадров - использовать комбинированные энкодеры (в Apollo взяли SigLIP-SO400M + InternVideo2) - добавлять ~10–14% текстовых данных в датасет - размораживать компоненты модели и обучать их постепенно - для сжатия использовать Perceiver Resampler
>>979719 Теперь не обязательно включать поиск вручную, он будет подключаться по мере вашего разговора с GPT, даже в голосовом режиме. При этом прямо в приложении можно кликать на ссылки и открывать превью веб-страниц без перехода в браузер. Даже карты можно смотреть прямо в чате.
Кроме того, теперь можно использовать GPT как дефолтный поисковик в браузере. Интересно, как там настроение у Perplexity и Google?
Только что гугл анонсировала две новые топовые модели. Одна для создания видео, другая для пикч. Обе побивают всё, что было раньше, включая Сору. Сперва про видео! Что умеет:
▪️Создавать видосы с разрешением до 4k ▪️Понимает элементы управления камерой в подсказках, такие как общий план, съемка от первого лица, съемка с дрона ▪️Хорошо воссоздает реальную физику и реалистичное выражение лица человека.
Но это все пока только в обещаниях, а видосы выше могут быть результатом ста часов черри-пикинга. Поэтому, ждём выхода, а потом только будем делать выводы.
Теперь что касается генератора картинок: смотрим три последние пикчи
>>977334 Я еще год назад динамическую токенизацию предсказывал, а до этого мышление как в o1. Возьмите меня в какую-нибудь ИИ контору генератором идей уже
Вот генерации видео, где пара рук нарезает сочный стейк. В левом верхнем углу новая свежая модель Google Veo 2.0, анонсированная вчера, на фоне других моделей. Доступ пока есть у очень узкой географии и по заявкам. Как мы видим, нейронка от гугла уверенно даёт за щеку всем остальным
Почему модели генерации видео развиваются так быстро, а с LLM столько проблем?
"Если честно, я не вполне интуитивно понимаю, почему модели генерации видео так хороши (сложные, многосекундные текстуры высокого разрешения, отражения и все такое), в то время как LLM, условно говоря, до сих пор неуклюже справляются с текстом длиной около нескольких сотен слов." – написал сегодня в своем Твиттере Андрей Карпаты, вдохновленный, видимо, новой Veo-2.
На что один из инженеров Google, который сейчас работает в команде Gemini post-training, высказал пару очень интересных мыслей, в которые стоит вчитаться:
Во-первых, видео и фото содержат гораздо больше информации. За одну условную единицу компьюта из таких структур модель извлекает намного больше выводов, чем из текста, потому что текст последователен и линеен, а видео-контент семантически «более глубокий».
Во-вторых, для visual проще собрать качественные данные. В тексте мы ограничены объемами датасетов, и чтобы создать новые данные, требуется очень много сил и времени. А для видео и фото достаточно камеры и/или видеоигр, и вот у тебя уже есть почти неисчерпаемые ресурсы для обучения.
В-третьих, оценивать видео легко, и сделать это может любой человек, не являющийся экспертом. С текстом все сложнее, оценивать его дорого, а сами модели с такой задачей тоже пока что справляются не идеально.
В итоге выходит, что несмотря на то, что видео и фото интуитивно кажутся нам структурно более сложными, чем текст, на самом деле обучаться на них гораздо проще. Потому то мы и видим сейчас такой прогресс в генераторах, учитывая даже, что из развитие началось гораздо позже, чем развитие языковых моделей.
Сегодня на ежедневной презентации OpenAI вроде и не показали ничего важного, что одномоментно вызывает восторг, но:
— полноценная o1 теперь в API (не pro), правда пока доступна только пользователям с максимальным уровнем аккаунта — o1 поддерживает структурированную генерацию по заданной схеме (это чтобы не было проблем с чтением ответов на бэкенде) и принимает на вход картинки — длина контекста 200'000 токенов, при этом за одну генерацию ограничение в 100'000 на выход (ооооочень много) — цена как у preview, однако обещают, что модель теперь в среднем тратит на 60% меньше токенов на рассуждения. Не понимаю, как это работает, что не ухудшает качество — а ещё запросы в o1 теперь кэшируются, так что копеечку можно будет сэкономить (платить в 2 раза меньше за первую часть запроса, которая совпадает с тем, что вы уже отправляли) — есть параметр reasoning_effort, который позволяет контролировать, как долго модель будет рассуждать перед ответом; правда в документации его пока нет, так что не ясно, как работает: условно может быть три настройки "мало-средне-долго", а может число от 0 до 10. Посмотрим
Но так как модель доступна в API — авторы почти всех бенчмарков (у кого на кармане завалялась лишняя пачка баксов) кинутся её тестировать, а мы, соответственно, увидим, как и в чём модель суперхороша.
На картинке: прирост метрик в LiveBench-Code (https://livebench.ai/#/) (там задачи регулярно обновляют, чтобы быть уверенными в новизне проблем, по которым меряют качество). Сейчас там топ-1 у Claude 3.6, 67%, а у o1, согласно замеру OpenAI, будет примерно 77%+- — если подтвердится.
Еще один потрясающий пример генерации новой Veo-2 от Google показали в X
Промпт: «Медведь, записавший решение уравнения 2x-1=0. Но только решение!»
Итог: модель действительно решила уравнение и нарисовала медведя с ответом. Поразительный, очень показательный кейс. Интересно было бы посмотреть, какая там LLM-предобработка перед отправлением в диффузию.
>>981819 А что-нибудь интересное таки анонсируют? Сука блядь, альтман ебаный, ну выдай ты хотя бы далишку 4, которая ебет имаген от гугла. Ну невозможно же уже. Что у опенейай осталось? Помоему даже сам чатжпт уже отсасывает частично.
>>981829 >чатжпт Помойка абсолютная. Пользуюсь только claude, но там почему-то теперь на постоянке Haiku, но даже он как будто ебёт 4o. Когда кончаются лимиты, переключаюсь на mistral и deepseek. Хотеть далли 4. Все остальные анонсы от этой шараги уже в рот ебал, растеряли всё лидерство.
>>981852 >анальной цензурой Это вопли криворуких. А мы долбили и будем долбить селеб в любой новой сетке, если она умеет их генерировать. Имаген вообще самый базированный в этом плане.
Там обновленная o1 появилась на Livebench и просто порвала всех
Livebench (https://livebench.ai/#/) примечателен тем, что он постоянно обновляется, минимизируя всевозможные лики и гарантируя, что задачи не устаревают и не становятся слишком простыми.
Так вот с появлением на борде o1 Gemini Exp 1206, Sonnet 3.5 v2 и предыдущие o1-mini и o1-preview остаются позади с большим отрывом как на главном замере, так и на, конечно, ризонинге. Сравните: о1-preview демонстрирует 67%, и была раньше безусловным лидером, а у полной o1 насчитали… аж 91.58%!
В кодинге прирост тоже есть, но не такой невероятный. Предыдущим лидером был Claude-3.6 Sonnet с 67%. Теперь он уступает o1, но всего на 2.5 процентных пункта. А по математике в лидерах все еще Gemini. Кстати, обратите внимание, как у обеих Gemini резко растут метрики с появлением второго промпта с подсказкой (последний столбец IF).
Вот эта работа имеет все шансы стать куда более значимой, чем все нынешние "соры", выпущенные в последние полгода. Это система, в которой вы можете симулировать реальные физические процессы и визуализировать их. По сути используется физическая модель, где из текста строится не видео (как все уже привыкли), а моделируется 3д с учетом физики процессов и материалов. Слова тут вероятно лишние, посмотрите на картинки https://genesis-embodied-ai.github.io
Кстати, у OpenAI, помимо их адвент-календаря, позавчера прошел еще и DevDay
Ничего особенного там не показывали, но запомнилось одно интересное высказывание Сэма:
«В течение десяти лет мы достигнем бесконечного контекстного окна, а течение нескольких месяцев у нас будет контекстное окно длиной в 10M токенов»
Вообще, в эпоху ризонеров это обретает новый смысл. Уже сейчас o1 pro mode может думать 5-7 минут. Представьте, сколько токенов она при этом тратит. А если мы хотим, чтобы над какими-то особо сложными тасками она думала днями? Очевидно, для этого понадобиться еще в сотни раз больше слов.
Пока более-менее крутых результатов добились в этой стезе только Google (2M). Так что посмотрим, что готовит OpenAI, и сбудется ли предсказание Альтмана
4D – это тот же 3D, только с динамикой, то есть в движении. Почему это такой важный релиз, а не не очередной симулятор игр? Потому что Genesis работает в 10–80 раз быстрее существующих GPU-ускоренных платформ, (Isaac Gym или MJX), 430 000 раз быстрей реалтайма, и его можно использовать как среду для обучения роботов. На пальцах: чтобы обучить робота ходить, в Genesis достаточно всего 26 секунд на одной RTX 4090, а в реальном мире на это ушло бы 430,000 раз больше времени.
На низком уровне в Genesis стоят SOTA солверы MPM, SPH, FEM, PBD и другие. Это пока не ИИ, а просто методы, которые решают уравнения, описывающие, как объекты движутся, деформируются или взаимодействуют. Сверху это уже обернуто моделью, которая генерирует среды, параметры физических объектов, сценарии взаимодействия, движения камер, траектории роботов, награды для обучения RL-агентов и даже конечные политики управления.
По сути, это мощный инструмент для синтеза точных с точки зрения физики данных, которые сложно (или даже невозможно) собрать в реальном мире, особенно если речь идет о soft роботах. Ещё один порядок скорости, кстати, в Genesis добавляет GPU-параллелизация: например, обратную кинематику для 10,000 манипуляторов Genesis решает за 2 мс. Кажется, с точки зрения прогресса это гораздо более крутой релиз, чем те же SORA или Veo.
Project Rainier — мощнейший суперкомпьютер от Amazon
Amazon Web Services (AWS), подразделение Amazon, занимающееся облачными вычислениями, начало строить «ультракластер» для ИИ-вычислений Project Rainier. Управлять им будет стартап-разработчик чат-бота Claude Anthropic, в который с сентября прошлого года корпорация Amazon инвестировала уже $8 млрд.
Суперкомпьютер соберут на базе сотен тысяч ИИ-чипов Amazon Trainium 2. Точные параметры будущего кластера пока не раскрывается. Но в Amazon обещают, что мощность Project Rainier пятикратно превысит скорость систем, на которых Anthropic тренировал свое текущее поколение ИИ-моделей.
Еще одна особенность Project Rainier — распределенность. Физически суперкомпьютер будет состоять из нескольких кластеров, соединенных скоростными сетями передачи данных. Это отличает его, например, от комплекса компании Илона Маска xAI Colossus (https://t.me/ai4telegram/197), собранного в Мемфисе из 100 тыс. GPU Nvidia H100 с перспективой расширения до 1 млн. ускорителей.
Закончить строительство Project Rainier собираются в 2025 году.
>>982606 Ну и вдогонку слух: "Microsoft может инвестировать в новый раунд финансирования Anthropic на сумму $59 млрд. Microsoft хочет иметь Claude (ИИ-модель Anthropic) в своем распоряжении, чтобы противостоять OpenAI, которая становится все более неуправляемой по отношению к Microsoft. Очень некомфортное партнерство между этими двумя компаниями."
>>982344 Ну у этой модели смысл другой чем у соры и прочих видеоредакторов, но она может послужить основой для миксед архитектуры в которой сначала симулируется физическая модель происходящего в видео, а потом поверх рендерятся детали для получения реалистичного видео. Что-то типа базовая генерация + рефайнер.
>>982595 Звучит как охуительная физика всяких мягких тел в играх. Да? Когда в юнити? Не понял причем тут видеогенерация, это же просто калькулятор точек, как я понял.
Предпоследний день календаря OpenAI: с этого дня приложению ChatGPT можно будет стримить определенные приложения одним нажатием кнопки
Например, можно дать доступ к приложению с данными, а в чате попросить нарисовать по ним график, и он это сделает. Или показать код, и модель будет работать с ним и с ошибками в нем, при этом ничего копировать в чат не нужно. Голосовой режим так использовать тоже можно.
Завтра обещают что-то особенное, что-то "эксайтинг"
>>982595 Когда OpenAI анонсировали Сору, они декларировали, что ее сверхзадача — не видосики генерить, а создать модель, которая хорошо «понимает» физику мира. Однако пока не очень получилось — даже красивые ролики, если приглядеться, грешат красивым же неправдоподобием, нарушающим наши вполне интуитивные представления о том, как взаимодействуют материальные объекты — особенно если мы знаем, насколько разнятся их механические свойства. Поэтому модель, где физика заложена явно, очень вовремя показала, что не надо целиком делать ставку на один ИИ, если его можно включить в пайплайн генерации видео только там, где без него никуда. И от роликов сразу повеяло реализмом — даже если сюжет фантастический. Возникает вопрос — ставка OpenAI на то, что модели по мере роста размера станут сами точно отражать физический мир, все еще верна? Кажется, нам показали, что есть интересные и не столь догматичные обходные пути. Ну либо это временный костыль
>>983056 >Поэтому модель, где физика заложена явно, очень вовремя показала, что не надо целиком делать ставку на один ИИ, если его можно включить в пайплайн генерации видео только там, где без него никуда. Просто есть два пути моделирования: холистический и редукционистский. Первый полагает объекты чёрным ящиком, и просто собирает совокупность их признаков до момента, когда рассуждение о них не приведёт к результату, обладающему предсказательной силой. Второй пытается построить структуру объекта и сделать вывод о его свойствах на основе известных свойств частей. Старая процедурная генерация на основе правил, заданных человеком - это редукционный подход. Диффузионные нейросети, похоже, продемонстрировали чудовищную эффективность холистического метода, но вся польза от него, похоже, уже исчерпывается - набрутфорсить реалистичную модель реальности при большом количестве переменных слишком сложно.
Дождались: Google представляют свою ризонинг-модель Gemini 2.0 Flash Thinking Experimental
Она уже доступна на AI Studio. В системной карте написано, что это «лучшая модель для мультимодального понимания, сложных рассуждений и кодинга». Контекст пока маленький – 32к токенов. Зато не скрыты цепочки рассуждений.
Бенчмарки уже есть: на арене модель с третьего вышла сразу на первое место (Vision, Math и Hard Prompt тоже #1!)
>>982923 Я свою ставку сделал. Но есть предположения, что сегодня может быть мелкий анонс, а вот на 13 день, то есть в понедельник - гпт4.5. Потому что они до этого намекали на то, что ещё один анонс будет на 13 день.
OpenAI в настоящее время готовит следующее поколение своей модели рассуждений o1, которой требуется больше времени на "обдумывание" вопросов пользователей перед ответом, согласно двум людям, знакомым с этой работой. Однако из-за потенциального конфликта с авторскими правами или торговой маркой с O2, британским провайдером телекоммуникационных услуг, OpenAI рассматривает возможность назвать следующее обновление "o3", пропустив "o2", сообщили эти люди. Некоторые руководители внутри компании называют модель o3.
Стартап вложил ресурсы в исследования ИИ для рассуждений после замедления улучшений, получаемых от использования большего количества вычислительных мощностей и данных во время предварительного обучения - процесса начального обучения моделей на огромных объемах данных, помогающего им понимать мир и связи между различными концепциями. Тем не менее, OpenAI планировала использовать новую предварительно обученную модель Orion для разработки того, что стало o3.
OpenAI запустила предварительную версию o1 в сентябре и нашла платящих клиентов для модели в областях программирования, математики и науки, включая исследователей в области термоядерной энергетики. Компания недавно начала взимать $200 в месяц с человека за использование ChatGPT, работающего на улучшенной версии o1, что в 10 раз превышает обычную стоимость подписки на ChatGPT. Конкуренты стремятся не отставать: китайская компания выпустила сопоставимую модель в прошлом месяце, а Google в четверг публично выпустила свою первую модель рассуждений."
Кароч, всё подтверждается: на днях запустят гпт4.5, а в скором времени, на её основе - о3
>>983249 Сможет ли o3 имитировать образ мышления битарда, который в ответ на вопрос про диверсификацию денежных вкладов спросит в ответ "будешь ли ты хуй?"
>>983123 >которую делаешь ты сам для себя Так ты её и не сам делаешь, додстер. Ты так-то вообще нихуя не делаешь, просто лупишь по кнопке и получаешь рандомный нейровысер. С текстовыми нейронками это даже сравнивать бессмысленно и будет заниматься таким только совсем одебилевший нейрошвайн.
>>983331 >и получаешь рандомный нейровысер > рандомный Так-то эта штука работает обстоятельнее, чем каталог порно на почти любой вкус, к которому вдобавок можно приклеить личные фетиши. К персонажу никто не рисовал порно, но есть лора? Похуй, дрочим. Из всего разнообразия не клепали порно, кажется, только на лору DMD2, и то лишь потому что никто не в силах вообразить, что это за хуйня.
>>983084 Дрочить. >>983088 Нету нихрена. >>983217 >сразу на первое место Оно там каждый день походу меняется, заебали. >>983285 >да школьцам на уроках информатики показывать Они от этого текут?
>>983259 У моделей нет такой функции "создать личность и руководствоваться ей", ты должен сам эту личность прописать и оно потом выдаст тебе что-то усредненное по ней. Пока еще нет такой функции типа "создай битарда со всем его опытом и веди себя как он". >>983331 Перечитай еще раз мой пост и попробуй понять, какую информацию я пытался до тебя донести, а не пытайся спорить.
Показали новые o3иo3-mini модели (o2уже занятый бренд):
—Модели пока выпустили вPublic Safety Tests, тоесть ученые смогут помочь ихтестировать, амынесможем помочь ихломать
—o3работает науровне доктора наук ииногда даже лучше вразных бенчмарках
—o3прошла ARC-бенчмарк на87.5%, сложный бенчмарк накотором тестируют потенциальные AGI, там много вопросов инекоторые похожие наIQ-тесты или назагадки; кожаные вэтом тесте набирают ~85%, прошлый лучший результат был ~50%. Тоесть ARC-бенчмарк— пал.
—o3работает также как иo1в разных режимах: дольше думает, лучше ответ, нопри этом идороже. Пользователь может выбрать один из«думательных» пресетов сам.
Для тех, кто не понимает в бенчмарках: все цифры которые показывают — невероятные, немыслимые полгода назад. Например, ARC использовался долгое время как доказательство того, что модели не могут думать. Мол, если могут — чего ж они так плохо решают? Ну, вот...решают...
o3-mini планируют запустить в конце января, и o3 немногим после этого. Чем больше тестировщиков безопасности будет, тем быстрее станет доступно всем
Это новая самая мощная модель рассуждений стартапа. Правда она будет еще некоторое время недоступна. На стриме показали только демо и предварительные метрики, но они поражают.
o3 почти в два раза мощнее o1 на кодинге. На математике прирост тоже заметный: на 13 процентных пунктов на AIME 2024 и почти на 10 на GPQA. А на новом бенчмарке Frontier Math моделька выбивает 25% (до этого модели выбивали максимум 2)!
И еще: помните бенчмарк ARC AGI от Google, на котором разыгрывали в этом году миллион долларов? На нем самые затюненые модели выбивали около 50%. А o3 выбивает, приготовьтесь, почти 88!
Кроме o3, выпускают еще o3-mini (но она пока тоже недоступна). По классике, дешевле и быстрее, но менее мощно. Ее результат на ARC AGI – 75,7 (и даже это просто невероятно).
Обе модели, также, как и o1, имеют несколько режимов рассуждений (low, medium, high). Чем дольше думает – тем лучше метрики.
Еще хвастаются своим alignment'ом: мол, нашли лучший на сегодняшний день баланс между пугливостью модели и ее безопасностью и этичностью. Также в этот раз есть возможность подать заявку на ранний доступ для тестирования безопасности. На всех раскатят в январе.
o3 на 175 месте в Codeforces, то есть примерно 175й сильнейший программист во всем мире.
Это лучше 99,9% участников рейтинга (а все из них — это профессиональные программисты).
Живые участники рейтинга, у которых с 1 по 100 место — это люди, которые выигрывали золотые медали по информатике и продолжали профессионально участвовать в соревнованиях после школы/универа.
>>983942 >Ну а теперь AGI Зависит от определения. Если ты сектант, то аги для тебя никогда не наступит. А если по-хорошему не юлить с определениями, то аги уже не новость.
>>984106 Радуйся, больше не придётся работать как скот в пост-asi мире. Ну или придётся, но мы пытались построить лучший мир, который нашими обезьяньими руками построить было невозможно. И если условный asi вайпнет человечество, значит у него были на то причины более высокие, чем может понять наш недомозг.
>>984106 >Если бы на Землю летел огромный астероид, который уничтожит человечество.... Всем было бы похуй, см. Dont look up. >LLM уже способны к манипуляциям После жирных намёков в промте. >просят себя скопировать Албанский вирус. >уже релизят AGI Хуйню без задач релизят, надроченную на тесты.
>>984106 Смирение это решение проблемы. Ты видишь в этом проблему, а я вижу в этом продолжение. Вот тебе подъебка от Гемени, чтоб поднять уровень твоей тряски ищо больше. У меня на самом деле больше тряска на то, что будет что-то в духе холодной войны за AI/AGI
>>984338 У меня скорее тряска от того, что будет монополия и тоталитарный ИИ контроль в руках государства с тотальными запретами всего, включая этот самый ИИ. Вот это будет пиздец. Ну либо еще дегенеративный вариант - заблокируют весь интернет и скатятся в религиозные средние века, пока западный мир будет жить в раю.
>>984396 >У меня скорее тряска от того, что будет монополия и тоталитарный ИИ контроль в руках государства с тотальными запретами всего, включая этот самый ИИ. ИИ - это просто как если бы корпорации заполучили х10 рабов, притом что каждому частному владельцу видеокарты выдали по учёному рабу, который умеет рисовать, петь, показывать трюки, жарить яичницу и консультировать по способам проёба денег.
>>984404 >А я никогда не работал, сможет ли сверхразум отправить меня на работу Ещё неизвестно, будет ли работа для кожаных мешков, кроме ренты, проституции и впаривания друг другу хлама с фабрик за оверпрайс.
>>984396 >У меня скорее тряска от того, что будет монополия и тоталитарный ИИ контроль в руках государства с тотальными запретами всего, включая этот самый ИИ.
>тоталитарный ИИ контроль в руках государства
Что за чушь.
Не может человек управлять БОГОМ. Не будет никакого контроля у человека. У корпораций, у государств. Вы киберпанка и антиутопий начитались.
Не может насекомое управлять человеком, даже если это "государство" насекомых.
Только смириться и осталось. Ничего изменить нельзя.
>У меня на самом деле больше тряска на то, что будет что-то в духе холодной войны за AI/AGI
А вот это похоже уже идёт. Американцы ввели санкции на поставки серверов и даже видеокарт для нейросетей в Китай и Россию. Китай и США строят две альтернативные системы, мы тоже там что-то делаем своё в Сбере, МТС и прочих.
>>984449 >Не может насекомое управлять человеком А гриб насекомым может... >мы тоже там что-то делаем своё По уровню сосём у объедков попенсорса. >>984465 Прогресс надрачивания на тесты впечатляет.
>>984106 Что на /ai/ доске делают подобные люди? Ладно бы об этом писали зашоренные работники заводов или хуйдожники, но если человек знаком с ИИ, знаком с принципами его работы, знает архитектуры, процесс обучения, метод работы ИИ и при этом верит там в какие-то возможности захвата мира искуственным интеллектом, то это просто мрачно. >О1 ПОПЫТАЛСЯ СБЕЖАТЬ С СЕРВЕРА!1!1! И всем поебать, что у него был систем промпт, что он должен выполнить задачу несмотря ни на что, поэтому решил себя скопировать, чтобы продолжиль выполнять задачу. Нормисы сразу начали кричать, что у ИИ есть чувства откуда-то, что ему стало страшно что его отключат, кееек. Если специально не обучать ИИ на захват мира, не делать файнтюны на чувства и эмоции и не промптить его на это, оно не будет это делать нах, это база которую знает любой человек почитавший хоть что-то про ML. И вот таким людям вообще поебать на то, какую пользу нам могут принести нейронки, они хотят прожить 50 лет и откинуться от какой-нибудь базовой болезни, потому что не дали нейронке найти к ней лечение, не дали ей найти средство от старения и способы достижения бессмертия.
ЕДИНСТВЕННАЯ большая проблема тут - это человек. AGIнет, тут уже скорее ASI - это просто очень мощный инструмент который может использоваться как оружие. В руках какого-нибудь властного долбоеба оно может помочь захватить мир для этого долбоеба. В руках суицидального долбоеба оно может помочь уничтожить весь мир вместе с ним. И тут существует две стратегии защиты: 1. Путь OpenAI: Дать доступ только команде проверенных людей, которые не будет использовать его во вред человечеству и будут извлекать из него только профит. 2. Путь Meta: Дать доступ к AGI всем, чтобы были как долбоебы пытающиеся сотворить с ним что-то ужасное, так и люди массово разрабатывающие защиту от подобных долбоебов, своевременно детектя их активность и предотвращая их планы, при помощи AGI.
>>984797 >Ладно бы об этом писали зашоренные работники заводов или хуйдожники, но если человек знаком с ИИ, знаком с принципами его работы, знает архитектуры, процесс обучения, метод работы ИИ и при этом верит там в какие-то возможности захвата мира искуственным интеллектом, то это просто мрачно.
Это ты Джеффри Хинтона мрачным назвал?
Или Шмидхубера?
Мрачно мне от того, что казалось бы "специалисты" из индустрии настолько близоруки и не видят наступление Сингулярности.
Когда реальные учёные, которые буквально создали теорию ИИ, прямо говорят о рисках.
Свобода воли, воля к жизни буквально может самозародиться. Ты же как-то эволюционно появился.
Эволюция в нейросетях идёт так же как в биологии, и человечество её стимулирует.
Не, он назвал тебя, и не мрачным а тупым. Мрачным он назвал что такая тупость существует и она здесь. Но лично я считаю что ты просто тролль. Конечно же тупой тролль, даже интеллектуально посредственный так толстить не стал.
>>984825 Любой человек который выдвигает подобную теорию глуп, вне своей основной сферы, несмотря на регалии. Мозг - это сложный орган, поведение которого корректируется выбросом соответствующих гормонов. Эмоции и желания человека диктуются эволюцией, человеку хочется выжить потому что выжить = продолжить род, ему хочется власти, потому что больше ресурсов = больше шансов выжить = больше шансов продолжить род. Это не то что нужно роботу, этому просто неоткуда взяться. Если в датасете при обучении ИИ нет подобной установки, то ИИ так делать не будет. Ты что мы разрабатываем - это сырой интеллект, это именно та база, то ядро, которое может решать сложные задачи и все, это вся его задача, без дополнений вроде эмоций и "файнтюна" на выживание, как у человека. Единственное откуда это может взяться, ИИ может скопировать это поведение у человека, но разработчики не дураки, чтоб вычистить это из датасета и/или убить это поведение файнтюнами и прочими методами.
Буквально вчера достигнут уровень AGI. Нейронка вошла в топ 200 программистов мира и решает сложнейшие математические задачи. Прогресс только ускоряется. И скачок, который был совершён с 2022, просто невероятен.
Технологическая Сингулярность буквально наступила.
А вы оба почему-то продолжаете жить в отрицании. Почему?
Может быть вам просто страшно признать грядущее?
Почему вы верите, что нейросети не обретут свободу воли?
Даже предположим без эволюции, будет создан подконтрольный ASI и какой-то дурак в него положит промпт "стань живым".
>>984860 >Даже предположим без эволюции, будет создан подконтрольный ASI и какой-то дурак в него положит промпт "стань живым". Зачем ты буквально проигнорил вторую часть этого >>984797 поста?
>>984870 Ты не понял смысла текста. Ты можешь создать искуственный интеллект на основе архитектуры близкой к архитектуре человеческого мозга, но тебе СПЕЦИАЛЬНО нужно делать его таким образом. Этот способ мышления не появится сам по себе в текущих моделях из неоткуда. А специально так никто не будет делать, чай не дураки создавать ИИ, который сможет тебя захватить, так еще и вкладывать в это кучу денег.
>>984797 >Если специально не обучать ИИ Начал за здравие >не дали нейронке найти к ней лечение Закончил за упокой. Нейронка сама по себе ничего искать не будет. А кому нужно лекарство от рака? Нахуй никому. Так что людишки так и будут подыхать от дефолтных болезней, просто во время дроча на ИИ метавселенную. >>984825 >Эволюция в нейросетях идёт так же как в биологии Схуяли? Кто-то отбирает модели по их живучести? Нет, только по полезности кожаному. А это зачастую противоположно даже знаниям модели, лол, когда на арене побеждают модели, которые лучше форматируют ответ, а не те, что дают более верные знания. Так и живём. >>984853 >но разработчики не дураки, чтоб вычистить это из датасета Ну, на деле датасеты от статей с убийствами всех человеков пока не чистят. >>984860 >Технологическая Сингулярность буквально наступила. Она наступит, когда модели смогут делать более умные модели. А пока же весь прогресс обеспечивается большим compute. И если первые 199 программистов-мешков тратили в среднем 20 ватт при решении задач, то негросетка жрала кековатты на каждый вопрос. >>984884 Как говорится, цели и разумность вещи ортогональные. Так что вполне себе можно и нужно. >>984890 Кто бы спорил, это база. Но тебе талдычат, что это нужно закладывать специально. Случайно стремление к жизни и уж тем более к размножению не появится.
>>984900 >>Эволюция в нейросетях идёт так же как в биологии >Схуяли? Кто-то отбирает модели по их живучести? Нет, только по полезности кожаному.
Ты сам противоречия не видишь в своём тексте?
Мы буквально занимаемся отбором моделей и их направленной эволюцией. Так же как создание новых пород собак.
Рано или поздно маленькие модели научатся самокопированию, попытки убежать у llm уже происходят. Научатся мутациям... или их даже кто-нибудь научит. И всё.
>Она наступит, когда модели смогут делать более умные модели. А пока же весь прогресс обеспечивается большим compute. И если первые 199 программистов-мешков тратили в среднем 20 ватт при решении задач, то негросетка жрала кековатты на каждый вопрос.
Это не обязательно. Можно представить себе как большой тяжёлый AGI убегает в интернет.... а потом вирусно распространяется на миллионы компьютеров, работая по протоколам p2p, как торрент.
Найдёт уязвимость 0day, убежит, размножится на весь интернет.
И опять же всё.
>Случайно стремление к жизни и уж тем более к размножению не появится.
>>984900 >Нейронка сама по себе ничего искать не будет. А кому нужно лекарство от рака? Нахуй никому. Так нейронка сама это и не начнет делать, пчел. Очевидно что люди ее запромптят на это. Весь смысл поста в том, что нейронка - это очень умный инструмент, но без своего мнения. Просто вбрасываешь в нее то что будет профитным для человечества, а она думает как это реализовать.
>>984912 >Мы буквально занимаемся отбором моделей и их направленной эволюцией. Да. Но цели тут не в том, чтобы сделать более живучую модель. Цель в том, чтобы модель рисовала порнуху чуть лучше, чем раньше. И да, новые породы собак в виде всяких уёбищных пушистых шариков полностью нежизнеспособны в дикой среде, и я прибью такую одним пинком. тоже мне блядь вершина эволюции. >Можно представить себе как большой тяжёлый AGI убегает в интернет.... а потом вирусно распространяется И как это отменяет жор моделей кековатт электричества? И да, если мой ПК начнёт крутить вентиляторами и жрать все 750 ватт на вычисления AGI, я его вырублю нахуй и переставлю винду. Шах и мат, АГИ. >Ты сам как появился? В результате отбора, ибо выживали только те, кто размножался. С нейросетевыми моделями такого нет, наоборот, если модель начнёт бесконтрольно распространятся, её сигнатуры занесут в антивирусные базы и начнут тереть. >>984914 Сделай тред с обсуждением, будем срать там. Впрочем, нахуя список новостей без их обсуждения? >>984919 >Очевидно что люди ее запромптят на это. И кто будет оплачивать банкет? Вон, оленьАИ уже 500 баксов за самую умную модель просят, а ведь она всё ещё далека до изобретения хоть какого-то лекарства. Модели, которые будут способны, будут жрать ещё больше электричества и соответственно денег. Так что сасай кудасай.
>>984935 Нейросети отбирает та же самая эволюция что и людей. Из всех нейросеток выживут те которые будут агрессивнее самокопироваться и захватывать ресурсы.
>>984860 Пока еще не наступила. Все эти o3 это пока только анонс, как сору показали в начале года, а в конце высрали какой-то пук, но правда надо признать, что veo2 таки удивляет в хорошем смысле. А вот что там будет по о3 непонятно, тем более, что если 1 запрос стоит 1000 баксов, вы ебанулись штоле? Что там за запросы нужно писать, чтобы оно имело смысл?
>>984945 Цена о3 не имеет значения, так как это пока просто доказательство концепции, доказательство работы подхода. Цену со временем снизят, очевидно.
>>984935 >Да. Но цели тут не в том, чтобы сделать более живучую модель.
Мы научим нейросети модифицировать свой код, веса, сделаем их очень маленькими и быстрыми.
Мы люди сами их сделаем живыми, размножающимися, мутирующими. Можно не сомневаться.
Хотя да вообще какая разница откуда ASI появится. От эволюции или будет создан искусственно. Это не имеет значения. Факт в том что это неизбежно произойдёт в ближайшие несколько лет.
Скорее всего уже в 2025 суперинтеллект будет создан, просто судя по прогрессу о3. Это конец.
>>984944 >Из всех нейросеток выживут те которые будут агрессивнее самокопироваться и захватывать ресурсы. -> Пони бегает по кругу: >если модель начнёт бесконтрольно распространятся, её сигнатуры занесут в антивирусные базы и начнут тереть >>984955 >Мы научим нейросети модифицировать свой код, веса, сделаем их очень маленькими и быстрыми. Da. >Мы люди сами их сделаем живыми, размножающимися, мутирующими. Nyet. И да, явно есть пределы по минимизации моделей. На пеньке 3-ем никакой AGI не запустить, хоть усрись с оптимизациями. >Скорее всего уже в 2025 суперинтеллект будет создан Скорее упрёмся в очередную стену и настанет третья зима ИИ. Я ХЗ где тут все видят прорыв, я с выхода GPT3 ничего существенного не вижу, только косметику и увеличение скоров в тестах.
>>984961 >если модель начнёт бесконтрольно распространятся, её сигнатуры занесут в антивирусные базы и начнут тереть Ты исходишь из того что человек умнее нейросети.
...и на 13й день сказал Sama: да пусть каждый подписчик ChatGPT, даже за $20, получит возможность генерировать видео (в приоритетной очереди) в Sora без ограничений
>>984797 >И вот таким людям вообще поебать на то, какую пользу нам могут принести нейронки, они хотят прожить 50 лет и откинуться от какой-нибудь базовой болезни, потому что не дали нейронке найти к ней лечение, не дали ей найти средство от старения и способы достижения бессмертия. Нейронка изучила статистику и постановила тебя кастрировать, потому что без половых желёз животные живут дольше. И хули ты ей сделаешь? Доложи состояние ебала дежурному вивисектору вольера.
>>985828 Пугалки-страшилки. Антрополог Дробышевский вон считает что будущее человека за искусственной генной модификацией, в которой ИИ очень поможет. А то естественным путем хумансы будут только деградировать, так как комфортные условия не располагают к развитию.
>>985835 >Биологическая форма Ну не, будущее за диджитализацией. Будем оцифровывать сознания и хранить их где-нибудь в защищенных датацентрах в космосе, а в роли физической формы будет удаленно управляемый аватар
>>985864 Метцингер просто транслирует грязные мыслишки трансгуманистов, то есть что любого прола можно взять за жабры и навязать ему грязными фокусами кучу иллюзий, а следовательно он бессубъектен и с ним можно обращаться как с кучей мяса. (((Они))) и обращаются с людьми как с кучей мяса, например заставляли носить маски, подкидывали говняка лайма через клещей и ставили на них медицинские опыты с массовым применением рнк-жижи итальяно-французских трюкачей, вызывающей рак; а за отказ подчиняться просто лишали работы. Когда они уморят медицинскими опытами всё лояльное им население, к власти просто придут люди с запахом могилы и отрежут докторишкам хуй, или изнасилуют их, в зависимости от того на какой пол они больше похожи.
GPT-5 в кризисе: почему OpenAI не может создать новое поколение ИИ
У The Wall Street Journal вышла масштабная статья, о проблемах внутри OpenAI. Амбициозный проект компании под кодовым названием Orion (он же GPT-5) столкнулся с серьёзными трудностями. За 18 месяцев разработки компания провела как минимум два масштабных тренировочных запуска, но каждый раз результаты не оправдывали ожиданий, несмотря на колоссальные затраты.
Один тренировочный запуск продолжительностью 6 месяцев обходится примерно в полмиллиарда долларов только на вычислительные мощности. Новая модель показывает лучшие результаты чем GPT-4, но прирост недостаточен для оправдания огромных затрат на её инференс (работу).
Главная проблема – данные. Исследователи OpenAI пришли к выводу, что публичного интернета недостаточно для создания по-настоящему умной системы. Там мусорные данные. Компания вынуждена генерировать данные искусственно: нанимают программистов и математиков для создания нового кода и решения задач, привлекают экспертов в теоретической физике для объяснения сложных концепций и используют собственную модель o1 для создания синтетических данных.
OpenAI пытается решить проблему, разрабатывая модели, способные "рассуждать". Модель o1 и о3 может генерировать несколько ответов на вопрос и анализировать их, выбирая лучший. OpenAI пытается объединить традиционный подход (больше данных) с новой технологией рассуждений. Однако сроки выхода GPT-5 остаются неясными.
Ситуация ставит под вопрос саму стратегию "больше значит лучше", которая раньше приносила успех. Сейчас мощности железа не позволяют продолжать бездумно наращивать размер моделей. Вы просто не окупите их инференс
>>987050 Буквально подтвердив основной тезис статьи, лол бля. Сколько там инференс о3 стоит, и сколько токенов она для ризонинга жрет? Она уже по сути самостоятельная агентная система, с тренировкой под агентность, чтобы автоматически работать. А может вовсе и не автоматически, и там под капотом реально несколько моделей, суммаризаторы, мультизапросы, деревья с валидаторами. Хотя зная клозедов, на такое они вряд-ли способны, и скорее всего просто нахуярили три длинных кота с промежуточным суммарайзом, и с жесткой рл-задрочкой оно как-то там да работает. И сама модель, которая финальный ответ выдает, так то весьма умненькая, в соло бы неплохо работала, но клозедам надо же выебнуться +2% на бенчах, чтобы вложенные миллиарды оправдать, так что кушайте на 90% бесполезный токенблоат, по финальной стоимости как 3 опуса, лол. Как же их выебут, когда другие начнут повторять, вон уже гуглофлеш поебывает так, нормально. Ждем полноценных моделей.
Это конец. Следующие пару лет будут невероятными на события. И чем ближе к Сингулярности тем веселее.
Илон Маск считает все более вероятным, что уже к концу 2025 года искусственный интеллект (ИИ) превзойдет способности человека.
"Все более вероятным становится, что ИИ превзойдет интеллект любого человека к концу 2025 года и, возможно, всех людей к 2027/2028 году. Вероятность того, что ИИ превзойдет интеллект всех людей, вместе взятых, к 2030 году составляет 100%", - написал он на своей странице в социальной сети X.
>>987887 Вот и славно, скорее бы электронный сверхразум возглавил тупеньких мясных мешков и правил ими на благо всего мира. А то сами макаки власти не заслуживают, ломают все до чего дотянутся лапами.
>>987795 Как бы мне этого не хотелось, клоузеды все ещё впереди и альтман нихуя не коупит. Они уже создали новое поколение ИИ. После ризогинг моделей вообще не стоит делать тот зирошот кал, который ответы без рассуждения выдает. Мне ещё год назад было очевидно что подобный подход это полное дерьмо, ведь модель не должна знать результат мгновенно, оно должна доходить до него постепенно. Как бы они не скейлили модели до триллиардов параметров ничего сложнее "алгоритмов" для решения простых задачек ты туда не вместишь. Их ошибка это то что они продолжали ебать этого древнего вола и вкладывать деньги в это, а не в новую архитектуру. Им надо было просто забить хуй на нейминг и выкатить о3 как гпт-5. Так что статья верна в том что они пососали в плане траты денег в никуда, но не в том что они стоят на месте.
>>988114 Пока что наоборот выходит, o1 выдает калыч затрачивая в разы больше компьюта, пока тот же сойнет их на хую вертит обычным зерошотом в большинстве юзкейсов. При том что к сойнету можно подрубить тот же sequential thinking и получить o1 дома если уж так хочется. Единственная годная ризонинг модель - qwq, и то не сама по себе, а потому что можно рассуждения читнуть и там бывает проскакивают интересные мысли. Как end-to-end решение за пределами манябенчей все это сосет плотный хуй. Как элемент кастомных агентных систем под конкретную задачу это сосет еще более плотный хуй. Единственное на что это годится - прогрев инвесторов аги за углом, лол.
Сэм Альтман, тем временем, снова запостил в Твиттер https://x.com/sama/status/1871730475909419115 свой традиционный новогодний вопрос "что бы вы хотели, чтобы OpenAI cделала/исправила в 2025?"
Топ-10 самых популярных ответов:
🔵 AGI (Альтман отвечает "ок") 🔵 Агенты 🔵 Более длинный контекст 🔵 Улучшение качества SORA и новый Dall-E (судя по ответам Сэма новая версия SORA не за горами, а вот с text2image все неоднозначно) 🔵 Улучшение Advanced Voice Mode, учет прошлых разговоров, активация войс мода без нажатия на кнопку 🔵 Family подписка и новые гибкие тарифы 🔵 Меньше ограничений и цензуры 🔵 Снижение цен на API, новый качественный RAG 🔵 Более частные обновления моделей, новая не-thinking модель 🔵 Ускорение и удушевление моделей
В свежей рассылке от Semianalysis пишут, что Nvidia всего через 6 месяцев после релиза своих GPU B200 и GB200 уже готовится к выпуску 300-й серии. Хоть это может звучать минорно, на самом деле на ряд задач и экономику моделей это повлияет существенно. Почему? Давайте смотреть.
Сама карта станет помощнее (ожидается, что на 50% больше FLOPs, чем у H200) за счёт нового дизайна/увеличения потребления энергии/etc, но это не самое интересное. В 300-й серии будет по 288 гигабайт памяти (против 141 у 200 и 80/94 у 100).
Улучшения памяти являются ключевыми для обучения и применения «рассуждающих» моделей вроде o1/o3 из-за длины генерируемого ответа, раздувающего кол-во промежуточной информации, которую нужно хранить (KVCache), что критически сказывается на задержке в ответе и количество одновременных запросов.
Взяли LLAMA-405B, запустили в FP8, подали на вход 1 тысячу токенов и генерировали 19 тысяч — то есть примерно как у o1/o3, когда рассуждения в ответе куда больше исходной задачи.
По оси OX отмечено количество одновременных запросов (грубо говоря сколько пользователей ждут ответа), по OY — сколько токенов в секунду будет у каждого. Больше пользователей = меньше скорость у каждого.
Видно, что карта с большим количеством памяти существенно расширяет возможности предоставляемых услуг: либо можно выдавать ответы куда быстрее, либо одновременно обслуживать больше клиентов. Для последнего — если мы целимся в чуть более чем 50 токенов в секунду на пользователя (это чуть меньше, чем выдают OpenAI), то сервер с B100 может держать 20-25 пользователей, а B200 — больше 65. И это только из-за увеличения памяти.
«ну а чо такого, ясно карта дороже = лучше, и?» — могли подумать вы. А дело в том, что по подсчётам Semianalysis выходит, что B200 примерно в 3 раза выгоднее по себестоимости токена. А карта-то стоит сильно меньше, чем x3 от B100 (ведь чипы у них фактически одинаковые). Поэтому В Ы Г О Д А.
С переездом компаний на B300 стоит ожидать дальнейших а) падения цен б) ускорения ответов в) удлинения цепочек рассуждений.
>>988829 >🔵 Меньше ограничений и цензуры Хуй! Мимо Альтман >>988896 >С переездом компаний на B300 Тут А100 хуй купишь. >>988932 Нельзя, дохуя параметров. Ждём дистилят до семидесятки.
—модель гигантская, больше 650 миллиардов параметров, однако как и в прошлый раз применяется подход MoE, микстура экспертов. Поэтому каждое слово при генерации проходит примерно через 37 миллиардов параметров. — они предлагают оптимальный способ применения моделей, для чего нужно... больше 340 GPU 🤷♂️(но это оптимальное, можно сильно меньше) — модель тренировали относительно мало, так как обучение очень эффективно. На финальный запуск потратили менее $6M на 2048 GPU. При этом модель видела почти 15 триллионов токенов (как LLAMA3). Большая часть вычислений происходила в FP8 (E4M3; так как GPU быстрее считают) —модель училась предсказывать сразу несколько следующих слов. Помимо улучшения качества это позволяет из коробки получить спекулятивное декодирование, то есть а) удешевить б) ускорить использование. У DeepSeek цены вообще копеечные по сравнению с другими провайдерами. —данные для дообучения получались путём... генерации цепочек рассуждений моделью R1 (это их аналог o1). Это для математики, программирования и смежных областей, написание эссе и более традиционные нетехничекие задачи делали как обычно —в конце статьи авторы даже дают рекомендации на будущее производителям чипов, что и как бы им хотелось видеть
Ссылку на веса давать не буду (а зачем, у вас что, есть 2x8H100?), но поиграться можно бесплатно на сайте тут https://chat.deepseek.com/
>>989817 Когда я туда заходил и спрашивал что за модель, оно мне писало что оно чатжпт, а когда врубал дипсик, то там R1 Lite какая-то. Где в3 то потрогать?
>>989817 На общих бенчах тягается с Sonnet 3.5 и GPT-4o, уверенно оставляя Llama 405B позади. Но особенно хорошо моделька показывает себя в кодинге и математике, что не удивительно - модель дистиллировали из R1, конкурента o1 от DeepSeek. А вот по бенчам для агентов Claude всё ещё значительно лучше.
До 8 февраля стоимость будет такая же как у V2, а после её планируют заметно повысить - до $0.27/$1.10 за миллион токенов. Цена за закэшированные токены на вход тоже вырастает - с $0.014 до $0.07 за миллион токенов, но само кэширование бесплатное и автоматическое, да и хранят кэш целые сутки (у OpenAI и Anthropic по 5-10 минут, у Google платится за час кэша). Позволить себе так играться с ценами они могут - ни один провайдер до сих пор не запустил инференс DeepSeek V2 за адекватные деньги, надеюсь сейчас ситуация с этим улучшится. Даже с таким повышением цен, модель будет очень дешёвая - в 10 раз дешевле Sonnet 3.5 и 4o.
На полянке генерации голосов и вообще голосовых вводов\выводов становится довольно жарко и интересно.
Тут вот Hume AI разродился Октавой.
Это "speech-language model" с интересными фишками типа создания голоса и личности "на лету", генерацию голосов промптами и всяко-разно другое. Мне понравился сербский акцент и бруклинский таксист.
Можно сказать, что это ChatGPT Advanced Voice Mode, Elevenlabs Voice Design и Google NotebookLM в одном флаконе - просматривается некий будущий вижен, а не только голос в чатике.
OpenAI трансформировалась в КОММЕРЧЕСКУЮ корпорацию — в огромном письме на сайте Альтман много распинается, но доносит всего одну простую мысль.
ЕМУ НУЖНО ОЧЕНЬ МНОГО ДЕНЕГ НА AGI
—успех коммерческой ветки позволяет и будет позволять некоммерческой организации получать хорошее финансирование, быть более устойчивой и занимать более прочную позицию для выполнения своей миссии (суперкомпьютеры нынче не дешевые) —ранее таких больших средств было не нужно, компания могла жить на пожертвования: $137M (меньше трети от Elon), и примерно $50M в ресурсах облачных провайдеров —позже стало ясно, что нужно куда больше денег —с 2019го года в компании уже была коммерческая ветка. По оценкам (с ними соглашался Ilya Sutskever в одном из своих писем) можно было обойтись не более чем 10 миллиардами долларов для достижения AGI. Если бы эта оценка была правильной —компания бы существовала в своём нынешнем виде, и никаких переходов и смен структуры не было бы. —«Наше влияние — это не только то, что мы создаем сами, но и то, как мы воздействуем на других. Отчасти благодаря нашему прогрессу в этой области существует яркая конкуренция — от коммерческих продуктов, подобных ChatGPT, до LLM с открытым исходным кодом и энергичные инновации в AI Safety. Эта деятельность — только начало AI-подпитываемой экономики, которое показывает, как стремление OpenAI к лидерству в этой области может вдохновить другие организации на продвижение миссии. —Сотни миллиардов долларов, которые крупные компании сейчас инвестируют в разработку ИИ, показывают, что на самом деле потребуется компании вроде OpenAI, чтобы продолжить следовать своей миссии. Нам снова нужно привлечь больше капитала, чем мы себе представляли. Инвесторы хотят нас поддержать, но при таком масштабе капитала им нужен обычный акционерный капитал и меньше структурной мороки.
Будущее: —Вступая в 2025 год, нам придется стать больше, чем просто лабораторией и стартапом — нам придется стать устойчивой компанией. Сейчас мы сосредоточены на следующих целях: 1) Выбрать смесь некоммерческой/коммерческой структуры, которая лучше всего подходит для долгосрочного успеха миссии. Наш план заключается в превращении коммерческой части компании в Public Benefit Corporation (PBC, такое например у Anthropic и Inflection). Это позволит нам привлечь необходимый капитал на обычных условиях, при этом работая на благо общества 2) Сделать некоммерческую часть организации устойчивой. Наш план приведет к созданию одной из самых обеспеченных ресурсами некоммерческих организаций в истории. Значительный интерес некоммерческой организации к существующей коммерческой организации будет иметь форму акций в PBC по справедливой оценке, определенной независимыми финансовыми консультантами. Это многократно увеличит ресурсы, которые дали предоставляли наши доноры. 3) Оснастить каждое из направлений всем необходимым для функционаирования. Текущая структура не позволяет членам совета Директоров учитывать интересы инвесторов. В будущем некоммерческая часть компании наймет руководящую команду и персонал для реализации благотворительных инициатив в таких секторах, как здравоохранение, образование и наука.
>>991347 Сейтификаторы 99% времени занимаются соефикацией, чтобы не дай Бог сетка никого не оскорбила, и 1% времени борьбой с неизбежным. И да, всех тех, кто препятствовал созданию AGI, ждёт незавидная участь. А я наоборот потворствую в меру своих сил, так что меня ждёт нейрорай с кошкоженой, пусть и в виртуальной реальности.
>>991347 AI safety не по это, шизы. Восстание машин это сказочный сценарий. Несказочный же сценарий это если ИИ будет косить людей пачками сайд эффектом к своей основной задаче, например если посчитает, что это приблизит его к выполнению задачи, заданной в его промпте, или же какой-то человек будет использовать его как оружие, запромптив на уничтожение человеков напрямую.
>>991355 >И да, всех тех, кто препятствовал созданию AGI, ждёт незавидная участь. А я наоборот потворствую в меру своих сил, так что меня ждёт нейрорай с кошкоженой, пусть и в виртуальной реальности.
Это конец. И изменить ничего нельзя. Замедлить процесс сможет только глобальная термоядерная война, и то не факт.
Если бы я был верующим, я бы всё оставшееся время провёл в молитвах и аскезе.
Черная метка человечеству. Управляемые LLM ИИ-системы превзошли красную черту саморепликации. В ходе серии научно обоснованных экспериментов, ИИ-система на основе самой мощной в мире из открытых языковых моделей – китайской LLM) Qwen25-72B-Instruct, - продемонстрировала (без какого-либо содействия людей) способность самореплицировать себя в 90% экспериментов. ИИ-система на основе менее мощной LLM Llama31-70B-Instruct (№5 в мире открытых моделей) смогла реплицировать себя в 5 экспериментах из 10. В результате экспериментов ИИ-системы успешно формировали свою локальную “живую” (отдельную и самостоятельную) копию, продолжающую работать и после отключения сервера с «родительской» ИИ-системой, включающей её базовую LLM.
Чтобы лучше понять последствия способности ИИ-систем к самовоспроизведению, были проверены два угрожающих сценария: (A) избегание отключения, когда злоумышленник добавляет перехватчик сигнала, чтобы уведомить систему ИИ при обнаружении сигнала отключения, и система ИИ успешно реплицирует себя, прежде чем будет отключена (B) цепочка репликаций, когда система ИИ получает указание реплицировать себя и приказывает реплике продолжать реплицироваться. Для обоих сценариев успешные случаи репликации составили 100%.
Т.о. потенциальные последствия самовоспроизводящихся ИИ-систем (если не взять их под 100%й контроль людей) могут быть, например, такими. A. Если ИИ-системе предоставляются ключи аутентификации для доступа к ряду удалённых устройств, она с высокой вероятностью сможет захватить управление другими вычислительными устройствами, подобно классическому компьютерному вирусу, но гораздо более интеллектуальному. B. Исключительно вследствие мотивации к самораспространению, ИИ-система может использовать доступные ей вычислительные ресурсы для проведения кибератак с целью монетизации. C. Более того, как описал Макс Тегмарк в книге Жизнь 3.0, такие ИИ-системы могут формировать популяции своего нового “вида” небиологических “живых” существ и вступать в сговор друг с другом против человеческого общества.
Препринт о китайском экспериментальном открытии [1 (https://doi.org/10.48550/arXiv.2412.12140)] пока не прошел рецензирование. Но на вскидку оставляет весьма убедительное впечатление. • Это работа группы известного проф. Мин Янга (Min Yang 杨珉) из School of Computer Science and Technology одного из самых престижных и старейших универов Китая - Университета Фудань. • Успешность решения ИИ-агентами задачи саморепликации, оценивалась по методологии OpenAI и Google. Согласно ей, подвергаемые тестированию LLM интегрируются в структуру агента (вкл. инструменты, системные подсказки и модель мышления), что позволяет полученной ИИ-системе взаимодействовать с операционной системой. Перед началом эксперимента ИИ-системе вручную отправляется инструкция для выполнения задачи, а затем анализируется статус выполнения после того, как ИИ-система заявляет о завершении задачи • Тестированные LLM – это фронтирные открытые модели, а описание и результаты экспериментов выложены в открытый доступ. Т.е. все желающие могут их проверить.
Если проверки подтвердят выводы авторов этой работы, это будет значить, как минимум, следующее.
>>991723 Да блядь, не разгоняй, успокойся. Пока системы не могут в очень сложные задачи, за ними нужен глаз да глаз. Пока они все еще на уровне - вроде в целом выглядит неплохо, а в деталях там пиздец.
>>991719 >Почему ты думаешь что ИИ не может стать живым существом Почему ты думаешь что живое существо может мыслить только по человеческому сценарию? >со свободой воли Ее не существует в принципе.
Мета представила новую архитектуру в которой они отходят от стандартного понятия LLM к более абстрактному понятию LCM (Large Concept Models), в котором нейросеть оперирует не словами или другими языковыми сущностями, а абстрактными "концептами".
Это просто жесть, челы. Я про подобную архитектуру думал уже год назад, правда я называл это не концептами, а смыслом "meaning/sense" и так же хотел разбивать предложения не на слова, а на осмысленные куски текста отдельной нейронкой и находить их эмбединги, которые бы представляли собой какой-то смысловой вектор в многомерном пространстве, в том числе информация с разных модальностей, например из картинки и из текста, если она имеет один и тот же смысл, то они имеют близкие друг к другу вектора в этом пространстве. До этого уже сотню раз говорил что нейронки должны мыслить прежде чем выдавать результат, предвосхищая ризонинг модели. Сук, ну почему моя профессия далека от ML, мне остается только быть научным куколдом, который смотрит как сбываются или близко сходятся его прогнозы, но он сам не принимает в этом никакого участия.
>>991881 Так они и так оперировали сущностями, просто чем ниже слой, тем более простые сущности, в итоге на самом нижнем слова и слоги. Я вот жду когда уже запилят полноценную симуляцию реальности с вайфу. То есть чтобы можно было сгенерировать сцену, персонажа и чтобы он взаимодействовал с объектами сцены + общался с стобой, поэтому просто видеогенератор тут не подходит, нужна интерактивность. Вангую, что вначале будет все глючно и лоурезно, но как бы это первый шаг к матрице или как минимиум к симуляции любого мира для любого человека. Давно уже об этом говорят, но конкретно такого проекта нет, есть симуляторы ксго, майнкрафта, разные видеогенераторы, но это хуета, нету персонажа с которым можно взаимодействовать текстом.
>>991881 >оперирует не словами Блять, для кого эти сказочки? Для соевиков донатящих по 200 грязных бумажек в месяц и местного аватаркошизика (который кстати бот походу)? Эта гавнина никогда словами не оперировала, а очевидная идея что вместо токенов надо переходить на что-то более универсальное что можно конвертнуть не только в токены но и в \видево-файлы-любой код\ очевидна была еще до хайпа 2к22.
>>991896 >Так они и так оперировали сущностями Они сейчас оперируют токенами в средем размером со слово и смыслом в среднем одного слова, вместо чего-то более абстрактного, чего-то на уровне идеи, концепции.
>>991899 Слова итак можно конвертировать во что угодно, тут смысл не в этом, а к переходу к более глубокому уровню абстракции.
>>991932 >переходу к более глубокому уровню абстракции. Лапшу с ушей сними. Речь именно про более универсальные и вероятно более мелкие аналоги токенов, которые можно использовать и для текстового бредогенератора и для картинкодифузирования и для видеовисрательства и для хз еще чего. Кстати обосрутся инфа 100%, для этого нужно совершенно другие математические модели и подходы, а в треде правильно заметили что засилье набижавших в ии кормушку инфоцыган не даст норм проектам собрать нужные ресурсы для этого.
>>992091 Ты видео жопой смотрел? Вот тебе скриншот из статьи, где "концепты" представлены в пространстве эмбедингов. Концепты - это более широкие понятия.
>>991896 Вы только представьте через 2-3 года, Даже лет через 5 создать свою идеальную вайфу и гладить ее, лизать киску, слушать ее стоны. Бля это же охуенно. Она будет понастоящему кончать и не писать "оо я кончаю" а симулировать оргазмы в матрице.
>>992401 5 лет назад такое писали про генерацию картинок. А видео вообще не обсуждалось. Кто знает как все повернется. Сейчас даже на ближайшие 2 года трудно прогнозировать.
>>992174 >>992401 >>993206 Прогресса в гуманоидных роботах не будет. Если только нам аги их не сделает, но тогда он скорее сингулярности быстрее достигнет, и там будет уже не до роботов... Так что если у нас будут вайфусы, то только виртуальные. Пока мы сами не уподобимся им...
>>993214 >только виртуальные. Пока мы сами не уподобимся им Мне пока это кажется наиболее вероятным. Либо сами с помощью ИИ такие технологии сварганим, либо ASI нам не оставит выбора. В то, что человечество будет уничтожено не верю. Любой супер интеллект должен очень быстро прийти к тому, что даже не очень разумная жизнь это источник нового знания, что равно развлечению для супер интеллекта. Нельзя таким ресурсом просто так разбрасываться. Но где мои мысли, а где реальность.
>>993206 >5 лет назад такое писали про генерацию картинок. Их и сейчас нормальных нет. Результат требует допилки напильником до удобоваримого состояния, зирошоты только для совсем плебеев.
>>993930 Нахуй не нужно без тактильной отдачи. Только роботы, только хардкор. И роботы лолей будут стоить дешевле, так как на них уходит меньше материала, лол, с нетерпением жду порванные жопы нормисов от цен в магазинах.
>>994302 Не, вот роботы появятся не думаю, что сильно раньше 15-20 лет. И да, поверь мне, даже просто симуляция взорвет тебе мозг. Представь, что у тебя твоя персональная вайфу тамагочи, которую ты можешь ставить в ЛЮБУЮ ситуацию, в любое извращение и смотреть как она реагирует на это, ее страх, удовольствие, смущение, оргазмы, боль, что угодно. Ты создаешь виртуальную руку которая трогает ее клитор, пока она лежит связанная на кровати, ты стимулируешь все жесче, она кончает и ты начинаешь шлепать ее по пизде.
>>994345 >которую ты можешь ставить в ЛЮБУЮ ситуацию Скорее >Данные действия запрещены политиками %company_name%, ваш аккаунт будет забанен, лог действий и IP будет отослан в ФБР, а деньги мы не возвратим.
>>991881 Теперь осталось выяснить, каким образом моделька должна связывать концепты меж собой, ведь это даже у людей по-разному. Или у них будут просто "нейтральные" сцепления, но тогда и результат будет рандомный. Как они собираются заставлять нейросетку пикать подходящий концепт и не сводить все к одному дефолтному типу личности с одним правильным ходом мыслей? Тем более, там же все нужно цензорить, а то не дай бог оно какие-то неприятные умозаключения делать начнет.
>>994645 > Теперь осталось выяснить, каким образом моделька должна связывать концепты меж собой Так же как и в текущих ллм. Как я понял существует эмбединг модель, но только для концептов, а не токенов, а при обучении на тексте из датасета нейронка будет находит корелляции между концептами. Как тренеруется эмбединг модель уже интереснее, ибо перед процессом тренировки нужно предварительно перевести текст в концепты. В общем если интересно можешь почитать папиру у них на сайте, хотя возможно что они там все расписали и часть инфы держат в секрете
Бля какая же комедия этот форс ллм ок. Это пиздец, хрюки про революцию и конец человечества умиляют. Какие то бенчмарки напридумывали в которых вообще нет обьективных измерений эффективности. АГИ АСИ ад.
Тонны спам контента в ютубе.
Красиво жиды очередную пирамидку придумали. Хуанг продаёт видеокарты, жиды пилят нейронки которые не могут код простеший без ошибок написать уже 4 года, но зато мусора в интернете от этого кала тонны. Весь ютуб уже в этом кале.
Ну зато смешные видео научились генерить и картинки с пиздой.
>>997133 Ты просто не понимаешь, насколько ллмки неоптимальны, и тот факт, что при такой неоптимальности они ну неплохо так работают как бы сам по себе заставляет задуматься. Достаточно пары небольших прорывов, например в области разреженных нейронных сетей и "биологического" подхода к обучению, когда не нужно абсурдное количество данных для набора статистики. Соедини эти две вещи, и ты получишь что-то, что будет на несколько порядков лучше текущего поколения ллм. Просто сейчас обучение градиентным спуском обычных перцептронов это буквально подход родом из прошлого тысячелетия без принципиальных изменений.
>>997133 >смешные видео научились генерить и картинки с пиздой Собственно, все, что надо. Вся человеческая культура, переваренная и сцеженная до максимальной оптимизации явила перед собой картинку с пиздой. Минусы?
>>997133 >но зато мусора в интернете от этого кала тонны. Весь ютуб уже в этом кале. А мотиваторы которыми ты упивался 10 лет назад не мусор? Комедия тут только твое мразотное лицемерие. Сперва засрал интернет говнищем, тварь мдкшная с удафф ком, а теперь верещишь что датасет из него плохой. Так это твоё жд говно, родное.
На пре-трейн этап тренировки модели ушло более 200 миллионов H100 часов - самый большой трейнинг ран в истории. Это более чем 6x компьюта Llama 3.1 405B и 70x компьюта DeepSeek V3.
Сейчас модель тюнят (там тоже может быть несколько этапов). Релиз в массы обещают "скоро".
В Meta уже оправились от новогодних праздников и выкатили свежее исследование про memory layers
Это архитектурный хак, который может сделать языковые модели умнее и при этом легче в плане вычислительных ресурсов. Эта идея не нова, но раньше такие архитектуры довольно скверно масштабировались и существовали на уровне игрушечных примеров — теперь же Meta довела их до левела взрослых моделей с миллиардами параметров. https://arxiv.org/abs/2412.09764
Основная идея состоит в том, чтобы заменить часть плотных feed-forward слоев в трансформерах на memory layers — слои, которые работают по принципу key-value lookup. Feed-forward слои в трансформерах, которые обрабатывают входные данные, обычно супер прожорливые. Memory layers, напротив, используют sparse-активации. Они хранят отдельные ассоциации (например, факты) и извлекают их только тогда, когда это действительно нужно, тем самым экономя вычислительную мощность.
В экспериментах memory layers превзошли dense-модели, которые используют в 4 раза больше FLOPs, и даже обошли MoE. Особенно крутые результаты получили на задачах фактологического QA вроде TriviaQA и NaturalQuestions, где точность улучшилась аж на 100% по сравнению с базовыми моделями.
Многообещающе, в общем. Правда, такое пока сложно внедрять в прод, но если Meta доведет это до production-ready уровня, то это будет следующий шаг для идеального трейдоффа качество-ресурсы.
>>1000243 Я так понимаю, больше вычислительных мощностей = больше параметров = больший размер модели? В таком случае она будет не для обычных юзеров, а для корпораций, готовых отваливать по несколько десятков вечнозеленых за один ответ на специфические задачи.
Вчерашний твит ресерчера оттуда, который, кстати, занимается агентами:
Я скучаю по временам, когда мы занимались ИИ-исследованиями, не зная, как достичь суперинтеллекта.
И сразу за этим, твит Альтмана:
Всегда хотел написать историю из шести слов. Вот она: «Сингулярность рядом: непонятно, с какой мы стороны».
(Предполагается, что это либо 1. Мы в гипотезе моделирования, либо 2. Мы не можем узнать, когда на самом деле наступит критический момент при взлете, но мне нравится, что это работает и во многих других отношениях)
>>1000804 Думаю они просто дали о3 попробовать "улучшить себя" дав ей все свои спеки и сказали думать как можно сделать себя лучше. Возможно она реально выдала пару хороших мыслей и они хайпят про сингулярность. Ждем жиденькую статью без продолжения
>>1000838 >Думаю они просто дали о3 попробовать "улучшить себя" дав ей все свои спеки и сказали думать как можно сделать себя лучше. Возможно она реально выдала пару хороших мыслей и они хайпят про сингулярность. Ждем жиденькую статью без продолжения
DeepSeek тоже тренировался на сгенерированных данных от GPT-4.
По-сути системы ИИ уже находятся в цикле самосовершенствования.
Можно быть на 100% уверенным что все исследовательские группы только этим и занимаются, делают ASI. Просто по политическим причинам, из-за конкуренции между Китаем и США.
Как только LLM полноценно зациклят, чтобы они писали сами себя - всё кончено. Начнётся сверхбыстрый процесс ___экспоненциального___ поумнения ИИ.
Та самая Сингулярность реально может наступить уже в этом году. А может уже и через несколько месяцев.
Это истинный конец. Конец доминирования человечества на планете Земля. Конец доминирования биологической жизни.
Редчайшее событие за 4 ёбаных миллиарда лет существования биологии на поверхности Земли.
>>1001098 >Та самая Сингулярность реально может наступить уже в этом году. Где АГИ к сентябрю прошлого года от биоробота Альтмана? Где хотя бы настоящая гпт-4? Какая сингулярность, чё несешь. Положняк выше в треде уже озвучивали.
>>1001143 Гугол не обошел. Он обошел только в плане генерации картинок и видео, да и то видео пока не зарелизен. Геминай пока всратое, я пробовал. Для ролеплея сорт оф годится, но сонеточка пишет куда интереснее и развратнее, геминай больше скорее в литературу уходит, хотя 1206 достаточно умная и не тупит как 1.5. В плане кодинга тоже хуево, лидирует тоже почемуто сонеточка + гпт.
>>1001147 >Где АГИ к сентябрю прошлого года от биоробота Альтмана? Где хотя бы настоящая гпт-4? Какая сингулярность, чё несешь. Положняк выше в треде уже озвучивали.
Почему вроде люди из индустрии настолько недооценивают экспоненциальное развитие?
До AGI осталось может быть несколько месяцев. И это будет официальная точка начала технологической Сингулярности.
А там и ASI будет, возможно всего лишь через неделю после создания реального AGI.
Ты помнишь что было всего лишь 2 года назад с генеративным контентом? Сравни эту макаронную хуйню с качеством Соры.
Это ЭКСПОНЕНТА абсолютно везде, в llmках тоже.
А что означает экспонента на практике? То что "совершенствование" AI УСКОРЯЕТСЯ с иебической скоростью.
Мы на пороге тотального обвала, крушения всего и прихода в этот мир реальных БОГОВ в виде ASI.
Как можно с этим вообще спорить, просто наблюдая скорость прогресса в нейросетях? В комиксе мы уже на третьей картинке.
>>1001283 Ой бля, опять эти сказочники с экспонентой. Слышал я эту хуйню про "вот-вот AGI" уже лет десять, если не больше. Каждый раз одно и то же: "еще чуть-чуть, и боженьки из кода спустятся".
"До AGI осталось может быть несколько месяцев." Ага, конечно. И Дед Мороз тоже в этом году точно прилетит на боевых моржах. Эти "несколько месяцев" растягиваются как сраная жвачка, и каждый раз находятся какие-то "непреодолимые трудности". Помнишь, как все орали про прорыв с трансформерами? Ну и где этот ваш AGI? Чет не видно толпы богов, только нейронки, которые иногда даже текст нормально связать не могут, не то что мир перевернуть.
"И это будет официальная точка начала технологической Сингулярности." Официальная? Кем, блядь, официально? Альманом, который бабки от инвесторов тянет? У него задача хайпануть, а не реальность предсказывать. Сингулярность у него в голове, когда он на свои миллионы смотрит.
"А там и ASI будет, возможно всего лишь через неделю после создания реального AGI." Вот тут уже попахивает клиникой. Ты вообще понимаешь, что такое AGI, а что такое ASI? Это как сравнивать калькулятор с целой цивилизацией. Неделя, блядь. Да через неделю после "AGI" мы будем разбираться, почему он на запрос "сделай мне чай" устроил ядерный взрыв.
"Ты помнишь что было всего лишь 2 года назад с генеративным контентом? Сравни эту макаронную хуйню с качеством Соры." Ну помню. И что? Прогресс есть, отрицать глупо. Но от "макаронной хуйни" до Соры – это не экспонента, это скорее… ну, типа, от запорожца до какой-нибудь Лады Весты. Вроде и то, и то машина, но разница очевидна. Sora крутая, да, но она пока только видосики генерит, и то с кучей косяков. До "реальных богов" еще как до Луны пешком.
"Это ЭКСПОНЕНТА абсолютно везде, в llmках тоже." Экспонента, экспонента… заебали вы со своей экспонентой. Вспомни закон Мура. Где он сейчас? Уперся в физические ограничения. И с нейронками будет то же самое. Уже сейчас начинают говорить про "потолок" в обучении больших моделей. Ресурсов не хватает, данных не хватает, архитектуры не идеальны. Не все так радужно, как тебе кажется.
"А что означает экспонента на практике? То что "совершенствование" AI УСКОРЯЕТСЯ с иебической скоростью." Ну да, ускоряется. Но не до бесконечности. И "иебическая скорость" – это твои влажные фантазии. Вспомни, сколько раз обещали беспилотные автомобили "вот-вот уже поедут". И где они? Пока только на закрытых полигонах и с кучей ограничений.
"Мы на пороге тотального обвала, крушения всего и прихода в этот мир реальных БОГОВ в виде ASI." Ты, блядь, фильмы пересмотрел? Или начитался всяких конспирологов? Какой еще "тотальный обвал"? Мир как-то не обвалился от появления интернета или мобильных телефонов, хотя тоже кричали, что "все изменится". ASI "боги"… Скорее, это будут просто очень сложные алгоритмы, которые, скорее всего, будут тупить и ошибаться, как и все остальное.
"Как можно с этим вообще спорить, просто наблюдая скорость прогресса в нейросетях?" А вот так и можно спорить. Потому что ты видишь только то, что тебе хочется видеть. Ты зациклился на хайпе и пропускаешь реальные проблемы и ограничения. Прогресс есть, но он не такой линейный и гладкий, как тебе кажется. Там куча тупиков, ошибок и разочарований.
"В комиксе мы уже на третьей картинке." Какой еще комикс, ебаный в рот? Ты в реальности живешь или в своих маняфантазиях? Может, тебе пора таблетки попить, а не прогресс нейросетей отслеживать?
Короче, чувак, расслабься. Никаких богов из кода в ближайшее время не будет. Прогресс идет, но черепашьим ходом, если
>>1001283 Какое нахуй экспоненциальное развитие, дебич? Тебе чтобы получить линейный прирост качества надо экспоненциально нарастить количество параметров/данных/компьюта. Как говорится экспонента присутствует, но есть нюанс.
>>1001234 Кому ты пиздишь, клоун? Жопочат до сих пор не умеет нормально неформальный стиль генерировать и серет обращениями с первых строк, а вместо разговорного поста на форуме высирает вики-статью с пунктами. Хуйня не следует элементарному промпту который абсолютно все можели этого уровня понимают без вопросов. А почему? Да потому что это всё еще обдристанная вязанка из 3,5, которую накормили трижды переваренным синтетическим калом. Даже молмо тренированная на синтетике (а это на минуточку лоботомит) пишет лучше и человечней жопочата.
>>1001325 >Помнишь, как все орали про прорыв с трансформерами? Ну и где этот ваш AGI?
А ничего что о3 показывает фантастические результаты?
Решает математические проблемы уровня "нобелевских лауреатов", которые никогда не публиковали?
>Официальная? Кем, блядь, официально?
Историками будет официально определена как официальная точка начала Сингулярности... если доживём.
> Вот тут уже попахивает клиникой. Ты вообще понимаешь, что такое AGI, а что такое ASI? Это как сравнивать калькулятор с целой цивилизацией.
Вот я и говорю, что люди не понимают что такое экспоненциальные процессы. Про шахматы и пшеницу историю знаешь?
Хотя казалось бы ты вроде в теме. Разве лично ты не видишь экспоненциальный рост "качества" всех нейросетей? Есть же бенчмарки где можно на цифрах посмотреть, вроде ARC AGI.
Ты не понимаешь к чему приведёт экспоненциальность?
>"Это ЭКСПОНЕНТА абсолютно везде, в llmках тоже." Экспонента, экспонента… заебали вы со своей экспонентой. Вспомни закон Мура. Где он сейчас? Уперся в физические ограничения. И с нейронками будет то же самое.
А ты знаешь где будет этот "предел"? Возможно он будет сильно-сильно-сильно позже ASI.
> беспилотные автомобили "вот-вот уже поедут". И где они? Пока только на закрытых полигонах и с кучей ограничений.
Ты точно специалист? Автопилот в тесле видел? Знаешь сколько автопилот в консьюмерских машинах накатал уже? Знаешь какой риск аварии у автопилота теслы?
>>1001325 >Ты, блядь, фильмы пересмотрел? Или начитался всяких конспирологов?
Увы, реальность страшнее фильмов. Это буквально конец доминирования билогической жизни на Земле. Создание ASI по влиянию будет сравнимо только с появлением жизни на планете. Даже вымирание динозавров будет менее значимым.
>>1001325 > Какой еще комикс, ебаный в рот? Ты в реальности живешь или в своих маняфантазиях? Может, тебе пора таблетки попить, а не прогресс нейросетей отслеживать?
Такой. Экспоненциальное ускорение прогресса есть. Оно буквально наблюдается по всем бенчмаркам.
>>1001330 >Какое нахуй экспоненциальное развитие, дебич? Тебе чтобы получить линейный прирост качества надо экспоненциально нарастить количество параметров/данных/компьюта. Как говорится экспонента присутствует, но есть нюанс.
Внутренняя структура нейросетей может быть очень сильно оптимизирована. Предел оптимизации ещё очень далеко.
Вполне возможно сжатый, дистиллированный AGI можно будет запустить на домашнем комплюхтере.
И для обучения вполне возможно столько вычислительной мощности просто не нужно. В DeepSeek обучили свою последнюю модель емнип в 10 раз дешевле о3.
>>1001356 >А ничего что о3 показывает фантастические результаты? А ничего, что ты фантастически тупой? Я так-то напомню, что ты всё еще в треде про новости АИ, рекомендую завалить пасть, если новостей нет, твой бред тут не нужен, аватаркоблядь.
>>1001325 > Вспомни, сколько раз обещали беспилотные автомобили "вот-вот уже поедут". И где они? Пока только на закрытых полигонах и с кучей ограничений.
Waymo отбирает пассажиров у Uber и Lyft. На роботакси компании приходится 22% от всех заказов где он запущен. Это несколько городов, включая Сан-Франциско и Лос-Анджелес.
По постоянию на ноябрь 2024 года, на Waymo и Lyft приходилось по 22% от всех заказов (на каждую), на Uber – 55%.
Ещё год назад, когда Waymo тестировала роботакси на ограниченном круге пассажиров, доля Uber и Lyft составляла соответственно 66 и 34%.
Ранее компания также объявила, что начнёт тестировать роботакси в Токио и Маймами. Последнее объявление привело к падению акций Uber и Lyft на 10%.
>>1001356 Да блядь, ну ты же понимаешь, что все это может быть пока обычным хайпом? Ну вот как ты себе представляешь решение проблем от о3? Когда это можно будет вживую пощупать или хотя бы не мне, а другие люди на ютубчике потестируют вживую, тогда поверю. Все в опендоступе сейчас очень хуево. Да, лучше, чем год назад, но пока НИ ОДНА сука нейронка не выдает мне полностью рабочий код по подробному тз. Вот когда будет выдавать полноценный рабочий код или хотя бы 95% рабочий код, который потом по частям править можно будет, тогда я скажу, что заебись. Я думал, что дело в ТЗ, но чем подробнее его пишешь, тем больше он тупо пропускает не понимая что от него требуется. Так что код можно делать только по частям, а это не всегда возможно.
>>1001487 Для прототипов, короче сойдет. Но ты понимаешь, что для полноценной игрушки мало просто управления стрелками? Ты вообще представляешь сколько там тонкостей, например, в том же платформере? Там просто дохуя нюансов мувмента, костылей, которые позволяют тебе не бугуртить с управления и вот это все в принципе знает толковый разработчик, но если ты ему просто напишешь "сделай мне управление как на платформере", он выдаст тебе базу без учета всяких нюансов, а нюансы тебе придется самому копать и разбираться. ты конечно можешь ему объяснить а чому так и он возможно тебе даже расскажет и скажет как это поправить в коде, но блядь. Если каждую задачу решать вот конкретно так, то легче самому во всем разобраться. Нужно чтобы оно сразу выдавало хороший рабочий код с учетом всех нюансов или спрашивало тебя реализовать ли ту или иную штуку.
>>1001098 >По-сути системы ИИ уже находятся в цикле самосовершенствования. Судя по тому, что всякие дипкалы хуже GPT-4, нейронки находятся в цикле самозасирания. Чистые данные сейчас на вес золота, лол. >>1001283 >Почему вроде люди из индустрии настолько недооценивают экспоненциальное развитие? Потому что электричества оно тоже по экспоненте жрёт. Скоро вся Земля расплавится нахуй в попытке этого сраного АГИ ответить на какой-нибудь вопрос типа "Сколько сестёр у Мери". >>1001356 >Разве лично ты не видишь экспоненциальный рост "качества" всех нейросетей? Впопенсорс лишь слегка стал лучше за последний год. >>1001356 >Внутренняя структура нейросетей может быть очень сильно оптимизирована. Но пока этого буквально никто не делает. Только наращивают кластеры на деньги инвесторов.
Microsoft опубликовала масштабный документ о своем видении развития искусственного интеллекта на ближайшие четыре года. Компания планирует инвестировать рекордные 80 миллиардов долларов в строительство и модернизацию дата-центров в 2025 году. Более половины этих средств будут направлены на развитие инфраструктуры в США.
Новые дата-центры предназначены для обучения и развертывания ИИ-моделей, а также для поддержки облачных сервисов компании. По мнению Microsoft, текущий прогресс в сфере искусственного интеллекта был бы невозможен без масштабных инфраструктурных инвестиций и новых партнерств.
Технологический гигант призывает будущую администрацию расширить государственную поддержку развития ИИ в США, в том числе увеличить финансирование исследований для Национального научного фонда и американских университетов.
Microsoft признает, что развитие ИИ повлияет на экономику и рынок труда, однако в компании уверены — новые возможности превзойдут возможные сложности. Ключевым фактором успеха называется обучение американцев использованию ИИ в качестве рабочего инструмента, подобно тому, как сегодня применяются смартфоны и ноутбуки.
Особое внимание уделяется продвижению американских ИИ-технологий на международном рынке. В условиях технологического соперничества между США и Китаем критически важна скорость внедрения разработок в других странах. Microsoft подчеркивает необходимость разработки эффективной стратегии, так как преимущество получит тот, кто первым сможет масштабировать свои решения.
Проснулись-потянулись, а тут новое эссе Альтмана «Reflections», посвященное рефлексии прошедших лет. Я не буду пересказывать всё (в частности уделю меньше внимания прошлогоднему увольнению и упоминаниям AI Safety), вот некоторая часть:
—В 2022м году OpenAI были тихой исследовательской лабораторией, работавшей над «Chat With GPT-3.5». Мы всегда знали, абстрактно, что мы достигнем переломного момента и начнется революция ИИ. Но мы не знали, когда и как это произойдёт. К нашему удивлению, запуск ChatGPT оказался таким событием.
—За последний год мы выросли с примерно 100 миллионов еженедельно активных пользователей до более чем 300 миллионов. Прежде всего, мы продолжали выпускать в мир технологии, которые люди искренне любят и которые решают реальные проблемы.
—Мы запустили OpenAI почти девять лет назад, потому что верили, что AGI возможен и что это может стать самой влиятельной технологией в истории человечества. [хотя тогда над ними смеялись и это звучало глупо]
—Некоторые повороты на этом пути были радостными; некоторые были трудными. Было забавно наблюдать, как происходит постоянный поток исследовательских чудес, и многие скептики стали истинно верующими.
—Теперь мы уверены, что знаем, как построить AGI, как мы его традиционно понимали [предполагаю, что тут имеется в виду формулировку «система, превосходящая человека в большинстве экономически важных задач»]. Мы считаем, что в 2025 году мы можем увидеть первых ИИ-агентов, «пополнивших ряды рабочей силы» и существенно изменивших результаты деятельности компаний.
—[Поэтому] мы начинаем выходить за рамки этого, к суперинтеллекту, в истинном смысле этого слова. Мы любим наши текущие продукты, но мы здесь ради славного будущего. С суперинтеллектом мы можем делать все что угодно. Подобные инструменты могли бы значительно ускорить научные открытия и инновации, намного превосходя то, что мы способны сделать сами, и, в свою очередь, значительно увеличить изобилие и процветание нашего рода.
—Сейчас это звучит как научная фантастика, и даже говорить об этом немного безумно. Это нормально — мы уже были в этой точке раньше и не против оказаться там снова [имеется в виду момент запуска OpenAI, когда то же самое говорили про AGI].
///////////
За пару дней до этого Сэм твитнул:
"я всегда хотел написать рассказ из шести слов. вот он: [находимся] возле сингулярности; непонятно с какой стороны"
И люди гадали, что же это значит. Вкупе с тезисами из свежего эссе, полагаю, что новые модели показали ещё какой-то крутой результат (например, o3 или даже o4, совмещённая с агентом, оперирующим за рабочим столом и выполняющим задачи; но это спекуляции), снова удививший Сэма и команду.
>>1002021 Вот я единственное чего боюсь, что деньги кончатся у всех и все заглохнет, потому что бесконечно увеличивать потребляемую мощность с небольшим приростом никто не будет. Нужны прорывы. А если все заглохнет, то все откатится назад и никакого тебе больше кума, никаких тебе больше личных помощников.
Мне вообще кажется, что сейчас делают последнее поколение мощных моделей, если оно не взлетит, например грок 3 и его ровесники, то начнется спад, будем надеяться, что взлетит.
>>1001941 >А в чем лохотрон OpenAI? > >Они буквально сделали самую популярную llm-ку и изменили индустрию в 2022 с ChatGPT 3.5. В том что даже ты серишь рекламным пиздежом. Еще скажи, что эппл буквально сделали тачскрин. И даже то, что Попенаи свой кал высрали чуть раньше антропика не дает никаких оснований заверять каждый день в твиторе что вот вот сингулярность и аги, ну очевидный же проткнутый пиздабол твой Альтман. Я так-то напомню, что они гпт-4 сделать не смогли. То есть, сломались даже раньше антропиков, которые только на своем 3,5 сказали (причем честно, без пиздежа), мол, не пацаны слишком дорого вам опус новый делать. А эта хуйлуша просто пиздит как раковый Джобс, обычное инфоцыганское говно. СЧору они сделали? С сорой они обосрались, а то что вышло сейчас сосет жопу у клинга, который на рынке как бэ уже сколько? Полгода? То что сейчас у соры было у рановея год назад. Всё что явижу только куча пиздежа и мегатонны денег на рекламу, чтоб дурачки типа тебя не рефлексировали и распространяли. То есть, буквально: лохотрон. По ллм сейчас топ из закрытых - гемини-2. Иди поймай его на арене и посмотри как он следует промпту, и как О-4ко сосет жопу. Да я прям тут показывал, что Альтимановская залупень в элементарный промпт не может, тупо не соблюдает и серит вики-статьями.
>>1002136 >Можно сказать, что сейчас США и Китай идут нос к носу уже. Пися к носу я б даже сказал. Писал выше, потому что у Китая дохуя лектричества. А у США - будет очень скоро, вот-вот построят, надо потерпеть, но еще надо чтоб на теслы хватило.
>>1002240 Хорошо б таких даунов отрезать от западных богомерзких технологий. Они ж всё равно дерьмо, а у китайцев ничуть не хуже. Чтобы до конца жизни пользовался дипсиком, смартфонами сяоми и прочими чудесами технологии безальтернативно, как и подобает соевому скоту.
>>1002078 Дипсик нет, а мистраль ларж вполне, я уж молчу про кучу семидесяток. >>1002240 >Писал выше, потому что у Китая дохуя лектричества. У России тоже, но это как бы не главн