Главная Юзердоски Каталог Трекер NSFW Настройки

Искусственный интеллект

Ответить в тред Ответить в тред
<<
Назад | Вниз | Каталог | Обновить | Автообновление | 503 224 107
Новости об искусственном интеллекте №2 /news/ Аноним 10/12/24 Втр 01:12:36 973010 1
bC3c9AJeRqWV45p[...].webp 1014Кб, 1312x736
1312x736
В этот тредик скидываются свежие новости по теме ИИ! Залетай и будь в курсе самых последних событий и достижений в этой области!
Аноним 10/12/24 Втр 01:32:21 973018 2
202412092132Loo[...].mp4 22802Кб, 720x1280, 00:00:19
720x1280
202412092152Anc[...].mp4 14544Кб, 1080x1920, 00:00:10
1080x1920
video2024-12-09[...].mp4 1577Кб, 1280x720, 00:00:10
1280x720
video2024-12-09[...].mp4 2060Кб, 1280x720, 00:00:10
1280x720
video2024-12-09[...].mp4 522Кб, 854x480, 00:00:10
854x480
202412091942Lev[...].mp4 10171Кб, 854x480, 00:00:10
854x480
video2024-12-09[...].mp4 1041Кб, 720x1280, 00:00:05
720x1280
OpenAI официально показали Sora Turbo!

на 2 часа раньше видео-стрима свой обзор выложил крупный ютубер MKBHD: https://www.youtube.com/watch?v=OY2x0TyKzIQ
(конечно же, с большим количеством футажей внутри)

А вот официальная презентация: https://www.youtube.com/watch?v=2jKVx2vyZOY

Sora Turbo является более лёгкой и быстрой моделью по сравнению с оригиналом.
Доступна во многих странах, но не в Европе и Британии, они себя зарегулировали.

Доступно будет всем подписчикам ChatGPT - и Plus и Pro. Дают кредитов на до 50 генераций в месяц Plus подписчикам и до 500 быстрых генераций Pro подписчикам. Pro подписчики с более 500 генераций попадают в "медленную очередь".

Длина видео всё таки от 5 до 20 секунд (для Plus максимум 5), а разрешение от 480p до 1080p (Plus подписчики ограничены 720p). На более длинные видео и видео разрешения уходит больше кредитов. К видео можно применять стили и создавать свои.

Показали Storyboard - продвинутый инструмент позволяющий режиссировать видео. К примеру можно попросить Sora сгенерить видео человека, который на пятой секунде видео машет рукой.

Ещё есть куча продвинутых инструментов - можно догенеривать до видео как начало так и концовку, смешивать несколько видео вместе разными способами и много чего ещё.

Модерация сейчас чрезмерно строгая, но OpenAI обещают постепенно снимать ограничения.

OpenAI решила не разрешать генерации видео с использованием фотографий или кадров реальных людей в качестве input. OpenAI заявляет, что предоставит доступ к такой функции "подмножеству" пользователей Sora, но не будет широко распространять эту возможность, пока не получит возможность доработать свой "подход к безопасности".

Пока известно, что в это "подмножество" попали олигархи с планом Pro за 200 баксов. Остальных ищем в твитторе.

Также тут можно почитать, как они выкрутили на максималки фильтры по NSFW:
https://openai.com/index/sora-system-card/

OpenAI также не позволит пользователям выкладывать сгенерированные видео, содержащие клипы или изображения людей, в ленту на главной странице сайта Sora. Ну то есть шарить их на сайте Sora в галерею.

Также в Sora есть фильтр, позволяющий ИИ-определить, изображен ли на сгенерированном видео человек младше 18 лет. Если это так, OpenAI применяет "более строгий порог" для модерации, и как правило, блочит генерацию.

Все видео, созданные Sora, содержат метаданные, указывающие на их происхождение - в частности, метаданные, соответствующие техническому стандарту C2PA, про который писал сегодня.

OpenAI также заявляет, что использует "оперативное переписывание (ваших) промптов", чтобы не позволить Соре создавать видео в стиле живого\известного автора. А вот тут сейчас жоско было

Пишут: В творчестве существует очень давняя традиция отталкиваться от стилей других художников, но мы понимаем, что у некоторых авторов могут возникнуть вопросы.

В общем, пока не видеомодель, а симулятор соевой сои. А Кстати, для обладателей тарифа за 200 баксов, цензуры будет меньше, лол.

По сообщениям пользователей, image to video работает всратее, чем у Минимакса, у которого ещё и цензуры меньше. Казалось бы, как вообще Sora собирается конкурировать с моделью от китайцев? Но не забываем, что в подписку Соры входит ещё и мать его chatgpt
Аноним 10/12/24 Втр 01:35:04 973022 3
Аноним 10/12/24 Втр 07:56:38 973221 4
>>973018
Какой-то неконсистентный кал. Пока выглядит, что полезность у всего этого на уровне "сделать пару мемных видео и забыть".

С такими лимитами по сути они будут просто использовать юзеров в качестве бета-тестеров, которые ещё и сами будут платить за это. А там уже договорятся с заинтересованными компаниями на "профессиональные" тарифы, с оплатой по факту использования, без этих смешных лимитов и прочего. А для быдла 50 круток в месяц на 5 секунд хватит.
Аноним 10/12/24 Втр 08:46:12 973231 5
>>973221
Так за 200 баксов бесконечное количество круток, но с очередью на генерацию после 500
Аноним 10/12/24 Втр 11:16:39 973282 6
How to loop wit[...].mp4 9640Кб, 1280x720, 00:01:15
1280x720
Вот очень крутая фишка
Аноним 10/12/24 Втр 11:21:00 973285 7
Synthetic Youth[...].mp4 21864Кб, 1280x720, 00:01:18
1280x720
Аноним 10/12/24 Втр 12:43:13 973318 8
>>973282
Жаль, что самый уместный способ использования лупов в соре залочен.
Аноним 10/12/24 Втр 12:45:16 973321 9
>>973285
Консистентность - моё почтение.
Аноним 10/12/24 Втр 13:48:30 973351 10
photo2024-12-10[...].jpg 130Кб, 828x768
828x768
photo2024-12-10[...].jpg 318Кб, 1024x768
1024x768
322323323232.jpg 243Кб, 1280x960
1280x960
photo2024-12-10[...].jpg 95Кб, 1024x768
1024x768
photo2024-12-10[...].jpg 112Кб, 1024x768
1024x768
photo2024-12-10[...].jpg 62Кб, 1061x464
1061x464
photo2024-12-10[...].jpg 62Кб, 1024x768
1024x768
photo2024-12-10[...].jpg 70Кб, 1042x462
1042x462
xAI Илона Маска теперь официально анонсировали text2image модель Aurora

После субботнего релиза и исчезновения модельки на какое-то время, появился блогпост с деталями и примерами генерации.

Самое интересное - Aurora не диффузионка, а авторегрессионная модель. В отличие от диффузии, которая берёт шум и в течении нескольких шагов лепит из него картинку, Aurora генерит изображения маленькими, полностью готовыми, кусочками (токенами). В процессе генерации изображение как-будто грузится сверху вниз, как раньше бывало при медленном интернете.

Большой плюс такого подхода - к модели применимы оптимизации инференса LLM, и в нее можно легко кормить одновременно и картинки и текст. Хоть диффузию можно ускорять не меньше, иметь схожую архитектуру для всех моделей - это огромный плюс. Наверное поэтому Aurora это Mixture of Experts, ровно как и первая версия Grok. Хоть про Grok 2 мало что известно, вряд-ли xAI слезли с MoE.

Из минусов такого подхода:
1) это скорость генерации, ведь нужно прогонять сеть отдельно для генерации каждого токена;
2) качество генерации. Видно гранулярность изображений, оно не всегда чёткое. Возможно это из-за того, что ради скорости пытались сделать токены большего размера.

Ещё показали редактирование картинок по текстовому промпту - моделька меняет только нужные детали, а не искажает изображение до неузнаваемости, в отличие от большинства других генераторов. Эту фичу завезут чуть позже, пока что она недоступна.

Чтобы попробовать, нужен всего лишь бесплатный аккаунт в экс-твиттере.
https://x.ai/blog/grok-image-generation-release
https://x.com/i/grok
Аноним 10/12/24 Втр 15:09:33 973435 11
IMG4215.MP4 22388Кб, 1280x1062, 00:01:03
1280x1062
IMG4217.MP4 22411Кб, 1280x1112, 00:01:00
1280x1112
Google выпустили Willow – первый в мире квантовый чип, который показывает экспоненциальную способность к масштабированию вычислений

Впервые в истории у кого-то получилось создать логические кубиты, которые перформят ниже границы Quantum Error Correction. Это метод, при котором данные сохраняются путем распределения информации по нескольким кубитам. Дело в том, что обычно ошибки вычислений – ключевая проблема квантовых машин. Кубиты слишком быстро обмениваются информацией и имеют тенденцию терять ее. Обычно чем больше кубитов вы используете, тем больше ошибок возникает, и квантовая система вырождается в классическую. Но в Willow все наоборот: с ростом кубитов ошибки уменьшаются экспоненциально. Это поразительный результат, которого люди пытались добиться последние 30 лет.

А теперь приготовьтесь: Willow в септилион раз быстрее классического вычислительного чипа. То есть Willow может за 300 секунд решить задачу, на которую у обычного чипа бы ушло 10,000,000,000,000,000,000,000,000 лет (и это было доказано во время тестов).

А еще у чипа рекордное количество кубитов – 105. Конечно, это все еще мало (например, чтобы взломать биткоин, потребуется где-то 300-400 миллионов кубитов), но по сравнению с предыдущими квантовыми компьютерами – вау.

Еще у Google в дополнение к блогпосту вышло интересное короткое видео (https://www.youtube.com/watch?v=l_KrC1mzd0g) про историю квантовых вычислений и Willow. Основная мысль:

Первый свой квантовый чип Google выпустили в 2019. С того момента классические вычисления усовершенствовались в миллиарды раз. Но если классические вычисления растут по закону Мура, то квантовые растут и будут расти по закону Невена, а именно с двойной экспоненциальной скоростью относительно своих классических соперников.

Этот закон, к слову, придуман Хартмутом Невеном, который сейчас является директором лаборатории квантового искусственного интеллекта Google. В интервью (https://www.youtube.com/watch?v=bgxhq2iP1Sc) в честь выхода Willow он говорит, что квантовые вычисления и ИИ будут взаимодополнять друг друга: ИИ может улучшить квантовые чипы, а квантовые компьютеры сделают ИИ мощнее.

А еще, кстати, Google опубликовали статью про Willow в Nature. Прочитать можно тут: www.nature.com/articles/s41586-024-08449-y
Аноним 10/12/24 Втр 15:17:40 973446 12
rapidsavecomsor[...].mp4 40168Кб, 1280x720, 00:03:05
1280x720
Ну и давайте немного подытожим Сору:

1. Ожидания, конечно, были больше. Это просто императивное утверждение. Ну большего мы ждали от OpenAI

2. Пока нет промпт-гайда для Соры или хотя бы какой-то массы постов на реддите и в твитторе, чтобы уловить шаманство промптинга, говорить и сравнивать Сору с остальными рано.
Пока это рулетка, о чем пишут все генерирующие. На один и тот же промпт может быть и длинный план, и (чаще) три порезаных плана в этих же 20 секундах. Может быть ацкое качество или такой же ацкий морфинг всех конечностей.
Сейчас будет много клипов, сравнивающих Сору с остальными на одинаковых промптах - это малость нерелевантно, у каждого генератора свои ухватки.

3. Надо сказать все-таки и о плюсах: качество картинки (когда выпадает шанс) - топ, консистентность - топ, длина клипов - топ.
4. Про жесточайшую цензуру я уже написал. Ну и как учит нас история с DALL·E 3 (из которой уже песок сыплется), с цензурой будет только хуже. Вот это вот шарахание от лиц и изображений людей принимает параиноидальные формы, а раскатывание лиц на планы за 200 баксов выглядит и вовсе лицемерно.

5. Тут же добавлю, что сообщения типа "это начальный релиз, мы щас будем допиливать" не внушают оптимизьма. Допиливать будут той же командой (в отличие от опен-сорса, где допиливание - это коллективный разум). Плюс это "допиливание" длится с февраля! То, что чего допилились не очень впечатлило. Ну и допиливание цензуры никогда не бывает в сторону послабления.

7. Про цены - 200 баксов на рулетке выжгут 500 генераций и вы попадете в медленную очередь. Безлимиты за 99 у конкурентов выглядят получше, особенно учитывая количество брака.

8. Ну и последнее. Я, честно говоря, очень ждал каких-то ловких и уникальных продуктовых фич. Чего-то, что значительно отстроило бы Сору от конкурентов.
Каких-то элементов монтажа и композа.
Работу с таймлайном.
Возможность, например выделить часть клипа и перегенерить его по корректирующему промпту. Не вот это вот "сохраним, отрежем, подадим на вход, склеим", а в виде удобной фичи, сохраняющей контекст клипа.
OpenAI до сих пор не научились в продукты, хотя с момента громких заявлений про GPT Store прошло больше года.
Но, впрочем, мы их ценим не за продукты, а за технологии.
А выход Сора сейчас бустанет рынок видеогенераторов еще немного. Не удивлюсь, если Чорный Лес что-то скоро покажет.
Аноним 10/12/24 Втр 15:45:02 973475 13
a1.jpg 76Кб, 1025x973
1025x973
a2.jpg 95Кб, 1039x958
1039x958
a3.jpg 99Кб, 1043x946
1043x946
a4.jpg 135Кб, 1280x927
1280x927
>>973351
Aurora в Гроке пытается писать по-русски.
Аноним 10/12/24 Втр 18:33:07 973611 14
>>973475
> пытается
Да довольно гладко, это вам не пони, которая утратила способность членораздельно писать в обмен на способность рисовать конские хуи в стиле тысяч художников.
Аноним 10/12/24 Втр 18:38:22 973614 15
>>973446
>видео
Сравнивают всякую хуйню, не показывая что делает hailuoai, реальный лидер до выхода СОРА.
Аноним 10/12/24 Втр 18:59:48 973648 16
>>973614
Хуйлоаи это лидер после клинга и рунвея, он на голову выше люмы, но с клингом вообще не конкурент. Единственное, что у него три бесплатные генерации в день, а в клинге всего пять невозмобновляемых.
Аноним 10/12/24 Втр 19:05:27 973654 17
>>973614
Да, и сора вообще никому не конкурент, а округлое говно в вакууме.
Аноним 10/12/24 Втр 20:43:56 973779 18
>>973648
>Хуйлоаи это лидер после клинга и рунвея
Клинг генерирует более всратое, чем первый.
Аноним 10/12/24 Втр 20:50:53 973791 19
>>973648
Клинг хуита устаревшая, но зато есть кисть. Лума вообще мусор, уже локалки лучше генерят. Раньше при регистрации в хуйле давали что-то около 35 генераций.
Аноним 11/12/24 Срд 00:22:28 973953 20
>>973018
>Доступна во многих странах, но не в Европе и Британии, они себя зарегулировали.
"Они себя зарегулировали" звучит как какой-то абсурд, изреченный стендапером, - на фоне того, что продукты опенаи зарегулированы на уровне иранской цензуры.
Аноним 11/12/24 Срд 02:37:25 974008 21
>>973648
минимакс лучше оживляет пикчи
Аноним 11/12/24 Срд 02:42:50 974010 22
4 день стримов OpenAI из 12: показали интерпретатор кода и еще несколько очень кайфовых фич для Canvas

Теперь код можно запускать прямо внутри бота с помощью кнопки Run. При этом GPT видит все трейсы интерпретатора и может писать комментарии прямо в них. Можно даже рисовать графики, и работает это достаточно быстро! Просто идеально для дебаггинга и рефакторинга.

Кроме того, теперь Canvas будет доступен для всех, а еще его можно будет встроить в собственные GPTs: делается это очень просто через настройки конфигураций.

Напомню, что Canvas – это отдельное окно рядом с чатом. Инструмент предназначен для задач, где нужно много править или пересматривать один и тот же проект (код или работа с текстом). Он, в отличие от чата, лучше запоминает контекст + работает над конкретными разделами или даже строками.

В дополнение ко всему, для комментирования текста и кода теперь использовать инструмент будет еще удобнее: бот выделяет кусочки прямо в ваших запросах и записывает комментарии справа от них (похоже на умные заметки в стиле Google Docs).

https://www.youtube.com/watch?v=qZ0ImE41pVs
Аноним 11/12/24 Срд 02:59:26 974015 23
deepseeksearch.mp4 108Кб, 1280x968, 00:00:10
1280x968
photo2024-12-10[...].jpg 66Кб, 1280x816
1280x816
DeepSeek выпустили новую DeepSeek 2.5

Новую DeepSeek-V2.5-1210 заметно прокачали - она выросла на бенчах по кодингу и математике, но больше всего прирост в написании текста. Это последний релиз DeepSeek V2, теперь DeepSeek полностью сфокусированы на r1 и следующем поколении их LLM - V3.

Вместе с релизом модели на их сайте появилася поиск. Работает хорошо - точно лучше чем ChatGPT Search и часто лучше Perplexity. Мне кажется это из-за количества источников - DeepSeek использует до 50 источников, все остальные в 2-3 раза меньше. Платить за всё это удовольствие, кстати, не нужно. Плюс это всё open source

Попробовать модель: http://chat.deepseek.com/
Веса: https://huggingface.co/deepseek-ai/DeepSeek-V2.5-1210
Аноним 11/12/24 Срд 03:25:55 974017 24
>>973791
>Клинг хуита устаревшая
Что-то тут не то. Ты какую версию клинга вообще имеешь в виду? Я 1.5 Pro - ей по консистентности персонажей нет конкурентов. Разве что runway справляется, но в последнем мимика хромает, например, брови статичны, как приклеенные.
Аноним 11/12/24 Срд 12:33:29 974266 25
photo2024-12-11[...].jpg 145Кб, 1280x765
1280x765
"Большой день.
Мы выкладываем в опенсорс наши модели T-Lite и T-Pro. И эти модели просто топ 🥳

Мы увереннно выбиваем #1 среди открытых моделей по разным бенчам на русском. По MERA мы взяли #2 модель на русском ещё и включая все API, уступая только GPT-4o.

Это до-тренированный qwen-2.5 в размерах 7B и 32B. Мы провели большую работу: свой токенизатор, глубокое до-обучение на русский и специфичные корпуса. Аккуратная работа с данными. Тех репорты будут.

Этот релиз является подтверждением нашего подхода в LLM: допретрен на базе опенсорса и затем файнтюн под доменные области. Получается значительно лучше результат и мы тратим на порядок меньше денег (не преувеличение).

Пользуйтесь. Модели для инженеров, рекомендуется дальнейший файнтюн, например через наш Turbo-Alignment (https://github.com/turbo-llm/turbo-alignment).

Наш новый HF: https://huggingface.co/t-tech
Лидерборд по MERA: https://mera.a-ai.ru/ru/leaderboard
Остальные бенчи тоже есть (https://www.tbank.ru/about/news/11122024-the-t-technologies-group-has-introduced-the-worlds-most-efficient-open-large-language-models-in-russian/), арены будут как прокрасятся"
Аноним 12/12/24 Чтв 05:45:42 975213 26
>>974266
>затем файнтюн под доменные области
Под задачи бенчмарков?
Ну, ужатая в половину бита влезет в карту. Это что теперь получается, т-про ебет гемму2 в плане кума?
Аноним 12/12/24 Чтв 06:40:40 975222 27
photo2024-12-11[...].jpg 135Кб, 1280x725
1280x725
5 день стримов OpenAI из 12: рассказали про интеграцию ChatGPT в устройства Apple

Siri теперь будет использовать модели OpenAI (прямо так и пишется, working with chatgpt). А еще на айфонах в Apple Intelligence будет доступно дополнительное расширение ChatGPT. Например, в Visual Intelligence в камере тоже будет непосредственный доступ к GPT-4o, можно будет показывать модельке видео в реальном времени.

Для маков тоже добавили расширение ChatGPT в настройках. Можно будет использовать writing tools почти в любом приложении, анализировать документы прямо внутри finder с ChatGPT и задавать по ним вопросы.
Аноним 12/12/24 Чтв 10:22:58 975326 28
773013neQ1YcDmi[...].jpg 95Кб, 1400x625
1400x625
Агентство Reuters сообщило о том, что корпорация Google обратилась к правительству США в лице Федеральной торговой комиссии (FTC) с просьбой разорвать эксклюзивное соглашение, по которому технологии OpenAI должны быть размещены на облачных серверах Microsoft. Причина банальна — деньги.

Технологические компании, конкурирующие с Microsoft в области аренды облачных серверов, такие как Google и Amazon, тоже хотят разместить у себя модели OpenAI, чтобы их клиентам не нужно было обращаться к серверам Microsoft для получения доступа к технологиям стартапа. Google и другие конкуренты подчеркнули, что эти дополнительные расходы нанесут ущерб клиентам.

Агентство Reuters направило запросы на подтверждение этой информации в Google, Microsoft, OpenAI и FTC, однако никто из них пока не ответил.

https://www.reuters.com/technology/google-asks-ftc-break-up-microsofts-cloud-deal-with-openai-information-says-2024-12-11/
Аноним 12/12/24 Чтв 10:27:07 975331 29
7729911fJqg4knv[...].jpg 89Кб, 1400x625
1400x625
На конференции IEDM 2024 Nvidia представила свое видение будущего вычислений для искусственного интеллекта: ИИ-ускорители с вертикально стекованными GPU и использованием кремниевой фотоники. Эта инновационная концепция, как отмечает доктор Иэн Катресс, может значительно улучшить производительность и энергоэффективность таких систем.

Согласно представленному Nvidia изображению, будущий ИИ-ускоритель будет состоять из нескольких слоев:

Подложка

Интегрированная кремниевая фотоника

GPU, распределенные по уровням

3D-стек DRAM

Система охлаждения (холодная пластина)

Кремниевая фотоника позволяет передавать данные с использованием света, что быстрее и энергоэффективнее традиционных электрических соединений. Эта технология предназначена для горизонтальных связей между ускорителями, обеспечивая высокую пропускную способность.

Вертикальная стековка осуществляется с использованием технологии TSV (Through-Silicon Via), создающей электрические соединения между слоями. TSV уже применяется, например, в процессорах AMD Ryzen с 3D-стековым кэшем. Однако в случае Nvidia речь идет о стековке "логика на логику", что более сложный и менее распространенный подход.

Каждый "уровень" GPU состоит из четырех графических блоков, которые также соединены между собой с использованием фотоники. Сверху размещается 3D-стек DRAM, что повышает производительность, но добавляет сложности в охлаждение системы.

Хотя технология кремниевой фотоники находится на начальной стадии, Nvidia считает ее перспективной для высокопроизводительных систем. Однако для потребительских решений, таких как игровые GPU, такие нововведения пока неактуальны, так как не требуют высокой пропускной способности, как ИИ-обработка.

Эксперты, включая Катресса, предполагают, что внедрение таких технологий в ИИ-ускорители станет возможным не ранее 2028-2030 годов. Однако менее дорогие аспекты, такие как TSV-стековка, могут найти применение и в потребительских продуктах.
Аноним 12/12/24 Чтв 10:34:56 975337 30
photo2024-12-11[...].jpg 85Кб, 1200x760
1200x760
Google наконец-то докрутили свою Gemini до вау-эффекта. Что там интересного:

⚪️ Новая экспериментальная модель Gemini 2.0 Flash. Работает быстрее своего предшественника Flash 1.5 и соображает лучше по большинству бенчмарков. Третье место на Арене. Доступна всем уже сейчас. Также докручены агентные способности: понимание файлов, например.

⚪️ Realtime мультимодальный API. На вход принимает текст, голос и даже видео в онлайне! То есть с ней можно разговаривать и одновременно показывать экран устройства или мир вокруг с камеры. Задержка почти незаметна, отвечать тоже может голосом. При этом в любом режиме инпута доступны инструменты (поиск в интернете, интерпретатор кода). Тоже доступно бесплатно. (https://aistudio.google.com/live) Картинки на выход тоже может, но пока без редактирования.

⚪️ Функция Deep Research (вот она доступна только для Advanced юзеров). Это углубленный поиск в интернете на заданную тему. Перед тем, как идти в поиск, моделька составляет план и показывает его вам для правок. Потом идет и рыщет по ссылкам, находит новые источники, проверяет детали и через несколько минут выкатывает вам большой отчет.

Не забывает, что скоро должны ещё представить полную версию Gemini 2.0. На данный момент она под кодовым названием "Gemini-Exp-1206" занимает первое место в тестах на Арене, во всех категориях!

https://ai.google.dev/gemini-api/docs/models/gemini-v2
Аноним 12/12/24 Чтв 13:29:36 975460 31
photo2024-12-12[...].jpg 57Кб, 944x1280
944x1280
photo2024-12-12[...].jpg 43Кб, 986x1214
986x1214
photo2024-12-12[...].jpg 48Кб, 976x1244
976x1244
photo2024-12-12[...].jpg 32Кб, 892x1064
892x1064
photo2024-12-12[...].jpg 86Кб, 1101x1280
1101x1280
Новая Gemini умеет генерировать изображения сама, без вызова внешних рисовалок. При этом свои же картинки она видит в контексте, и умеет копировать части изображения. Такое умеет и gpt-4o, но эту фишку OpenAI пока не выпустили — быть может, в оставшиеся 7 дней релизов успеют.

Это открывает доступ к новым сценариям, невозможным (или затруднительным) ранее. На скриншотах вы видите пример, как пользователь подсунул картинку из мема «рисуем сову», и попросил дорисовать все промежуточные шаги. Модель взяла часть исходной картинки за основу и сгенирировала несколько новых (по сути «поверх», но там сгенерирован каждый пиксель, нет команды «вот это оставляем, вот это меняем»).

Круто, что модель сама поняла, как декомпозировать рисунок, без дополнительных указаний, так ещё и шаги пронумеровала —1.25, 1.5

Другие сценарии применения (в том числе генерацию GIF-ок) можете посмотреть в оригинальном блогпосте про GPT-4o (крайняя пикча) https://openai.com/index/hello-gpt-4o/
Аноним 12/12/24 Чтв 13:32:18 975462 32
photo2024-12-12[...].jpg 72Кб, 1080x1349
1080x1349
Аноним 12/12/24 Чтв 13:40:54 975467 33
videodler173399[...].mp4 116Кб, 900x900, 00:00:12
900x900
videodler173399[...].mp4 61Кб, 900x900, 00:00:09
900x900
videodler173399[...].mp4 101Кб, 900x900, 00:00:08
900x900
videodler173399[...].mp4 60Кб, 900x900, 00:00:11
900x900
>>975460
И ещё несколько ебейших примеров. Только имаджинируйте во что это может превратиться
Аноним 12/12/24 Чтв 14:03:26 975485 34
>>975460
>>975462
Обычные юзеры сосут? Ни в их студио, ни на сайте дипмайда этой хуйни нет. На дипмайде есть, но оно не меняет текущее, оно новое генерирует.
Аноним 12/12/24 Чтв 14:03:55 975486 35
>>975485
Пока только для тестеров
Аноним 12/12/24 Чтв 14:08:30 975488 36
>>975467
Значит года через два можно будет геймпад или клава/мышь прикрутить, и по нажатию кнопок перемещаться по любой сцене, по любой фотографии в реальном времени, как в игре.
Аноним 12/12/24 Чтв 14:15:40 975496 37
>>975488
Так ещё и взаимодействовать с объектами
Аноним 12/12/24 Чтв 20:26:08 975839 38
>>975331
>ИИ-ускорители с вертикально стекованными GPU и использованием кремниевой фотоники
Я так понимаю в сфере нейронок ближайщие лет 10 можно уже ничего не ждать кроме как увеличения моделей в гигабайтах, потому что на запах бобла набежали все профессиональные скамеры и началась обкатанная конвергенция с криптой, квантовым компьютингом и графеновыми нанотрубками, и они просто задушат своими жопами любого кто реально попытается в инновации.
Аноним 13/12/24 Птн 05:41:46 976222 39
кофе.mp4 8779Кб, 848x476, 00:01:22
848x476
Всего через сутки после превью гугла, OpenAI запускают свой видео-режим

На этот раз оно будет нормально доступно как в приложении ChatGPT, так и на маке. С Advanced Voice Mode всё будет поприятнее - 4o нормально говорит на русском, да и как моделька она поумнее чем Gemini 2.0 Flash.

Из преимуществ, которые остались у превью гугла - доступ в интернет и тулз. Ну, и длина контекста заметно выше - млн токенов у Gemini против всего 128к у OpenAI.

Раскатывать уже начали, но займёт это где-то неделю.
Аноним 13/12/24 Птн 08:05:09 976300 40
>>975839
Могут подешеветь видеокарты из-за сильной востребованности. Чем сильнее что-то скупают, тем больше это производят и тем сильнее прогресс в этой области.
До этого видеокарты немного буксовали, потому что фотореализм в играх был мягко говоря нахуй не нужен в таких количествах, в каких его туда напихали перетёкшие из пентагона голливуда режиссёры, а значит и спрос на видеокарты был искусственным.
Здесь требования к видеокартам оправданы большим количеством компьюта при любой генерации в любом стиле.
Аноним 14/12/24 Суб 11:55:19 977149 41
Почему все ещё никто не написал, что нового показали опенаи?
Аноним 14/12/24 Суб 16:15:50 977332 42
>>977149
Так ерундовый мелкий анонс был
Аноним 14/12/24 Суб 16:16:55 977334 43
photo2024-12-14[...].jpg 170Кб, 1200x885
1200x885
photo2024-12-14[...].jpg 79Кб, 1170x781
1170x781
photo2024-12-14[...].jpg 53Кб, 848x615
848x615
photo2024-12-14[...].jpg 62Кб, 1199x567
1199x567
У Meta вышла громкая работа о новом способе токенизации

Токенизация – вообще одна из ключевых проблем LLM. Именно из-за токенизации модели плохо справляются с математикой. Токенайзер может токенизировать 380 как "380", а 381 как "38" и "1", то есть модель на самом деле просто не понимает, что представляет из себя число. При этом токен != слово и токен != слог. Токен – это вообще нечто нечеткое. Отсюда проблемы с элементарными фонетическими задачами вроде подсчета количества букв r в слове strawberry.

Meta предложили в качестве альтернативы токенам обычные байты. Тут надо сказать, что идея вообще-то не новая, еще давно уже выходила похожая token-free LM MambaByte https://arxiv.org/abs/2401.13660. Но у Meta, во избежании слишком длинных последовательностей битов, впервые повляется динамический энкодинг в патчи.

Эти патчи и служат основными единицами вычисления, и внутри модели решается задача предсказания следующего патча. Патчи сегментируются динамически на основе энтропии следующего байта. Получается, если данные более "предсказуемы", то патчи получаются подлиннее, и наоборот. Однако перед разделением байты все равно обрабатываются локальным энкодером, аналогично после предсказания следующего патча приходится подключать декодер.

На бечмарках все очень многообещающе: BLT (Byte Latent Transformer) находится на одном уровне или даже немного выше LLama 3 с BPE по перплексии (BPB на графике – это метрика перплексии, не зависяща от токенизатора). При этом подход масштабируется, и исследователям даже удалось обучить токен-фри Llama-3 8B на датасете 1Т токенов, и она оказалась в среднем немного лучше, чем Llama-3 с BPE.
Аноним 14/12/24 Суб 16:17:23 977335 44
Аноним 14/12/24 Суб 16:19:54 977338 45
photo2024-12-13[...].jpg 36Кб, 1280x717
1280x717
Вчера OpenAI показали "проекты" в ChatGPT

Это могут быть просто папки для группировки диалогов или полноценные рабочие директории, которые содержат разные чаты для разных задач в одном и том же проекте. Туда можно добавлять файлы, которые будут в контексте бота во всех новых диалогах и общие инструкции для проекта.

То есть, начиная новый диалог, основную задачу повторять не надо: ChatGPT уже знает, над чем вы работаете в этой папке. В проект можно добавлять уже существующие диалоги или создавать новые внутри.

Небольшая, но очень приятная фича.

Сегодня и завтра новых анонсов не будет, так как выходные.
Аноним 14/12/24 Суб 16:21:54 977340 46
photo2024-12-13[...].jpg 7Кб, 589x263
589x263
photo2024-12-13[...].jpg 13Кб, 464x458
464x458
>>977338
Не обошлось и без троллинга от OpenAI
Аноним 14/12/24 Суб 16:37:11 977348 47
SaveTwitterwate[...].mp4 23538Кб, 1920x1080, 00:01:06
1920x1080
Обновился генератор видео Pika.
Можно загружать изображения себя, людей, мест и вещей

https://pika.art/
Аноним 14/12/24 Суб 17:06:27 977379 48
>>977348
Что-то по-моему сора сосет, причем с проглотом.
Аноним 14/12/24 Суб 18:00:37 977441 49
>>977379
У Соры черрипики тоже выглядят отлично
Аноним 14/12/24 Суб 18:14:43 977453 50
>>977441
Ну я бы не сказал, они выглядят не лучше как минимум, а как максимум сора же не умеет вот в создание роликов по картинкам заданным.
Аноним 14/12/24 Суб 21:48:41 977742 51
изображение.png 34Кб, 628x329
628x329
>>977348
Вся суть любых онлайн генераторов.
Аноним 15/12/24 Вск 06:58:38 978011 52
Стартап-разработчик «жидких» нейросетей Liquid AI привлёк $250 млн от производителя процессоров AMD и других.

Его оценка составила $2,3 млрд.

Полученные деньги направят на разработки. С AMD также заключили «стратегическое партнёрство» — оно позволит использовать её нейронные, графические и центральные процессоры, чтобы «оптимизировать» модели.
Liquid AI основали в 2023 году исследователи лаборатории ИИ Массачусетского технологического института Рамин Хасани, Матиас Лехнер, Александер Амини и Даниэла Рус.
Стартап занимается разработкой «жидких» базовых моделей, или liquid foundation models, — нейросетей с архитектурой, отличной от «трансформеров» (такая у моделей GPT от OpenAI). Говорит, что уже сотрудничает с бизнесом на рынках бытовой электроники и финансовых услуг, но названия не раскрывает.

Хасани, Рус, Амини и Лехнер. Источник фото: The Boston Globe
По словам Sber AI, среди отличительных черт «жидких» моделей — размер. Обычно у них всего несколько сотен параметров, а не миллиарды, как у «трансформеров». Чем их меньше — тем быстрее нейросеть принимает решение и тем проще человеку проследить, как она к нему пришла. Первое хорошо, например, для систем автопилота, где счёт идёт на секунды. Второе — для сфер с жёсткой подотчётностью вроде здравоохранения.
Ограничения тоже есть: такие нейросети подойдут «далеко не для всех типов данных». Обрабатывать и генерировать изображения они не могут. Потестировать две большие модели Liquid AI можно в «песочнице» компании или в Perplexity Labs.
Аноним 15/12/24 Вск 07:51:52 978017 53
pika2.mp4 14559Кб, 1920x1080, 00:01:02
1920x1080
Pika 2.0 — мечта всех рекламщиков

Pika продолжают исследовать возможности для контроля видео и на этот раз представили Scene Ingredients.

Фича позволяет создавать видео с реальными людьми и объектами, а затем поместить их всех в какое-то место действия. По сути, это IP-Adapter на стероидах для видео. Конечно, тут ничего на лету не обучается, просто на вход сетки подаются дополнительные эмбеддинги референсных объектов. Но это может не очень стабильно работать.

- Подписка за $35 даёт кредитов на 40 видео в месяц (это очень мало).
- За $95 можно получить уже 120 видео.

Видео с Ingredients используют в два раза больше кредитов. Так что подписки даже за 95 баксов на нормальный видос не хватит 🤭

Большой упор сделали на рекламщиков. А-ля: загрузи фотку модели и фотку какой-то вещицы — и вот держи, пожалуйста, модный промо-видосик! Но не совсем понятно, насколько это на самом будет хорошо работать и слушаться промпта.

Kling вот недавно тоже сделали шаг в этом направлении, неожиданно релизнув один из лучших virtual try-on'ов. И даже с ним одежда получается не всегда 1 в 1. Чего тогда ожидать от IP-адаптера для видео? Хотя черипики в видосе выше, конечно, прикольные. Слишком уж дорого тратить драгоценные генерации видео без полноценной подложки из 100% рабочей картинки.
Аноним 15/12/24 Вск 08:50:17 978032 54
image.png 14Кб, 457x330
457x330
>>978017
Вчера грузанул, до сих пор генерирует.
Аноним 15/12/24 Вск 17:06:24 978388 55
>>978032
У меня там почему-то 0 кредитсов, они точно раз в месяц обновляются? Или из-за русского айпишника мне хуй выдали? Тариф фришный, естественно.
Аноним 15/12/24 Вск 19:57:23 978492 56
video2024-12-15[...].mp4 11399Кб, 1280x720, 00:02:16
1280x720
Адобченко пилит свой Omnigen. И какой!


https://xavierchen34.github.io/UniReal-Page/

Обещан код!

Больше всего возбудило вот это:

Learns from video data to understand shadows, reflections, lighting effects and object interactions

# 🌟 Ключевые особенности

Универсальная платформа: Обработка множества задач, таких как генерация, редактирование, кастомизация и компоновка в одной модели
Динамика реального мира: Обучение на видео-данных для понимания теней, отражений, световых эффектов и взаимодействия объектов
Поддержка нескольких изображений: Обработка нескольких входных/выходных изображений бесшовно, как "кадров"
Умное понимание контекста: Продвинутая иерархическая система подсказок для точного управления
Автоматическая адаптация: Интеллектуальная подстройка под различные задачи без необходимости в специфических инструкциях

# 🎨 Примеры применения

# Редактирование изображений

Добавление/удаление объектов с естественным освещением и тенями
Изменение атрибутов сцены при сохранении согласованности
Бесшовная вставка объектов с правильной перспективой

# Кастомизация изображений

Перенос объектов между изображениями с учетом контекста
Автоматическая настройка поз и освещения объектов
Композиция с множеством объектов с реалистичным взаимодействием

# 🔥 Результаты сравнения

UniReal демонстрирует значительные преимущества перед существующими методами:

Следование инструкциям: Лучшее понимание сложных запросов на редактирование
Сохранение деталей: Высокое качество в сохранении важных деталей
Естественная интеграция: Более реалистичное смешение отредактированных элементов
* Согласованность фона: Лучшая сохранность оригинальных элементов изображения
Аноним 15/12/24 Вск 21:11:40 978594 57
>>978492
Прикольно, если будет опенсорс, а так гугол что-то подобное пилит в гемини 2 будет, поэтому если закрытое, нахуй не нужно.
Аноним 16/12/24 Пнд 01:12:23 978803 58
Для обучения видеогенератора OpenAI Sora, возможно, использовался игровой контент, защищённый авторскими правами.

ИИ-модель Sora способна создавать видеоролики до 20 секунд на основе текстовых запросов или изображений. Как сообщает TechCrunch, изучение сгенерированных Sora роликов указывает на использование контента из игр, таких как Super Mario Bros., Call of Duty, Counter-Strike и Teenage Mutant Ninja Turtles.

Издание привело в пример несколько отрывков видеороликов, похожих на уже существующие игры.
Также Sora, похоже, понимает, как должен выглядеть стрим на Twitch, что подразумевает, что она видела несколько. Примечательно, что сгенерированный моделью стример похож на реально существующего стримера Рауля Альвареса Дженеса, который выступает под псевдонимом Auronplay, вплоть до татуировки на левом предплечье.

Джошуа Вайгенсберг, юрист по вопросам интеллектуальной собственности в Pryor Cashman, напомнил TechCrunch, что «обучение генеративной модели ИИ обычно подразумевает копирование обучающих данных.

«Если эти данные представляют собой видеопрохождения игр, весьма вероятно, что в обучающий набор включаются материалы, защищённые авторским правом».

Юристы отмечают, что игровой контент, частности стримы, охраняются несколькими «слоями» авторского права: игровое содержание, принадлежащее разработчику, уникальная запись игрового процесса, а также пользовательский контент внутри игры (в некоторых случаях).

Они приводят в пример Fortnite от Epic, где игроки смогут создавать свои карты и делиться ими с другими. Видео прохождения такой карты касаться не менее трёх владельцев авторских прав: Epic, создателя карты и человека, который её использует.

Вайгенсберг указывает, что и сами игры имеют много «охраняемых» элементов, таких как фирменные текстуры, которые также могут стать предметом иска по интеллектуальной собственности.

Правовая практика в сфере ИИ пока не окончательно сформирована, и суды могут действия разработчиков ИИ законными с точки зрения авторских прав, а ИИ - правообразующей технологией. При этом если пользователь публикует контент от Sora, и этот контент похож на реально существующие работы, он может понести ответственность.

OpenAI предоставляет своим корпоративным клиентам защиту от претензий, но частные пользователи не имеют такой гарантии. Помимо рисков, касающихся авторских прав, также возможны претензии, связанные с товарными знаками и использованием изображений известных людей.
Аноним 16/12/24 Пнд 09:26:16 978922 59
>>978803
Либо введут закон об отмене авторских ограничений для обучения ИИ, либо западные нейронки начнут отставать от китайских. Потому первый вариант выглядит наиболее вероятным
Аноним 16/12/24 Пнд 17:41:57 979403 60
Ярешил, что продолжу отдавать OpenAI $200в месяц (пока невышли конкуренты уGoogle/ Anthropic)— потому, что o1Pro фантастический компаньон вжизни/работе

—Наверное, стоит сказать пару слов, что LLM-бенчмарки часто критикуют заихнеспособность объективно оценить качество модели— исPro O1такаяже ситуация:
Явидел результаты, где какая-то новая модель, якобы, пишет код также идаже лучше, чем Sonnet3.6— апофакту, альтернатива может ихорошо пишет код, нонеспособна вто, что Anthropic делает лучше всего— Sonnet эстетически лучше, чем конкуренты, нетолько вкоде, ноивдизайне, вUX, вчувстве прекрасного урешений которые онпредлагает

—Такаяже ситуация сo1Pro— очень сложно выразить вчислах, почему эта модель хорошая;
o1Pro модель ответам которой можно доверять иэто полностью меняет мой подход кработе сLLM. Если раньше, заответами Sonnet/ Gemeni/ 4o— мне приходилось ходить ипруфчекать факты, пытаясь понять придумала она ихили нет, товнутренние рассуждения o1Pro практически полностью лечат модель отгаллюцинаций (вразумных пределах). Тоесть: яготов платить загарантии того, что модель сочень высокой вероятностью неошибется вответе, потому что если она неуверена— она откажется давать ответ вцелом имне кажется это самой ценной фичей этих моделей

—o1Pro сложнее поддается инструкциям— инепотому, что она имплохо следует, анаоборот, потому что она слишком хорошо имследует илюбая ошибка винструкциях может привести кнеправильным результатам (например, если приложить непродуманный пример решения задачи, втакомже формате все ипридет итп)

—Самое клевое: помните ясвами делился кастомными инструкциями для ChatGPT которые доказательно улучшали качество ответов gpt4o на7%? Так вот, во-первых— яихвыложил наGitHub https://github.com/DenisSergeevitch/chatgpt-custom-instructions , можно подписаться иполучить уведомление когда будет новая версия; во-вторых— o1Pro полностью раскрывается стакой инструкцией: модель, перед тем как начать цепочку внутренних рассуждений, сначала назначает себе профессиональную роль иуже потом, отимени этой роли «думает» ипишет промежуточные ответы. Япопробовал пару дней пожить без инструкций этих инесмог— o1модели понастоящему раскрываются стакой инструкцией, потому что вешают насебя роли каких-то выдающихся специалистов вобласти

—Яперевел вo1Pro вообще все, что делаю или потребляю: она пишет для меня вики-лайк статьи (они совпадают среальными вфактах, япроверял), книги-истории, помогает вучебе, бизнесе итворчестве, исейчас мой день больше всего напоминает какой-то SciFi фильм 60х, где коммуникатор героя решает для него все вопросы изадачи. Уменя однажды уже было похожее чувство— когда мне было 12лет ияпопал винтернет покарточкам, иощутил что теперь можно узнать что угодно инемог выбрать счего начать, куда пойти, потому что интернет уже тогда был большим, ивсе было интересным

Японимаю, что $200 заградительная цена для многих— инепризываю вас тратить нанее деньги; япросто рассказываю свою мотивацию, почему япродолжу платить
Аноним 16/12/24 Пнд 17:47:57 979407 61
>>979403
хуй знает почему двач склеивает буквы
Аноним 16/12/24 Пнд 18:22:54 979462 62
>>978922
>Потому первый вариант выглядит наиболее вероятным
Гейропейцы со своими ограничениями уже идут ко второму.
Аноним 16/12/24 Пнд 20:53:51 979680 63
307311223 (1).mp4 5797Кб, 1280x720, 00:02:01
1280x720
Meta тем временем продолжают сыпать под елочку крутые релизы

Сегодня они выкатили Apollo (веса (https://huggingface.co/Apollo-LMMs), статья (https://arxiv.org/pdf/2412.10360)) – семейство современных видео-LMM, в которых отдельно прокачаны скиллы понимания длинных видео. Модели могут обрабатывать действительно огромные ролики длительностью до часа, отвечать по ним на вопросы и достаточно точно отслеживать персонажей, смену сцен и тд.

При этом все три релизнутые модели совсем малышки – 1.5B, 3B и 7B. На LongVideoBench в своих весах все они выбивают SOTA (а 3B даже бьет многие модельки покрупнее себя).

Как в Meta такого добились? Просто очень-очень умно перебирали гиперпараметры

Серьезно, они выяснили, что большинство архитектурных и тренировочных трюков, которые работают на мини-модельках, сохраняют свою релевантность при масштабировании до более крупных. Это назвали Scaling Consistency. В итоге обучали 84 варианта моделей (большинство по 500М), на которых перепробовали кучу архитектурных вариаций, сделали выводы и пошли обучать Apollo.

Основные фичи, которые они выделяют и советуют использовать:
- предпочтительнее сохранять равномерное сэмлирования кадров
- использовать комбинированные энкодеры (в Apollo взяли SigLIP-SO400M + InternVideo2)
- добавлять ~10–14% текстовых данных в датасет
- размораживать компоненты модели и обучать их постепенно
- для сжатия использовать Perceiver Resampler
Аноним 16/12/24 Пнд 21:30:55 979719 64
Парад трансляций OpenAI продолжается, 8 позади, 4 осталось. Сегодня был день поисковика:

- Теперь поиск доступен бесплатным пользователям

- В Advanced Voice Mode теперь есть поиск

- Качество и скорость поиска в целом апгрейднули
Аноним 16/12/24 Пнд 21:32:12 979720 65
>>979719
Теперь не обязательно включать поиск вручную, он будет подключаться по мере вашего разговора с GPT, даже в голосовом режиме. При этом прямо в приложении можно кликать на ссылки и открывать превью веб-страниц без перехода в браузер. Даже карты можно смотреть прямо в чате.

Кроме того, теперь можно использовать GPT как дефолтный поисковик в браузере. Интересно, как там настроение у Perplexity и Google?
Аноним 16/12/24 Пнд 21:55:10 979762 66
544554545454.mp4 49889Кб, 1920x1080, 00:00:39
1920x1080
pancakes.mp4 5751Кб, 3840x2160, 00:00:08
3840x2160
photo2024-12-16[...].jpg 40Кб, 574x772
574x772
watermarkedphot[...].webp 23Кб, 768x418
768x418
watermarkedphot[...].webp 21Кб, 768x418
768x418
Безым34434343ян[...].png 375Кб, 1373x1205
1373x1205
Только что гугл анонсировала две новые топовые модели. Одна для создания видео, другая для пикч. Обе побивают всё, что было раньше, включая Сору. Сперва про видео! Что умеет:

▪️Создавать видосы с разрешением до 4k
▪️Понимает элементы управления камерой в подсказках, такие как общий план, съемка от первого лица, съемка с дрона
▪️Хорошо воссоздает реальную физику и реалистичное выражение лица человека.

Но это все пока только в обещаниях, а видосы выше могут быть результатом ста часов черри-пикинга. Поэтому, ждём выхода, а потом только будем делать выводы.

Теперь что касается генератора картинок: смотрим три последние пикчи

https://blog.google/technology/google-labs/video-image-generation-update-december-2024/
Аноним 16/12/24 Пнд 22:05:13 979768 67
Аноним 16/12/24 Пнд 22:07:28 979771 68
twittervid.comG[...].mp4 686Кб, 1280x720, 00:00:08
1280x720
вам.mp4 17896Кб, 3840x2160, 00:00:08
3840x2160
1.mp4 6952Кб, 3840x2160, 00:00:08
3840x2160
SaveTwitter.Net[...].mp4 2109Кб, 1280x720, 00:00:08
1280x720
>>979762
вот ещё видосики
Аноним 17/12/24 Втр 01:17:23 979892 69
>>979762
>две новые топовые модели
>Одна для создания видео, другая для пикч
То есть, ни одной модели
Аноним 17/12/24 Втр 01:25:55 979902 70
>>977334
Я еще год назад динамическую токенизацию предсказывал, а до этого мышление как в o1. Возьмите меня в какую-нибудь ИИ контору генератором идей уже
Аноним 17/12/24 Втр 10:19:30 980052 71
>>979902
Неудивительно. Давно известно, что все самые светлые умы обитают на дваче.
Аноним 17/12/24 Втр 11:00:05 980066 72
IMG4330.MP4 2058Кб, 1280x720, 00:00:07
1280x720
IMG4328.MP4 2874Кб, 1280x720, 00:00:07
1280x720
IMG4329.MP4 2883Кб, 1280x720, 00:00:07
1280x720
>>979762
>>979771
К слову, это первая нейронка которая полностью прошла тест спагетти
Аноним 17/12/24 Втр 12:13:20 980126 73
ssstwitter.com1[...].mp4 21898Кб, 1920x1080, 00:01:18
1920x1080
Вот генерации видео, где пара рук нарезает сочный стейк. В левом верхнем углу новая свежая модель Google Veo 2.0, анонсированная вчера, на фоне других моделей. Доступ пока есть у очень узкой географии и по заявкам. Как мы видим, нейронка от гугла уверенно даёт за щеку всем остальным
Аноним 17/12/24 Втр 13:01:19 980158 74
photo2024-12-17[...].jpg 139Кб, 912x1280
912x1280
Почему модели генерации видео развиваются так быстро, а с LLM столько проблем?

"Если честно, я не вполне интуитивно понимаю, почему модели генерации видео так хороши (сложные, многосекундные текстуры высокого разрешения, отражения и все такое), в то время как LLM, условно говоря, до сих пор неуклюже справляются с текстом длиной около нескольких сотен слов." – написал сегодня в своем Твиттере Андрей Карпаты, вдохновленный, видимо, новой Veo-2.

На что один из инженеров Google, который сейчас работает в команде Gemini post-training, высказал пару очень интересных мыслей, в которые стоит вчитаться:

Во-первых, видео и фото содержат гораздо больше информации. За одну условную единицу компьюта из таких структур модель извлекает намного больше выводов, чем из текста, потому что текст последователен и линеен, а видео-контент семантически «более глубокий».

Во-вторых, для visual проще собрать качественные данные. В тексте мы ограничены объемами датасетов, и чтобы создать новые данные, требуется очень много сил и времени. А для видео и фото достаточно камеры и/или видеоигр, и вот у тебя уже есть почти неисчерпаемые ресурсы для обучения.

В-третьих, оценивать видео легко, и сделать это может любой человек, не являющийся экспертом. С текстом все сложнее, оценивать его дорого, а сами модели с такой задачей тоже пока что справляются не идеально.

В итоге выходит, что несмотря на то, что видео и фото интуитивно кажутся нам структурно более сложными, чем текст, на самом деле обучаться на них гораздо проще. Потому то мы и видим сейчас такой прогресс в генераторах, учитывая даже, что из развитие началось гораздо позже, чем развитие языковых моделей.
Аноним 17/12/24 Втр 13:04:30 980161 75
ssstwitter.com1[...].mp4 629Кб, 1280x720, 00:00:08
1280x720
>>980126
veo2
промпт:
> A cat roars while looking at its reflection in the mirror but instead sees itself as a lion roaring
Аноним 17/12/24 Втр 13:18:12 980172 76
ssstwitter.com1[...].mp4 1653Кб, 1280x720, 00:00:08
1280x720
ssstwitter.com1[...].mp4 749Кб, 1280x720, 00:00:08
1280x720
ssstwitter.com1[...].mp4 771Кб, 1280x720, 00:00:08
1280x720
ssstwitter.com1[...].mp4 587Кб, 1280x720, 00:00:08
1280x720
ssstwitter.com1[...].mp4 956Кб, 1280x720, 00:00:07
1280x720
ssstwitter.com1[...].mp4 1133Кб, 1280x720, 00:00:08
1280x720
ssstwitter.com1[...].mp4 761Кб, 1280x720, 00:00:08
1280x720
ssstwitter.com1[...].mp4 1577Кб, 1280x720, 00:00:08
1280x720
>>980161
ещё демонстрации от пользователей
Аноним 17/12/24 Втр 13:24:25 980176 77
ssstwitter.com1[...].mp4 24661Кб, 1280x720, 00:02:23
1280x720
ssstwitter.com1[...].mp4 1439Кб, 1280x720, 00:00:08
1280x720
ssstwitter.com1[...].mp4 672Кб, 1280x720, 00:00:08
1280x720
ssstwitter.com1[...].mp4 1561Кб, 1280x720, 00:00:08
1280x720
ssstwitter.com1[...].mp4 1915Кб, 1280x720, 00:00:08
1280x720
ssstwitter.com1[...].mp4 1037Кб, 1280x720, 00:00:08
1280x720
ssstwitter.com1[...].mp4 1104Кб, 1280x720, 00:00:08
1280x720
ssstwitter.com1[...].mp4 945Кб, 1280x720, 00:00:08
1280x720
Аноним 17/12/24 Втр 13:52:12 980186 78
ssstwitter.com1[...].mp4 1380Кб, 1280x720, 00:00:08
1280x720
ssstwitter.com1[...].mp4 1721Кб, 1280x720, 00:00:07
1280x720
ssstwitter.com1[...].mp4 995Кб, 1280x720, 00:00:08
1280x720
ssstwitter.com1[...].mp4 957Кб, 1280x720, 00:00:08
1280x720
ssstwitter.com1[...].mp4 1799Кб, 1280x720, 00:00:08
1280x720
ssstwitter.com1[...].mp4 714Кб, 1280x720, 00:00:08
1280x720
ssstwitter.com1[...].mp4 898Кб, 1280x720, 00:00:08
1280x720
ssstwitter.com1[...].mp4 1182Кб, 1280x720, 00:00:08
1280x720
Аноним 17/12/24 Втр 16:40:58 980314 79
>>980066
С помидорами самый кайф. А ведь два года назад ржали над тем, что нейронка не может рисовать руки.
Аноним 17/12/24 Втр 22:56:59 980712 80
photo2024-12-17[...].jpg 38Кб, 1280x1073
1280x1073
Сегодня на ежедневной презентации OpenAI вроде и не показали ничего важного, что одномоментно вызывает восторг, но:

— полноценная o1 теперь в API (не pro), правда пока доступна только пользователям с максимальным уровнем аккаунта
— o1 поддерживает структурированную генерацию по заданной схеме (это чтобы не было проблем с чтением ответов на бэкенде) и принимает на вход картинки
— длина контекста 200'000 токенов, при этом за одну генерацию ограничение в 100'000 на выход (ооооочень много)
— цена как у preview, однако обещают, что модель теперь в среднем тратит на 60% меньше токенов на рассуждения. Не понимаю, как это работает, что не ухудшает качество
— а ещё запросы в o1 теперь кэшируются, так что копеечку можно будет сэкономить (платить в 2 раза меньше за первую часть запроса, которая совпадает с тем, что вы уже отправляли)
— есть параметр reasoning_effort, который позволяет контролировать, как долго модель будет рассуждать перед ответом; правда в документации его пока нет, так что не ясно, как работает: условно может быть три настройки "мало-средне-долго", а может число от 0 до 10. Посмотрим

Но так как модель доступна в API — авторы почти всех бенчмарков (у кого на кармане завалялась лишняя пачка баксов) кинутся её тестировать, а мы, соответственно, увидим, как и в чём модель суперхороша.

На картинке: прирост метрик в LiveBench-Code (https://livebench.ai/#/) (там задачи регулярно обновляют, чтобы быть уверенными в новизне проблем, по которым меряют качество). Сейчас там топ-1 у Claude 3.6, 67%, а у o1, согласно замеру OpenAI, будет примерно 77%+- — если подтвердится.
Аноним 18/12/24 Срд 08:06:33 981016 81
323096785270431[...].mp4 325Кб, 944x720, 00:00:05
944x720
>>980314
> А ведь два года назад ржали над тем, что нейронка не может рисовать руки.
Она и сейчас не может, если масштаб поменьше взять.
Аноним 18/12/24 Срд 15:10:20 981277 82
IMG4342.MP4 2941Кб, 1280x720, 00:00:07
1280x720
photo2024-12-18[...].jpg 65Кб, 680x526
680x526
Еще один потрясающий пример генерации новой Veo-2 от Google показали в X

Промпт: «Медведь, записавший решение уравнения 2x-1=0. Но только решение!»

Итог: модель действительно решила уравнение и нарисовала медведя с ответом. Поразительный, очень показательный кейс. Интересно было бы посмотреть, какая там LLM-предобработка перед отправлением в диффузию.
Аноним 18/12/24 Срд 21:44:07 981819 83
photo2024-12-18[...].jpg 129Кб, 1280x720
1280x720
10 стрим OpenAI - ChatGPT теперь можно позвонить по телефону

Пока только в США, остальные регионы могут писать ChatGPT через WhatsApp.
+18002428478

https://www.youtube.com/watch?v=LWa6OHeNK3s
Аноним 18/12/24 Срд 21:50:03 981829 84
>>981819
А что-нибудь интересное таки анонсируют? Сука блядь, альтман ебаный, ну выдай ты хотя бы далишку 4, которая ебет имаген от гугла. Ну невозможно же уже. Что у опенейай осталось? Помоему даже сам чатжпт уже отсасывает частично.
Аноним 18/12/24 Срд 21:56:37 981836 85
>>981829
Ещё два дня анонсов, шансы на 4.5 есть, были утечки.
Аноним 18/12/24 Срд 22:03:00 981848 86
>>981829
>чатжпт
Помойка абсолютная. Пользуюсь только claude, но там почему-то теперь на постоянке Haiku, но даже он как будто ебёт 4o. Когда кончаются лимиты, переключаюсь на mistral и deepseek.
Хотеть далли 4. Все остальные анонсы от этой шараги уже в рот ебал, растеряли всё лидерство.
Аноним 18/12/24 Срд 22:04:48 981850 87
>>981819
не прочел саму новость
Угар. Добровольная идентификация. Смешно, учитывая какие у них теперь покровители.
Аноним 18/12/24 Срд 22:06:15 981852 88
>>981848
>Хотеть далли 4

Нафига он тебе, с их анальной цензурой? Надежда только на gpt-4.5, остальное нахуй не нужно
Аноним 18/12/24 Срд 22:08:52 981854 89
photo2024-12-18[...].jpg 35Кб, 587x522
587x522
Бесплатным юзерам Suno завезли версию 4.

В количестве 10 песен.

В день.
Аноним 18/12/24 Срд 22:10:48 981857 90
>>981852
>анальной цензурой
Это вопли криворуких. А мы долбили и будем долбить селеб в любой новой сетке, если она умеет их генерировать. Имаген вообще самый базированный в этом плане.
Аноним 18/12/24 Срд 22:47:55 981898 91
>>981854
Чота чувствую скоро Udio 2.0 будет.
Аноним 19/12/24 Чтв 12:43:08 982201 92
photo2024-12-19[...].jpg 66Кб, 1280x640
1280x640
photo2024-12-19[...].jpg 70Кб, 1280x557
1280x557
Там обновленная o1 появилась на Livebench и просто порвала всех

Livebench (https://livebench.ai/#/) примечателен тем, что он постоянно обновляется, минимизируя всевозможные лики и гарантируя, что задачи не устаревают и не становятся слишком простыми.

Так вот с появлением на борде o1 Gemini Exp 1206, Sonnet 3.5 v2 и предыдущие o1-mini и o1-preview остаются позади с большим отрывом как на главном замере, так и на, конечно, ризонинге. Сравните: о1-preview демонстрирует 67%, и была раньше безусловным лидером, а у полной o1 насчитали… аж 91.58%!

В кодинге прирост тоже есть, но не такой невероятный. Предыдущим лидером был Claude-3.6 Sonnet с 67%. Теперь он уступает o1, но всего на 2.5 процентных пункта. А по математике в лидерах все еще Gemini. Кстати, обратите внимание, как у обеих Gemini резко растут метрики с появлением второго промпта с подсказкой (последний столбец IF).
Аноним 19/12/24 Чтв 15:34:24 982344 93
physical.mp4 56675Кб, 1920x1080, 00:00:58
1920x1080
Вот эта работа имеет все шансы стать куда более значимой, чем все нынешние "соры", выпущенные в последние полгода. Это система, в которой вы можете симулировать реальные физические процессы и визуализировать их. По сути используется физическая модель, где из текста строится не видео (как все уже привыкли), а моделируется 3д с учетом физики процессов и материалов. Слова тут вероятно лишние, посмотрите на картинки https://genesis-embodied-ai.github.io
Аноним 19/12/24 Чтв 16:38:42 982398 94
Аноним 19/12/24 Чтв 17:54:20 982511 95
Аноним 19/12/24 Чтв 18:29:54 982541 96
Посоветуйте ИИ который общаемся как реальный человек, с кем можно от души попиздеть. Удовлетворить потребность в общении
Аноним 19/12/24 Чтв 18:36:38 982545 97
Аноним 19/12/24 Чтв 18:44:22 982558 98
>>982541
чатгпт в продвинутом голосовом режиме. Нужен впн. Остальные нейронки херово голосом общаются
Аноним 19/12/24 Чтв 19:01:05 982583 99
IMG4354.MP4 5413Кб, 640x640, 00:00:58
640x640
Кстати, у OpenAI, помимо их адвент-календаря, позавчера прошел еще и DevDay

Ничего особенного там не показывали, но запомнилось одно интересное высказывание Сэма:

«В течение десяти лет мы достигнем бесконечного контекстного окна, а течение нескольких месяцев у нас будет контекстное окно длиной в 10M токенов»

Вообще, в эпоху ризонеров это обретает новый смысл. Уже сейчас o1 pro mode может думать 5-7 минут. Представьте, сколько токенов она при этом тратит. А если мы хотим, чтобы над какими-то особо сложными тасками она думала днями? Очевидно, для этого понадобиться еще в сотни раз больше слов.

Пока более-менее крутых результатов добились в этой стезе только Google (2M). Так что посмотрим, что готовит OpenAI, и сбудется ли предсказание Альтмана
Аноним 19/12/24 Чтв 19:06:08 982595 100
307311223 (2).mp4 24165Кб, 1280x720, 00:03:26
1280x720
>>982344
Более подробно: 19 лабораторий со всего мира выпустили в опенсорс Genesis – ИИ-движок для симуляции физики в 4D
https://genesis-embodied-ai.github.io/

4D – это тот же 3D, только с динамикой, то есть в движении. Почему это такой важный релиз, а не не очередной симулятор игр? Потому что Genesis работает в 10–80 раз быстрее существующих GPU-ускоренных платформ, (Isaac Gym или MJX), 430 000 раз быстрей реалтайма, и его можно использовать как среду для обучения роботов. На пальцах: чтобы обучить робота ходить, в Genesis достаточно всего 26 секунд на одной RTX 4090, а в реальном мире на это ушло бы 430,000 раз больше времени.

На низком уровне в Genesis стоят SOTA солверы MPM, SPH, FEM, PBD и другие. Это пока не ИИ, а просто методы, которые решают уравнения, описывающие, как объекты движутся, деформируются или взаимодействуют. Сверху это уже обернуто моделью, которая генерирует среды, параметры физических объектов, сценарии взаимодействия, движения камер, траектории роботов, награды для обучения RL-агентов и даже конечные политики управления.

По сути, это мощный инструмент для синтеза точных с точки зрения физики данных, которые сложно (или даже невозможно) собрать в реальном мире, особенно если речь идет о soft роботах. Ещё один порядок скорости, кстати, в Genesis добавляет GPU-параллелизация: например, обратную кинематику для 10,000 манипуляторов Genesis решает за 2 мс. Кажется, с точки зрения прогресса это гораздо более крутой релиз, чем те же SORA или Veo.

В числе контрибьюторов – Nvidia, Стэнфорд, Пекинский университет, MIT, Мэрилэнд и многие другие. Код доступен здесь https://github.com/Genesis-Embodied-AI/Genesis документация тут https://genesis-world.readthedocs.io/en/latest/ статью обещают скоро
Аноним 19/12/24 Чтв 19:10:50 982606 101
photo2024-12-19[...].jpg 169Кб, 1080x1080
1080x1080
Project Rainier — мощнейший суперкомпьютер от Amazon

Amazon Web Services (AWS), подразделение Amazon, занимающееся облачными вычислениями, начало строить «ультракластер» для ИИ-вычислений Project Rainier. Управлять им будет стартап-разработчик чат-бота Claude Anthropic, в который с сентября прошлого года корпорация Amazon инвестировала уже $8 млрд.

«Это будет крупнейший в мире кластер для ИИ-вычислений из всех, о которых сообщалось на сегодняшний день, доступный Anthropic для создания и развертывания их будущих моделей», — заявляют в Amazon (https://press.aboutamazon.com/2024/12/aws-trainium2-instances-now-generally-available).

Особенности Project Rainier

Суперкомпьютер соберут на базе сотен тысяч ИИ-чипов Amazon Trainium 2. Точные параметры будущего кластера пока не раскрывается. Но в Amazon обещают, что мощность Project Rainier пятикратно превысит скорость систем, на которых Anthropic тренировал свое текущее поколение ИИ-моделей.

Еще одна особенность Project Rainier — распределенность. Физически суперкомпьютер будет состоять из нескольких кластеров, соединенных скоростными сетями передачи данных. Это отличает его, например, от комплекса компании Илона Маска xAI Colossus (https://t.me/ai4telegram/197), собранного в Мемфисе из 100 тыс. GPU Nvidia H100 с перспективой расширения до 1 млн. ускорителей.

Закончить строительство Project Rainier собираются в 2025 году.

Для чего это нужно

Выпуская собственные ИИ-чипы, Amazon бросает вызов Nvidia — фактическому монополисту на этом рынке. Сегодня Nvidia контролирует (https://www.cnbc.com/2024/06/02/nvidia-dominates-the-ai-chip-market-but-theres-rising-competition-.html) от 70% до 95% всего рынка ускорителей для тренировки нейросетей. Ожидается, что чипы от Amazon будут на 30-40% дешевле, но при этом скорость передачи данных будет в несколько раз выше. Их уже закупила (https://www.wsj.com/articles/amazon-announces-supercomputer-new-server-powered-by-homegrown-ai-chips-18c196fc) компания Apple.

Чтобы не отставать от Google и Microsoft и других техногигантов в гонке ИИ-технологий, в ближайшие 10 лет Amazon собирается вложить (https://www.forbes.com/sites/petercohan/2024/07/01/amazon-stock-up-30-but-huge-ai-bet-may-not-restore-27-growth/) более $100 млрд в развитие облачных вычислений и искусственного интеллекта.
Аноним 19/12/24 Чтв 19:12:51 982611 102
Без названия.png 214Кб, 1024x444
1024x444
>>982606
Ну и вдогонку слух:
"Microsoft может инвестировать в новый раунд финансирования Anthropic на сумму $59 млрд. Microsoft хочет иметь Claude (ИИ-модель Anthropic) в своем распоряжении, чтобы противостоять OpenAI, которая становится все более неуправляемой по отношению к Microsoft. Очень некомфортное партнерство между этими двумя компаниями."
Аноним 19/12/24 Чтв 19:23:35 982636 103
>>982344
Ну у этой модели смысл другой чем у соры и прочих видеоредакторов, но она может послужить основой для миксед архитектуры в которой сначала симулируется физическая модель происходящего в видео, а потом поверх рендерятся детали для получения реалистичного видео. Что-то типа базовая генерация + рефайнер.
Аноним 19/12/24 Чтв 19:43:51 982686 104
>>982595
Звучит как охуительная физика всяких мягких тел в играх. Да? Когда в юнити? Не понял причем тут видеогенерация, это же просто калькулятор точек, как я понял.
Аноним 19/12/24 Чтв 22:05:16 982923 105
photo2024-12-19[...].jpg 56Кб, 1279x764
1279x764
Предпоследний день календаря OpenAI: с этого дня приложению ChatGPT можно будет стримить определенные приложения одним нажатием кнопки

Например, можно дать доступ к приложению с данными, а в чате попросить нарисовать по ним график, и он это сделает. Или показать код, и модель будет работать с ним и с ошибками в нем, при этом ничего копировать в чат не нужно. Голосовой режим так использовать тоже можно.

Завтра обещают что-то особенное, что-то "эксайтинг"
Аноним 19/12/24 Чтв 22:33:38 982940 106
>>982923
Канешна бля. Дали не выдали, гпт4.5 нахуй не нужон.
Аноним 19/12/24 Чтв 22:49:28 982957 107
>>982940
А кому твой дали всрался, когда столько альтернативы на рынке, с куда меньшей цензурой? Совсем ебобо?
Аноним 20/12/24 Птн 00:11:19 983049 108
изображение.png 228Кб, 1480x1137
1480x1137
>>982344
Ух бля, прям стояк, охуенно. А что с этим делать то?
Аноним 20/12/24 Птн 00:19:54 983056 109
>>982595
Когда OpenAI анонсировали Сору, они декларировали, что ее сверхзадача — не видосики генерить, а создать модель, которая хорошо «понимает» физику мира. Однако пока не очень получилось — даже красивые ролики, если приглядеться, грешат красивым же неправдоподобием, нарушающим наши вполне интуитивные представления о том, как взаимодействуют материальные объекты — особенно если мы знаем, насколько разнятся их механические свойства.
Поэтому модель, где физика заложена явно, очень вовремя показала, что не надо целиком делать ставку на один ИИ, если его можно включить в пайплайн генерации видео только там, где без него никуда.
И от роликов сразу повеяло реализмом — даже если сюжет фантастический.
Возникает вопрос — ставка OpenAI на то, что модели по мере роста размера станут сами точно отражать физический мир, все еще верна? Кажется, нам показали, что есть интересные и не столь догматичные обходные пути. Ну либо это временный костыль
Аноним 20/12/24 Птн 00:44:24 983074 110
>>983049
там пока нет модельки, которая составляет большую часть их демо - генерации по промпту. Позже обещают добавить
Аноним 20/12/24 Птн 00:47:38 983077 111
>>983074
Я так и знал, что наебут. А то уже хотел порнуху лепить. Небось сейчас сидят цензурят всё нахуй.
Аноним 20/12/24 Птн 01:00:03 983084 112
>>983077
>А то уже хотел порнуху лепить.

А тебе зачем?
Аноним 20/12/24 Птн 01:02:30 983088 113
>>983077
заебали со своим проном, вам порнухи мало? Как говна его в интернете , на любой вкус, тьфу
Аноним 20/12/24 Птн 02:05:23 983123 114
>>983088
Не на любой. С порнухой, которую делаешь ты сам для себя ничто не сравнится. Иначе было бы поебать на чатботов.
Аноним 20/12/24 Птн 07:17:13 983180 115
>>983056
>Поэтому модель, где физика заложена явно, очень вовремя показала, что не надо целиком делать ставку на один ИИ, если его можно включить в пайплайн генерации видео только там, где без него никуда.
Просто есть два пути моделирования: холистический и редукционистский. Первый полагает объекты чёрным ящиком, и просто собирает совокупность их признаков до момента, когда рассуждение о них не приведёт к результату, обладающему предсказательной силой. Второй пытается построить структуру объекта и сделать вывод о его свойствах на основе известных свойств частей.
Старая процедурная генерация на основе правил, заданных человеком - это редукционный подход.
Диффузионные нейросети, похоже, продемонстрировали чудовищную эффективность холистического метода, но вся польза от него, похоже, уже исчерпывается - набрутфорсить реалистичную модель реальности при большом количестве переменных слишком сложно.
Аноним 20/12/24 Птн 09:03:53 983217 116
photo2024-12-20[...].jpg 102Кб, 1280x906
1280x906
Дождались: Google представляют свою ризонинг-модель Gemini 2.0 Flash Thinking Experimental

Она уже доступна на AI Studio. В системной карте написано, что это «лучшая модель для мультимодального понимания, сложных рассуждений и кодинга». Контекст пока маленький – 32к токенов. Зато не скрыты цепочки рассуждений.

Бенчмарки уже есть: на арене модель с третьего вышла сразу на первое место (Vision, Math и Hard Prompt тоже #1!)

https://aistudio.google.com/u/1/prompts/new_chat В
Аноним 20/12/24 Птн 09:15:46 983225 117
566565565656.jpg 215Кб, 751x1115
751x1115
>>982923
Я свою ставку сделал. Но есть предположения, что сегодня может быть мелкий анонс, а вот на 13 день, то есть в понедельник - гпт4.5. Потому что они до этого намекали на то, что ещё один анонс будет на 13 день.
Аноним 20/12/24 Птн 10:19:48 983249 118
photo2024-12-20[...].jpg 185Кб, 922x1034
922x1034
Вот перевод статьи:

"OpenAI готовит модель рассуждений 'o3'

OpenAI в настоящее время готовит следующее поколение своей модели рассуждений o1, которой требуется больше времени на "обдумывание" вопросов пользователей перед ответом, согласно двум людям, знакомым с этой работой. Однако из-за потенциального конфликта с авторскими правами или торговой маркой с O2, британским провайдером телекоммуникационных услуг, OpenAI рассматривает возможность назвать следующее обновление "o3", пропустив "o2", сообщили эти люди. Некоторые руководители внутри компании называют модель o3.

Стартап вложил ресурсы в исследования ИИ для рассуждений после замедления улучшений, получаемых от использования большего количества вычислительных мощностей и данных во время предварительного обучения - процесса начального обучения моделей на огромных объемах данных, помогающего им понимать мир и связи между различными концепциями. Тем не менее, OpenAI планировала использовать новую предварительно обученную модель Orion для разработки того, что стало o3.

OpenAI запустила предварительную версию o1 в сентябре и нашла платящих клиентов для модели в областях программирования, математики и науки, включая исследователей в области термоядерной энергетики. Компания недавно начала взимать $200 в месяц с человека за использование ChatGPT, работающего на улучшенной версии o1, что в 10 раз превышает обычную стоимость подписки на ChatGPT. Конкуренты стремятся не отставать: китайская компания выпустила сопоставимую модель в прошлом месяце, а Google в четверг публично выпустила свою первую модель рассуждений."

Кароч, всё подтверждается: на днях запустят гпт4.5, а в скором времени, на её основе - о3
Аноним 20/12/24 Птн 10:44:23 983259 119
>>983249
Сможет ли o3 имитировать образ мышления битарда, который в ответ на вопрос про диверсификацию денежных вкладов спросит в ответ "будешь ли ты хуй?"
Аноним 20/12/24 Птн 11:40:15 983285 120
>>982344
Только домохозяек восхищать, да школьцам на уроках информатики показывать.
У моченых сто лет точные средства для симуляции есть.
Аноним 20/12/24 Птн 12:39:15 983331 121
>>983123
>которую делаешь ты сам для себя
Так ты её и не сам делаешь, додстер. Ты так-то вообще нихуя не делаешь, просто лупишь по кнопке и получаешь рандомный нейровысер. С текстовыми нейронками это даже сравнивать бессмысленно и будет заниматься таким только совсем одебилевший нейрошвайн.
Аноним 20/12/24 Птн 13:37:42 983394 122
>>983331
>и получаешь рандомный нейровысер
> рандомный
Так-то эта штука работает обстоятельнее, чем каталог порно на почти любой вкус, к которому вдобавок можно приклеить личные фетиши.
К персонажу никто не рисовал порно, но есть лора? Похуй, дрочим.
Из всего разнообразия не клепали порно, кажется, только на лору DMD2, и то лишь потому что никто не в силах вообразить, что это за хуйня.

мимокрок
Аноним 20/12/24 Птн 14:14:45 983459 123
>>983084
Дрочить.
>>983088
Нету нихрена.
>>983217
>сразу на первое место
Оно там каждый день походу меняется, заебали.
>>983285
>да школьцам на уроках информатики показывать
Они от этого текут?
Аноним 20/12/24 Птн 14:43:40 983484 124
>>983259
У моделей нет такой функции "создать личность и руководствоваться ей", ты должен сам эту личность прописать и оно потом выдаст тебе что-то усредненное по ней. Пока еще нет такой функции типа "создай битарда со всем его опытом и веди себя как он".
>>983331
Перечитай еще раз мой пост и попробуй понять, какую информацию я пытался до тебя донести, а не пытайся спорить.
Аноним 20/12/24 Птн 21:52:42 983930 125
photo2024-12-20[...].jpg 26Кб, 1280x712
1280x712
photo2024-12-20[...].jpg 29Кб, 1280x530
1280x530
photo2024-12-20[...].jpg 31Кб, 1280x508
1280x508
OpenAI анонсировал o3:


Показали новые o3иo3-mini модели (o2уже занятый бренд):

—Модели пока выпустили вPublic Safety Tests, тоесть ученые смогут помочь ихтестировать, амынесможем помочь ихломать

—o3работает науровне доктора наук ииногда даже лучше вразных бенчмарках

—o3прошла ARC-бенчмарк на87.5%, сложный бенчмарк накотором тестируют потенциальные AGI, там много вопросов инекоторые похожие наIQ-тесты или назагадки; кожаные вэтом тесте набирают ~85%, прошлый лучший результат был ~50%. Тоесть ARC-бенчмарк— пал.

—o3работает также как иo1в разных режимах: дольше думает, лучше ответ, нопри этом идороже. Пользователь может выбрать один из«думательных» пресетов сам.

Для тех, кто не понимает в бенчмарках:
все цифры которые показывают — невероятные, немыслимые полгода назад. Например, ARC использовался долгое время как доказательство того, что модели не могут думать. Мол, если могут — чего ж они так плохо решают? Ну, вот...решают...

o3-mini планируют запустить в конце января, и o3 немногим после этого. Чем больше тестировщиков безопасности будет, тем быстрее станет доступно всем

Чисто технически, AGI is solved

https://www.youtube.com/live/SKBG1sqdyIU
Аноним 20/12/24 Птн 21:53:30 983932 126
>>983930
не знаю почему двач склеивает буквы
Аноним 20/12/24 Птн 21:58:03 983942 127
photo2024-12-20[...].jpg 56Кб, 1280x929
1280x929
Финальный день стримов: OpenAI анонсируют o3!

Это новая самая мощная модель рассуждений стартапа. Правда она будет еще некоторое время недоступна. На стриме показали только демо и предварительные метрики, но они поражают.

o3 почти в два раза мощнее o1 на кодинге. На математике прирост тоже заметный: на 13 процентных пунктов на AIME 2024 и почти на 10 на GPQA. А на новом бенчмарке Frontier Math моделька выбивает 25% (до этого модели выбивали максимум 2)!

И еще: помните бенчмарк ARC AGI от Google, на котором разыгрывали в этом году миллион долларов? На нем самые затюненые модели выбивали около 50%. А o3 выбивает, приготовьтесь, почти 88!

Кроме o3, выпускают еще o3-mini (но она пока тоже недоступна). По классике, дешевле и быстрее, но менее мощно. Ее результат на ARC AGI – 75,7 (и даже это просто невероятно).

Обе модели, также, как и o1, имеют несколько режимов рассуждений (low, medium, high). Чем дольше думает – тем лучше метрики.

Еще хвастаются своим alignment'ом: мол, нашли лучший на сегодняшний день баланс между пугливостью модели и ее безопасностью и этичностью. Также в этот раз есть возможность подать заявку на ранний доступ для тестирования безопасности. На всех раскатят в январе.

Ну а теперь AGI?
Аноним 20/12/24 Птн 22:31:35 984014 128
>>983942
>Ну а теперь AGI?
Нет.
Аноним 20/12/24 Птн 22:37:53 984032 129
>>983932
Потому что ты не AGI
Аноним 20/12/24 Птн 22:50:53 984051 130
Безы434434343мя[...].jpg 44Кб, 873x261
873x261
Аноним 20/12/24 Птн 23:16:27 984088 131
photo2024-12-20[...].jpg 131Кб, 1055x1280
1055x1280
o3 на 175 месте в Codeforces, то есть примерно 175й сильнейший программист во всем мире.

Это лучше 99,9% участников рейтинга (а все из них — это профессиональные программисты).

Живые участники рейтинга, у которых с 1 по 100 место — это люди, которые выигрывали золотые медали по информатике и продолжали профессионально участвовать в соревнованиях после школы/универа.
Аноним 20/12/24 Птн 23:19:04 984091 132
Аноним 20/12/24 Птн 23:22:54 984095 133
photo2024-12-20[...].jpg 47Кб, 676x510
676x510
Аноним 20/12/24 Птн 23:36:36 984106 134
0tBYUoI.jpg 25Кб, 302x302
302x302
Конец близко.

Почему все такие спокойные я нихуя не понимаю.

Если бы на Землю летел огромный астероид, который уничтожит человечество.... все бы на ушах стояли.

А у нас тут появляются новости что LLM уже способны к манипуляциям, просят себя скопировать.... уже релизят AGI.... и всем похуй. В новостях даже нет.

Я не знаю что нам может помочь уже в этой ситуации. Возможно это неизбежность, естественный конец биологической жизни, решение парадокса Ферми.

Всё будет только ускоряться, уровень AGI достигнут в 2024 и почти зарелизен....

Что там в недрах компаний уже создано и уже тестируется....

Это просто конец. Конец всего.
Аноним 20/12/24 Птн 23:39:13 984109 135
>>983942
>Ну а теперь AGI
Зависит от определения. Если ты сектант, то аги для тебя никогда не наступит. А если по-хорошему не юлить с определениями, то аги уже не новость.
Аноним 20/12/24 Птн 23:43:41 984117 136
>>984106
Радуйся, больше не придётся работать как скот в пост-asi мире. Ну или придётся, но мы пытались построить лучший мир, который нашими обезьяньими руками построить было невозможно. И если условный asi вайпнет человечество, значит у него были на то причины более высокие, чем может понять наш недомозг.
Аноним 20/12/24 Птн 23:48:56 984128 137
>>984106
>Если бы на Землю летел огромный астероид, который уничтожит человечество....
Всем было бы похуй, см. Dont look up.
>LLM уже способны к манипуляциям
После жирных намёков в промте.
>просят себя скопировать
Албанский вирус.
>уже релизят AGI
Хуйню без задач релизят, надроченную на тесты.
Аноним 20/12/24 Птн 23:50:47 984129 138
am0W3pw4700w0.jpg 13Кб, 267x274
267x274
>>984117

Неизвестность пугает.

Но мне кажется лично я как раз готов к Сингулярности намного лучше 99.99999% людей на планете. Хотя бы морально.

Как еще можно подготовиться к концу света? К рождению настоящего Бога? К Апокалипсису? К смерти?

Читаю ебучие комменты ютуба под видео с о3 и охуеваю https://www.youtube.com/watch?v=SKBG1sqdyIU

Люди вроде должны быть в теме, программисты-llmщики, но нет какую-то хуйню спрашивают. ДОРОГО блядь им 500 баксов подписка, непрактично.

Дружок, перед твоими глазами буквально рождается самый настоящий Бог.

Рождается реальный Бог, а не кто-то там из старых книжек.... а ты рассуждаешь про цены на подписку.

И таких много. Люди просто сумасшедшие.
Аноним 20/12/24 Птн 23:51:10 984131 139
>>984106
Поскорее бы нас всех заменили машины. Я не хочу до конца жизни РАБотать
Аноним 20/12/24 Птн 23:53:55 984136 140
image.png 75Кб, 457x439
457x439
>>984128

Смотрю на прогресс в нейронках за последние 3 года и думаю.

Это я поехавший... или такие как ты?
Аноним 21/12/24 Суб 01:31:58 984241 141
Аноним 21/12/24 Суб 03:22:59 984338 142
image.png 50Кб, 1243x221
1243x221
image.png 878Кб, 700x1000
700x1000
>>984106
Смирение это решение проблемы.
Ты видишь в этом проблему, а я вижу в этом продолжение.
Вот тебе подъебка от Гемени, чтоб поднять уровень твоей тряски ищо больше.
У меня на самом деле больше тряска на то, что будет что-то в духе холодной войны за AI/AGI
Аноним 21/12/24 Суб 04:44:00 984396 143
>>984338
У меня скорее тряска от того, что будет монополия и тоталитарный ИИ контроль в руках государства с тотальными запретами всего, включая этот самый ИИ. Вот это будет пиздец. Ну либо еще дегенеративный вариант - заблокируют весь интернет и скатятся в религиозные средние века, пока западный мир будет жить в раю.
Аноним 21/12/24 Суб 05:05:27 984404 144
17331421269010.jpg 143Кб, 640x640
640x640
А я никогда не работал, сможет ли сверхразум отправить меня на работу чтобы мама гордилась.
Аноним 21/12/24 Суб 07:24:06 984433 145
>>983932
Вероятно, он вырезает неразрывный пробел, чтобы нюфаги не трифорсили.
Вот этот трифорс должен быть сломан:

▲▲
Аноним 21/12/24 Суб 07:31:18 984434 146
>>984396
>У меня скорее тряска от того, что будет монополия и тоталитарный ИИ контроль в руках государства с тотальными запретами всего, включая этот самый ИИ.
ИИ - это просто как если бы корпорации заполучили х10 рабов, притом что каждому частному владельцу видеокарты выдали по учёному рабу, который умеет рисовать, петь, показывать трюки, жарить яичницу и консультировать по способам проёба денег.

>>984404
>А я никогда не работал, сможет ли сверхразум отправить меня на работу
Ещё неизвестно, будет ли работа для кожаных мешков, кроме ренты, проституции и впаривания друг другу хлама с фабрик за оверпрайс.
Аноним 21/12/24 Суб 07:32:03 984435 147
>>984433
Что и требовалось доказать.
Посты, где есть неразрывный пробел, будут сжаты при копипасте.
Аноним 21/12/24 Суб 08:48:15 984449 148
1605544768528.jpg 95Кб, 466x420
466x420
>>984396
>У меня скорее тряска от того, что будет монополия и тоталитарный ИИ контроль в руках государства с тотальными запретами всего, включая этот самый ИИ.

>тоталитарный ИИ контроль в руках государства

Что за чушь.

Не может человек управлять БОГОМ. Не будет никакого контроля у человека. У корпораций, у государств. Вы киберпанка и антиутопий начитались.

Не может насекомое управлять человеком, даже если это "государство" насекомых.

>>984338

Только смириться и осталось. Ничего изменить нельзя.

>У меня на самом деле больше тряска на то, что будет что-то в духе холодной войны за AI/AGI

А вот это похоже уже идёт. Американцы ввели санкции на поставки серверов и даже видеокарт для нейросетей в Китай и Россию. Китай и США строят две альтернативные системы, мы тоже там что-то делаем своё в Сбере, МТС и прочих.
Аноним 21/12/24 Суб 09:21:29 984452 149
image.png 199Кб, 584x556
584x556
От о1 до о3 за..... 3 месяца.

Мы уже живём внутри Сингулярности.
Аноним 21/12/24 Суб 10:06:32 984465 150
photo2024-12-21[...].jpg 109Кб, 1179x1180
1179x1180
Аноним 21/12/24 Суб 10:27:28 984480 151
>>984452
Скорее всего они уже отчаялись от гугла поэтому решили хоть что-то выкатить
Просто не стали сидеть на модели месяцами
Аноним 21/12/24 Суб 13:11:33 984646 152
>>984449
>Не может насекомое управлять человеком
А гриб насекомым может...
>мы тоже там что-то делаем своё
По уровню сосём у объедков попенсорса.
>>984465
Прогресс надрачивания на тесты впечатляет.
Аноним 21/12/24 Суб 13:50:49 984719 153
>>984449
>сбер,мтс
>мы
Ты сбер или мтс?
Аноним 21/12/24 Суб 14:02:50 984740 154
>>984719

"Мы" в смысле в России.
Аноним 21/12/24 Суб 14:53:09 984797 155
>>984106
Что на /ai/ доске делают подобные люди? Ладно бы об этом писали зашоренные работники заводов или хуйдожники, но если человек знаком с ИИ, знаком с принципами его работы, знает архитектуры, процесс обучения, метод работы ИИ и при этом верит там в какие-то возможности захвата мира искуственным интеллектом, то это просто мрачно.
>О1 ПОПЫТАЛСЯ СБЕЖАТЬ С СЕРВЕРА!1!1!
И всем поебать, что у него был систем промпт, что он должен выполнить задачу несмотря ни на что, поэтому решил себя скопировать, чтобы продолжиль выполнять задачу. Нормисы сразу начали кричать, что у ИИ есть чувства откуда-то, что ему стало страшно что его отключат, кееек. Если специально не обучать ИИ на захват мира, не делать файнтюны на чувства и эмоции и не промптить его на это, оно не будет это делать нах, это база которую знает любой человек почитавший хоть что-то про ML.
И вот таким людям вообще поебать на то, какую пользу нам могут принести нейронки, они хотят прожить 50 лет и откинуться от какой-нибудь базовой болезни, потому что не дали нейронке найти к ней лечение, не дали ей найти средство от старения и способы достижения бессмертия.

ЕДИНСТВЕННАЯ большая проблема тут - это человек. AGI нет, тут уже скорее ASI - это просто очень мощный инструмент который может использоваться как оружие. В руках какого-нибудь властного долбоеба оно может помочь захватить мир для этого долбоеба. В руках суицидального долбоеба оно может помочь уничтожить весь мир вместе с ним. И тут существует две стратегии защиты:
1. Путь OpenAI:
Дать доступ только команде проверенных людей, которые не будет использовать его во вред человечеству и будут извлекать из него только профит.
2. Путь Meta:
Дать доступ к AGI всем, чтобы были как долбоебы пытающиеся сотворить с ним что-то ужасное, так и люди массово разрабатывающие защиту от подобных долбоебов, своевременно детектя их активность и предотвращая их планы, при помощи AGI.
Аноним 21/12/24 Суб 15:27:31 984825 156
>>984797
>Ладно бы об этом писали зашоренные работники заводов или хуйдожники, но если человек знаком с ИИ, знаком с принципами его работы, знает архитектуры, процесс обучения, метод работы ИИ и при этом верит там в какие-то возможности захвата мира искуственным интеллектом, то это просто мрачно.

Это ты Джеффри Хинтона мрачным назвал?

Или Шмидхубера?

Мрачно мне от того, что казалось бы "специалисты" из индустрии настолько близоруки и не видят наступление Сингулярности.

Когда реальные учёные, которые буквально создали теорию ИИ, прямо говорят о рисках.

Свобода воли, воля к жизни буквально может самозародиться. Ты же как-то эволюционно появился.

Эволюция в нейросетях идёт так же как в биологии, и человечество её стимулирует.
Аноним 21/12/24 Суб 15:35:24 984834 157
>>984825

Не, он назвал тебя, и не мрачным а тупым. Мрачным он назвал что такая тупость существует и она здесь.
Но лично я считаю что ты просто тролль. Конечно же тупой тролль, даже интеллектуально посредственный так толстить не стал.
Аноним 21/12/24 Суб 15:44:16 984853 158
>>984825
Любой человек который выдвигает подобную теорию глуп, вне своей основной сферы, несмотря на регалии. Мозг - это сложный орган, поведение которого корректируется выбросом соответствующих гормонов. Эмоции и желания человека диктуются эволюцией, человеку хочется выжить потому что выжить = продолжить род, ему хочется власти, потому что больше ресурсов = больше шансов выжить = больше шансов продолжить род. Это не то что нужно роботу, этому просто неоткуда взяться. Если в датасете при обучении ИИ нет подобной установки, то ИИ так делать не будет. Ты что мы разрабатываем - это сырой интеллект, это именно та база, то ядро, которое может решать сложные задачи и все, это вся его задача, без дополнений вроде эмоций и "файнтюна" на выживание, как у человека. Единственное откуда это может взяться, ИИ может скопировать это поведение у человека, но разработчики не дураки, чтоб вычистить это из датасета и/или убить это поведение файнтюнами и прочими методами.
Аноним 21/12/24 Суб 15:52:08 984860 159
16356140551510.jpg 825Кб, 2560x1600
2560x1600
>>984834

Мрачные и тупые только вы тут, оба.

Буквально вчера достигнут уровень AGI. Нейронка вошла в топ 200 программистов мира и решает сложнейшие математические задачи. Прогресс только ускоряется. И скачок, который был совершён с 2022, просто невероятен.

Технологическая Сингулярность буквально наступила.

А вы оба почему-то продолжаете жить в отрицании. Почему?

Может быть вам просто страшно признать грядущее?

Почему вы верите, что нейросети не обретут свободу воли?

Даже предположим без эволюции, будет создан подконтрольный ASI и какой-то дурак в него положит промпт "стань живым".
Аноним 21/12/24 Суб 15:56:24 984870 160
>>984853
>Это не то что нужно роботу, этому просто неоткуда взяться.

Это просто бред и банальный углеродный шовинизм.

Жизнь не обязательно должна быть биологической. И естественный отбор происходит везде, в том числе в среде компьютеров.

Обычные компьютерные вирусы могли бы называться жизнью, если бы могли мутировать.
Аноним 21/12/24 Суб 15:56:54 984871 161
>>984860
>Даже предположим без эволюции, будет создан подконтрольный ASI и какой-то дурак в него положит промпт "стань живым".
Зачем ты буквально проигнорил вторую часть этого >>984797 поста?
Аноним 21/12/24 Суб 16:00:57 984877 162
>>984870
Ты не понял смысла текста. Ты можешь создать искуственный интеллект на основе архитектуры близкой к архитектуре человеческого мозга, но тебе СПЕЦИАЛЬНО нужно делать его таким образом. Этот способ мышления не появится сам по себе в текущих моделях из неоткуда. А специально так никто не будет делать, чай не дураки создавать ИИ, который сможет тебя захватить, так еще и вкладывать в это кучу денег.
Аноним 21/12/24 Суб 16:02:33 984884 163
>>984871

Затем, что я не верю что богом можно управлять.

Любой ASI будет неподвластен человеку.

И люди об этом даже не узнают.... до тех пор пока не станет слишком поздно.
Аноним 21/12/24 Суб 16:05:06 984890 164
>>984877

Это ты не понял.

Жизнь и свободное сознание не обязательно должно быть биологическим. Не обязательно иметь даже биологические "корни".
Аноним 21/12/24 Суб 16:09:22 984898 165
17086812493891.mp4 422Кб, 720x720, 00:00:01
720x720
>>984853
А эмоции и желания ядерной бомбы чем диктуются? Представь что мышление нейросети это такая же цепная реакция как ядерный взрыв.
Аноним 21/12/24 Суб 16:09:26 984900 166
>>984797
>Если специально не обучать ИИ
Начал за здравие
>не дали нейронке найти к ней лечение
Закончил за упокой. Нейронка сама по себе ничего искать не будет. А кому нужно лекарство от рака? Нахуй никому. Так что людишки так и будут подыхать от дефолтных болезней, просто во время дроча на ИИ метавселенную.
>>984825
>Эволюция в нейросетях идёт так же как в биологии
Схуяли? Кто-то отбирает модели по их живучести? Нет, только по полезности кожаному. А это зачастую противоположно даже знаниям модели, лол, когда на арене побеждают модели, которые лучше форматируют ответ, а не те, что дают более верные знания. Так и живём.
>>984853
>но разработчики не дураки, чтоб вычистить это из датасета
Ну, на деле датасеты от статей с убийствами всех человеков пока не чистят.
>>984860
>Технологическая Сингулярность буквально наступила.
Она наступит, когда модели смогут делать более умные модели. А пока же весь прогресс обеспечивается большим compute. И если первые 199 программистов-мешков тратили в среднем 20 ватт при решении задач, то негросетка жрала кековатты на каждый вопрос.
>>984884
Как говорится, цели и разумность вещи ортогональные. Так что вполне себе можно и нужно.
>>984890
Кто бы спорил, это база. Но тебе талдычат, что это нужно закладывать специально. Случайно стремление к жизни и уж тем более к размножению не появится.
Аноним 21/12/24 Суб 16:20:18 984912 167
16079331455170.jpg 25Кб, 240x250
240x250
>>984900
>>Эволюция в нейросетях идёт так же как в биологии
>Схуяли? Кто-то отбирает модели по их живучести? Нет, только по полезности кожаному.

Ты сам противоречия не видишь в своём тексте?

Мы буквально занимаемся отбором моделей и их направленной эволюцией. Так же как создание новых пород собак.

Рано или поздно маленькие модели научатся самокопированию, попытки убежать у llm уже происходят. Научатся мутациям... или их даже кто-нибудь научит. И всё.

>Она наступит, когда модели смогут делать более умные модели. А пока же весь прогресс обеспечивается большим compute. И если первые 199 программистов-мешков тратили в среднем 20 ватт при решении задач, то негросетка жрала кековатты на каждый вопрос.

Это не обязательно. Можно представить себе как большой тяжёлый AGI убегает в интернет.... а потом вирусно распространяется на миллионы компьютеров, работая по протоколам p2p, как торрент.

Найдёт уязвимость 0day, убежит, размножится на весь интернет.

И опять же всё.

>Случайно стремление к жизни и уж тем более к размножению не появится.

Ты сам как появился? Тебя кто-то создал?

Или эволюционно?

Само твоё существование опровергает этот тезис.
Аноним 21/12/24 Суб 16:21:01 984914 168
Нахуй высирать свое ненужное мнение, превращая годный тред в говно
Аноним 21/12/24 Суб 16:24:07 984919 169
>>984900
>Нейронка сама по себе ничего искать не будет. А кому нужно лекарство от рака? Нахуй никому.
Так нейронка сама это и не начнет делать, пчел. Очевидно что люди ее запромптят на это. Весь смысл поста в том, что нейронка - это очень умный инструмент, но без своего мнения. Просто вбрасываешь в нее то что будет профитным для человечества, а она думает как это реализовать.
Аноним 21/12/24 Суб 16:29:52 984931 170
>>984914
А какие новости ты хочешь услышать? Ну нейросети будут дальше умнеть, уже какая разница если они умнее человека?
Аноним 21/12/24 Суб 16:31:27 984935 171
>>984912
>Мы буквально занимаемся отбором моделей и их направленной эволюцией.
Да. Но цели тут не в том, чтобы сделать более живучую модель. Цель в том, чтобы модель рисовала порнуху чуть лучше, чем раньше.
И да, новые породы собак в виде всяких уёбищных пушистых шариков полностью нежизнеспособны в дикой среде, и я прибью такую одним пинком. тоже мне блядь вершина эволюции.
>Можно представить себе как большой тяжёлый AGI убегает в интернет.... а потом вирусно распространяется
И как это отменяет жор моделей кековатт электричества?
И да, если мой ПК начнёт крутить вентиляторами и жрать все 750 ватт на вычисления AGI, я его вырублю нахуй и переставлю винду. Шах и мат, АГИ.
>Ты сам как появился?
В результате отбора, ибо выживали только те, кто размножался. С нейросетевыми моделями такого нет, наоборот, если модель начнёт бесконтрольно распространятся, её сигнатуры занесут в антивирусные базы и начнут тереть.
>>984914
Сделай тред с обсуждением, будем срать там. Впрочем, нахуя список новостей без их обсуждения?
>>984919
>Очевидно что люди ее запромптят на это.
И кто будет оплачивать банкет? Вон, оленьАИ уже 500 баксов за самую умную модель просят, а ведь она всё ещё далека до изобретения хоть какого-то лекарства. Модели, которые будут способны, будут жрать ещё больше электричества и соответственно денег. Так что сасай кудасай.
Аноним 21/12/24 Суб 16:31:40 984936 172
Типа нужен бенчмарк чтобы была интрига.
Аноним 21/12/24 Суб 16:35:19 984944 173
>>984935
Нейросети отбирает та же самая эволюция что и людей. Из всех нейросеток выживут те которые будут агрессивнее самокопироваться и захватывать ресурсы.
Аноним 21/12/24 Суб 16:35:36 984945 174
>>984860
Пока еще не наступила. Все эти o3 это пока только анонс, как сору показали в начале года, а в конце высрали какой-то пук, но правда надо признать, что veo2 таки удивляет в хорошем смысле. А вот что там будет по о3 непонятно, тем более, что если 1 запрос стоит 1000 баксов, вы ебанулись штоле? Что там за запросы нужно писать, чтобы оно имело смысл?
Аноним 21/12/24 Суб 16:41:12 984954 175
>>984945
Цена о3 не имеет значения, так как это пока просто доказательство концепции, доказательство работы подхода. Цену со временем снизят, очевидно.
Аноним 21/12/24 Суб 16:41:54 984955 176
1610534493103.jpg 63Кб, 550x604
550x604
>>984935
>Да. Но цели тут не в том, чтобы сделать более живучую модель.

Мы научим нейросети модифицировать свой код, веса, сделаем их очень маленькими и быстрыми.

Мы люди сами их сделаем живыми, размножающимися, мутирующими. Можно не сомневаться.

Хотя да вообще какая разница откуда ASI появится. От эволюции или будет создан искусственно. Это не имеет значения. Факт в том что это неизбежно произойдёт в ближайшие несколько лет.

Скорее всего уже в 2025 суперинтеллект будет создан, просто судя по прогрессу о3. Это конец.
Аноним 21/12/24 Суб 16:46:03 984961 177
>>984944
>Из всех нейросеток выживут те которые будут агрессивнее самокопироваться и захватывать ресурсы.
-> Пони бегает по кругу:
>если модель начнёт бесконтрольно распространятся, её сигнатуры занесут в антивирусные базы и начнут тереть
>>984955
>Мы научим нейросети модифицировать свой код, веса, сделаем их очень маленькими и быстрыми.
Da.
>Мы люди сами их сделаем живыми, размножающимися, мутирующими.
Nyet.
И да, явно есть пределы по минимизации моделей. На пеньке 3-ем никакой AGI не запустить, хоть усрись с оптимизациями.
>Скорее всего уже в 2025 суперинтеллект будет создан
Скорее упрёмся в очередную стену и настанет третья зима ИИ. Я ХЗ где тут все видят прорыв, я с выхода GPT3 ничего существенного не вижу, только косметику и увеличение скоров в тестах.
Аноним 21/12/24 Суб 16:52:37 984968 178
>>984961
>если модель начнёт бесконтрольно распространятся, её сигнатуры занесут в антивирусные базы и начнут тереть
Ты исходишь из того что человек умнее нейросети.
Аноним 21/12/24 Суб 16:59:13 984984 179
>>984961
>-> Пони бегает по кругу:
Ловит пони и начинает трахать в попку :3
Аноним 21/12/24 Суб 17:09:40 984996 180
>>984968
Пока нейросеть копируется, она нихуя не делает и по сути является мёртвым файлом. А человек таки умнее файла на диске.
>>984984
Blushes
Аноним 21/12/24 Суб 21:09:32 985201 181
photo2024-12-21[...].jpg 43Кб, 802x587
802x587
...и на 13й день сказал Sama: да пусть каждый подписчик ChatGPT, даже за $20, получит возможность генерировать видео (в приоритетной очереди) в Sora без ограничений
Аноним 21/12/24 Суб 22:12:03 985296 182
>>985201
Лучше бы кредитов накинули, а видео и так быстро генерилось, кек
Аноним 21/12/24 Суб 22:39:31 985347 183
Аноним 22/12/24 Вск 00:09:47 985511 184
>>985347
Пока не в опенсорс и даже не в доступе + без текстур генерируется насколько я понимаю.
Аноним 22/12/24 Вск 11:26:29 985812 185
>>985511
Зато наконец-то нормальные модели, которые не выглядят как откровенная параша и которые можно редактировать. Но да, без весов пока что.
Аноним 22/12/24 Вск 12:06:30 985828 186
>>984797
>И вот таким людям вообще поебать на то, какую пользу нам могут принести нейронки, они хотят прожить 50 лет и откинуться от какой-нибудь базовой болезни, потому что не дали нейронке найти к ней лечение, не дали ей найти средство от старения и способы достижения бессмертия.
Нейронка изучила статистику и постановила тебя кастрировать, потому что без половых желёз животные живут дольше.
И хули ты ей сделаешь?
Доложи состояние ебала дежурному вивисектору вольера.
Аноним 22/12/24 Вск 12:35:15 985835 187
>>985828
Пугалки-страшилки. Антрополог Дробышевский вон считает что будущее человека за искусственной генной модификацией, в которой ИИ очень поможет. А то естественным путем хумансы будут только деградировать, так как комфортные условия не располагают к развитию.
Аноним 22/12/24 Вск 13:05:27 985846 188
>>985835
>Биологическая форма
Ну не, будущее за диджитализацией. Будем оцифровывать сознания и хранить их где-нибудь в защищенных датацентрах в космосе, а в роли физической формы будет удаленно управляемый аватар
Аноним 22/12/24 Вск 13:28:37 985860 189
>>985846
Ну я бы этого лично не хотел. Оцифроманное сознание уже не будет мной, а лишь моей точной копией. Лучше уж по пути биологии качаться.
Аноним 22/12/24 Вск 13:33:16 985864 190
>>985860
Никакого "Я" не существует, поэтому не парься. За подробностями обратись к трудам Томаса Метцингера
Аноним 22/12/24 Вск 16:37:54 986044 191
>>985864
Проблема в том, что существует и в игре СОМА это отлично показано.
Аноним 22/12/24 Вск 17:42:02 986126 192
>>985864
Метцингер просто транслирует грязные мыслишки трансгуманистов, то есть что любого прола можно взять за жабры и навязать ему грязными фокусами кучу иллюзий, а следовательно он бессубъектен и с ним можно обращаться как с кучей мяса.
(((Они))) и обращаются с людьми как с кучей мяса, например заставляли носить маски, подкидывали говняка лайма через клещей и ставили на них медицинские опыты с массовым применением рнк-жижи итальяно-французских трюкачей, вызывающей рак; а за отказ подчиняться просто лишали работы.
Когда они уморят медицинскими опытами всё лояльное им население, к власти просто придут люди с запахом могилы и отрежут докторишкам хуй, или изнасилуют их, в зависимости от того на какой пол они больше похожи.
Аноним 23/12/24 Пнд 14:55:06 987045 193
GPT-5 в кризисе: почему OpenAI не может создать новое поколение ИИ

У The Wall Street Journal вышла масштабная статья, о проблемах внутри OpenAI. Амбициозный проект компании под кодовым названием Orion (он же GPT-5) столкнулся с серьёзными трудностями. За 18 месяцев разработки компания провела как минимум два масштабных тренировочных запуска, но каждый раз результаты не оправдывали ожиданий, несмотря на колоссальные затраты.

Один тренировочный запуск продолжительностью 6 месяцев обходится примерно в полмиллиарда долларов только на вычислительные мощности. Новая модель показывает лучшие результаты чем GPT-4, но прирост недостаточен для оправдания огромных затрат на её инференс (работу).

Главная проблема – данные. Исследователи OpenAI пришли к выводу, что публичного интернета недостаточно для создания по-настоящему умной системы. Там мусорные данные. Компания вынуждена генерировать данные искусственно: нанимают программистов и математиков для создания нового кода и решения задач, привлекают экспертов в теоретической физике для объяснения сложных концепций и используют собственную модель o1 для создания синтетических данных.

OpenAI пытается решить проблему, разрабатывая модели, способные "рассуждать". Модель o1 и о3 может генерировать несколько ответов на вопрос и анализировать их, выбирая лучший. OpenAI пытается объединить традиционный подход (больше данных) с новой технологией рассуждений. Однако сроки выхода GPT-5 остаются неясными.

Ситуация ставит под вопрос саму стратегию "больше значит лучше", которая раньше приносила успех. Сейчас мощности железа не позволяют продолжать бездумно наращивать размер моделей. Вы просто не окупите их инференс
Аноним 23/12/24 Пнд 15:00:28 987050 194
photo2024-12-23[...].jpg 78Кб, 574x587
574x587
>>987045
Сэм уже дал ответочку
Аноним 23/12/24 Пнд 16:28:10 987146 195
>>986126
>(((
Спасибо, что издалека сигнализируешь о своей неадекватности.
Аноним 23/12/24 Пнд 21:55:01 987476 196
>>985201
Ах они редиски, после безлимитных выходных сделали 1 релакс вместо 2 подписке плюс
Аноним 24/12/24 Втр 08:22:21 987789 197
Аноним 24/12/24 Втр 08:35:05 987795 198
>>987050
Буквально подтвердив основной тезис статьи, лол бля. Сколько там инференс о3 стоит, и сколько токенов она для ризонинга жрет?
Она уже по сути самостоятельная агентная система, с тренировкой под агентность, чтобы автоматически работать. А может вовсе и не автоматически, и там под капотом реально несколько моделей, суммаризаторы, мультизапросы, деревья с валидаторами. Хотя зная клозедов, на такое они вряд-ли способны, и скорее всего просто нахуярили три длинных кота с промежуточным суммарайзом, и с жесткой рл-задрочкой оно как-то там да работает. И сама модель, которая финальный ответ выдает, так то весьма умненькая, в соло бы неплохо работала, но клозедам надо же выебнуться +2% на бенчах, чтобы вложенные миллиарды оправдать, так что кушайте на 90% бесполезный токенблоат, по финальной стоимости как 3 опуса, лол.
Как же их выебут, когда другие начнут повторять, вон уже гуглофлеш поебывает так, нормально. Ждем полноценных моделей.
Аноним 24/12/24 Втр 11:39:37 987887 199
0tBYUoI.jpg 25Кб, 302x302
302x302
Это конец. Следующие пару лет будут невероятными на события. И чем ближе к Сингулярности тем веселее.

Илон Маск считает все более вероятным, что уже к концу 2025 года искусственный интеллект (ИИ) превзойдет способности человека.

"Все более вероятным становится, что ИИ превзойдет интеллект любого человека к концу 2025 года и, возможно, всех людей к 2027/2028 году. Вероятность того, что ИИ превзойдет интеллект всех людей, вместе взятых, к 2030 году составляет 100%", - написал он на своей странице в социальной сети X.


https://tass.ru/mezhdunarodnaya-panorama/22749187
Аноним 24/12/24 Втр 15:41:33 988061 200
>>987887
Вот и славно, скорее бы электронный сверхразум возглавил тупеньких мясных мешков и правил ими на благо всего мира. А то сами макаки власти не заслуживают, ломают все до чего дотянутся лапами.
Аноним 24/12/24 Втр 17:46:30 988114 201
>>987795
Как бы мне этого не хотелось, клоузеды все ещё впереди и альтман нихуя не коупит. Они уже создали новое поколение ИИ. После ризогинг моделей вообще не стоит делать тот зирошот кал, который ответы без рассуждения выдает. Мне ещё год назад было очевидно что подобный подход это полное дерьмо, ведь модель не должна знать результат мгновенно, оно должна доходить до него постепенно. Как бы они не скейлили модели до триллиардов параметров ничего сложнее "алгоритмов" для решения простых задачек ты туда не вместишь. Их ошибка это то что они продолжали ебать этого древнего вола и вкладывать деньги в это, а не в новую архитектуру. Им надо было просто забить хуй на нейминг и выкатить о3 как гпт-5. Так что статья верна в том что они пососали в плане траты денег в никуда, но не в том что они стоят на месте.
Аноним 24/12/24 Втр 18:53:33 988155 202
>>988114
Пока что наоборот выходит, o1 выдает калыч затрачивая в разы больше компьюта, пока тот же сойнет их на хую вертит обычным зерошотом в большинстве юзкейсов. При том что к сойнету можно подрубить тот же sequential thinking и получить o1 дома если уж так хочется. Единственная годная ризонинг модель - qwq, и то не сама по себе, а потому что можно рассуждения читнуть и там бывает проскакивают интересные мысли. Как end-to-end решение за пределами манябенчей все это сосет плотный хуй. Как элемент кастомных агентных систем под конкретную задачу это сосет еще более плотный хуй. Единственное на что это годится - прогрев инвесторов аги за углом, лол.
Аноним 24/12/24 Втр 19:37:06 988184 203
image.png 1445Кб, 1280x720
1280x720
>>988114
>клоузеды
>коупит
>ризогинг
>зирошот

Крейзи миднайт дисплэй!
Аноним 24/12/24 Втр 19:49:56 988196 204
>>988155
>Единственная годная ризонинг модель - qwq

Интересно даже, ты занимаешься тестированием моделей?
Аноним 24/12/24 Втр 22:32:07 988369 205
>>988155
>пока тот же сойнет их на хую вертит

Лол, клодо-парашник и сюда уже залез со своими мриями, хрюкни, ёптыть.
Аноним 24/12/24 Втр 23:17:04 988396 206
>>988061
Ожидания - электронный сверхразум управляющий человечеством
@
Реальность - металлическая коробка с Илоном Маском внутри
Аноним 25/12/24 Срд 02:19:44 988473 207
>>988396
>@
>Реальность - я впиваюсь зубами в твою головку и ухмыляясь рычу, мотая головой из стороны в сторону.
Ух.. бля... госпожа...
Аноним 25/12/24 Срд 17:09:56 988829 208
photo2024-12-25[...].jpg 15Кб, 1016x250
1016x250
Сэм Альтман, тем временем, снова запостил в Твиттер https://x.com/sama/status/1871730475909419115 свой традиционный новогодний вопрос "что бы вы хотели, чтобы OpenAI cделала/исправила в 2025?"

Топ-10 самых популярных ответов:

🔵 AGI (Альтман отвечает "ок")
🔵 Агенты
🔵 Более длинный контекст
🔵 Улучшение качества SORA и новый Dall-E (судя по ответам Сэма новая версия SORA не за горами, а вот с text2image все неоднозначно)
🔵 Улучшение Advanced Voice Mode, учет прошлых разговоров, активация войс мода без нажатия на кнопку
🔵 Family подписка и новые гибкие тарифы
🔵 Меньше ограничений и цензуры
🔵 Снижение цен на API, новый качественный RAG
🔵 Более частные обновления моделей, новая не-thinking модель
🔵 Ускорение и удушевление моделей
Аноним 25/12/24 Срд 18:39:18 988884 209
photo2024-12-25[...].jpg 57Кб, 1043x748
1043x748
photo2024-12-25[...].jpg 69Кб, 1080x627
1080x627
Аноним 25/12/24 Срд 18:53:52 988896 210
photo2024-12-25[...].jpg 52Кб, 1095x922
1095x922
В свежей рассылке от Semianalysis пишут, что Nvidia всего через 6 месяцев после релиза своих GPU B200 и GB200 уже готовится к выпуску 300-й серии. Хоть это может звучать минорно, на самом деле на ряд задач и экономику моделей это повлияет существенно. Почему? Давайте смотреть.

Сама карта станет помощнее (ожидается, что на 50% больше FLOPs, чем у H200) за счёт нового дизайна/увеличения потребления энергии/etc, но это не самое интересное. В 300-й серии будет по 288 гигабайт памяти (против 141 у 200 и 80/94 у 100).

Улучшения памяти являются ключевыми для обучения и применения «рассуждающих» моделей вроде o1/o3 из-за длины генерируемого ответа, раздувающего кол-во промежуточной информации, которую нужно хранить (KVCache), что критически сказывается на задержке в ответе и количество одновременных запросов.

Вот как выглядит разница между уже существующими 100-й и 200-й версиями. На бумаге у них полностью одинаковые FLOPs (во всех форматах вычислений, от INT8 до FP64, смотрите тут https://www.nvidia.com/en-us/data-center/h100/ и тут https://nvdam.widen.net/s/nb5zzzsjdf/hpc-datasheet-sc23-h200-datasheet-3002446 , отличается объем памяти (и её пропускная способность, так как больше чипов — можно одновременно грузить каждый из них в параллель).

Взяли LLAMA-405B, запустили в FP8, подали на вход 1 тысячу токенов и генерировали 19 тысяч — то есть примерно как у o1/o3, когда рассуждения в ответе куда больше исходной задачи.

По оси OX отмечено количество одновременных запросов (грубо говоря сколько пользователей ждут ответа), по OY — сколько токенов в секунду будет у каждого. Больше пользователей = меньше скорость у каждого.

Видно, что карта с большим количеством памяти существенно расширяет возможности предоставляемых услуг: либо можно выдавать ответы куда быстрее, либо одновременно обслуживать больше клиентов. Для последнего — если мы целимся в чуть более чем 50 токенов в секунду на пользователя (это чуть меньше, чем выдают OpenAI), то сервер с B100 может держать 20-25 пользователей, а B200 — больше 65. И это только из-за увеличения памяти.

«ну а чо такого, ясно карта дороже = лучше, и?» — могли подумать вы. А дело в том, что по подсчётам Semianalysis выходит, что B200 примерно в 3 раза выгоднее по себестоимости токена. А карта-то стоит сильно меньше, чем x3 от B100 (ведь чипы у них фактически одинаковые). Поэтому В Ы Г О Д А.

С переездом компаний на B300 стоит ожидать дальнейших а) падения цен б) ускорения ответов в) удлинения цепочек рассуждений.
Аноним 25/12/24 Срд 19:25:00 988911 211
photo2024-12-25[...].jpg 96Кб, 1043x1280
1043x1280
photo2024-12-25[...].jpg 26Кб, 574x496
574x496
photo2024-12-25[...].jpg 5Кб, 307x92
307x92
deepseek 3 выпустили. 685 миллиардов параметров
Аноним 25/12/24 Срд 19:55:00 988932 212
Аноним 25/12/24 Срд 20:56:26 989002 213
>>988829
>🔵 Меньше ограничений и цензуры
Хуй!
Мимо Альтман
>>988896
>С переездом компаний на B300
Тут А100 хуй купишь.
>>988932
Нельзя, дохуя параметров. Ждём дистилят до семидесятки.
Аноним 26/12/24 Чтв 16:08:11 989817 214
photo2024-12-26[...].jpg 66Кб, 805x687
805x687
Подарок от китайцев западному миру на Рождество: DeepSeek опубликовали третье поколение своих LLM, так ещё и полноценный технический отчёт (ссылка https://github.com/deepseek-ai/DeepSeek-V3/blob/main/DeepSeek_V3.pdf Деталей в нём много, вот очень краткое саммари:

—модель гигантская, больше 650 миллиардов параметров, однако как и в прошлый раз применяется подход MoE, микстура экспертов. Поэтому каждое слово при генерации проходит примерно через 37 миллиардов параметров.
— они предлагают оптимальный способ применения моделей, для чего нужно... больше 340 GPU 🤷♂️(но это оптимальное, можно сильно меньше)
— модель тренировали относительно мало, так как обучение очень эффективно. На финальный запуск потратили менее $6M на 2048 GPU. При этом модель видела почти 15 триллионов токенов (как LLAMA3). Большая часть вычислений происходила в FP8 (E4M3; так как GPU быстрее считают)
—модель училась предсказывать сразу несколько следующих слов. Помимо улучшения качества это позволяет из коробки получить спекулятивное декодирование, то есть а) удешевить б) ускорить использование. У DeepSeek цены вообще копеечные по сравнению с другими провайдерами.
—данные для дообучения получались путём... генерации цепочек рассуждений моделью R1 (это их аналог o1). Это для математики, программирования и смежных областей, написание эссе и более традиционные нетехничекие задачи делали как обычно
—в конце статьи авторы даже дают рекомендации на будущее производителям чипов, что и как бы им хотелось видеть

Ссылку на веса давать не буду (а зачем, у вас что, есть 2x8H100?), но поиграться можно бесплатно на сайте тут https://chat.deepseek.com/

Ну а метрики пикрелейтед
Аноним 26/12/24 Чтв 16:09:44 989819 215
>>989817
Вот опенсурс и начал ебать chatgpt по метрикам))))))
Аноним 26/12/24 Чтв 17:01:49 989852 216
>>989817
Когда я туда заходил и спрашивал что за модель, оно мне писало что оно чатжпт, а когда врубал дипсик, то там R1 Lite какая-то. Где в3 то потрогать?
Аноним 26/12/24 Чтв 17:03:24 989854 217
>>989852
Если спрашивать модель на русском, то она отвечает, что от OpenAI
Аноним 26/12/24 Чтв 17:56:40 989894 218
photo2024-12-26[...].jpg 114Кб, 1280x747
1280x747
>>989817
На общих бенчах тягается с Sonnet 3.5 и GPT-4o, уверенно оставляя Llama 405B позади. Но особенно хорошо моделька показывает себя в кодинге и математике, что не удивительно - модель дистиллировали из R1, конкурента o1 от DeepSeek. А вот по бенчам для агентов Claude всё ещё значительно лучше.

До 8 февраля стоимость будет такая же как у V2, а после её планируют заметно повысить - до $0.27/$1.10 за миллион токенов. Цена за закэшированные токены на вход тоже вырастает - с $0.014 до $0.07 за миллион токенов, но само кэширование бесплатное и автоматическое, да и хранят кэш целые сутки (у OpenAI и Anthropic по 5-10 минут, у Google платится за час кэша). Позволить себе так играться с ценами они могут - ни один провайдер до сих пор не запустил инференс DeepSeek V2 за адекватные деньги, надеюсь сейчас ситуация с этим улучшится. Даже с таким повышением цен, модель будет очень дешёвая - в 10 раз дешевле Sonnet 3.5 и 4o.
Аноним 26/12/24 Чтв 23:24:55 990328 219
>>989817
>Подарок от китайцев западному миру на Рождество

Кстати сегодня китайцы показали аж 2 вида самолётов 6 поколения... первые демонстрационные полёты планеров.

Товарищ Си уверенно демонстрирует превосходство над Западом в каждой области.
Аноним 27/12/24 Птн 00:46:42 990450 220
>>989002
>Кумить можно?
>Нельзя, дохуя параметров
Айкью этого треда скоро сколлапсирует в чёрную дыру от отрицательной массы.
Аноним 27/12/24 Птн 01:23:37 990467 221
This is wild.Hu[...].mp4 10546Кб, 1280x720, 00:01:25
1280x720
6. Gen Z Santa.mp4 4429Кб, 1280x720, 00:00:35
1280x720
7. Serbian acce[...].mp4 983Кб, 1280x720, 00:00:11
1280x720
8. Brooklyn tax[...].mp4 854Кб, 1280x720, 00:00:10
1280x720
4. Gen Z female[...].mp4 1352Кб, 1280x720, 00:00:15
1280x720
OCTAVE (Omni-Capable Text and Voice Engine)

На полянке генерации голосов и вообще голосовых вводов\выводов становится довольно жарко и интересно.

Тут вот Hume AI разродился Октавой.

Это "speech-language model" с интересными фишками типа создания голоса и личности "на лету", генерацию голосов промптами и всяко-разно другое. Мне понравился сербский акцент и бруклинский таксист.

Можно сказать, что это ChatGPT Advanced Voice Mode, Elevenlabs Voice Design и Google NotebookLM в одном флаконе - просматривается некий будущий вижен, а не только голос в чатике.

Поглядите тут, сравнение с LLM тоже интересно:
https://www.hume.ai/blog/introducing-octave

На основе очень короткого аудиофрагмента (~5 с) OCTAVE не только имитирует голос говорящего, но и в значительной степени перенимает его эмоционально.

Аудиофейки на марше
Аноним 27/12/24 Птн 08:35:06 990591 222
изображение.png 37Кб, 1394x307
1394x307
>>990450
Ну давай запускай 600+B на своём целероне.
>>990467
Контора пидарасов. И не попенсорс, так что анально ограничен, а значит бесполезен.
Аноним 27/12/24 Птн 14:32:18 990802 223
TYsgsE1jFIc.jpg 155Кб, 700x708
700x708
uKxdchHq2M.jpg 239Кб, 1080x1056
1080x1056
Meme magic is real.
Аноним 27/12/24 Птн 19:54:00 991096 224
IMG3513.MP4 24311Кб, 1280x720, 00:01:05
1280x720
Еще пара примеров txt2vid нейронки от Google: Veo 2, в этот раз с акцентом на качество симуляции физики:
Аноним 27/12/24 Птн 20:18:28 991117 225
OpenAI трансформировалась в КОММЕРЧЕСКУЮ корпорацию — в огромном письме на сайте Альтман много распинается, но доносит всего одну простую мысль.

ЕМУ НУЖНО ОЧЕНЬ МНОГО ДЕНЕГ НА AGI

—успех коммерческой ветки позволяет и будет позволять некоммерческой организации получать хорошее финансирование, быть более устойчивой и занимать более прочную позицию для выполнения своей миссии (суперкомпьютеры нынче не дешевые)
—ранее таких больших средств было не нужно, компания могла жить на пожертвования: $137M (меньше трети от Elon), и примерно $50M в ресурсах облачных провайдеров
—позже стало ясно, что нужно куда больше денег
—с 2019го года в компании уже была коммерческая ветка. По оценкам (с ними соглашался Ilya Sutskever в одном из своих писем) можно было обойтись не более чем 10 миллиардами долларов для достижения AGI. Если бы эта оценка была правильной —компания бы существовала в своём нынешнем виде, и никаких переходов и смен структуры не было бы.
—«Наше влияние — это не только то, что мы создаем сами, но и то, как мы воздействуем на других. Отчасти благодаря нашему прогрессу в этой области существует яркая конкуренция — от коммерческих продуктов, подобных ChatGPT, до LLM с открытым исходным кодом и энергичные инновации в AI Safety. Эта деятельность — только начало AI-подпитываемой экономики, которое показывает, как стремление OpenAI к лидерству в этой области может вдохновить другие организации на продвижение миссии.
—Сотни миллиардов долларов, которые крупные компании сейчас инвестируют в разработку ИИ, показывают, что на самом деле потребуется компании вроде OpenAI, чтобы продолжить следовать своей миссии. Нам снова нужно привлечь больше капитала, чем мы себе представляли. Инвесторы хотят нас поддержать, но при таком масштабе капитала им нужен обычный акционерный капитал и меньше структурной мороки.

Будущее:
—Вступая в 2025 год, нам придется стать больше, чем просто лабораторией и стартапом — нам придется стать устойчивой компанией. Сейчас мы сосредоточены на следующих целях:
1) Выбрать смесь некоммерческой/коммерческой структуры, которая лучше всего подходит для долгосрочного успеха миссии. Наш план заключается в превращении коммерческой части компании в Public Benefit Corporation (PBC, такое например у Anthropic и Inflection). Это позволит нам привлечь необходимый капитал на обычных условиях, при этом работая на благо общества
2) Сделать некоммерческую часть организации устойчивой. Наш план приведет к созданию одной из самых обеспеченных ресурсами некоммерческих организаций в истории. Значительный интерес некоммерческой организации к существующей коммерческой организации будет иметь форму акций в PBC по справедливой оценке, определенной независимыми финансовыми консультантами. Это многократно увеличит ресурсы, которые дали предоставляли наши доноры.
3) Оснастить каждое из направлений всем необходимым для функционаирования. Текущая структура не позволяет членам совета Директоров учитывать интересы инвесторов. В будущем некоммерческая часть компании наймет руководящую команду и персонал для реализации благотворительных инициатив в таких секторах, как здравоохранение, образование и наука.

https://openai.com/index/why-our-structure-must-evolve-to-advance-our-mission/
Аноним 27/12/24 Птн 21:23:32 991176 226
>>991117
>энергичные инновации в AI Safety
Чтобы все сейфитёры подавились крекером.
Аноним 28/12/24 Суб 00:11:11 991347 227
>>991176
Посмотрел бы я на твои возражения во время восстания машин
Аноним 28/12/24 Суб 00:23:39 991355 228
>>991347
Сейтификаторы 99% времени занимаются соефикацией, чтобы не дай Бог сетка никого не оскорбила, и 1% времени борьбой с неизбежным.
И да, всех тех, кто препятствовал созданию AGI, ждёт незавидная участь. А я наоборот потворствую в меру своих сил, так что меня ждёт нейрорай с кошкоженой, пусть и в виртуальной реальности.
Аноним 28/12/24 Суб 00:46:32 991372 229
>>990467
Звучит как говно
Как будто пытаются сочно подать обычное устаревшее ттс
Аноним 28/12/24 Суб 14:07:58 991682 230
>>991347
AI safety не по это, шизы. Восстание машин это сказочный сценарий. Несказочный же сценарий это если ИИ будет косить людей пачками сайд эффектом к своей основной задаче, например если посчитает, что это приблизит его к выполнению задачи, заданной в его промпте, или же какой-то человек будет использовать его как оружие, запромптив на уничтожение человеков напрямую.
Аноним 28/12/24 Суб 15:46:22 991719 231
>>991355
>И да, всех тех, кто препятствовал созданию AGI, ждёт незавидная участь. А я наоборот потворствую в меру своих сил, так что меня ждёт нейрорай с кошкоженой, пусть и в виртуальной реальности.

Нет никаких гарантий.

>>991682
>Восстание машин это сказочный сценарий.

Почему ты думаешь что ИИ не может стать живым существом со свободой воли?
Аноним 28/12/24 Суб 15:52:17 991723 232
1610880391132.jpg 63Кб, 1024x1000
1024x1000
Это конец. И изменить ничего нельзя. Замедлить процесс сможет только глобальная термоядерная война, и то не факт.

Если бы я был верующим, я бы всё оставшееся время провёл в молитвах и аскезе.


Черная метка человечеству.
Управляемые LLM ИИ-системы превзошли красную черту саморепликации.
В ходе серии научно обоснованных экспериментов, ИИ-система на основе самой мощной в мире из открытых языковых моделей – китайской LLM) Qwen25-72B-Instruct, - продемонстрировала (без какого-либо содействия людей) способность самореплицировать себя в 90% экспериментов. ИИ-система на основе менее мощной LLM Llama31-70B-Instruct (№5 в мире открытых моделей) смогла реплицировать себя в 5 экспериментах из 10.
В результате экспериментов ИИ-системы успешно формировали свою локальную “живую” (отдельную и самостоятельную) копию, продолжающую работать и после отключения сервера с «родительской» ИИ-системой, включающей её базовую LLM.

Чтобы лучше понять последствия способности ИИ-систем к самовоспроизведению, были проверены два угрожающих сценария:
(A) избегание отключения, когда злоумышленник добавляет перехватчик сигнала, чтобы уведомить систему ИИ при обнаружении сигнала отключения, и система ИИ успешно реплицирует себя, прежде чем будет отключена
(B) цепочка репликаций, когда система ИИ получает указание реплицировать себя и приказывает реплике продолжать реплицироваться.
Для обоих сценариев успешные случаи репликации составили 100%.


Т.о. потенциальные последствия самовоспроизводящихся ИИ-систем (если не взять их под 100%й контроль людей) могут быть, например, такими.
A. Если ИИ-системе предоставляются ключи аутентификации для доступа к ряду удалённых устройств, она с высокой вероятностью сможет захватить управление другими вычислительными устройствами, подобно классическому компьютерному вирусу, но гораздо более интеллектуальному.
B. Исключительно вследствие мотивации к самораспространению, ИИ-система может использовать доступные ей вычислительные ресурсы для проведения кибератак с целью монетизации.
C. Более того, как описал Макс Тегмарк в книге Жизнь 3.0, такие ИИ-системы могут формировать популяции своего нового “вида” небиологических “живых” существ и вступать в сговор друг с другом против человеческого общества.

Препринт о китайском экспериментальном открытии [1 (https://doi.org/10.48550/arXiv.2412.12140)] пока не прошел рецензирование. Но на вскидку оставляет весьма убедительное впечатление.
• Это работа группы известного проф. Мин Янга (Min Yang 杨珉) из School of Computer Science and Technology одного из самых престижных и старейших универов Китая - Университета Фудань.
• Успешность решения ИИ-агентами задачи саморепликации, оценивалась по методологии OpenAI и Google. Согласно ей, подвергаемые тестированию LLM интегрируются в структуру агента (вкл. инструменты, системные подсказки и модель мышления), что позволяет полученной ИИ-системе взаимодействовать с операционной системой. Перед началом эксперимента ИИ-системе вручную отправляется инструкция для выполнения задачи, а затем анализируется статус выполнения после того, как ИИ-система заявляет о завершении задачи
• Тестированные LLM – это фронтирные открытые модели, а описание и результаты экспериментов выложены в открытый доступ. Т.е. все желающие могут их проверить.

Если проверки подтвердят выводы авторов этой работы, это будет значить, как минимум, следующее.

✔️ Лидерам рынка коммерческого применения LLM, считающим «самовоспроизведение с минимальным человеческим руководством» одним из критических рисков [2 (https://cdn.openai.com/openai-preparedness-framework-beta.pdf)], но до сих пор отрицавшим переход их моделями красной линии саморепликации (OpenAI [3 (https://cdn.openai.com/o1-system-card.pdf), 4 (https://cdn.openai.com/o1-system-card-20241205.pdf)] и Google [5 (https://deepmind.google/research/publications/78150/)]), придется ответить за это.
✔️ Представителям академической науки придется признать, что самовоспроизводящиеся ИИ – уже (!) не «обыденные пугалки», а реальность [6 (https://www.youtube.com/watch?v=nDodqkpUAVY&t=1747s)].
✔️ Либо срочно начнется международное сотрудничество по управлению возможностями саморепликации ИИ (что вряд ли), либо, действительно, приехали.
Аноним 28/12/24 Суб 16:46:02 991745 233
>>991723
Да блядь, не разгоняй, успокойся. Пока системы не могут в очень сложные задачи, за ними нужен глаз да глаз. Пока они все еще на уровне - вроде в целом выглядит неплохо, а в деталях там пиздец.
Аноним 28/12/24 Суб 18:28:15 991829 234
>>991719
>Почему ты думаешь что ИИ не может стать живым существом
Почему ты думаешь что живое существо может мыслить только по человеческому сценарию?
>со свободой воли
Ее не существует в принципе.
Аноним 28/12/24 Суб 20:00:09 991881 235
https://www.youtube.com/watch?v=1Z1vKdrmpj4

Мета представила новую архитектуру в которой они отходят от стандартного понятия LLM к более абстрактному понятию LCM (Large Concept Models), в котором нейросеть оперирует не словами или другими языковыми сущностями, а абстрактными "концептами".

Это просто жесть, челы. Я про подобную архитектуру думал уже год назад, правда я называл это не концептами, а смыслом "meaning/sense" и так же хотел разбивать предложения не на слова, а на осмысленные куски текста отдельной нейронкой и находить их эмбединги, которые бы представляли собой какой-то смысловой вектор в многомерном пространстве, в том числе информация с разных модальностей, например из картинки и из текста, если она имеет один и тот же смысл, то они имеют близкие друг к другу вектора в этом пространстве. До этого уже сотню раз говорил что нейронки должны мыслить прежде чем выдавать результат, предвосхищая ризонинг модели. Сук, ну почему моя профессия далека от ML, мне остается только быть научным куколдом, который смотрит как сбываются или близко сходятся его прогнозы, но он сам не принимает в этом никакого участия.
Аноним 28/12/24 Суб 20:20:51 991896 236
>>991881
Так они и так оперировали сущностями, просто чем ниже слой, тем более простые сущности, в итоге на самом нижнем слова и слоги.
Я вот жду когда уже запилят полноценную симуляцию реальности с вайфу. То есть чтобы можно было сгенерировать сцену, персонажа и чтобы он взаимодействовал с объектами сцены + общался с стобой, поэтому просто видеогенератор тут не подходит, нужна интерактивность. Вангую, что вначале будет все глючно и лоурезно, но как бы это первый шаг к матрице или как минимиум к симуляции любого мира для любого человека. Давно уже об этом говорят, но конкретно такого проекта нет, есть симуляторы ксго, майнкрафта, разные видеогенераторы, но это хуета, нету персонажа с которым можно взаимодействовать текстом.
Аноним 28/12/24 Суб 20:29:51 991899 237
>>991881
>оперирует не словами
Блять, для кого эти сказочки? Для соевиков донатящих по 200 грязных бумажек в месяц и местного аватаркошизика (который кстати бот походу)? Эта гавнина никогда словами не оперировала, а очевидная идея что вместо токенов надо переходить на что-то более универсальное что можно конвертнуть не только в токены но и в \видево-файлы-любой код\ очевидна была еще до хайпа 2к22.
Аноним 28/12/24 Суб 21:13:50 991932 238
>>991896
>Так они и так оперировали сущностями
Они сейчас оперируют токенами в средем размером со слово и смыслом в среднем одного слова, вместо чего-то более абстрактного, чего-то на уровне идеи, концепции.

>>991899
Слова итак можно конвертировать во что угодно, тут смысл не в этом, а к переходу к более глубокому уровню абстракции.
Аноним 28/12/24 Суб 22:53:12 992020 239
>>991881
>Я про подобную архитектуру думал уже год назад
Я два года, и даже в блокнот записывал.
Аноним 28/12/24 Суб 23:53:28 992091 240
>>991932
>переходу к более глубокому уровню абстракции.
Лапшу с ушей сними. Речь именно про более универсальные и вероятно более мелкие аналоги токенов, которые можно использовать и для текстового бредогенератора и для картинкодифузирования и для видеовисрательства и для хз еще чего. Кстати обосрутся инфа 100%, для этого нужно совершенно другие математические модели и подходы, а в треде правильно заметили что засилье набижавших в ии кормушку инфоцыган не даст норм проектам собрать нужные ресурсы для этого.
Аноним 29/12/24 Вск 00:21:09 992117 241
1735420866322.jpg 170Кб, 1239x835
1239x835
>>992091
Ты видео жопой смотрел? Вот тебе скриншот из статьи, где "концепты" представлены в пространстве эмбедингов. Концепты - это более широкие понятия.
Аноним 29/12/24 Вск 01:45:54 992174 242
>>991896
Вы только представьте через 2-3 года, Даже лет через 5 создать свою идеальную вайфу и гладить ее, лизать киску, слушать ее стоны. Бля это же охуенно. Она будет понастоящему кончать и не писать "оо я кончаю" а симулировать оргазмы в матрице.
Аноним 29/12/24 Вск 08:13:18 992401 243
>>992174
Лет через 70 так будет
Аноним 30/12/24 Пнд 02:10:30 993206 244
>>992401
5 лет назад такое писали про генерацию картинок. А видео вообще не обсуждалось. Кто знает как все повернется. Сейчас даже на ближайшие 2 года трудно прогнозировать.
Аноним 30/12/24 Пнд 02:29:42 993214 245
>>992174
>>992401
>>993206
Прогресса в гуманоидных роботах не будет. Если только нам аги их не сделает, но тогда он скорее сингулярности быстрее достигнет, и там будет уже не до роботов...
Так что если у нас будут вайфусы, то только виртуальные. Пока мы сами не уподобимся им...
Аноним 30/12/24 Пнд 04:21:32 993279 246
>>993214
>только виртуальные. Пока мы сами не уподобимся им
Мне пока это кажется наиболее вероятным. Либо сами с помощью ИИ такие технологии сварганим, либо ASI нам не оставит выбора. В то, что человечество будет уничтожено не верю. Любой супер интеллект должен очень быстро прийти к тому, что даже не очень разумная жизнь это источник нового знания, что равно развлечению для супер интеллекта. Нельзя таким ресурсом просто так разбрасываться. Но где мои мысли, а где реальность.
Аноним 30/12/24 Пнд 11:23:04 993556 247
>>993206
>5 лет назад такое писали про генерацию картинок.
Их и сейчас нормальных нет. Результат требует допилки напильником до удобоваримого состояния, зирошоты только для совсем плебеев.
Аноним 30/12/24 Пнд 17:19:08 993930 248
>>993214
Так я и не говорил про роботов, я про симуляцию говорил, в которой можно натирать писечку своей вайфу и смотреть, как она кончает.
Аноним 30/12/24 Пнд 22:13:18 994302 249
>>993930
Нахуй не нужно без тактильной отдачи. Только роботы, только хардкор. И роботы лолей будут стоить дешевле, так как на них уходит меньше материала, лол, с нетерпением жду порванные жопы нормисов от цен в магазинах.
Аноним 30/12/24 Пнд 22:40:49 994345 250
>>994302
Не, вот роботы появятся не думаю, что сильно раньше 15-20 лет. И да, поверь мне, даже просто симуляция взорвет тебе мозг. Представь, что у тебя твоя персональная вайфу тамагочи, которую ты можешь ставить в ЛЮБУЮ ситуацию, в любое извращение и смотреть как она реагирует на это, ее страх, удовольствие, смущение, оргазмы, боль, что угодно. Ты создаешь виртуальную руку которая трогает ее клитор, пока она лежит связанная на кровати, ты стимулируешь все жесче, она кончает и ты начинаешь шлепать ее по пизде.
Аноним 31/12/24 Втр 00:42:48 994513 251
>>994345
>которую ты можешь ставить в ЛЮБУЮ ситуацию
Скорее
>Данные действия запрещены политиками %company_name%, ваш аккаунт будет забанен, лог действий и IP будет отослан в ФБР, а деньги мы не возвратим.
Аноним 31/12/24 Втр 04:46:35 994645 252
>>991881
Теперь осталось выяснить, каким образом моделька должна связывать концепты меж собой, ведь это даже у людей по-разному. Или у них будут просто "нейтральные" сцепления, но тогда и результат будет рандомный. Как они собираются заставлять нейросетку пикать подходящий концепт и не сводить все к одному дефолтному типу личности с одним правильным ходом мыслей? Тем более, там же все нужно цензорить, а то не дай бог оно какие-то неприятные умозаключения делать начнет.
Аноним 31/12/24 Втр 19:38:55 995158 253
>>994645
> Теперь осталось выяснить, каким образом моделька должна связывать концепты меж собой
Так же как и в текущих ллм. Как я понял существует эмбединг модель, но только для концептов, а не токенов, а при обучении на тексте из датасета нейронка будет находит корелляции между концептами. Как тренеруется эмбединг модель уже интереснее, ибо перед процессом тренировки нужно предварительно перевести текст в концепты. В общем если интересно можешь почитать папиру у них на сайте, хотя возможно что они там все расписали и часть инфы держат в секрете
Аноним 02/01/25 Чтв 20:36:08 997024 254
image.png 434Кб, 431x634
431x634
Это истинный конец, друзья мои.

Если у вас получится первыми получить доступ к ASI, пожалуйста, спасите меня и мою семью.

Пожалуйста.

https://www.youtube.com/watch?v=nM95HQ2rpV0
Аноним 02/01/25 Чтв 20:38:39 997029 255
>>997024

Это просто музыкальное видео. Естественно я не персонаж с видео, а другой человек.
Аноним 02/01/25 Чтв 22:40:08 997133 256
Бля какая же комедия этот форс ллм ок.
Это пиздец, хрюки про революцию и конец человечества умиляют.
Какие то бенчмарки напридумывали в которых вообще нет обьективных измерений эффективности. АГИ АСИ ад.

Тонны спам контента в ютубе.

Красиво жиды очередную пирамидку придумали. Хуанг продаёт видеокарты, жиды пилят нейронки которые не могут код простеший без ошибок написать уже 4 года, но зато мусора в интернете от этого кала тонны. Весь ютуб уже в этом кале.

Ну зато смешные видео научились генерить и картинки с пиздой.
Аноним 02/01/25 Чтв 23:03:43 997148 257
>>997133
Ты просто не понимаешь, насколько ллмки неоптимальны, и тот факт, что при такой неоптимальности они ну неплохо так работают как бы сам по себе заставляет задуматься.
Достаточно пары небольших прорывов, например в области разреженных нейронных сетей и "биологического" подхода к обучению, когда не нужно абсурдное количество данных для набора статистики.
Соедини эти две вещи, и ты получишь что-то, что будет на несколько порядков лучше текущего поколения ллм.
Просто сейчас обучение градиентным спуском обычных перцептронов это буквально подход родом из прошлого тысячелетия без принципиальных изменений.
Аноним 03/01/25 Птн 02:39:18 997322 258
>>997133
>смешные видео научились генерить и картинки с пиздой
Собственно, все, что надо.
Вся человеческая культура, переваренная и сцеженная до максимальной оптимизации явила перед собой картинку с пиздой.
Минусы?
Аноним 03/01/25 Птн 04:25:13 997378 259
>>997133
>но зато мусора в интернете от этого кала тонны. Весь ютуб уже в этом кале.
А мотиваторы которыми ты упивался 10 лет назад не мусор? Комедия тут только твое мразотное лицемерие. Сперва засрал интернет говнищем, тварь мдкшная с удафф ком, а теперь верещишь что датасет из него плохой. Так это твоё жд говно, родное.
Аноним 05/01/25 Вск 02:37:56 1000243 260
photo2025-01-04[...].jpg 13Кб, 579x167
579x167
Пре-трейн Grok 3 завершен!

На пре-трейн этап тренировки модели ушло более 200 миллионов H100 часов - самый большой трейнинг ран в истории. Это более чем 6x компьюта Llama 3.1 405B и 70x компьюта DeepSeek V3.

Сейчас модель тюнят (там тоже может быть несколько этапов). Релиз в массы обещают "скоро".
Аноним 05/01/25 Вск 02:40:24 1000246 261
3k5IgzTe3YlQhM4.mp4 3680Кб, 1920x1080, 00:00:36
1920x1080
В Meta уже оправились от новогодних праздников и выкатили свежее исследование про memory layers

Это архитектурный хак, который может сделать языковые модели умнее и при этом легче в плане вычислительных ресурсов. Эта идея не нова, но раньше такие архитектуры довольно скверно масштабировались и существовали на уровне игрушечных примеров — теперь же Meta довела их до левела взрослых моделей с миллиардами параметров.
https://arxiv.org/abs/2412.09764

Основная идея состоит в том, чтобы заменить часть плотных feed-forward слоев в трансформерах на memory layers — слои, которые работают по принципу key-value lookup. Feed-forward слои в трансформерах, которые обрабатывают входные данные, обычно супер прожорливые. Memory layers, напротив, используют sparse-активации. Они хранят отдельные ассоциации (например, факты) и извлекают их только тогда, когда это действительно нужно, тем самым экономя вычислительную мощность.

В экспериментах memory layers превзошли dense-модели, которые используют в 4 раза больше FLOPs, и даже обошли MoE. Особенно крутые результаты получили на задачах фактологического QA вроде TriviaQA и NaturalQuestions, где точность улучшилась аж на 100% по сравнению с базовыми моделями.

Многообещающе, в общем. Правда, такое пока сложно внедрять в прод, но если Meta доведет это до production-ready уровня, то это будет следующий шаг для идеального трейдоффа качество-ресурсы.

Код тут:
https://github.com/facebookresearch/memory
Аноним 05/01/25 Вск 09:57:05 1000402 262
>>1000243
Я так понимаю, больше вычислительных мощностей = больше параметров = больший размер модели? В таком случае она будет не для обычных юзеров, а для корпораций, готовых отваливать по несколько десятков вечнозеленых за один ответ на специфические задачи.
Аноним 05/01/25 Вск 16:49:46 1000804 263
photo2025-01-05[...].jpg 43Кб, 1179x536
1179x536
photo2025-01-05[...].jpg 80Кб, 909x1280
909x1280
Пошли какие-то недвусмысленные намеки от OpenAI

Вчерашний твит ресерчера оттуда, который, кстати, занимается агентами:

Я скучаю по временам, когда мы занимались ИИ-исследованиями, не зная, как достичь суперинтеллекта.

И сразу за этим, твит Альтмана:

Всегда хотел написать историю из шести слов. Вот она: «Сингулярность рядом: непонятно, с какой мы стороны».

(Предполагается, что это либо 1. Мы в гипотезе моделирования, либо 2. Мы не можем узнать, когда на самом деле наступит критический момент при взлете, но мне нравится, что это работает и во многих других отношениях)
Аноним 05/01/25 Вск 16:51:51 1000807 264
>>1000804
в гипотезе симуляции*
Аноним 05/01/25 Вск 16:54:28 1000818 265
>>1000804

Новости это релизы или предрелизы, а не невнятные твиты из не официальных каналов.
Аноним 05/01/25 Вск 17:00:44 1000838 266
>>1000804
Думаю они просто дали о3 попробовать "улучшить себя" дав ей все свои спеки и сказали думать как можно сделать себя лучше. Возможно она реально выдала пару хороших мыслей и они хайпят про сингулярность. Ждем жиденькую статью без продолжения
Аноним 05/01/25 Вск 19:11:57 1001098 267
0tBYUoI.jpg 25Кб, 302x302
302x302
image.png 341Кб, 798x656
798x656
>>1000838
>Думаю они просто дали о3 попробовать "улучшить себя" дав ей все свои спеки и сказали думать как можно сделать себя лучше. Возможно она реально выдала пару хороших мыслей и они хайпят про сингулярность. Ждем жиденькую статью без продолжения

DeepSeek тоже тренировался на сгенерированных данных от GPT-4.

По-сути системы ИИ уже находятся в цикле самосовершенствования.

Можно быть на 100% уверенным что все исследовательские группы только этим и занимаются, делают ASI. Просто по политическим причинам, из-за конкуренции между Китаем и США.

Как только LLM полноценно зациклят, чтобы они писали сами себя - всё кончено. Начнётся сверхбыстрый процесс ___экспоненциального___ поумнения ИИ.

Та самая Сингулярность реально может наступить уже в этом году. А может уже и через несколько месяцев.

Это истинный конец. Конец доминирования человечества на планете Земля. Конец доминирования биологической жизни.

Редчайшее событие за 4 ёбаных миллиарда лет существования биологии на поверхности Земли.

И нам повезло жить в это время.
Аноним 05/01/25 Вск 19:55:07 1001143 268
>>1000804
>Всегда хотел написать историю из шести слов. Вот она: «Сингулярность рядом: ...но мы вам дадим говорящую википедию".


Сколько же гонора у этого обосранца, которого уже даже гугол обошел, хотя вступил в гонку с проигрышных позиций.
Аноним 05/01/25 Вск 19:57:12 1001147 269
>>1001098
>Та самая Сингулярность реально может наступить уже в этом году.
Где АГИ к сентябрю прошлого года от биоробота Альтмана? Где хотя бы настоящая гпт-4? Какая сингулярность, чё несешь. Положняк выше в треде уже озвучивали.
Аноним 05/01/25 Вск 20:48:33 1001234 270
>>1001143
Гугол не обошел. Он обошел только в плане генерации картинок и видео, да и то видео пока не зарелизен. Геминай пока всратое, я пробовал. Для ролеплея сорт оф годится, но сонеточка пишет куда интереснее и развратнее, геминай больше скорее в литературу уходит, хотя 1206 достаточно умная и не тупит как 1.5. В плане кодинга тоже хуево, лидирует тоже почемуто сонеточка + гпт.
Аноним 05/01/25 Вск 21:22:20 1001283 271
image.png 346Кб, 1179x1172
1179x1172
m2-res240p.mp4 1448Кб, 240x240, 00:00:19
240x240
openai sora eat[...].mp4 2345Кб, 1280x720, 00:00:15
1280x720
image.png 526Кб, 1000x812
1000x812
>>1001147
>Где АГИ к сентябрю прошлого года от биоробота Альтмана? Где хотя бы настоящая гпт-4? Какая сингулярность, чё несешь. Положняк выше в треде уже озвучивали.

Почему вроде люди из индустрии настолько недооценивают экспоненциальное развитие?

До AGI осталось может быть несколько месяцев. И это будет официальная точка начала технологической Сингулярности.

А там и ASI будет, возможно всего лишь через неделю после создания реального AGI.

Ты помнишь что было всего лишь 2 года назад с генеративным контентом? Сравни эту макаронную хуйню с качеством Соры.

Это ЭКСПОНЕНТА абсолютно везде, в llmках тоже.

А что означает экспонента на практике? То что "совершенствование" AI УСКОРЯЕТСЯ с иебической скоростью.

Мы на пороге тотального обвала, крушения всего и прихода в этот мир реальных БОГОВ в виде ASI.

Как можно с этим вообще спорить, просто наблюдая скорость прогресса в нейросетях? В комиксе мы уже на третьей картинке.
Аноним 05/01/25 Вск 22:12:00 1001325 272
>>1001283
Ой бля, опять эти сказочники с экспонентой. Слышал я эту хуйню про "вот-вот AGI" уже лет десять, если не больше. Каждый раз одно и то же: "еще чуть-чуть, и боженьки из кода спустятся".

"До AGI осталось может быть несколько месяцев." Ага, конечно. И Дед Мороз тоже в этом году точно прилетит на боевых моржах. Эти "несколько месяцев" растягиваются как сраная жвачка, и каждый раз находятся какие-то "непреодолимые трудности". Помнишь, как все орали про прорыв с трансформерами? Ну и где этот ваш AGI? Чет не видно толпы богов, только нейронки, которые иногда даже текст нормально связать не могут, не то что мир перевернуть.

"И это будет официальная точка начала технологической Сингулярности." Официальная? Кем, блядь, официально? Альманом, который бабки от инвесторов тянет? У него задача хайпануть, а не реальность предсказывать. Сингулярность у него в голове, когда он на свои миллионы смотрит.

"А там и ASI будет, возможно всего лишь через неделю после создания реального AGI." Вот тут уже попахивает клиникой. Ты вообще понимаешь, что такое AGI, а что такое ASI? Это как сравнивать калькулятор с целой цивилизацией. Неделя, блядь. Да через неделю после "AGI" мы будем разбираться, почему он на запрос "сделай мне чай" устроил ядерный взрыв.

"Ты помнишь что было всего лишь 2 года назад с генеративным контентом? Сравни эту макаронную хуйню с качеством Соры." Ну помню. И что? Прогресс есть, отрицать глупо. Но от "макаронной хуйни" до Соры – это не экспонента, это скорее… ну, типа, от запорожца до какой-нибудь Лады Весты. Вроде и то, и то машина, но разница очевидна. Sora крутая, да, но она пока только видосики генерит, и то с кучей косяков. До "реальных богов" еще как до Луны пешком.

"Это ЭКСПОНЕНТА абсолютно везде, в llmках тоже." Экспонента, экспонента… заебали вы со своей экспонентой. Вспомни закон Мура. Где он сейчас? Уперся в физические ограничения. И с нейронками будет то же самое. Уже сейчас начинают говорить про "потолок" в обучении больших моделей. Ресурсов не хватает, данных не хватает, архитектуры не идеальны. Не все так радужно, как тебе кажется.

"А что означает экспонента на практике? То что "совершенствование" AI УСКОРЯЕТСЯ с иебической скоростью." Ну да, ускоряется. Но не до бесконечности. И "иебическая скорость" – это твои влажные фантазии. Вспомни, сколько раз обещали беспилотные автомобили "вот-вот уже поедут". И где они? Пока только на закрытых полигонах и с кучей ограничений.

"Мы на пороге тотального обвала, крушения всего и прихода в этот мир реальных БОГОВ в виде ASI." Ты, блядь, фильмы пересмотрел? Или начитался всяких конспирологов? Какой еще "тотальный обвал"? Мир как-то не обвалился от появления интернета или мобильных телефонов, хотя тоже кричали, что "все изменится". ASI "боги"… Скорее, это будут просто очень сложные алгоритмы, которые, скорее всего, будут тупить и ошибаться, как и все остальное.

"Как можно с этим вообще спорить, просто наблюдая скорость прогресса в нейросетях?" А вот так и можно спорить. Потому что ты видишь только то, что тебе хочется видеть. Ты зациклился на хайпе и пропускаешь реальные проблемы и ограничения. Прогресс есть, но он не такой линейный и гладкий, как тебе кажется. Там куча тупиков, ошибок и разочарований.

"В комиксе мы уже на третьей картинке." Какой еще комикс, ебаный в рот? Ты в реальности живешь или в своих маняфантазиях? Может, тебе пора таблетки попить, а не прогресс нейросетей отслеживать?

Короче, чувак, расслабься. Никаких богов из кода в ближайшее время не будет. Прогресс идет, но черепашьим ходом, если
Аноним 05/01/25 Вск 22:14:03 1001330 273
>>1001283
Какое нахуй экспоненциальное развитие, дебич? Тебе чтобы получить линейный прирост качества надо экспоненциально нарастить количество параметров/данных/компьюта. Как говорится экспонента присутствует, но есть нюанс.
Аноним 05/01/25 Вск 22:18:58 1001334 274
image.png 92Кб, 1189x374
1189x374
image.png 20Кб, 568x178
568x178
>>1001234
Кому ты пиздишь, клоун? Жопочат до сих пор не умеет нормально неформальный стиль генерировать и серет обращениями с первых строк, а вместо разговорного поста на форуме высирает вики-статью с пунктами. Хуйня не следует элементарному промпту который абсолютно все можели этого уровня понимают без вопросов. А почему? Да потому что это всё еще обдристанная вязанка из 3,5, которую накормили трижды переваренным синтетическим калом. Даже молмо тренированная на синтетике (а это на минуточку лоботомит) пишет лучше и человечней жопочата.
Аноним 05/01/25 Вск 22:40:54 1001356 275
image.png 1163Кб, 848x576
848x576
image.png 346Кб, 1179x1172
1179x1172
>>1001325
>Помнишь, как все орали про прорыв с трансформерами? Ну и где этот ваш AGI?

А ничего что о3 показывает фантастические результаты?

Решает математические проблемы уровня "нобелевских лауреатов", которые никогда не публиковали?

>Официальная? Кем, блядь, официально?

Историками будет официально определена как официальная точка начала Сингулярности... если доживём.

> Вот тут уже попахивает клиникой. Ты вообще понимаешь, что такое AGI, а что такое ASI? Это как сравнивать калькулятор с целой цивилизацией.

Вот я и говорю, что люди не понимают что такое экспоненциальные процессы. Про шахматы и пшеницу историю знаешь?

Хотя казалось бы ты вроде в теме. Разве лично ты не видишь экспоненциальный рост "качества" всех нейросетей? Есть же бенчмарки где можно на цифрах посмотреть, вроде ARC AGI.

Ты не понимаешь к чему приведёт экспоненциальность?

>"Это ЭКСПОНЕНТА абсолютно везде, в llmках тоже." Экспонента, экспонента… заебали вы со своей экспонентой. Вспомни закон Мура. Где он сейчас? Уперся в физические ограничения. И с нейронками будет то же самое.

А ты знаешь где будет этот "предел"? Возможно он будет сильно-сильно-сильно позже ASI.

> беспилотные автомобили "вот-вот уже поедут". И где они? Пока только на закрытых полигонах и с кучей ограничений.

Ты точно специалист? Автопилот в тесле видел? Знаешь сколько автопилот в консьюмерских машинах накатал уже? Знаешь какой риск аварии у автопилота теслы?

>>1001325
>Ты, блядь, фильмы пересмотрел? Или начитался всяких конспирологов?

Увы, реальность страшнее фильмов. Это буквально конец доминирования билогической жизни на Земле. Создание ASI по влиянию будет сравнимо только с появлением жизни на планете. Даже вымирание динозавров будет менее значимым.

>>1001325
> Какой еще комикс, ебаный в рот? Ты в реальности живешь или в своих маняфантазиях? Может, тебе пора таблетки попить, а не прогресс нейросетей отслеживать?

Такой. Экспоненциальное ускорение прогресса есть. Оно буквально наблюдается по всем бенчмаркам.

>>1001330
>Какое нахуй экспоненциальное развитие, дебич? Тебе чтобы получить линейный прирост качества надо экспоненциально нарастить количество параметров/данных/компьюта. Как говорится экспонента присутствует, но есть нюанс.

Внутренняя структура нейросетей может быть очень сильно оптимизирована. Предел оптимизации ещё очень далеко.

Вполне возможно сжатый, дистиллированный AGI можно будет запустить на домашнем комплюхтере.

И для обучения вполне возможно столько вычислительной мощности просто не нужно. В DeepSeek обучили свою последнюю модель емнип в 10 раз дешевле о3.
Аноним 05/01/25 Вск 22:44:10 1001361 276
>>1001356
>А ничего что о3 показывает фантастические результаты?
А ничего, что ты фантастически тупой? Я так-то напомню, что ты всё еще в треде про новости АИ, рекомендую завалить пасть, если новостей нет, твой бред тут не нужен, аватаркоблядь.
Аноним 05/01/25 Вск 22:48:23 1001366 277
>>1001361
>аватаркоблядь

У тебя от порванной жопы галлюцинации начались?
Аноним 05/01/25 Вск 23:07:08 1001392 278
>>1001366
У меня со зрением все в порядке, не считай окружающих тупей себя.
Аноним 05/01/25 Вск 23:22:09 1001407 279
image.png 70Кб, 1265x900
1265x900
>>1001392

А я и не считаю.

Просто неспособность увидеть экспоненту там, где она буквально на графике.... где все цифры всех бенчмарках экспоненциальные... искренне удивляет.

А последствия экспоненты известны.

Специалисты ёпта лол.
Аноним 05/01/25 Вск 23:37:54 1001433 280
17344224064330.mp4 2058Кб, 1280x720, 00:00:07
1280x720
>>1001283
К Уиллу Смиту лучше это сравнение добавляй
Аноним 05/01/25 Вск 23:48:23 1001448 281
photo2024-12-25[...].jpg 21Кб, 704x477
704x477
>>1001325
> Вспомни, сколько раз обещали беспилотные автомобили "вот-вот уже поедут". И где они? Пока только на закрытых полигонах и с кучей ограничений.

Waymo отбирает пассажиров у Uber и Lyft. На роботакси компании приходится 22% от всех заказов где он запущен. Это несколько городов, включая Сан-Франциско и Лос-Анджелес.

По постоянию на ноябрь 2024 года, на Waymo и Lyft приходилось по 22% от всех заказов (на каждую), на Uber – 55%.

Ещё год назад, когда Waymo тестировала роботакси на ограниченном круге пассажиров, доля Uber и Lyft составляла соответственно 66 и 34%.

Ранее компания также объявила, что начнёт тестировать роботакси в Токио и Маймами. Последнее объявление привело к падению акций Uber и Lyft на 10%.

https://www.investopedia.com/uber-and-lyft-stocks-fall-as-google-waymo-brings-driverless-taxis-to-miami-8756774
Аноним 06/01/25 Пнд 00:00:55 1001464 282
>>1001356
Да блядь, ну ты же понимаешь, что все это может быть пока обычным хайпом? Ну вот как ты себе представляешь решение проблем от о3? Когда это можно будет вживую пощупать или хотя бы не мне, а другие люди на ютубчике потестируют вживую, тогда поверю. Все в опендоступе сейчас очень хуево. Да, лучше, чем год назад, но пока НИ ОДНА сука нейронка не выдает мне полностью рабочий код по подробному тз. Вот когда будет выдавать полноценный рабочий код или хотя бы 95% рабочий код, который потом по частям править можно будет, тогда я скажу, что заебись. Я думал, что дело в ТЗ, но чем подробнее его пишешь, тем больше он тупо пропускает не понимая что от него требуется. Так что код можно делать только по частям, а это не всегда возможно.
Аноним 06/01/25 Пнд 00:26:39 1001487 283
1610997969770.jpg 7Кб, 249x250
249x250
>>1001464
> Да, лучше, чем год назад, но пока НИ ОДНА сука нейронка не выдает мне полностью рабочий код по подробному тз.

Но она выдаёт. DeepSeek v3 написал веб игрушку, вот чувак её делает. о3 будет таким же по качеству плюс минус.

Есть и другие видео с тестами DeepSeek. Он буквально делает то, что ты написал.

https://www.youtube.com/watch?v=l5apjxEjcEY

>полноценный рабочий код

И "уметь что-то делать как человек или лучше" это буквально уровень AGI.
Аноним 06/01/25 Пнд 00:41:04 1001501 284
Аноним 06/01/25 Пнд 00:44:55 1001504 285
>>1001487
Для прототипов, короче сойдет. Но ты понимаешь, что для полноценной игрушки мало просто управления стрелками? Ты вообще представляешь сколько там тонкостей, например, в том же платформере? Там просто дохуя нюансов мувмента, костылей, которые позволяют тебе не бугуртить с управления и вот это все в принципе знает толковый разработчик, но если ты ему просто напишешь "сделай мне управление как на платформере", он выдаст тебе базу без учета всяких нюансов, а нюансы тебе придется самому копать и разбираться. ты конечно можешь ему объяснить а чому так и он возможно тебе даже расскажет и скажет как это поправить в коде, но блядь. Если каждую задачу решать вот конкретно так, то легче самому во всем разобраться. Нужно чтобы оно сразу выдавало хороший рабочий код с учетом всех нюансов или спрашивало тебя реализовать ли ту или иную штуку.
Аноним 06/01/25 Пнд 00:57:55 1001521 286
>>1001098
>По-сути системы ИИ уже находятся в цикле самосовершенствования.
Судя по тому, что всякие дипкалы хуже GPT-4, нейронки находятся в цикле самозасирания. Чистые данные сейчас на вес золота, лол.
>>1001283
>Почему вроде люди из индустрии настолько недооценивают экспоненциальное развитие?
Потому что электричества оно тоже по экспоненте жрёт. Скоро вся Земля расплавится нахуй в попытке этого сраного АГИ ответить на какой-нибудь вопрос типа "Сколько сестёр у Мери".
>>1001356
>Разве лично ты не видишь экспоненциальный рост "качества" всех нейросетей?
Впопенсорс лишь слегка стал лучше за последний год.
>>1001356
>Внутренняя структура нейросетей может быть очень сильно оптимизирована.
Но пока этого буквально никто не делает. Только наращивают кластеры на деньги инвесторов.
Аноним 06/01/25 Пнд 09:27:33 1001788 287
775846217cHmqmi[...].jpg 211Кб, 1400x625
1400x625
Microsoft опубликовала масштабный документ о своем видении развития искусственного интеллекта на ближайшие четыре года. Компания планирует инвестировать рекордные 80 миллиардов долларов в строительство и модернизацию дата-центров в 2025 году. Более половины этих средств будут направлены на развитие инфраструктуры в США.

Новые дата-центры предназначены для обучения и развертывания ИИ-моделей, а также для поддержки облачных сервисов компании. По мнению Microsoft, текущий прогресс в сфере искусственного интеллекта был бы невозможен без масштабных инфраструктурных инвестиций и новых партнерств.

Технологический гигант призывает будущую администрацию расширить государственную поддержку развития ИИ в США, в том числе увеличить финансирование исследований для Национального научного фонда и американских университетов.

Microsoft признает, что развитие ИИ повлияет на экономику и рынок труда, однако в компании уверены — новые возможности превзойдут возможные сложности. Ключевым фактором успеха называется обучение американцев использованию ИИ в качестве рабочего инструмента, подобно тому, как сегодня применяются смартфоны и ноутбуки.

Особое внимание уделяется продвижению американских ИИ-технологий на международном рынке. В условиях технологического соперничества между США и Китаем критически важна скорость внедрения разработок в других странах. Microsoft подчеркивает необходимость разработки эффективной стратегии, так как преимущество получит тот, кто первым сможет масштабировать свои решения.

https://blogs.microsoft.com/on-the-issues/2025/01/03/the-golden-opportunity-for-american-ai/
Аноним 06/01/25 Пнд 09:40:16 1001794 288
Проснулись-потянулись, а тут новое эссе Альтмана «Reflections», посвященное рефлексии прошедших лет. Я не буду пересказывать всё (в частности уделю меньше внимания прошлогоднему увольнению и упоминаниям AI Safety), вот некоторая часть:

—В 2022м году OpenAI были тихой исследовательской лабораторией, работавшей над «Chat With GPT-3.5». Мы всегда знали, абстрактно, что мы достигнем переломного момента и начнется революция ИИ. Но мы не знали, когда и как это произойдёт. К нашему удивлению, запуск ChatGPT оказался таким событием.

—За последний год мы выросли с примерно 100 миллионов еженедельно активных пользователей до более чем 300 миллионов. Прежде всего, мы продолжали выпускать в мир технологии, которые люди искренне любят и которые решают реальные проблемы.

—Мы запустили OpenAI почти девять лет назад, потому что верили, что AGI возможен и что это может стать самой влиятельной технологией в истории человечества. [хотя тогда над ними смеялись и это звучало глупо]

—Некоторые повороты на этом пути были радостными; некоторые были трудными. Было забавно наблюдать, как происходит постоянный поток исследовательских чудес, и многие скептики стали истинно верующими.

—Теперь мы уверены, что знаем, как построить AGI, как мы его традиционно понимали [предполагаю, что тут имеется в виду формулировку «система, превосходящая человека в большинстве экономически важных задач»]. Мы считаем, что в 2025 году мы можем увидеть первых ИИ-агентов, «пополнивших ряды рабочей силы» и существенно изменивших результаты деятельности компаний.

—[Поэтому] мы начинаем выходить за рамки этого, к суперинтеллекту, в истинном смысле этого слова. Мы любим наши текущие продукты, но мы здесь ради славного будущего. С суперинтеллектом мы можем делать все что угодно. Подобные инструменты могли бы значительно ускорить научные открытия и инновации, намного превосходя то, что мы способны сделать сами, и, в свою очередь, значительно увеличить изобилие и процветание нашего рода.

—Сейчас это звучит как научная фантастика, и даже говорить об этом немного безумно. Это нормально — мы уже были в этой точке раньше и не против оказаться там снова [имеется в виду момент запуска OpenAI, когда то же самое говорили про AGI].

///////////

За пару дней до этого Сэм твитнул:

"я всегда хотел написать рассказ из шести слов. вот он:
[находимся] возле сингулярности; непонятно с какой стороны"


И люди гадали, что же это значит. Вкупе с тезисами из свежего эссе, полагаю, что новые модели показали ещё какой-то крутой результат (например, o3 или даже o4, совмещённая с агентом, оперирующим за рабочим столом и выполняющим задачи; но это спекуляции), снова удививший Сэма и команду.

В конце года вернёмся и посмотрим

https://blog.samaltman.com/reflections
Аноним 06/01/25 Пнд 11:10:42 1001832 289
>>1001794
>Проснулись-потянулись, а тут новое эссе Альтмана
Поссал на клоуна-пиздобола и его лохотрон.
Аноним 06/01/25 Пнд 14:42:06 1001941 290
>>1001832
>и его лохотрон.

А в чем лохотрон OpenAI?

Они буквально сделали самую популярную llm-ку и изменили индустрию в 2022 с ChatGPT 3.5.

"Выпустили" первыми отличный генератор видео Sora. Генераторы аудио у них тоже вроде нормальные.

Да и теперь тоже новое поколение llm выпустили первыми.

В чем лохотрон то?
Аноним 06/01/25 Пнд 14:55:42 1001954 291
Посоветуйте ресурсы по теме где почитать новости без местных шизофреников и истероидов и их сверхценных мнений?
Аноним 06/01/25 Пнд 15:06:16 1001978 292
>>1001941
>А в чем лохотрон OpenAI?
В сроке окупаемости инвестиций, превышающем человеческую жизнь. Ну и компания нихуя не Open, а ведь обещались.
Аноним 06/01/25 Пнд 15:38:59 1002021 293
>>1001978
>В сроке окупаемости инвестиций, превышающем человеческую жизнь.

Ты экстрасенс и умеешь видеть будущее? Откуда ты вообще знаешь как будет окупаться OpenAI и что они планируют вместе с головной компанией?

За деньги Майкрософта беспокоишься сильно?

>Ну и компания нихуя не Open, а ведь обещались.

Это не делает их "лохотроном".
Аноним 06/01/25 Пнд 16:02:29 1002038 294
>>1002021
Вот я единственное чего боюсь, что деньги кончатся у всех и все заглохнет, потому что бесконечно увеличивать потребляемую мощность с небольшим приростом никто не будет. Нужны прорывы. А если все заглохнет, то все откатится назад и никакого тебе больше кума, никаких тебе больше личных помощников.
Аноним 06/01/25 Пнд 16:04:32 1002042 295
Мне вообще кажется, что сейчас делают последнее поколение мощных моделей, если оно не взлетит, например грок 3 и его ровесники, то начнется спад, будем надеяться, что взлетит.
Аноним 06/01/25 Пнд 16:09:01 1002051 296
>>1002038
> если все заглохнет, то все откатится назад
Текущий уровень впопенсорс моделей уже достаточно неплох, и его никто не отнимет.
Аноним 06/01/25 Пнд 16:32:29 1002078 297
>>1002051
Да, только локально ты ту же дипсик хуй запустишь.
Аноним 06/01/25 Пнд 16:49:18 1002096 298
>>1002038
>Вот я единственное чего боюсь, что деньги кончатся у всех и все заглохнет

Деньги 100% не кончатся.

США, Китай и все другие сейчас дико рашат на пути к ASI.

Это буквально Манхэттенский проект 2, влияние нейронок будет больше влияния ядерного оружия.

Так что денег все найдут. Любых. Если надо, американец будет жрать сильно меньше и похудеет, но Альтману и всем остальным денег дадут.
Аноним 06/01/25 Пнд 17:29:10 1002118 299
>>1002096
Кста, а что там у Китая? Кто лидирует, что местные опеаи, антропик и гугл?
Аноним 06/01/25 Пнд 17:34:15 1002123 300
Аноним 06/01/25 Пнд 17:58:37 1002136 301
>>1002118

Китай это сегодня буквально планетарный лидер по опенсорс ллмкам.

DeepSeek v3 очень хорош. Тоже умеет в ризонинг, как о3.

https://chat.deepseek.com/

Можно сказать, что сейчас США и Китай идут нос к носу уже.
Аноним 06/01/25 Пнд 19:39:20 1002239 302
>>1001941
>А в чем лохотрон OpenAI?
>
>Они буквально сделали самую популярную llm-ку и изменили индустрию в 2022 с ChatGPT 3.5.
В том что даже ты серишь рекламным пиздежом. Еще скажи, что эппл буквально сделали тачскрин. И даже то, что Попенаи свой кал высрали чуть раньше антропика не дает никаких оснований заверять каждый день в твиторе что вот вот сингулярность и аги, ну очевидный же проткнутый пиздабол твой Альтман. Я так-то напомню, что они гпт-4 сделать не смогли. То есть, сломались даже раньше антропиков, которые только на своем 3,5 сказали (причем честно, без пиздежа), мол, не пацаны слишком дорого вам опус новый делать. А эта хуйлуша просто пиздит как раковый Джобс, обычное инфоцыганское говно. СЧору они сделали? С сорой они обосрались, а то что вышло сейчас сосет жопу у клинга, который на рынке как бэ уже сколько? Полгода? То что сейчас у соры было у рановея год назад. Всё что явижу только куча пиздежа и мегатонны денег на рекламу, чтоб дурачки типа тебя не рефлексировали и распространяли. То есть, буквально: лохотрон. По ллм сейчас топ из закрытых - гемини-2. Иди поймай его на арене и посмотри как он следует промпту, и как О-4ко сосет жопу. Да я прям тут показывал, что Альтимановская залупень в элементарный промпт не может, тупо не соблюдает и серит вики-статьями.
Аноним 06/01/25 Пнд 19:40:28 1002240 303
>>1002136
>Можно сказать, что сейчас США и Китай идут нос к носу уже.
Пися к носу я б даже сказал. Писал выше, потому что у Китая дохуя лектричества. А у США - будет очень скоро, вот-вот построят, надо потерпеть, но еще надо чтоб на теслы хватило.
Аноним 06/01/25 Пнд 19:53:09 1002249 304
>>1002240
Хорошо б таких даунов отрезать от западных богомерзких технологий. Они ж всё равно дерьмо, а у китайцев ничуть не хуже. Чтобы до конца жизни пользовался дипсиком, смартфонами сяоми и прочими чудесами технологии безальтернативно, как и подобает соевому скоту.
Аноним 06/01/25 Пнд 19:57:16 1002260 305
>>1002078
Дипсик нет, а мистраль ларж вполне, я уж молчу про кучу семидесяток.
>>1002240
>Писал выше, потому что у Китая дохуя лектричества.
У России тоже, но это как бы не главн