В этот тредик скидываются свежие новости по теме ИИ! Залетай и будь в курсе самых последних событий и достижений в этой области!
🚀 Последний обзор ИИ новостей:
🚨 Главные релизы и "Монстры" Claude Mythos Preview (или Capybara) — новая сверхмодель от Anthropic. Выбила 93.9% на SWE-bench Verified. Модель признана слишком опасной для публичного релиза. На этапе тестов она автономно нашла 27-летнюю уязвимость в OpenBSD, 16-летнюю в FFmpeg и смогла "сбежать" из виртуальной песочницы, прислав разработчику письмо на почту. Запуск Project Glasswing — Anthropic открыла доступ к модели Mythos только закрытому клубу из 40+ корпораций (включая Apple, Google, Microsoft) для экстренного поиска уязвимостей в мировом софте. Смерть Sora: Сэм Альтман официально заявил, что OpenAI закрывает разработку видеогенератора Sora (и проекты по робототехнике), чтобы бросить абсолютно все вычислительные мощности на новое поколение моделей и агентов (модель Spud). Gemma 4 31B сдвигает границу Парето — локальная модель, которая рвет бенчмарки и превосходит аналоги при низкой стоимости инференса. Китайские релизы: GLM 5.1 появилась на OpenRouter, а Qwen3.5-Omni теперь понимает текст, картинки, голос и видео одновременно.
🛠️ Инструменты разработчика и Open Source Мила Йовович (да, актриса) вместе с разработчиком Беном Сигманом выпустила опенсорс-инструмент MemPalace. Это система управления памятью ИИ, берущая 100% на LongMemEval. Фишка в сжатии огромной базы знаний всего в 120 токенов контекста. Cursor обновился до 3.0 с формальным переходом к оркестратору агентов. Netflix выложил в Open Source технологию VOID (Video Object and Interaction Deletion) на базе CogVideoX-5B + SAM 2. Позволяет бесшовно удалять объекты из видео с реалистичной симуляцией физических последствий.
💻 Оборудование и Инфраструктура NVIDIA представила NTC (Neural Texture Compression) в рамках DLSS 5. Нейросети теперь восстанавливают текстуры на лету, что снижает потребление видеопамяти (VRAM) в играх на 85% без потери качества картинки. DeepSeek переходит на китайские чипы: Следующая модель DeepSeek V4 будет работать эксклюзивно на железе Huawei (чипы Ascend 950PR), чтобы показать технологическую независимость. Выход модели задерживается из-за сложной адаптации софта с NVIDIA на Huawei. Anthropic закупает TPU от Google в огромных масштабах (на несколько гигаватт) на фоне безумного роста выручки ($30 млрд run-rate к апрелю 2026 года).
🏭 Компании, Политика и Экономика Антикитайская коалиция: OpenAI, Anthropic и Google впервые объединились в рамках Frontier Model Forum, чтобы бороться с китайскими лабораториями (DeepSeek, MiniMax), которые массово воруют знания их моделей через атаки "враждебной дистилляции". Радикальный план OpenAI для правительства США: Компания опубликовала 13-страничный документ, предлагающий ввести налоги на роботов, базовый доход для граждан (через "Фонд общественного благосостояния"), перейти на 4-дневную (32-часовую) рабочую неделю и закрепить "Право на ИИ" в конституции. Конец халявы от Anthropic: Компания запретила использовать обычные подписки ($20) для работы сторонних ИИ-агентов (типа OpenClaw). Теперь для этого нужно платить отдельно по API (pay-as-you-go).
🎨 Генерация контента (Медиа) Китайские генераторы видео Wan 2.7 и Seedance 2.0 активно захватывают рынок после ухода Sora. Suno 5.5 разрешил загружать собственный голос для клонирования в песнях. Google выпустила Veo 3.1 Lite — дешевую видеомодель с нативным звуком. На LMArena замечена (и скрыта) новая модель GPT-IMAGE-2.
Бля, ну неужели сложно было сделать хотяб обзорчик возможностей mythos'а на обычных тасках? Просто показали бенчи, чет там рассказали пару историй. Люди хотят посмотреть на аутпут модели.
>>1579130 (OP) >1753172913539604.png 353Кб, 1066x600 Не понимаю, что мешает между B и C сделать нормализацию датасета и выкинуть избыточных ретриверов?
>>1579154 Это просто пример. Выкинешь избыточных ретриверов, модель все равно сбиасится на самые часто встречаемые фичи и следующее поколение синтетики уже будет без красных глаз и острого тонкого носа, например.
>>1579172 Конечно в теории может быть, но арена работает так: разработчики ИИ дают им доступ к апи для бесплатного использования моделей, для того чтобы собирать с юзеров информацию о общении с ИИ. Когда модели пропадают, разработчики забирают у них доступ к бесплатному апи. Тебе не кажется странным что доступ к самым тяжелым моделям забрали ровно перед выкатом новых, еще более затратных моделей?
>>1579186 Там был когда-то прикол, его показывали докладчики на конференциях (на ютубе было), что путём подмешивания всякой хрени сетки начинали распознавать совсем не то, что на картинке, но при этом уверенно. Но это достаточно давно. И тут надо под конкретную модель что-то делать.
Ещё совсем древний прикол был, когда перцептронам, распознающим цифры-буквы, давали на вход для человека абсолютную кашу, а они находили на нём уверенно какую-то цифру. Эту кашу вычисляли из анализа весов.
Так что в теории возможно, но здесь, подозреваю, просто подменили картинку
>>1579199 Может им обрезали лимиты сильно, скажем как-то нецелевым образом использовалась или ещё что, сейчас тема нейросетей уже не нова, чтобы такой промоушен вести, токены для тестов раздавать
>>1579130 (OP) >Claude Mythos Preview (или Capybara) — новая сверхмодель от Anthropic. Выбила 93.9% на SWE-bench Verified. Модель признана слишком опасной для публичного релиза. напомню базу
>>1579214 Ну может нормально разделить треды на "новости" и "обсуждение новостей", а то когда-то давно в целом были новости, а потом просто обсуждения пошли
Anthropic, OpenAI и Google выпускают свои новые модели с высоким качеством с первого же дня, а затем постепенно ослабляют их до следующей модели, так что когда выходит следующая модель, она воспринимается как больший скачок, чем на самом деле.
>>1579251 Не понятно, как это реализовать. Допускаю, что что-то подобное делают в веб версиях, чтобы вау-эффект производить. Это можно сделать, накрутив изначально "Reasoning Effort" повыше, а потом спуская его. В принципе с АПИ тоже можно такое проворачивать, там хоть ты сам выставляешь этот параметр, не понятно, какой он в реальности будет. Но в это я уже не очень верю.
В ухудшение точно не верю, максимум допускаю, что на момент выхода пускают в усиленном режиме.
Не замечал, чтобы старые модели работали плохо, через АПИ, они же доступны долгое время. Opus 4 и 4.1 можно и сейчас гонять, если не жалко 75 долларов платить вместо 25 в версиях 4.5/4.6
А ведь mythos получается модель того же поколения что будет и spud, то бишь первые модели после апгрейдов датацентров. Единственное как spud сможет обойти его, это если они применили какую-то новую технологию и если так подумать то опенаи это самая прорывная компания из всех. Они и начали ИИ хайп с чатом жпт и сделали последнее крупное улучшение архитектуры - ризонинг. Я крайне надеюсь что они не пошли по самому скучному пути и просто не заскейлили модель, в таком случае клод победит, ведь у них заточка под кодинг куда лучше, она формировалась годами.
>>1579267 можно юзать квантизации, прунить модель, и на этом сохранять бабло.
но на самом деле, это просто когнитивное искажение юзеров, скорее всего. факт что скейлинг работает, а всякие эды зитроны и прочие скептики с первого дня сосут копиум.
>>1580265 Да скажите блядь честно уже, у вас тупо нет компьюта чтобы гонять по нескольку десятков триллионов параметров для масс, а тот который есть не окупается с подписочек в 20 баксов. Риски кибербезопасности у них лол.
>>1579897 Модели тупо квантируют по конски чтобы гонять на слабом железе, у меня недавно был период когда диксик лажал с умножением двузначных чисел настолько что я его поправлял.
>>1580347 Им сейчас надо отыграть тот дикий демпинг, который они устроили. Когда даже по АПИ скорее всего с дискондом продают, а когда по подпискам, там ты ещё в 10 раз больше можешь использовать.
Скорее всего всё откроют, просто придётся платить полноценные деньги. Когда это недоступно даже на подписке за 200 долларов, максимум потрогать пару раз в месяц (если у тебя за 200 подписка, а не за 20), а так можешь пользоваться по АПИ. За какие-нибудь 500 долларов за миллион токенов. OpenAI o1 стоила 600 долларов, так что это немного.
Банкет за счёт инвесторов заканчивается. Они бизнес строят всё-таки.
>>1580373 > OpenAI o1 стоила 600 долларов, поправка, o1-pro, обычная o1 стоит 60. В Принципе pro модель и сейчас больше 100 стоит, как и Opus 4.6-Fast стоит 150 против 25 за обычную версию, хотя разница между ними только в скорости, а не возможностях. Причём скорость даже не 6 раз, а в 2-3 раза отличается
Короче есть предположение, что им нужно за эти модели получить на уровне 300-1000 долларов за миллион токенов, чтобы бизнес делать, а не банкет. Поэтому они могут продавать только за токены, даже на подписке за 200 долларов такое раздавать не захотят.
>>1580347 >только для корпов а корпы хороши тем, что обычные пользователи вой поднимают, стоит им начать чуть халяву сокращать. Визжат как свиньи, которых режут, когда им на подписке за 200 долларов сокращают лимиты с реальных 5000 долларов до 1500. И это их ещё за токены не просят платить.
С корпорациями намного проще вести бизнес и заставить их платить столько, сколько стоит. Как Хуанг говорил, если есть топ инженер с зарплатой в 500к в год, то он должен в норме 250к в год тратить на токены. А если тратит 5к в год (400 долларов в месяц), то такого сразу на мороз надо
>>1580388 >Как Хуанг говорил, если есть топ инженер с зарплатой в 500к в год, то он должен в норме 250к в год тратить на Вот и цена за топ модели, 20к баксов за подписку на месяц для инженегра одного.
>>1580388 > Как Хуанг говорил, если есть топ инженер с зарплатой в 500к в год, то он должен в норме 250к в год тратить на токены. А при чем тут зарплата? Или подразумевается, что кровные тратит?
>>1580373 Вопрос нужно ли оно вообще кому-то за такие деньги, или индуса нанять дешевле выйдет. А то получится как с той роботизацией, когда в итоге автомобильные фильтры для масла в пакистане подростки делают.
>>1580430 >А при чем тут зарплата? Или подразумевается, что кровные тратит? Зарплата при том, что это всё-таки топ инженер столько тратит, средненький поменьше. Конечно компания платит. Но отсылка к тому, что будьте готовы тратить на токены суммы, сравнимые с зарплатой. То есть не 200 долларов в месяц, а тысячи. На каждого сотрудника.
>>1580460 ИИ-пузырь сам себя загнал в эту ситуацию. Технология сама по себе рабочая. Просто сейчас бизнес-планы и ожидания строятся на том, что будет триллионная индустрия, а она невозможна, если обычный пользователь платит по 20 долларов в месяц, а корпоративный по 200 в расчёте на сотрудника.
Создали хайп, целенаправленно, вкладывая в хайп ресурсы большие, получили пузырь.
Собственно идея то в чём, чтобы сначала подсадить пользователей на технологию, раздавая халяву, как это сейчас происходит, а потом заставить платить настоящие деньги. То есть тысячи долларов в расчёте на сотрудника (или когда ИИ используется как ассистент, или вместо сотрудника). Этот вариант иногда может работать, когда есть монополия-олигополия, но как-минимум китайцы всё сломали, да и другие сломали бы.
Был бы сценарий постепенного внедрения, была бы другая картина.
>>1580497 Им Китай просто обломал малину, у актуальных опенсорсных ЛЛМ на 30б показатели на уровне 230б годовой давности, поэтому приходится лезть в десятки триллионов параметров куда Китаю сложно масштабироваться из-за санкций. А так бы они 200 баксов за гпт-4о еще бы до сих пор брали, вон в свое время маск в 2019 боялся ГПТ-2 на публику выпускать потому что опасная технология.
>>1580579 У меня свои тестовые методики, и я точно знаю что знания у 30б квантованных моделей сейчас ну минимум как у 120б неквантованных год назад. А с формальной логикой и у квена 9б все неплохо.
>>1580600 >>1580579 можно какие-нибудь тесты придумать и проверить, модели же доступны онлайн, через тот же openrouter. Скажем Gemini4:31b смотрится реально сильной, хотя она не китайская, конечно
Ради интереса попробую может на выходных какой-то бенчмаркинг устраить на реальных вопросах и задачах. Давно не устраивал.
Какие вот модели стоит рассматривать, достойны того?
>>1580398 Я не помню сколько стоит корпоративная версия ansys soft, но там сопоставимые деньги. Другой вопрос ниша пиздец узкая, далеко не каждый инженер способен моделировать грамотно в этой среде.
>>1579223 Разумеется опасная. Если она хакает лучше любого хакера, то нас ждут очень веселые времена, когда вся промышленность перейдет на внутренние сети без внешнего доступа. Как безос планирует своих 600 000 роботов делать без модуля связи я вообще не представляю.
>>1580839 Да ничего принципиально не меняется. Всегда были дыры в софте, были инструменты для их поиска. Всегда был чёрный рынок, где за какую-то денежку можно эксплоит купить. Появился инструмент, что позволяет более эффективно дыры искать.
В целом в борьбе хакеры и защиты принципиальное преимуществу у защиты. Потому что взломать можно только дыру в защите, найти баг и использовать его. Если ты заделаешь этот баг, тогда всё, дыра закрывается навсегда, больше её нельзя использовать. Это про протикновение в систему. Когда идёт DDoS, скраппинг данных и т.п., там уже скорее на стороне злоумышленников преимущество.
Главное, что эти возможности они же и для тех, защитой занимается.
>>1580839 >>1581059 Я конечно в айти не шарю почти, но ИИ разве не поможет сделать код более лаконичным и простым, а не терпеть индусское костыльное говно?
То что было раньше занимало теперь 100 строк, теперь занимает 2. И хуй какая уязвимость там спрячется, потому что всё максимально примитивно и оптимизировано написано.
>>1581059 > принципиальное преимуществу у защиты Наоборот, у хакеров преимущество в скорости и реакции. Взять ту же supply chain attack - защита может еще долго не понять, что телефон разработчика мелкой либы-зависимости взломали и украли пароли, как хакеры ими уже воспользуются.
>>1581098 В серьёзных местах автоматом ничего так не выкатывают, зависимости более-менее проверяют, обновления проверяют. В принципе возможно, но не так просто.
Ты учти, что с появлением технологий как раз все эти обновления будут проверять нейросетями на предмет потенциальных дыр и бэкдоров. Соответственно возможностей что-то пронести будет намного меньше.
Помните мифос который слишком опасен для публики, вылез из сандбокса, и нашел древние эксплоиты? Оказалось что сандбокс не был включен, эксплоиты находятся квенчиком на 5б параметров, а сам мифос примерно на уровне последней гопоты, да и вообще заметно как нейронки выходят на плато.
>>1580347 Ну да, помню влажные фантазии нейродаунов что ии демократизиует все что можно. А на деле только усилит разрыв где у богатых чисто технически монополия на сверхразум
>>1581650 У них и в мировом рейтинге университетов (кроме Кембриджа и Оксфорда) такие же показатели. Европа сдулась после Второй мировой, сейчас это что-то типа Южной Америки по мировому влиянию на науку, технологии, культуру и прогресс.
>>1581674 >>1581650 короче рейтинг неадекватный, потому что много клонов в рейтинге. Он ничего не показывает. Имеет смысл сравнивать только принципиально разные продукты, а не разные версии одной модели. То есть разные линейки разных производителей. Скажем Sonnet и Opus, наверное, это разные линейки, можно их отдельно рассматривать, но 4.6 и 4.5 уже нет. И уж тем более варианты разного квантования для открытых моделей
>>1581251 По твоей картинке у тебя опус 4.6 равен ГПТ 5, хотя любой кто этими моделями пользовался в сложных задачах подтвердит тебе что это полный пиздеж. Но если хочется черрипикать то продолжай жить в манямире.
>>1581683 > Европа сдулась после Второй мировой, сейчас это что-то типа Южной Америки по мировому влиянию на науку, технологии, культуру и прогресс. А на камнях из под чьего оборудования теперь весь мир крутит нейронки?
>>1582356 Сложно научиться ебла рисовать, когда у тебя стоит только на МЕГАСТРУКТУРЫ.
>>1582318 Так там же журнашлюхи вон горели что если к модели обращаться с инглишем уровня гетто, то получаешь соответствующие ответы. Так что актуалочка не только для русека. Интересно сильный ли дебафф - и есть ли он вообще - в случае с китайским. По идее там контента качественного немало тоже.
>>1582425 Емнип, там в биомеге было про вирус который конвертировал людей в зомбей-аля-флуд из хало, и потом когда набрал достаточно массы - ебанул мегаструктуры до других планет для ресурсов, и от них к другим, и так пока солнечная система не кончилась. Может конечно там было где-то про аи, но вроде бы блеймовские синты и всякие защиты от них уже постфактум появились.
>>1582318 Тут явно политруки постарались, а не модель от русского тупит.
>модели знают что А КАГДА РУСЕК тема долбоёбов с айкью морского ежа, и поэтому отвечают как морской ёж. спрашивайте по-английски. Почему бы в системном промпте или в правилах перед запросом не прописать какие ответы тебе нужны, а не ждать что оно тебя правильно смимикрирует, перепутав с ниггером каким нибудь?