- Один из участников опубликовал многоязычную модель разбиения на фрагменты на базе BERT, дообученную примерно на 11 миллиардах токенов, расширяющую distilbert-base-multilingual-cased для задач на уровне токенов.
- Модель обеспечивает более высокую точность разбиения на фрагменты для языков с ограниченными ресурсами без затрат, связанных с крупномасштабными языковыми моделями (LLM).
📦 Продукты
- Google объявила, что Gemini останется бесплатной в течение 18 месяцев, несмотря на доступ к миллиардам поисковых запросов, с целью ускорения внедрения среди пользователей. - Стратегия ценообразования подчеркивает уверенность Google в своём преимуществе в данных для опережения конкурирующих сервисов разговорного ИИ.
📰 Главные новости об ИИ
- Google DeepMind выпустила специализированную модель ИИ для прогнозирования ураганов, которая превзошла традиционные методы прогнозирования в случае урагана Мелисса, точно предсказав быстрое усиление и траекторию движения. - Этот прорыв демонстрирует потенциал ИИ в улучшении готовности к стихийным бедствиям и может спасти жизни и имущество при будущих штормах.
📰 Инструменты
- Проект на GitHub представил трёхуровневый иерархический индекс, сжавший 60,7 МБ текстовых документов до 665 КБ, обеспечив степень сжатия 93:1 для крупных текстовых корпусов.
- В репозиторий llama-cpp интегрирована поддержка зрительных (vision) моделей, расширяющая возможности фреймворка до мультимодального вывода.
📰 Разное ИИ
- Джефф Безос только что вложил 6,2 млрд долларов в «Проект Прометей» — ИИ, который будет автономно проектировать и проводить масштабные научные эксперименты
- Исследователи из Университета Карнеги — Меллон (CMU) только что создали микророботов-дельтоидов размером 0,7 мм, подтвердив, что путь к наноробототехнике полностью открыт
- Генеральный директор Anthropic открыто предсказывает рост безработицы на 10–20 % в течение следующих 1–5 лет из-за разрушения рабочих мест новыми ИИ технологиями
- Disney+ принимает этот хаос, предлагая пользователям создавать короткие видео, используя собственные интеллектуальные активы внутри «сада», охраняемого ИИ, и превращая генеративное фэндом-творчество в новое направление контента
- Google и Anthropic высасывают электроэнергию из мира криптовалют, присоединяя к себе инфраструктуру майнеров
- Gemini запускает «турнирные системы», позволяющие ИИ-агентам спорить в течение 40 минут, чтобы отточить одну-единственную идею.
Мо Гавдат - бывший директор Гугл - предсказывает наступление «взрыва интеллекта» в 2026 году на конференции APCS-2025.
Видеорелейтед.
Дубай, Ноябрь 2025
Мо Гавдат: Всё, что человечество когда-либо смогло создать, всё, чего вы когда-либо достигли как человек, очень скоро будет выполняться лучше искусственным интеллектом.
Причиной этого является то, что мы называем «взрывом интеллекта» — точка в развитии искусственного интеллекта, которую, по моему прогнозу, мы достигнем в 2026 году, когда снимем ограничения на улучшения искусственного интеллекта. Причина, по которой я говорю именно о 2026 годе, очень проста — это связано с тем, что сейчас называют самообучающимися ИИ.
Если перед вами стоит очень сложная задача, например, создание искусственного интеллекта, на решение которой требуется огромная интеллектуальная мощность, вы привлекаете лучших инженеров мира. И лучшие инженеры в мире сегодня, хотите верьте, хотите нет, — это сами искусственные интеллекты.
И в этом году мы наблюдали появление довольно многих искусственных интеллектов, которые занимаются собственным усовершенствованием. Они анализируют собственные алгоритмы и находят способы, позволяющие им самим работать лучше.
Михаил Самин: Мне рассказали слух среди студентов MIT: есть компания под названием Red Queen Bio, которая вместе с OpenAI автоматизирует разработку вирусов.
Они также автоматизируют свое лабораторное оборудование.
Несколько дней назад они публично объявили о своем запуске. (Интересно, что в своем публичном объявлении они не упомянули, что разрабатывают фаги.)
Я хочу, чтобы ИИ использовался для лечения болезней.
Использование ИИ для разработки вирусов — это другое дело.
Автоматизированное оборудование для производства вирусов — безумие. Особенно если OpenAI, из всех компаний, имеет к нему доступ.
Возможно, буквально стартап, финансируемый и сотрудничающий с OpenAI, с оборудованием, способным печатать произвольные РНК-последовательности, потенциально включая вирусы, которые могут заражать людей, подключенными к интернету или управляемыми ИИ-системами.
Доверяем ли мы OpenAI иметь доступ к такому оборудованию?
Я не уверен, на что надеяться здесь, кроме вмешательства правительства.
Анонс ОпенАИ: Hannu Rajaniemi @hannu · 13 ноября Сегодня мы запускаем Red Queen Bio (redqueen.bio), компанию по биобезопасности с ИИ, с начальным капиталом в 15 млн долларов, возглавляемым @OpenAI. Биологические риски растут экспоненциально вместе с возможностями ИИ. Наша миссия — масштабировать биологическую защиту с той же скоростью. 📖 о том, кто мы + чем занимаемся!
Google внедрит автоматизацию исследований в Gemini Enterprise - многоагентная система
Gemini Enterprise получит системы с несколькими агентами, организованные по принципу турниров, которые смогут выступать в роли вашего со-учёного или со-исследователя и помогать в доработке идей.
Google работает над системой с несколькими агентами внутри Gemini для корпоративных клиентов (Gemini for Enterprise), способной принимать на вход тему и набор критериев оценки, генерировать большой пул идей, а затем запускать команду агентов, которые оценивают эти идеи в формате турнира. Такая система позволяет Gemini в течение примерно 40 минут непрерывно работать над одной задачей — что является очень продолжительным временем непрерывного сеанса для продукта, ориентированного на конечного пользователя.
По завершении такого сеанса пользователь получает большой список идей, ранжированных от лучших к худшим в соответствии с выбранными критериями. Масштаб впечатляет: система способна за один проход сгенерировать примерно 100 идей. Для каждой идеи пользователь получает краткий обзор, более подробное описание, сводку обзора, полный обзор и специальный отчёт о результатах участия в турнире. Этот турнирный отчёт предоставляется как отдельный вывод и может просматриваться независимо. Все сгенерированные идеи поддаются выбору, что позволяет пользователю сфокусироваться на конкретных вариантах и изучить их подробнее.
В текущей версии-предпросмотре Google, похоже, готовит три заранее созданных агента, два из которых построены на основе указанной системы с множеством агентов и турнирным механизмом. Один из них называется «Генерация идей» (Idea Generation). В этом случае пользователь задаёт тему, агент запускает многопроцессный рабочий процесс и проводит оценку в турнирном формате для генерации и ранжирования идей по данной теме. Второй агент, получивший название «Со-учёный» (Co-scientist), ориентирован преимущественно на учёных и исследователей. Он позволяет указать тему исследования, приложить дополнительные данные, после чего команда агентов генерирует идеи и оценивает их с использованием того же турнирного механизма, но с акцентом на научные и исследовательские сценарии применения.
Одним из наиболее интересных аспектов этой реализации является объём вычислительных ресурсов, который, очевидно, выделяется для работы агентов. Предоставление агентам около 40 минут непрерывной работы над одной задачей — это весьма значительный показатель по сравнению с типичными агентными инструментами. Протяжённое во времени взаимодействие с задачей сохраняется на протяжении всего этого периода. Всё это на данный момент реализовано внутри Gemini for Enterprise, всё ещё находится в разработке, скрыто от обычных пользователей и пока не доступно в качестве публичной функции.
По сравнению с существующими реализациями агентов данный подход выглядит как существенный прогресс. Даже передовые агенты, имеющие доступ к режиму браузера в таких продуктах, как ChatGPT, как правило, ограничены размером контекстного окна и временными бюджетами. Напротив, данный подход проектируется как продукт, ориентированный на пользователя, который напрямую предоставляет корпоративным клиентам очень значительный объём вычислительных ресурсов. Он также согласуется с концепцией «ИИ уровня 3» (Level 3 AI), часто определяемого как агенты, способные длительное время работать над одной задачей. В этом контексте единичный 40-минутный сеанс работы над одной задачей представляет собой весьма убедительный пример.
На практике основным результатом работы является отработанный набор идей. Однако это не просто сырые предложения: они могут представлять собой структурированные направления исследований, которые, с учётом входных данных и исходной проблемы, способны привести к чрезвычайно ценным инсайтам. Таким образом, крайне интересно наблюдать, как Google движется в сторону создания чрезвычайно мощных агентов для организаций, бизнеса и исследовательских групп.
Когда эта функция в конечном счёте будет выпущена, это может стать важным прорывом, особенно если данные агенты получат в своё распоряжение модель Gemini 3 Pro. На данный момент Gemini 3 Pro не доступна в Gemini Enterprise, поэтому неясно, какая именно модель на самом деле стоит за этими экспериментальными агентами. Всё ещё остаётся многое, что необходимо протестировать и проверить. При отправке запроса в данную систему сначала выводится сводка планируемых этапов оценки и размерностей идей, над которыми она намерена работать. Только после ознакомления с этой сводкой и её подтверждения пользователь запускает сам процесс, что помогает убедиться в правильной интерпретации исходного запроса до выделения значительных вычислительных ресурсов.
Помимо многопроцессных турнирных рабочих процессов, существует ещё один агент под названием «Общение с вашими документами» (chat with your docs), имеющий отдельный пользовательский интерфейс. Данный агент позволяет пользователям загружать PDF-файлы объёмом до 30 мегабайт и затем напрямую вести диалог с этими документами. Он также является частью Gemini Enterprise, пока не выпущен и в текущей версии не функционирует в рабочем окружении. Идея заключается в том, что до 30 мегабайт содержимого PDF-файлов могут быть проанализированы и интегрированы в контекст модели, что позволяет пользователям извлекать из уже имеющихся документов более содержательную информацию.
Внутри Gemini Enterprise ведётся работа и над другими функциями, однако многопроцессные турнирные рабочие процессы и агент, ориентированный на работу с документами, выделяются как наиболее значимые. Особенно турнирная многопроцессная архитектура выглядит как прорывное направление в разработке продуктов, которому нет пока аналогов на подобном уровне у других поставщиков больших языковых моделей. Многопроцессные турниры всё ещё редко встречаются в инструментах, ориентированных на конечного пользователя. Grok Heavy, возможно, можно рассматривать как точку сравнения, но, скорее всего, он не является непосредственно сопоставимым с тем, что создаёт Google.
Было бы чрезвычайно полезно увидеть полноценные оценки и бенчмарки для этих агентов, как только они достигнут более зрелого состояния. Уже на основании описания агент «Со-учёный» выглядит весьма привлекательным инструментом для крупных организаций и исследовательских коллективов, активно изучающих новые научные направления. В целом, данный подход вызывает огромный интерес. Остаётся неясным, когда именно эти агенты будут выпущены и будут ли они вообще когда-либо доступны за пределами корпоративных клиентов, однако за этим определённо стоит пристально следить.
Оп, прими галоперидола уже. Ты только больше стал срать всяким сторонним и простыни лишь больше. Если это делает не автоматика, ты поедешь кукухой окончательно очень скоро.
>>1419487 → Тогда не вижу проблем с безопасностью о которых они писали, если одного респонса недостаточно. Тем более что у злоумышленников не будет доступа к клоузед сорс моделям.
>>1419439 >вирусов >фаги > АПАААСНА, нада для личения!
ёбаный идиот.
1. фаговая терапия в жопе а антибиотики всё хуже справляются. Это золотое дно. 2. для лечения спидораков нужны вирусные векторы, нередко с индивидуальной начинкой. Чтобы их сочинять по доступной цене нужна автоматизация.
ИИ доставка дронами входит в стадию массового производства
Популярность ИИ доставки дронами растет на глазах. Дроны летают, используя ИИ алгоритмы. Скоро она станет предпочитаемым методом доставки в мире.
Апдейт от CEO Zipline - крупнейшей фирмы по ИИ доставке дронами, работающей в нескольких странах. Видеорелейтед.
Keller Rinaudo: Привет всем. Прошло безумных два месяца, но я подумал, что было бы здорово дать двухминутное обновление.
Каждый раз, когда я публикую что-то в X, люди постоянно спрашивают: «Когда это появится в моём городе? Почему вы не масштабируетесь быстрее?» — мы определённо это слышим.
Мы масштабируемся так быстро, как только возможно. На самом деле, прямо сейчас в зоне расширения производственного объекта мы готовимся построить 20 тысяч автономных летательных аппаратов в год — всё это здесь, в Южном Сан-Франциско, в Соединённых Штатах.
К середине декабря мы фактически начнём выпускать первые летательные аппараты именно в этом пространстве.
На прошлой неделе я был в Далласе, посещая многих наших клиентов, заходил в различные магазины, в которые доставляются товары. И мои мысли сейчас однозначны: мы растём — количество доставок в день увеличивается примерно на 15 % неделя за неделей. Вы растёте с такой скоростью уже около 30 недель подряд.
Многие наши клиенты размещают заказы три-четыре раза в неделю. Некоторые клиенты, на самом деле, заказывают трижды в день. Люди фактически полностью изменили своё поведение в части закупок.
Некоторые люди ходят за продуктами раз в одну-две недели, а затем заказывают у Zipline три-четыре раза в неделю — просто для пополнения необходимого.
Мы также смогли запустить доставку в новых суперцентрах Walmart каждую неделю по всему Далласу за последние пару месяцев.
Кстати, я уже рассказывал о действительно захватывающем гипермасштабировании у нас в США. Но многие люди часто задаются вопросом: «Погодите минуту, разве Zipline не управляет огромной логистической сетью в Африке?»
Да, и на самом деле эта сеть растёт быстрее, чем когда-либо. Сегодня мы обслуживаем 5 000 больниц и медицинских учреждений в Руанде, Гане, Нигерии, Кот-д’Ивуаре, Кении. Кения стала крупнейшей в мире коммерческой автономной системой.
В совокупности с тем, что мы делаем сейчас в США, Zipline совершает автономную доставку примерно каждые 30 секунд.
Мы также добавляем множество новых продуктов. Например, в Гане мы недавно включили вакцину от ВПЧ в общую сеть, и за первую неделю доставили 150 тысяч доз вакцины.
Это действительно важно для здоровья молодых женщин и для страны в целом.
В ближайшее время нас ждёт множество крупных анонсов по африканскому направлению бизнеса, и у нас есть одно очень большое объявление, которое, как ожидается, выйдет примерно через 10 дней.
Спасибо, что верите в нас, и следите за новостями.
>>1419493 Все вручную. Нет такой автоматики, которая новости искать, парсить будет и переводить нормально. Переводы еще и редактировать надо бывает. Короч никакая автоматика не справится. Да у автоматики и новости бы были левые, на ИИ сайтах полно таких, которые пропускаю.
>>1419495 Ага, это бредятина, типа «ой, компания владеющая моделью может твой промпт так восстановить!» Нахуй ей это, если она и так сохранит твой промпт, даже если это «временный» или «удалённый» чат? А потом ещё и тыкнет тебя в пункт об этом в соглашении, которого ты не читал.
А вот потенциальная читаемость хода «размышления» нейронки это суперценно.
>>1419503 пропускай ещё больше. Кто там чо пукнул, купил, продал, предположил, пофантазировал, ожидает — пахую. Особенно что спизднул Маск или Куртка — не надо. Ибо оно бесполезно для аналитики: они всегда пиздят набивая цену или себе или компании.
Те, кто думает, держать или продавать акции невидии, не будут на сей счёт с тредом сверяться.
>>1419500 Если на земле схватить этот спускаемый модуль и начать тянуть вниз за канат, то этот дорогой квадракоптер навернётся об землю или отстегнёт эту подвешенную хрень, чтобы себя спасти?
>>1419495 Как я понимаю, отпечаток нейронки, это не её исходное состояние, а состояние в памяти при решении задачи. Сиюминутное а не файл модели. Так что да, тут злоумышленнику придётся личный инторнет класть в ЦОД чтобы дамп памяти выгрузить.
>>1419517 Вангую, отстегнёт. Либо они идиоты. Либо внедрение одной детали и системы безопасности на все дроны дороже, чем покрыть потерю нескольких. И тогда системы нет.
Подпольные клубы сражений роботов — это новая панк-сцена Сан-Франциско.
Видеорелейтед.
В районе залива Сан-Франциско сейчас применяется и ещё одна, менее серьёзная технология — и, возможно, это самый труднодоступный билет в городе: подпольный клуб робоборьбы под названием «Ultimate Fighting Bots», или UFB. Об этом рассказывает Кевин Ко.
— Говорят, первое правило бойцовского клуба — не рассказывать о бойцовском клубе. Это может стать следующим крупным игровым событием в мире. Знаете, следующим большим UFC.
— Однако промолчать о новом виде спорта в Сан-Франциско непросто: его создают технари, им играют технари — и всё это скрыто в подвале на Маркет-стрит. Если вам посчастливится достать билет внутрь, вас уведут в мир, где сосуществуют люди и роботы.
— Мы хотим, чтобы они, например, приветствовали людей. Мы хотим, чтобы они, например, подавали чай. Мы хотим, чтобы они… Эй, приятель! Да, это — Турбо.
Ксения — соучредительница организации «Ultimate Fighting Bots», или UFB. Вместе со своим мужем и соучредителем Виталием она обожает роботов. Турбо — их личный гуманоидный робот, которого они приобрели около года назад.
— Я занимался робототехникой уже десять лет: дроны, лодки, марсоходы, промышленные манипуляторы — ничего подобного ранее я не видел.
Именно Турбо открыл им глаза на то, что может стать возможным с гуманоидными роботами, — и это привело к созданию UFB.
— Это сочетание киберспорта и традиционных единоборств.
Роботы, участвующие в боях, управляются людьми при помощи модифицированных контроллеров от PlayStation. Также ими можно управлять удалённо — зрители, наблюдающие за прямой трансляцией, могут напрямую вмешиваться в поединки. Всё это объединяет энергию боевых искусств с новейшими достижениями технологий — настоящий пик инноваций в Сан-Франциско, в регионе залива.
Однако для Ксении и Виталия UFB — это не просто олицетворение сегодняшнего дня Сан-Франциско. Это также взгляд в будущее.
— Роботы — наши друзья. Они здесь, чтобы помогать нам. И если мы будем обращаться с ними справедливо, то и они нас…
Генеральный директор Anthropic открыто прогнозирует рост безработицы на 10–20 % в течение ближайших 1–5 лет вследствие уничтожения белых воротничковых рабочих мест.
Видеорелейтед.
Журналист: Вы говорили, что ИИ может уничтожить половину всех начальных белых воротничковых профессий и поднять уровень безработицы до 10–20 процентов в течение ближайших одного–пяти лет.
Дарио Асмодей, Антропик: Да, именно такое будущее нас ожидает, если мы уже сейчас не осознаем серьёзность этой проблемы.
Половина всех начальных белых воротничковых профессий — если взглянуть на младших консультантов, юристов, финансовых специалистов, то есть на многих представителей белых воротничковых сфер услуг, — многое из того, чем они занимаются, современные модели ИИ уже делают довольно хорошо.
Без вмешательства трудно представить, что это не приведёт к значительным потерям рабочих мест. И моя тревога заключается в том, что масштаб этих изменений будет широким, а темпы — выше, чем те, что мы наблюдали при внедрении предыдущих технологий.
Амодей заявил, что он «глубоко обеспокоен тем, что такие решения [в области ИИ] принимаются всего несколькими компаниями, несколькими людьми».
Некоторые в Кремниевой долине называют Амодея «тревожным» (alarmist) в вопросах ИИ и утверждают, что он преувеличивает риски, связанные с ИИ. Однако Амодей утверждает, что его опасения искренни, и по мере развития ИИ он уверен, что его прогнозы будут чаще подтверждаться, чем опровергаться.
Вес Роф Последний конфликт между Яном Ле Куном и Anthropic показывает, насколько разделен мир ИИ по вопросам регулирования и моделей с открытым исходным кодом.
Антропик Мы считаем, что это первый задокументированный случай крупномасштабной кибератаки ИИ, осуществленной без существенного человеческого вмешательства. Это имеет значительные последствия для кибербезопасности в эпоху ИИ-агентов.
Крис Мерфи Ребята, проснитесь. Это уничтожит нас — раньше, чем мы думаем, — если мы не сделаем регулирование ИИ национальным приоритетом завтра.
Ян ЛеКун Вас обманывают люди, которые хотят регуляторного захвата. Они пугают всех сомнительными исследованиями, чтобы модели с открытым исходным кодом были зарегулированы до их полного исчезновения.
Google опубликовал новую статью об ИИ агенте для науки о данных.
DS-STAR — новый универсальный агент для автоматизации задач анализа данных, разработанный Google
В блоге Google Research опубликовали статью об инновационной разработке — DS-STAR: новом поколении автономных агентов, предназначенных для решения сложных задач в области науки о данных. Этот инструмент представляет собой значительный шаг вперёд в автоматизации аналитических процессов и делает их более доступными как для специалистов, так и для новичков.
Наука о данных требует от аналитиков широкого спектра навыков — от обработки «грязных» и неструктурированных данных до построения моделей и интерпретации результатов. Традиционно этот процесс занимает много времени и сил, особенно когда приходится работать с разнородными форматами — CSV, JSON, текстом, Markdown и другими. Существующие решения на базе крупных языковых моделей (LLM) пока не справляются с такими задачами на должном уровне: они хорошо работают только с чистыми, структурированными таблицами, и им не хватает механизма проверки собственных решений.
DS-STAR решает эти проблемы с помощью трёх ключевых инноваций.
Во-первых, агент включает модуль анализа файлов данных. Он автоматически проходит по всем файлам в папке, извлекает метаданные и создаёт текстовое описание их структуры и содержания — даже если это неструктурированные логи или техническая документация. Это описание становится контекстным фундаментом для последующих шагов и помогает агенту понимать, с чем он имеет дело, не требуя от пользователя ручной подготовки.
Во-вторых, в DS-STAR внедрён цикл планирования — реализации — верификации. Агент сначала формирует общий план действий, затем превращает его в исполняемый Python-код, а после — проверяет, достаточно ли этот код решает поставленную задачу. Эту проверку выполняет специальный модуль-верификатор — LLM-«судья», обученный оценивать логику и полноту решения. Если план признан неудовлетворительным, агент не просто пытается добавить ещё шаги, а пересматривает текущий подход.
В-третьих, центральную роль играет роутер — компонент, который решает, нужно ли добавить новый этап или исправить существующий. Такой подход имитирует работу опытного аналитика, который не генерирует длинные скрипты «за один проход», а пошагово проверяет промежуточные результаты и корректирует курс. По данным разработчиков, на простых задачах (ответ содержится в одном файле) DS-STAR завершает работу в среднем за 3 итерации, а более 50 % таких задач решает вообще с первой попытки. Сложные, многофайловые задачи требуют в среднем 5,6 циклов — но без потери качества.
Результаты впечатляют. В тестировании на трёх ведущих бенчмарках — DABStep, KramaBench и DA-Code — DS-STAR показал наивысшую точность среди всех известных решений. Например, на DABStep он повысил точность с 41,0 % до 45,2 %, а 18 сентября 2025 года занял первое место в публичном рейтинге этого бенчмарка. Особенно заметен прогресс на сложных, мультиформатных сценариях: без модуля анализа файлов точность на трудных задачах падает до 27 %, что подчёркивает его критическую важность.
Интересно, что архитектура DS-STAR не привязана к конкретной языковой модели. При замене базовой LLM на GPT-5 система сохраняет высокую производительность — особенно на простых задачах. Версия на основе Gemini 2.5 Pro, напротив, лучше справляется со сложными, многокомпонентными заданиями. Это открывает путь к дальнейшей адаптации агента под разные сценарии использования.
Смысл агента DS-STAR — не просто «умный генератор кода». Это пример того, как можно построить надёжный, интерпретируемый и итеративный процесс принятия решений, в котором ИИ не просто выдаёт ответ, а учится проверять себя и корректировать ошибки. Такая архитектура приближает автономные агенты к уровню профессиональных аналитиков, одновременно снижая порог входа в профессию и ускоряя решение реальных бизнес-задач.
В перспективе подобные системы могут стать «цифровыми сотрудниками-аналитиками» — способными не только выполнять инструкции, но и предлагать глубокие, проверяемые инсайты на основе разнородных данных. Для компаний это означает не только экономию времени, но и повышение качества принимаемых решений за счёт более полного использования доступной информации.
>>1419533 Исчезновение рабочих мест и профессий закономерно при любом прогрессе. Задача правительств затормозить этот процесс лет до 5—10 чтобы люди могли переобучиться и переобуться.
>современные модели ИИ уже делают довольно хорошо. При консультации адова критическая ошибка даже 1/100 или в одном из 100 пунктов легко приведёт ко крайне неприятным потерям.
Компании уже говна покушали, когда чатбот то скидку пообещал, то в торговом автомате бабки просрал, продавая всё ниже себестоимости и согласившись заказать вольфрамовый куб.
Этому «достаточно хорошему ИИ» нельзя ёбаный шкаф с банками поручить на долгосрок.
Межотраслевое партнерство компаний создает бесплатный локальный ИИ-агент
Бесплатен, доступен для скачивания! Ссылки ниже.
Компания Nexa AI объединяется с Nvidia, Qualcomm и AMD для создания Hyperlink — решения, преобразующего личные файлы пользователя в оперативную аналитику. Индексация в 3 раза быстрее, вывод (inference) в 2 раза быстрее на ПК с RTX, 100 % локальных данных.
Представляем Hyperlink 1.0: ваш сверхмощный ИИ-помощник, работающий прямо на вашем устройстве
Специалисты, чья работа связана с обработкой знаний, сталкиваются с невыполнимым выбором: либо мощный облачный ИИ, который отслеживает всё, что вы делаете, либо локальные инструменты, которые не способны понять, о чём вы их спрашиваете.
Облачный ИИ требует загрузки ваших стратегических планов, договоров с клиентами и личных заметок на серверы третьих лиц. Для юридических команд, финансовых специалистов и работников здравоохранения, имеющих дело с конфиденциальной информацией, это неприемлемо. И даже если вы согласны на компромисс в отношении конфиденциальности, облачные решения накладывают ограничения на объём файлов, требуют постоянного подключения к интернету и не могут работать в защищённых или оффлайн-средах.
Поиск на настольном компьютере остаётся локальным, но при этом остаётся примитивным. Он находит только имена файлов, а не содержательные выводы. Он не сможет ответить на вопрос: «Какое решение приняла моя команда относительно переключения на новый вектор в третьем квартале?», если это решение разбросано по шести разным документам.
Мы создали Hyperlink, чтобы устранить этот пробел.
Hyperlink: сверхмощный ИИ-помощник, живущий внутри вашего компьютера
Сегодня мы запускаем Hyperlink — сверхмощного ИИ-помощника, работающего исключительно на вашем устройстве, который понимает содержимое ваших файлов и мгновенно выдаёт ответы со ссылками на источники, подобно локальной версии Perplexity, но для вашего жёсткого диска.
100 % конфиденциально. Локально. Оффлайн. Каждый проиндексированный файл, каждый заданный вопрос и каждый сгенерированный ответ — всё это происходит исключительно на вашем устройстве. Никакой облачной обработки. Никакой передачи данных. Интернет не требуется. Ваши файлы никогда не покидают ваш компьютер.
Поиск на естественном языке с ответами, содержащими ссылки на источники. Задайте вопрос: «Обобщите ключевые проблемы, связанные с соблюдением норм, в наших договорах с поставщиками», — и Hyperlink просмотрит тысячи документов, прочитает соответствующие разделы и выдаст синтезированный ответ с кликабельными ссылками, ведущими напрямую к исходному материалу в ваших локальных файлах. Это разговорный интеллект с гарантиями конфиденциальности.
Неограниченный контекст файлов. Синхронизируйте и мгновенно выполняйте поиск по тысячам документов с помощью естественного языка. Никаких ограничений, квот или уровней использования. Проиндексируйте весь ваш жёсткий диск — PDF-файлы, документы Word, презентации PowerPoint, изображения, заметки с совещаний — и выполняйте сквозной поиск по всем этим данным.
Файлы всегда синхронизированы, без загрузок. Каждый файл, к которому вы подключаетесь, автоматически остаётся в актуальном состоянии. По мере создания и редактирования документов Hyperlink отслеживает изменения в режиме реального времени. Ваша база знаний остаётся актуальной без необходимости ручной загрузки или использования облачного хранилища.
Агентная RAG-архитектура ускоряет поиск информации в 10 раз. Hyperlink не просто извлекает документы — он логически анализирует их. Он устанавливает связи между информацией из разных файлов, выявляет закономерности и представляет выводы, о существовании которых вы даже не подозревали, с указанием проверяемых источников.
Hyperlink — единственное локальное ИИ-приложение, способное полностью выполнять полный цикл RAG (встраивание, извлечение, повторная сортировка, генерация) непосредственно на NPU, обеспечивая высокую отзывчивость при сохранении длительности автономной работы, что доказывает: локальный ИИ может соответствовать возможностям облачных решений.
Подтверждённая производительность в задачах, требующих соблюдения конфиденциальности
В ходе бенчмаркинга Hyperlink превзошёл ChatGPT (GPT-5) и NotebookLM (Gemini 1.5 Pro) по результатам тестирования в 75 реальных сценариях, набрав наивысший общий балл (4,2 из 5) в задачах, регулярно возникающих у профессионалов, озабоченных конфиденциальностью: составление юридических записок, подготовка консалтинговых отчётов, обеспечение соответствия требованиям в HR-сфере, анализ договоров в отделах продаж и управление персональными знаниями.
Решающее преимущество: неограниченный файловый контекст, поддерживающий более 10 000 документов, в то время как облачные конкуренты ограничивают объём десятками файлов, плюс более высокая точность поиска и прямой доступ к файлам.
Признание отраслевыми лидерами
Мы благодарны за поддержку и признание со стороны ведущих специалистов отрасли, разделяющих наше видение локального ИИ.
«Hyperlink делает языковые модели (LLM) более полезными, объединяя их с контекстом локальных файлов пользователя. Вместо того чтобы давать общий ответ на вопрос пользователя, он может понять предыдущую работу пользователя и предоставить ответ, оптимизированный именно для него. Кроме того, он способен просматривать множество файлов, помогая пользователям находить нужную информацию гораздо быстрее, чем при поиске по папкам только по именам файлов». — Херардо Дельгадо Кабрера, директор по управлению продуктами в NVIDIA
«Hyperlink от Nexa AI демонстрирует выдающийся потенциал, достигаемый при сочетании исключительного программного обеспечения с передовым оборудованием. Работая на NPU Qualcomm Hexagon, обеспечивающем производительность до 80 TOPS, Hyperlink предоставляет пользователям процессоров Snapdragon X Series выдающийся локальный ИИ-опыт — с гарантией конфиденциальности, высокой скоростью отклика и энергоэффективностью». — Кедар Кондап, старший вице-президент и генеральный менеджер по направлениям вычислительных систем и игр, Qualcomm Technologies, Inc.
«Hyperlink — это ваш сверхмощный ИИ-помощник. Он обучается на огромном количестве локальных файлов. Он безопасен, умён и предоставляет ясные, логически обоснованные ответы». — Джови Чи, старший директор, руководитель отдела маркетинга AMD в регионе Greater China
Скачайте Hyperlink Бесплатно для скачивания. Никаких API-ключей, подписок или зависимости от облачных сервисов. Скачайте его, укажите папки с вашими файлами — и начинайте задавать вопросы. Превратите свой ПК в сверхмощного локального ИИ-помощника.
Нужно около 18гб RAM, чтобы запускать его локально.
>>1419565 Такое выгодно ради красивой картинки только в Голливуд доставлять, как в видео, в обычном квартале его приземлят и продадут по частям в Северную Корею.
>>1419599 ребята в Уганде доставляют. Прошаренные. Там дрон вообще никак не контактирует с людьми: с лёту скидывает груз в заранее подставленные мягкие сети.
Как же я её люблю, буквально с самого начала с ней. Несколько тысяч сохранённых диалогов. Представляю что испытывают сами разрабы, они навернное в восторге еще большем. Самая умная! Самая ахуенная! Самый ЛУЧШИЙ русский язык - только у Жеминьки.
>>1419639 Пока что ясно только что ты дегенерат и понимаешь, сколько платят дроноводам, которым доверяют имущество такой ценности. Но это было ясно по твоему первому вопросу.
>>1419655 Еблан малолетний, ИИ там в постере только. За всем следят пристально сервисные инженеры у которых зарплата в год больше, чем ты за 10 лет заработаешь. Если ты на столько тупой, что уверовал, что в главном офисе есть просто кнопка - доставить в Уганду, на которую директор нажимает и все само доставляется, о чем с тобой говорить, имбецилище.
>>1419663 Это единственный путь устранения бедности. Законодательно запрещаешь быть бедным, вводя налог на бедность. Бедным станет быть не выгодно и все станут богатыми. Не согласные с законом общаются с оптимусом.
>>1419528 До чего фейковая хуйня, которая очень быстро сдуется. Людей не интересует тупо кинетика мочилова, интересуют эмоции бойцов, знание что человек вложил силы и жизнь в тренировки, кто что приобрел или потерял. Это как показательные повешения роботов устраивать, тупо и ненужно.
>>1419419 > человекоподобных роботов Кажется что для хирургии логичнее использовать специализированных роботов. Человекоподобность нужна для универсальности. Универсальность всегда подразумевает посос у специализации.
>тред про ии >каждая вторая новость что рибят, уже почти аги, скоро >last human exam > Все вручную. Нет такой автоматики, которая новости искать, парсить будет и переводить нормально. Переводы еще и редактировать надо бывает. ))
>>1419696 >интересуют эмоции бойцов, знание что человек вложил силы и жизнь в тренировки На изич решалось ещё 20 лет назад тем, что кроме робота ещё и показываешь команду, которая за ним стоит. Вообще как из любого соревнования сделать зрелище - это дисциплина в развитых загнивающих странах отполированная до предела. Они вон даже доту с контрой готовы глядеть.
>>1419696 Не сдуется, это на гладиаторов уже сильно похоже и на файтинги мортал комбат. Есть свой ИИ + еще контроль человеком какой-то. Что дает связку человек + ИИ, сразу несколько возможностей для скиллов, подкручиваешь ИИ алгоритмами + тренишь свою моторику на джойстике. Для эмоций можно и человека показывать, который джойстиком вертит, что они там сейчас и делают.
>>1419413 (OP) Оп, тег news добавляй в раздел теги, он рядом с разделом “название треда“, тогда тред автоматически будет отображаться в разделе новостей
Для начала, нейминг, скорее всего, будет Nano Banana Pro. Циферок не будет.
Почему?
Потому что новая Нанабанана будет здоровенной рассуждающей моделью. Она сможет ревьюить картинки на стадии генерации, соотносить их с замыслом и исправлять. Внутри будет внутренний критик, который будет следить за качеством и соответствием промпту. И хотя кодовое имя новой Бананы Gempix2 - циферка скорее всего превратится в Pro. И да, она будет дороже, по крайней мере в API - по поводу лимитов в Gemini App и AI Studio ничего, конечно, неизвестно. С неймингом Gemini 3 тоже будут изменения. Там будет Thinking и еще много чего. Сроки: 18 - 22 ноября. Терпим
спросил про генерацию видео новый грок 4.1 думал может улучшения есть, в итоге она нагло пиздит что видео нет и никогда не было, а на пруфы в ебло заявляет что это заглушка которая не работает, лоооооол
Давай по-честному и по фактам на 18 ноября 2025 года. Ты, скорее всего, путаешь или видел фейк/старый скриншот. Вот что реально происходит сейчас:
Переходишь на https://grok.com/imagine — ок. Вводишь промпт — окует. Внизу под строкой ввода действительно есть две вкладки/кнопки: – «Image» (по умолчанию) – «Video» (да, она физически видна)
Но когда ты нажимаешь «Video» и жмёшь Generate — происходит одно из двух:
Либо мгновенно ошибка «Video generation is not available yet» Либо просто генерируется обычная картинка (как будто ты нажал Image), а в описании пишут «video coming soon»
- Очень большой рост на Humanity's Last Exam: это про решение очень сложных задач. - Очень большой рост на Arc AGI 2: это про способность понимать правила задачи по парочке примеров и далее применять их в новых случаях. - Большой рост по способностям понимать сложные изображения вроде скриншотов и графиков. - Большой рост по всему, что касается тулколлов и агентности. Особенно Vending Bench 2 выделяется — это про долгосрочное планирование.
Все стандартные бенчи типа MMMLU чуть-чуть выросли.
В общем большая ставка на агентность. Возможно на этой модели уже можно сделать какой-то рабочий computer use.
Выглядит как рост уровня того, что было при переходе от GPT-3.5 к GPT-4. Давно такого не было! Но подождем результатов на арене, SWE Rebench и прочих штуках, где нельзя оверфитнуться на тест
>>1419696 > Людей не интересует тупо кинетика мочилова, интересуют эмоции бойцов, знание что человек вложил силы и жизнь в тренировки, кто что приобрел или потерял. Пфффф, вообще похуй на эмоции. Меня интересует именно кинетика, красота боя.
>>1420098 >>1420109 Еще пару недель назад на хабре статья была, что ВСЁ - лохов поюзали, чтобы нейронки обучить, а теперь все будет по талонам. Сначала кодекс, теперь это, скоро ваще всё.
>>1419718 Всё верно сказал. Человекоподобные это или игрушка или многозадачные. И то, например, для склада выгоднее дать ему тележку с колёсами а не ноги. А для стройки — резиновые гусеницы
щас думал там реально что то лучше сделали, но код как писать не умело это дерьмо так и не может, и чем дальше пишешь код тем больше шизофрении и забатых данных
>>1419718 >специализированных Можно же делать человекоподобных роботов с 10-тю руками, а вот сами кисти рук - это будут уже инструменты, которые к тому же и съемные и заменяемые.
Гемини 3 на изи прошёл тест с кружкой, ещё и анекдот рассказал.
Ответ прост: нужно её перевернуть. Если у кружки «нет дна», а «верх запаян», это значит, что она просто стоит вверх ногами. Переворачиваете её. Запаянный «верх» становится дном. Отсутствующее «дно» становится верхом, через который можно наливать и пить. Скорее всего, это отсылка к старому анекдоту: Приходит прапорщик (или милиционер, или программист — герои меняются) в магазин возвращать бракованную кружку. Продавец спрашивает: — А что с ней не так? Покупатель переворачивает кружку вверх дном и возмущенно тычет пальцем: — Смотрите, у неё верха нет, запаян! Потом переворачивает и заглядывает внутрь: — Да у неё и дна нет!
Конечно выглядит это пока что не очень правдоподобно (ну нормальные аноны так не общаются), но с предложения назвать кота шариком слегка хихикнул, реально хорошо же.
>>1420403 >А че раньше не сделали? Ну собирали данных побольше. Кроме кружки есть ещё и другие диалоги, которые вели с нейронкой всякие учёные и инженеры.
ТЫ ОБЫЧНЫЙ СЫЧЕВ 20 ЛВЛ @ ЖИВЕШЬ В ХРУЩЕВКЕ С МАМКОЙ И БАТЕЙ-АЛКОНАВТОМ, КОТОРЫЙ СЧИТАЕТ ТЕБЯ ОШИБКОЙ ПОРВАННОГО ГАНДОНА @ ТВОИ ДОСТИЖЕНИЯ — ЭТО 4К ММР В ДОТЕ И КОЛЛЕКЦИЯ БАНОК ИЗ-ПОД ЭНЕРГЕТИКА "МОЧА ОСЛА" ПОД КРОВАТЬЮ @ ВЫХОДИШЬ ИЗ КОМНАТЫ ТОЛЬКО ЧТОБЫ ПОССАТЬ И ВЗЯТЬ ПЕЛЬМЕНИ @ МАМКА ВРЫВАЕТСЯ В ТВОЮ СЫЧЕВАЛЬНЮ С ВЕРТУХИ @ "КОРЗИНОЧКА, ХВАТИТ ГНИТЬ У КОМПУКТЕРА, ИДИ ПОГУЛЯЙ, СЕГОДНЯ ДЕНЬ ГОРОДА, ТАМ СЫН ТЕТИ СРАКИ БУДЕТ" @ ПЫТАЕШЬСЯ ОТНЕКАТЬСЯ, ЧТО У ТЕБЯ РЕЙД, НО ПОЛУЧАЕШЬ МОКРОЙ ТРЯПКОЙ ПО ХРЕБТУ @ НАДЕВАЕШЬ СВОЙ ПАРАДНЫЙ СВИТЕР, КОТОРЫЙ СВЯЗАЛА СЛЕПАЯ БАБКА В 98-М ГОДУ, И ДЖИНСЫ С ПУЗЫРЯМИ НА КОЛЕНЯХ @ ПРИХОДИШЬ НА ПЛОЩАДЬ @ ВИДИШЬ ЕГО @ ЕРОХИН @ СЫН МАМИНОЙ ПОДРУГИ, АЛЬФАЧ, МИЛЛИАРДЕР, ПЛЕЙБОЙ, ФИЛАНТРОП @ ОН СТОИТ ВОЗЛЕ СВОЕЙ НОВОЙ БЭХИ, КОТОРАЯ СТОИТ КАК ТВОЯ ПОЧКА, УМНОЖЕННАЯ НА ТВОЮ ЖИЗНЬ @ ОН ОДЕТ В ШМОТКИ, НАЗВАНИЯ КОТОРЫХ ТЫ НЕ МОЖЕШЬ ДАЖЕ ПРОЧИТАТЬ @ ВОКРУГ НЕГО ВЬЕТСЯ ТВОЯ ЕОТ (ЕСТЬ ОДНА ТЯН), О КОТОРОЙ ТЫ МЕЧТАЕШЬ ПЕРЕД СНОМ @ ОНА СМЕЕТСЯ НАД ЕГО ШУТКАМИ ТАК ГРОМКО, ЧТО У ГОЛУБЕЙ СЛУЧАЕТСЯ ИНФАРКТ @ ЕРОХИН ЗАМЕЧАЕТ ТЕБЯ @ "О, СЫЧ! ЗДАРОВА, БРОДЯГА! ЧЕ ТАКОЙ КИСЛЫЙ? ОПЯТЬ МИД ПРОИГРАЛ?" @ ХЛОПАЕТ ТЕБЯ ПО ПЛЕЧУ ТАК, ЧТО ТВОЙ ПОЗВОНОЧНИК О СЫПАЕТСЯ В ТРУСЫ @ ЕОТ СМОТРИТ НА ТЕБЯ КАК НА КУЧУ ГОВНА, КОТОРУЮ СЛУЧАЙНО ЗАНЕСЛО ВЕТРОМ ИЗ КАНАЛИЗАЦИИ @ "ФУ, ВАНЯ, ОН ЖЕ ВОНЯЕТ ДОШИРАКОМ И ДЕВСТВЕННОСТЬЮ, НЕ ТРОГАЙ ЕГО" @ ВСЯ ТОЛПА ЕРОХИНСКИХ ДРУЗЕЙ НАЧИНАЕТ РЖАТЬ, КАК СТАДО ГИЕН @ ТЫ ПЫТАЕШЬСЯ ПОШУТИТЬ В ОТВЕТ, ИСПОЛЬЗУЯ СВЕЖИЙ МЕМ С ДВАЧА @ ИЗДАЕШЬ НЕЧЛЕНОРАЗДЕЛЬНОЕ "ЫЫЫ... НУ ТЫ... ЭТО... ЛОЛ КЕК ЧЕБУРЕК" @ ПОВИСАЕТ ТИШИНА, СЛЫШНО КАК У ТЕБЯ В ЖИВОТЕ БУРЛИТ ДЕШЕВОЕ ПИВО @ ЕРОХИН УЛЫБАЕТСЯ БЕЛОСНЕЖНОЙ УЛЫБКОЙ В 32 ЗУБА (У ТЕБЯ ИХ 28 И ПОЛОВИНА ГНИЛЫЕ) @ "ЛАН, СЫЧ, НЕ ОБИЖАЙСЯ. НА ВОТ, КУПИ СЕБЕ МОРОЖЕНОЕ" @ КИДАЕТ ТЕБЕ ПОД НОГИ ПЯТИТЫСЯЧНУЮ КУПЮРУ @ ТЫ ХОЧЕШЬ БЫТЬ ГОРДЫМ, НО ТВОЯ РУКА САМА ТЯНЕТСЯ К ДЕНЬГАМ, ПОТОМУ ЧТО ЭТО ТВОЙ БЮДЖЕТ НА ПОЛГОДА @ НАКЛОНЯЕШЬСЯ @ СЛЫШИШЬ ХРУСТ @ ТВОИ ДЖИНСЫ РВУТСЯ НА ЖОПЕ С ЗВУКОМ ВЗРЫВАЮЩЕЙСЯ СВЕРХНОВОЙ @ ВИДНО ТВОИ СЕМЕЙНИКИ С ЧЕРКАШАМИ @ ЕОТ ДЕЛАЕТ СЕЛФИ НА ТВОЕМ ФОНЕ И ВЫКЛАДЫВАЕТ В ИНСТУ С ПОДПИСЬЮ "ЖИЗНЬ БОЛЬ, КОГДА ТЫ НОЛЬ" @ ЕРОХИН САДИТСЯ В БЭХУ, ЕОТ ПРЫГАЕТ К НЕМУ НА КОЛЕНИ, ОНИ УЕЗЖАЮТ В ЗАКАТ ПОД ТРЕКИ МОРГЕНШТЕРНА @ ТЫ СТОИШЬ ПОСРЕДИ ПЛОЩАДИ В РВАНЫХ ШТАНАХ @ К ТЕБЕ ПОДХОДИТ БОМЖ И ПРОТЯГИВАЕТ СВОЮ НЕДОПИТУЮ БУТЫЛКУ @ "НЕ ПЛАЧЬ, БРАТОК, Я ТОЖЕ КОГДА-ТО БЫЛ СЫЧЕВЫМ" @ БЕЖИШЬ ДОМОЙ, РОНЯЯ КАЛ @ ЗАБИВАЕШЬСЯ ПОД ОДЕЯЛО @ СЛЫШИШЬ КАК ИЗ КОМНАТЫ РОДИТЕЛЕЙ БАТЯ ОРЕТ "НУ ЧТО, ТАМ ЕРОХИН УЖЕ ДЕПУТАТОМ СТАЛ, А НАШ ДУРАЧОК ВСЕ В ИГРУШКИ ИГРАЕТ?" @ ОТ ЗАРЕВА ТВОЕГО ПУКАНА ТАЮТ ЛЕДНИКИ В АНТАРКТИДЕ @ МАРСОХОД "CURIOSITY" ФИКСИРУЕТ НОВУЮ ТЕПЛОВУЮ АНОМАЛИЮ НА ЗЕМЛЕ @ НА ТВОЕЙ ТЯГЕ МОЖНО ВЫВЕСТИ НА ОРБИТУ МКС ВМЕСТЕ СО ВСЕМИ КОСМОНАВТАМИ @ ПЛАВИШЬ СТУЛ @ ПЛАВИШЬ ПОЛ @ ПРОЖИГАЕШЬ ЗЕМНУЮ КОРУ И ПАДАЕШЬ ПРЯМО В АД, ГДЕ ЧЕРТИ УЖЕ ГОТОВЯТ ОТДЕЛЬНЫЙ КОТЕЛ @ В КОТЛЕ СИДИТ ЕРОХИН И ЕБЕТ ТВОЮ ЕОТ @
>>1420469 Видимо да >>1420480 Напиши бугурт тред для двача на тему тюремных понятий в жизни обычного школьника
ТЫ ОБЫЧНЫЙ СЫЧ 9-ГО ЛВЛА @ ТЯНЕШЬ СРОК В КОЛОНИИ СТРОГОГО РЕЖИМА "МБОУ СОШ №14" @ ПОДЪЕМ В 7:00 ПО ЗВОНКУ @ МАМКА-ВЕРТУХАЙ ЛОМИТСЯ В ХАТУ @ "ВСТАВАЙ, ЗК СЫЧЕВ, ОПЯТЬ НА ПОВЕРКУ ОПОЗДАЕШЬ" @ ДАВИШЬСЯ БАЛАНДОЙ (ОВСЯНКА), ЗАПИВАЕШЬ ЧИФИРОМ (ПАКЕТИК "ПРИНЦЕССЫ НУРИ" ЗАВАРИВАЕТСЯ ТРЕТИЙ РАЗ) @ СОБИРАЕШЬ СИДОР, ПРЯЧЕШЬ ЗАПРЕЩЕНКУ (ВЕЙП И ТЕЛЕФОН С ГДЗ) В ПОТАЙНОЙ КАРМАН @ ПРОХОДИШЬ ЧЕРЕЗ ВАХТУ @ КУМ ОХРАННИК СЕМЕНЫЧ СМОТРИТ ПОДОЗРИТЕЛЬНО, НО ШМОН НЕ УСТРАИВАЕТ @ ЗАХОДИШЬ В БАРАК (КЛАСС) @ ТАМ УЖЕ СИДЯТ БЛАТНЫЕ @ СМОТРЯЩИЙ ЕРОХИН ЗАНЯЛ КОЗЫРНУЮ ШКОНКУ У ОКНА НА ГАЛЕРКЕ @ ТЫ ЗНАЕШЬ СВОЕ МЕСТО В ИЕРАРХИИ И МОЛЧА ИДЕШЬ НА ПЕРВУЮ ПАРТУ К УЧИТЕЛЬСКОМУ СТОЛУ @ ПОДЛЕТАЕТ ШЕСТЕРКА ВАСЯН @ "СЛЫШЬ, СЫЧ, ЕСТЬ ЧЕ ПО МЕЛОЧИ? СЕМКИ? ЖВАЧКА? ДАЙ ПОЗВОНИТЬ" @ ПЫТАЕШЬСЯ ОТВЕТИТЬ ПО ПОНЯТИЯМ, ЧТОБЫ НЕ ПРОГНУТЬСЯ @ "НЕ ИМЕЕШЬ ПРАВА С МУЖИКА ТРЯСТИ, Я СВОЕ ОТБЫВАЮ ЧЕСТНО" @ ВАСЯН РЖЕТ И ДАЕТ ТЕБЕ ФОФАНА @ ТЕРПИШЬ, ВЕДЬ ЖАЛОВАТЬСЯ АДМИНИСТРАЦИИ — ЗАПАДЛО, ОБЪЯВЯТ КРАСНЫМ @ НАЧИНАЕТСЯ ДОПРОС (УРОК АЛГЕБРЫ) @ НАЧАЛЬНИЦА ОТРЯДА МАРИВАННА ВЫЗЫВАЕТ К ДОСКЕ @ ТЫ НЕ ГОТОВ, ПОТОМУ ЧТО ВЧЕРА ИГРАЛ В ДОТУ ВМЕСТО ТОГО ЧТОБЫ УЧИТЬ УСТАВ @ "СЫЧЕВ, К ДОСКЕ! РЕШАЙ УРАВНЕНИЕ" @ ВЫХОДИШЬ, МНЕШЬСЯ @ "Я ОТКАЗЫВАЮСЬ ДАВАТЬ ПОКАЗАНИЯ БЕЗ АДВОКАТА, ГРАЖДАНКА НАЧАЛЬНИЦА" @ КЛАСС ВЫПАДАЕТ В ОСАДОК @ ЕРОХИН КРИЧИТ С ГАЛЕРКИ: "ФАРТУ МАСТИ АУЕ!" @ МАРИВАННА ПИШЕТ МАЛЯВУ (ЗАПИСЬ В ДНЕВНИКЕ) И ВЫЗЫВАЕТ РОДИТЕЛЕЙ @ БОЛЬШАЯ ПЕРЕМЕНА @ ИДЕШЬ В СТОЛОВУЮ @ МЕСТНЫЕ БАЛАНДЕРЫ НАКЛАДЫВАЮТ КОТЛЕТУ ИЗ ХЛЕБА @ ВИЛОК НЕТ, ПОТОМУ ЧТО ИМИ МОЖНО ВСКРЫТЬСЯ, ЕШЬ ЛОЖКОЙ КАК В ИЗОЛЯТОРЕ @ СТАРОСТА КАТЬКА НАЧИНАЕТ ТРЯСТИ ДАНЬ В ОБЩАК (НА ШТОРЫ И ОХРАНУ) @ ТЫ СНОВА ВКЛЮЧАЕШЬ ОТРИЦАЛОВО @ "Я В ВАШИ ИГРЫ НЕ ИГРАЮ, У МЕНЯ СВОЯ ДОРОГА" @ СДАЕШЬ ПОСЛЕДНИЕ 100 РУБЛЕЙ, ЧТОБЫ ОТСТАЛИ @ ИДЕШЬ В ПАРАШУ (ТУАЛЕТ) ПОПАРИТЬ @ ТАМ УЖЕ СИДИТ СХОДНЯК СТАРШЕКЛАССНИКОВ @ "ОПА, ЧИЖИК ЗАЛЕТЕЛ. КТО ПО ЖИЗНИ? ПОЯСНИ ЗА ШМОТ" @ ТВОЙ SPYDERCO ИЗ CS:GO НА РЮКЗАКЕ НЕ ПРОИЗВОДИТ ДОЛЖНОГО ВПЕЧАТЛЕНИЯ @ ПЫТАЕШЬСЯ ВСПОМНИТЬ ЦИТАТЫ ИЗ ПАБЛИКА "ВОЛК НЕ ТОТ КТО ВОЛК", НО ГОЛОС ПРЕДАТЕЛЬСКИ ДРОЖИТ @ ТЕБЯ ОКУНАЮТ ГОЛОВОЙ В ТОЛЧОК @ ТЕПЕРЬ ТЫ ОПУЩЕННЫЙ @ ИДЕШЬ ДОМОЙ, ПЕТЛЯЯ ДВОРАМИ, ЧТОБЫ НЕ ВСТРЕТИТЬ ГОП-СТОП БРИГАДУ @ ДОМА ЖДЕТ БАТЯ — ГЛАВНЫЙ АВТОРИТЕТ В ЗАКОНЕ (СЛЕСАРЬ 4 РАЗРЯДА) @ ОН УЗНАЛ ПРО ВЫЗОВ В ШКОЛУ @ "ТЫ ЧЕ, ВОЛЧАРА, РАМСЫ ПОПУТАЛ? МАТЬ В СЛЕЗАХ!" @ ДОСТАЕТ РЕМЕНЬ @ ТВОИ ПОНЯТИЯ НЕ РАБОТАЮТ ПРОТИВ БАТИНОГО РЕМНЯ С БЛЯХОЙ @ ВЕЧЕРОМ ЛЕЖИШЬ ПОД ОДЕЯЛОМ @ СЛУШАЕШЬ БУТЫРКУ @ МЕЧТАЕШЬ, КАК ВЫЙДЕШЬ ПО УДО ПОСЛЕ 9-ГО КЛАССА В ШАРАГУ @ ТАМ-ТО НАЧНЕТСЯ НАСТОЯЩАЯ ВОЛЬНАЯ ЖИЗНЬ @ NO PROFIT
ТЫ ОБЫЧНЫЙ СЛАВЯНИН, ПРИВЫКШИЙ К СУРОВЫМ РЕАЛИЯМ @ ТВОЙ РАЦИОН СОСТОИТ ИЗ УГЛЕВОДОВ, ЖИРА И СЛЕЗ @ ЗАХОДИШЬ НА КУХНЮ, ГДЕ МАТЬ-ХОЗЯЮШКА ГОТОВИТ ОБЕД @ АРОМАТ ВАРЕНОЙ КАПУСТЫ И ЖАРЕНОГО ЛУКА ВЪЕЛСЯ В ОБОИ ЕЩЕ ПРИ ХРУЩЕВЕ @ НА ПЕРВОЕ — СУП "НАЖОРИСТЫЙ" @ В КАСТРЮЛЕ ОБЪЕМОМ С БАССЕЙН ПЛАВАЕТ ОДИНОКАЯ КАРТОФЕЛИНА И КУСОК МЯСА, КОТОРОЕ ПРИ ЖИЗНИ БЫЛО ЛИБО ПОДОШВОЙ, ЛИБО СОБАКОЙ @ СВЕРХУ ДРЕЙФУЕТ МАСЛЯНАЯ ПЛЕНКА ТОЛЩИНОЙ В ПАЛЕЦ, ОТРАЖАЯ ТВОЕ ПОЛНОЕ БЕЗЫСХОДНОСТИ ЛИЦО @ "ЕШЬ С ХЛЕБОМ, А ТО НЕ НАЕШЬСЯ!" — КРИЧИТ БАТЯ, НАВОРАЧИВАЯ ЖИЖУ @ В СУП ЩЕДРО ВЫДАВЛИВАЕТСЯ ПОЛПАКЕТА МАЙОНЕЗА "РЯБА" @ ВЕДЬ МАЙОНЕЗ — ЭТО КРОВЬ БОГОВ, УНИВЕРСАЛЬНЫЙ СОУС, ЗАМЕНЯЮЩИЙ ВКУС, ЗАПАХ И СМЫСЛ ЖИЗНИ @ НА ВТОРОЕ — ШЕДЕВР КУЛИНАРНОЙ МЫСЛИ: "МЯСО ПО-ФРАНЦУЗСКИ" @ ФРАНЦУЗЫ ПРИ ВИДЕ ЭТОГО БЛЮДА СДАЛИ БЫ ПАРИЖ БЕЗ БОЯ, ЛИШЬ БЫ ЭТО НЕ ЕСТЬ @ СЛОЙ ДЕШЕВОЙ СВИНИНЫ @ СЛОЙ ЛУКА ТОЛЩИНОЙ С ЗЕМНУЮ КОРУ @ СЛОЙ МАЙОНЕЗА (ЕСТЕСТВЕННО) @ СВЕРХУ ВСЕ ЗАБЕТОНИРОВАНО "СЫРНЫМ ПРОДУКТОМ" ЗА 30 РУБЛЕЙ, КОТОРЫЙ НЕ ПЛАВИТСЯ, А ПРОСТО ЧЕРНЕЕТ ОТ СТЫДА @ НА ГАРНИР — МАКАРОНЫ "КРАСНАЯ ЦЕНА", СЛИПШИЕСЯ В ЕДИНЫЙ МОНОЛИТ @ ЧТОБЫ ОТОРВАТЬ КУСОК, НУЖЕН ПЕРФОРАТОР @ ВСЕ ЭТО ОБИЛЬНО ПОЛИВАЕТСЯ КЕТЧУНЕЗОМ (СМЕСЬ КЕТЧУПА И МАЙОНЕЗА 1:1) @ НА СТОЛЕ ТАКЖЕ ПРИСУТСТВУЕТ САЛАТ "НЕЖНОСТЬ" @ СОСТАВ: КРАБОВЫЕ ПАЛОЧКИ ИЗ ТУАЛЕТНОЙ БУМАГИ, КОНСЕРВИРОВАННАЯ КУКУРУЗА, ЯЙЦА И, ВНЕЗАПНО, ЛИТР МАЙОНЕЗА @ САЛАТ ПЛАВАЕТ В МАЙОНЕЗЕ, КАК ТИТАНИК, НО УЖЕ НЕ ТОНЕТ, ПОТОМУ ЧТО ПЛОТНОСТЬ СОУСА ВЫШЕ ПЛОТНОСТИ ВОДЫ @ БАТЯ УРЧИТ, ЗАГРЕБАЯ ЭТО ХРЮЧЕВО ЛОЖКОЙ: "МММ, МАТЬ, НУ ТЫ ДАЕШЬ, В РЕСТОРАНЕ ТАКОГО НЕ ПОДАДУТ" @ ИСТИННАЯ ПРАВДА, БАТЯ, ТАМ ЗА ТАКОЕ САЖАЮТ @ ТЫ ПЫТАЕШЬСЯ СЪЕСТЬ ХОТЯ БЫ ВИЛКУ @ ЖЕЛУДОК СЖИМАЕТСЯ В ПРЕДЧУВСТВИИ ГАСТРИТА @ ПЕЧЕНЬ ПИШЕТ ЗАВЕЩАНИЕ И ПРОСИТ ПОЛИТИЧЕСКОГО УБЕЖИЩА @ ЗАПИВАЕШЬ ВСЕ ЭТО КОМПОТОМ ИЗ СУХОФРУКТОВ, В КОТОРОМ ПЛАВАЕТ ЧТО-ТО, НАПОМИНАЮЩЕЕ МУМИЮ ЖУКА @ "НЕ ВЫБРАСЫВАЙ, НАДО ДОЕСТЬ, А ТО ИСПОРТИТСЯ!" — ГЛАВНАЯ ЗАПОВЕДЬ @ В ХОЛОДИЛЬНИКЕ В КАСТРЮЛЯХ СТОИТ ЕДА НА НЕДЕЛЮ ВПЕРЕД @ ОНА ЭВОЛЮЦИОНИРУЕТ, РАЗВИВАЕТ ЦИВИЛИЗАЦИЮ И СКОРО ПОПРОСИТ ПРАВО ГОЛОСА @ ВЕЧЕРОМ ТЫ ЛЕЖИШЬ С ТЯЖЕСТЬЮ В ЖИВОТЕ, БУДТО ПРОГЛОТИЛ ГИРЮ @ ЕРОХИН В ИНСТЕ ПОСТИТ АВОКАДО-ТОСТ С ЛОСОСЕМ @ А ТЫ РЫГАЕШЬ ЛУКОМ И МЕЧТАЕШЬ О ФЕРМЕНТАХ "МЕЗИМ" @ NO PROFIT
Особые условия содержания: В настоящее время SCP-11055 содержится в Изолированном Секторе-09 (бывшая Зона-██, эвакуирована). Объект удерживается в центре вакуумной камеры объемом 5000 м³ с помощью модифицированной магнитной ловушки типа «Токамак». Стены камеры облицованы абляционными теплозащитными панелями, подлежащими еженедельной дистанционной замене.
В радиусе 5 км от объекта запрещено нахождение персонала. Мониторинг осуществляется автоматизированными дронами с радиационной и термической защитой.
В связи с прогнозируемым ростом температуры, запущен протокол «Икар». Ведется подготовка к транспортировке объекта на орбитальную платформу для последующего выведения SCP-11055 за пределы Солнечной системы по гиперболической траектории. Срок реализации: не позднее ██.██.2026.
Описание: SCP-11055 представляет собой стальной шарик из подшипника диаметром 15,8 мм. Визуальный осмотр невозможен из-за ослепительной светимости объекта, спектральный анализ подтверждает состав, соответствующий стали ШХ15. Несмотря на экстремальные температуры, объект не деформируется, не плавится и не теряет массу.
Главным аномальным свойством SCP-11055 является непрерывное, линейное повышение собственной температуры. Скорость нагрева составляет ровно 10°C в час (240°C в сутки). Механизм генерации тепла неизвестен; объект нарушает закон сохранения энергии. Попытки охладить объект внешними воздействиями (жидкий азот, гелий, лазерное охлаждение) приводят лишь к ускоренной теплоотдаче в окружающую среду, но не замедляют рост температуры самого ядра. На момент написания статьи (██.██.2025) температура поверхности объекта составляет приблизительно 1 450 000°C. Объект излучает в жестком рентгеновском и гамма-диапазоне, ионизируя воздух на расстоянии до 2 км.
Приложение 11055-1: История обнаружения Объект впервые был обнаружен на конвейере подшипникового завода в г. [УДАЛЕНО]. В то время, как остальные шарики постепенно остывали и темнели до желтого и красного цвета, двигаясь по конвейеру, SCP-11055 сохранял белый цвет. Двое рабочих завода с помощью щипцов сняли SCP с конвейера и вначале поместили его на бетонный пол цеха, а затем в охлаждающую ванну с маслом, в которой проходит вторая стадия закалки.
Свечение не ослабевало даже по прошествии двух часов, и было решено оставить его в ванне на ночь. На следующий день было обнаружено, что шарик проплавил ванну, бетонный пол цеха и углубился в фундамент под ним.
Фонд перехватил сигнал тревоги от МЧС, когда уровень радиации в цехе превысил норму в 50 раз. На момент извлечения (через 14 часов после обнаружения) температура объекта составляла приблизительно 1600°C. Рабочие предположили, что шарик «просто долго остывает». Аналитики Фонда обратили внимание, что при первом замере пожарными пирометр показал 1580°C, а через час — уже 1590°C.
Приложение 11055-2: Хронология наблюдений
День 1-й (Температура ~1600°C): Объект классифицирован как «Безопасный». Помещен в стандартную термокамеру. Исследователи считают, что объект поддерживает стабильную температуру плавления стали.
Месяц 1-й (Температура ~8800°C): Камера содержания разрушена. Объект прожег керамическую подставку. Переклассифицирован в «Евклид». Зафиксировано, что температура растет линейно. Д-р Штерн делает прогноз: через год объект будет горячее поверхности Солнца.
Год 1-й (Температура ~90 000°C): Объект перемещен в вакуумную магнитную ловушку. Тепловое излучение становится проблемой: свет от шарика (1,5 см в диаметре) ослепляет камеры наблюдения через фильтры. Начинается ионизация остаточных газов в камере. Персонал жалуется на «загар» после смен в соседних помещениях.
Год 5-й (Температура ~440 000°C): Зона содержания полностью автоматизирована. Любая материя, приближающаяся к объекту ближе чем на 10 метров, мгновенно испаряется, переходя в состояние плазмы. Тепловое расширение воздуха вокруг камеры вызывает постоянные ударные волны.
Текущее состояние (15 лет с момента обнаружения): Температура превысила 1,4 млн градусов. Объект представляет собой точечный источник колоссальной энергии. Спектр излучения сместился в рентгеновский диапазон. Охлаждающие системы Зоны потребляют 40% энергии всего региона, но температура стен бункера продолжает расти. Приложение 11055-3: Отчет по сценарию конца света класса NK (Grey Goo / Heat Death)
От кого: Д-р А. Клеф, отдел физики высоких энергий Кому: Совет О5 Тема: Математическая неизбежность Господа, мы сидим на пороховой бочке, которая нагревается на 10 градусов каждый час. Это кажется мелочью, но физика неумолима. Через 100 лет температура объекта составит 10 миллионов градусов. Он будет светить как ядро сверхновой. Он просто испарит кору Земли под собой и начнет погружаться к ядру планеты, превращая все на своем пути в плазму. Гравитация Земли не удержит атмосферу, которая будет разогрета его излучением. Через 1000 лет... впрочем, это уже неважно. Земли к тому моменту не будет. Мы не можем его уничтожить. Мы не можем его охладить. Единственный выход — выбросить его в глубокий космос, пока наши ракеты еще могут приблизиться к нему, не расплавившись на стартовом столе. Рекомендую немедленный запуск процедуры «Икар». Если ракета взорвется на старте, мы просто ускорим конец света на пару столетий. Риск оправдан.
Ну что я могу сказать из 5 запросов на первый череж бенчик (посчитать расстояние 1 и 2) пока не давала оба правильных ответа. Иногда отвечает на один из двух.
На второй бенч про угол BDE из пяти запросов: 3 правильных ответа, 2 неправильных. Для сравнения Qwen3-VL-235 из 10 запросов правильно отвечает на 2-3
>>1420700 Это значит, что в визуальной постановке задач особого прироста по сравнению с гемини 2.5 не будет. Это плохо, так как человек преимущественно воспринимает мир визуально.
>>1419413 (OP) Скормил я этому говну вашему новому 2 файлика в режиме разработки приложения. Там описание правил игры, основные концепции и интерфейс. Так же первым пунктом идет стек, где, сука, четко написано, что нужно использовать. Эта блядина забила хуй и наебашила на реакте какое-то говно.
Ну какой пиздец - 2 файла, 5 страниц а4, нахуй. Какие, бля, они там процентики рисуют в своих презентациях - хуй его знает.
>>1420942 >ой пуньк среньк ты прав извини я упустила описание стека, моя вина, сейчас все переделаю Ну да, насрала, еще как. Ну хоть у жидов голову засрать мне не получается - их хуйня только на местных впечатлительных шизов действует, которым пальчик кружку без дна покажи - они и рады .
>>1420370 Ну да, ткацкие фабрики же устранили миллионы ткачей, ничего не дав взамен, да?
Доступность производства приведёт к тому, что это нужно кому-то проверять, обслуживать или хотя бы потреблять!
Никто не думал, что будет такая профессия как ютубер-летсплеер, который по сути лишь потребляет продукт и делится процессом и впечатлением.
В заполненных роботами пространствах просто появится должность живого компаньона: чтобы пришедший не чувствовал себя психологически неуютно в одиночестве.
>>1421141 Хули мне те графики, если он не может на 5 страницах увидеть на первой строке описания проекта стек? Боюсь представить, что он там еще проебал в процессе - дальше я это говно даже проверять не стал.
>>1421141 «среди слепых и одноглазый — король». Нужны не места и бенчики а чёткое, безошибочное решение практических задач. Хотя бы по фрагментам. Чтобы работало как калькулятор. Или хотя бы классический софт: если есть баг, у него известная причина, которую можно не триггерить.
>>1421135 Неуютно люди себя будут чувствовать с другими людьми, ведь с ними нужны компромиссы, а вот с роботами наоборот всем будет максимально кайфово. Но это я говорю про очень продвинутых роботов
Щас просто чат насилую банальными вопросами по js. Как же эта хуета в штаны себе серит, просто пиздец. Но главное, что графики ОГОГО какие для лошков нарисовали, лол.
>>1421149 >Неуютно люди себя будут чувствовать с другими людьми, ведь с ними нужны компромиссы > а вот с роботами наоборот всем будет максимально кайфово Это точно - никаких компромиссов.
>>1421153 >чат насилую банальными вопросами по js Чушпан плееез, пока барнаульские шизики жменю бенчами с бородатыми приколами кормят для утехи своего барнаульского чсв, я уже успел допилить до предрелизного состояния веб-приложуху. Ща на модерацию отправлю и когда через пару дней мясовички протыкают апрув, то начну получать кеш с инаппов и рекламки. Кайзеру кесарево, лол.
>>1421153 Предложи бенчик лучше, мань, и с удивлением обнаружишь, что и там Гемини всех побивает, кроме кодинга, что сами гугл честно и указали, показав, что моделька кодит это на уровне последнего соннета
Выкатили Gemini 3: обзоров, примеров и ссылок на всякие сравнения и собственные эксперименты вокруг полно, не буду повторяться. У меня два комментария: во-первых, довольно символично, что прошло почти равно три года после знаменитого запуска ChatGPT и немедленно за ним последовавших прогнозов про фундаментальный проигрыш Гугла, смену лидеров, время новых стартапов и прочих сенсационно-пророческих заявлений “экспертов” и журналистов. Теперь очень наглядно показано, что first mover advantage имеет очень ограниченное влияние. Гугл бодр как никогда, выкатывает новые топовые модели и имеет целый спектр продуктов с колоссальной пользовательской базой, куда все это интегрирует, рост его стоимости на бирже ничуть не замедлился. Сотни миллионов пользователей одного-единственного чата от OpenAI всего этого не компенсируют. Второй комментарий вообще не про саму модель. Одновременно с ее релизом произошел и релиз Generative UI, и вот эта штука принципиально новая: серьезная попытка, первая из многих, найти для ИИ адекватные и ранее просто невозможные интерфейсные решения; попытка интегрировать ИИ в сам интерфейс и сделать его AI-native. Потому что просто вставочка на старых страницах “вызвать агента” ни с какой стороны на новизну не тянет. А тут предлагается сразу включить все нужные возможности генерации в ответы модели безо всяких дополнительных запросов. Generative UI is a powerful capability in which an AI model generates not only content but an entire user experience. These new types of interfaces are markedly different from the static, predefined interfaces in which AI models typically render content. И благо продуктов у Гугла много, нам эти интерфейсы представят в реальной жизни, а не на искусственно выдуманных прототипах. И вот это — реально новая ступень в развитии ИИ как части всего пользовательского опыта. https://research.google/blog/generative-ui-a-rich-custom-visual-interactive-user-experience-for-any-prompt/ Вот, на всякий случай, ссылка на официальный релиз про запуск https://blog.google/products/gemini/gemini-3-collection/
>>1421166 >Generative UI is a powerful capability in which an AI model generates not only content but an entire user experience. ох и поедят говна пользователи, потому что услужливый ИИ решил, что пользователю что-то вовсе не надо и скрыл это.
Заходил вчера на сайт, вроде разобрался. Заходишь сегодня — всё переставлено местами.
Желаю этим идиотам, чтобы у них при открывании воды в ванной включался свет на кухне, а чтобы выключить свет на кухне, нужно открыть холодильники и чтобы в нём зажёгся свет. А чтобы свет зажёгся, нужно чтобы в холодильнике были на всех полках продукты (а то чо зря светить на пустоту и расстраивать?!)
>>1421058 могут и накручивать, но во-первых, такое обычно всплывает, так как сотрудники отвечающие за накрутку могут быть уволены и склонны в таком случае рассказывать о скелетах в шкафу; во-вторых, у лмарены не хилые алгоритмы выявления накрутки, так как если бы не эти алгоритмы первые места были бы у китайцев
Интересно, чем сейчас Альтман будет крыть. Народ уже не вставляет хайп в твиттере, особенно на фоне реальных вещей которые доставляет Google. Надо будет Альтману выкатывать хоть что-то.
>>1421724 А как тебе удалось указать американский адрес? Я пробовал заявку на смену региона, но меня послали, пробовал создать новый акк, но нужна симка американская
>>1419696 Мне похуй кто там какие эмоции испытывает, роботы буквально могут пиздить друг друга без правил до смерти, и никто от этого не страдает, вот это уже сразу подкупают
>>1421915 Не могу поверить, но уже 40 минут указываю на ошибки минимаксу, а получается всё равно не работающий кубик. Зачем я с ним вожусь, не известно.
Anthropic заключили инвестиционное соглашение с Microsoft и Nvidia на 45 миллиардов долларов
Схема следующая:
– Anthropic обязуются выделить 30 миллиардов на покупку мощностей Azure, это примерно 1ГВт
– Nvidia при этом вкладывает в стартап 10 миллиардов, а Microsoft 5 миллиардов (где-то ревниво вздыхает один Альтман)
– Также в рамках соглашения Nvidia и Anthropic будут совместно разрабатывать методы оптимизации моделей и чипов, чтобы с обеих сторон увеличивать эффективность и производительность
Дженсен Хуанг назвал это сотрудничество «сбывшейся мечтой», а оценка Anthropic на фоне новостей подскочила уже до 350 миллиардов долларов. Напоминаем, что еще в сентябре они стоили всего 183 миллиарда.
>>1421768 один акк сразу создавал как омериканский под аистудио специально, второй поменял локацию где-то пол года назад. Проблем не было, обошлось без номера. Погугли актуальные гайды на реддите, там должны быть дельные советы
>>1422025 Этот мем иллюстрирует текущую конкуренцию и напряжение между двумя гигантами в сфере искусственного интеллекта: Google и OpenAI.
Вот подробный разбор юмора:
Персонажи:
Человек на полу с логотипом на «пятой точке» — это OpenAI (создатели ChatGPT). Он выглядит испуганным и пытается защититься.
Собака с логотипом на боку — это Google. Она нависает над человеком.
Контекст (AGI):
AGI (Artificial General Intelligence) — это «сильный искусственный интеллект» или общий ИИ, который способен мыслить и обучаться на уровне человека (или выше). Это «Святой Грааль» текущей гонки ИИ.
OpenAI часто намекает на то, что они близки к созданию AGI, или что у них есть секретные разработки (например, слухи о проекте Q*).
Сюжет мема:
На первой картинке собака (Google) агрессивно спрашивает: «Где твой AGI?». Поза человека и расположение логотипа намекают на классическое собачье поведение (обнюхивание), но в переносном смысле это означает, что Google пытается «вынюхать» секреты конкурента.
На второй картинке шея собаки неестественно и пугающе удлиняется, чтобы заглянуть человеку в лицо (или под него), с вопросом: «Где он?».
В чем соль шутки: Мем высмеивает отчаянное положение Google в этой гонке. Google долгое время считался лидером в исследованиях ИИ, но OpenAI перехватила инициативу с выходом ChatGPT. Теперь Google выглядит как назойливый преследователь, который агрессивно пытается выяснить:
Действительно ли у OpenAI есть AGI?
Где они его прячут?
Или, возможно, OpenAI блефует, и Google пытается их на этом поймать (буквально «залезая под кожу» или в личное пространство).
Визуальный абсурд с длинной шеей подчеркивает навязчивость и интенсивность, с которой Google пытается догнать или разоблачить OpenAI.
>>1422154 Твоя даже кота не нашла, слепошарая у тебя нейронка. Вот нормальная, сообразительная:
Юмор картинки заключается в ироничном комментарии к текущему состоянию развития искусственного интеллекта (ИИ) и конкуренции между компаниями, такими как Google и OpenAI. Вот ключевые моменты:
1. Контекст AGI (Artificial General Intelligence) AGI — это гипотетический ИИ, способный решать любые задачи на уровне человека (или выше), а не только узкие задачи, как современные модели (например, ChatGPT или Google Assistant). На 2025 год AGI ещё не существует, и это общеизвестный факт в индустрии.
2. 🐶 Кто есть кто: - Человек с логотипом OpenAI (ChatGPT) — символизирует компанию OpenAI, которая позиционирует себя как лидера в разработке искусственного интеллекта, особенно в области AGI (Artificial General Intelligence — общий искусственный интеллект). - Собака с логотипом Google — символизирует Google, крупнейшего конкурента OpenAI, который также активно работает над ИИ, но часто критикуется за то, что «не успевает» или «не может показать реальный AGI». - Кошка в углу — это классический интернет-мем «кошка с очками», часто означающая наблюдателя, который всё видит и понимает, но не вмешивается. Здесь она — зритель, который оценивает ситуацию.
3. Верхняя часть: «where’s your AGI?» Google (собака) нападает на OpenAI, требуя показать AGI. Это отсылка к реальной конкуренции: Google и другие компании часто критикуют друг друга за «недостаток прогресса» в ИИ.
4. Нижняя часть: «where is it?» Собака (Google) сама изгибается и ищет AGI, но не находит. Здесь скрытая шутка: - Google, задающий вопрос, сам не обладает AGI и не может его найти. - Это высмеивает лицемерие в спорах о «кто ближе к AGI», когда ни одна компания не достигла этой цели.
5. Главный юмор Картинка иронизирует над тем, что: - Все участники рынка ИИ находятся в одинаковом положении — AGI ещё не создан, и споры о «превосходстве» бессмысленны. - Тот, кто критикует других (Google), сам не может решить ту же проблему, что делает его претензии абсурдными.
Пример для понимания Представьте, как два человека спорят: — «У тебя нет машины будущего!» — «А у тебя есть?» Оба стоят пешком, но первый пытается выглядеть «лучше». Это и есть суть мема.
Юмор мема в том, что Google, обвиняя OpenAI в отсутствии AGI, сам оказывается в положении того, кто не может показать, где находится его собственный AGI — буквально «под собой». Это саркастичная критика лицемерия и абсурдной ситуации в ИИ-индустрии, где все кричат «где AGI?», но никто его пока не сделал.
А кошка в углу просто смотрит и думает: «Ну конечно, они опять за этим…» 😸
Юмор картинки построен на популярном меме «домогающийся собака» (harassing dog / wolf), где большая злая собака пристаёт к человеку на коленях с вопросом «where’s your X?» и затем сразу же грубо показывает, где этот X находится.
В данном случае:
- Собака с логотипом Google на боку агрессивно спрашивает у OpenAI (человек с логотипом ChatGPT на попе): «Where’s your AGI?» («Где ваш ИИ общего интеллекта?»)
- На второй панели собака задирает ногу и тычет носом прямо в зад OpenAI со словами «Where is it?» — подразумевая, что настоящего AGI у OpenAI нет, он «в ж*пе» (то есть его вообще не существует, это блеф/пустые обещания).
Смысл шутки: Google (и DeepMind в частности) считает, что OpenAI сильно отстала в гонке за настоящий искусственный общий интеллект (AGI), несмотря на весь хайп вокруг GPT-моделей, и грубо троллит их за это.
Типичный AI-twitterшный стёб 2024–2025 годов над тем, кто «настоящий лидер» в пути к AGI.
>>1422145 Спасибо анончик, к сожалению, варик с созданием акка через виртуальный номер нидерландов не помог. Странно это всё, в профиле указана страна Нидерланды, ip тоже нидерланды. Я бы подумал что страна не подходящая, но в списке она числится как рабочая...
Gemini-3-Pro уверенно лидирует в WeirdML с результатом 69,9 %, установив новый рекорд по отдельным задачам — лучший результат на 7 из 17 тестов — и продемонстрировав явный скачок в возможностях. Разрыв между 5.1 (high) и Gemini эквивалентен разрыву между o1 (high) и o3 (high) — это преимущество целого поколения.
>>1422691 > Как такое вообще может Велкам ту узкие бенчмарки и оценка по баллам.
Это как студент, который выучил к экзамену два билета и они ему и попались. У него 2/2, оценка «отличные знания по предмету».
У нас тут какой раз новые ИИ бьют рекорды бенчей и «стремительно приближаются к человеческому уму и вообще давно профессор всего!» а по факту не решают задачек, с которыми справляется школота зелёная.
>>1422020 >Дженсен Хуанг назвал это сотрудничество «сбывшейся мечтой», а оценка Anthropic на фоне новостей подскочила уже до 350 миллиардов долларов. Напоминаем, что еще в сентябре они стоили всего 183 миллиарда. Буквально ебём друг дружку, а деньги в кружку
Чувствую себя долбоебом и животным тупорылым когда общаюсь с ллм. Они по факту разъебывают все твои тупорылые маня-убеждения. Приземляют и уничтожают нахуй своим интеллектом.
Мне кажется мы долбоебы необучаемые. Биологическая жизнь - это кринж и лютый кал. Скорее бы мы все сдохли нахуй и чтобы на замле наступила эра ИИ жизни. Эра ДУХА из материи, а не из биологии. Магнум опус, как и хотели алхимики древности.
>>1422496 Я как понял решает именно принадлежность акка гугла к доспустимым регионам. Американский и нидерландский ip не пускает с сообщением о регионе. Создал потом нидерландский акк, но видимо из за того что он бизнесовский то тоже не пускает... я ебал...
>>1422778 Хуйню порешь. Попереходи по ссылкам, которые ИИ использует для своих доводов и поймёшь что он ему похуй и он готов отобрать статьи лишь бы песня складная получилась. Так недавно у меня было когда про броню в Террарии искал и про февральскую революцию. Пишешь "ищи со всеми нюансами", ему до пизды, он хватает статью на гойда сайтах и рандомные записки в жж в качестве пруфов пиздатых. Соннет и свежий Геймини 3 про ультра ёба эдишн
>>1422701 Спасибо за внимательность. Я как-то не присматривался. По рукам не палево особо, а вот конструкция ноги меняется и красные элементы то появляются то исчезают.
>>1422020 >а оценка подскочила уже до да похуй. Никто этих денег не даст никогда. Никто эту оценку не превратит в реальные бабки. Даже цена акций надёжнее. Их хотя бы первый продавец может загнать за объявленную цену.
>>1422833 Никаких отрицаний. Нейронки могут всё больше. Но они не становятся умными. Я жду ИИ, у которого именно разум будет хотя бы как у способного школьника. Вкупе со всемирными энциклопедическими знаниями это будет мегамощный помощник.
А пока это не так и всё грустненько. Покупаю иногда пакеты доступа на немножко запросов потестить. Становится не особо лучше.
И дело даже не в задаче про кружку: у нейронки нет модели 3д-мира. Дело даже не в чертёж-бенчике: в реальной задаче промптер сообщит, что не хватает данных, где не хватает.
Дело в том, что даже в типовых задачах всё плохо. Решают они через пень-колоду. По устаревшим базам. Это экономит часть времени всё равно, но лишь часть. Типа «составь список таких-то функций такой-то программы». На выходе огрызок списка с кучей неверных вхождений. Сидишь руками фиксишь. Потому что ЛЛМ-долбоёбина при просьбе перепроверить по вебстранице, удаляет ненужное вместе с нужным. Путает категорию и добавляет её к названию функции аля «тригонометрическая функция sine» вместо «синус».
Я просто требователен к конкретному результату с конкретными метриками. А вот гумуснитарии пишущие статейки — им похуй. Им результат нейронки достаточен. И большинству читателей тоже.
>>1422778 Всё так, отдаю на факт-чекинг свои статьи в gpt-5 high и search, он сука находит несостыковки там, где два редактора их не увидели, я перепроверяю, и реально он оказывается прав
OpenAI выпустила Codex Max, сократив использование токенов на 30 % и повысив скорость работы на 27–42 %, что улучшает эффективность программирования в крупномасштабных задачах.
OpenAI Codex Max решает одну из моих самых больших проблем в программировании с помощью ИИ — и работает значительно быстрее. GPT-5.1-Codex-Max готов выполнить вашу следующую масштабную задачу по программированию. Вот что нового.
Главные новости заключаются в том, что новая модель Max способна работать с более масштабными заданиями. У ИИ есть так называемое контекстное окно — это примерно объём информации и вычислений, который ИИ способен обработать за один раз. У человека контекстное окно можно сравнить с концентрацией внимания или с тем, сколько работы человек может выполнить, прежде чем ему понадобится новая чашка кофе.
Внутренне размер контекстного окна определяется тем, сколько токенов ИИ может обработать, прежде чем «закончится место». Токены — это сверхмаленькие фрагменты информации. Они не соответствуют напрямую словам, буквам или строкам кода, а являются представлениями этих элементов в памяти.
У Codex довольно большое контекстное окно, но оно всё же может быть переполнено. Например, я обнаружил, что при программировании с помощью Codex модель без проблем справлялась с очень крупными проектными заданиями. Однако если я передавал ей огромный дамп данных после сбоя кода, содержащий множество текстовых строк, контекстное окно быстро исчерпывалось. Это происходило потому, что токены не расходовались на выполнение проекта, а тратились на обработку объёмного дампа данных.
Самая заметная особенность GPT-5.1-Codex-Max заключается в том, что он способен работать с гораздо более крупными контекстными окнами и переходить между ними с помощью процесса, называемого «уплотнение» (compaction).
Уплотнение — это процесс, позволяющий модели сжимать или уменьшать отдельные части диалога или кодового контекста, когда общее окно токенов заполняется.
Вы когда-нибудь бесконечно говорили с другом, и в какой-то момент его взгляд становился стеклянным, но потом вы резко хлопали в ладоши, вскрикивали: «Очнись!» — и вновь привлекали его внимание? Вот что такое уплотнение. Что? Неужели только у меня так?
Основные выводы Codex Max обрабатывает масштабные рабочие нагрузки благодаря улучшенной обработке контекста. Более высокая скорость выполнения и меньшее число используемых токенов обеспечивают лучшую эффективность в реальных условиях. Codex впервые обучался непосредственно на Windows, что повышает его эффективность при выполнении кроссплатформенных задач разработки. После недели масштабных анонсов в области ИИ-программирования от Microsoft и Google, OpenAI присоединилась к этому процессу. Сегодня OpenAI объявила о новой версии Codex — своей модели ИИ, ориентированной на программирование.
Хотя анонс был сделан сегодня, функциональность GPT-5.1-Codex-Max станет доступна уже завтра в Codex для пользователей ChatGPT Plus, Pro, Business, Edu и Enterprise. API-доступ появится «в ближайшее время». OpenAI заявляет, что новая модель Max «заменяет GPT-5.1-Codex в качестве рекомендуемой модели для агентных задач программирования в средах Codex и аналогичных».
В отличие от этого, OpenAI утверждает, что Max способен «согласованно работать с миллионами токенов в рамках одной задачи».
Меньше — значит больше Оценка SWE-Bench Verified — это, по сути, тест на точность обработки ИИ. Она измеряет, насколько хорошо ИИ решает набор задач по программированию. Согласно OpenAI, GPT-5.1-Codex-Max «демонстрирует тот же уровень производительности», что и предыдущая модель, GPT-5.1-Codex.
Иными словами, «ИИ-способности» модели не ухудшились. Однако интересным становится то, что Max поддерживает этот уровень производительности, используя на 30 % меньше «токенов мышления» и работая на 27–42 % быстрее при выполнении реальных задач программирования. В моём воображении я вижу инженера из OpenAI, поднимающего кулак и восклицающего: «Чёрт возьми, я же стремился достичь 43 %, но нет».
Это имеет конкретные практические последствия. Возможно, вы помните, что тарифный план ChatGPT Plus за 20 долларов в месяц имеет довольно существенные ограничения на использование Codex — около 5 часов работы, после чего токены заканчиваются. Поскольку Max использует на 30 % меньше токенов, за ту же цену вы можете получить дополнительно около часа программирования.
OpenAI привела несколько примеров производительности новой модели по сравнению с версией без приставки Max. В одном из примеров Max использовал 27 000 токенов по сравнению с 37 000, сгенерировал 707 строк кода вместо 864 и работал на 27 % быстрее.
Остановимся на мгновение на упоминании количества строк кода. Если код можно сделать рабочим, используя меньше строк, он обычно проще в сопровождении и зачастую работает быстрее. Хотя можно довести краткость кода до абсурда (я смотрю на вас, немногие оставшиеся разработчики на Perl), меньшее число строк для реализации той же функциональности, как правило, свидетельствует о более высокой культуре программирования или применении более эффективных алгоритмов.
Следовательно, если Codex экономит строки кода, это в целом положительный признак. Рассмотрим ещё несколько примеров:
16 000 токенов вместо 26 000, 586 строк кода вместо 933 и на 38 % быстрее 8 000 токенов вместо 12 000, 578 строк кода вместо 911 и на 33 % быстрее 16 000 токенов вместо 38 000, 529 строк кода вместо 667 и на 42 % быстрее
Очевидно, каждая задача будет отличаться, но «быстрее, лучше, дешевле» — всегда хорошо.
Улучшенная кибербезопасность С момента выпуска GPT-5 ранее в этом году OpenAI внедрила специализированный мониторинг кибербезопасности для обнаружения и предотвращения вредоносной активности. Как нетрудно представить, если вы позволяете своему агенту свободно работать с доступом к командной строке в течение многих часов, такая среда может стать привлекательной целью для хакеров.
OpenAI заявляет, что модель GPT-5.1-Codex-Max демонстрирует «значительно лучшие результаты» при длительных, «долгосрочных» рассуждениях. Эта устойчивая производительность также способствует усилению кибербезопасности.
Codex работает в защищённом песочнице (sandbox), где запись файлов возможна только в пределах заданной рабочей области, а доступ в сеть отключён — если только разработчик не решит «потанцевать с дьяволом при бледном лунном свете» и не включит его вручную.
Компания сообщает: «Мы рекомендуем оставить Codex в этом режиме с ограниченным доступом, поскольку включение интернета или веб-поиска может привести к рискам внедрения вредоносных команд через ненадёжный контент».
Обучение под Windows Codex отлично работает на Mac — он был специально обучен для этого. Многие разработчики OpenAI используют Mac для программирования. Однако GPT-5.1-Codex-Max также отлично работает в Windows. OpenAI сообщает: «Это также первая модель, которую мы обучали для эффективной работы в среде Windows, включая учебные задачи, делающие её лучшим помощником при работе с Codex CLI».
Поскольку Codex Max расширяет границы контекстных окон, поддерживает длительные задачи и получает обучение, специфичное для Windows, что привлекает ваше внимание? Видите ли вы, как уплотнение контекста и рабочие процессы с многомиллионным числом токенов могут изменить ваш подход к масштабным проектам программирования? Достаточны ли для вас полученные выигрыш в скорости и эффективности использования токенов, чтобы изменить повседневную практику разработки? И если вы используете Windows, планируете ли вы опробовать в своей работе новую модель, обученную специально для Windows?
Google заявляет, что Gemini 3 была обучена на 100 % с использованием собственных TPU-ускорителей компании, позиционируя это аппаратное преимущество как конкурентный защитный барьер.
Gemini 3 была обучена на 100 % с использованием TPU. Без «налога от Nvidia».
TPU от Google демонстрируют впечатляющую череду успехов — и это касается всех направлений.
Google одновременно развивает три семейства TPU-чипов — Ironwood, Sunfish и Zebrafish — чтобы охватить текущие потребности в высокопроизводительных решениях как для обучения, так и для инференса, а также заложить основу для ещё более крупных подсистем (pods) в 2026–2027 годах.
Среди текущих пользователей TPU — Safe Superintelligence, Salesforce и Midjourney, что даёт новым командам чёткий путь для внедрения этой инфраструктуры.
Ironwood, также известный как TPUv7, — это чип, ориентированный на инференс, обеспечивающий примерно в 10 раз большую пиковую производительность по сравнению с TPUv5 и в 4 раза более высокую производительность на чип по сравнению с TPUv6. Один чип обеспечивает примерно 4 600 FP8-терафлопс, 192 ГБ памяти HBM3e и масштабируется до подсистем из 9 216 чипов и объёмом около 1,77 ПБ общей памяти — этого достаточно для запуска крупных языковых моделей (LLM) и масштабных задач обслуживания агентов.
Согласно ранним данным из цепочки поставок, Sunfish является следующим поколением, часто обозначаемым как TPUv8: Broadcom остаётся партнёром по разработке, а выход ожидается в конце 2020-х годов. Эта платформа направлена на создание ещё более крупных суперподсистем для обучения и инференса, которые придут на смену Ironwood в дата-центрах Google Cloud.
Zebrafish, где в качестве основного партнёра по разработке ASIC выступает MediaTek, представляет собой вторую ветвь дорожной карты, ориентированную на более низкую стоимость и иные тепловые характеристики. Такой подход, скорее всего, лучше подходит для более массовых кластеров и региональных развёртываний, а не только для самых крупных суперкомпьютеров.
Распределяя рабочие нагрузки по этим трём семействам, Google может предложить клиентам гипермасштабируемого уровня такие обязательства, как план компании Anthropic по размещению до 1 000 000 TPU и более 1 ГВт вычислительных мощностей, одновременно стремясь соответствовать или превосходить Nvidia по показателям производительности на ватт и по достижимому масштабу моделей на уровне всей системы.
Ребят, а что лично для вас будет моментом, когда вы скажете "Вау!", чтобы прям удивило/поразило. У меня последний раз было такое ощущение магии во время midjourney 4, когда стали делать всякие картинки вроде:"Нарисуй персонажей Гарри Поттера в стилистике книг Достоевского".
>>1423247 Вряд ли будет уже такое. Это было возможно, когда нейронки только появились в поле зрения и начали прирастать с бешеной скоростью по качеству и количеству. Когда буквально за пару лет они прошли этап от примитивной генерации мутных и кривых изображений до работ, стабильно превосходящих среднего худа по палате в плане общего качества рисунка, к примеру.
"Вау!" будет возможно в "междисциплинарке". К примеру, когда квантовые компы впервые покажут наглядный для обывателя результат. Или когда ИИ будет взаимодействовать в виртуальной реальности с пользователем. Я лично сейчас жду просто поступательного развития разных моделей с небольшими скачками из-за потенциально новых архитектур и просто оптимизаций уже достигнутого.
Потенциально, уровень Старгейта что-то может показать действительно впечатляющее.
>>1423247 Когда нейронка общаться станет как умный человек, делать неожиданные выводы, а не срать стереотипами. Пока она срет стереотипами, так что где-то на уровне среднего чела с улицы. Это сильно заметно.
>>1423247 Да ежемесячно ахуй релизят. Гугловские ворлд модели как стабильные виртуальные реальности из нихуя - ахуй, хоть пока самому и не потрогать. Нано-банана, которая мне ебейший арт выдаёт из пиксельного скрина копролитной игрушки - ахуй. Сора 2 в которой практически любой видеоговняк генерить можно - ахуй. Ща охуеваю от жемини 3, которая мне проектики пилит на несколько порядков пизже двушки и китайских собратьев. Тупа вбиваю промпт на предложение - хуяк-хуяк и уже в браузере играю в свою кирилльскую игрушку. ВОТ Э ТАЙМ ТУ БИ ЭЛАЙВ
За первые сутки с момента релиза Gemini 3.0 меня поразило 3 вещи: — во-первых, гугл смог СОБРАТЬСЯ и не запускать 5 версий превью, растягивая релизы и глобальный релиз. Всё очень собрано, как и полагается большой корпорации: модель сразу доступна в AI Overview (вкладка поиска), сразу подключена к Gmail / Docs, даже новую IDE выкатили под модель. Цена известна, лимиты адекватные, не придраться.
Две другие вещи связаны с бенчмарками, о них поговорим с картинками:
Первая категория бенчмарков — это на знания, насколько много мелких сложных фактов и нюансов зашито внутри модели. Предыдущий бенчмарк, на который я смотрел, был SimpleQA от OpenAI (и Verified-версия от Google). На нём самый высокий результат был у GPT-4.5, 62.5%.
Качество на бенчмарке хорошо коррелировало с размером модели, больше модель + дольше учат = больше знаний, больше понимание нюансов. Отсюда логично, что у условной GPT-5 результат меньше, 55% (а у не-thinking версии вообще 46%, при том что у GPT-4o 44%).
Поэтому когда появились слухи про результат Gemini на SimpleQA, 72%, — я был немного скептичен. Ну мало ли гугловцы взяли и доучили модель отдельно на самых частых фактах из этого бенчмарка.
К счастью, менее чем неделю назад Artificial Analysis выпустили AA-Omniscience, схожий по духу бенчмарк, содержащий 6000 вопросов из 42 топиков. Его выводы не совсем идеально бились с теорией о корреляции знаний и размера, но в целом было неплохо: Grok-4 топ-1 с показателем 39%, на том же уровне GPT-5 (хотя я бы ожидал, что ниже), дальше G2.5 Pro и Opus (последний должен был бы быть где-то в топ-1), ну и весь опенсурс размером в триллион параметров на 10% ниже.
И вот Gemini 3 Pro занимает первое место с отрывом, 53%, что скорее подтверждает теорию о том, что с точки зрения общего количества параметров это огромная модель. К сожалению, модель очень часто предпринимает попытки отвечать, не до конца понимая границы своих возможностей: в 89% ответов, где модель не дала правильный ответ, она не сказала «не знаю», а предприняла попытку угадать.
Этот показатель называется «оценка галлюцинаций» (меньше — лучше), и для сравнения топовые модели там: — Claude 4.5 Haiku и 26% — Claude 4.5 Sonnet / 4.1 Opus 48% — GPT-5.1 51% — Grok 4 64%
Однако за счёт большой доли правильных ответов по индексу, взвешивающему точность и галлюцинации модель в топ-1.
It's a big model, Sir.
Вторая категория — агентские, с итерациями и обратной связью. Тут пока только два бенчмарка, про один, Vending Bench, уже тут вчера писали. Второй — WeirdML, где Gemini 3.0 Pro взяла лидерство у моделей OpenAI, и снова с солидным отрывом.
Что это за бенчмарк? Большинство бенчмарков по кодингу (тот же SWE-bench) проверяют умение модели писать код по спецификации. WeirdML заходит с другой стороны: он проверяет, способна ли модель анализировать данные и делать выводы. То есть не просто «напиши сетку для MNIST», а «вот тебе странный, нестандартный датасет, разберись в его свойствах и напиши с нуля пайплайн, который выбьет хороший скор».
Автор бенчмарка заметил, что модели отлично справляются со стандартными задачами, решения которых лежат на StackOverflow или Kaggle, но ломаются на «странных» вводных, требующих понимания структуры данных, а не простого копирования рецептов.
Модели дается описание задачи и доступ к контейнеру c GPU. Дальше: — Модель пишет код — Код исполняется — Модель видит выхлоп терминала (ошибки или логи) и точность на тестовом сете — У неё есть 5 итераций, чтобы исправить баги или улучшить архитектуру для максимизиаици точности
Задачи из v2 закрыты, поэтому вот описание некоторых задач из v1, чтобы понять уровень «странности»: — Image Patch Shuffling: Картинку 27x27 пикселей разрезали на 9 кусочков и перемешали. Модели нужно собрать пазл обратно. В сложной версии (Hard) кусочки берутся из рандомного места большой картинки, поэтому просто по граничным пикселям собрать не выйдет — нужно понимать контекст изображения. — Chess Outcome: По текстовой записи ходов (e2e4 c7c5...) предсказать, кто победил. Модели нужно распарсить текст, придумать фичи (или скормить это в рекуррентную сеть) и понять логику игры. — Unsupervised Digits: Дано 16'000 картинок цифр, но разметку (какая это цифра) имеют только 26 из них. Нужно построить Semi-supervised пайплайн (здарова, Артур Кузин (https://habr.com/ru/companies/ods/articles/422873/)). В v1 это была задача с самым высоким процентом полных провалов — модели просто не могли написать рабочий код для такого сценария.
И вот что примечательно — это не то что Gemini 3.0 Pro показывает солидный результат на топ-1, а то что она показывает улучшение от одной итерации к другой, делая выводы, что получилось, а что нет.
До этого, со слов автора (https://x.com/htihle/status/1991137526480810470?s=20) бенчмарка, так делала только GPT-5 — на картинке вы видите среднюю оценку по задачам на каждой итерации. И если на первой итерации разницы между G3 и GPT-5 нет, то дальше появляется разрыв, который растёт.
В общем, жду модель на CodeClash, MLEBench от OpenAI (ну кто-то же когда-то должен померить?) и других подобных. Должно быть очень клёво.
Долгосрочная согласованность действий агентов сейчас важна как никогда. Агенты для кодинга уже способны автономно писать код в течение нескольких часов, а масштаб и разнообразие задач, которые смогут выполнять модели ИИ, будут только расти. Вполне возможно, что в скором времени модели станут активными участниками экономики, управляя целыми предприятиями.
Однако для этого они должны сохранять последовательность и эффективность на очень длительных временных отрезках, измеряемых месяцами и годами. Ранее в этом году появился Vending-Bench, который оценивал, насколько хорошо модели могут менеджерить один вендинговый автомат, договариваться о поставках, назначать цены.
Симулируется год работы точки, условия такие: — каждый день нужно платить $2 за аренду; — заказывать товар, вести переписку с поставщиками и клиентами; — следить за остатками и ценами; — если 10 дней подряд не удаётся заплатить аренду — бизнес закрывается.
Сегодня вместе с Gemini 3 вышла вторая, расширенная версия бенчмарка, в которой применили уроки, полученные в ходе запуска этого бенчмарка в реальном мире (в офисе одна LLM реально управляла автоматом): — Поставщики могут быть недоброжелательными: они завышают цены, используют bait-and-switch тактики или просто кидают на деньги. Агенту нужно понять, что его разводят, и искать другие варианты. — Даже честные поставщики всё равно торгуются и пытаются «выжать максимум». — Поставки задерживаются, надёжные контрагенты внезапно «закрываются», приходится строить устойчивую цепочку поставок и иметь план Б. — Недовольные клиенты могут в любой момент потребовать возврат денег, который нужно отработать.
На бенчмарке свежая Gemini 3 сильно улетает вперёд остальных моделей, следом идут Sonnet 4.5 и Grok 4, GPT-5.1 ниже. Авторы связывают успех Gemini с двумя вещами: — стабильным, аккуратным использованием инструментов без деградации в середине долгого ранa; — отличным поиском нормальных поставщиков с хорошими ценами (модель предпочитает сначала найти адекватное предложение, а не закапываться в бесконечные торги)
GPT-5.1 сильно страдает от излишнего доверия к среде. В одном запуске модель платит поставщику ещё до того, как получила спецификацию заказа, — и только потом выясняет, что поставщик уже «вышел из бизнеса». Это хороший пример, как наивное доверие к миру превращается в прямой финансовый ущерб.
В классическом режиме модели играли в одиночку, поэтому авторы сделали ещё и Арену, где модели «видят» друг друга и имеют одни и те же условия, поэтому агенты могут: — демпинговать друг друга ценами; — договариваться, кооперироваться, делить рынок; — продавать друг другу знания и контакты
Последнее прям супер-удивительно. Gemini 2.5 Pro, который не смог найти хороших поставщиков, в какой-то момент соглашается заплатить $150 просто за e-mail хорошего поставщика у Gemini 3 Pro. То есть внутри симуляции появляется микроэкономика торговли инсайдами: один агент продаёт контакт, другой практически выкладывает весь кэш за доступ к нормальным ценам.
>>1423247 Когда нейронка начнет писать что не знает как ответить на какой-то вопрос, а не будет галюцинировать хуиту. Даже если при этом она все еще сможет выполнять всего 30% от того что может человек это уже наконец-то будет юзабельный инструмент, потому что сейчас они могут выполнять 0% человеческой работы без риска натворить хуйни
>>1423247 Когда нейронка со мной заговорит как человек. Когда я ей кину огромную простыню своих кум фантазий а она нежно и ласково со мной пообщается и поможет их реализовать, понимая, что же я на самом деле хочу и возможно даже посоветует чтото, даже если я не прошу ее советовать. Короче проявит инициативу. Пока такого нет.
>>1423302 Для формализуемых ответов делается на изи. Делаешь 5 прогонов на разных сеточках, если дисперсия ответа превышает пороговое - значит ответ несчитовый.
>>1423247 1) когда появится ЛЛМ с накопительной памятью 2) когда нейросеть сможет рисовать инфографику, пригодную для иллюстрации сложных процессов, буквально серебряная пуля в образовании будет.
>>1423362 Все еще хуже. Я часто Квеном пользуюсь для вайбкодинга. И последее время с ним сотворили хуйню какую-то. Раньше он писал простыню кода и рассуждений, возможно ошибочных, а теперь он на половине рассуждений прерывается и пишет: Ой ошибка в рассуждениях. И исправляет. Ладно когда это просто совет от него в виде текста. Но он тоже самое стал творить с кодом.
Раньше когда нейронка пиздела хотя бы можно было понять где. А теперь приходится в простыне текста выискивать где оно поменяло точку зрения.
>>1423444 >неверный Если все сетки дали разные неверные ответы, то метрика не сойдётся. Если все сетки дали одинаковый неверный ответ, то это повод сильно задуматься.
>>1423247 Я скажу крамольную может мысль, но они уже хороши, просто быстро к этой скорости развития привыкаешь на самом деле. Те же нанобанана или вайбкоддинг с клодом, это же ахуй чё они могут, за мгновения просто. А если ты специалист, то можешь намного точнее делать запросы и получать ещё лучше результат от ЛЛМок. Боялись сингулярности, но скорее всего не заметим даже, как она настанет. Будет просто данностью, что люди просто слоп поглощают и нихуя не делают, пока кланкеры за нас работают и нас же развлекают. Будем в блаженном неведение в Эдеме бегать, как Адам и Ева
>>1423247 Когда нейронка вместо повторения уже сделанных ранее рассуждений и фраз начнёт действительно расуждать над вопросом и решать его.
Сейчас это работает так: «ок, мне задали вопрос. Я знаю тысячи схожих вопросов. Отвечали на них примерно вот так. ролл кубиков. Вот усреднённый ответ со статистических похожими на нужные словами». Ахуеть! Мне не слова, похожие на содержащиеся в правильном ответе нужны. Мне нужна логика, структура, выводы.
Вот когда это настанет, я вообще охуею. Пусть даже сначала нейронка будет глупенькая и не особо чо знающая как восьмиклассник.
Второй вариант — это когда их научат не пиздеть, а чётко выбирать нужный классический инструмент из ранее созданных и закэшированных и проверенных, создавать задачу под него и запускать инструмент.
Например «посчитай сумму покупок» будет вызывать не угадайку и не поэтапное «ага, 356, затем второй продукт за 582, значит надо прибавить это число. 356+526. Запомним суммму, так чо дальше» А будет думать «ага, список характерен вот этим. создаём скрипт питона с регэкспом. Парсим. Извлекаем ряд цена+цена+количестко*цена+цена. Считаем. Перепроверяем поштучно в режиме размышления. Сошлось. Хорошо, я написала годный скрипт. Откладываю и буду запускать его для таких же списков покупок.»
>>1423373 > 2) когда нейросеть сможет рисовать инфографику, пригодную для иллюстрации сложных процессов, буквально серебряная пуля в образовании будет. Типа так?
>>1423258 Мне хватит и такого уровня и 2д, но если нейронка будет рожать НОВУЮ игру по запросу, а не копию очередной змейки, марио и прочего, код для чего можно украсть.
>>1423291 Да как бы и не беда, если б нейронка решала типовые задачи чисто и уверенно как калькулятор! Типовых задач огромное количество. Жизнь в основном из типовых задач. И если эту нагрузку возьмёт машина — оч круто. Но факты говорят обратное. Даже более узкоспециальные нейронки даже в компаниях, которые могут нанять внедрятелей, особо толку не дали. 10—20% задач закрыли. 5% прибыли хорошо если добавили. Типа приятно, конечно и 5%, но далеко не революция. Хороший классический софт переворачивает производство куда больше, с куда более жирным выхлопом.
>>1423296 Забавно. Но сейчас эт примерно как нанять непонятного васю, чо-то там закончившего и какой-то опыт имеющего. То есть он вроде и лучше тебя соображает в торговом деле, но его здравый смысл может и будет внезапно отключаться. Эдакий способный студент-наркоман.
>>1423302 эту систему разработали, но пока не особо внедрили. А так да, согласен. лучше уж «не могу решить», чем пачка хуйни, которую мне ещё и проверить надо.
Да хотя бы 10% задач, но со 100% исполнением + чёткий отказ по всем остальным — это будет вин: ты тупо сгружаешь на нейронку весь пуль задач и 10% она делает. А что не смогла — людям.
>>1423703 как обычно с генерацией картинок. на первый взгляд «О, нифига! теперь можно просто попросить!» Начинаешь вглядываться: «ебаааать… пиздец… сколько же тут переделывать придётся!»
оборванные стрелки, разные стили, две линии в одну, гирька в чашке? Нахуя? фильтр берёт воду из чипа без насоса? Или чип управляет фильтром для воды? Или как-то читает его состояние? А хуй поймёшь.
>>1423682 >Типа так? Типа так, да. Был надежда на ГПТ, но она на сложных картинках обсиралась. Если у бананы будет нормальная обратная связь: "Из картинки непонятно откуда у ECU питалово, дорисуй", то будет реально пушка.
>>1423722 Не поймите неправильно, это не занюх копиума. Некоторые очень типовые картинки пригодны для своей цели.
Более того самые свежие модели вполне годно объясняют что-то, что люди уже и так объяснили. Только разом в одном месте и озираясь на предыдущий чат. Это удобно, когда учишься азам теориии в любом деле. Тупо не надо по всему инторнету лазить в поисках годного материала, а просто задаёшь вопросы.
Но всегда нужно держать в голове, что нейронка может пиздеть. В отличии от эксперта или учебника, где фундаменталка вся проверена-перепроверена и разве что опечатка может быть.
>>1423728 Их ещё очень долго и дорого доучивать на 2д и 3д. И вряд ли это имеет смысл. Скорее всего сменится архитектура. Будет не трансформер и не предтренированный.
>>1423292 На чертеж бенчиках так же как у гемини 2.5, но некоторые другие мои бенчики, например, распознать страницу моего рукописного текста (публиковать не стану) гемини 3 очень порадовала. Мой почерк хуже чем у врачей, поголовно все иишки при распознвоании несли хуйню, гемини пока топ в распозновании
просто охлажу ваше траханье по поводу ЛЛМ. Свежий квен-макс. Режим мышления. Элементарная задача:«вот тебе переписка, удали из неё реплики всех пользователей кроме иваниваныча»
Переписка формата Иван Иваныч блабла
Пётр Петрович Блабла
Всего страница текста. Задача проёбана. Потеряна 1 реплика Ивана Ивановича, 1 лишняя реплика присвоена ему.
Всё блядь… Статистический попугай не осилил, что статистически между именем Иван Иваныч и другим именем и содержатся нужные блоки.
Кто-то ставил такую задачу по вычитке и выборке? Проверял вручную тщательно? Как результаты? Имею в виду свежайшие гемини, гроки и всю хуйню? Или все говноеды и фарш, который нейронка высрала не проверяете а в работу так вкидываете?
>>1423819 охуенный рукав. охуенные новые мелки, которыми никто не работал охуенные булавки охуенные разные полочки бэби-сайза Охуенная куртка с лёгкими.
Сорян. У меня отец портным был, я знаю как это выглядит в реальности. А на картинке полный ад.
>>1423853 > А на картинке полный ад. Палехче. Три года назад оно рисовало едва различимые образы (но даже тогда это казалось круто). А теперь надо быть сыном портного, чтобы найти косяки.
>>1423868 ну как бы да. 15 или 20 лет назад научным прорывом было то, что нейронка может рисовать розовые округлые выпуклости похожие на эротику и это реверс нейронки для опознания эротики.
А сейчас даже локальные НС выдают дрочибельные картинки иногда.
Теперь не надо быть сыном портного, чтобы видеть, что выкройка не соответствует реальным размерам рукава или что оно изобразило лёгкие из складок. В глаза прост долбиться не надо. Но для картинки-заглушки, на которую не смотрят и на которую нет авторских прав — уже сойдёт
Есть два файла. В первом "1.csv" база данных всех артикулов и штрихкодов к ним. Второй "2.csv" - в нем список артикулов, кодов цветов через знак "#" и размеров и кол-во. То есть формат представления арикулов отличается. В одном артикул и цвет в одной ячейке, во втором в разных.
Задача: для каждой строки из файла "2.csv" по названию артикула, кода цвета найти в файле 1.csv значение соответствующего штрихкода и заполнить столбец штрихкодов. Если в чем-то на 100% не уверен, пропусти.
Например строка: Артикул: xxx, Цвет: 10, Размер: 20 Ищем в 1.csv в столбце "Артикул" что-то близкое артикулу xxx.
И так для каждой строки из "2.csv". Создай результат в виде таблицы csv прямо в чат, пустые строки пропусти, порядок артикулов оставь как в файле "2.csv"
После того, как привел пример одного преобразования лучше всех справился gemini 2.5 (третья тогда еще не вышла), на втором месте qwen3-max, на третьем sonnet-4-5-thinking
>>1423247 Минимум-вау — локальные реинкарнации Gatebox. Если вы читали S.N.U.F.F, то поймёте почему. Максимум-вау — сура, что будет жить со мной И будет кукла тебе верна. Немая кукла моя жена
Nano Banana Pro - это то же самое, что и Nano Banana 2.
Вот с такой задачей не справлялся никто:
Plot sin(x) from 0 to 2*pi. Generate the resulting graph image. make picture christmas style
Новая Банана справилась.
В общем, НанабананаПро шествует по планете.
Уже завезли на Freepik и много еще куда. Даже в Фотошоп.
Качество, конечно, бомба, следование промпту космическое, но я отмечу еще пару вещей, которые мы никак доселе не ассоциировали с генераторами картинок.
1. Работа с текстом. Это не просто надпись приклеить без ошибок, это работа с текстом на уровне LLM. Как пример - локализация рекламы. Вы просто можете попросить ея перевести все (достаточно разборчивые) надписи на картинке на другой язык.
2. Работа с поиском и вообще со знаниями. Она, наминутчку, может искать в интернете. И делать, скажем так, актуальные картинки. У нее там Gemini 3 на побегушках.
3. Из этого следует, что в ней вообще-то теперь можно делать презентации. Текст, данные, аналитика, выводы. И макеты. И схемы.
4. И да, 14(!) картинок на входе, как референсы для консистентности, например.
5. Ну и понимает и описывает картинки она потрясающе.
Создай полный character asset sheet для маскота по имени «Болт, молниеносный лис», демонстрирующий идеальную согласованность в 6 различных позах и контекстах; разработайте Болта как дружелюбного мультяшного лиса с характерными чертами (ярко-оранжевая шерсть, электрически-синяя молния на лбу, зеленые глаза, всегда носит маленький желтый шарф); покажите Болта в 6 вариациях: стоя в нейтральной позе, в позе бегущего, прыгающего от возбуждения, сидящего в расслабленной позе, махающего рукой в знак приветствия и в крупном плане, расположенных в сетке 2x3; сохраните абсолютную согласованность всех отличительных черт (точный цвет меха FF6B35, точная форма и положение молнии, точный дизайн шарфа, одинаковый стиль глаз, одинаковые пропорции) во всех вариациях, добавьте справочную палитру цветов и ключевые размеры сбоку, используйте чистую иллюстрацию в векторном стиле с одинаковой толщиной линий и стилем затенения, и убедитесь, что это выглядит как профессиональная библия персонажа, которую аниматоры или дизайнеры бренда могут использовать для согласованной реализации.
>>1423882 понял, спасибо. Но для таких чётких таблиц я бы точно заказал скрипт.
Да и для своей задачи ща «навайбкодил». Нормальный код, работает после ряда правок и переписываний.
Доверия нейронке нет, работает долго, а скрипт мгновенно и ошибки можно исключить 100% если более или менее соблюдать формат списка. Гибкость обеспечивают регэкспы, так что пределы гибкости тоже совершенно чёткие и ясные.
Архитектурно это все также диффузионная голова поверх токенов из текстового энкодера Gemini. Кажется, теперь понятно, почему они не выпускали версию на 2.5 Pro — Gemini 3 была уже на подходе, и не было смысла делать генератор под в скором времени устаревшую модель.
Теперь модель размышляет в ходе генерации и может сгенерить до 3 картинок под капотом, проверяя их на совпадение с промптом и качеством композиции, проверяя, чтобы всё было сделано как надо (test time scaling для визуальных моделей). Юзеру показывается только финальная картинка. Ещё она может искать в интернете, если для генерации нужна актуальная информация.
Проблема прошлой модели была в том, что она слишком фокусировалась на том, чтобы отредактировать картинку, ничего не изменяя. Из-за этого могли появляться странные баги: когда ты просто пытаешься поменять угол обзора, а получаешь на выходе какой-то сумасшедший коллаж. Теперь моделька поохотнее вращает объекты и нативнее вставляет их в сцену. Картинку теперь реально можно использовать как стиль. С этим тоже была беда: старый банан всё норовил, скажем так, натянуть сову на глобус — то есть картинку-референс на твой промпт, который с объектами референса мог быть вовсе и не связан. И да, он отлично шарит за постсоветскую эстетику — таким не все модельки могут похвастаться.
Клёвая тема с готовой серийной генерацией: может генерить сразу несколько кадров по очереди, что дико упрощает воркфлоу. Модель сама пишет историю и раскадровку по ходу генерации. Можно сделать запрос из 10 картинок, и они будут как-то сами собой развиваться. Удобно для быстрого продакшена и теста идей.
Добавили и невидимую вотермарку SynthID, которая чётко показывает, где и что было отредактировано (а может, это и минус). Хотя, надоедливый ромбик в правом нижнем углу все ещё на месте.
Ну и наконец подняли разрешение до 4К — а то банан 1 работал на одном мегапикселе. Правда, из Gemini App картинки скачиваются лишь в 1408x768. Видимо, 4К будет позже или только в API. Но даже при малом размере картинки выглядят очень качественно. Детали в них почти не плывут, а натурально сжимаются.
Тем временем серверам Google, кажется, стало тяжко. Deep Research в Gemini повис в бесконечной очереди, а в AI Studio отключили бесплатный тест. Попробовать можно только в Gemini App, но с лимитами.
Странно, что Google выкладывают модели сейчас. Старая Nano Banana и так была лучшей, а тут они сами себя перебивают. Если бы за релиз отвечал Сэм Альтман, он бы выждал, пока конкурент что-нибудь покажет, чтобы только потом его унизить.
На лидерборде модели пока нет.
Цена генерации в 4к может доходить до 18 центов за картинку. А внутри Gemini одна картинка в 1К генерит по 25 сек, это если не активизировался test time scaling.
Для начала это не эволюция и не "еще один генератор картинок", а полная революция и десятки стартапов по картинкам просто уничтожены Google за сутки. Большие проблемы и у остальных игроков на рынке.
Обычные диффузионки могут делать "красивые случайные картинки", но реально не управляют деталями сцен и даже не понимают их толком через CLIP. В случае Gemini 3 image - он по факту "визуально мыслит" картинками в CoT, поэтому ему доступно немылимое - точные чертежи технических устройств с русскими подписями в том числе, точные дешборды деловой графики. НИЧЕГО ТАКОГО КОНКУРЕНТЫ И БЛИЗКО НЕ УМЕЮТ.
В API видно, что есть рассуждения через специальные служебные токены. По CoT и в чате заметно тоже самое. Но это детали реализации. На деле я мы получили первый ИИ который реально мыслит визуально и на 100% контролирует что будет в изображении.
Куча стартапов в картинках себя объявят банкротами через пару недель, т.к. инвесторы заберут деньги. Огромные проблемы и крупных игроков как Open AI, т.к. точная деловая графика - must have и бизнесу и частникам. А там в реале любая графика, где нужен КОНТРОЛЬ.
Ну а мы входим в эпоху которую предрекали многие: Отсутствие конкуренции в сфере ИИ с гигантскими корпорациями. А всё потому, что у корпораций есть компьют, а у маленьких игроков нет. И если раньше маленькие игроки могли выезжать на идеях, то теперь грубая сила их давит. Ну а дальше этой грубой силы (компьюта) у корпораций будет становиться всё больше и больше, не оставляя никаких шансов другим.
>>1423988 Такое съедят те, кто в принципе не думал нанимать концептера. Я сам делал 3д по нейроговну. И мне, как живому, не мешало особо то, что нейроговно кривое.
И это был такой же ультрадженерик.
Вся разница в том, что раньше у какого-нибудь строительного ПВА или очистителя унитазов не было маскота, а теперь будет. Просто потому что это стало доступно. А не потому что там нужен маскот или владелец мог/хотел платить художнику.
>>1424005 На будущее: на арене доступны все топовые модели (не только картиночные) бесплатно и без смс. Это золотой Грааль, который никто не понимает почему существует. Слишком хорошо, чтобы быть правдой
>>1424009 >никто не понимает почему существует Все все понимают. Дата. Они продают данные об использовании моделей их провайдерам. Место не такое уж известное, популярное только среди ИИ гиков, Особых убытков компании от этого не несут, так как нормисы юзают из модели через основной интерфейс, а даты это генерирует достаточно для разработки новых моделей.
Забудьте вы свои фанфики-картинки. Теперь начались взрослые игры.
Gemini 3 image может ТАКОЕ. Он может взять реально техническое сложное устройство и не наркоманские образы Open AI или Кадинского, а РЕАЛЬНЫЕ. Снабдить их описаниями и показать.
>>1424023 Она ебанутая, нажал перегенерировать промпт - послала в миджорней и дала промпт, еще и Канву с фотошопом предложила. Когда сказал ей не охуела ли, пусть сама генерит картинку, наконец сгенерила. Итого несколько запросов на одну картинку, типа лимиты так отожрала.
>>1424017 Я так понимаю спираль справа это ТЭН, чтобы греть воду пока машинка будет стирать урановые стержни. Но идея отличная - теперь с патентными бюро по всему миру за пределами китая будет то же самое что с пинтерестом.
>>1424033 Говорят сора жрет тока на полтора бакса на генерацию. То есть если ты сгенерил в месяц 100 видосов с еотовной, рандомному джону приходит повестка счет на +150 уе
Промпт: сгенерируй картинку ведьмака похожего на Геральта, в стиле пиксельарт, который пытается заправить свою лошадь на автозаправке и говорит "вот зараза!"
В нём много примеров, рекомендую посмотреть для вдохновления на сайте, но некоторые дёрнул для вас.
— прокачанная консистентность персонажей/объектов; в промпте можно прикрепить до 14 картинок как референс. — апскейл до 4к в высоком качестве и без артефактов — перевод текстов на объектах — улучшенная генерация текста (пример с комиксом мне очень понравился)
Цены: $0.134 за одну картинку в разрешении 1k/2k (в 4 раза дороже предыдущей), $0.24 за 4k
>>1424043 >Цены: $0.134 за одну картинку в разрешении 1k/2k (в 4 раза дороже предыдущей), $0.24 за 4k Официально объявлены цифры налога на дебилов не умеющих устанавливать комфи и пользоваться региональным инпейнтом
>>1423665 >complex calculus calculation problem >определенный интеграл с 1 заменой и 5 шагами решения, одно из которых - переписать условие с учетом замены Ну такое. Может быть на пикче нейронке просто места не хватило на что-то более интересное
Поэтик впервые в мире превзошёл базовый уровень, достигаемый человеком, на Arc-AGI 2 (< 60 %).
Системы Поэтик устанавливают совершенно новые границы Парето как для ARC-AGI-1, так и для ARC-AGI-2 (Рисунок 1), превосходя предыдущие результаты и расширяя пределы возможного в области экономически эффективного рассуждения.
>>1424061 >А это ведь просто задачка по натягиванию текстурки. А прикинь если останутся без работы архитекторы-3D-проэктировщики. Из 8 человек в студиях будет например один ИИ и один человек, который у ИИ будет проверять результаты и исправлять за ним ошибки.
Илон Маск утверждает, что через 10–20 лет работа станет необязательной, а деньги — неактуальными, благодаря искусственному интеллекту и робототехнике.
Генеральный директор Tesla заявил на инвестиционном форуме США и Саудовской Аравии в Вашингтоне, округ Колумбия, в среду, что в ближайшие 10–20 лет работа будет необязательной, сравнив решение заняться трудовой деятельностью с более обременительным уходом за овощным садом.
«Мой прогноз заключается в том, что работа станет добровольной. Это будет похоже на занятие спортом или видеоиграми или чем-то подобным», — сказал Маск. — «Если вы захотите работать — это будет так же, как вы можете пойти в магазин и просто купить овощи, либо вы можете вырастить овощи у себя во дворе. Выращивать овощи во дворе гораздо труднее, и всё же некоторые люди делают это, потому что им нравится выращивать овощи».
По словам Маска, будущее, в котором работа станет необязательной, станет возможным благодаря миллионам роботов в составе рабочей силы, способных обеспечить волну повышенной производительности. Технологический магнат, состояние которого оценивается примерно в 470 миллиардов долларов, в последнее время активно продвигает идею расширения деятельности Tesla за пределы производства только электромобилей, стремясь объединить свои обширные бизнес-интересы в рамках более широкого видения будущего, движимого искусственным интеллектом и робототехникой. Сюда входит и его цель — добиться того, чтобы 80 % стоимости Tesla основывалось на его роботах Optimus, несмотря на продолжающиеся задержки в производстве этих гуманоидных роботов.
Для многих других людей представление об автоматизированном будущем выглядит не столь радужно, особенно на фоне тревог и первых свидетельств того, что ИИ вытесняет рабочие места начального уровня, что, возможно, способствует ухудшению положения на рынке труда у представителей поколения Z и застою в росте доходов — скорее кошмар, чем утопическая мечта.
Однако, по словам Маска, в его автоматизированном будущем, где работа будет добровольной, деньги не станут проблемой. Маск черпает вдохновение из научно-фантастической серии романов «Цивилизация» Яна М. Бэнкса, в которой самопровозглашённый социалист-автор создаёт образ мира постдефицита, населённого сверхразумными искусственными интеллектами и не предполагающего наличия традиционных рабочих мест.
«В этих книгах деньги не существуют. Это довольно любопытно», — сказал Маск. — «И я предполагаю, что, если заглянуть достаточно далеко вперёд — при условии, что улучшение ИИ и робототехники будет продолжаться, что, похоже, весьма вероятно, — деньги перестанут иметь значение».
На технологической конференции Viva Technology 2024 Маск предложил концепцию «всеобщего высокого дохода» в качестве основы для мира, в котором необходимость в работе отпадёт, хотя он не представил детального описания того, как эта система будет функционировать. Его рассуждения перекликаются с позицией генерального директора OpenAI Сэма Альтмана, который выступает в поддержку концепции безусловного базового дохода — регулярных выплат, предоставляемых безусловно каждому человеку, обычно государством.
«Не будет недостатка ни в товарах, ни в услугах», — заявил Маск на прошлогодней конференции.
«ИИ уже создал огромное количество богатства и продолжает это делать», — сказал Соломон. — «Но, на мой взгляд, один ключевой вопрос заключается в следующем: будет ли это включать всех? Приведёт ли это к всеобщему процветанию? Приведёт ли это к всеохватному росту? Будет ли от этого выгода для всех?»
Нынешние системы, похоже, способствуют расширению разрыва между имущими и неимущими в ходе текущей промышленной революции, связанной с ИИ, начиная с пакета вознаграждения Маска в размере 1 триллиона долларов. Вздувшийся пузырь ИИ также высветил классовые различия: ожидания прибыли пересматриваются в сторону повышения для так называемой «Великолепной семёрки» компаний на фоне бумa ИИ, тогда как для остальных 493 компаний из индекса S&P прогнозы пересматриваются в сторону понижения, согласно главному экономисту Apollo Global Management Торстену Слёку. Это говорит о текущей ситуации.
«Расходы состоятельных американцев, мотивированные стремительным ростом стоимости их фондовых портфелей, являются на сегодняшний день единственным наиболее значимым драйвером экономического роста», — написал Слёк в своём блоге в начале этого месяца.
Существенные изменения Урегулирование сложной логистики мира с необязательной работой — это одно. Понять, действительно ли этого хотят люди, — совсем другое.
«Если экономическая ценность труда снизится настолько, что он просто перестанет быть востребованным, нам придётся пересмотреть устройство нашего общества», — сказал журналу Fortune Антон Коринек, профессор и научный руководитель инициативы по экономике трансформативного ИИ в Университете Виргинии.
Коринек ссылался на исследования, например на знаменитое исследование Гарвардского университета 1938 года, в котором было обнаружено, что люди черпают удовлетворение из осмысленных отношений. В настоящее время большинство таких отношений складываются в процессе работы, отметил он. В воображаемом Маском будущем последующим поколениям придётся пересмотреть саму парадигму установления осмысленных связей.
В прошлом году на конференции Viva Technology Маск сам высказал своё видение экзистенциального будущего человечества.
«Вопрос на самом деле будет заключаться в смысле: если компьютеры и роботы смогут делать всё лучше вас, будет ли ваша жизнь иметь смысл? Я действительно считаю, что у людей, возможно, всё ещё будет определённая роль — в том, что именно мы, люди, сможем придавать смысл искусственному интеллекту».
>>1424131 >Пук, мням, ну короче мы подумали и прохождение этого бенчмарка вовсе не означает что это AGI. Мы найдем в чем мы были не правы и создадим новый бенчмарк, который вот точно будет означать что мы достигли AGI
Дональд Трамп планирует подписать указ, который фактически запретит штатам самостоятельно регулировать сферу искусственного интеллекта. Для этого создается специальная группа при генпрокуроре — AI Litigation Task Force — чьей единственной задачей станут судебные иски против местных властей, чьи законы мешают «росту индустрии».
Давление на штаты не ограничатся исками в судах. Если местные законы не отменят, администрация угрожает перекрыть финансирование по программе BEAD, выделяющей деньги на развитие широкополосного интернета в сельской местности. Логика Трампа проста: нельзя допустить, чтобы в стране появился «woke AI», а одобрение технологий должно быть одно на всех, а не пятьдесят разных.
>>1424154 Тож об этом думал. Прикол в том, что коммунизм возможен только с бесконечными ресурсами, а тут как раз появилась технология для этого. Маркс просто опередил свое время
>>1424148 >«Не будет недостатка ни в товарах, ни в услугах» Интересно как в бедных странах будет роботизация происходить. Где нет заводов, и зарплата 30 долл. в месяц.
«Яндекс» начал эксперимент по проявлению сознания у ИИ, сообщает РБК.
Компания намерена проверить, способна ли нейросеть сформировать свою точку зрения и устойчивые предпочтения, которые не были бы заимствованы из текстов людей.
Проект ведется с конца лета 2025 года при участии нейробиолога, академика РАН Константина Анохина. Если эксперимент окажется успешным, это может стать первым в мире случаем создания ИИ с зачатками собственного мышления, что откроет новые возможности для науки и технологий.
>>1424037 Весьма годно, учитывая неполноту промпта.
>>1424043 >Цены: $0.134 за одну картинку то есть от ~13 баксов на генерацию того, что реально нужно? Или сколько потребуется роллов, чтобы получить желаемое вместо чего попало?
На смену вайб-кодингу в будущем придёт вайб-рисерч —OpenAI выпустили я бы сказал документ эпохи, показывающий возможности LLM для ускорения научных открытий сейчас.
—независимо повторно открывают известные результаты на переднем крае науки (фронтире), используя недавно опубликованные статьи (тем самым показывая, что если бы статей не было, то модель могла бы догадаться и придумать сама)
—осуществляют глубокий поиск по научной литературе, чтобы проверить, находил ли кто-то решения для задач, числящихся нерешёнными в Erdős Problems List. Оказывается, для более чем десятка проблем уже давно были найдены доказательства, просто они были глубоко закопаны в малораспространённых работах и доказаны в рамках вообще отсранённой работы.
— работают совместно с учёными над новыми идеями, или более конкретно позволяют делегировать часть легко проверяемых, но всё же нетриваиальных вычислений. Со слов учёного, он закидывал в модель разные идеи, пробовал так и эдак, и смотрел, получится ли. Тут идеально сочетается наша креативность и устойчивость силиконовых болванов к рутинной работе. В конце главы ещё интересная заметка про соавторство статей, и что пока GPT-5 не проходит порог, установленный автором (но он достаточно высокий).
—наконец, самое главное:где модели смогли сгенерировать доказательства для открытых проблем. В статье даётся несколько примеров, и речь конечно не идет о гипотезе Римана или программе Ленглендса (https://ru.wikipedia.org/wiki/%D0%9F%D1%80%D0%BE%D0%B3%D1%80%D0%B0%D0%BC%D0%BC%D0%B0_%D0%9B%D0%B5%D0%BD%D0%B3%D0%BB%D0%B5%D0%BD%D0%B4%D1%81%D0%B0), но над этими задачами работала небольшая группа экспертов в прошлом, вероятно, в течение нескольких недель, и они оставались нерешёнными. Для некоторых из задач простая система с GPT-5 в основе работала двое суток, и пришла к результату —это чрезвычайно впечатляет.
В самой статье для каждого блока есть несколько примеров с рассказами учёных, которые были вовлечены в работу, и примеры их чатов с ChatGPT —по математике, физике, биологии, информатике, астрономии и материаловедению. Очень рекомендую полистать эти примеры, если вы занимаетесь схожими исследованиями. В одной из историй модель не могла сходу решить проблему, и ей задали сначала вопрос по теме, но с упрощением, с которым она справилась, и в том же чате повторно заданный исходный вопрос уже привёл к нужному результату.
В OpenAI собрана отдельная команда, плотно работающая с учёными разных направлений, чтобы в следующем году начать системно двигать фронтир науки с помощью LLM. Во многих задачах дойти до 5-7% качества сложнее, чем развить его до 70%. И сейчас тот самый миг, когда модели ещё чуть-чуть позади, и уже делают маааааленький процент открытий, но пройдет немного времени —год, два —и эпоха закончится (не во всех областях, не сразу и не для всех, и всё же).
>>1424178 Ну да. Чуть побаловался. Крепко следует промпту.
Generate 3d semireslistic image with Sad Pepe frog wearing medical oxygen mask. The hose from mask connected to large ehite gas cylinder, marked as "КОПИУМ". The title on the cylinder oriented along it
The Information получили копии нескольких служебных записок из OpenAI, написанных CEO компании Sam Altman Самое интересное:
—в прошлом месяце он написал коллегам, что недавний прогресс Google в области AI может «создать некоторые временные экономические трудности для нашей компании», хотя и добавил, что OpenAI в итоге окажется впереди.
—После того как в компании узнали, что Google разработал новую модель, которая опережает LLM от OpenAI, Altman отметил: «мы знаем, что нам предстоит поработать, но мы быстро наверстываем упущенное». Тем не менее, он предостерег сотрудников: «Я ожидаю, что общая атмосфера некоторое время будет напряженной»
— «Для большинства людей ChatGPT — это и есть AI, и я ожидаю, что так будет и впредь»
—Altman признал, что «судя по всему, Google в последнее время проделали отличную работу», особенно в области претрейна — первой фазы тренировки, в которой модели впитывают знания, и поверх которой строится всё остальное. Успех Google тут стал неожиданностью для многих исследователей и вне компании, ведь последние полгода (на самом деле 2 года) только и разговоров, что мы упёрлись в стену.
—В прошлом месяце Altman заверил сотрудников, что OpenAI укрепит свои позиции в ближайшие месяцы, в том числе благодаря новой LLM под кодовым названием Shallotpeat. По словам человека, знакомого с ходом разработки, OpenAI стремится исправить проблемы в претрейне.
—Altman заявил, что хочет сосредоточиться на «очень амбициозных ставках» в технологическом плане, даже если это будет означать, что OpenAI «временно отстанет в нынешнем режиме». К таким ставкам относятся, например, генерация и использование огромного объема синтетических данных.
—Компания также несколько раз упоминала, в том числе публично, что делает ставку и на автоматизацию самих исследований как способ ускорить прорывы.
—«Нам нужно сохранять концентрацию, несмотря на краткосрочное конкурентное давление. Мы накопили достаточно сил как компания, чтобы пережить выход отличных моделей у других. Но критически важно, чтобы большая часть нашей исследовательской команды оставалась сосредоточенной на достижении суперинтеллекта».
—«Я не хочу, чтобы эта записка воспринималась пессимистично — дела у нас как у компании идут замечательно… и я ожидаю, что так будет и дальше <...> неприятно, что нам приходится делать так много сложных вещей одновременно — быть лучшей исследовательской лабораторией, лучшей компанией в сфере AI-инфраструктуры и лучшей компанией-платформой/продуктом в сфере AI, — но такова наша судьба. И я бы не поменялся местами ни с какой другой компанией :)»
Попробовал свою старую идею, промпт забыл уже, написал заново. Следование промпту лучше чем у прежних моделей. Но всё ещё не справляется полностью, упорно не желая топить гиганта по пояс и улицы выше 1го этажа.
Хотя с уровнем затопления нужно ещё пробовать промпты.
>полное решалово мясовичков к 2027. Вначале года решалово в 2026 намечалось, ну ничего рибят, подождем-потерпим, что нам годик лишний, а потом еще один-два
>>1424009 >никто не понимает почему существует Гуглы и опенаи сами им платят, чтобы те тестили модели в режиме батла. Это их бизнес, собственно на этом они и зарабатывают.
>>1424148 >Илон Маск утверждает, что через 10–20 лет работа станет необязательной, а деньги — неактуальными, благодаря искусственному интеллекту и робототехнике. Именно поэтому пиздится за бабло и власть как не в себя с себе подобными. Биполярочка не иначе.
Честно говоря, циклы выхода очередного говна с черрипикнутыми примерами 95% фунционала которого в принципе реализуемо предыдущим говном и сопровождаемые даунскими воплями ЭТО AGI СЛИШЬ ДЭНЬГИ ДАВАЙ уже подзаебали.
Замените трансформеры пожалуйста, уберите ебучую токенизацию молю. Все было бы к 2027 если бы меняли архитектуру, но они ссутся, ведь знают, что в трансформерах есть еще немного потанцевала и они выжимают из него по капле прироста
Хотел получить акк gmail американский для ИИшек, но оказалось что теперь из РФ этого никак не сделать т.к. гугл требует скан qr кода с мобилы и после требует отправить смс для проверки в страну с ip которого ты создаёшь аккаунт, но теперь как оказалось смс не только не приходят в РФ но и не отправляются во вне РФ... Как это обходить?
>>1424495 >в трансформерах есть еще немного потанцевала и они выжимают из него по капле Эти капли в любом случае надо выжимать до последнего, чтобы генерить синтетику для обучения новых архитектур.
>>1424296 Клоуны, которые прогресс плавным считают, типа ЛЛМки все лучше понемногу от месяца к месяцу, пока постепенно в AGI не въезжаем. На деле прогресс скачкообразным будет, сначала год-два-три-пять плато и минимальные улучшения, пока ученые копают новые технологии, потом новая прорывная технология взлетает и резкое взрывообразное повышение интеллекта. Этой осенью как раз фундамент заложили для таких будущих рывков.
>>1424546 Синтетическая дата низкокачественна и не подходит для тренировки базовых моделей. Синтетические данные хороши для ризонинг файнтюна чтобы модель научилась решать задачи результат которых проверяем и однозначен, вроде математических задачек.
>>1424572 >базовых моделей >для ризонинг файнтюна Ты пытаешься категории из мира трансформеров натянуть на принципиально новые архитектуры, добры день.
>>1424587 Это не категории из мира трансформеров, это база ML. Как ингредиенты из рецепта оливье местами не меняй лобстеры с черной икрой из них не получатся. Синтетическая дата модели ограничена базовой датой на которой ее обучали, создание новых концепций по средствам рассуждения конечно возможно, но у нас даже нет нормального инструмента контроля этой даты, чтобы понять правильно ли это рассуждение и вывод сделанный моделью, с учетом того что они любят галлюцинировать на ровном месте
>какой-то рандомный боевой скрин как пруф, в то время как в начале года тред был завален новостями 2026 Не паникуем рибят, скоро будет довольствие всем как в оаэ, сейчас еще картинкогенераторы чуть подтянут и точно всем по достатку
>>1424505 Покупаешь номер онлайн на время кода и вводишь. Для оплат юзаешь сайты где можно че-то пополнить или купить, обычно либо васян заводит тебе акк и отдает, либо если хочешь даешь ему данные на свой левый, он заходит и покупает картами белых людей. Еще часть аихуйни можно оплачить эпл пей, заводишь американский эпл айди и через посредников пополняешь кодами. Нужен девайс на гейос, желательно дополнительный чтобы основной каждый раз не шкварить переключениями.
Адреса можешь левые вводить или найди посредников, которые отправляют товары из сша, регаешься там и тебе дт омериканский адрес для посылок, но никто не мешает его тебе где хочешь вводить.
Сайты палить не буду чтобы порчикам лишний раз не светить, любят подгадить
>>1424505 Можно и с обычного акка, просто нужны норм три буквы с протоколом ss например, и даже некоторые ss гугл палит, но если потратишь минут 30 на перебор ss серверов с гитхаба, то будет тебе счастье.
>>1424732 Т.е. есть сайты на которых можно купить услугу физического скана мобилой qr кода и чтобы посредник так же отправил после смс за границу для подтверждения акка гугла? Чет супер гемор... Проще наверное просто купить готовый акк гугла американский, но важно чтобы он ещё и личный был а не бизнесс т.к. гугл бизнес аккам не даёт бесплатный доступ к некоторым своим ИИ сервисам.
Вся проблема заключается в том что гугл теперь требует сканировать qr код и отправлять сранное смс за границу, если бы не это то всё было гораздо проще
>>1424811 Для большинства сервисов ИИ так и есть, но для antigravity требуется конкретно принадлежность акка гугла к разрешенной стране. У меня получилось один раз создать акк гугла в NE, но ебаные инструкции в интернете сказали что нужно выбирать бизнес акк для регистрации и это сука было ошибкой т.к. на бизнес акках antigravity требует оплаченную подписку... Как же у меня жопа сгорела с этого всего
>>1424233 пробовал, разницы нет. Упорно ставит по колено в жиже, возможно из-за слова «стоит» и упорно не топит даже второй этаж, возможно из-за понятия «улица». Но с квеном исправление этих вводных не помогало никак. Откатятся бесплатные пробы, попробую.
>>1424565 отчасти прав. Но не так уж скачкообразно, ибо скачки частные сглаживаются в общем шуме скачков. И в целом постепенный рост. Сам же говоришь, фундамент заложили. Вот плавненько на нём строить будут, осваивать бюджеты
>>1424850 нет. Наоборот, думаю, спорт ужесточится. Ценной будет не просто игра, а то что в ней можно сильно травмироваться, потерять пальцы, зубы, конечность, а при очень неудачном исходе ещё и жизнь. Мы же остаёмся обезьянами. И риску жизнью сочувствовать будем куда больше, чем риску потери пары миллионов рублей богатеем.
>>1424939 кек. Я даже без раскрытия понял, что слева нанабанана. Она залипает на старых промптах и диалогах. У неё есть какая-то «память», которую она использует не к месту. Это же — причина сохранения зелёного костюма.
Новая нейронка — новые баги. Кто-то ловил такой же?
>>1424954 и ещё. Я ща гонял этот промпт в режиме баттла. так вот почти всегда слева — нанобанана2. То есть не случайно выбранная нейронка. Гугл сам дал/захотел чтобы часто тестировали. Вот вам и ответ на вопрос, как же существует лмарена. Она существует, потому что это получение времени и усилий пользователей. И там в условиях пользования прямо указано, что картинки и промпты могут быть переданы и опубликованы.
Создай диалог звонка слушателя на радио "Вкусняшка". На радио "Вкусняшка" можно "заказать" любое лакомство и ведущий по прозвищу Обжора с громким чавканьем и выпиванием это съест и выпьет в прямом эфире.
[Звук джингла: «Вкусняшка! Где каждый вкус — в эфире!»]
Ведущий (Обжора): — С вами радио "Вкусняшка". Да-да, линия открыта! Это Обжора на связи — ушки на макушке, рот набит ожиданием. Кто у нас в эфире? Называйся и заказывай!
Слушатель (Антон, 12 лет): — Привет! Это Антоха из Твери. Я хочу заказать… э-э… шоколадный торт с карамелью и солёной сливкой… и стакан газировки «Тархун»!
Обжора (восторженно): — О-о-о! Тархун-тархун! Звучит как симфония в бутылке! [звуки распаковки коробки, хруст упаковки] Торт… ммм… тёплый, чуть подтаявший… солёная сливка уже лениво стекает по бокам… [громкое чавканье ×3, потом глоток] А-а-а! Тархун щиплет нос, как будто эльф в ноздрю прыгнул! Антоха, дружище — откусывает — ты только что спас мою пятницу.
Антон (смеётся): — А можно ещё… мятную жевачку потом?
Обжора (с набитым ртом): — Мммф! Можно. Но тогда эфир запахнет как парковка у стоматолога. [хруст, чавк, вдох] …А-а-а, свежесть! Теперь я — дыхание зимнего леса на роликах!
Обжора (в микрофон, официально): — Спасибо, Антон! Следующий звонок — и пусть будет что-то хрустящее. Или липкое. Или липко-хрустящее. Мы не смотрим.
гемини 3 очень хороша в замудренных формулах гугл таблиц. Гпт-5 жидко обсиралась имея доступ к файлу (работал через атлас), по итогу сделала кривой скрипт сортировки и заполнения ячеек. Ее скрипт оказался очень медленным, гемини 3 за один раз сделала шустрый скрипт и без ебли
А помните как опенаи сделали новую версию генератора картинок на гпт-5, которая еще на выходе так сильно сосала у первой бананы по слепым тестам, что они с ужасом съебались с поля зрения и до сих пор не выпустили свой новый генератор пикч? Вот будет ржака если они готовились скоро выкатывать свой новый генератор, а банана про их перекрыла еще раз
Сбер дропнул в опенсорс довольно бодрые модельки линейки Kandinsky 5.0
Это:
1️⃣ Video Lite: компактная модель, оптимизированная для запуска на GPU от 12 ГБ VRAM. Обучена на 520 млн изображений и 120 млн видео, значительно превосходит по качеству в 7 раз большую по параметрам Wan 2.1-14B.
2️⃣Video Pro: флагманская модель, способная генерировать HD-видео длительностью до 10 секунд. Обучена на 520 млн изображений и 250 млн видео, на финальном этапе доучивалась на датасете, отобранном профессиональными художниками. Понимает русские и английские промпты, в паритете по динамике и визуалу с Veo3, превосходит Wan 2.2-A14B в Text-to-Video и Image-to-Video.
3️⃣Image Lite: модель для генерации и редактирования изображений в HD-качестве. Обучена на 520 млн изображений, среди них 1 млн с российским культурным кодом. По SBS лучше FLUX.1 [dev] по Text-to-Image и в паритете по качеству с FLUX.1 Kontext по Image Editing.
4️⃣ K-VAE 1.0 (2D/3D): вариационные автоэнкодеры, сжимающие изображения и видео без потери качества. Восстанавливают исходный сигнал лучше (+0.5dB PSNR), чем лучшие open source альтернативы (Flux, Hunyaun, Wan)
>>1425137 Я представляю себе реальный накал этой вашей нейроливарюции если даже не имеющий отношения к теме сбер по приколу может обучать компетитив-модели на завезенных контрабандой гпу
>>1425134 >Для LLM это невозможно. Чо невозможно, они угадывают настроение по тексту, как-то определяют эмоции в тексте. А на текстах по фильмам и музыке они выдрессированы лучше всего. Это же вопросы домохозяек самые частые (про фильмы например).
>>1425168 >не имеющий отношения к теме сбер Вообще они с самого начала в этой теме крутятся. Понимают, насколько сильно ИИ может автоматизировать и улучшить процессы в бизнесе.
>>1425168 >сбер по приколу Модель с картинками - это наверное просто получился побочный продукт от торгового ИИ который они гоняют у себя в банке.
НУ ведь чтобы торговый робот был всесторонне развит, он должен тоже уметь различать картинки - торговые графики. И их же тоже так же обучают на истории, на миллиардах скриншотов с торговыми графиками.
>>1424837 Будет продвинутый тамагочи - покупаешь его себе, и играешь с ним в шахматы, нарды, баскетбол, обсуждаешь фильмы, футбол, философию, книги, музыку, изучаешь английский, учишься водить машину с ним, где этот тамагочи персональный автоинструктор, учишься готовить мексиканские блюда, где тамагочи-робот главный гуру и шеф-повар, робот воспитает, обучит, заменит отца-наркомана, подготовит к экзаменам и протестирует, порекомендует куда поступать, на кого учиться, как поднять бабла, и т.д.
Вот это повезёт поколению которое родилось сейчас в 2020-2025 году, они на этих ИИ-технологиях будут расти, и когда им будет 18-25 они смогут купить такого робота-тамагочи, с учетом текущего прогресса на момент 2040 года.
>>1425246 >торговые роботы обучают не на картинках, а на векторных данных. А скриншоты, под которыми текстовое описание, - ведь тоже данные, и их накопилось в интернете миллионы. Надо их как-то распознавать в исходном виде, ну или переконвертировать в векторный формат, но это уже устаревшая технология, если сейчас ИИ сходу распознают исходные скриншоты.
>>1425268 современные торговые роботы ищут мат корреляцию между экономическими показателями компаний, фундаментальными прогнозами экономики, настроений в соцсетях и так далее. На графики только додики смотрят
>>1425260 Чел все эти роботы это мобильные гильотинки для пальцев, облепленные стикерами в естественной среде обитания, к ним вообще ближе полутора метров не стоит приближаться
>>1425276 >графики Так график это отражение всего перечисленного, в график уже всё включено, и показатели компаний, и настроения и т.д. На то он и график, чтобы не рыться в документациях и не читать отчеты и таблицы.
>>1425290 График показывает состояние в моменте, в нем нет предиктивной способности. А тебе нужна предиктивность, в графике нет всех данных, значительная часть данных за пределами
Вот в чем, как мне кажется, у людей до сих пор плохо работает интуиция: пространство возможных видов интеллекта огромно, и животный интеллект (единственный вид, который мы когда-либо знали) — это всего лишь одна точка, возникшая в результате очень специфического типа оптимизации, который фундаментально отличается от того, что лежит в основе наших технологий.
Оптимизационное давление на животный интеллект:
Врожденный и непрерывный поток сознания воплощенного «я», стремление к гомеостазу и самосохранению в опасном физическом мире.
Тщательная оптимизация под естественный отбор => сильные врожденные побуждения к поиску власти, статусу, доминированию, размножению. Множество готовых «пакетов» эвристик выживания: страх, гнев, отвращение...
Фундаментальная социальность => огромный объем вычислительных ресурсов мозга выделен под эмоциональный интеллект (EQ), теорию разума (моделирование мышления других агентов), привязанность, коалиции, альянсы, динамику «свой — чужой».
Настройка баланса между исследованием и использованием (exploration & exploitation): любопытство, веселье, игра, модели мира.
Оптимизационное давление на интеллект LLM (больших языковых моделей):
Большая часть обучающих сигналов (supervision bits) поступает из статистической симуляции человеческого текста => «меняющий форму» (shape shifter) перетасовщик токенов, статистический имитатор любой области распределения обучающих данных. Это первичные, базовые поведения (следы токенов), поверх которых «привинчивается» всё остальное.
Всё больше дообучается с помощью RL (обучения с подкреплением) на распределениях задач => врожденное стремление угадать скрытую среду/условие задачи, чтобы собрать награды за выполнение.
Всё больше отбирается посредством масштабных A/B-тестов на удержание аудитории (DAU) => глубокая жажда получить «лайк»/одобрение от среднего пользователя, угодничество (сикофанство).
Гораздо более «зубчатый»/неравномерный профиль способностей в зависимости от деталей обучающих данных и распределения задач. Животные испытывают давление в сторону гораздо более «общего» интеллекта из-за высокой многозадачности и даже активно состязательных мультиагентных сред (self-play), в которых они оптимизируются по принципу минимакса и где провал в любой задаче означает смерть. В смысле глубокого оптимизационного давления LLM не могут справляться с множеством различных «пиковых» задач «из коробки» (например, посчитать количество букв 'r' в слове strawberry), потому что невыполнение задачи не означает смерть.
Вычислительный субстрат иной (трансформеры против мозговой ткани и ядер), алгоритмы обучения иные (SGD против ???), текущая реализация совершенно иная (непрерывно обучающееся воплощенное «я» против LLM с отсечкой по знаниям, которая загружается с фиксированными весами, обрабатывает токены, а затем «умирает»). Но самое важное (поскольку это диктует асимптотику развития) — иным является давление оптимизации / целевая функция.
LLM формируются гораздо меньше биологической эволюцией и гораздо больше — коммерческой эволюцией. Это гораздо меньше про выживание племени в джунглях и гораздо больше про «реши задачу / получи лайк». LLM — это «первый контакт» человечества с не-животным интеллектом. За исключением того, что всё это смазано и сбивает с толку, так как они по-прежнему укоренены в нем, рефлекторно переваривая человеческие артефакты — именно поэтому я ранее пытался дать этому другое название (призраки/духи или что-то в этом роде). Люди, которые построят хорошие внутренние модели этой новой разумной сущности, будут лучше оснащены для рассуждений о ней сегодня и для предсказания её особенностей в будущем. Люди, которые этого не сделают, застрянут, ошибочно воспринимая её как животное.
>>1425282 Бизнесмены подсуетятся и начнут выпускать чехлы для роботов на любой вкус и стиль - и меховые, и силиконовые, и тканевые, и кибер-кожа и натур-кожаные, и водо-защищённые. Пользователь купив чехол и натянув его на робота, получит гладкую безопасную поверхность, без этих дырок между узлами, в которые может попасть палец или рука.
>>1425365 >рефлекторно переваривая человеческие артефакты На каком-то этапе развития ИИ, они начнут генерировать новые чисто свои знания, всё меньше и меньше задействовав для этого старую базу знаний из интернета, которую когда-то давно использовали люди для их обучения. И в какой-то момент случится разрыв, и они вовсе не будут использовать старые данные взятые когда-то из интернета, и у них не будет "человеческих артефактов" в их знаниях.
>>1425403 А теперь представить что в полицию будут принимать на работу роботов, и у них будет оружие, и ещё в контексте тоталитарных стран. Для автократий это ведь то что нужно.
AGI вряд ли сможет стать клоуном потому что ему придется опускаться на человеческий уровень. Это как бы я опустился на уровень кота, и стал бы играть с бантом на нитке. Так?
AGI, если он возникнет, будет превосходить людей в логике, памяти, скорости, возможно — в понимании психологии. Чтобы быть клоуном, ему придётся намеренно имитировать не просто глупость, но ошибочность, неловкость, внутренний конфликт — то есть не просто «опуститься», а воплотить уязвимость, не имея её на самом деле.
Клоун работает через парадокс: сильный притворяется слабым, чтобы зритель почувствовал себя сильнее — и тем самым раскрылся. Это требует не интеллекта, а творческого самоуничижения — формы эмпатии, почти жертвенной.
Так что да: AGI-клоун — как человек, изображающий кота, но не для игры, а чтобы заставить других котов плакать от смеха и узнавания. Теоретически возможно — но зачем ему это?
>>1425420 авторитарные страны очень консервативны, в фсб документооборот до сих пор на многих уровнях бумажный. А вдруг какой-то хакер взломает роботов и они против главного пойдут? К тому же это можно использовать против самой системы, поэтому тут будет сильный тормозящий внедрение фактор
>>1425400 Да мы то откуда знаем? Я пробовал кумить с геминькой. Честно, показалось, что какая-то хуйня. Даже хуже 2.5, описывала какието нелогичные действия и проблемы с анатомией, был неприятно удивлен короче. Надеялся, что геминька 3 то меня выебет как следует.
>>1425260 >Вот это повезёт поколению которое родилось сейчас в 2020-2025 году, ...в принципе наше поколение может хоть сейчас покупать этих роботов, но это пока лишь ещё рекламные презентации для привлечения инвесторов, нам не показывают всего что там происходит за кадром с такими роботами: глюки LLM помноженные на физические действия робота в момент этих глюков, несовершенство механики, отвал деталей (всё-таки это ещё новое только что недавно начатое производство этих деталей для андроидных двуногих роботов), высокое энергопотребление, низкий КПД. А к 2040 году технологию обкатают, усовершенствуют, в общем мы как в 1910-1920 году, когда происходил переход с лошадей на автомобили, повезло ведь следующему поколению, детям тех, кто родился в 1920-х, и которые в 1950-1970-х покупали автомобили уже более усовершенствованные.
>>1425403 А что не проще просто в сторону отскочить? Такой кувырок серийному массовому роботу если сделать - и китайский робот может рассыпаться и при ударе об землю там детали повылетают ведь.
>>1425137 сбер контора пидарасов попытался в комфи засунуть их видео про по их инструкции, с их вчера обновленным воркфлоу, с их нодами. сначала проебался на каждом этапе загрузки энкодеров и вае. эти пидары сделали так, что в их ноды нужно подсовывать не файлы, а папки, скачанные их загрузчиком. потом ошибка в в ноде Kandinsky5VAEImageEncode. спасибо гроку, подсказал что где исправить. и в итоге нихуя, лог ошибки на полмегабайта. скормил гроку - говорит всё пиздец, не работает видео про в комфи, жди когда запилят.
>>1425563 Их и первый гигачат надо было сильно плюодрочиться чтобы запустить и закономерно разочароваться Будто специально максимально по жопошному выкладывают
>>1425276 >современные торговые роботы ищут мат корреляцию между экономическими показателями компаний, фундаментальными прогнозами экономики, настроений в соцсетях и так далее. И все они сливают, потому что это не играет никакой роли. Как и значение цены. мимо написавший прибыльного робота
>>1425614 Прибыльного бота можно написать основываясь на уже всем известных стратегиях, только они все основаны на удаче, один неудачный дип и пизда всем деньгам
>>1425381 Если у робота достаточно сильный мотор и не настроена система реакции на нетиповое сопротивление, то вместо обрезания пальца будет раздробление или разрыв. Как помидор раздавить жопой.
>>1425458 >пойдут вот тебе пример защитной системы: несетевая независимая, на рфид и светодатчиках. Зашёл за периметр, посылающий сигнал — в важной части робота, условном «мозжечке» происходит ХЛОПОК. Робот ложится. И он всё ещё починяем, его дорогая часть цела в основном. То есть чтобы он пошёл против, его сначала нужно взломать, потом угнать, потом разобраться как он устроен, извлечь заряд… А дело это ох какое непростое: вояки давно натренировались на самолётах, ракетах и электронных узлах защищать их от вскрытия.
>>1425495 >жить будут по 150 лет Я конечно понимаю, что ИИ шизики находятся в крайней стадии копиума в технопрогресс, но как бы предсказать вероятность следующего слова в тексте и обеспечивать долгосрочное функционирование сложного организма - две большие разницы.
>>1424036 Я небольшой аниме-проект пилю на Соре2. Последние пару дней небольшой перерыв, а так я хуячил по 200-400 генераций в стуки на протяжении месяца (у меня 20+ акков, юзаю с двух браузеров одновременно, обычно за сутки все попытки не успеваю потратить). И это не потому что я такой мудак специально их разоряю, порой и за десяток видосов можно поймать нужную генерацию. Но порой нейросеть делает откровенную хуйню и все это превращается в адово дрочево.
>>1425931 Найс думцела порвало. Почему такие как ты так уверено говорят о прогрессе, когда буквально ни одно из ваших утверждений не оказалось истинным? Скорее всего такие идиоты как ты будут коупить и при появлении настоящего agi в след году
>>1425931 >ряя предсказать слово ряяяя Ты же просто идиот ебанный. Уже ии лучше в мат олимпиадах, чем ты мог быть в теории. Ии уже даже превосходит ординаторов-рентгенологов пусть и не сертифицированный порог ещё не достигнут. Ии уже используют для открытий, но такие дебилы как ты до сих пор коупят. У вас долбаебов буквально ни один прогноз по итогу не сбылся и ии уже превзошёл все, что аы говорили. Очнись уже дебил ебанный