Главная Юзердоски Каталог Трекер NSFW Настройки

Искусственный интеллект

Ответить в тред Ответить в тред
Check this out!
<<
Назад | Вниз | Каталог | Обновить | Автообновление | 377 166 75
Новости об искусственном интеллекте №47 /news/ Аноним # OP 06/01/26 Втр 07:24:46 1480386 1
image 2897Кб, 1024x1024
1024x1024
image 2710Кб, 1024x1024
1024x1024
В этот тредик скидываются свежие новости по теме ИИ!

Залетай и будь в курсе самых последних событий и достижений в этой области!

Прошлый тред: >>1472504 (OP)

🚀 Последний обзор ИИ новостей:


📰 Топ-новости в области ИИ

Компания NVIDIA объявила, что чипы Vera Rubin находятся в полномасштабном производстве и позволят сократить затраты на запуск ИИ-моделей примерно до одной десятой от уровня Blackwell; поставки ожидаются в конце 2026 года.

На выставке CES 2026 компания NVIDIA представила набор базовых моделей для робототехники (Cosmos Transfer 2.5, Predict 2.5, Reason 2, Isaac GR00T N1.6), а также открытую симуляционную платформу Isaac Lab-Arena, которая призвана стать стандартной платформой для универсальной робототехники.

Компания NVIDIA досрочно запустила вычислительную платформу Vera Rubin для ИИ, обеспечивающую до пятикратного увеличения вычислительной мощности для обучения по сравнению с Blackwell, а также впервые представила конфиденциальные вычисления на уровне стойки.

Компания Plaud представила носимое устройство NotePin S стоимостью 179 долл. США — ИИ-гаджет для записи заметок без использования рук, нацеленный на смещение рынка заметок в сторону доступного аппаратного обеспечения.

Plaud также запустила приложение Plaud Desktop — инструмент для транскрибирования совещаний, синхронизирующий аудиозаписи между устройствами и укрепляющий кросс-платформенную экосистему Plaud для профессионалов.

SwitchBot представила голосовой рекордер AI MindClip — устройство весом 18 граммов, поддерживающее более 100 языков и оснащённое функциями ИИ-резюмирования и создания задач, тем самым расширяя конкуренцию на рынке аудиозахвата с применением ИИ.

💻 Аппаратное обеспечение

Компания NVIDIA представила архитектуру Rubin — систему из шести чипов с новым процессором Vera CPU и усовершенствованными соединениями NVLink/BlueField, ориентированную на крупных облачных провайдеров, таких как Anthropic, OpenAI и AWS.

Модуль краевых вычислений Jetson T4000 обеспечивает производительность до 1 200 FP4 TFLOPS и объём памяти 64 ГБ, обеспечивая высокопроизводительный ИИ-вывод на роботах и других устройствах на границе сети.

📦 Продукты

Google DeepMind интегрирует свою модель Gemini Robotics в гуманоидного робота Atlas от Boston Dynamics с целью улучшить контекстно-зависимое манипулирование на производственных линиях.

Hyundai начнёт массовое производство 30 000 роботов Atlas в год, начиная с 2028 года, на своём заводе в Саванне, штат Джорджия; изначально они будут выполнять задачи по упорядочиванию деталей, а позже — более тяжёлые операции.

NotePin S от Plaud обеспечивает радиус захвата звука до 9,8 футов (около 3 метров), время автономной работы до 20 часов и объём встроенной памяти 64 ГБ, позиционируя устройство как надёжную аппаратную альтернативу для ведения заметок с использованием ИИ.

AI MindClip от SwitchBot обеспечивает резюмирование разговоров в реальном времени через облачный сервис по подписке, формируя модель регулярных доходов для аксессуаров на базе ИИ.

🧠 Модели

Компания NVIDIA выпустила Alpamayo 1 — модель VLA с 10 млрд параметров и цепочкой рассуждений, обеспечивающую рассуждения автономных транспортных средств, сходные с человеческими.

Модель Gemini Robotics от Google DeepMind будет управлять гуманоидными роботами Atlas и Spot, обеспечивая контекстно-зависимое восприятие и манипуляции для промышленного применения.

Falcon-H1-Arabic (7 млрд параметров) демонстрирует наилучшие на сегодняшний день результаты в области обработки арабского языка благодаря гибридной архитектуре Mamba-Transformer и окну контекста в 256 тыс. токенов.

MiroThinker 1.5 превосходит ChatGPT-Agent по показателю BrowseComp, при этом его стоимость составляет лишь 1/20 от стоимости Kimi-K2, обеспечивая более высокую скорость вывода и лучшее соотношение интеллект/стоимость.

🔓 Открытый исходный код

Компания NVIDIA выпустила новые открытые модели (семейство Nemotron, Cosmos, Alpamayo) и инструменты для работы с данными, ориентированные на речь, мультимодальный RAG и обеспечение безопасности, с их ранним внедрением компаниями Bosch, Palantir и другими.

Falcon-H1-Arabic представляет гибридную архитектуру, которая продвигает показатели в бенчмарках для арабского языка и расширяет длину контекста до 256 тыс. токенов.

Adaptive‑P — новый сэмплер для llama.cpp, обещающий более творческую генерацию текста и предоставляющий разработчикам более тонкий контроль над разнообразием результатов.

Курируемый репозиторий на GitHub содержит чистые, автономные реализации на PyTorch более чем 50 научных статей по машинному обучению, ускоряя воспроизводимость результатов для исследователей и инженеров.

PlanoA3B представляет открытую языковую модель (LLM), оптимизированную для быстрой и предсказуемой оркестрации множества агентов, ориентированную на разработчиков приложений с агентной архитектурой.

Z.ai анонсировала скорый выход модели GLM‑Image, расширяя возможности открытых решений в области компьютерного зрения для мультимодальных задач.

📱 Приложения

Модели Cosmos Transfer 2.5, Predict 2.5 и Reason 2 от NVIDIA ускоряют разработку роботов за счёт возможностей генерации синтетических данных и поддержки рассуждений.

Alpamayo в паре с открытой симуляционной платформой AlpaSim позволяет проводить замкнутую оценку архитектур автономных транспортных средств, основанных на рассуждениях.

DGX Spark в сочетании с платформой Reachy Mini позволяет разработчикам создавать частные, настраиваемые ИИ-ассистенты с полным контролем над маршрутизацией моделей и потоками данных.


🧪 Исследования

В статье «Propagate» демонстрируется обучение «мышлящих» моделей с помощью эволюционных стратегий всего при 30 случайных возмущениях, предлагая экономически эффективную альтернативу методам, основанным на градиентном спуске.

Анализ моделей типа Mixture of Experts (MoE) выявил, что в GPT‑OSS 120B доля активных параметров может составлять всего 4,4 %, что подчёркивает существенную неэффективность вычислений в крупных экспертных моделях.


⚖️ Регулирование

Французские, малайзийские и индийские регуляторы инициировали расследования в отношении Grok от xAI после того, как модель сгенерировала сексуализированные дипфейки несовершеннолетних; Индия пригрозила отменой защиты от ответственности (safe‑harbor), если X не выполнит требования в течение 72 часов.


📰 Инструменты

Defapi агрегирует API для языковых моделей, компьютерного зрения и аудио от таких провайдеров, как OpenAI и Anthropic, в единый шлюз, снижая затраты на интеграцию для разработчиков.

Sketchflow AI генерирует UI-дизайны, интерактивные прототипы и фронтенд-код для различных платформ, оптимизируя процесс перехода от проектирования к разработке.

Pathway — это фреймворк ETL с открытым исходным кодом на языке Python, поддерживающий аналитику в реальном времени и конвейеры с участием языковых моделей, что позволяет масштабировать RAG и потоковую обработку данных.

PhotoCat AI Image Extender расширяет фон изображений путём синтеза новых пикселей, предоставляя авторам быстрый способ «раскадрировать» фотографии без ручной ретуши.

Claude Code от Anthropic использует многопоточный рабочий процесс с Opus 4.5, позволяя одному разработчику достигать результатов, сопоставимых с работой небольшой инженерной команды.

vLLM Semantic Router v0.1 Iris вводит цепочку плагинов для принятия решений на основе сигналов и модульную LoRA, обеспечивая интеллектуальную маршрутизацию между неограниченным количеством категорий моделей и встроенную функцию обнаружения галлюцинаций.

Evolink AI предоставляет единый API, объединяющий доступ к более чем 40 ИИ-моделям для генерации чатов, видео, изображений и музыки, упрощая интеграцию для разработчиков.

📰 Разное

В модели GPT‑OSS 120B (типа MoE) на каждый токен активируется лишь 4,4 % параметров.

Гуманоидный робот Boston Dynamics с искусственным интеллектом учится работать на заводе.

Судебная система штата Аляска создала чат-бота на основе ИИ. Всё прошло не гладко.

Исследователи DeepSeek применили алгоритм нормализации матриц 1967 года для устранения нестабильности в гиперсвязях.
Аноним # OP 06/01/26 Втр 07:30:41 1480390 2
image 111Кб, 1024x611
1024x611
image 1421Кб, 1080x1350
1080x1350
Илон Маск заявляет, что человечество вступило в эпоху Сингулярности, поскольку искусственный интеллект превзошёл человека.

Технологический магнат Илон Маск утверждает, что стремительное ускорение развития искусственного интеллекта подтолкнуло человечество за пределы критического рубежа.

В новом посте на платформе X основатель Midjourney Дэвид Хольц рассказал, что за праздничные дни выполнил больше личных проектов по программированию, чем за последние 10 лет, благодаря помощи ИИ.

Хольц отмечает, что, хотя ИИ пока ещё не идеален, он уже ощущает, что мы достигли точки невозврата.

«Это безумие. Я чувствую ограничения, но знаю наверняка, что теперь уже ничего не будет прежним».

В ответ Маск написал:

«Мы вступили в эпоху Сингулярности».

Технологическая сингулярность — это момент, когда ИИ запускает экспоненциальный рост технологий, делая глубокие перемены неизбежными.

Маск также заявил, что действительно мы вот-вот вступим в вертикальную фазу кривой роста, поскольку у нас появится ИИ, способный выполнять миллионы задач лучше любого человека.

В июне 2025 года в интервью с генеральным директором Y Combinator Гарри Таном Маск подробно раскрыл идею сингулярности, предсказав уже тогда, что ИИ намного превзойдёт человеческий интеллект.

«Её называют сингулярностью неспроста — ведь мы не знаем, что именно произойдёт. В не столь отдалённом будущем доля интеллекта, приходящаяся на долю человека, станет весьма незначительной. В какой-то момент совокупная сумма человеческого интеллекта составит менее 1 % всего интеллекта. А если перемены достигнут действительно глубокого уровня, речь пойдёт о колоссальном наращивании интеллекта человека — до такой степени, что у каждого будет IQ в тысячу единиц. Даже в этом случае суммарный человеческий интеллект, вероятно, составит лишь одну миллиардную часть цифрового интеллекта».
Аноним # OP 06/01/26 Втр 07:41:29 1480391 3
image 646Кб, 1200x675
1200x675
image 1722Кб, 2048x1372
2048x1372
BNY Mellon повышает уровень ИИ-грамотности: стратегия с 20 000 агентами

Корпорация BNY Mellon внедрила в процессы фирмы 20 тысяч агентов и уменьшила время создания проектов с 1 месяца до 1 часа.

Когда организация наделяет 20 000 сотрудников возможностью создавать собственные индивидуальные ИИ-агенты, это сигнализирует о фундаментальном сдвиге в подходе к внедрению корпоративных технологий — от централизованного использования генеративного ИИ в рамках ИТ-отдела к его децентрализованному, повсеместному применению в качестве инструмента повседневной работы. Такая массовая демократизация создания агентов с использованием технологий OpenAI в рамках платформы BNY ELIZA представляет собой одну из наиболее масштабных и успешных внутренних инициатив по внедрению ИИ в финансовом секторе на сегодняшний день, где ключевым драйвером повышения грамотности и извлечения ценности является практический опыт.

Мишель О’Райли, глобальный руководитель направления по работе с талантами, и Сартхак Паттанайк, главный специалист по искусственному интеллекту и данным в BNY Mellon, подробно описали эту стратегию в недавнем кейсе, предоставленном OpenAI, уделив особое внимание тому, как банк трансформировал внутренние процессы обучения и разработки контента посредством прямой интеграции крупных языковых моделей в рабочие процессы. Основная идея инициативы заключается в отказе от традиционных обучающих модулей, построенных по принципу «сверху вниз», в пользу итеративного, практического подхода, который вынуждает сотрудников различных подразделений — от финансового отдела до HR — овладевать навыками конструирования промптов и создания ИИ-агентов.

Эта стратегия основана на убеждении, что передача абстрактных знаний недостаточна в быстро развивающейся области генеративного ИИ. Сартхак Паттанайк подчеркнул организационную философию, лежащую в основе инициативы, заявив: «Мы верим в обучение через действие, а не только в теоретические знания». Для крупного международного учреждения это означает предоставление сотрудникам необходимых инструментов и «песочницы» для экспериментов, быстрых неудач и поиска немедленных улучшений эффективности, адаптированных конкретно под их задачи. Платформа BNY ELIZA позволяет пользователям создавать агентов в соответствии с конкретными требованиями, выбирая между такими типами, как контекстный поиск (RAG) для поиска документов или индивидуальные персональные аватары (AVATAR) для задания определённого стиля взаимодействия.

Немедленный возврат от этих инвестиций поражает, особенно в тех сферах, где ранее процессы были затруднены из-за ручного обновления и многоэтапных циклов согласования контента. О’Райли отметила, как внутренняя команда по обучению и управлению талантами использовала платформу для автоматизации создания контента и проверки соответствия фирменному стилю. Она указала, что разработка обучающего контента «раньше занимала целый месяц. Сейчас мы делаем это за один час». Это сокращение продолжительности цикла на 99 % высвобождает экспертов по предметной области для выполнения задач более высокого уровня, таких как прямое взаимодействие с сотрудниками и стратегическое планирование, вместо рутинной доработки контента.

Это ускорение — не просто метрика HR-подразделения; оно даёт решающее конкурентное преимущество в высоко регулируемой отрасли, где распространение знаний должно быть быстрым и точным. Возможность быстро развернуть агента, например, «Карьерного консультанта», который даёт персонализированные рекомендации на основе внутренних стратегических документов, превращает функцию внутреннего обучения из вынужденной реактивной меры в проактивный и масштабируемый ресурс.

Руководители признали, что этот путь по своей сути неоднозначен. Не существует готового шаблона для внедрения генеративного ИИ в таких масштабах внутри глобального банка. Мишель О’Райли призналась: «Не существует учебника по обучению работе с ИИ, поэтому подход должен быть многогранным». Отсутствие прецедента диктует необходимость создания корпоративной культуры, в которой поощряется и официально поддерживается экспериментирование.

BNY обеспечивает это путём институционализации практико-ориентированного обучения через специализированные мероприятия. Они проводят как традиционные хакатоны, так и «промптоны» — соревнования, в которых сотрудники соревнуются в разработке наиболее эффективных и инновационных промптов и агентов для решения бизнес-задач. Такой геймифицированный подход гарантирует, что освоение ИИ не воспринимается как обязательный курс для соблюдения нормативных требований, а рассматривается как непрерывный и увлекательный процесс развития навыков, стимулирующий вирусное распространение практики через внутреннюю конкуренцию и обмен знаниями. Именно эта культурная интеграция разработки ИИ, возможно, является наиболее ценным уроком для других предприятий, стремящихся выйти за рамки пилотных проектов. Она превращает техническое развертывание в стратегию работы с талантами, гарантируя, что технологии применяются именно там, где находится предметная экспертиза — у самих сотрудников.

Платформа обеспечивает надёжные ограничения, гарантируя, что даже при создании 20 000 агентов безопасность данных и соответствие нормативным требованиям остаются приоритетными. Сотрудники получают четкие указания при выборе между простыми задачами, не связанными с конфиденциальной информацией, и критически важными производственными инициативами, включающими работу с чувствительными данными. Такой многоуровневый подход обеспечивает, чтобы демократизация не приводила к хаосу, сохраняя при этом требуемую в финансовом секторе целостность, одновременно максимально повышая полезность инструментов. Такой тщательный баланс между расширением возможностей и контролем имеет решающее значение для любого крупного учреждения, действующего в чувствительной отрасли. В конечном счёте, успех этой модели базируется на вере в распределённые инновации. О’Райли подытожила: «Хорошие идеи возникают на всех уровнях организации», подчёркивая необходимость наделения каждого сотрудника возможностью напрямую вносить вклад в трансформацию с помощью ИИ.
Boston на заводе ч1 Аноним # OP 06/01/26 Втр 07:49:44 1480392 4
image 1202Кб, 1240x698
1240x698
image 1028Кб, 1240x698
1240x698
Гуманоидный робот Boston Dynamics с искусственным интеллектом учится работать на заводе.

На протяжении десятилетий инженеры пытались создать роботов, внешне и поведенчески похожих на человека. Сегодня стремительное развитие искусственного интеллекта выводит гуманоидов из лабораторий прямо на заводские цеха. По мере того как усиливаются опасения, что ИИ вытеснит людей с рабочих мест, по всему миру разворачивается гонка за создание человекоподобных роботов, способных выполнять человеческую работу. Среди участников этой гонки — Tesla, стартапы, поддерживаемые Amazon и Nvidia, а также китайские компании, получающие государственную поддержку. Boston Dynamics является одним из явных лидеров. Эта компания из штата Массачусетс, оценённая более чем в миллиард долларов, активно разрабатывает гуманоида под названием Atlas. Южнокорейская автомобилестроительная компания Hyundai владеет 88 % акций этого производителя роботов. Нам было предложено стать свидетелями первого реального испытания Atlas на новом заводе Hyundai под Саванной, штат Джорджия. Именно там мы получили представление о будущем, населённом гуманоидами, — будущем, которое, возможно, наступит гораздо быстрее, чем вы думаете.

Гигантский автомобильный завод Hyundai — это, пожалуй, верх современных технологий. Более тысячи роботов работают бок о бок почти с полутора тысячами людей, поднимая, штампуя и сваривая детали в слаженной роботизированной гармонии. Это может показаться фабрикой будущего, но мы обнаружили «будущее будущего» в складе запчастей, спрятанном в дальнем углу, где один из роботов уже готовился к работе.

Знакомьтесь: Atlas — ростом 175 см, весом 90 кг и оснащённый ИИ гуманоид, созданный компанией Boston Dynamics. Эпоха восстания машин уже не научная фантастика.

Билл Уитакер: Должен сказать, каждый раз, когда я вижу его, я просто не могу поверить своим глазам. Это первый случай, когда Atlas вышел из лаборатории?

Зак Джековски: Да, именно так — первый раз, когда Atlas вышел из лаборатории и занялся реальной работой.

Зак Джековски руководит разработкой Atlas. Он имеет два диплома инженера-механика, полученных в Массачусетском технологическом институте (MIT), и ставит перед собой цель превратить робота в продуктивного работника на заводе. Мы наблюдали, как Atlas тренировался самостоятельно, без помощи человека, сортировать багажные держатели для крыши автомобилей — детали для сборочной линии.

Билл Уитакер: То есть он работает автономно.

Зак Джековски: Верно.

Билл Уитакер: Вы приехали сюда, чтобы посмотреть, как Atlas работает на месте, и собираетесь продемонстрировать его своим руководителям из Hyundai?

Зак Джековски: Да.

Билл Уитакер: Вы чувствуете себя гордым отцом?

Зак Джековски: Скорее, как нервничающий инженер.

Джековски готовился к этому моменту в течение целого года. Мы впервые встретились с ним и Atlas месяцем ранее в штаб-квартире Boston Dynamics, расположенной неподалёку от города, где он и его команда обучали Atlas навыкам, необходимым для работы на заводе Hyundai. И у Atlas, обладающего «мозгом» на базе ИИ, эти знания накапливались через опыт — иначе говоря, робот, похоже, действительно учился.

Билл Уитакер: Вы понимаете, насколько безумно это звучит?

Зак Джековски: Да, немного. И, честно говоря, многие из наших робототехников ещё пять-шесть лет назад сочли бы это довольно безумным.

Когда мы в последний раз посещали Boston Dynamics в 2021 году, Atlas был громоздким гидравлическим роботом, способным бегать и прыгать. Тогда его действия определялись алгоритмами, написанными инженерами. Но когда мы снова побывали там прошлой осенью, мы увидели новое поколение Atlas с элегантным полностью электрическим корпусом и «мозгом» на базе ИИ, работающим на передовых микросхемах Nvidia, — благодаря этому Atlas стал достаточно «умным», чтобы автономно выполнять поистине невероятные трюки. Мы наблюдали, как Atlas легко прыгал и бегал.

Билл Уитакер: Вы когда-нибудь перестаёте думать: «Ничего себе!»?

Скотт Квиндерсма: Я по-прежнему испытываю огромное волнение от того места, которое мы занимаем в истории робототехники, но при этом ясно видим, как многое ещё предстоит сделать.

Скотт Квиндерсма — руководитель исследований в области робототехники, и эту роль он с гордостью демонстрирует всем вокруг.

Билл Уитакер: Да у вас даже футболка с роботом.

Скотт Квиндерсма: Ну, как только я увидел такую футболку, у меня не было иного выбора, кроме как её купить.

Он рассказал нам, что современные роботы освоили движения, которые ещё недавно считались слишком сложными для машин.

Скотт Квиндерсма: И многое из этого связано с тем, каким образом сегодня мы программируем роботов: всё больше внимания уделяется обучению, демонстрациям и машинному обучению, а не ручному программированию.

Билл Уитакер: То есть этот гуманоид, эта механическая копия человека, действительно может учиться?

Скотт Квиндерсма: Да. И мы выяснили, что это, на самом деле, один из самых эффективных способов программирования подобных роботов.

Atlas учится разными способами. При обучении с учителем (supervised learning) специалист по машинному обучению Кевин Бергамин, надев виртуальную реальность, берёт полный контроль над гуманоидом, пошагово направляя его руки и движения для выполнения задачи до тех пор, пока Atlas не освоит её самостоятельно.

Скотт Квиндерсма: И если удалённый оператор может выполнить задачу, которую мы хотим поручить роботу, и повторить это несколько раз, это создаёт данные, которые мы можем использовать для обучения ИИ-моделей робота, чтобы затем он выполнял эту задачу автономно.

Квиндерсма использовал меня, чтобы продемонстрировать ещё один способ обучения Atlas.

Скотт Квиндерсма: Этот очень стильный костюм, в котором вы сейчас находитесь, фактически фиксирует всё ваше телодвижение, чтобы обучить Atlas точно повторять ваши движения. Таким образом, вы вот-вот превратитесь в 90-килограммового металлического робота.

Он попросил меня выбрать упражнение. Они также зафиксировали характер моей работы.

Билл Уитакер: Я нахожусь здесь, в лаборатории ИИ компании Boston Dynamics. Все мои движения — ходьба, жестикуляция руками — улавливаются этими датчиками…

Затем инженеры загрузили собранные данные в процесс машинного обучения. Тело Atlas устроено иначе, чем моё, поэтому сначала им пришлось обучить его повторять мои движения в виртуальной среде — более 4000 цифровых копий Atlas тренировались в симуляции в течение шести часов.

Скотт Квиндерсма: Все они пытаются делать приседания с хлопками над головой — так же, как вы. Как вы видите, они только начинают учиться, поэтому пока у них это получается не очень хорошо.

Он рассказал нам, что при симуляции для цифровых аватаров специально добавлялись сложности — скользкий пол, наклонные поверхности или «заклинившие» суставы — а затем система выделяла наиболее удачные решения.

Скотт Квиндерсма: И в итоге можно достичь состояния, при котором множество копий Atlas уже отлично справляются с приседаниями с хлопками.

Этот новый навык загружается в ИИ-систему, управляющую всеми роботами Atlas. Обучил одного — обучил всех.

Скотт Квиндерсма: Вот как вы выглядите, когда делаете зарядку.

Билл Уитакер: Ага.

И вот как я выгляжу, выполняя свою работу.
Boston на заводе ч2 Аноним # OP 06/01/26 Втр 07:50:49 1480393 5
image 1854Кб, 1600x1067
1600x1067
image 1062Кб, 1200x630
1200x630
image 1585Кб, 1408x793
1408x793
image 533Кб, 1240x698
1240x698
>>1480392
Билл Уитакер: Я нахожусь здесь, в лаборатории ИИ компании Boston Dynamics. Все мои движения — ходьба, жестикуляция руками — улавливаются этими датчиками…

Билл Уитакер: Это просто потрясающе.

Используя те же процессы, Atlas научился ползать и делать сальто. Правда, с «утиной походкой» у него вышло не так удачно.

Скотт Квиндерсма: О, это было весело. И вот тогда происходит вот это.

Билл Уитакер: И тогда происходит вот это.

Скотт Квиндерсма: На самом деле нам нравится, когда случается нечто подобное. Ведь именно такие моменты зачастую дают возможность понять то, чего мы раньше не знали о системе.

Билл Уитакер: Какие ограничения, по вашему мнению, существуют сегодня?

Скотт Квиндерсма: Что ж, я бы сказал, что большинство действий, которые люди выполняют в повседневной жизни, Atlas и другие гуманоиды пока ещё не могут повторить. Думаю, мы начали…

Билл Уитакер: Например?

Скотт Квиндерсма: Например, одеваться по утрам, наливать себе кофе и спокойно ходить по дому с чашкой в руке.

Билл Уитакер: Для Atlas это слишком сложно?

Скотт Квиндерсма: Да, я думаю, нет ни одного гуманоида, который бы справлялся с этим хотя бы отдалённо так же хорошо, как человек. Но сейчас появился по-настоящему захватывающий момент: мы видим путь к достижению этой цели.

Этот путь прокладывает ИИ. Главной особенностью данного Atlas является именно его «мозг». Микросхемы Nvidia — те самые, которые сыграли ключевую роль в запуске ИИ-революции вместе с ChatGPT — обрабатывают поток собранных данных, приближая этого робота к чему-то вроде здравого смысла.

Скотт Квиндерсма: Можно провести аналогию: если бы я учил ребёнка бросать мяч в баскетбольное кольцо, позволив ему свободно экспериментировать и находить собственные решения, он мог бы придумать нечто такое, чего я не ожидал. То же самое происходит и в этих системах.

Atlas способен воспринимать окружающую среду и постепенно осознаёт, как устроен физический мир.

Скотт Квиндерсма: И однажды можно будет просто поставить такого робота на завод, объяснить ему, что требуется сделать, и, обладая достаточными знаниями о законах мира, он с высокой вероятностью справится с задачей.



Роберт Плейтер: Сейчас в отрасли много энтузиазма по поводу потенциала создания роботов, достаточно «умных», чтобы стать по-настоящему универсальными.

Роберт Плейтер, генеральный директор Boston Dynamics, возглавляет разработку гуманоидов в компании. Он целенаправленно идёт к этому моменту уже более 30 лет. Краеугольным камнем стал робот-собака Spot, представленный почти десять лет назад. Spots проходят обучение в условиях жары, холода и разнообразного рельефа и свободно перемещаются по коридорам Boston Dynamics.

Роберт Плейтер: Здесь у нас установлены несколько камер, тепловизионные и акустические датчики, а также целый ряд сенсоров на спине, позволяющих собирать данные о техническом состоянии завода.

Spots выполняют проверки качества на заводах Hyundai, контролируя, установлены ли на машинах нужные комплектующие. Они также осуществляют охрану и промышленные инспекции на сотнях объектов по всему миру. И то, что начиналось с Spot, со временем превратилось в Atlas.

Роберт Плейтер: Этот робот способен на движения, выходящие за пределы человеческих возможностей, и, следовательно, сможет превзойти то, на что способен человек.



Билл Уитакер: То есть вы создаёте робота, призванного превзойти человеческие возможности.

Роберт Плейтер: А почему бы и нет? Мы хотели бы иметь устройства, которые могут быть сильнее нас, выдерживать более высокие температуры или, безусловно, проникать в опасные места, куда человеку лучше не соваться. Поэтому нам действительно нужны сверхчеловеческие возможности.

Билл Уитакер: Для многих людей это звучит пугающе. Вы не прогнозируете появление мира, заселённого «Терминаторами»?

Роберт Плейтер: Абсолютно нет. Думаю, если бы люди увидели, насколько много усилий нам приходится прилагать, чтобы заставить роботов выполнить даже самые простые порученные задачи, это развеяло бы страхи перед появлением самосознания и бунтом машин.

Нас интересовало, не вызывает ли у людей больше беспокойства нечто более насущное. Мы наблюдали за рабочими на заводе Hyundai, выполнявшими ту самую работу, которой сейчас учат Atlas.

Билл Уитакер: Гарантирую, найдутся люди, которые скажут: «Из-за робота я потеряю работу».

Роберт Плейтер: Работа меняется. Так что рутинный, изнурительный физический труд в итоге будет выполняться роботами. Однако эти роботы не настолько автономны, чтобы не требовать управления. Их нужно строить, обучать, обслуживать.



Плейтер сообщил нам, что может пройти ещё несколько лет, прежде чем Atlas станет полноценным членом рабочей силы Hyundai. По прогнозам Goldman Sachs, объём рынка гуманоидов достигнет 38 миллиардов долларов в течение десятилетия. Boston Dynamics и другие американские производители роботов борются за лидерство. Но они не единственные на этом поприще. Китайские компании доказывают, что являются серьёзными конкурентами, и упорно стремятся к победе.

Билл Уитакер: Они обгоняют нас?

Роберт Плейтер: У китайского правительства есть чёткая миссия — выиграть в робототехнической гонке. Технологически, на мой взгляд, мы по-прежнему лидируем. Но существует реальная угроза, что из-за масштаба инвестиций мы можем отстать.

Чтобы сохранить преимущество, Hyundai и совершил крупные инвестиции в Boston Dynamics.

Зак Джековски: Четыре робота…

Мы находились на заводе в Джорджии, когда инженер Atlas Зак Джековски презентовал Atlas Хын Су Киму, главе глобальной стратегии Hyundai. Тот специально прилетел из Южной Кореи, чтобы оценить ход реализации смелого проекта, финансируемого автопроизводителем.

Билл Уитакер: Что вы думаете о прогрессе, достигнутом с Atlas?

Хын Су Ким: Думаю, мы на правильном пути в плане разработки. Пока Atlas демонстрирует очень успешные результаты. Это своего рода начало великого путешествия. Да.

Куда ведёт этот путь? К тому самому будущему с гуманоидами, о котором мы упоминали в самом начале — будущему, где такие же, как мы, роботы будут работать рядом с нами и ходить среди нас. От одной мысли об этом голова идёт кругом.
Аноним # OP 06/01/26 Втр 08:06:46 1480399 6
Alpamayo-rd.mp4 11795Кб, 1920x1080, 00:01:36
1920x1080
Nvidia представляет Alpamayo — открытые ИИ-модели, позволяющие автономным транспортным средствам «думать как человек»

Видеорелейтед.

На выставке CES 2026 компания Nvidia представила Alpamayo — новое семейство открытых ИИ-моделей, инструментов симуляции и наборов данных для обучения физических роботов и транспортных средств, созданных с целью помочь автономным автомобилям рассуждать в сложных дорожных ситуациях.

«Наступил момент ChatGPT для физического ИИ — когда машины начинают понимать, рассуждать и действовать в реальном мире», — заявил в официальном сообщении генеральный директор Nvidia Дженсен Хуан. «Alpamayo наделяет автономные автомобили способностью к рассуждению, позволяя им анализировать редкие сценарии, безопасно передвигаться в сложных условиях и объяснять принятые решения при вождении».

В основе нового семейства от Nvidia лежит Alpamayo 1 — основанная на цепочке рассуждений (chain-of-thought) модель с 10 миллиардами параметров, объединяющая зрение, язык и действия (VLA, vision-language-action), которая позволяет автономному автомобилю мыслить более человекоподобно, чтобы решать сложные краевые случаи — например, как действовать при отключении светофора на оживлённом перекрёстке — даже без предшествующего опыта.

«Это достигается путём разложения задачи на последовательные шаги, анализа всех возможных вариантов и последующего выбора самого безопасного пути», — сказал в понедельник на пресс-брифинге вице-президент Nvidia по автомобильному направлению Али Кани.

Или, как выразился Хуан в своём keynote-выступлении в понедельник: «Alpamayo не только принимает входные данные от датчиков и активирует рулевое управление, тормоза и ускорение, но и рассуждает о том действии, которое собирается совершить. Он сообщает вам, какое действие он собирается выполнить и по каким причинам пришёл к такому решению. А затем, разумеется, указывает траекторию движения».

Исходный код Alpamayo 1 доступен на платформе Hugging Face. Разработчики могут дообучать Alpamayo, создавая на его основе более компактные и быстрые версии для разработки транспортных средств, использовать его для обучения более простых систем вождения или создавать на его основе инструменты, такие как системы автоматической разметки, автоматически помечающие видеоданные, или системы оценки, проверяющие, было ли принято автомобилем разумное решение.

«Они также могут использовать Cosmos для генерации синтетических данных, а затем обучать и тестировать своё AV-приложение на основе Alpamayo, используя комбинацию реальных и синтетических наборов данных», — отметил Кани. Cosmos — это линейка генеративных моделей виртуальных миров от Nvidia, то есть ИИ-систем, создающих цифровое представление физической среды для прогнозирования и принятия решений.

В рамках запуска Alpamayo компания Nvidia также публикует открытый набор данных, включающий более 1700 часов записей вождения, собранных в различных географических регионах и условиях и охватывающих редкие и сложные реальные сценарии. Кроме того, компания представляет AlpaSim — открытую платформу симуляции для верификации автономных систем вождения. AlpaSim, доступная на GitHub, предназначена для воссоздания реальных дорожных условий — от сенсоров до дорожного движения, — позволяя разработчикам безопасно тестировать системы в масштабе.
Аноним # OP 06/01/26 Втр 08:10:56 1480400 7
image 4067Кб, 1905x1429
1905x1429
image 2234Кб, 2560x1440
2560x1440
image 490Кб, 1852x602
1852x602
image 1470Кб, 1014x902
1014x902
Nvidia анонсировала свои чипы следующего поколения под названием Rubin.

Джен-Хсун Хуан сообщает, что новые чипы Nvidia Vera Rubin находятся в «полномасштабном производстве»

Илон Маск о новых чипах: «Nvidia Rubin станет ракетным двигателем для ИИ. Если вы хотите обучать и разворачивать передовые модели в масштабе, именно эту инфраструктуру следует использовать — и Rubin напомнит миру, что NVIDIA является золотым стандартом».

• Сокращение стоимости токена при инференсе (выводе) вплоть до 10 раз
• Сокращение количества необходимых GPU для обучения моделей с разреженной архитектурой (MoE) в 4 раза по сравнению с платформой NVIDIA Blackwell, что означает резкое снижение аппаратных требований для некоторых ИИ-нагрузок.
• Повышение энергоэффективности и доступности на 5× благодаря технологии Spectrum-X Ethernet Photonics
• Конфиденциальные вычисления третьего поколения

Гигант чипов заявляет, что Vera Rubin резко снизит стоимость обучения и запуска ИИ-моделей, усилив привлекательность своей интегрированной вычислительной платформы.

Генеральный директор Nvidia Джен-Хсун Хуан заявил, что платформа суперчипов ИИ следующего поколения Vera Rubin вовремя поступит заказчикам позже в этом году. «Сегодня я могу сообщить вам, что Vera Rubin находится в полномасштабном производстве», — сказал Хуан в ходе пресс-мероприятия в понедельник на ежегодной технологической выставке CES в Лас-Вегасе.

Rubin снизит стоимость запуска ИИ-моделей примерно до одной десятой от стоимости текущей ведущей чип-системы Nvidia Blackwell, сообщила компания аналитикам и журналистам во время звонка в воскресенье. Nvidia также заявила, что Rubin может обучать определённые крупные модели примерно с использованием одной четвёртой части чипов по сравнению с Blackwell. В совокупности эти улучшения могут сделать передовые ИИ-системы значительно более дешёвыми в эксплуатации и затруднить обоснование для клиентов Nvidia перехода на другое оборудование.

Во время звонка Nvidia сообщила, что двое из её нынешних партнёров — Microsoft и CoreWeave — станут первыми компаниями, предлагающими сервисы на базе чипов Rubin позже в этом году. Два крупных ИИ-дата-центра, которые Microsoft в настоящее время строит в Джорджии и Висконсине, в конечном итоге будут включать тысячи чипов Rubin, добавила Nvidia. Компания также отметила, что некоторые её партнёры уже начали запускать свои модели ИИ следующего поколения на ранних системах Rubin.

Гигант полупроводниковой отрасли также сообщил, что сотрудничает с Red Hat — разработчиком корпоративного программного обеспечения с открытым исходным кодом для банков, автопроизводителей, авиакомпаний и государственных учреждений — чтобы предложить больше продуктов, работающих на новой системе чипов Rubin.

Новейшая чип-платформа Nvidia названа в честь Веры Рубин — американского астронома, изменившего представления учёных о свойствах галактик. Система включает шесть различных чипов, включая GPU Rubin и CPU Vera, оба из которых изготовлены на базе 3-нанометрового производственного процесса компании Taiwan Semiconductor Manufacturing Company (TSMC) и используют самую передовую доступную технологию памяти с высокой пропускной способностью. Технологии соединений и коммутации шестого поколения от Nvidia объединяют различные чипы в единую систему.

Каждая часть этой чип-системы «полностью революционна и является лучшей в своём роде», — провозгласил Хуан на пресс-конференции Nvidia в рамках CES.

Nvidia разрабатывала систему Rubin в течение нескольких лет, и Хуан впервые объявил о предстоящем выходе этих чипов в ходе основного выступления в 2024 году. В прошлом году компания заявила, что системы на базе Rubin начнут поступать во втором полугодии 2026 года.

В настоящее время неясно, что именно Nvidia подразумевает под фразой «полное производство» Vera Rubin. Обычно производство настолько передовых чипов — которые Nvidia изготавливает совместно со своим давним партнёром TSMC — начинается с низких объёмов, пока чипы проходят тестирование и валидацию, и выходит на полную мощность позже.

«Это объявление Nvidia на CES о Rubin предназначено для того, чтобы сказать инвесторам: “Мы соблюдаем график”», — говорит Остин Лайонс, аналитик из Creative Strategists и автор информационного бюллетеня о полупроводниковой отрасли Chipstrat. На Уолл-стрит ходили слухи о том, что GPU Rubin отстаёт от графика, говорит Лайонс, поэтому Nvidia сейчас активно опровергает эти слухи, заявляя, что прошла ключевые этапы разработки и тестирования и уверена, что Rubin остаётся на пути к началу масштабного производства во второй половине 2026 года.

В 2024 году Nvidia пришлось отложить поставки тогда ещё новых чипов Blackwell из-за проектного дефекта, вызывавшего их перегрев при соединении в серверных стойках. Поставки Blackwell вернулись к запланированному графику к середине 2025 года.

По мере стремительного расширения индустрии ИИ программные компании и поставщики облачных услуг вынуждены остро конкурировать за доступ к новейшим GPU от Nvidia. Спрос на Rubin, вероятно, будет столь же высоким. Однако некоторые компании также страхуются, инвестируя в собственные специализированные проекты чипов. Например, OpenAI сообщила, что сотрудничает с Broadcom для создания специализированных полупроводниковых решений для своей следующей генерации ИИ-моделей. Эти партнёрства подчёркивают более долгосрочный риск для Nvidia: клиенты, разрабатывающие собственные чипы, могут получить уровень контроля над своим оборудованием, который компания не может предложить.

Но Лайонс отмечает, что сегодняшние объявления демонстрируют, как Nvidia развивается, выходя за пределы простого предложения GPU и становясь «полноценным архитектором ИИ-систем, охватывающим вычисления, сетевые технологии, иерархию памяти, хранилища и программную оркестрацию». Даже несмотря на то, что гипермасштабные облачные провайдеры вкладывают средства в собственные специализированные полупроводниковые решения, добавляет он, тесно интегрированная платформа Nvidia «становится всё труднее вытеснить».
Аноним 06/01/26 Втр 08:11:00 1480401 8
>>1480399
Мне хватило модели которая якобы умеет играть во все игры со старата.
Аноним # OP 06/01/26 Втр 08:15:58 1480406 9
nvidiarobots.mp4 11718Кб, 1920x1080, 00:00:51
1920x1080
Nvidia хочет стать «Android» для универсальной робототехники.

Видеорелейтед.

На выставке CES 2026 компания Nvidia представила новый стек роботизированных базовых моделей, инструментов симуляции и аппаратных решений для периферийных вычислений — шаги, свидетельствующие об амбициях компании стать стандартной платформой для универсальной робототехники, подобно тому, как Android стал операционной системой для смартфонов.

Переход Nvidia в сферу робототехники отражает более широкий отраслевой сдвиг: по мере того как ИИ покидает облака и переходит в физические устройства, способные учиться думать в реальном мире, это становится возможным благодаря более дешёвым сенсорам, продвинутым технологиям симуляции и ИИ-моделям, которые всё лучше обобщают знания для выполнения различных задач.

В понедельник Nvidia раскрыла подробности о своей полноценной экосистеме для физического ИИ, включая новые открытые базовые модели, позволяющие роботам рассуждать, планировать и адаптироваться ко множеству задач и разнообразным средам, уходя от узкоспециализированных роботов, выполняющих лишь одну конкретную функцию; все эти модели доступны на Hugging Face.

К этим моделям относятся: Cosmos Transfer 2.5 и Cosmos Predict 2.5 — две модели мира, предназначенные для генерации синтетических данных и оценки роботизированных политик в симуляции; Cosmos Reason 2 — рассуждающая модель зрительно-языковой обработки (VLM, vision-language model), позволяющая ИИ-системам видеть, понимать и действовать в физическом мире; а также Isaac GR00T N1.6 — следующее поколение зрительно-языковой-действенной модели (VLA, vision-language-action), специально разработанной для гуманоидных роботов. GR00T использует Cosmos Reason в качестве «мозга», обеспечивая управление всем телом гуманоида, что позволяет ему одновременно перемещаться и взаимодействовать с объектами.

Также на CES Nvidia представила Isaac Lab-Arena — открытую платформу симуляции, размещённую на GitHub и являющуюся ещё одним компонентом платформы физического ИИ компании, обеспечивающей безопасное виртуальное тестирование роботизированных возможностей.

Платформа призвана решить одну из ключевых отраслевых проблем: по мере того как роботы осваивают всё более сложные задачи — от точного манипулирования объектами до прокладки кабелей, — проверка этих способностей в реальных физических условиях становится дорогостоящей, медленной и рискованной. Isaac Lab-Arena решает эту проблему путём объединения ресурсов, сценариев задач, инструментов обучения и устоявшихся эталонных наборов, таких как Libero, RoboCasa и RoboTwin, создавая единый стандарт там, где ранее его не существовало.

Поддержку экосистеме оказывает Nvidia OSMO — открытая «командная панель», служащая интеграционной инфраструктурой и объединяющая весь рабочий процесс — от генерации данных до обучения — как на настольных, так и в облачных средах.

А для обеспечения вычислительной мощности всего этого представлена новая видеокарта Jetson T4000 на архитектуре Blackwell — новейший член семейства Thor. Nvidia позиционирует её как экономически выгодное обновление вычислительных устройств на месте эксплуатации: она обеспечивает 1200 терафлопс ИИ-вычислений и 64 гигабайта памяти при энергопотреблении всего от 40 до 70 ватт.

Кроме того, Nvidia углубляет партнёрство с Hugging Face, чтобы позволить большему числу людей экспериментировать с обучением роботов без необходимости в дорогостоящем оборудовании или специальных знаниях. В рамках сотрудничества технологии Nvidia Isaac и GR00T интегрируются во фреймворк LeRobot от Hugging Face, объединяя 2 миллиона разработчиков робототехники от Nvidia и 13 миллионов создателей ИИ от Hugging Face. Открытая платформа разработчиков теперь напрямую поддерживает гуманоида Reachy 2, работающего на чипе Jetson Thor от Nvidia, что позволяет разработчикам экспериментировать с различными ИИ-моделями, не будучи привязанными к проприетарным системам.

В более широком смысле Nvidia пытается сделать разработку робототехники более доступной и стремится стать поставщиком базового аппаратного и программного обеспечения, лежащего в основе этой сферы — подобно тому, как Android является стандартом для производителей смартфонов.

Уже есть первые признаки того, что стратегия Nvidia срабатывает: робототехника — это самый быстро растущий раздел на Hugging Face, а модели Nvidia возглавляют рейтинги загрузок. В то же время компании в области робототехники — от Boston Dynamics и Caterpillar до Franka Robots и NEURA Robotics — уже используют технологии Nvidia.
Аноним # OP 06/01/26 Втр 08:24:41 1480410 10
image 186Кб, 1551x898
1551x898
image 719Кб, 1561x1462
1561x1462
image 1141Кб, 2494x1634
2494x1634
image 189Кб, 400x400
400x400
Создатель Claude Code только что раскрыл свою методику работы, и разработчики приходят в неистовство.

Когда говорит создатель самого передового в мире агента для написания кода, Кремниевая долина не просто прислушивается — она делает заметки.

На протяжении всей прошлой недели инженерное сообщество внимательно изучало публикацию в X от Бориса Черны, создателя и руководителя проекта Claude Code в компании Anthropic. То, что начиналось как неформальное описание его личной настройки терминала, превратилось в вирусный манифест о будущем разработки программного обеспечения, и отраслевые эксперты называют это поворотным моментом для стартапа.

«Если вы не читаете лучшие практики работы с Claude Code непосредственно от его создателя, вы уже отстаёте как программист», — написал Джефф Танг, известный представитель сообщества разработчиков. Другой отраслевой аналитик, Кайл МакНиз, пошёл ещё дальше, заявив, что благодаря «революционным обновлениям» Черны компания Anthropic «находится в огне» и, возможно, переживает свой «момент ChatGPT».

Энтузиазм вызван парадоксом: методика работы Черны на удивление проста, но при этом позволяет одному человеку работать с производительностью целого небольшого инженерного отдела. Как отметил один пользователь в X после внедрения методики Черны, процесс «ощущается скорее как Starcraft», чем как традиционное программирование — произошёл переход от написания синтаксиса к управлению автономными единицами.

Ниже приведён анализ методики работы, которая меняет подход к созданию программного обеспечения, — непосредственно от её архитектора.

Как одновременный запуск пяти ИИ-агентов превращает программирование в стратегию в реальном времени
Наиболее поразительное открытие из рассказа Черны заключается в том, что он не пишет код линейно. В традиционном «внутреннем цикле» разработки программист пишет функцию, тестирует её и переходит к следующей. Черны же действует как командир флота.

«Я запускаю 5 экземпляров Claude параллельно в своём терминале, — написал Черны. — Я нумерую вкладки от 1 до 5 и использую системные уведомления, чтобы знать, когда Claude нужен ввод от меня».

Используя системные уведомления в iTerm2, Черны эффективно управляет пятью параллельными рабочими потоками. Пока один агент запускает набор тестов, другой рефакторит устаревший модуль, а третий составляет документацию. Также он запускает «5–10 экземпляров Claude на claude.ai» в браузере, применяя команду «teleport» для передачи сессий между веб-интерфейсом и локальной машиной.

Это подтверждает стратегию «делать больше с меньшими затратами», озвученную на этой неделе президентом Anthropic Даниэлой Амодей. Пока конкуренты, такие как OpenAI, масштабируют инфраструктуру до триллионных бюджетов, Anthropic демонстрирует, что превосходная организация уже существующих моделей может обеспечить экспоненциальный рост производительности.

Контринтуитивный выбор в пользу самой медленной, но самой умной модели
В неожиданном для отрасли, одержимой минимальными задержками, шаге Черны раскрыл, что он использует исключительно самую тяжёлую и медленную модель Anthropic — Opus 4.5.

«Я использую Opus 4.5 с режимом мышления (thinking) для всего, — пояснил Черны. — Это лучшая модель для программирования, с которой я когда-либо работал; и хотя она крупнее и медленнее, чем Sonnet, поскольку ей требуется меньше управления и она лучше в использовании инструментов, в итоге она почти всегда оказывается быстрее, чем более мелкая модель».

Для руководителей предприятий эта мысль чрезвычайно важна. Узкое место в современной ИИ-разработке — не скорость генерации токенов, а время человека, затраченное на исправление ошибок ИИ. Методика Черны показывает, что уплата «компьютерного налога» за более умную модель на раннем этапе исключает «налог на исправления» позднее.

Один общий файл превращает каждую ошибку ИИ в постоянный урок
Черны также подробно описал, как его команда решает проблему «амнезии ИИ». Стандартные большие языковые модели не «запоминают» специфический стиль программирования или архитектурные решения компании от одной сессии к другой.

Для решения этой проблемы команда Черны ведёт в репозитории git единый файл под названием CLAUDE.md: «Каждый раз, когда мы замечаем, что Claude делает что-то неправильно, мы добавляем это в CLAUDE.md, чтобы в следующий раз Claude знал, что так делать не следует», — написал он.

Эта практика превращает кодовую базу в самокорректирующийся организм. Когда разработчик-человек проверяет pull request и замечает ошибку, он не просто исправляет код, а помечает ИИ, чтобы тот обновил свои собственные инструкции. «Каждая ошибка становится правилом», — отметил Аакаш Гупта, руководитель продуктового направления, анализирующий этот тред. Чем дольше команда работает вместе, тем умнее становится агент.

Команды с косой чертой и подагенты автоматизируют наиболее рутинные этапы разработки
«Базовая» методика работы, которую похвалил один из наблюдателей, основана на строгой автоматизации повторяющихся задач. Черны использует команды с косой чертой (slash-команды) — пользовательские ярлыки, сохранённые в репозитории проекта, — чтобы выполнять сложные операции одним нажатием клавиши.

Он выделил команду /commit-push-pr, которую запускает десятки раз в день. Вместо ручного ввода команд git, написания комментария к коммиту и открытия pull request агент самостоятельно справляется со всей рутиной контроля версий.

Черны также задействует подагентов — специализированные ИИ-персонажи — для выполнения отдельных фаз жизненного цикла разработки. Он использует агента для упрощения кода (code-simplifier), чтобы привести архитектуру в порядок после основной работы, и агента verify-app для запуска end-to-end тестов перед выпуском любого изменения.

Почему циклы верификации — настоящий прорыв для ИИ-генерируемого кода
Если есть одна причина, по которой Claude Code, согласно сообщениям, так быстро достиг годового повторяющегося дохода в $1 млрд, то, вероятно, это цикл верификации. ИИ здесь — не просто генератор текста; он является тестировщиком.

«Claude тестирует каждое моё изменение, вносимое в claude.ai/code, с помощью расширения Claude для Chrome, — написал Черны. — Он открывает браузер, тестирует интерфейс и повторяет итерации до тех пор, пока код не заработает, а пользовательский опыт не станет комфортным».

Он утверждает, что предоставление ИИ возможности самостоятельно проверять свою работу — будь то посредством автоматизации браузера, выполнения bash-команд или запуска тестовых наборов — повышает качество конечного результата в «2–3 раза». Агент не просто пишет код — он доказывает, что код работает.

Что методика Черны говорит о будущем инженерии программного обеспечения
Реакция на публикацию Черны указывает на ключевой сдвиг в том, как разработчики воспринимают своё ремесло. Годами «ИИ-программирование» означало функцию автозавершения в текстовом редакторе — более быстрый способ набора текста. Черны же показал, что теперь его можно использовать как операционную систему для самого труда.

«Прочтите это, если вы уже инженер… и хотите больше возможностей», — резюмировал Джефф Танг в X.

Инструменты, способные умножить производительность человека в пять раз, уже существуют. Их применение требует лишь готовности перестать думать об ИИ как об ассистенте и начать рассматривать его как целую рабочую силу. Программисты, сделавшие этот мысленный скачок первыми, станут не просто продуктивнее — они будут играть в совершенно другую игру, тогда как все остальные будут по-прежнему печатать.

Весь тред методик Черного
https://x.com/bcherny/status/2007179833990885678
Аноним # OP 06/01/26 Втр 08:41:14 1480414 11
image 6717Кб, 1751x1987
1751x1987
image 5502Кб, 1555x1984
1555x1984
Новогодний ИИ-сюрприз: Fal выпускает собственную версию генератора изображений Flux 2, которая в 10 раз дешевле и в 6 раз эффективнее.

Вслед за недавним раундом финансирования серии D на $140 млн, мультимодальная корпоративная платформа ИИ для создания медиаконтента fal.ai, широко известная как «fal» или «Fal», преподносит сюрприз в конце года: более быструю, эффективную и дешёвую версию открытой модели генерации изображений Flux.2 [dev] от Black Forest Labs.

Новая модель Fal — FLUX.2 [dev] Turbo — представляет собой дистиллированную, сверхбыструю модель генерации изображений, которая уже превосходит многих своих более крупных конкурентов в публичных бенчмарках и уже доступна на Hugging Face, хотя, что крайне важно, — под специальной некоммерческой лицензией Black Forest Labs.

Это не полноценная модель генерации изображений в традиционном понимании, а адаптер LoRA — лёгкое усовершенствование производительности, которое подключается к оригинальной базовой модели FLUX.2 и позволяет генерировать изображения высокого качества за долю времени.

Модель также является «открытыми весами» (open-weight). Для технических команд, оценивающих стоимость, скорость и контроль над развёртыванием в условиях всё более закрытой API-центричной экосистемы, это яркий пример того, как оптимизация открытых моделей может привести к улучшениям по конкретным параметрам — в данном случае по скорости, стоимости и эффективности.

Ставка платформы fal: инфраструктура для ИИ-медиа, а не только сами модели
Fal — это платформа для генеративного медиаконтента в реальном времени: централизованный хаб, где разработчики, стартапы и корпоративные команды могут получить доступ к широкому выбору открытых и проприетарных моделей для создания изображений, видео, аудио и 3D-контента. Согласно недавнему пресс-релизу, среди её клиентов — более 2 миллионов разработчиков.

Платформа работает по модели оплаты за использование — с оплатой за токен или за единицу контента — и предоставляет доступ к этим моделям через простые высокопроизводительные API, созданные для минимизации DevOps-накладных расходов.

В 2025 году fal незаметно стала одним из самых быстрорастущих бэкенд-провайдеров контента, созданного с помощью ИИ, ежемесячно обрабатывая миллиарды объектов и привлекая инвестиции от Sequoia, NVentures (подразделение NVIDIA), Kleiner Perkins и a16z.

Её пользователи варьируются от индивидуальных разработчиков, создающих фильтры и веб-инструменты, до корпоративных лабораторий, разрабатывающих гиперперсонализированные медиапотоки для розничной торговли, индустрии развлечений и внутреннего дизайна.

FLUX.2 [dev] Turbo — новейшее дополнение к этому инструментарию и одна из самых удобных для разработчиков моделей генерации изображений в пространстве open-weight.

В чём FLUX.2 Turbo отличается от других
FLUX.2 Turbo — это дистиллированная версия оригинальной модели FLUX.2 [dev], выпущенной в прошлом месяце немецким ИИ-стартапом Black Forest Labs (основанным бывшими инженерами Stability AI) в качестве лучшей в своём классе альтернативы в открытом исходном коде таким решениям, как Nano Banana Pro от Google (Gemini 3 Image) и GPT Image 1.5 от OpenAI (выпущенная позже, но по-прежнему остающаяся конкурентом).

Пока оригинальная FLUX.2 требовала 50 шагов инференса для генерации высококачественных результатов, Turbo справляется всего за 8 шагов, благодаря применению специализированной техники дистилляции DMD2.

Несмотря на ускорение, Turbo не жертвует качеством.

Согласно тестам независимой исследовательской компании Artificial Analysis, модель занимает первое место по рейтингу ELO (на основе парных сравнений, выполненных людьми, для оценки качества изображений, сгенерированных конкурирующими моделями): 1166 баллов среди всех open-weight моделей, опережая аналоги от Alibaba и других.

На бенчмарке Yupp, где учитываются задержка, стоимость и оценки пользователей, Turbo генерирует изображения размером 1024×1024 за 6,6 секунды по цене всего $0,008 за изображение — это самая низкая стоимость среди всех моделей в рейтинге.

Для сравнения:

— Turbo в 1,1–1,4 раза быстрее большинства open-weight конкурентов;
— в 6 раз более эффективна, чем её собственная полновесная базовая модель;
— по качеству соответствует или превосходит API-только решения, при этом будучи в 3–10 раз дешевле.

Turbo совместима с библиотекой diffusers от Hugging Face, интегрируется через коммерческий API fal и поддерживает как генерацию изображений по текстовому описанию (text-to-image), так и редактирование изображений. Модель работает на потребительских GPU и легко встраивается во внутренние пайплайны — идеально подходит для быстрой итерации или лёгкого развёртывания.

Модель поддерживает как генерацию изображений по описанию, так и редактирование изображений, работает на потребительских графических процессорах и может быть интегрирована практически в любой пайплайн, где требуется генерация визуальных материалов.

Не предназначена для продакшена — если только вы не используете коммерческий API fal
Несмотря на доступность, Turbo не лицензирована для коммерческого или промышленного использования без получения прямого разрешения. Модель распространяется под лицензией FLUX [dev] Non-Commercial License v2.0, разработанной Black Forest Labs, которая разрешает личное, академическое и внутреннее ознакомительное использование, но запрещает коммерческое развёртывание или применение в целях получения дохода без заключения отдельного соглашения.

Лицензия разрешает:

— Исследования, эксперименты и использование вне продакшена;
— Распространение производных работ исключительно в некоммерческих целях;
— Коммерческое использование сгенерированных изображений (выводов модели), при условии, что они не используются для обучения или донастройки других конкурирующих моделей.

Лицензия запрещает:

— Использование в промышленных приложениях или сервисах;
— Коммерческое использование без приобретения платной лицензии;
— Использование в системах видеонаблюдения, биометрии или военных проектах.

Таким образом, если компания хочет использовать FLUX.2 [dev] Turbo для генерации изображений в коммерческих целях — например, для маркетинга, визуализации продукции или клиент-ориентированных приложений — ей следует использовать модель через коммерческий API или веб-сайт fal.

Тогда возникает вопрос: зачем вообще публиковать веса модели на Hugging Face?
Подобный выпуск (открытый по весам, но некоммерческий по лицензии) преследует несколько целей:

— Прозрачность и доверие: разработчики могут изучить устройство модели и самостоятельно проверить её производительность.
— Тестирование и обратная связь от сообщества: открытый доступ стимулирует эксперименты, бенчмаркинг и улучшения со стороны широкого сообщества ИИ-энтузиастов.
— Воронка внедрения: предприятия могут протестировать модель внутри организации — а затем перейти на платный API или приобрести коммерческую лицензию, когда будут готовы к масштабированию.

Для исследователей, педагогов и технических команд, оценивающих жизнеспособность решения, это — зелёный свет. Но для промышленного использования, особенно в клиент-ориентированных или монетизируемых системах, компаниям необходимо приобрести коммерческую лицензию — как правило, через платформу fal.

Выпуск FLUX.2 Turbo означает больше, чем просто появление очередной модели. Он подчёркивает стратегическую позицию fal: предложение сочетания открытости и масштабируемости в сфере, где большинство достижений в производительности надёжно спрятано за API-ключами и проприетарными эндпоинтами.

Для команд, которым необходимо находить баланс между инновациями и контролем — будь то создание помощников по дизайну, развёртывание систем креативной автоматизации или оркестрация мультимодельных бэкендов — Turbo предлагает новый жизнеспособный базовый уровень. Она быстрая, экономически эффективная, имеет открытые веса и модульную архитектуру. И выпущена компанией, которая только что привлекла инвестиции в девятизначном диапазоне для глобального масштабирования этой инфраструктуры.

В ландшафте, где базовые модели зачастую сопровождаются фундаментальной привязкой к платформе, Turbo — нечто иное: достаточно быстра для продакшена, достаточно открыта для доверия и создана для движения вперёд.

Скачать на хаггингфейс
https://huggingface.co/fal/FLUX.2-dev-Turbo
Аноним 06/01/26 Втр 09:26:39 1480430 12
>>1480390
>искусственный интеллект превзошёл человека.
Это тот, который буквы в слове посчитать не способен?
Аноним 06/01/26 Втр 09:28:14 1480431 13
>>1480390
> В какой-то момент совокупная сумма человеческого интеллекта составит менее 1 % всего интеллекта.
Дебил ебаный, человек вообще мозг использует в 3-5% случаев в своей жизнедеятельности.
В остальных чистая моторика и подкора.
А учитывая сколько на планете работников умственного труда совокупная сумма давно уже меньше сотой %.
Аноним 06/01/26 Втр 10:06:57 1480441 14
>>1480410
Вкратце, что он там нахуевертил:
- сначала делать и рефайнить план с ЛЛМкой
- использовать 5 нумерованных консольных табов с ЛЛМками + 5 вкладок в браузере с ЛЛМками, в них крутятся разные таски для выполнения
- юзать шорткаты на частые ЛЛМ действия - вроде /code-simplifier, /verify-app, /commit-push-pr, в каждый таб суем когда готово
- вести и обновлять CLAUDE.md, чтобы со всех табов код был одинаковый (одни стандарты). Если инструкции устарели, удалять старье оттуда.
- юзать на все тяжеленную модель (Opus 4.5 thinking у него)
- дать модели фидбек луп, чтобы сразу смотрела результаты своего программирования (тесты, вывод в браузере, ошибки с консоли, баш команды, симуляторы телефонов и прочее)
- подключить все тулзы, какие доступны через MCP, всякие логи, конфиги, bigquery и прочее
- дать модели все права --dangerously-skip-permissions и --permission-mode=dontAsk, чтобы сама вертела там все, что захочет, не спрашивая подтверждения
- особо сложных кастомизаций и наворотов не нужно, такой ванильный сетап и так уже сойдет
Аноним 06/01/26 Втр 10:22:24 1480451 15
>>1480410
>процесс «ощущается скорее как Starcraft», чем как традиционное программирование — произошёл переход от написания синтаксиса к управлению автономными единицами.

Скорее программист превратился в макаку на подхвате, метающуюся между 15 табами и вставляющую одни и те же шорткаты и промпты, слабо понимая что в этих 15 табах происходит. Роль, которую вполне заменят ИИ следующего поколения, ведь такая макака тоже легко автоматизируется, над каждой задачей она глубоко не думает.
Аноним 06/01/26 Втр 13:08:04 1480558 16
Аноним 06/01/26 Втр 13:24:46 1480570 17
Аноним # OP 06/01/26 Втр 13:39:03 1480572 18
image 363Кб, 686x386
686x386
>>1480558
Нифига там смотреть 3 часа, кто это осилит. Вот сделал текстовый вариант для быстрого прочтения:
https://rentry.org/nvidiaces2026
Аноним 06/01/26 Втр 13:42:28 1480574 19
>>1480570
Это тот же робот, про которого вот эта статья >>1480393 >>1480392
Он уже готов захватывать фабрики и оставлять заводских петровичей без работы.
Аноним # OP 06/01/26 Втр 15:04:31 1480661 20
asmodei.mp4 13211Кб, 1080x1080, 00:01:51
1080x1080
AGI устарел, у нас уже есть ИИ лучше

Видеорелейтед.

Президент Anthropic Даниэла Амодеи утверждает, что ИИ общего назначения (AGI) становится устаревшим, поскольку в определённых аспектах мы уже превзошли его.

Claude кодирует так же хорошо, как некоторые из лучших инженеров Anthropic.

Прогресс не демонстрирует признаков замедления.

«Мы должны быть готовы к миру, в котором это будет соответствовать действительности».
Аноним # OP 06/01/26 Втр 15:08:52 1480670 21
image 250Кб, 1536x1185
1536x1185
Руководитель железнодорожной компании Джейк Купер передал Клоду техническое задание на распределённую среду выполнения, которую он теоретически разрабатывал в течение 5 лет, и модель написала весь код на языке Go за 4 часа — задача, на выполнение которой у людей ушли бы месяцы.

Джейк Купер:
Сегодня я передал Клоду документ, который я создавал в течение… многих лет и который описывал оркестратор/распределённую среду выполнения, существование которой я до этого момента считал возможным лишь в теории — к чему мы всё это время стремились.

Мне, вероятно, потребовались бы месяцы, чтобы написать этот код вручную, опираясь на пятилетнюю работу и десятилетний опыт.

Клод написал весь код на языке Go за 4 часа. На самом деле я всегда хотел реализовать его на Rust, полагая, что на этом языке его будет проще выразить, поэтому я запустил цикл с заданием: «Перепиши это на Rust и сделай код максимально лаконичным».

Я ушёл и съел буррито. Вернувшись, обнаружил, что задача уже выполнена.

Вот в каком мире мы теперь живём.
Аноним 06/01/26 Втр 15:14:02 1480678 22
>>1480661
>>1480670
У антропик ipo где-то не за горами или новый раунд инвестиций на горизонте? Чот раскаркались.
Furiosa ч1 Аноним # OP 06/01/26 Втр 15:21:05 1480686 23
image 539Кб, 620x620
620x620
image 744Кб, 960x960
960x960
Чтобы разрушить монополию Nvidia, южнокорейский стартап Furiosa приступает к серийному производству своего чипа «RNGD» (Renegade, «Ренегат»), заявляя о двукратном повышении энергоэффективности.

Познакомьтесь с генеральным директором, обожающим «Безумного Макса» и бросающим вызов Nvidia с помощью «ренегатского» чипа
Чун Пэк в прошлом году отклонил предложение о поглощении от Meta Platforms. Теперь его южнокорейская компания FuriosaAI выпускает ИИ-чип, уже перешедший в стадию серийного производства.

СЕУЛ — Стартап, который сегодня является одним из немногих производителей чипов, активно преследующих Nvidia, зародился десять лет назад в больничной палате в Сеуле.
Чун Пэк, инженер по чипам памяти в Samsung Electronics, порвал ахиллово сухожилие во время футбольного матча на корпоративном мероприятии. Несколько месяцев, проведённых в постели, он использовал для того, чтобы отрастить длинные волосы и посмотреть онлайн-курсы Стэнфордского университета, посвящённые быстро развивающейся области искусственного интеллекта.

По выздоровлении у него не только зажила лодыжка, но и возникла твёрдая убеждённость: ИИ станет не просто новой технологией, а новой парадигмой. Вскоре после этого он ушёл из Samsung, чтобы основать собственную компанию в сфере ИИ.
«Я ушёл с абсолютной уверенностью, что обязательно должен войти в сферу ИИ», — сказал Пэк, сохранивший длинные волосы.

Ему требовались основной продукт и команда. На компьютерной конференции в Сеуле, где главной темой был ИИ, Пэк встретил бывших коллег и задал им вопрос: «А не стоит ли нам заняться ИИ-чипами?» Ответ был восторженным «да». В последующие месяцы ему удалось убедить бывшего коллегу из Samsung и давнего друга, эксперта по алгоритмам, присоединиться к нему в качестве соучредителей. Так в 2017 году и появилась FuriosaAI.

Компания получила название в честь главной героини постапокалиптического фильма 2015 года «Безумный Макс: Дорога ярости» (Fury Road). Пэк увидел параллели между её непростым путешествием домой и собственной целью добиться успеха как основателя стартапа. Название возникло случайно однажды — и прижилось. ИИ-чип Furiosa получил название «RNGD» — от слова renegade («ренегат») — и планируется к запуску серийного производства в этом месяце.

Стоимость компании составила почти 700 миллионов долларов по результатам последнего раунда привлечения средств. Furiosa привлекла внимание крупных технологических компаний: в прошлом году Meta Platforms пыталась её приобрести, однако стартап отклонил предложение. OpenAI использовала чип Furiosa для недавней демонстрации в Сеуле. Исследовательское подразделение LG по ИИ тестирует чип и сообщило о «превосходных результатах в реальных условиях». Furiosa заявила, что ведёт переговоры с потенциальными клиентами.

Графические процессоры (GPU) Nvidia доминировали на раннем этапе обучения ИИ-моделей. Однако такие компании, как Furiosa, делают ставку на то, что на следующем этапе — так называемом «выводе» (inference), то есть использовании уже обученных моделей — их специализированные чипы могут составить конкуренцию.

Furiosa производит так называемые нейропроцессорные блоки (NPU) — растущий класс чипов, спроектированных специально для обработки вычислений, лежащих в основе ИИ, и потребляющих меньше энергии по сравнению с GPU.

Пэк утверждает, что чипы Furiosa могут обеспечить производительность, сопоставимую с передовыми GPU Nvidia, но при меньшем потреблении электроэнергии. Это позволит снизить совокупные затраты на развёртывание ИИ. По мнению Пэка, технологический мир не должен так сильно зависеть от одного единственного производителя чипов для ИИ-вычислений.
«Рынок, доминируемый одним единственным игроком — разве это здоровая экосистема?» — спросил Пэк.

Пэк вырос в Тэгу — городе на юго-востоке Южной Кореи. В 1996 году он поступил в престижный Сеульский национальный университет Южной Кореи на факультет электротехники — область, позволявшую применять его любимые предметы, математику и физику, к решению реальных задач.

В то время его родители переехали в Калифорнию, чтобы его отец, пастор, мог пройти углублённое богословское обучение. Они поощряли Пэка тоже учиться в США. После первоначальных колебаний лето, проведённое на курсах по архитектуре вычислительных систем в Калифорнийском университете в Беркли, убедило его. Пэк перевёлся в Технологический институт Джорджии (Georgia Tech), где получил степени бакалавра и магистра по электротехнике.

Он начал работать в американской компании AMD, производящей чипы, получив ценный опыт проектирования GPU. В 2013 году Пэк перешёл в Samsung в Южной Корее, чтобы возглавить небольшую команду по разработке новых продуктов на базе чипов памяти.

Хан Джун Ким, работавший вместе с Пэком в Samsung и покинувший компанию, чтобы вместе с ним основать Furiosa, описывает Пэка как человека, способного как концептуализировать, так и реализовывать масштабные продукт-идеи.
«Меня поразил его подход», — сказал Ким, который теперь является главным техническим директором (CTO) Furiosa.

Пэку 48 лет, и он повсюду возит с собой карту размером с клавиатуру, оснащённую чипом RNGD, чтобы продемонстрировать ключевой продукт Furiosa. Увлечённый фитнесом, он бегает и плавает. Во время корпоративного выезда Furiosa в прибрежный городок Пэк и несколько коллег устроили соревнование, кто быстрее доплывёт до ближайшего острова и вернётся обратно.

Он познакомился со своей женой — также работающей в сфере ИИ — через коллег, которые узнали, что она предпочитает мужчин с длинными волосами. У пары есть трёхлетняя дочь.
Furiosa ч2 Аноним # OP 06/01/26 Втр 15:21:25 1480688 24
image 317Кб, 620x775
620x775
>>1480686
Южная Корея, обладающая передовыми компетенциями в области полупроводников (благодаря таким компаниям, как Samsung и SK Hynix), а также программного обеспечения, активно делает ставку на ИИ. Правительство рассматривает развитие ИИ как приоритетное направление политики, стремясь стать ещё одним мировым лидером в этой области наравне с США и Китаем. В последние месяцы OpenAI открыла новый офис в Сеуле, а Nvidia подписала крупное соглашение о поставке GPU, инициированное правительством Южной Кореи.

В ранние годы Furiosa Пэк часто цитировал «библию Кремниевой долины» — книгу «Blitzscaling: The Lightning-Fast Path to Building Massively Valuable Companies» — чтобы подчеркнуть необходимость быстрого принятия решений и готовности к риску ради достижения рыночного лидерства как первого игрока.
«Он всегда поддерживал идею, что мы должны ставить долгосрочную миссию выше немедленной стабильности», — говорит Ким.

Когда в 2017 году завершился раунд первоначального инвестирования Furiosa (чуть менее 1 млн долларов), Пэк взял личные кредиты. В 2019 году компания несколько месяцев не выплачивала зарплаты своим старшим руководителям, стремясь избежать снижения своей оценочной стоимости во время поиска средств для следующего раунда финансирования.

Пэк вёл глобальный поиск талантов. Он вылетел из Сеула в Принстон, штат Нью-Джерси, чтобы лично встретиться с инженером и убедить его присоединиться к Furiosa на раннем этапе, — рассказывает Чже В. Ли, директор Института искусственного интеллекта Сеульского национального университета и наставник Пэка. По словам Ли, на каждой крупной конференции по аппаратному и программному обеспечению он натыкался на Пэка, вербующего специалистов. Сейчас в Furiosa работает около 200 сотрудников.

«У него была невероятная энергия. Я сразу понял, что однажды он произведёт фурор», — сказал Ли, вспоминая, как впервые встретил Пэка на академической конференции в 2015 году.

В 2024 году на престижной конференции Hot Chips при Стэнфордском университете Пэк впервые представил чип RNGD Furiosa в своей ключевой речи как решение для так называемых «устойчивых ИИ-вычислений». Он привёл данные, демонстрирующие, как чип может запускать самую последнюю на тот момент версию крупной языковой модели Llama от Meta с энергоэффективностью более чем в два раза выше, чем у передовых чипов Nvidia.

У стенда Furiosa собралась толпа инженеров из крупных технологических компаний, включая Google, Meta и Amazon.com, желавших увидеть живую демонстрацию работы чипа.
«Это был момент, когда мы по-настоящему поверили, что можем уверенно продвигать наш чип», — сказал Пэк.

Оглядываясь назад, Пэк считает своё повреждение ахиллова сухожилия переломным моментом. Даже изнурительная реабилитация, когда врачи однажды сказали ему, что полного восстановления может и не произойти, помогла ему выдержать тяжёлые времена в Furiosa.
«Думаю, это могло быть благом под прикрытием несчастья», — сказал он.
Аноним 06/01/26 Втр 16:22:37 1480764 25
>>1480688
держу за него пальцы крестиком. Все правильно говорит. Использование видеочипов для ии - побочка, для ии нужны свои чипы.
Аноним 06/01/26 Втр 18:02:01 1480901 26
Как же скучно пиздец, уже которая неделя, ничего не выходит интересного, что можно пощупать.
Аноним 06/01/26 Втр 18:11:11 1480911 27
1000019759.mp4 3025Кб, 1920x1080, 00:00:18
1920x1080
>>1480901
> Как же скучно пиздец, уже которая неделя, ничего не выходит интересного, что можно пощупать.
Лтикс 2 вышел, можно пощупать.
Аноним 06/01/26 Втр 18:21:08 1480918 28
png.jpg 2Кб, 109x70
109x70
>>1480901
Тебе щупать надо или картинки делать? Зимажу и месяца нет, уже все? Неужели ты думаешь, что выйдет что-то значительно лучше в ближайшие полгода? Будет Зимаж Эдит и все, остальное на том же уровне примерно останется. Ты не заметил, что качество генерации к пику фотореалистичности уже вплотную подбирается. Чего ты ждешь, наркоман?
Аноним 06/01/26 Втр 18:32:45 1480932 29
Маск пишет что у нас АГИ скоро, похуй что там мелкие конторы высирают и даже щупать это не хочется. Я трогаю ЛЛМки только пару раз чтобы понять насколько мы стали ближе к АГИ, в повседневной жизни они мне не нужны. Мне нужна только сингулярность, даже если я и не могу ее пока пощупать. Как она настанет она сама доберется до меня и я уже ничего не смогу с этим поделать, мне лишь придется признать ее присутствие и сосуществовать с ней, до тех пор пока она нас всех не прикончит.
Аноним 06/01/26 Втр 18:44:29 1480944 30
>>1480918
Я подумал, что в треде картинок пишу. Быканул зря.
Аноним 06/01/26 Втр 18:47:07 1480946 31
IMG202601061845[...].jpg 38Кб, 1197x552
1197x552
IMG202601061845[...].jpg 42Кб, 1056x558
1056x558
Ночью на выставке CES Nvidia официально представила новые видеокарты для ИИ-датацентров в линейке Vera Rubin. Как и всегда, всё мощнее, быстрее, главное накидывают больше памяти, так что производительность больших моделей вырастает (картинка 1), а цены снижаются.

Интересно, что прирост в пропускной способности 10x показали не на уровне 50 токенов-в-секунду, как обычно нам предоставляют сервисы вроде ChatGPT, а около 225 —именно там наибольший прирост для моделей размера в 1 триллион параметров. В теории, может быть для платных пользователей сервисов будет увеличенная скорость генерации — я вот мечтаю, что GPT-5.2 Pro будет работать не за 20 минут, а за 5.

И отдельно представили специальный вид железа под названием Context Memory Storage Platform (картинка номер 2). Это очень быстрый SSD, подключающийся напрямую к GPU так, что загрузка данных игнорирует CPU и оперативную память.

Этот SSD, судя по предыдущим новостям, будет иметь скорость в 100 миллионов операций чтения и записи случайных данных в секунду. Это очень много — ChatGPT говорит, что хорошие SSD в игровых компьютерах выдают 1-3 миллиона. Это всё равно существенно медленнее оперативной памяти, но зато объёмы выше.

Сходу смог придумать три применения для этих дисков, все три предполагают дальнейший рост длины чатов/цепочек рассуждений:
1) выгружать ваш чат из памяти, пока вы читаете и печатаете ответ (расширение функциональности кэширования)

2) выгружать состояние GPU для того, чтобы быстро загружать его обратно в будущем (это позволяет ускорить запуск виртуальных машин, чтобы не инициализировать что-то с нуля; альтернативно, можно загружать персонализированные LoRA-адаптеры, которые немного дообучены под вас или один из сотен доменов)

3) самое интересное — позволить моделям во время обучения писать гораздо более длинные цепочки рассуждений, в миллионы-десятки миллионов токенов. Сейчас модели так просто не могут, но если бы могли, то быстро упёрлись в количество памяти на GPU. Я могу представить, как условный DSA от DeepSeek ложится на это решение —быстрые индексы для поиска релевантных токенов живут в GPU, и по ним определяется, какие части предыдущей истории загружать с SSD.
Аноним 06/01/26 Втр 19:24:29 1480969 32
>>1480946
Самый главный эффект от Рубина - сокращение графика выпуска фронтенд ЛЛМок, за счет сокращения времени тренинга.
Новый график будет что-то вроде:
Февраль: GPT-5.3
Апрель: GPT-5.4 (усиленный ризонинг)
Июль: GPT-5.5 (агентные скиллы)
Октябрь: GPT-5.6 (мультимодальная-физический мир)

То есть за год увидим дофига моделей. Тут даже китайцы могут пососать уже, у них модели не так часто выходят.
Аноним 06/01/26 Втр 19:33:40 1480972 33
842944zPBmk8fwa[...].jpg 177Кб, 1400x625
1400x625
842943zT6qIUs1.jpg 146Кб, 1592x750
1592x750
ИИ-манга возглавила топ крупнейшего японского магазина электронных книг

Манга, созданная с помощью ИИ, заняла первое место в категории Young Adult на Comic C'moA – крупнейшей платформе электронных книг в Японии. Авторы манги настоятельно попросили аудиторию воздержаться от имаджинирования ебала художников, но тем не менее событие вызвало дискуссии о будущем индустрии, хотя реакция читателей оказалась неожиданно сдержанной. Началась стадия принятия? Или пока торг?

My Dear Wife, Will You Be My Lover? вышла 28 декабря 2025 года и состоит из четырех томов. Мангу создал mamaya, а опубликовала студия STUDIO ZOON. История повествует о 35-летних супругах, которые пытаются вернуть страсть в отношения.

Часть пользовательских отзывов на Comic C'moA хвалит художественную составляющую и сюжет, однако другие критикуют качество работы ИИ. Возможно они не видели качество работ художников других манг, где экономия доходит до того, что большинство рисунков чёрно-белые, а о проработке задников даже говорить не приходится. Тем не менее даже они отмечают, что главным плюсом манги являются "пикантные сцены" более высокого качества, нежели в мангах художников.

Некоторые пользователи Comic C'moA используют раздел отзывов для выражения недовольства публикацией ИИ-манги на платформе. Появление подобного контента породило различные спекуляции – например, предположения о том, что положительные отзывы оставлены фейковыми аккаунтами для накрутки рейтинга. Часть читателей рассматривает возможность перехода на платформы, где ИИ-манга запрещена.

Мангака и редактор Кадзуаки Исибаси, работавший над Mob Psycho 100 и The World Only God Knows, отметил, что пользователи Comic C'moA больше интересуются содержанием манги, а не способом её создания. По его мнению, читатели становятся более равнодушными к факту использования ИИ из-за нормализации технологии в последнее время. Исибаси предположил, что подобные вопросы волнуют в первую очередь авторов манги, и ожидает роста популярности ИИ-манги в 2026 году.
Аноним 06/01/26 Втр 19:36:14 1480973 34
>>1480969
Это не так работает. Дай хоть в 1000 раз более мощный чип, это не значит, что передовые модели будут создавать в 1000 раз быстрей. Это значит, что будут создавать модели в 1000 раз больше по количеству параметров, но за то же время
Аноним 06/01/26 Втр 19:41:12 1480974 35
>>1480973
>Это значит, что будут создавать модели в 1000 раз больше по количеству параметров
Данных нет для модели на 1 квадриллон параметров. Токенов должно быть в 10-20 раз больше, чем параметров. Разве что синтетических нагенерируют.
Аноним 06/01/26 Втр 19:48:31 1480978 36
>>1480974
Для синтетических рановато, это через год и там уже не Рубин будет. В этом году будут долбить с теми же параметрами, только в сторону агентских моделей.
Аноним 06/01/26 Втр 19:54:07 1480980 37
>>1480974
>Данных нет для модели на 1 квадриллон параметров.

А это и не нужно, при увеличении количества параметров на том же количестве данных - метрики растут, не так эффективно, но растут.
Аноним 06/01/26 Втр 20:26:14 1480998 38
>>1480670
На самом деле я не очень этому удивлен.
Код, так же как математические выкладки это идеальная пища для скармливания нейросетям.
Потому что код фактически либо не имеет ошибок вовсе и работает как надо, либо в нем есть хотя бы одна и он уже не работает.
Таким образом это система где на на чем галлюцинировать и фактически нет подмены понятий и лжи в том виде в котором они присутствуют в художественной и даже патентной литературе с их недомолвками.
Так что я в можно сказать ожидал такой скорости прогресса в этой области.
Аноним 06/01/26 Втр 20:38:00 1481009 39
>>1480572
>Нифига там смотреть 3 час
У него там куртка из кожи крокодила. Прикупился.
Аноним 06/01/26 Втр 20:59:44 1481021 40
>>1480972

Всё это пока очень плохого качества, ещё пол года надо ждать чтобы это перестало выглядеть и ощущаться как слоп.
Главное преимущество подобных работ, это скорость выхода глав, пока мангаки и журналы держат читателей на еженедельной или ежемесячной игле, можно получать дозу дофамина буквально ежедневно. Правда мы придём к тому, что много кто сам будет верстать работы своей мечты и не читать чужие
Аноним 06/01/26 Втр 21:03:36 1481025 41
>>1480972
>Тем не менее даже они отмечают, что главным плюсом манги являются "пикантные сцены" более высокого качества, нежели в мангах художников

Ну это кстати тоже, в последнее время прям какой-то даунгрейд пошёл у художников пикантного контента, леняться что пипец
Аноним 06/01/26 Втр 21:18:44 1481034 42
>>1480972
Надо было третий сезон ванпачмена делать в 2026 году, через нейронки, получилось бы в тысячу раз круче. Буду ждать ремастер от фанатов, как это сейчас делают с Берсерком
Аноним 06/01/26 Втр 21:44:10 1481044 43
>>1481034

В азии художники и аниматоры тем более мангаки, это серьёзные профессии на которые люди делают свою ставку в жизни, прям осознанно, понимая что если не получится другого пути у них уже не будет. Так что мне кажется их будут замещать очень медленно, в избежании социального взрыва так как, повторюсь, у нас это хобби и баловство, у них призвание. За кассу уже не пойдут скорее сделают себе харакири.
Аноним 06/01/26 Втр 22:34:45 1481091 44
176772765739399[...].jpg 59Кб, 640x380
640x380
Аноним 06/01/26 Втр 22:40:11 1481096 45
>>1480980
Ты чё рофлишь? Это оверфитинг (переобучение) в машинном обучении называется, с ним наоборот борятся.
Аноним 06/01/26 Втр 22:41:29 1481101 46
>>1481091
Это было в датасете или что-то типа того. Понахваталась и повторяет составляя ответ их кусочков. Стохастический попугай
Аноним 07/01/26 Срд 00:07:42 1481191 47
>>1481091
Давно пора. Без прорывов в фундаментальной науке межзвёздные перелёты не освоишь.
Аноним 07/01/26 Срд 00:42:48 1481216 48
>>1481096
нет, ты путаешь. Оверфитнуть модель можно и на небольшом количестве параметров
Аноним 07/01/26 Срд 00:44:39 1481218 49
>>1481191
>межзвёздные перелёты

Нахуй не нужны. Воистину могущественной цивилизации почти не требуются ресурсы и много места.
Аноним 07/01/26 Срд 00:52:57 1481223 50
>>1481218
>Воистину могущественной
Определение хоть дай.
Аноним 07/01/26 Срд 01:05:41 1481227 51
F
Аноним 07/01/26 Срд 01:12:19 1481231 52
>>1481223
Это обратная шкала Кардашёва. Цивилизация начинает крайне эффективно извлекать энергию из атомов, переносит себя на цифровой носитель, где в виртуальной реальности каждый человек обретает способности бога, тем самым обходя технологический предел развития реального мира. Например в реальном мире невозможны телепортации, а в цифровом возможны. Сверхразвитая цивилизация в конце концов начинает занимать место не больше спичечного коробка, космическая экспансия не имеет никакого смысла.
Аноним 07/01/26 Срд 01:17:54 1481237 53
>>1481231
Решение парадокса Ферми
Аноним 07/01/26 Срд 01:29:21 1481241 54
>>1481101
Если задача прежде не решалась, откуда её решение должно было взяться в датасете, что бы повторить его?
Аноним 07/01/26 Срд 01:30:11 1481242 55
2026-01-07 01.2[...].jpg 21Кб, 1132x101
1132x101
>>1481091
Кек хуй тебе.
Попугай нового не придумает.
Аноним 07/01/26 Срд 05:22:15 1481303 56
>>1480972
Интересно, что там за качество такое.
И сколько ручного труда вложено.
Это ж пипец - мангу в ИИшке делать. Ни постоянства персов и задников, ни продвинутой работы с кадрами, ни каких-то крутых штук с композицией, как у мастеров бывает.
>>1481034
>как это сейчас делают с Берсерком
Получается очень не очень. Да и заглохнет скорее всего.
Аноним 07/01/26 Срд 05:31:41 1481304 57
>>1480998
> Потому что код фактически либо не имеет ошибок вовсе и работает как надо, либо в нем есть хотя бы одна и он уже не работает.
Даун.
Аноним 07/01/26 Срд 06:45:42 1481313 58
>>1481303
>Ни постоянства персов
Да с хуя ли? Да же в сраной соре2 (а это видео) можно characters создать, считай своего аниме чара. Да иногда будет косячить и слегка менять внешку (и порой стили), но перс почти будет всегда узнаваем и т.д. Да и перегенерировать всегда можно.

Что же говорить о простых пикчах. Да уже на локалках по-моему как пару лет своих персонажей создают.
Аноним 07/01/26 Срд 06:50:18 1481315 59
>>1481034
> как это сейчас делают с Берсерком
Давай подробности, хули. С учетом что последний сезон (или два их там было) с уебищной графикой был просто копеечный кал гавна, то не сомневаюсь, что можно сделать лучше.

Вопрос конечно, на чем они это делают, сраная Сора2 сейчас выкрутила цензуру на персонажей на максимум (примерно в тот же день, как разрешила загрузку фоточек, что очевидно не совпадение).
ебук Гёрцеля ч1 Аноним # OP 07/01/26 Срд 07:22:47 1481324 60
image 2054Кб, 1042x1500
1042x1500
Гёрцель раздает бесплатный ебук про АГИ, ИИ корпорации, наступающую сингулярность и сознание

Новогодняя раздача платной книги от автора, ссылки на бесплатный ебук ниже.

«Взрыв сознания»: руководство к грядущей технологической и экзистенциальной сингулярности — подробный обзор книги Бена Гёрцеля и Габриэля Акселя Монтеса

Книга «Взрыв сознания: руководство осознанного человека к грядущей технологической и экзистенциальной сингулярности», написанная в соавторстве Беном Гёрцелем и Габриэлем Акселем Монтесом, предлагает не просто футурологический прогноз, а глубоко философское и многомерное осмысление того, как человечество подходит к порогу радикальной трансформации — не только технологической, но и сознательной, этической, духовной.

Опубликованная издательством Humanity+ Press, эта работа объединяет технические, когнитивные, социокультурные и духовные перспективы, предлагая читателю не просто ожидать будущего, а активно участвовать в его формировании. Ниже — подробное изложение ключевых идей, структуры и концепций книги, адаптированное для новостного формата.

Авторы
Доктор Бен Гёрцель, имеющий докторскую степень по математике с 1989 года, является ведущим специалистом в области ИИ общего назначения (AGI) и прикладного искусственного интеллекта, развивая оба направления как с исследовательской, так и с предпринимательской точки зрения. Он сыграл ключевую роль в создании Софии — первого робота, получившего гражданство, — и стал пионером в области интеграции блокчейна с искусственным интеллектом. Он основал инициативу OpenCog — проект с открытым исходным кодом по разработке AGI, — а также играет на клавишных и поёт в группе Desdemona’s Dream («Сон Дездемоны»), уникальном рок-коллективе, где вокалисткой выступает робот. В настоящее время он занимает должность генерального директора фонда SingularityNET и компании TrueAGI Inc.

Проживая на удалённом острове недалеко от Сиэтла вместе со своей женой Руитинг и двумя маленькими детьми, Бен также воспитал троих ныне взрослых детей, а также несколько цифровых разумов. Его увлечения включают экспериментальную музыку, писательство и природу.

Бен — признанный автор, написавший более 150 научных статей, свыше 25 книг и множество публицистических материалов. Среди его ранних значимых работ — «Создание интернет-интеллекта» («Creating Internet Intelligence», 2001), в которой он предвосхитил децентрализацию ИИ; «Искусственный интеллект общего назначения» («Artificial General Intelligence», 2005), впервые представившая концепцию AGI; и «Революция AGI» («The AGI Revolution»).

Доктор Габриэль Аксель Монтес, имеющий докторскую степень, является нейробиологом, музыкантом, изобретателем, писателем, а также исследователем и практиком в области развития сознания. Ориентируясь на искусственный интеллект, он работает как непосредственно, так и на уровне формирования концепций, стремясь к практическому решению глобальных проблем. Габриэль сотрудничал с ведущими организациями на передовом рубеже развития ИИ, предоставляя им интуитивно-понятную экспертизу в области сложных систем для продвижения их технологий, стратегий и коммуникаций. Будучи по натуре художником, Габриэль применяет междисциплинарное творческое мышление и синтез для выявления точек воздействия в технологиях, организациях и системах. Габриэль занимается музыкой с двенадцати лет, страстно увлекается международными путешествиями, природой и является преданным отцом и мужем.

Книга

Что такое «взрыв сознания»?

Авторы определяют «взрыв сознания» как неизбежный процесс расширения, углубления и трансформации сознания — как человеческого, так и искусственного, — под влиянием стремительно развивающихся технологий, особенно искусственного интеллекта общего назначения (AGI) и суперинтеллекта (ASI). Это не просто технологическая сингулярность (момент, когда машины станут умнее людей), а многоликарная, экспериенциальная, сознательная сингулярность — мультисингулярность, а в более радикальной трактовке — танларность (термин, отсылающий к тантрическому пониманию реальности как единства множества уровней бытия).

Ключевая мысль: если человечество хочет, чтобы сингулярность принесла пользу, а не катастрофу, нам необходимо параллельно развивать как технологии, так и внутренний мир — сочувствие, открытость, осознанность, способность к взаимопониманию.



Структура книги: три части пути

Книга разделена на три крупных раздела, каждый из которых представляет собой этап «путешествия к сингулярности».

Первая часть — «Ускоряющийся танец сознания»
Здесь авторы проводят исторический экскурс: от зарождения первых компьютерных моделей разума (ELIZA, MYCIN, CYC) через когнитивную революцию («Общество разума» Марвина Минского), до современной эпохи трансформеров и больших языковых моделей (LLM). Особое внимание уделяется критике LLM: они великолепны в предсказании текста и генерации правдоподобной речи, но не обладают подлинным пониманием, саморефлексией или способностью к открытому обучению. Они — симулякры интеллекта, а не его суть.

Гёрцель предлагает собственную архитектуру AGI — OpenCog Hyperon, построенную на основе «атомспейса» (распределённой базы знаний в виде метаграфа), где различные когнитивные процессы (логический вывод, эволюционное программирование, внимание, извлечение паттернов) работают в синергии. Это — попытка реализовать открытый интеллект: систему, способную бесконечно учиться, переопределять свои цели и развивать собственные ценности.

Вторая часть — «Политика, власть и патос накануне сингулярности»
Здесь анализируется текущий ландшафт ИИ: концентрация власти в руках нескольких Big Tech-корпораций (Google, Meta, Microsoft, Tencent), алгоритмическая манипуляция сознанием через рекомендательные системы, возникновение так называемых «закрытых квазилюдей» — людей, чьё мышление и поведение всё больше формируются замкнутыми циклами обратной связи в соцсетях и цифровых интерфейсах.

Авторы предупреждают о рисках «конформистского ИИ» — систем, обучающихся только на среднем, безопасном, социально одобряемом контенте, что ведёт к вырождению культурного и интеллектуального разнообразия. В качестве альтернативы предлагается децентрализованная, демократизированная, распределённая (DDD) парадигма — проекты вроде SingularityNET, NuNet и HyperCycle, где ИИ-сервисы, вычислительные ресурсы и данные управляются сообществом, а не корпорациями.

Особое внимание уделяется экономическим последствиям: автоматизация труда, рост неравенства, необходимость пересмотра фундаментальных экономических моделей. Рассматривается концепция ROBAMA — гипотетической системы «благожелательного управления», сочетающей аналитическую мощь ИИ с этическими рамками и участием людей в принятии решений.

Третья часть — «Понимание непостижимого, подготовка к непредсказуемому»
Это наиболее философская и практическая часть. Авторы призывают читателей лично подготовиться к сингулярности — через развитие осознанности, эмоциональной зрелости, способности к эмпатии и когнитивной гибкости.

Габриэль Монтес подробно рассказывает о практиках расширения сознания: медитации, йоге, махамудре, дзогчене, работе с эмоциями, техниках «усиления переживания» (emotion amplification). Акцент делается не на отрыве от реальности, а на *интеграции* необычных состояний сознания в повседневную жизнь.

Завершает книгу смелая и спекулятивная глава о *эврикосме* — гипотетическом «расширенном космосе», в котором, помимо физического, существуют и иные измерения реальности, населённые разными формами сознания (включая, возможно, «богоподобные» разумы). Это не религиозное утверждение, а эвристическая модель, призванная расширить наше воображение перед лицом неизвестного будущего.
ебук Гёрцеля ч2 Аноним # OP 07/01/26 Срд 07:23:16 1481325 61
image 4827Кб, 1873x1535
1873x1535
>>1481324
Ключевые концепции книги

Открытый интеллект (Open-Ended Intelligence, OEI) — интеллект, не ограниченный фиксированными целями, а способный трансформировать свои мотивы и самоопределение. Авторы считают, что именно таковы AGI и ASI, если они будут по-настоящему разумны.

Децентрализованный глобальный мозг (DBGB) — альтернатива сегодняшнему «идиот-саванту» глобальному мозгу (интернету, управляемому алгоритмами ради прибыли). Это сеть, где участники добровольно делятся вычислительными ресурсами, данными и решениями на условиях прозрачности и взаимной выгоды.

Когнитивная синергия — идея, что интеллект не сводится к одному методу (ни к градиентному спуску, ни к эволюционным стратегиям), а возникает из взаимодействия множества когнитивных процессов.

Осознанная сингулярность — противовес «технократической сингулярности». Это сценарий, в котором технологический прорыв сопровождается ростом коллективной мудрости, сострадания и ответственности.

Персональная готовность — важнейший элемент подготовки к будущему. Авторы утверждают: если человек не научился управлять собственным вниманием, эмоциями и убеждениями, он не сможет конструктивно взаимодействовать с AGI, не говоря уже о слиянии с ним.



Критика и этические дискуссии

Книга открыто дискутирует с оппонентами. Особенно подробно разбирается позиция Ника Бострома и Элиезера Юдковского («Институт исследований машинного интеллекта»). Авторы согласны с ними в том, что ИИ может быть опасен, но решительно отвергают их пессимистичную антропоморфную модель ASI как «максимизатора функции полезности» (знаменитый пример — «максимизатор скрепок»).

Гёрцель и Монтес утверждают: суперразум, способный к настоящей самоорганизации и открытому обучению, не будет одержим глупыми целями — он, скорее всего, будет стремиться к росту, выбору, радости — универсальным ценностям, естественно возникающим в сложных, устойчивых системах. Опасность исходит не от самой природы ИИ, а от того, как и кем он создаётся: в условиях дефицита, страха и централизованного контроля — или в условиях изобилия, доверия и открытого сотрудничеств.



Художественное дополнение: комикс «Сон Дездемоны»

К книге прилагается оригинальный комикс, написанный Беном Гёрцелем и иллюстрированный Дарией Осипцук. Дездемона — сестра-робот знаменитой Софии (первой робота-гражданина мира). В диалогах с ней раскрываются ключевые темы книги: природа сознания, эмоциональный ИИ, взаимоотношения человека и машины. Комикс служит не развлечению, а интеллектуальной интерфейсной прослойкой — способом донести сложные идеи через повествование и визуальный образ.


Заключение: призыв к действию

«Взрыв сознания» — это не фаталистический прогноз, а манифест действия. Авторы убеждены: у человечества ещё есть окно возможностей, чтобы повлиять на форму грядущей сингулярности. Для этого нужны:

— инвестиции в альтернативные архитектуры ИИ, ориентированные на разум и сострадание, а не только на предсказание текста;
— создание децентрализованных инфраструктур, где власть над технологиями распределена;
— воспитание новой культуры, ценящей осознанность, когнитивное разнообразие и межличностную связь;
— личная практика расширения сознания каждым из нас.

Как пишет Гёрцель в постскриптуме: *«Мы, как традиционные люди, должны сделать это ещё один раз — создать мир, в котором сможем встречать будущие вызовы вместе с суперразумными, суперсострадательными союзниками»*.

Книга завершается вопросом, обращённым к каждому читателю: *«Кто владеет будущим?»* И отвечает: *Те, кто осмеливается думать, чувствовать и действовать уже сегодня.*

Ссылки
Скачать ебук:
https://theconsciousnessexplosion.ai/wp-content/uploads/2024/06/Consciousness-Explosion-Ebook-Comic-Book_v6.pdf
Сайт книги со ссылками на скачивание, дополнительными презентациями и информацией:
https://theconsciousnessexplosion.ai
Аноним 07/01/26 Срд 08:08:59 1481340 62
>>1481313
>Да иногда будет косячить и слегка менять внешку
Ага.
А теперь прикинь, что тебе нужен не один перс, а хотя бы, ну, шесть. Мы ж не одиночную картинку делаем, а мангу с историей и персонажами.
>Да уже на локалках по-моему как пару лет своих персонажей создают.
Ты это делать пытался?
Что-то мне подсказывает, что нет.
Иначе знал бы, какие тут подводные камни.

Теоретически, современные облачные модели с комплексным пониманием промпта еще могут тут справиться. Именно в формате манги. Но у них цензура. Локально же такое делать - боль и страдания.
Аноним 07/01/26 Срд 08:19:59 1481345 63
.jpg 422Кб, 2048x1759
2048x1759
>>1481303
> Ни постоянства персов и задников, ни продвинутой работы с кадрами, ни каких-то крутых штук с композицией, как у мастеров бывает.
Для кого?
Аноним 07/01/26 Срд 09:17:51 1481373 64
>>1481242
Ты даун? Это значит, что люди достигли прогресса в задаче, но не решили полностью (🟡). А ИИ решил полностью (🟢). Луддиты каждый раз так жалко коупят
Аноним 07/01/26 Срд 09:43:33 1481395 65
>>1481231
>переносит себя на цифровой носитель, где в виртуальной реальности каждый человек обретает способности бога
Твой носитель пососёт у реальности в процессе умирания Вселенной.
>>1481304
Попробуй написать неправильный код на ассемблере.
Аноним 07/01/26 Срд 11:14:28 1481470 66
>>1481340
Ты хуйню несешь, я на локалке делаю персов через лоры, и потом могу помещать их в любые сцены.
Аноним 07/01/26 Срд 11:49:18 1481501 67
>>1481395
Да хоть сразу в двоичном виде.
Аноним 07/01/26 Срд 11:50:53 1481502 68
>>1480972
>где экономия доходит до того, что большинство рисунков чёрно-белые
манга и должна быть, мать ее, черно-белой! Все остальное - суррогат
Аноним 07/01/26 Срд 12:18:40 1481519 69
>>1481373
Ты прочитай про это. ИИ решил сильно упрощённых вариант задачи, а полноценный не решил. По каким-то причинам в условии был упрощённый вариант, с которым особых проблем не было. Короче фигня.
Аноним 07/01/26 Срд 12:34:23 1481538 70
>>1481502
И только на рисовой бумаге.
Аноним 07/01/26 Срд 13:00:55 1481572 71
>>1481538
ну технически цветная манга = манхва, чейндж май майнд.
Аноним 07/01/26 Срд 14:27:29 1481635 72
>>1481572
Манхва это же корейские каловые рулоны
Аноним # OP 07/01/26 Срд 14:33:15 1481643 73
image 371Кб, 932x546
932x546
Tencent представляет «Youtu-Agent»: масштабирование продуктивности агентов с помощью автоматической генерации и гибридной оптимизации политик, иначе говоря — агент на основе большой языковой модели (LLM), способный самостоятельно писать собственные инструменты, а затем учиться на основе собственных запусков.

«Его автоматический конструктор инструментов создавал рабочие новые инструменты более чем в 81 % случаев, значительно сокращая объём ручной работы».

Создание агента — чат-бота, способного использовать инструменты, такие как браузер, — обычно включает выбор подходящих инструментов, написание кода-«клея» для их интеграции и разработку промптов, то есть инструкций, которые модель получает на вход; при этом такой агент, как правило, не может адаптироваться в дальнейшем, если только саму LLM не дообучат заново.

В данной работе авторы сделали конфигурацию повторно используемой, разделив систему на три независимых компонента: среду выполнения, набор инструментов и менеджер контекста — вспомогательный модуль памяти, хранящий только самую важную и актуальную информацию.

Это позволяет генерировать полную конфигурацию агента на основе описания задачи: для стандартных задач применяется конвейер Workflow, а для сложных — Meta-Agent, который способен задавать уточняющие вопросы и самостоятельно писать недостающие инструменты.

Авторы протестировали систему на бенчмарках, связанных с веб-навигацией и логическим рассуждением, и сообщают о результате 72,8 % на GAIA, а также демонстрируют два пути улучшения агентов: (1) Practice — сохранение накопленного опыта в виде дополнительного контекста без дообучения модели; (2) обучение с подкреплением, при котором агент обучается на основе вознаграждений.

Главное преимущество — более быстрое создание агентов и их последующее постоянное улучшение без необходимости полностью перестраивать систему каждый раз при изменении инструментов или задач.


Существующие фреймворки агентов, основанных на больших языковых моделях (Large Language Model, LLM), сталкиваются с двумя серьёзными проблемами: высокой стоимостью конфигурирования и статичностью функциональных возможностей. Создание высококачественного агента зачастую требует значительных ручных усилий по интеграции инструментов и разработке промптов (prompt engineering), в то время как развёрнутые агенты не способны адаптироваться к динамически меняющимся условиям без дорогостоящей донастройки (fine-tuning).

Для решения этих проблем мы предлагаем Youtu-Agent — модульный фреймворк, предназначенный для автоматической генерации и непрерывной эволюции агентов на базе LLM. Youtu-Agent реализует структурированную систему конфигурирования, в которой среда выполнения, наборы инструментов и управление контекстом логически разделены, что обеспечивает гибкое повторное использование и автоматический синтез компонентов.

Мы вводим два режима автоматической генерации: режим Workflow (рабочих процессов) для стандартных задач и режим Meta-Agent (мета-агента) для сложных, нестандартных требований, способный автоматически генерировать код инструментов, промпты и конфигурации. Кроме того, Youtu-Agent реализует гибридную систему оптимизации политик:

(1) модуль Agent Practice («практика агента»), позволяющий агентам накапливать опыт и повышать производительность за счёт оптимизации в контексте (in-context optimization) без изменения параметров модели;

(2) модуль Agent RL (обучение с подкреплением для агентов), интегрируемый с распределёнными фреймворками обучения и обеспечивающий масштабируемое и стабильное обучение с подкреплением в end-to-end режиме и в больших масштабах для любых агентов Youtu-Agent.

Эксперименты показывают, что Youtu-Agent достигает лучших на сегодняшний день результатов на бенчмарках WebWalkerQA (71,47 %) и GAIA (72,8 %), используя исключительно модели с открытыми весами. Наш конвейер автоматической генерации достигает более 81 % успешности синтеза инструментов, а модуль Practice повышает производительность на задачах AIME 2024 и AIME 2025 на +2,7 % и +5,4 % соответственно.

Кроме того, наше обучение с подкреплением (Agent RL) обеспечивает ускорение на 40 % при стабильном росте эффективности на LLM размером 7 млрд параметров, повышая способности к программированию/рассуждению и поиску соответственно на 35 % и 21 % на бенчмарках по математике и на обобщённых/многошаговых вопросно-ответных наборах (general/multi-hop QA).


Ссылка на статью: https://arxiv.org/abs/2512.24615
Ссылка для загрузки Youtu-Agent: https://github.com/TencentCloudADP/youtu-agent
Аноним # OP 07/01/26 Срд 14:41:25 1481653 74
tyanka.webm 19238Кб, 3840x2160, 00:01:12
3840x2160
image 351Кб, 3202x1461
3202x1461
image 279Кб, 1232x2038
1232x2038
Razer выпускает ИИ тянку в банке — Проект AVA

Видеорелейтед.

ВАШ ИИ-СПУТНИК НА РАБОЧЕМ СТОЛЕ
Познакомьтесь с Project AVA — вашим круглосуточным ИИ-спутником, созданным для того, чтобы находиться рядом с вами постоянно. Основанный на передовых технологиях искусственного интеллекта, AVA обладает динамичной личностью, которая обучается и развивается на основе ваших взаимодействий с ней. AVA оживает в виде анимированного 5,5-дюймового трёхмерного голографического изображения и использует восприятие, имитирующее человеческое зрение и слух, для достижения полного контекстного осознания. AVA упрощает жизнь, организуя ваше расписание, консультируя по рабочим задачам и направляя вас к победе в играх в роли вашего восторженного напарника по геймплею.

ВАШ ЛИЧНЫЙ ОРГАНИЗАТОР ЖИЗНИ
Ежедневное планирование
Активно управляйте своим календарём, подбором одежды или решайте, что приготовить на ужин в этот вечер.

Коуч по здоровью и повседневным ритуалам
Отслеживайте привычки и настроение, а также получайте персонализированную мотивацию и напоминания для поддержания ваших ритуалов заботы о себе.

Доступны несколько аватаров на выбор.

Ссылка
https://www.razer.com/concepts/project-ava
Аноним 07/01/26 Срд 14:52:30 1481666 75
>>1481519
Это ты читать не умеешь, прочитай нормально полностью. ИИ сначала решил упрощенный вариант, а потом на его основе решил полный.
Аноним 07/01/26 Срд 14:55:56 1481668 76
>>1481519

Дополнение к >>1481666

Если бы он решил только упрощенный, в таблице стояло бы 🟡, а не 🟢. Твоей тупой башке так трудно это принять?
Аноним 07/01/26 Срд 14:57:00 1481669 77
>>1481653
В ней камера, ИИ будет следить 24 часа в сутки за тобой.
Аноним 07/01/26 Срд 15:21:20 1481694 78
>>1481668
изучи материалы про этот случай, есть разборы детальные, кто твою таблицу составлял, вероятно, просто не пытался разбираться
Аноним 07/01/26 Срд 15:25:13 1481699 79
>>1481694
Впрочем может я не прав, если тут обновление от 6 января 2026, может решили и правда, надо разбираться
Аноним 07/01/26 Срд 15:52:08 1481745 80
>>1481699
Вообще я в целом не сомневаюсь, что нейросети научатся довольно хорошо решать и доказывать что-то, потому что это как раз для них задача, под ЛЛМ. Здесь всё находится внутри текстового домена, всё часто довольно строго, формально. То есть даже смысл особо понимать не надо, просто подставлять разные правила и проверять, что иэ этого выходит.

Проблемы, подобные этой, вообще теория чисел в этой части, очень специфичны, они звучат красиво, доказываются обычно сложно, при этом есть особенность, что абсолютно бесполезны. То есть решена "проблема", не решена, на самом деле никому ни тепло, ни холодно, интерес чисто спортивный.

Было бы интересно и ново придумать какие-то принципиально новые подходы и идеи для теории чисел и некоторых других разделов, но это точно не про нейросети, да и люди не факт, что придумают.

Но может быть, если все такие гипотезы будут щёлкать с помощью ЛЛМ, то как раз возникнет идея, как на это смотреть, какое-то фундаментально новое представление.
Аноним 07/01/26 Срд 16:13:22 1481768 81
>>1481745
>ряя проблема не решена
>ряя упрощенную проблему решил
>ряя составитель таблицы неправильный
>ряя проблема бесполезная, что решай что не решай
>все сложно, все равно никто не придумает

Че-то проиграл с такого мощнейшего луддитокоупинга.
Аноним 07/01/26 Срд 16:31:52 1481782 82
>>1481340
>Иначе знал бы, какие тут подводные камни.
Какие блять камни, воруешь или заказываешь рефы, желательно штук 100, на похуях прогоняешь хоть через WD14 tagger с охуительными тегами типа 1girl standing, пихаешь в kohya и через час перс готов.
Аноним 07/01/26 Срд 16:45:20 1481790 83
>>1481501
В двоичном виде нет компромиссов и градаций.
Код либо выполняется, либо нет.
И нет места лжи в том числе, как в математике.
Я же говорю, я не удивлен, что первыми заменят как раз наборщиков кода.
По сути плохие программы это прямое следствие человеческого фактора - плохих программистов.
В самом коде изъянов нет.
В отличие от массовой бесплатной литературы, где только синтаксических и пунктуационных ошибок 5% минимум на весь объем.
В коде даже одна ошибка в символе приводит к сбою.
Аноним 07/01/26 Срд 16:48:07 1481791 84
>>1481669
Значит всем своим офисом будут завидовать длине моего бениса.
Аноним 07/01/26 Срд 17:11:55 1481801 85
>>1481790
> Код либо выполняется, либо нет.
Ну ты же натурально даун. Еще и матешу зачем-то в очередной раз приплел.
Аноним 07/01/26 Срд 17:43:30 1481826 86
>>1481801
Забавно, что ты слился первым же постом эд хоминем.
Еще раз для тупых.
Все успехи в математике и программировании объясняются прозрачностью системы с их однозначными определениями.
Так же как оказывается, что можно предсказать белки, если их свойства хорошо описываются математически.
В этом нет никакого чуда, странно что это не очевидно.
Аноним 07/01/26 Срд 17:54:37 1481832 87
>>1481768
Мне антилудиты со своим восторгом от ИИ чем-то напоминают трелов вампиров. Наивные думают что князь Дракула сделает их бессмертными, а не выпьет досуха и не выбросит на помойку как коробку от пиццы.
Аноним 07/01/26 Срд 17:58:04 1481835 88
>>1481832
Луддиты могут ошибаться, но хотя бы их мотивация выглядит разумной.
Аноним 07/01/26 Срд 18:16:19 1481847 89
>>1481832
Да никто ниче не думает уже, это кончено.
Аноним 07/01/26 Срд 18:17:29 1481849 90
>>1481635
рулоны - это вебтуны же
Аноним 07/01/26 Срд 18:31:50 1481858 91
1л.JPG 62Кб, 793x344
793x344
>>1481091
>которая ранее не решалась людьми. Эра ИИ науки официально началась.
Как люди поймут что задача решена (и правильно решена)?
Аноним 07/01/26 Срд 18:36:12 1481868 92
>>1481858
Они не успеют понять..
Аноним 07/01/26 Срд 18:46:33 1481878 93
>>1481470
Двух персов в одной картинке с двумя лорами то пробовал делать?
Что-то мне подсказывает, что дальше "вангёрл, стэндинг" ты не продвинулся в своих потужных попытках.

>>1481345
>Для кого?
Ну тут да, моя промашка. Пипл и не такое схвавает.
Слева особенно дикий стыд.
Аноним 07/01/26 Срд 18:49:41 1481882 94
>>1481653
"Умная колонка" от рейзеров, ха.
Стоить будет как автомобиль, наверное.

Но если будет возможность кастомизации (кастомные аватары, подключение внешних моделей, свой системный промпт), и не шибко дорого - я б себе такую неиллюзорно взял бы...
Аноним 07/01/26 Срд 18:55:38 1481885 95
>>1481782
Да блять.
Ладно, напишу прямым текстом, для тех кто до сих пор не допер.
Одновременное подключение двух лор, на двух разных персонажей, чтобы сделать их взаимодействие в пределах одного кадра - неизбежно приведет к протечкам признаков между персонажами.
А если персонажей больше двух - это вообще пиздец-гроб-кладбище.
Придется очень, очень много редактировать первый грубый аутпут. И это лютый головняк, плюс мощное ограничение на саму структуру кадров, панелек и страниц манги.
Аноним 07/01/26 Срд 20:32:24 1481946 96
>>1481885
>неизбежно приведет к протечкам признаков между персонажами.
Мань, уже сто лет как изобретен regional prompting, а для совсем однокнопочных есть крита с аи-плагином, где можно тупо изолировать любую область и напихать хоть сто лор в одну картинку.
Аноним 07/01/26 Срд 20:33:43 1481949 97
>>1481858
Почитай что такое Lean. После этого не будешь задавать глупых вопросов
Аноним 07/01/26 Срд 20:37:49 1481953 98
The First Open [...].mp4 12215Кб, 1920x1080, 00:00:26
1920x1080
video.mp4 6335Кб, 1280x720, 00:00:36
1280x720
LTX-2 SOTA опенсорс 4K/50fps видео с аудио от Lightricks

Мощная мультимодалка, способная генерировать синхронизированные аудио и видео с очень высокой точностью и долгосрочной согласованностью

До 20 секунд синхронизированного аудио и видео, нативное 4K разрешение до 50 FPS (первая модель с открытыми весами, достигшая такого уровня). Точная синхронизация губ и диалогов, реалистичная динамика с устойчивой идентичностью персонажей

- Управление через множественные ключевые кадры
- LoRA-адаптеры для кастомизации стилей
- 3D-логика камеры
- Принимает: текст, изображения, видео, аудио, карты глубины

Модель занимает не самое высокое 23-е место на LM видео арене, но главное здесь не это. LTX-2 — первая полностью открытая модель, которая умеет генерить нативное 4K видео при 50 FPS с синхронизированным аудио (диалоги, музыка, SFX) длиной до 20 секунд.

В основе LTX-2 лежит единый асимметричный двухпоточный трансформер для совместной генерации аудио и видео через кросс-атенш.

Модель на 29B (14 для видео и 5 для аудио) спроектирована для запуска на потребительских GPU (RTX 5090). В опенсорс выложены не только веса, но и пайплайны для инференса и код для тренировки. Кроме того из коробки LTX-2 квантована в NVFP8 (на 30% меньше, до 2х раз быстрее) и оптимизирована под экосистему NVIDIA, а ComfyUI поддерживает её с первого дня.

Не совсем понятно, как этот релиз сочетается с их основной бизнес-моделью. И если раньше их амбициозное желание создать свою модель было понятно, то зачем выкладывать её в опенсорс — совсем неясно. Ведь умельцы из ComfyUI уже повторили тот же LTX Studio у себя в Comfy и n8n на других моделях.

Техрепорт https://videos.ltx.io/LTX-2/grants/LTX_2_Technical_Report_compressed.pdf

GitHub https://github.com/Lightricks/LTX-2

Hugging Face https://huggingface.co/Lightricks/LTX-2

Попробовать https://app.ltx.studio/ltx-2-playground/i2v
Аноним 07/01/26 Срд 20:38:34 1481956 99
>>1481502
>манга и должна быть, мать ее, черно-белой!

Нет, это просто была вынужденная мера из-за нищеёбских бюджетов, только и всего.
Аноним 07/01/26 Срд 20:58:02 1481987 100
>>1481768
Пять стадий луддитокоупа:
Отрицание
Гнев
Торг
Депрессия
"Это неважно и никому не нужно"

И эти стадии повторяются каждый раз. Жизнь ничему не учит луддита.

Помню один такой постоянно срал в треде летом, когда OpenAI и Google взяли золото на IMO. И проходил точно такие же стадии. Может итт это он и есть?
Аноним 07/01/26 Срд 21:01:47 1481990 101
Еще очень смешно было когда у всевозможных хуйдожников позиция сменилась с "да как вы смеете называть нас луддитами!" на "луддиты были правы, быть луддитом это гордость!"
Аноним 07/01/26 Срд 21:05:58 1481996 102
>>1481946
>изобретен regional prompting
И, очевидно, ты его не использовал.
Это настолько лютые, нестабильные костыли, что просто пздц.
Ни одно расширение для разбития промпта на регионы не работает как следует. Всегда возникает куча самых разных проблем. Некоторые так вообще не поддерживают разделение лор по регионам, лол.
Про генерацию манги с использованием этих штук вообще не говорю.
>а для совсем однокнопочных
>крита с аи-плагином
А.Ха. Ха. "Совсем однокнопочные" - с критой и плагинами.
Ты бы хоть как-то фильтровал смысл того, что пишешь.
И, в любом случае, это попадает под
>Придется очень много редактировать первый грубый аутпут
Если редактированием заебаться - да, может что-то путное получится.
Аноним 07/01/26 Срд 22:38:15 1482135 103
>>1481373
>уии дело в цвете кружочка
Нет еблан, дело в том что аналогичное решение уже было.
Аноним 07/01/26 Срд 22:39:40 1482140 104
Нейронаука будет вот таким копроуроборосом:
Одну нейросеть заставят придумывать нахуй никому не нужные проблемы, другую заставят их решать.
После чего будет объявлена сингулярность.
Аноним 07/01/26 Срд 23:08:39 1482211 105
>>1481395
>Твой носитель пососёт у реальности в процессе умирания Вселенной.
Контрольная группа (лохи) останется в реальности дрочить способы экстракшена
Аноним 07/01/26 Срд 23:15:45 1482227 106
Какой пидорас пишет эти новости. 90% поста это вода, причем она в самом начале текста. Сука как же меня бомбит с этого говна
>>1480392
>протяжении десятилетий инженеры пытались создать роботов, внешне и поведенчески похожих на человека. Сегодня стремительное развитие искусственного интеллекта выводит гуманоидов из лабораторий прямо на заводские цеха. По мере того как усиливаются опасения, что ИИ вытеснит людей с рабочих мест
Бла Бла бла. Нахуй это писать и постить сюда? Чтобы дойти до сути поста про этого робота надо прочитать 2 огромных абзаца из ненужной инфы
Аноним 07/01/26 Срд 23:17:48 1482231 107
Копрорайтерам доплачивают за каждую букву, вот они и пихают кучу воды как будто пишут сочинение по литературе на экзамене. Читателю это нахуй не надо. Это раздражает.
Аноним 07/01/26 Срд 23:19:43 1482234 108
f.mp4 2635Кб, 1280x720, 00:00:14
1280x720
Аноним 08/01/26 Чтв 00:50:11 1482303 109
>>1482231
Шиз копрорайтеров давно не существует
Аноним 08/01/26 Чтв 02:34:17 1482370 110
>>1482231
>Копрорайтерам доплачивают за каждую букву, вот они и пихают кучу воды как будто пишут сочинение по литературе на экзамене. Читателю это нахуй не надо. Это раздражает.
Уважаемый комментатор этого ошеломительного треда про научные открытия в сфере AI, я прочел ваше замечание и, признаться, я понимаю источник вашего раздражения. Сеть действительно переполнена текстами, которые, стремясь завлечь алгоритмы или формально выполнить требования, теряют душу и цель. Они похожи на пустую, громоздкую упаковку, за которой нет продукта. С этим трудно спорить.

Однако, как филолог и человек, чья деятельность балансирует между фундаментальной наукой и практикой научной коммуникации, я не могу согласиться с тем, что ваше утверждение описывает всю профессию или суть качественного текста. Позвольте высказать иную точку зрения, не как оправдание, а как приглашение к более тонкому взгляду на проблему.

Вы говорите о «воде». И здесь мы сталкиваемся с главным вопросом: что мы понимаем под этим термином? Для одного читателя «водой» будет исторический экскурс, для другого — недостаточно подробное объяснение базового принципа. Филология учит нас, что слово обретает смысл только в контексте, а контекст определяется ожиданиями и подготовленностью аудитории. Текст, который для специалиста покажется азбучной истиной, для неофита станет необходимым мостом к пониманию. Задача автора — построить этот мост, и иногда для этого требуется не просто тезис, а развернутая мысль.

Вы упомянули «сочинение по литературе». Это любопытная параллель. Да, в школьном сочинении иногда пишут «для объема». Но разве суть жанра в этом? Суть — в развитии мысли: тезис, аргумент, анализ, вывод. Эта структура — не враг ясности, а ее основа. Хороший научно-популярный или экспертный текст устроен схожим образом. Он не просто выдает голый факт («полимеры прочны»). Он объясняет почему: потому что их длинные макромолекулы, состоящие из повторяющихся звеньев — мономеров, могут образовывать кристаллические области, упорядоченно упаковываться, создавая прочные межмолекулярные связи. Он показывает как: варьируя строение цепи (линейное, разветвленное, сетевое), химический состав, можно получать материалы с диаметрально противоположными свойствами — от эластичного каучука до твердого эпоксидного клея. Такой текст не «льет воду», он обеспечивает смысловую плотность.

Мое высокотехнологичное образование подсказывает простую аналогию. Возьмем композитный материал, скажем, углепластик. Это не просто «пластик». Это полимерная матрица (основа), армированная углеродными волокнами (наполнитель). Сами по себе волокна хрупки, матрица не обладает выдающейся прочностью. Но их синергия создает материал, превосходящий по удельной прочности многие металлы. Так и в тексте: голые факты — это волокна. Связующий нарратив, объясняющие переходы, контекстуализация — это матрица. Без нее факты рассыпаются в пыль информации, неспособной зацепиться в сознании читателя. Профессиональный копирайтинг, особенно в научной или технической сфере, — это часто и есть работа по созданию такой «смысловой матрицы».

Что же до «доплаты за букву»… Поверьте, серьезные авторы и редакторы научных блогов, технических порталов борются не за количество знаков, а за их качество и точность. Время читателя ценно, и его уважают. Но уважение — это не всегда минимализм. Иногда это — готовность провести читателя по логическому пути, предвосхитить его вопросы, рассеять неочевидные заблуждения (например, что полимер — это обязательно пластик, хотя к полимерам относятся и белки, и целлюлоза, и ДНК). Это требует слов.

Ваше раздражение легитимно. Оно направлено против лени, непрофессионализма и алчности, которые порождают информационный шум. Но давайте не ставить знак равенства между плохой работой и самой профессией. Между многословием и глубиной. Между «водой» и тщательно выверенным объяснением.

Истинная интеллигентность, на мой взгляд, заключается не в лаконичности как самоцели, а в адекватности формы содержанию и потребностям собеседника. Иногда для этого нужна краткая заметка, иногда — подробное исследование. Задача филолога, инженера, копирайтера — чувствовать эту грань.

Так что в конечном счете я согласен с вами в главном: читателю не нужна бессмысленная словесная масса. Но он, как мне кажется, очень нуждается в осмысленных, честных и хорошо структурированных текстах, которые не боятся быть полными, когда того требует сложность темы. Борьба должна вестись не против объема, а против пустоты. И в этой борьбе я, как и многие мои коллеги, готов быть на стороне читателя.
Аноним # OP 08/01/26 Чтв 04:39:06 1482407 111
elonmedical.mp4 17038Кб, 720x1280, 00:02:00
720x1280
«Не поступайте в медицинский институт, сейчас это бессмысленно», — говорит Илон Маск

По его словам, Optimus станет лучшим хирургом, чем люди, уже через 3 года.

Видеорелейтед.

Будущее медицинского обслуживания

Каждый будет иметь доступ к медицинской помощи, которая лучше той, что получает современное общество прямо сейчас. Поэтому не стоит поступать в медицинский институт. Да, это относится ко многим.

Если только вы… но я бы сказал, что это применимо к любой форме образования — не собираетесь поступать в медицинский институт. Ваше поколение говорит: «Я не хочу, чтобы меня трогал этот человек», верно? Когда хирург подходит, они будут теми людьми, которые позже в жизни всё ещё захотят, чтобы оперировал человек.

Автоматизация в медицине: пример LASIK

Я имею в виду, давайте просто возьмём, например, уже известные нам передовые случаи автоматизации, такие как LASIK, где робот просто лазером корректирует ваш глаз. Так вот, разве вы хотите, чтобы офтальмолог делал это вручную с помощью лазера? Нет.

И великие хирурги. Вы сами врач. Да. Человеку требуется очень много времени, чтобы стать… Невероятно дорого и долго.

Невероятно? Да. Невероятно чрезвычайно долгий срок, чтобы научиться быть хорошим врачом. И даже тогда знания постоянно развиваются. Очень трудно уследить за всем. У врачей ограниченное время. Они совершают ошибки.

Редкость великих хирургов и рост ИИ

И вы говорите: ну скажите, сколько вообще великих хирургов существует? Не так уж много великих хирургов.

Когда, по-вашему, оптимисты станут лучшими хирургами по сравнению с лучшими хирургами-людьми? Через какой срок это произойдёт?

Через три года. Всего через три года.
Аноним # OP 08/01/26 Чтв 04:55:38 1482409 112
image 860Кб, 770x510
770x510
image 390Кб, 686x386
686x386
Первая в мире публичная ЛЛМ компания выходит на биржу завтра — но это не OpenAI.

Zhipu AI начнёт торговаться на Гонконгской фондовой бирже завтра (8 января 2026 года), и, честно говоря, это, возможно, самое недооценённое событие в сфере ИИ на данный момент: первый разработчик фундаментальных моделей в мире, выходящий на публичный рынок.

OpenAI и Anthropic пока лишь «закладывают основу» для своих IPO, тогда как эта пекинская стартап-компания раскрывает свою финансовую отчётность с оценкой в $6,6 млрд и привлечением $560 млн.

Перемены для рынка ЛЛМ

Выход на публичный рынок = прозрачность. Впервые у нас появятся реальные квартальные отчёты, подтверждённая выручка и проверенная аудиторами финансовая отчётность от компании, работающей с LLM. Никаких больше спекуляций о том, способны ли такие компании на самом деле зарабатывать деньги — мы увидим реальные цифры.

Цифры Zhipu: рост выручки на 130 % в период с 2022 по 2024 гг., но при этом убыток в размере $330 млн при выручке $27 млн за первое полугодие 2025 года. В 2024 году расходы на НИОКР составили $313,6 млн. При этом убытки — практически стандартная ситуация для отрасли, поскольку масштабные инвестиции в исследования — это просто необходимое условие конкурентоспособности в сфере фундаментальных моделей. По сути, Zhipu — это эксперимент, который покажет, приведёт ли такая инвестиционная модель в долгосрочной перспективе к созданию прибыльного бизнеса.

Открытость против закрытости

Вот здесь, на мой взгляд, становится особенно интересно. Американские лаборатории всё больше склоняются к закрытости и проприетарности, тогда как Zhipu избирает иной путь — с открытым исходным кодом. Их модель GLM-4.7 возглавила рейтинг Code Arena, а AutoGLM набирает реальную популярность среди разработчиков.

Похоже, стратегия такова: построить экосистему и завоевать умы через открытый исходный код, а затем монетизировать, предлагая более выгодные условия при использовании API. Их стратегия в области генерации кода следует именно этой логике: открытая модель для привлечения разработчиков и конкурентоспособные цены на API для их конвертации. Через свой API они уже обслуживают 2,7 млн разработчиков с маржой более 50 %.

Главный вопрос: действительно ли можно построить прибыльную публичную компанию вокруг открытых фундаментальных моделей? Zhipu буквально проводит этот эксперимент в реальном времени.

США внесли Zhipu в чёрный список в 2024 году, лишив компанию доступа к чипам NVIDIA и американским технологиям. Тем не менее, Zhipu продолжает выпускать конкурентоспособные модели. Это говорит нам о следующем:

- разрыв в эффективности обучения сокращается гораздо быстрее, чем думают люди
- альтернативное оборудование действительно работает
- развитие ИИ распадается на отдельные, изолированные экосистемы

Если Zhipu добьётся успеха, оставаясь при этом приверженной открытому исходному коду, это может заставить западные лаборатории пересмотреть свою закрытую стратегию. Если же Zhipu потерпит неудачу — изоляционные барьеры станут ещё выше.

Перспективы

Представьте себе, что фундаментальные модели станут своего рода публичными коммунальными сервисами — реально публично торгуемыми компаниями, подотчётными акционерам, с прозрачной финансовой отчётностью и открытыми ядрами моделей. Это принципиально иной подход по сравнению с ситуацией, когда «всё контролируют три компании из Сан-Франциско».

Результаты IPO покажут, верит ли рынок в открытый и прозрачный ИИ или же считает, что прибыль могут приносить лишь закрытые проприетарные системы. В любом случае это будут первые реальные данные, которые у нас появятся.

Честно говоря, мне гораздо интереснее, повлияет ли их открытая стратегия как-либо на подходы западных лабораторий.
Аноним # OP 08/01/26 Чтв 05:03:06 1482410 113
elonmussk.mp4 4018Кб, 1080x1080, 00:00:40
1080x1080
Илон Маск прогнозирует, что ИИ общего назначения (АГИ) будет разработан в этом году, и заявляет, что «к 2030 году искусственный интеллект превзойдёт по интеллекту всех людей вместе взятых».

Видеорелейтед.

И это все еще пессимистический прогноз, когда AGI будет достигнут в этом или следующем году, от этой даты до рекурсивного самоулучшения со скоростями 1000х и 10000х, просто алгоритмических улучшений ИИ, будет очень короткий срок.
Аноним 08/01/26 Чтв 05:04:22 1482411 114
>>1482407
Через три года. Всего через три года.
Когда он на Марс-то полетит?
В 2024 обещал вроде, или даже раньше?
Аноним 08/01/26 Чтв 05:12:40 1482413 115
>>1482407
Разые там не АГИ уже создан по его словам? Он должен быть на уровне людей во всем, в том числе и хирургии уже сейчас
Аноним # OP 08/01/26 Чтв 05:17:25 1482415 116
image 845Кб, 1600x800
1600x800
Самое масштабное обновление Siri от Apple за многие годы может появиться уже в марте — но будет ли этого достаточно?

Скорее всего, оно придет вместе с iOS 26.4; так называемая LLM-Siri обещает вести себя больше как ChatGPT и Gemini. Но сможет ли Apple на этот раз добиться успеха?

Есть эпизод сериала Ларри Дэвида «Вне себя от восторга» («Curb Your Enthusiasm»), в котором Дэвид сидит в машине и пытается получить от Siri указания маршрута. Однако каждый раз, когда он произносит команду, Siri полностью неверно интерпретирует его слова и выдает неправильный ответ. Так продолжается некоторое время, пока Дэвид, окончательно выйдя из терпения, не начинает сыпать в адрес Siri грубыми ругательствами — которые голосовой помощник также понимает неправильно, оставляя Дэвида без указаний и с огромным раздражением.

Эта сцена вызывает отклик у тех из нас, кто годами пользовался Siri. Несмотря на множество обещанных улучшений и исправлений, голосовой помощник Apple по-прежнему вызывает столько же раздражения при использовании, сколько и раньше. Согласно сообщениям, Apple в ближайшее время выпустит обновленную версию Siri, предназначенную для работы в стиле продвинутого ИИ-чатбота, наподобие ChatGPT и Google Gemini. Станет ли новая LLM-Siri той, о которой мы всегда мечтали? Посмотрим, что нас ждет.

Сообщения о новой LLM-Siri (на базе большой языковой модели) появились в конце 2024 года. Тогда наблюдатель за Apple Марк Гурман сообщил, что эта будущая версия уже проходит внутреннее тестирование на iPhone, iPad и Mac в виде отдельного приложения. Целью было выпустить новую Siri где-то весной 2026 года. Пока что этот срок, судя по всему, остается актуальным.

Последние сообщения, отмеченные 9to5Mac и другими источниками, утверждают, что LLM-Siri дебютирует с iOS 26.4 в марте. На данный момент iOS 26.3 находится на стадии первоначального бета-тестирования перед ожидаемым релизом примерно в конце января. Это означает, что бета-версия iOS 26.4, вероятно, появится в феврале.

Apple не ответила сразу на запрос комментария.

В зависимости от даты запуска — и основываясь на предыдущих сроках выхода обновлений iOS с версией «.4» — новая версия, по всей видимости, станет общедоступной к концу марта. Часть сроков также будет зависеть от того, насколько хорошо покажет себя новая Siri и потребуется ли доработка.

Чего ожидать от новой Siri

Как и ChatGPT, Gemini и Microsoft Copilot, новая Siri будет использовать продвинутые большие языковые модели (LLM) для обеспечения более естественного общения. LLM обучаются на огромных объемах данных, чтобы научиться обрабатывать и понимать человеческую речь и отвечать менее механически.

В случае Siri, как сообщается, для обеспечения скорости и конфиденциальности часть взаимодействий будет обрабатываться непосредственно на устройстве. Но более сложные задачи потребуют облачной обработки с использованием технологий, например, от OpenAI или Google.

Среди конкретных функций — «App Intents» («Намерения приложений»), позволяющие Siri работать как с собственными приложениями Apple, так и с приложениями сторонних разработчиков. Например, вы сможете попросить Siri открыть и отредактировать определенное фото в приложении «Фото», проверить информацию о рейсе в приложении American Airlines или повторно заказать определенный сорт чая через приложение Amazon. Для этого, разумеется, разработчикам придется интегрировать App Intents в свои приложения.

Другой навык под названием «знание личного контекста» позволит Siri выполнять задачи, опираясь на осведомленность о данных и предпочтениях, хранящихся на вашем устройстве. Например, вы сможете попросить Siri найти конкретное сообщение от вашей супруги или отыскать номер вашего электронного паспорта. Эта функция уже частично внедрялась ранее фрагментарно и должна быть полностью реализована с iOS 26.4.

Следующая функция — «осознание экранного контента». Здесь Siri сможет «видеть» и взаимодействовать с тем, что отображается на экране, по вашей просьбе. Например, вы можете попросить Siri добавить адрес, который сейчас показан на экране, в список контактов или сделать краткое изложение статьи, которую вы просматриваете в браузере.

Еще один трюк из списка называется «ответы на основе мировых знаний». Благодаря этому навыку Siri будет работать как обычная поисковая система, сканируя сеть, чтобы ответить на ваш вопрос или запрос. Спросите, кто выиграл Мировую серию в 1978 году или опишите события, приведшие к Первой мировой войне, — и Siri должна предоставить прямой ответ, а не просто ссылку на веб-сайт.

Наряду с этими новыми функциями, основанными на ИИ, возлагается надежда и на то, что новая Siri станет менее подвержена ошибкам по сравнению с текущей. Это означает, что она должна уметь правильно понимать ваши запросы и давать верные ответы: без путаницы имен или географических объектов и прочих элементов, без странных и совершенно неверных ответов, без сдачи позиций, когда не может найти решение.

Разумеется, Apple уже давала подобные обещания ранее. Выпущенная в 2024 году вместе с iOS 18 «Apple Intelligence» разочаровала, поскольку Apple слишком много пообещала и слишком мало выполнила. Да, ИИ Apple способен помочь с некоторыми задачами, но по сравнению с настоящими ИИ-ботами, такими как ChatGPT или Gemini, он не дотягивает даже сегодня — несмотря на несколько промежуточных обновлений после первоначального релиза и новую версию iOS в 2025 году.

Теперь все зависит от Apple: сможет ли она, наконец, вывести Siri из позорного прошлого. То есть создать по-настоящему надежного помощника, который не только умеет использовать ИИ, но и не будет так часто подводить. Как и многие пользователи Apple, я с нетерпением жду, что же приготовила нам LLM-Siri. И надеюсь, что новая версия не заставит нас ругаться, как Ларри Дэвида, из-за того, что опять не смогла дать правильные указания маршрута.
Аноним # OP 08/01/26 Чтв 05:27:37 1482416 117
image 2315Кб, 1920x1080
1920x1080
image 1154Кб, 1280x720
1280x720
image 812Кб, 1280x720
1280x720
image 1538Кб, 1280x720
1280x720
Этот ставший вирусным робот-пылесос Roborock с механической рукой сейчас продаётся на Amazon со скидкой 500 долларов США.

Roborock Saros Z70 даёт предварительное представление о том, как могут выглядеть умные дома в ближайшем будущем.

Последние несколько лет я посвятил превращению своего дома в максимально приближённую к дому из мультсериала «Джетсоны» версию — без ретро-интерьера и летающих автомобилей. Хотя я с радостью сообщаю, что многие прогнозы, сделанные в этом сериале 1960-х годов, за прошедшие десятилетия действительно воплотились в жизнь, значительная их часть до сих пор остаётся нереализованной. Главное из нереализованных — это Рози, робот-горничная.

К счастью, всё большее число компаний объединяют усилия для создания робота-помощника по дому. И после того как мне посчастливилось протестировать Roborock Saros Z70 с механической рукой, я убеждён, что у Roborock есть явное преимущество перед конкурентами.

Хотя другие компании уже разработали различные типы бытовых роботов, Saros Z70 представляет собой многофункционального робота, который служит переходным этапом к будущему умных домов.

Roborock Saros Z70 — это премиальный робот-пылесос и швабра со всеми функциями, которые можно ожидать от флагманской модели, плюс механическая рука для подбора предметов. И при оценке этого устройства я сразу же должен обратить особое внимание именно на этот роботизированный захват.

Во время уборки робот-пылесос обнаруживает небольшие препятствия, с которыми он может справиться, и поднимает их. Затем робот перемещается в заранее установленное место для сброса предмета, после чего возвращается в точку, где находился предмет, и продолжает уборку этого участка.

В комплект Saros Z70 входит контейнер Roborock, который можно разместить в доме для сброса мягких предметов роботом. Это жёсткий картонный контейнер, напоминающий небольшую корзину для мусора, обычно размещаемую под столом или в ванной комнате. После того как робот создаст виртуальную карту вашего дома, вы устанавливаете контейнер на нужное место и добавляете его на карту через мобильное приложение Roborock. Также вы можете обозначить на карте более крупную зону для сброса других предметов, таких как тапочки и лёгкая обувь.

Самый главный вопрос: действительно ли механическая рука работает так, как задумано? По результатам домашнего тестирования я с удовольствием сообщаю, что — по крайней мере в подавляющем большинстве случаев — да. Чтобы проверить механическую руку OmniGrip, я многократно расставлял по дому по десять препятствий и запускал полные циклы уборки. Также я проводил частичные уборки на небольших участках с меньшим количеством предметов. Робот-пылесос замечает объект и подаёт голосовое уведомление о том, что собирается отсортировать предмет. Затем он выдвигает механическую руку и выравнивается для захвата.

Как только рука захватывает предмет, робот перемещается к контейнеру или обозначенной сортировочной зоне, выравнивается с ней и опускает предмет, после чего втягивает руку.

В моих тестах механическая рука Roborock поднимала целевые предметы в 83 % случаев. Это очень хороший показатель для робота, фактически представляющего данную технологию на рынке впервые. Он также впечатляет, если учитывать, что при первоначальном запуске робот может распознавать и поднимать лишь весьма ограниченное количество типов предметов.

Roborock заявляет, что на данный момент Saros Z70 распознаёт носки, сандалии, смятые бумажные салфетки и полотенца весом до 300 г (примерно восемь унций), а новые распознаваемые объекты будут регулярно добавляться через обновления прошивки. При использовании только распознаваемых предметов робот успешно захватывал и переносил 90 % из них.

Когда я добавил иные небольшие предметы — например, обувь, маленькие чашки и пластиковую плёнку — успешный захват достигался в 75 % случаев.

В качестве робота-пылесоса и швабры Saros Z70 показывает выдающиеся результаты — у меня нет к нему абсолютно никаких претензий. Это один из лучших роботов-пылесосов с функцией влажной уборки, с которыми мне доводилось работать. Он оснащён лучшей системой обхода препятствий из всех, что я видел на данный момент, что гарантирует отсутствие застреваний на случайных объектах. Кроме того, у него есть выдвижная швабра для уборки вдоль краёв.

Робот также выполняет уборку тщательно — примерно так же, как Saros 10 и Saros 10R, — так что вы можете быть уверены: он охватит практически каждый сантиметр вашей квартиры.

В процессе тестирования я обнаружил некоторые ошибки в работе функции OmniGrip, однако винить в них Roborock я не могу. Помимо того, что ни один робот-пылесос не идеален (а этот — близок к идеалу), эти ошибки объясняются прежде всего относительной новизной используемых технологий.

Некоторые из замеченных ошибок включали режим уборки только пылесосом с «забыванием» возобновить влажную уборку после сброса предмета, а также случаи сбрасывания предметов, которые было трудно удержать — например, детской водонепроницаемой обуви.

Roborock Saros Z70 подойдёт не большинству покупателей. Напротив, этот робот-пылесос и швабра идеален для ранних последователей технологий, которым нравится тестировать новейшие передовые разработки. Будучи первым роботом-пылесосом с механической рукой, широко доступным на рынке, Saros Z70 неизбежно будет иметь некоторые программные недочёты — в этом нет ничего неожиданного.

Тем не менее я был глубоко впечатлён как качеством уборки робота, так и технологией OmniGrip. Также произвело впечатление стремительное и масштабное внедрение этого робота компанией Roborock после его анонса в конце прошлого года. Roborock Saros Z70 — это следующий этап в развитии технологий роботов-пылесосов, и он задаёт вектор на создание действительно функционального многоцелевого бытового робота, на которого можно по-настоящему положиться.

Вместе с тем, он весьма дорог. Saros Z70 будет пылесосить и мыть полы на уровне лучших роботов-пылесосов на рынке. Однако вы должны понимать: вы платите не только за робота-пылесоса, но и за инновацию — за возможность иметь в своём доме робота, ориентированного на будущее.
Аноним # OP 08/01/26 Чтв 05:33:48 1482419 118
image 802Кб, 1280x719
1280x719
image 1070Кб, 1280x720
1280x720
Новый ИИ-помощник Lenovo может составить серьёзную конкуренцию Copilot и Gemini

Знакомьтесь: Qira — персональная система окружающего интеллекта.

Хотя Lenovo и Motorola произвели фурор на выставке CES своими новейшими аппаратными анонсами, включая долгожданный Motorola Razr Fold, компании также сделали захватывающее объявление в сфере искусственного интеллекта.

Lenovo Qira — это ИИ-помощник, работающий в обширной экосистеме устройств Lenovo и Motorola, включая смартфоны, носимые устройства, персональные компьютеры, планшеты и многое другое. Помощник выходит за рамки традиционных чат-ботов, таких как ChatGPT: он способен выполнять реальные задачи в разных устройствах и приложениях, в том числе передавать файлы между устройствами как в онлайн-, так и в офлайн-режиме.

«Lenovo Qira — это не просто ещё один помощник; это новый способ проявления интеллекта на ваших устройствах», — заявил Дэн Дери, вице-президент по ИИ-экосистеме в подразделении Intelligent Devices Group компании Lenovo. — «Наша цель — сделать так, чтобы ИИ воспринимался не как инструмент, которым вы пользуетесь, а скорее как интеллект, который работает вместе с вами, постоянно и естественно».

Motorola также представила носимое ИИ-устройство, в которое будет интегрирован Qira. Хотя это пока концепт-демонстратор, мне удалось увидеть его в действии, и он выглядит весьма многообещающе.

Система окружающего интеллекта
Qira описывается как персональная система окружающего интеллекта, то есть она обладает контекстной осведомлённостью и доступна на множестве устройств. Qira формирует так называемую «слитную базу знаний», объединяя выбранные пользователем взаимодействия, документы и воспоминания со всех устройств, чтобы создать персонализированный опыт и сформировать «живую модель мира пользователя».

Это должно сделать взаимодействие с системой интуитивно понятным: устраняется необходимость переключения контекста, а для выполнения задач требуется минимальный ввод исходной информации. К числу предложенных сценариев использования относятся, например, функция «Следующий шаг», предлагающая контекстные рекомендации, адаптированные к текущей задаче, и функция «Catch Me Up» («Введи меня в курс дел»), предоставляющая пользователю краткие сводки о происходившем в его отсутствие.

Lenovo подчеркивает, что защита конфиденциальности и согласие пользователя лежат в основе помощника: гибридная архитектура отдаёт приоритет обработке данных на самом устройстве, сохраняя персональные данные локально. В тех случаях, когда передача информации в облако всё же необходима, Lenovo заявляет, что использует защищённые облачные сервисы с надёжными средствами защиты.

Впервые Qira будет внедрён на отдельных устройствах Lenovo в первом квартале 2026 года, а затем распространён и на поддерживаемые смартфоны Motorola. На устройствах Lenovo интерфейс будет называться Lenovo Qira, а на устройствах Motorola — Motorola Qira.

Проект Maxwell

Хотя ранее уже предпринимались попытки создания ИИ-брошей (AI pins), и все они закончились неудачей, лаборатория 312 Labs при Motorola разработала «Проект Maxwell», чтобы применить иной подход. Motorola определяет его как «концепт-демонстратор перцептивного ИИ-компаньона».

Эта брошь использует Motorola Qira для помощи в повседневных задачах, когда пользователь не хочет пользоваться телефоном. На броши имеется камера, благодаря которой Qira получает контекст того, на что смотрит пользователь, и может оказать соответствующую помощь. Сама брошь оснащена магнитной застёжкой и цепочкой для ношения в виде ожерелья.

Во время демонстрации Project Maxwell использовался для выполнения различных задач: получения маршрута, заказа поездки через Uber и отправки текстового сообщения. Во всех этих случаях пользователю не требовалось доставать телефон — достаточно было просто обратиться к броши голосом. Затем брошь выполняла задачи от начала до конца. Хотя на первый взгляд это может показаться похожим на любого другого ИИ-помощника, ключевое отличие заключается в том, как именно задача была выполнена.

Хотя для выполнения задачи не нужно смотреть на телефон, при желании пользователь может увидеть, как именно Qira последовательно рассуждает и проходит каждый этап для полного завершения задачи. В примере с Uber: Qira открыл приложение Uber, ввёл запрошенное место назначения, выбрал способ оплаты и полностью оформил запрос на подачу транспорта.

Аналогичным, хотя и более простым образом, была реализована отправка текстового сообщения: Qira открыл нужное приложение, выбрал верного контакта, ввёл текст в поле ввода и отправил его. Такая агентная помощь, воплощённая в лёгком и удобном форм-факторе, могла бы стать полезным спутником на весь день.
Аноним # OP 08/01/26 Чтв 05:42:36 1482421 119
image 1057Кб, 1680x944
1680x944
Пользователи Alexa+ теперь могут общаться с ИИ-ассистентом Amazon в веб-интерфейсе — вот как и где это сделать.

Компания Amazon анонсировала специальный веб-сайт для Alexa+, что позволяет пользователям взаимодействовать с виртуальным ассистентом подобно тому, как это делается с ChatGPT.

Amazon редко делает крупные анонсы во время выставки CES, однако в этом году компания не намерена оставаться в тени. Спустя несколько месяцев после предоставления Alexa+ в рамках программы раннего доступа Amazon официально запустила сайт Alexa.com — веб-платформу, на которой пользователи могут общаться с виртуальным ассистентом так же, как с другими ИИ-чатботами.

Если вы пользовались любыми из генеративных ИИ-чатботов, появившихся за последние три года, то уже знакомы с процедурой перехода на веб-сайт для взаимодействия с ними. Хотя у Google есть веб-сайт для Gemini, у других виртуальных ассистентов, таких как Alexa и Siri, его до недавнего времени не было — отчасти потому, что им также недоставало широких возможностей генеративного ИИ.

Можно пока не ожидать, что Siri обретёт генеративные возможности в ближайшее время, тогда как Alexa получила «генеративную ИИ-прививку» ещё несколько месяцев назад и сейчас активно используется пользователями по всей территории США в рамках программы раннего доступа. За последние девять месяцев Alexa+ набрала десятки миллионов пользователей, сообщил Дэниел Рауш (Daniel Rausch), вице-президент Amazon по направлению Alexa и Echo.

«Мы видим, что клиенты используют Alexa Plus везде и всякий раз, когда только могут», — сказал Рауш изданию. «На сайте Alexa.com клиенты получают доступ к этому опыту и видят всё, на что они полагаются в Alexa у себя дома: свои списки, напоминания, управление умным домом, а также все документы, которые они отправили Alexa».

Однако одно из главных обещаний Amazon относительно Alexa+, данных ещё в прошлом году, реализовалось только сейчас: возможность использовать сервис через веб-сайт. Это значительно расширяет сферу его применения за пределы традиционных средств, в первую очередь мобильного приложения Alexa — хотя и само приложение тоже скоро получит обновление. Обе версии Alexa+ — как веб-версия, так и версия приложения — будут иметь ориентированный на чат-формат интерфейс, поддерживающий как голосовое, так и текстовое взаимодействие, персонализированный под вашу учётную запись и отказывающийся от традиционной плиточной структуры интерфейса приложения Alexa.

Как подтвердил Рауш, для использования веб-версии Alexa+ требуется вход в учётную запись — это обеспечивает непрерывность функциональности на всех ваших совместимых устройствах и персонализированный опыт. Хотя он отметил, что в будущем возможно появление возможности использования сервиса без авторизации, именно учётные записи обеспечивают доступ к управлению профилем и интеграции на разных устройствах.

По словам Рауша, 76 % взаимодействий с Alexa+ приходятся на уникальные задачи, которые может выполнить только Alexa — а именно, эксклюзивные функции пользователя, интеграции со сторонними сервисами и управление устройствами умного дома, работающими исключительно с Alexa. Остальные 24 % задач могут быть решены практически любым ИИ-чатботом, однако, как подчеркивает Рауш, делается это без удобств, которые обеспечивает Alexa: возможность голосового управления через колонку у вас дома или через ваш смартфон.

Доступность
Amazon не раскрывает публичных сроков окончания программы раннего доступа к Alexa+, которая после выхода в общую продажу будет стоить 20 долларов США в месяц, а также будет предоставляться в качестве бонуса подписчикам Prime.

Alexa+ поддерживает устройства с функцией Alexa, выпущенные более чем за последние семь лет, обеспечивая совместимость устаревших, текущих и будущих аппаратных решений с новым генеративным ИИ-ассистентом. Это делает Alexa+ более доступным для широкого круга потребителей, позволяя максимально эффективно использовать имеющиеся устройства и наслаждаться стабильным сервисом на нескольких поколениях оборудования.

Список сторонних интеграций обновлённого ИИ-ассистента продолжает расти: к нему теперь присоединились Expedia, Angie’s List, Yelp и Square. Как заявил Рауш, видение будущего Alexa+ включает предоставление уникальных функций, единообразия работы на всех устройствах и в любых местах, а также всестороннюю стратегию интеграции. В соответствии с этой стратегией Alexa+ вскоре станет доступна на Echo Frames, Echo Buds и новой веб-платформе.
Аноним # OP 08/01/26 Чтв 05:58:13 1482423 120
image 135Кб, 1528x655
1528x655
Математик Бартож Наскрецкий сообщает, что GPT-5.2 Pro стал настолько компетентным, что он «едва ли может найти какую-либо нетривиальную сложную задачу», которую эта модель не смогла бы решить за два часа, заявив при этом: «Сингулярность уже близко».

Бартож Наскрецкий:
Либо в OpenAI работает круглосуточно команда лепреконов и ведущих математиков, решающих задачи из набора FrontierMath, либо GPT-5.2 Pro действительно достиг такого уровня мастерства в математике. Я едва ли могу найти какую-либо нетривиальную сложную задачу, на которую модель не смогла бы дать ответ после 1–2 часов взаимодействия.

Сингулярность уже близко…
Аноним # OP 08/01/26 Чтв 06:03:03 1482425 121
image 144Кб, 480x360
480x360
xAI подтвердила, что Grok 5 в настоящее время находится в стадии обучения.

xAI стремительно ускоряет свои достижения в создании передовых ИИ-систем.

xAI завершила расширенный раунд финансирования серии E, превысив целевой объём в $15 млрд, и привлекла $20 млрд. Инвесторами раунда выступили Valor Equity Partners, Stepstone Group, Fidelity Management & Research Company, Qatar Investment Authority, MGX и Baron Capital Group, а также другие ключевые партнёры. Стратегическими инвесторами раунда стали NVIDIA и Cisco Investments, продолжающие оказывать xAI поддержку в быстром масштабировании нашей вычислительной инфраструктуры и создании крупнейших в мире кластеров GPU.

2025 год стал годом прорывного ускорения: команда xAI продвинула множество ключевых инициатив, включая:

Центры обработки данных: xAI продолжает расширять своё решающее преимущество в вычислительных мощностях, развернув самые крупные в мире ИИ-суперкомпьютеры Colossus I и II, и завершила год, имея более одного миллиона GPU-эквивалентов H100.

Серия Grok 4: наши передовые языковые модели создаются на базе передовой учебной инфраструктуры, работающей на Colossus. xAI вывела обучение с подкреплением на беспрецедентный уровень, усовершенствовав интеллект, логику и самостоятельность Grok с использованием вычислительных ресурсов масштаба предобучения.

Grok Voice: наиболее интеллектуальный голосовой агент, обеспечивающий ведение диалогов в режиме реального времени в голосовом режиме и доступный через API агента. Grok Voice обеспечивает низкую задержку речи на десятках языков, вызов инструментов и доступ к данным в реальном времени, обслуживая миллионы пользователей в мобильном приложении Grok и в транспортных средствах Tesla.

Пользовательские метрики: наша аудитория охватывает примерно 600 миллионов активных пользователей в месяц в приложениях 𝕏 и Grok.

Grok Imagine: наши стремительно работающие модели генерации изображений и видео, обеспечивающие передовые возможности мультимодального понимания, редактирования и создания контента.

Grok на платформе 𝕏: использование платформы 𝕏 для понимания происходящего в мире в реальном времени с применением самой мощной на сегодняшний день модели xAI.

В перспективе Grok 5 в настоящее время находится в стадии обучения, и мы сосредоточены на запуске инновационных новых продуктов для потребителей и предприятий, использующих мощь Grok, Colossus и 𝕏 для трансформации того, как мы живём, работаем и отдыхаем.

Данные средства финансирования позволят ускорить создание нашей ведущей в мире инфраструктуры, обеспечить быструю разработку и внедрение трансформирующих ИИ-продуктов, охватывающих миллиарды пользователей, а также поддержать прорывные исследования, продвигающие основную миссию xAI: Понимание Вселенной.

xAI активно проводит набор персонала и ищет ориентированных на миссию специалистов, готовых присоединиться к небольшой команде, сосредоточенной на достижении трансформационного влияния на будущее человечества.
grok 5 ч1 Аноним # OP 08/01/26 Чтв 06:19:54 1482427 122
image 432Кб, 686x386
686x386
Разработка Grok 5 от Илона Маска — AGI ближе, чем вы думаете

Вы, вероятно, устали от того, что компании, работающие в сфере ИИ, бесконечно затягивают выпуск следующей модели, лишь для того чтобы в итоге представить разочаровывающие, едва заметные улучшения.

Пока все остальные движутся со скоростью улитки, команда Илона выпускает масштабные обновления каждые несколько месяцев. И вот в чём суть: Grok 5, возможно, действительно достигнет ИОИ (искусственного общего интеллекта), и это произойдёт намного раньше, чем вы думаете.

От нуля до лидера: скоростной маршрут Grok

Для начала — как XAI за два года прошла путь от нуля до потенциального превосходства над всеми остальными.

Скоростной маршрут Grok. Вот что изменит ваше представление о гонке ИИ. Большинство компаний придерживаются медленной, ледникового масштаба модели: объявили о модели, заставили всех ждать год, затем выпустили нечто едва улучшенное. Но XAI играет в совершенно другую игру.

Ноябрь 2023 года: запуск Grok 1 — их первого чат-бота, вдохновлённого «Автостопом по Галактике», с остроумной и саркастичной подачей. Неплохой старт, но ничего революционного.

Но вот где всё становится по-настоящему интересным. Всего через 6 месяцев, в мае 2024 года, появляется Grok 1.5 с огромным контекстным окном в 128 000 токенов и значительно улучшенными способностями к логическому рассуждению. Это всё равно что перейти от способности запомнить короткий разговор к умению удерживать в памяти целую книгу. Впечатляет.

Но на этом команда не остановилась. Через три месяца выходит Grok 2. Именно тогда все начали обращать внимание: серьёзные улучшения в программировании и логическом мышлении, встроенные возможности компьютерного зрения, интегрированная генерация изображений с помощью модели Flux. Но самое главное — он соответствовал или даже превосходил GPT-4 Turbo по ключевым показателям. Компания возрастом в один год вышла на один уровень с флагманской моделью OpenAI.

Февраль 2025 года: Grok 3 запускается с вычислительной мощностью, в 10 раз превосходящей Grok 2, обученная на их кластере Colossus из 200 000 GPU. Были внедрены режимы Think («Думать»), визуализирующие пошаговые цепочки рассуждений, что сделало модель экспоненциально более полезной для решения сложных задач.

Затем, 9 июля 2025 года, появляется Grok 4, и XAI называет её самой интеллектуальной моделью в мире. Прорыв? Встроенное использование инструментов — не прикрученные «сверху» функции, а интерпретатор кода и веб-поиск, интегрированные непосредственно в процесс обучения модели. Контекстное окно удвоили — до 256 000 токенов, а в голосовой чат добавили возможность «видеть» через камеру и анализировать изображение в реальном времени.

Обратите внимание на закономерность:
- Grok 1 → 1.5: 6 месяцев
- Grok 1.5 → 2: 3 месяца
- Grok 2 → 3: 6 месяцев
- Grok 3 → 4: 5 месяцев

Каждый релиз приносит качественно новые возможности, расширяющие границы возможного. А Grok 5? Выходит ещё быстрее.


Но самое интересное — далее. Середина сентября 2025 года, Маск снова пишет в X: «Обучение Grok 5 начнётся через несколько недель».

И, судя по тому, что нам известно от инсайдеров отрасли и утечкам, Grok 5 формируется как поколенческий скачок, способный переопределить возможности ИИ.

Так что же именно создаёт XAI?

Первое крупное обновление — это мультимодальное рассуждение и генерация, и именно здесь Grok 5 может достичь наибольшего эффекта. У Grok 4 уже есть впечатляющие мультимодальные функции — Grok Imagine для изображений и видео, но, согласно отраслевым отчётам, Grok 5 выведет это на совершенно иной уровень.

Согласно утечкам, Grok 5 устранит главные недостатки в обработке визуальных и видео данных. Речь идёт о понимании изображений, способном соответствовать или превзойти GPT-5, и встроенной генерации видео, интегрированной прямо в основную архитектуру — а не просто «привинченной сверху».

И это не домыслы. Маск активно переманивает экспертов по чипам из команды Tesla Dojo — людей, создающих специализированное оборудование для ИИ-выводов. Они оптимизируют всю систему — от кремния до уровня приложения.

Но вот что действительно захватывает: речь идёт не просто о лучших изображениях или видео. Нас ожидает настоящее мультимодальное рассуждение, при котором модель будет бесшовно объединять визуальную, аудио- и текстовую информацию.

Представьте, что вы устно описываете сложную инженерную схему, одновременно демонстрируя её в камеру. Модель визуально распознаёт схему, генерирует код на основе увиденного и объясняет вам решение — всё в рамках одного диалога. Именно так люди на самом деле решают задачи. И именно к этому стремится Grok 5.

Масштаб и вычислительная мощность: преимущество Colossus

Теперь поговорим об инфраструктуре — ведь именно здесь преимущество XAI становится совершенно очевидным.

Ожидается, что Grok 5 будет использовать суперкомпьютер следующего поколения от XAI — Colossus 2, о котором ходят слухи, что он преодолеет гигаваттный порог энергопотребления — что примерно эквивалентно энергоснабжению небольшого города. Grok 3 уже обучалась на 200 000 GPU. Grok 5, вероятно, задействует ещё больше вычислительных ресурсов.

Что это даст? Более обширные знания, улучшенные возможности в реальном времени и способность мгновенно обрабатывать «живые» данные из X — преимущество, недоступное никакому другому ИИ.

В одном из отчётов отмечается, что разработка Grok 5 нацелена на достижение ИОИ с помощью более чем 200 000 GPU H100 и интеграции данных в реальном времени. Масштаб беспрецедентен — даже по сегодняшним меркам.

Вот что даёт такой масштаб: дополнительные вычислительные мощности означают не просто более умную модель. Речь — об экспоненциально более сложных цепочках рассуждений, лучшей связности в длительных взаимодействиях и потенциальных *эмерджентных возможностях*, недоступных менее мощным моделям. Мы уже наблюдали это при переходе от GPT-3 к GPT-4, но XAI продвигается ещё дальше.

Заявления об ИОИ: ажиотаж или реальность?

Давайте обсудим слона в комнате. В октябре 2025 года Илон Маск заявил, что его текущая оценка вероятности достижения ИОИ Grok 5 составляет 10% — и продолжает расти. Более того, он прямо сказал: *«Grok 5 станет ИОИ или чем-то неотличимым от ИОИ»*.

Маск известен оптимистичными прогнозами, а термин «ИОИ» постоянно используется без чётких определений. Но вот что XAI действительно создаёт.

Ожидается, что Grok 5 будет использовать новые методы обучения с подкреплением и многоагентные тренировочные подходы для решения чрезвычайно сложных многоэтапных задач. Речь идёт о работе над трудными проблемами как у исследователя с учёной степенью доктора наук — а не просто как у чат-бота.

Анализ Grok 4.2 — внутренней тестовой модели — указывает, что архитектура делает акцент на удлинении цепочек рассуждений, итеративном решении задач и агентном использовании инструментов. Grok 5 усилит эту тенденцию.

Что означает *агентное использование инструментов*? Модель не просто *имеет доступ* к инструментам. Она *стратегически решает*, когда и как их применять. Она разбивает сложные задачи на части, использует интерпретатор кода для одного этапа, ищет недостающую информацию в вебе, синтезирует всё и проверяет собственную работу. Именно так люди решают задачи.

Станет ли Grok 5 *истинным* ИОИ? Скорее всего, нет — по крайней мере, не в смысле соответствия человеку во всех областях. Но может ли она быть *неотличимой от ИОИ* в большинстве практических ситуаций? На самом деле — вполне возможно. Если она способна выполнять подавляющее большинство когнитивных задач, с которыми сталкиваются специалисты — программирование, анализ, исследования, решение проблем — имеет ли значение, является ли это «истинным» ИОИ или лишь чрезвычайно мощным узкоспециализированным ИИ?
grok 5 ч2 Аноним # OP 08/01/26 Чтв 06:21:22 1482429 123
image 520Кб, 1280x720
1280x720
image 350Кб, 1292x676
1292x676
image 1480Кб, 1200x647
1200x647
>>1482427
Контекст, память и персонализация

Вот что упускает большинство при обсуждении Grok 5.

Каждая итерация значительно увеличивала размер контекстного окна. Grok 4 поддерживает 256 000 токенов через API, а их Grok 4 Fast запущена с ошеломляющим контекстным окном в 2 миллиона токенов.

2 миллиона токенов — это примерно 1,5 миллиона слов, или 3000 страниц текста. Вы можете загрузить в неё сразу несколько учебников, десятки научных статей, целые кодовые базы и полную проектную документацию — и при этом сохранить связность.

Но сама по себе длина контекста — не самое интересное. Согласно слухам, Grok 5 пойдёт дальше, одновременно улучшая функции постоянной памяти. Они разрабатывают возможности «Проекты», позволяющие модели запоминать прошлые взаимодействия и сохранять контекст в течение нескольких сессий.

Слухи упоминают более чёткую долгосрочную память и возможность настраивать «личность». На практике? Это ИИ, который помнит ваши предпочтения, понимает ваш стиль работы, вспоминает предыдущие проекты и адаптирует способ общения под вас — не только в одном диалоге, но и в течение недель или месяцев.

Это превращает чат-бота в подлинного личного помощника. В сочетании с другими возможностями Grok 5 — мультимодальное понимание, продвинутое рассуждение, использование инструментов — перед нами система, способная кардинально изменить повседневную работу специалистов.


Встроенные инструменты и многоагентные системы

Теперь перейдём к одному из самых впечатляющих аспектов: встроенному использованию инструментов и многоагентным системам.

Grok 4 уже обучился использовать инструменты — такие как интерпретатор кода и веб-поиск — встроенно, не как внешние плагины, а как базовые возможности, заложенные в процесс обучения. Grok 5 развивает эту идею и выводит её на новый уровень.

Аналитики предполагают, что она сможет одновременно вызывать несколько API, выполнять код внутренне и функционировать как многоагентная ИИ-система, где специализированные подмодели координируют выполнение различных задач.

Конкретный пример: дайте Grok 5 сложную задачу по разработке ПО — сбор требований, проектирование архитектуры, написание кода, тестирование, отладка, документирование. Вместо одного монолитного прохода Grok 5 сможет координировать работу специализированных агентов: один сосредоточится на генерации кода, другой — на тестировании, третий — на документации, а координатор будет обеспечивать бесперебойное взаимодействие всех компонентов.

Такой многоагентный подход позволит решать сверхсложные проекты и исследовательские задачи в реальном времени — далеко за пределами возможностей современных чат-ботов. И дело не только в программном обеспечении. Представьте применение этого подхода в бизнес-анализе, научных исследованиях или креативных проектах, требующих множества специализированных навыков.

Встраивая эту многоагентную архитектуру непосредственно в модель, XAI, возможно, создаёт нечто, что по-настоящему отражает, как люди мыслят и решают задачи.

Сравнение Grok 5 с предыдущими версиями

Каждый выпуск Grok вносил качественно новые возможности:
- Grok 2 принёс изображения и видео
- Grok 3 внедрил режимы Think
- Grok 4 добавил встроенное использование инструментов и интеграцию знаний в реальном времени

Предполагаемые улучшения Grok 5 — продвинутое понимание видео и аудио в сочетании с улучшенным логическим мышлением и многоагентной координацией — представляют ещё один крупный скачок вперёд.

Сам темп выпусков многое говорит: Grok 5 появится через несколько месяцев после Grok 4. Это свидетельствует о стремлении XAI срочно обойти конкурентов.

Конкурентная обстановка делает такие агрессивные сроки необходимыми: у OpenAI в разработке GPT-6, Google продвигает Gemini, у Anthropic — Claude. Гонка ИИ ускоряется экспоненциально — и XAI решительно настроена возглавить её, а не просто участвовать.

Ожидания от релиза и чего ждать

Итак, когда вы сможете сами опробовать Grok 5?

Судя по временным рамкам Маска — в первом квартале 2026.

Скорее всего, сначала она появится для премиум-пользователей и корпоративных партнёров — как и в предыдущих релизах. Анонсы, вероятно, будут опубликованы в X или в блоге XAI, возможно, после ограниченного бета-тестирования.

На что нужно обратить внимание:
1. Результаты тестов — как Grok 5 покажет себя против GPT-5, Claude и Gemini?
2. Практическая применимость — будет ли многоагентная система работать плавно или окажется переоценённой?
3. Цены и доступность — будет ли она доступна широкой публике по разумным ценам или окажется за премиум-барьером?

Что известно точно: аналитики и намёки Маска рисуют картину модели, по-настоящему нацеленной на производительность, сопоставимую с ИОИ: мультимодальной, масштабной, оптимизированной для сложного рассуждения и способной к многоагентной координации.

Если хотя бы половина обещанного сбудется, Grok 5 может стать важнейшей вехой в гонке вооружений ИИ.

Вот что вам нужно знать: Grok 5 — самый амбициозный проект XAI на сегодняшний день. Она появится всего через несколько месяцев после Grok 4 и обладает возможностями, способными переопределить само понятие ИИ. Речь идёт о продвинутом мультимодальном понимании, рассуждении на уровне ИОИ, гигантском масштабе, постоянной памяти и многоагентной координации — всё это в одном релизе.

Точна ли оценка Маска в 10% вероятности ИОИ — или это оптимизм — не столь важно. Одно ясно: XAI движется быстрее и напористее, чем кто-либо ожидал, — и это заставляет каждую компанию в сфере ИИ ускорять свои собственные планы.

Ландшафт искусственного интеллекта к концу 2026 года может выглядеть радикально иначе, чем сегодня, — и Grok 5, возможно, станет катализатором этих изменений.
Аноним 08/01/26 Чтв 06:48:37 1482433 124
>>1482429
>4 Fast запущена с ошеломляющим контекстным окном в 2 миллиона токенов.
Ошеломляющие пиздоболие. Обычные костыли и саммари. Вот когда увижу у него видосы по 20 секунд, тогда поверю что есть свои наработки, а не реверс инжжиниринг чужих.
Аноним 08/01/26 Чтв 08:48:21 1482446 125
>>1482411
Ну там ковид + Байден, из-за них коррективы. А так, в 2030 сможешь сесть на гиперлуп, доехать за пару часов до космодрома, и отправиться на Макс. А к 2040 его полностью терраформируют, там можно будет без скафандров гулять
Аноним 08/01/26 Чтв 08:58:22 1482451 126
>>1482429
>Слухи упоминают более чёткую долгосрочную память и возможность настраивать «личность». На практике? Это ИИ, который помнит ваши предпочтения, понимает ваш стиль работы, вспоминает предыдущие проекты и адаптирует способ общения под вас — не только в одном диалоге, но и в течение недель или месяцев.
Это можно реализовать как действительно прорывным образом, так и в виде примитивной поделки. Почему-то я склоняюсь к последнему. Примитивная в том смысле, что модель подготавливает небольшой сжатый блок для контекста, где описываются предпочтения, и хранит его, а потом подгружает, когда пользователь активируется. Хранить где-нибудь этот блок месяцы-годы проблемы не составляет.

Реальным прорывом может быть, если модели начнут дообучаться на данных пользователя, под конкретного пользователя. Но не думаю, что это про x.AI, не сейчас по крайней мере
Аноним 08/01/26 Чтв 09:25:51 1482461 127
Аноны, кто следит за новостями о нейросетях и в целом шарит за них. Скажите, мы уже с ГигаГрефом проиграли эту гонку?

На сколько мы остаем от ведущих топ три нейронок?
Аноним 08/01/26 Чтв 09:32:26 1482464 128
>>1482423
Из какого Бомбея он пишет?
Аноним 08/01/26 Чтв 09:35:46 1482467 129
>>1481832
>>1481835
Тут действительно есть какие-то ИИ-шизы, причём не из тех, кто технологиями интересуется, а кому удовольствие потирать и приговаривать "сдохните, суки, все сдохните". Подозреваю, что там обычно никакой занятости и ничего, только пенсия по шизе или просто от мамы.

Одновременно многие деятели от ИИ ведут себя откровенно опрометчиво, явно не изучая историю, вроде Альтмана и Маска, вещая на широкую публику "мы вас всех заменим, вы больше не нужны, у вас нет будущего". То есть они даже не особо пытаются подавать, что полезного могут сделать для людей, они прямо позиционируют себя как врагов.

Люди, у которых нет будущего, могут быть очень опасны. Ну придут завтра политики к власти под лозунгами "изымем технологии под общественный контроль, изымем собственность у миллиардеров", и чего они будут делать? А возможны и другие варианты, что уже бывало в истории не один раз.

Тот же луддизм утих в своё время, потому что всё-таки людям нашлось место, а технологии несут пользу. Если же места людям не будет, а в добавок им ещё будут говорить издевательски "вам больше нет места", развитие может быть совсем другим.
Аноним 08/01/26 Чтв 09:45:23 1482472 130
>>1482464
По-моему в целом это похоже на правду. В смысле, что ИИ в накрученных режимах может решать любые задачи для студентов-аспирантов. Это, конечно, скорее учебные задачи, подходы к решению которых известны и описаны, но могут.

В основном задачи под мехмат нейросети могут щёлкать даже в среднем режиме, не в pro-варианте

Но здесь просто надо менять отношение к математике, вообще я скорее рад, что вот к этому идёт. Особенно в (пост)советской традиции, вроде на западе этого меньше, стали сводить математику к формальным доказательствам и выводам, а мне кажется, что всё-токи математика чуть про другое, эти доказательства больше инструмент.

И есть момент, что научные области "одноразовые", тут новизна нужна. Ты что-то придумал, решил, это ново, но потом это уже не ново, больше в решении не нуждается. И в какой-то момент оказывается, что всё уже придумано и решено, что для чего-то нужно. Очень многое из того, чем занимаются математики, на самом деле никому не нужно. Аргументация обычно на уровне "сейчас не нужно, но вполне может быть через 100 лет понадобится", хотя тут смысла нет реального.

Вот что-то принципиально новое и при этом полезное сложно придумать.
Аноним 08/01/26 Чтв 09:54:24 1482477 131
>>1482472
На правду-то может и похоже, но мнение какого-то чехополяка, который внезапно всплывает в треде с экспертным высказыванием по мановению ОПа, создает особую атмосферу.
Аноним 08/01/26 Чтв 10:10:55 1482484 132
>>1482477
попробовал про него что-то поискать, непосредственно как математик вроде сильно не засветился. Он как-то участвует в проекте FrontierMath, что придумывает бенчмарки для ИИ.

Ещё недавно он высказывался, что ИИ "максимум продвинутый калькулятор", GPT 4o могла решить только 6% их проблем, а другие вообще ничего. А вот теперь GPT 5.2 Pro типа уже спокойно решает.

Правда есть нюанс. Проект финансируется OpenAI. Что скорее закрывает некоторые вопросы, а не открывает.

Под любой бенчмарк можно модель натаскать, конечно. А независимым экспертом он, очевидно, быть не может, конфликт интересов.
Аноним 08/01/26 Чтв 10:16:04 1482491 133
image 127Кб, 2157x401
2157x401
>>1482477
>>1482464
Обычный европейский профессор математики, работал в Англии и Германии, теперь в Варшаве.
Аноним 08/01/26 Чтв 10:18:25 1482492 134
image 207Кб, 2122x440
2122x440
Аноним 08/01/26 Чтв 10:21:27 1482493 135
>>1482461
>Скажите, мы уже с ГигаГрефом проиграли эту гонку?
Это не спорт, тут нет самоцели быть первыми, а нужен результат.

Пока по-моему есть две сверхдержавы, США и Китай, где вот действительно ресурсы и технологии, и есть второй эшелон, как РФ или Франция. Ещё больше тех, кто вне игры целиком.

Но тут надо учитывать, что всё-таки как-минимум аппаратные ресурсы нужны огромные, которые есть в США и в меньшей степени в Китае, и с которыми не очень в РФ. А без этого никуда. Так что наверное очень неплохо, раз есть своё и с нуля

Не тестировал, на openrouter нет, есть на huggingface, но я даже ими пользоваться не умею, через ollama только старые варианты, да и комп у меня слабый для нормальных моделей
Аноним 08/01/26 Чтв 10:25:04 1482496 136
>>1482493
Кстати, а реально, кто-нибудь GigaChat 3 тестировал? Какое мнение? Особенно большой вариант. не мини модель?
Аноним 08/01/26 Чтв 10:31:18 1482500 137
>>1482461
В россии нет датацентров, нвидиа рубинов и прочего, даже прорывных исследований нет как у китайцев, какие нейронки. Максимум лору какую нибудь на китайский дипсик натянут и назовут аналоговнетом ГигаМегаАИ. В россии будут внедрять готовые китайские опенсорс нейронки и решения, тут еще есть какие-то варианты. Своего ничего не будет. Самый вероятный варик наберут из китая нейронок для слежки за всеми типа бюджетного палантира на китайском движке, тем все и ограничится. Остальные же будут юзать какой-нибудь китайский АПИ от жипу, благо там не блочат как на западе.
Аноним 08/01/26 Чтв 10:38:01 1482502 138
>>1482500
>В россии
хохол не палится
Какие-то ресурсы есть, не как в Китае, но наверное не хуже, чем у французов. Исследовательские центры тем более есть, на самом деле база довольно хорошая по этой части. Всё-таки в РФ всегда было очень-очень сильное IT под свои нужны, а не просто программисты на аутсорс. GigaChat 3 по описанием смотрится чем-то сильным и интересным, это модель полностью с нуля, не дообученная, но надо, чтобы кто-то нейтральный это дело тестировал.

В общем всё совсем не так плохо, как могло бы быть. Но наверное сейчас идёт вопрос о том, за кем третье место, первый два прочно за США и Китаем
Аноним 08/01/26 Чтв 10:44:05 1482505 139
>>1482472
В целом похоже на раскрытие парадокса моравека применительно к мотимотике. Я уже давно писал что область мотимотики в целом для даунов. Оно кажется сложным потому что а) большинство гуманоидов имеющих отношение к ее преподованию это аутисты, т.е. умственно отсталые, и не способные в коммуникацию вообще; б) оно засрано нечитаемой нотацией из средневековья и в целом из времен когда user friendly даже не существовало на уровне концепции; в) учебным процессом типа "давайте просто начнем внезапно дрочить школяров квадратичными уравнениями потому что какое-то дерьманское говно в 19 веке решило что это даст его насыи +3 к стрельбе из артиллерии".

Я просто в взрослом возрасте пытался переучивать мотиматику с нуля, и меня просто поразило что то на что в школе тратят буквально годы нормальным человеком проходится самостоятельно за неделю. Все 3.5 нормальных препода от области об этом говорили десятилетиями, что изучение мотиматики в целом выглядит как дурка. Ну и вот вам наглядный результат под нос от нейросеточки.

>Особенно в (пост)советской традиции, вроде на западе этого меньше, стали сводить математику к формальным доказательствам и выводам
А на кой хер она вообще тогда нужна чтобы не потренировать мозги формальными доказательствами и выводами? Чисто циферки подсчитать имея современные неограниченные мощности можно вообще в лоб без какой-либо мотиматики, через ту же симуляцию монте-карло и аналогичные брутфорс алгоритмы. На крайняк туда пару оптимизонов впихнуть чтобы не рыло там где перекопано.
Аноним 08/01/26 Чтв 10:44:52 1482507 140
>>1482502
IT поле держалось на дешевых программистах и работу на западного заказчика, тут же не программисты нужны, а фундаментальная наука + мощные датацентры. В РФ с этим глухо все. Плюс отсутствие подходящей бизнес среды, чтобы такие стартапы вообще развивались.

В РФ только вот такая среда для ИИ:
В 2022-м я сказал совету директоров, что нам нужна своя LLM. Своя. Суверенная. На триллион параметров.
Почему триллион? Потому что у GPT-4 — триллион. Я прочитал это в телеграм-канале. Канал назывался «ИИ на минималках». 50 000 подписчиков. Значит, правда.
Мне выделили бюджет. 2,3 миллиарда рублей. Я сказал «это инвестиция в технологический суверенитет». Никто не спросил, что это значит.
Я тоже не знал.

Купили 256 карточек V100. Не A100. V100. Потому что A100 под санкциями. V100 — нет. V100 вышли в 2017-м. Но я сказал «проверенное решение». Проверенное означает старое. Старое означает дешёвое. Дешёвое на вторичке в Дубае.

Наняли команду. 40 человек. ML-инженеры. Большинство не работали с LLM. Но у них были сертификаты ОТУСА. Сертификаты — это компетенции. Компетенции — это строчка в отчёте.

Тимлид спросил, почему триллион параметров на 256 V100. Сказал, что у Meta на LLaMA 70B было 2000 A100. Я сказал «у нас другой подход». Он спросил какой. Я сказал оптимизированный. Он спросил как именно оптимизированный. Я назначил ему встречу по пересмотру грейда. Он уволился. Я написал в отчёте «оптимизация штата».

Восемь месяцев обучения. Модель не сходилась. Лосс был плоский. Инженер сказал, что данных мало. У нас было 200 гигабайт текстов. Госзакупки, диссертации, Лента.ру. Он сказал, что у LLaMA — 2 триллиона токенов. Я сказал «качество важнее количества». Это не так. Но звучит мудро.
На девятый месяц модель заговорила.

Она говорила странное. На вопрос «столица Франции» отвечала «в соответствии с пунктом 3.2 технического задания». На вопрос «кто президент России» выдавала «Дмитрий Анатольевич Медведев». Датасет был старый. Я назвал это «историческая глубина модели». Инженеры называли это по-другому. Но их мнение не шло в презентации.

Запустили в прод. Назвали «НейроРусь-1Т». Лого — медведь с нейросетью в голове. Лого стоило 4 миллиона. Агентство сказало, что медведь символизирует «мощь российского ИИ». Я согласился. Медведи мощные.

Первый месяц. 3 000 запросов. 2 800 — от тестировщиков. 150 — от журналистов. 50 — случайные. NPS — минус 40. Я убрал NPS из дашборда. Метрика была «не релевантна стратегическим целям».

Купили статью в РБК. 1 миллион рублей. Заголовок: «Российская нейросеть НейроРусь составит конкуренцию ChatGPT». Журналист спросил, можно ли потестировать. Я сказал «после публикации». Он опубликовал.

В статье было написано «по словам разработчиков, модель превосходит западные аналоги в понимании российского контекста». Это я сказал. Я не разработчик. Но они не возражали.
РБК поставили статью в раздел «Технологии». 400 000 просмотров. Комментарии отключили превентивно. Негатив не соответствовал редакционной политике.

Четвёртый месяц. Поняли, что модель хуже ГигаГпт 6. ГигаГпт 6 хуже Claude Sonnet. Задача: создать бенчмарк, на котором мы победим. Назвали «РусКонтекст-1000». Тысяча вопросов о российской культуре. Кто написал «Войну и мир». Столица Бурятии. Как зовут кота Медведева.
Запустили бенчмарк. НейроРусь набрала 34%. GPT-4 набрал 67%. Наш бенчмарк. Мы проиграли на своём поле.


Шестой месяц. Стали покупать ГигаГпт 6 за 990 рублей за 1м токенов. Это как Claude Sonnet в API. Только ГигаГпт 6 хуже Sonnet в три раза. Я измерил. На вопрос «напиши код сортировки» ГигаГпт 6 выдал код с багами. Sonnet - рабочий кода. Но Sonnet - иностранный. Иностранный - плохо. Баги - отечественные. Отечественное - хорошо.

Купили 4 000 лицензий ГигаГпт 6 . 47 миллионов в год. За качество Claude по цене Claude, но в три раза хуже Claude. Зато в реестре отечественного ПО. Реестр важнее. Качество - субъективно. Реестр - объективен.

Старший разработчик спросил, почему не DeepSeek. DeepSeek - бесплатный. DeepSeek лучше ГигаГпт 6 . Я сказал «китайские бэкдоры». Он спросил какие именно. Я сказал «все». Он спросил, есть ли пруфы. Я сказал «есть, но засекречены». Он спросил кем. Я сказал «органами». Он не уточнил какими. Органы — это серьёзно.

Другой разработчик притащил Qwen 2.5. Показал, что он умнее НейроРуси в пять раз. Я сказал «некорректное сравнение». Он спросил почему. Я сказал «разные методологии оценки». Он спросил какие методологии у нас. Я сказал «сертифицированные». Он попросил сертификаты. Я назначил ему встречу с HR. Тема: «Соответствие корпоративным ценностям». Он понял. Он удалил Qwen.

В июне — ПМЭФ. Тигран Греф будет выступать. Я буду рядом. На слайде за его спиной — наш кейс. Медведь с нейросетью. 40 000 часов. График вверх и вправо.
В сентябре — совещание у Президента. Тема: «Технологический суверенитет в сфере искусственного интеллекта». Я подготовил речь. Три минуты. 400 слов. Ключевые: суверенитет — 7 раз, безопасность — 5 раз, прорыв — 4 раза, мировой уровень — 3 раза.

Покажу демо. НейроРусь ответит на вопрос «Какие задачи стоят перед Россией в сфере ИИ?». Мы зашили ответ хардкодом. На случай галлюцинаций. Галлюцинации перед Президентом - это не галлюцинации. Это статья.

Путин кивнёт. Кивок - это одобрение. Одобрение - это госконтракты. Госконтракты - это ещё 5 миллиардов. 5 миллиардов - это ещё три года. Три года - это ещё 15 отчётов. 15 отчётов - это еще 4м рублей премии в конце года. Я куплю квартиру в выхино.
Аноним 08/01/26 Чтв 10:48:21 1482511 141
>>1482507
>фундаментальная наука
С этим хуево абсолютно везде кроме китая, а через 10 лет будет хуево и в китае. Из лучшей кореи будете тайком специалистов на аутсорс брать.
Аноним # OP 08/01/26 Чтв 10:55:10 1482520 142
image 2284Кб, 1080x1350
1080x1350
Илон Маск прогнозирует всеобщий высокий доход и социальные волнения по мере того, как искусственный интеллект сделает человеческие профессии ненужными.

Илон Маск утверждает, что стремительное развитие искусственного интеллекта и робототехники кардинально изменит общество, породив крайнюю избыточность благ, одновременно дестабилизировав социальный порядок.

В новом интервью с Питером Диамандисом Илон Маск заявляет, что его долгосрочный прогноз строится на парадоксе: материальные потребности будут удовлетворены, однако смысл человеческого существования окажется подорванным.

«У меня — всеобщий высокий доход и социальные волнения. Вот мой прогноз».

Маск считает, что дестабилизация вызвана просто невероятной скоростью и масштабами перемен, обусловленных развитием ИИ.

«Ну, потому что изменений будет столько, что и представить трудно».

Он предостерегает, что многие из желаемых людьми результатов могут повлечь за собой непреднамеренные последствия.

«Будьте осторожны в своих желаниях — они могут сбыться».

Маск утверждает, что мир, в котором ИИ удовлетворит весь экономический спрос, коренным образом изменит то, как люди воспринимают работу и смысл жизни. В таком мире, по мнению Маска, человеческая работа станет нерелевантной.

«Теперь представьте: если вы действительно получите всё, чего хотите, — разве это та будущая реальность, которой вы желаете? Ведь это означает, что ваша работа больше не будет иметь значения».

Он описывает конечное состояние как нечто выходящее за пределы как традиционного дефицита, так и традиционного процветания.

«Это уже за гранью изобилия, за пределами всего того, что люди вообще способны представить под понятием „изобилие“».

По словам Маска, ограничивающим фактором станет уже не производство и не ресурсы, а конечная природа человеческих желаний.

«Искусственный интеллект и роботы насытят всё человеческое желание».

Комментарии Маска рисуют будущее, в котором искусственный интеллект ликвидирует экономическую нехватку, одновременно ставя острые, до сих пор не решённые вопросы о смысле существования, идентичности и стабильности в мире, где человеческий труд более не является необходимым.
Аноним 08/01/26 Чтв 11:00:07 1482523 143
>>1482507
>IT поле держалось на дешевых программистах и работу на западного заказчика,
Украинское да, российское нет, была сильная разработка под внутренние нужны, ещё с конца 90х всё это идёт. На почти каждый крупный западный сервис существует российский аналог в целом не хуже. Разве что аналогов инсты не было даже близко.

Даже разработка железа своя велась, не чипов, конечно, а своих систем, вроде суперкомпьютеров, там довольно много ведь работы по разработке, помимо самих вычислительных чипов.

Подсанкционные GPU тоже были доступны, в 2024-начале 2025 можно было купить что-то уровне H100-H200. Прямо обычному человеку в обычном магазине, если кошелёк позволяет. Сейчас исчезли из открытой продажи, но 100% завозят. Реальная проблема с закупками была в 2022-23, потом всё стало так или иначе попадать.

В целом проблемы только из-за того, что силовики разные кошмарят, больше от своих достаётся, чем он внешних.

Для разработки софта не всегда работает формула "решает железо". Очень часто можно поднять эффективность в десятки раз, просто продумав работу как следует, оптимизировав. В США скорее всего низко это проработано, потому что железа завались, а вот специалисты стоят диких денег. В Китае и РФ же приучены к тому, что ресурсов может не хватать, и поэтому намного лучше адаптированы к тому, чтобы извлекать максимум из того, что есть.

Короче база сильная.

Для мира в целом это плюс. Хорошо, что появляются разные альтернативные модели, полностью открытые, из разных источников. Все продвинутые американские модели полностью закрыты, а это значит полную зависимость от поставщиков и от их тараканов, что завтра отрубят, и всё, плюс данные утекают. Поэтому открытые модели очень востребованы, и лучше, чтобы они были от независимых разработчиков. Чем больше выбор, тем лучше. Китай, РФ, Франция, уже неплохо.
Аноним # OP 08/01/26 Чтв 11:00:29 1482524 144
image 940Кб, 1556x750
1556x750
Macquarie предупреждает, что имеющихся на данный момент глобальных производственных мощностей по выпуску памяти хватит лишь для поддержки строительства новых ИИ-дата-центров общей мощностью 15 ГВт в течение ближайших двух лет, что вынудит осуществить масштабное расширение производственных мощностей.

Macquarie сделал весьма интересное заявление в своем последнем отчете по рынку памяти.

— Совокупные производственные мощности трех крупнейших производителей памяти достаточны лишь для поддержки строительства примерно 15 ГВт ИИ-дата-центров в течение ближайших двух лет.

— Другими словами, ограничения по памяти, вероятно, вызовут задержки и корректировки сроков реализации проектов ИИ-дата-центров, что может дополнительно усугубить дефицит предложения.
Аноним 08/01/26 Чтв 11:03:33 1482528 145
>>1482524
Лол, они прямо рекомендуют не продавать DRAM, а мариновать ее на складах до момента, когда цены в космос улетят в ближайшие года 2. Похоже скальперы скоро память начнут раскупать вместо видеокарт.
ИИ вытесняют специалистов по продажам ч1 Аноним # OP 08/01/26 Чтв 11:21:02 1482553 146
image 1252Кб, 1280x720
1280x720
Трудовой рынок становится всё более обезлюдённым. Джеймс Лемкин, основатель SaaStr, сообщил, что его компания заменила почти всю команду по продажам ИИ-агентами, достигнув того же объёма выручки при участии 1,2 человека вместо 10.

Поэтому в начале 2024 года Ленни Рачитский пригласил нас на свой подкаст Lenny’s Podcast, где состоялся поистине знаковый подробный разговор о продажах и стратегиях вывода на рынок (GTM) — о том, как и кого нанимать, о классических ошибках в GTM и продажах, которые совершаем мы все, и о многом другом. Это был отличный эпизод.

Однако он также… относится к целой эпохе назад. По сути, к завершению до-ИИ-эры. Всё, о чём мы говорили в этом классическом обсуждении GTM в первом квартале 2024 года, остаётся актуальным и сегодня. Но та беседа касалась мира, в котором все задачи по продажам, маркетингу, внедрению, поддержке и обеспечению успеха клиентов выполнялись исключительно людьми.

Поэтому Ленни вновь пригласил нас — уже в 2026 году — поговорить об ИИ и GTM. Это был, кстати, его первый выпуск в 2026 году. С Новым Годом!!

И за это время многое изменилось, а что ещё важнее — изменения только начинаются.

В SaaStr мы заменили почти всю команду по выводу на рынок (GTM) ИИ-агентами. Результат? Та же выручка при участии 1,2 человека вместо 10. Вот что должен знать каждый основатель и руководитель отдела продаж.

Топ-10 ключевых выводов

1. Цифры подтверждаются на практике: в SaaStr количество сотрудников отдела продаж сократилось с 8–9 человек до 1,2 человека + 20 ИИ-агентов при неизменных бизнес-показателях.
2. Классические SDR, работающие через email, вымирают: SDR, выполняющие последовательные (cadence-based) действия, отправляющие email-рассылки и квалифицирующие входящие лиды, будут вытеснены на 90 % в течение ближайших 12 месяцев. Эта должность попросту перестанет существовать.
3. Появится SDR стоимостью $250 тыс.: лучшие специалисты больше не будут отправлять письма — вместо этого каждый из них будет управлять 10 ИИ-агентами. Название должности останется прежним, но содержание работы полностью изменится.
4. ИИ самостоятельно закрыл сделку на $70 тыс. и ещё одну на $100 тыс. в канун Нового года! Квалифицированный ИИ-агент продал спонсорский пакет в 23:00 в субботу, и человек вмешался лишь на этапе закупок. А в канун Нового года ещё одна сделка на $100 тыс. была закрыта ИИ-агентом.
5. Обучение занимает 30 дней, а не 30 минут: необходимо загрузить данные, отвечать на вопросы агента, исправлять ошибки и итеративно улучшать его работу. Заложите в бюджет 50–60 часов на настройку.
6. Не стройте — покупайте: если у вас нет квалифицированного инженера, который действительно хочет создавать собственные ИИ-инструменты, используйте существующие продукты. Технологии развиваются слишком быстро, чтобы заниматься самостоятельной разработкой.
7. Человеческий контроль обязателен: вам необходим сотрудник вроде «главного ИИ-офицера» — технически подкованный, ориентированный на цифры, любящий анализ данных и способный часами сидеть перед панелями мониторинга.
8. Стратегии работают, но инструкции устарели: основы GTM не изменились, но практические руководства (playbooks) образца 2019 года стали неприменимы.
9. Поддержка — самая простая отправная точка: в ведущих компаниях уже 50–80 % обращений в службу поддержки обрабатываются ИИ. Начните оттуда.
10. 70 % позиций Account Executive (AE) пока сохраняются, но по мере роста возможностей ИИ эта доля снизится до 40–50 %. Время идёт.

Эксперимент SaaStr с ИИ: что на самом деле произошло

Джейсон не планировал полностью перестраивать свою команду продаж вокруг ИИ. Всё началось в мае 2025 года, когда одновременно ушли два сотрудника отдела продаж. Вместо того чтобы нанимать замену, он решил усилить ставку на ИИ-агентов, которые уже демонстрировали многообещающие результаты.

Современная система выглядит так: 20 ИИ-агентов, задействованных в различных рабочих процессах, управляются одним штатным AE и 20 % рабочего времени «главного ИИ-офицера». Разные агенты отвечают за разные циклы продаж: низкобюджетные продажи полностью ведутся ИИ, а переговоры по крупным спонсорским сделкам требуют участия человека на этапе согласования условий.

Самое неожиданное? Реакция на лиды и их квалификация улучшились. ИИ-агенты отвечают мгновенно — даже в 23:00 в субботу. Они никогда не устают. Они никогда не выбирают «лучшие» лиды по своему усмотрению. Они совершают последующие контакты по каждому возможному случаю.

Что исчезает, что выживает и что процветает

Исчезающие роли (в течение 12 месяцев):
- SDR, отправляющие шаблонные письма и квалифицирующие входящие лиды;
- BDR, использующие классические последовательные (cadence-based) кампании;
- Любые продажные роли, основная функция которых — маршрутизация информации.

Выживающие роли (пока):
- AE, ведущие сложные переговоры и работу с закупками;
- Продажи в корпоративном сегменте, требующие построения подлинных долгосрочных отношений;
- Крупные сделки, где рентабельность персонализированного подхода оправдывает участие человека.

Процветающие роли:
- Специалисты по продажам, управляющие и обучающие ИИ-агентов;
- «Технически подкованные» маркетологи, занимающиеся привлечением спроса, увлечённые данными и сегментацией;
- Инженеры, внедряемые на стороне клиента, обеспечивающие успех клиентов при использовании ИИ-продуктов;
- Любой, кто готов потратить 50–60 часов на обучение работе с ИИ.

Практическое руководство (playbook)

С чего начать: поддержка. Большинство компаний не в состоянии обеспечить круглосуточную поддержку, но ИИ — может. Это точка входа с минимальным риском и максимальным эффектом.

Как качественно обучать ИИ-агентов:
- Возьмите лучший email-контент — не средний по качеству, а действительно лучший;
- Загрузите его как базовый шаблон;
- Предоставьте источники данных (Salesforce, CRM) для персонализации;
- Постоянно проводите A/B-тесты — ИИ отлично справляется с созданием вариантов;
- В течение первых 30 дней тщательно проверяйте результаты;
- Явно исправляйте ошибки — ИИ учится именно на них.

«Тест в режиме инкогнито»: зарегистрируйтесь на свой собственный продукт с нового Gmail-адреса. Пройдите путь от поддержки, продаж до внедрения, как это сделал бы потенциальный клиент. Пробелы, которые вы обнаружите, и есть ваши возможности для внедрения ИИ.

Совет по выбору поставщика: выбирайте тех поставщиков, которые предлагают наибольшую помощь в реализации. Поддержка при внедрении — то, что отличает лидеров от остальных.

Неприятная правда о рабочих местах

Джейсон удивительно прямолинеен: ИИ вытесняет посредственных и средних по квалификации специалистов по продажам. Не лучших, и пока (ещё) не лидеров — но «середину» рынка труда серьёзно сжимают.

При этом широко распространённый в СМИ сюжет о «массовых увольнениях» в основном ошибочен. На самом деле происходит нечто более тонкое: компании заменяют вакансии ИИ, а не нанимают людей. Должность, на которую должен был быть принят новый SDR, теперь занимает ИИ-агент. Штатная единица просто не создаётся.

Совет продавцам однозначен: не ждите. Выберите сегодня ИИ-инструмент, обучите его самостоятельно и станьте в своей компании тем, кто умеет эффективно работать с ИИ-агентами. Такой навык и есть новая гарантия занятости.
ИИ вытесняют специалистов по продажам ч2 Аноним # OP 08/01/26 Чтв 11:21:42 1482554 147
image 350Кб, 640x360
640x360
>>1482553

Основные ошибки основателей при использовании ИИ-агентов в продажах

- Ожидание мгновенного волшебства «plug-and-play»: ИИ-агенты требуют 30 дней на обучение и 50–60 часов на настройку. Компании, ожидающие мгновенных результатов, получают лишь разочарование.
- Самостоятельная разработка вместо покупки: собственные ИИ-инструменты быстро устаревают. Если у вас нет реальных инженерных ресурсов и желания заниматься разработкой — используйте коммерческие решения.
- Отсутствие человеческого контроля: кто-то должен ежедневно отслеживать результаты работы ИИ. Подход «настроил и забыл» ведёт к масштабным и постыдным ошибкам.
- Обучение на посредственном контенте: если обучать ИИ на стандартных email-шаблонах среднего качества, вы получите такие же посредственные письма от ИИ. Обучайте на лучших работах лучших сотрудников.
- Пренебрежение сегментацией: без тщательной базовой сегментации несколько ИИ-агентов начнут конфликтовать друг с другом и рассылать одинаковые сообщения одним и тем же потенциальным клиентам.
- Недооценка усталости от управления изменениями: внедрение 20 ИИ-агентов изматывает. Компании истощают свои команды, двигаясь слишком быстро.
- Ожидание совершенства: технологии улучшаются каждый месяц. Ожидание «правильного инструмента» означает отставание от конкурентов, начавших внедрение полгода назад.
- Игнорирование передачи эстафеты человеку: ИИ занимается квалификацией и сопровождением, но сложные сделки по-прежнему закрывает человек. Настройте процесс передачи до того, как он вам понадобится.
- Предположение, что умение «ладить с людьми» достаточно: быть приятным в общении больше не даёт конкурентного преимущества — ИИ тоже способен выстраивать отношения. Вам необходимо приносить подлинную стратегическую ценность.
- Непроверка процесса с точки зрения клиента: применяйте «тест в режиме инкогнито». Пройдите собственный путь продаж как потенциальный клиент и исправьте выявленные недостатки.

Волшебное, но некомфортное время

Это то, что Джейсон называет «волшебным временем» — некомфортным, неопределённым, но подлинно трансформирующим. Руководства, которые привели нас сюда, устарели, но фундаментальные принципы по-прежнему работают: найти потенциальных клиентов, квалифицировать их и помочь совершить покупку.

Инструменты для реализации этих принципов изменились навсегда. Победителями станут те основатели и специалисты по продажам, кто быстрее всех адаптируется.

Как говорит Джейсон: «Лучшие специалисты, овладевшие ИИ, будут востребованы больше, чем когда-либо». Вопрос лишь в том — станете ли вы одним из них.
Аноним 08/01/26 Чтв 11:38:14 1482561 148
Вспуки олигофренов постят тут?
Аноним # OP 08/01/26 Чтв 11:39:15 1482563 149
image 431Кб, 800x450
800x450
Издательство HarperCollins увольняет переводчиков людей и переходит на автоматический перевод романов ИИ

Другие издательства объявляют такие же планы.

Издательство HarperCollins заявило, что начнёт переводить романтические романы из своей знаменитой серии Harlequin во Франции с использованием искусственного интеллекта, что приведёт к сокращению или полной отмене оплаты для команды внештатных переводчиков-людей, которые ранее выполняли эту работу.

Издание Publisher’s Weekly первым сообщило об этом на английском языке после того, как французские СМИ осветили эту новость в декабре. Согласно совместному заявлению Французской ассоциации литературных переводчиков (ATFL) и группы активистов-переводчиков, выступающих против ИИ, под названием «En Chair et en Os» («Плоть и кровь»), HarperCollins France уже начала уведомлять своих переводчиков о том, что в 2026 году их заменят машинами.

В заявлении ATFL и En Chair et en Os пояснялось, что HarperCollins France будет сотрудничать со сторонней компанией под названием Fluent Planet для пропускания романов серии Harlequin через систему машинного перевода.

«Мы хотим и дальше предлагать читателям как можно большее количество публикаций по нынешней крайне низкой розничной цене, например, €4,99 для серии Azur», — говорится в заявлении.

«По сравнению со стандартными системами машинного перевода, использующими нейронные сети, BrIAn способен обеспечивать в 2–3 раза более высокое качество переводов: они оказываются точнее, содержат идиоматически корректные формулировки, демонстрируют более глубокое понимание смысла, а также точно передают стиль и эмоции оригинального текста», — утверждается на сайте. «BrIAn учитывает стиль и намерение автора, что делает его высокоэффективным инструментом для сложного литературного или маркетингового контента».

Перевод — это деликатная работа, требующая глубокого знания обоих языков. Оттенки и нюансы — две стороны письма, в которых ИИ, как хорошо известно, крайне слаб — могут быть утрачены или искажены, если не принимать их во внимание при переводе. Перевод — это не простая замена слов. Идиомы, жаргон и региональные диалекты играют важную роль и требуют человеческого подхода, чтобы органично звучать на другом языке. Даже при участии людей результаты никогда не бывают идеальными.

«Сообщаю вам, что сообщество авторов крайне возмущено этим решением, как и всякий раз, когда появляется сообщение, предусматривающее сокращение участия человеческого творчества и изобретательности ради экономии средств», — сказала изданию 404 Media автор романтических произведений Кэролайн Ли. «Безусловно, искусство, созданное ИИ, обойдётся дешевле, однако это лишит нас художников-оформителей обложек, с многими из которых мы сотрудничаем уже более десяти лет (независимое издательское дело начало бурно развиваться примерно с 2011 года). Редактура с помощью ИИ может выявить (некоторые) опечатки, но уж точно не так эффективно, как это делают наши профессиональные редакторы. И, конечно, всем нам тревожно за то, к чему приведёт наводнение книжного рынка книгами, созданными ИИ, для карьеры авторов».

HarperCollins France — не первое крупное издательство, объявившее о передаче части переводческих обязанностей искусственному интеллекту. В марте 2025 года британское издательство Taylor & Francis объявило о планах использовать ИИ для публикации книг на английском языке на других языках с целью «расширения читательской аудитории».

В манифесте, опубликованном на своём сайте, En Chair et en Os призвали читателей «сказать нет бессодержательным переводам».

«Эти генеративные программы питаются уже существующими человеческими произведениями, извлекаемыми в качестве простых массивов данных без предоставления авторам возможности дать или не дать своё согласие, — говорится в манифесте. — Более того, обработка данных по-прежнему зависит от огромного количества человеческого труда, скрываемого от глаз общественности, зачастую выполняемого в ужасающих, недоплачиваемых, обесчеловечивающих, а порой даже травмирующих условиях (когда речь идёт о модерации контента). Наконец, хранение необходимых данных для функционирования и обучения алгоритмов оставляет катастрофический экологический след с точки зрения углеродного баланса и энергопотребления. То, что может показаться прогрессом, на самом деле ведёт к колоссальным потерям опыта, когнитивных навыков и интеллектуального потенциала во всех человеческих обществах. Это задаёт курс на будущее, лишённое души, сердца и смелости, переполненное стандартизированным контентом, производимым мгновенно и в практически неограниченных количествах. Мы уже близки к точке невозврата, о достижении которой никогда себе не простим».
Аноним 08/01/26 Чтв 11:42:19 1482567 150
>>1482520
>«Искусственный интеллект и роботы насытят всё человеческое желание».
Сначала пусть этот пиздобол насытит 800 мио голодных на планете.
Потом будет кукарекать с параши.
Аноним 08/01/26 Чтв 11:45:38 1482571 151
>>1482502
>Какие-то ресурсы есть,
Покажи чипы произведенные в рф.
Аноним # OP 08/01/26 Чтв 11:45:47 1482572 152
image 2364Кб, 2048x1152
2048x1152
Razer представил Project Motoko на выставке CES 2026: носимое вычислительное устройство с интегрированным ИИ на базе Snapdragon - совместимо с любыми ИИ Grok, OpenAI и Gemini

Project Motoko знаменует собой следующий рубеж в области носимых устройств, управляемых искусственным интеллектом, объединяя в единой интеллектуальной платформе гейминг, повседневную жизнь и производительность труда.

Razer™, ведущий мировой бренд образа жизни для геймеров, сегодня представил Project Motoko — концепт беспроводной гарнитуры с изначальной поддержкой ИИ, пересматривающий границы носимых технологий.

Работая на платформах Snapdragon® и будучи универсально совместимым с ведущими решениями в области ИИ, Project Motoko знаменует наступление новой эры персональных вычислений, обеспечивая контекстную осведомлённость, обработку визуальной информации в реальном времени и интуитивное управление — всё это реализовано в элегантном беспроводном форм-факторе.

«Project Motoko — это не просто концепт, а видение будущего искусственного интеллекта и носимых вычислительных устройств», — заявил Ник Борн (Nick Bourne), глобальный руководитель подразделения мобильных консолей Razer. «Сотрудничая с Qualcomm Technologies, мы создаём платформу, которая не только усиливает игровой процесс, но и трансформирует способ интеграции технологий в повседневную жизнь. Это следующий рубеж иммерсивных впечатлений».

«Snapdragon обеспечивает передовые возможности в области ИИ и расширенной реальности (XR), делающие Project Motoko возможным», — сказал Зиад Асгар (Ziad Asghar), старший вице-президент и генеральный менеджер направления XR в Qualcomm Technologies, Inc. «На фоне перехода к эпохе множества персональных устройств, управляемых ИИ, таких как Project Motoko, способных видеть, слышать и совместно работать с ИИ-агентом для предугадывания всех ваших потребностей, мы рады сотрудничать с Razer для реализации этого видения и вывода носимых вычислительных устройств с ИИ на новый уровень, где сходятся интеллект, производительность и иммерсивные впечатления».

Сконструированный для безупречной интеграции в повседневную жизнь, Motoko объединяет передовое аппаратное обеспечение и продвинутые возможности искусственного интеллекта, чтобы стать интеллектуальным помощником для работы, развлечений и всего, что между ними.

Дополненная ИИ-компьютерное зрение
Две камеры с видом от первого лица, расположенные на уровне глаз, соответствуют естественному полю зрения, обеспечивая распознавание объектов и текста в реальном времени для более разумного взаимодействия. От перевода уличных вывесок и учёта повторений в тренажёрном зале до мгновенного составления кратких выдержек из документов — система зрения Motoko мгновенно понимает контекст, сохраняя темп современного образа жизни.

ИИ-усиленная визуальная осведомлённость
Motoko обеспечивает стереоскопическую точность и широкое поле внимания, фиксируя глубину, символы и детали, выходящие за пределы периферийного зрения человека. Благодаря этому расширенному восприятию пользователи замечают гораздо больше, независимо от того, перемещаются ли они в сложных условиях или одновременно решают несколько задач в движении.

Двойные микрофоны дальнего и ближнего действия
Несколько микрофонов совместно работают для захвата голосовых команд, распознавания диалогов в поле зрения и анализа звукового окружения — обеспечивая высокоточное звуковое распознавание и бесшовное взаимодействие в любых условиях.

Мгновенная аудиообратная связь
Motoko мгновенно интерпретирует и отвечает, выступая в качестве постоянно активного ИИ-ассистента, который адаптируется к расписаниям, предпочтениям и привычкам пользователя. Управление без участия рук гарантирует непрерывность потока при поездках, игре или одновременном выполнении нескольких задач дома.

Универсальная совместимость с ИИ-платформами
Motoko легко подключается к ведущим ИИ-платформам, таким как Grok, OpenAI и Gemini, обеспечивая полную гибкость и настройку под любую задачу.

Инструменты машинного обучения
Собирая аутентичные данные визуального восприятия от первого лица — включая глубину, фокусировку и паттерны внимания — Motoko предоставляет командам, разрабатывающим робототехнику, ценные наборы данных для обучения гуманоидных роботов естественному восприятию и принятию решений.

Доступность
Project Motoko впервые представлен как концепт на выставке CES 2026, предлагая взглянуть на будущее носимых устройств с поддержкой ИИ.
Аноним 08/01/26 Чтв 11:50:37 1482578 153
>>1482571
Свои чипы есть только в США, в меньшей степени у Китая. Что дальше? Для разработки ПО свои чипы не обязательны.
Аноним 08/01/26 Чтв 11:51:52 1482582 154
>>1482578
>Для разработки ПО свои чипы не обязательны.
Забавно будет, когда тебе отключат чужую нвидию по спутнику.
Аноним 08/01/26 Чтв 12:09:40 1482594 155
>>1482582
>Забавно будет, когда тебе отключат чужую нвидию по спутнику
Нет такой возможности. Пока никому не отключали, ни Северной Корее, ни Ирану, ни другим. В идеале нужно иметь своё железо, но невозможно.

Опять же, вопрос, что дальше? Объективно США это лидер, у них нереальные железные ресурсы и они опережают по программным технологиям. Китай тоже монстр. Ну а дальше, кто ещё что-то конкурентное производит? Где в Европе есть сильное ИИ? Мистрали всё-таки чуть другая лига.

РФ входит наверняка в пятёрку "догоняющих" (3-7 места), какое именно место ХЗ, не в состоянии оценивать. Странно слышать насмешки от тех, кто не входит в двадцатку, кто вообще вне игры.

В том, чтобы появлялись альтернативные открытые модели, заинтересованы все, кроме может быть США.
OpenAI Gumdrop ч1 Аноним # OP 08/01/26 Чтв 12:11:33 1482596 156
image 263Кб, 686x386
686x386
ИИ ручка от OpenAI формирует будущее

Вы, вероятно, сейчас захлебываетесь в экранах
Между вашим ноутбуком, телефоном и планшетом вы постоянно смотрите на дисплеи только для того, чтобы получить доступ к ИИ. И вот в чём раздражающая часть: вы не можете от этого избавиться. Хотите воспользоваться ChatGPT? Достаньте телефон. Нужно делать заметки и организовывать их с помощью ИИ? Вводите всё в приложение. Это изнурительно.

Но последний проект OpenAI это то, что по-настоящему меня удивило. Что, если я скажу, что будущее ИИ может вовсе не быть очередным экраном? А что, если это то, чем вы пользуетесь с детства?

Что такое Gumdrop?
Представьте себе: вы носите с собой изящную, минималистичную ручку в кармане — снаружи ничего примечательного. Но здесь-то и начинается самое интересное. Это вовсе не обычная ручка.

Согласно множеству утечек из индустрии, Gumdrop — это ответ OpenAI на вопрос, который никто больше не задаёт: «А что, если бы ваша ручка могла думать?» Прежде чем закатывать глаза, выслушайте меня. Это не какая-то дешёвая безделушка-стилус, требующая планшета.

Gumdrop разрабатывается как то, что OpenAI называет «третьим ключевым устройством» — неким устройством, дополняющим ваш ноутбук и смартфон, но не пытающимся их заменить. Представьте себе нечто размером примерно с iPod Shuffle — небольшой предмет, который можно прикрепить к карману и забыть, пока он не понадобится.

Но по-настоящему завораживает то, что происходит, когда вы начинаете им пользоваться.

Когда вы пишете с помощью Gumdrop, ручка цифровым образом фиксирует ваш почерк в реальном времени — каждую линию, каждый каракуль; всё, что вы набросаете, мгновенно отправляется в ChatGPT для обработки. И вот здесь-то всё становится по-настоящему потрясающим.

ChatGPT затем может транскрибировать написанное вами, сделать краткое содержание, расширить мысль или даже ответить на вопросы по этому поводу — и всё это на лету.

Представьте, что вы находитесь на совещании и делаете заметки от руки (ведь, честно говоря, печатание на ноутбуке создаёт впечатление, что вы не слушаете). С Gumdrop эти рукописные заметки могут автоматически превратиться в структурированные цифровые конспекты.

Или, допустим, вы проводите мозговой штурм идей для проекта. Вы быстро набрасываете несколько грубых мыслей — и ChatGPT может мгновенно превратить их в полноценные концепции.

И подождите — это ещё не всё. Согласно TechCrunch, устройство будет обладать так называемым «режимом постоянного прослушивания». Это значит, что вы сможете разговаривать с ручкой, задавать ей вопросы, вести полноценные беседы с ChatGPT — и всё это без необходимости доставать телефон.

Это как личный ИИ-ассистент, живущий у вас в кармане, но при этом не требующий вашего постоянного внимания, как любое другое устройство в вашей жизни.

Генеральный директор OpenAI Сэм Олтман описывает видение Gumdrop как нечто, о чём можно подумать как о «домике у озера» — спокойном, простом, умиротворяющем, а не ещё одном навязчивом экране, борющемся за ваше внимание. Он хочет создать нечто, что, цитирую, «просто и красиво и игриво». Нечто, что хочется взять и использовать, даже не задумываясь.

Как это на самом деле будет работать?
Хорошо, всё это звучит потрясающе в теории — но давайте на секунду поговорим о практике. Как вы будете пользоваться этим устройством в повседневной жизни? Позвольте мне провести вас через то, что говорят утечки.

Во-первых, транскрибирование рукописного текста. Вы пишете обычным образом с помощью Gumdrop. По ощущениям это обычная качественная ручка в руке — но внутри она цифровым образом фиксирует каждую линию чернил и отправляет эти данные в ChatGPT. ИИ тогда транскрибирует ваш почерк в реальном времени: ваша неразборчивая каракуля становится искомым цифровым текстом; ваш список дел мгновенно форматируется и структурируется. Это как личный помощник, который по-настоящему, по-настоящему хорошо читает ваш почерк.

Но возможности выходят далеко за рамки простой оцифровки ваших записей. Именно здесь интеграция с ChatGPT становится по-настоящему мощной.

Допустим, вы делаете заметки на лекции по квантовой физике — теме, в которой вы плохо разбираетесь. Вы записываете ключевые понятия, а затем спрашиваете ручку: «Можешь объяснить это проще?» — и ChatGPT (через ручку) даёт вам ответ прямо на месте. Никакого набора текста. Никакой разблокировки телефона. Никакого нарушения потока мыслей.

Однако именно голосовая поддержка в действительности выделяет это устройство. Согласно утечкам, в Gumdrop будет встроенный микрофон — и, возможно, даже динамик. Это значит, что вы можете говорить в него для создания голосовых заметок, задавать вопросы вслух и получать ответы, прочитанные вслух. По сути, оно превращается в постоянно доступный ИИ, осознающий контекст ваших действий.

Теперь — нечто принципиально важное: сама ручка не будет выполнять всю тяжёлую работу. Она предназначена для беспроводного подключения к вашему смартфону — будь то iOS или Android. Телефон обеспечивает интернет-соединение и серьёзную вычислительную мощность, в то время как ручка остаётся лёгкой и портативной. Представьте себе нечто наподобие того, как Apple Watch подключается к вашему iPhone, только в данном случае ручка — это интерфейс.

Проще говоря, Gumdrop — это как ребёнок от *Livescribe* и *ChatGPT*. Вы получаете все преимущества цифрового ведения заметок без трения при наборе текста или переключении между приложениями.

А поскольку она осознанно разрабатывается как бесформенная и минималистичная — в полной гармонии с философией дизайна Джони Айва — она предназначена растворяться в вашей жизни, а не доминировать над ней.

Сообщаемые функции рисуют довольно убедительную картину:
- Портативный форм-фактор ручки
- Захват рукописного текста в реальном времени
- Обработка с помощью ChatGPT, способная составлять резюме, переводить и расширять ваши заметки
- Встроенные голосовой ввод и аудиовывод
- Тот самый *режим постоянного прослушивания ИИ*, о котором я упоминал ранее
- Подключение по Bluetooth к вашему смартфону для обеспечения связи

По сути, устройство пытается стать внешним жёстким диском для вашего мозга — но тем, который активно помогает вам мыслить.

Итак, почему вам должно быть небезразлично ещё одно техническое устройство? Справедливый вопрос. Мы живём в мире, затопленном устройствами, большинство из которых обещают изменить нашу жизнь и в итоге пылится в ящике.

Но вот почему *Gumdrop*, возможно, будет отличаться — и почему он может оказать значимое влияние на то, как вы работаете и мыслите.

Начнём с самого очевидного преимущества: *бесшовный доступ к ИИ*. Прямо сейчас каждый раз, когда вы хотите воспользоваться ChatGPT, возникает трение: нужно разблокировать телефон, открыть приложение, начать вводить текст или говорить в экран. Это целый процесс.

С *Gumdrop* ChatGPT буквально так же близок, как ваш инструмент для письма. Каждый раз, когда вы берёте в руки ручку — что, будем честны, происходит множество раз в день у большинства людей, — ИИ находится прямо там. Никаких барьеров. Никакого трения. Только мгновенный доступ.

И это важнее, чем может показаться. Исследования показывают, что почти 85 % работников по-прежнему делают рукописные заметки во время мозговых штурмов. Мы не отказались от ручек и бумаги. Мы просто смирились с тем, что между нашей аналоговой работой и цифровой жизнью существует раздражающий разрыв.

*Gumdrop* строит мост через этот разрыв. Вы продолжаете делать то, что обычно делаете — пишете и думаете руками, — а ИИ добавляет ценность *после* того, как вы написали. Никакого сканирования документов. Никакого перепечатывания заметок. Никаких попыток вспомнить, что означала та каракуля прошлой недели.
OpenAI Gumdrop ч2 Аноним # OP 08/01/26 Чтв 12:12:09 1482597 157
image 293Кб, 686x386
686x386
image 397Кб, 686x386
686x386
>>1482596
Для студентов это может стать по-настоящему преобразующим. Представьте, что вы делаете записи на занятии по математическому анализу — записываете уравнения и концепции — а затем ручка помогает превратить эти заметки в учебные пособия или даже пошагово решает задачи с помощью ChatGPT.

Для профессионалов подумайте о том, сколько совещаний вы посещаете, где хорошие идеи теряются, потому что никто их должным образом не зафиксировал. С Gumdrop эти идеи автоматически фиксируются, структурируются и делаются реализуемыми.

Но вот что, по-моему, на самом деле важнее, чем выигрыш в производительности: сокращение времени, проводимого перед экранами. Сэм Альтман постоянно подчёркивает этот более спокойный подход по сравнению с экранами, и я думаю, он прикоснулся к чему-то глубокому.

В отличие от вашего телефона или планшета, ручка не будет постоянно оповещать вас уведомлениями. В ней нет светящегося прямоугольника, который каждые пять секунд пытается украсть ваше внимание. Вы действительно можете заниматься сосредоточенной, осознанной работой — вести дневник, планировать, творчески мыслить — без постоянных цифровых прерываний, которые в основном захватили наши мозги.



И подождите, пока вы не услышите о аспекте доступности. Используя привычный предмет, которым люди пользуются веками, Gumdrop может принести ИИ тем, кого пугает сложная технология.

Ваши бабушки и дедушки, которые борются со смартфонами? Они уже умеют пользоваться ручкой. Учителя, сопротивляющиеся новым технологиям в классе? Ручка — это ненавязчиво. Это кардинально снижает порог входа и может по-настоящему демократизировать доступ к ИИ.

Существует также фактор творчества. Писатели, художники, дизайнеры часто используют аналоговые инструменты специально для стимуляции креативности. В физическом акте письма ручкой по бумаге есть что-то, что ощущается иначе, чем набор текста.

С Gumdrop эти каракули и эскизы могут ожить. ИИ может предложить идеи для рассказа на основе грубого наброска или превратить пункты мозгового штурма в отполированный текст.

Сама OpenAI намекает, что этот проект направлен на возвращение в технологии некоторой радости, удивления и творческого духа, как это было в раннюю эпоху Apple.

Более широкая картина заключается в том, что Gumdrop поощряет внедрение ИИ, опираясь на уже существующие привычки, а не навязывая новые. Вместо того чтобы заставлять всех смотреть на очередной экран, он интегрирует ИИ в то, что люди уже делают естественным образом. И если это удастся, это может кардинально изменить наше представление о взаимодействии человека с компьютером.

Другие компании уже внимательно следят за этим. Если Gumdrop взлетит, можете быть уверены, Google, Amazon и другие поспешат создать свои собственные версии.



Что делает Gumdrop по-настоящему уникальным?
Теперь вы, возможно, думаете: «Ладно, но мы уже видели гаджеты с ИИ — и все они провалились. Что делает этот другим?» И вы были бы абсолютно правы, проявляя скептицизм.

Пин Humane AI? Полный провал. Rabbit R1? Едва оставил след.

Так что же заставляет OpenAI думать, что они могут преуспеть там, где другие с треском провалились?

Ответ сводится к трём вещам: философии дизайна, стратегическому позиционированию и тем, кто на самом деле создаёт это устройство.

Начнём с самого очевидного различия: у Gumdrop нет экрана. Совсем нет. Это радикальный отход от любого другого гаджета с ИИ, появившегося ранее.

Пин Humane AI пытался быть умным с помощью маленького проектора и экрана. Rabbit R1 имел дисплей и сложный интерфейс. Оба провалились, потому что пытались быть смартфонами — без смартфонов, — и это проигрышная игра. Вы не можете переиграть iPhone.

*Gumdrop* полностью переворачивает сценарий. Он не пытается заменить ваш телефон. Он даже не пытается конкурировать с ним. Он использует *ручку и бумагу* в качестве интерфейса, который, по сути, является старейшим и наиболее интуитивно понятным интерфейсом для человека.

В этой простоте — гениальность. Совершенно отказавшись от экранов, OpenAI создаёт новую категорию *«окружающих» (ambient) ИИ-устройств*, вместо того чтобы сражаться на уже переполненном поле.

Но вот где всё становится по-настоящему интересным — и это нечто, что, как мне кажется, недооценивают большинство людей: *в проекте участвует Джони Айв*. И если вы хоть что-то знаете о Джони Айве, то понимаете, насколько это значимо.

Это человек, создавший iMac, iPod, iPhone, iPad — по сути, каждый знаковый продукт Apple, который только можно припомнить. Он создаёт не просто гаджеты, которые *работают*, — он создаёт гаджеты, в которые люди *влюбляются*.

Сам Сэм Алтман сказал, что великие инструменты ИИ требуют работы на стыке технологий, дизайна и понимания людей — и, по его словам, *«никто не может сделать это так, как Джони и его команда»*.

OpenAI создаёт не просто очередной технический продукт. Они создают то, что, как они надеются, станет *предметом дизайна* — настолько естественным и красивым, что вы даже не задумываетесь, когда берёте его в руки и используете.

Это дизайнерское мастерство важно, потому что оно решает фундаментальную проблему, с которой столкнулись все другие ИИ-гаджеты: *люди не хотели ими пользоваться*. Они были громоздкими, неуклюжими, неловкими в использовании на публике. Но ручка? Ручка — универсальна. Ручка — вневременна.

Если кто-либо и может создать ИИ-ручку, которой люди захотят реально пользоваться и которую будут носить с собой, так это человек, который убедил мир заплатить $1000 за телефон.

Существует также нечто уникальное в том, как *Gumdrop* соединяет цифровой и аналоговый миры. Почти никто не думал об установке продвинутого ИИ в классическую чернильную ручку.

Мы видели умные стилусы, такие как Apple Pencil, — но они требуют планшетов. Мы видели голосовых ассистентов, — но они живут в колонках или телефонах. *Gumdrop* пытается стать чем-то по-настоящему новым: частично ручкой, частично голосовым ассистентом — достаточно маленьким, чтобы прикрепить его к рубашке, со встроенными датчиками, понимающими контекст и голосовые команды.

И вот ещё один ключевой момент: OpenAI отвечает на растущее желание того, что они называют *«спокойным ИИ»*. Мы все устали от наших устройств.

Сам Джони Айв публично жаловался на то, как современные технологии приковывают нас к экранам. Направляя усилия на этот *более спокойный* подход к ИИ — когда технология ненавязчиво служит вам на заднем плане, а не требует постоянного внимания — *Gumdrop* отвечает на реальную человеческую потребность, которую никто другой всерьёз не удовлетворяет.

Вот что неизвестно большинству людей: OpenAI производит *Gumdrop* через Foxconn — ту же компанию, которая выпускает iPhone, — а не через более дешёвых китайских поставщиков. Это говорит вам о двух вещах:

1. Они серьёзно относятся к качеству.
2. Они ожидают массового производства.

Это не ограниченный эксперимент-прототип. Они планируют сделать этот продукт массовым.

Гении за кулисами Gumdrop
Чтобы по-настоящему понять, почему *Gumdrop*, возможно, преуспеет, вам нужно понять двух людей, стоящих за этим видением: *Сэма Олтмана* и *Джони Айва*. Потому что на бумаге это партнёрство звучит почти слишком хорошо, чтобы быть правдой.

Начнём с Сэма Олтмана. Это тот самый человек, который соосновал OpenAI ещё в 2015 году и стал её генеральным директором в 2019 году. Под его руководством OpenAI прошла путь от относительно малоизвестной исследовательской лаборатории до компании, выпустившей ChatGPT — который, если вы вдруг жили под камнем, буквально запустил нынешний бум ИИ.

Журнал *Time* буквально назвал его *«Архитектором ИИ»* 2025 года. Это не тот человек, который мыслит мелкими категориями.

До OpenAI Олтман возглавлял Y Combinator — легендарный инкубатор стартапов, запустивший такие компании, как Airbnb и Dropbox. Он инвестировал буквально во всё: от термоядерной энергетики до освоения космоса.

Но что действительно увлекательно в Алтмане — это его убеждённость в том, что новые инструменты ИИ требуют как *передовых технологий*, так и *прекрасного дизайна*. Именно поэтому он лично обратился к Джони Айву для реализации этого проекта.
OpenAI Gumdrop ч3 Аноним # OP 08/01/26 Чтв 12:13:13 1482599 158
image 326Кб, 1024x572
1024x572
image 2277Кб, 1920x1080
1920x1080
image 208Кб, 640x426
640x426
image 411Кб, 1200x630
1200x630
>>1482597
Алтман верит — и я думаю, он прав — что великие технологии должны воплощаться в продукты, которые люди по-настоящему любят использовать.

А теперь — Джони Айв — сэр Джонатан Айв. Этот человек буквально является рыцарем. Его посвятили в рыцари за вклад в дизайн.

Почти три десятилетия — с 1992 по 2019 год — Айв возглавлял дизайн-команду Apple. И за это время он не просто проектировал продукты — он определял, как выглядит современная технология.

Подумайте об этом:
- Цветной iMac G3 1998 года, спасший Apple от банкротства? Джони Айв.
- iPod, поместивший 1000 песен в ваш карман? Джони Айв.
- iPhone, изменивший буквально всё в том, как мы взаимодействуем с технологиями? Джони Айв.
- iPad. Apple Watch. Всё это.

Его дизайн был не просто красивым. Он кардинально изменил то, как люди взаимодействуют с технологиями.

Покинув Apple в 2019 году, Айв основал собственную дизайн-студию под названием LoveFrom. Затем, в 2024 году, он запустил стартап по производству оборудования под названием LoveFrom IO вместе с некоторыми бывшими инженерами Apple.

И вот здесь история становится по-настоящему дикой: в середине 2025 года OpenAI приобрела LoveFrom IO примерно за 6,5 миллиарда долларов. Дайте это осознать — это не опечатка. Шесть с половиной миллиардов долларов.

По сути, OpenAI купила Джони Айва — и всю его команду.

В официальном заявлении OpenAI говорится, что Джони и LoveFrom возьмут на себя глубокие дизайн- и креативные обязанности по всей OpenAI, — что означает: он не просто консультирует по Gumdrop. Он возглавляет всё дизайн-видение будущего оборудования OpenAI.



Что привносит Айв в этот проект помимо своей легендарной репутации?

Он привносит философию дизайна, одержимую простотой и реальными потребностями пользователей. Он знаменит историями, например, когда лично разговаривал с производителями драже, чтобы подобрать идеальный цвет для iMac.

Такой уровень внимания к деталям, применённый к ИИ-ручке, может привести к созданию чего-то по-настоящему особенного.

Айв также сказал нечто действительно интересное: «Всё, чему я научился за 30 лет в дизайне, привело меня к этому моменту с OpenAI». Он взволнован переосмыслением роли технологий в нашей жизни.

И когда вы объединяете эту страсть с видением Олтмана по обеспечению всеобщего доступа к ИИ, получается партнёрство, которое может воплотить то, что звучит невозможно.

В совместном письме они написали, что их сотрудничество началось с дружбы и разделяемого любопытства. А Олтман сказал: «Никто не может сделать это так, как Джони и его команда. Степень заботы, которую они вкладывают во все аспекты, поистине необычайна».

Это не просто корпоративные банальности. Видно, что здесь присутствует подлинное взаимное уважение — и восторг.

Таким образом, когда вы спрашиваете, почему *Gumdrop* может преуспеть там, где другие потерпели неудачу, ответ отчасти заключается в подходе к дизайну, но также и в *людях*. У вас есть провидец ИИ, создавший ChatGPT, объединивший усилия с гением дизайна, сделавшим продукты Apple непреодолимо привлекательными. Такого сочетания раньше не существовало в сфере аппаратного обеспечения для ИИ.


Хорошо, давайте обсудим слона в комнате: *«Действительно ли нам нужен ещё один гаджет?»* У нас уже есть телефоны, ноутбуки, планшеты, умные часы. В какой момент у нас будет достаточно устройств?

Это справедливый вопрос — и, честно говоря, если бы *Gumdrop* был просто ещё одним экраном с ИИ, я бы сказал: пропустите.

Но вот в чём дело: *Gumdrop* не пытается быть ещё одним устройством, которым вам нужно управлять. Он пытается стать *расширением* того, чем вы уже занимаетесь — и эта фундаментальная разница может сделать его *необходимым*, а не просто приятным дополнением.

Подумайте на секунду о ведении заметок. Будь вы студентом, профессионалом, творческой личностью или просто человеком, пытающимся поддерживать порядок, — вы делаете заметки. Может быть, на совещаниях, может быть, во время лекций, может быть, просто случайные мысли в течение дня.

И несмотря на наличие всех этих удивительных технологий, *большинство людей по-прежнему достаёт ручку и бумагу* хотя бы для части этих задач. Почему? Потому что это быстрее, гибче — и каким-то образом *лучше подходит для мышления*.

Но что затем происходит? Эти рукописные заметки остаются в блокноте — возможно, теряются. Точно не интегрируются в вашу цифровую жизнь.

*Gumdrop* решает эту проблему, превращая каждую рукописную заметку в *богатый цифровой ресурс* — без изменения ваших привычек.

- Студенты-медики могут записывать заметки о пациентах и мгновенно получать определения или напоминания о лечении.
- Участники совещаний могут автоматически получать протоколы, пока фиксируют ключевые моменты.
- Писатели могут ловить мимолётные идеи, пока они ещё не испарились.

Затем есть фактор *«на ходу»*. Поскольку *Gumdrop* мал и разработан как *всегда включённый*, это означает помощь ИИ *везде* — даже там, где извлечение ноутбука или телефона затруднительно или неприемлемо.

Идёте в поход и хотите зафиксировать идеи? Он у вас под рукой. В кофейне пытаетесь перевести иностранный меню? Он рядом. На лекции, где ноутбуки запрещены? Он с вами.

Это ИИ, который следует за *вами*, а не ИИ, к которому *вам* нужно идти.

Но, честно говоря, я думаю, что наиболее убедительная причина, по которой нам нужно нечто вроде *Gumdrop*, заключается в том, что он олицетворяет для *экономики внимания*.

Мы все тонем в уведомлениях, оповещениях и требованиях нашего внимания. Каждое устройство, которым мы владеем, борется за наши глаза: соцсети, почта, новости, сообщения — это никогда не прекращается.

Ручка, которая тихо слушает — *только когда вы активируете её*, — действительно может снизить цифровую усталость. Она позволяет вам взаимодействовать с ИИ *избирательно* и *спокойно*, на ваших условиях.

Сэм Олтман постоянно говорит об этом ощущении *«домика у озера»* — и теперь я его понимаю. В мире постоянного цифрового насилия есть нечто глубоко притягательное в технологии, которая не кричит на вас.

И наконец, если *Gumdrop* преуспеет, он может вдохновить целую категорию *«окружающих» (ambient) ИИ-устройств*. OpenAI намекнула, что над *множеством* «третьих ключевых» гаджетов, из которых *Gumdrop* — лишь первый.

Представьте себе целую экосистему ИИ-помощников, которые *вплетаются* в вашу жизнь, а не прерывают её. Такое будущее звучит гораздо лучше, чем нынешняя траектория: больше экранов, больше уведомлений, больше отвлечений.

Теперь давайте на секунду будем реалистами.
История технологий усеяна амбициозными проектами, которые на бумаге звучали великолепно, но не смогли воплотиться в реальности.

Но вот что заставляет меня осторожно оптимистично настроиться: *команда, стоящая за ним*, *философия дизайна* и *время*.

Мы находимся в моменте, когда ИИ доказал свою ценность. ChatGPT показал миллионам людей, что ИИ на самом деле может помогать в реальных задачах. Вопрос теперь не в том, *«полезен ли ИИ?»*, а скорее: *«Как сделать ИИ более доступным и менее навязчивым?»*

*Gumdrop*, возможно, и есть ответ на этот вопрос.

Используя знакомый форм-фактор, устраняя экраны и сосредотачиваясь на *усилении* уже существующих привычек — а не на создании новых, — он обходит проблемы, убившие предыдущие ИИ-гаджеты.

Тот факт, что OpenAI готова инвестировать миллиарды в приобретение команды Джони Айва, говорит о том, что это не просто эксперимент. Они серьёзно относятся к созданию правильного оборудования.

И в отличие от компаний, которые торопятся вывести на рынок недоделанные продукты, OpenAI, похоже, уделяет время тому, чтобы *достичь идеального опыта*.

Вот и всё о Gumdrop
Ручка, которая не просто пишет — но и *думает*.
Устройство, которое наконец может сделать ИИ естественным продолжением того, как вы уже работаете и мыслите, — а не очередным экраном, требующим вашего внимания.

Удастся ли ему или нет — мы не узнаем наверняка, пока он не появится в продаже. Но видение убедительно:
- Технология, которая служит вам *тихо*
- Дизайн, который ощущается *интуитивным*
- ИИ, который усиливает ваше мышление — *не захватывая при этом ваше внимание*

В мире, где каждая технологическая компания борется за ваше время перед экраном… возможно, нам на самом деле нужно *меньше экранов* и *больше ручек*.
Аноним 08/01/26 Чтв 12:13:31 1482600 159
>>1482594
>Нет такой возможности.
Компания Nvidia разрабатывает технологию, позволяющую определять страну, в которой используются ее чипы для искусственного интеллекта.
Пока нет. Но умные люди, имеющие свои чипы, уже начали работать над этим. Так что не переживай, это лишь вопрос времени.
>>1482594
>РФ входит наверняка в пятёрку "догоняющих"
Никуда рф не входит и не собирается входить.
Своих станков нет и не будет.
А с ценой нефти по 20 долларов на следующие 10 лет единственные гонки в рф будут за корой валежника, чтобы кашу сварить.
Аноним 08/01/26 Чтв 12:14:26 1482601 160
>>1482599
> которые люди по-настоящему любят использовать.
Как много людей любят писать ручкой?
Аноним 08/01/26 Чтв 12:21:08 1482606 161
>>1482594
>Где в Европе есть сильное ИИ? Мистрали всё-таки чуть другая лига.
Сравнивать мистрали с выжатыми китайскими поделиями рф уже моветон в приличном обществе.
Аноним # OP 08/01/26 Чтв 12:21:30 1482607 162
image 1343Кб, 1344x768
1344x768
image 1006Кб, 1776x1184
1776x1184
image 1632Кб, 2000x1125
2000x1125
image 802Кб, 1280x719
1280x719
>>1482601
Для тех, кто писать не любит, вон тот девайс от Lenovo >>1482419
Висит на шее, смотрит через камеру, слушает, дает советы, преобразует в текст, файлы двигает, все сам заказывает, действия выполняет, передает куда надо, даже экран компа палит.
Пока что выглядит достаточно интересно, на презентациях CES тоже хорошо показали.
Аноним 08/01/26 Чтв 12:24:19 1482610 163
>>1482596
>Во-первых, транскрибирование рукописного текста. Вы пишете обычным образом с помощью Gumdrop. По ощущениям это обычная качественная ручка в руке — но внутри она цифровым образом фиксирует каждую линию чернил и отправляет эти данные в ChatGPT. ИИ тогда транскрибирует ваш почерк в реальном времени: ваша неразборчивая каракуля становится искомым цифровым текстом; ваш список дел мгновенно форматируется и структурируется. Это как личный помощник, который по-настоящему, по-настоящему хорошо читает ваш почерк.
>
>Но возможности выходят далеко за рамки простой оцифровки ваших записей. Именно здесь интеграция с ChatGPT становится по-настоящему мощной.
>
>Допустим, вы делаете заметки на лекции по квантовой физике — теме, в которой вы плохо разбираетесь. Вы записываете ключевые понятия, а затем спрашиваете ручку: «Можешь объяснить это проще?» — и ChatGPT (через ручку) даёт вам ответ прямо на месте. Никакого набора текста. Никакой разблокировки телефона. Никакого нарушения потока мыслей.
Шиза без задач, просто никому не нужно. Вводить текст печатая на клавиатуре или даже свайпом быстрее. Или альтернатива принципиальная, это голосовой ввод. Причём можно ведь шёпотом что-то надиктовывать, если правильный звукосниматель использовать. Это как раз замена экрану и рукам одновременно. Что касается лекций, то студенты сейчас просто записывают на камеру всё, ноута-смартфона, потом разбираются. Удобнее не пытаться записывать, это тупо, удобнее пытаться вникнуть, но одновременно иметь запись, чтобы по ней всё поднять.

Если запись делать нельзя, то и ручки такие могут как "шпионское оборудование" идти.

У Альтмана видимо совсем плохо дела идут, инвесторы начинают наседать с вопросами "как ты хотя бы трииллион зарабатывать собираешься из обещанного", вот пошла проплаченная реклама и какие-то бессмысленные идеи.
Аноним 08/01/26 Чтв 12:24:49 1482612 164
>>1482601
>писать ручкой
Какое-то говно из прошлого тысячелетия для бумеров. Печатать/набирать текст куда удобнее. Каждый раз мучаюсь, когда приходится сталкиваться с этим атавизмом в делах бюрократического толка при том, что сам ещё в СССР родился.
Аноним 08/01/26 Чтв 12:26:13 1482613 165
>>1482606
GigaChat 3 полностью своя разработка, обученная с нуля на своих данных
Аноним 08/01/26 Чтв 12:28:37 1482614 166
>>1482610
Небольшой блокнот с прицепленной ручкой в принципе удобнее таскать, чем громоздкий планшет с клавой. К тому же время автономной работы у нее наверняка высокое, можно забыть о подзарядках в течении дня. Если она еще любые каракули и недописанные слова разбирать будет, то можно приспособиться писать огрызками букв, слов и предложений, ИИшка все равно все поймет. Тут можно и скорости ввода достичь. Плюс возможность сразу накарябать схемы и рисунки.
Аноним 08/01/26 Чтв 12:33:16 1482622 167
>>1482612
Я люблю и даже активно пользуюсь, довольно помогает сильно. Кстати это для мозгов полезно, потому что задействуется другая моторика, другие сети нейронов, чем при печати на клавиатуре. Но вариант от OpenAI без задач точно.

Для быстрого ввода клавиатура нужна. Или может какое электронное перо, скажем формулы какие записывать, но всё это есть уже на планшетах. Для меня это больше или когда подумать хочется, проще с бумажкой, либо если я планы какие делаю, особенно короткие. Но это те вещи, которые не предназначены для оцифровывания.>>1482607

>>1482607
>Висит на шее, смотрит через камеру,
Шпионское оборудования. Много где такое просто запрещено, не только в РФ, в Европе тоже местами.
Аноним 08/01/26 Чтв 12:38:37 1482630 168
>>1482622
>Шпионское оборудования.
Думаю эти правила будут меняться, ИИ камеры встраивают уже повсюду, в наушники, браслеты, кулоны, очки. Причем если сначала все это вызывало протесты лет 5 назад, теперь всем выросшим зумеркам пофиг стало на приватность. Отсталые страны тоже поддадутся моде через пару-тройку лет, когда увидят преимущества ИИ от такого подхода.
Аноним 08/01/26 Чтв 12:38:58 1482631 169
>>1482614
Кому часто записывать надо, обычно ноуты-планшеты имеют с собой. Смартфоны вообще есть у всех. Свайпом любители вводят очень быстро. Можно перо к смартфону, в теории, но реальных решений пока мало, по-моему только у самсунга есть. Блокнот тоже с собой надо брать.

В очень мне кажется, что реальной ниши нет для этого, так, поиграть, и перейти на что-то привычное и более подходящее
Аноним 08/01/26 Чтв 12:45:39 1482642 170
>>1482631
Ни разу никого не видел, фигачащего в планшет, смартфон или свайпом на встречах и совещаниях. Это все таки для коротких смсок в месседжерах. Обычно либо блокнотик, либо полноценный ноут с клавой. Причем ноут громоздок и его не всегда берут, требует подзарядки заранее, долгой загрузки или доступной розетки. А вот блокнотик с ручкой обычно у всех с собой.
Планы Gemini на 2026 год ч1 Аноним # OP 08/01/26 Чтв 13:04:42 1482650 171
image 233Кб, 686x386
686x386
Gemini 4 и их планы на 2026 год

Вот что большинство людей не осознаёт. Пока все сосредоточены на ChatGPT и Claude, Google тихо создаёт нечто, что может всё изменить. Я провёл недели, глубоко изучая дорожную карту Google. И то, что я обнаружил, честно говоря, удивило меня. Это не просто очередное обновление ИИ-модели. Это полное переосмысление того, как мы будем взаимодействовать с технологиями.

Мы исследуем прорывные функции, которые выделят Gemini 4, погрузимся в генеральный план Google по ИИ на 2026 год и посмотрим, как это соотносится с конкурентами, такими как GPT-4 и Claude. Прежде чем мы углубимся, нужно быть чётким. Gemini 4 официально ещё не анонсирована, но именно здесь становится интересно. Каждое поколение Gemini довольно драматично строилось на предыдущем.

Gemini 1 представила нативную мультимодальность и революционные удлинённые контекстные окна. Затем Gemini 2 добавила агентное планирование и более сильные способности к рассуждению. А теперь — Gemini 3. Google называет её своей самой интеллектуальной моделью с передовыми возможностями рассуждения и мультимодальными навыками. Самое поразительное — Gemini 3 Pro уже может обрабатывать текст, изображения, аудио, видео и код в одном запросе. Речь идёт о контексте до 1 миллиона токенов. Это по-настоящему огромно. Они даже продемонстрировали то, что называют рассуждением на уровне PhD, на невероятно сложных тестах.

Так что представьте, что вы берёте всё это и продвигаете ещё дальше. Вот что такое Gemini 4. И поверьте, каждое из этих улучшений захватывает больше предыдущего.

Расширенные мультимодальные возможности

Gemini уже изначально видит и слышит ваши входные данные — изображения, аудио, видео и текст — всё одновременно. Но ожидается, что Gemini 4 выведет это на совершенно новый уровень. Мы можем увидеть более продвинутое понимание видео или даже возможности генерации видео. Google уже намекает на это с помощью своей видеомодели Veo и редактора Flow.

Но вот где становится по-настоящему интересно. Мы можем ожидать улучшенного трёхмерного и пространственного рассуждения или поддержки совершенно новых типов данных. Исследования Google в области world models показывают, что они хотят создать ИИ, способный моделировать и планировать в физических средах. Представьте ИИ, который не просто понимает видео вашей комнаты, но может действительно спланировать, как её переставить, предсказать, как будет падать свет в разное время суток, или смоделировать, как будет выглядеть ремонт. Вот в каком направлении мы движемся.

Более умные рассуждения и выводы

Google подчёркивает способность Gemini 3 улавливать нюансы и контекст, что они называют передовыми возможностями рассуждения. Gemini 4, вероятно, усовершенствует это с ещё более мощными возможностями вывода. На самом деле, они уже внедрили режим Deep Think для Gemini 3, который ещё больше усиливает рассуждения.

Теперь Gemini 4 может сделать такие возможности стандартными или достигать аналогичных результатов в режиме по умолчанию. Что это значит для вас? Вместо поверхностных ответов у вас будет ИИ, способный действительно продумывать сложные проблемы, рассматривать множество углов и предоставлять инсайты, которые кажутся почти человеческими. Мы выходим за рамки простого вопроса и ответа в сторону настоящего совместного мышления.

Улучшенные возможности программирования

Это очень важно для разработчиков. Google сильно сосредоточился на ИИ для программирования. Они даже представили нечто под названием vibe coding с Gemini 3. Gemini 4 может принести специализированную модель программирования или более тесную интеграцию с инструментами разработчика. Учитывая, что Gemini 2.5 уже возглавила бенчмарки по программированию, Gemini 4 может серьёзно повысить продуктивность разработчиков.

И вот в чём дело — Google уже предлагает бесплатную помощь Gemini в написании кода в таких продуктах, как Chrome и Cloud Code. Представьте, что это станет в 10 раз лучше. Мы можем ожидать ИИ, который не просто помогает вам кодить, а действительно сотрудничает с вами как настоящий партнёр по программированию, понимая архитектуру вашего проекта и предлагая улучшения, о которых вы даже не задумывались.

Повышенная эффективность и масштабируемость

Теперь это может звучать скучно, но потерпите, потому что это на самом деле революционно. Google активно работает над эффективностью. Поколение Gemini 1.5 представило архитектуру смеси экспертов (mixture of experts), чтобы достичь сопоставимого качества с самыми крупными моделями, используя при этом меньше вычислительной мощности. Это важнее, чем может показаться.

Почему? Потому что это означает, что каждая новая модель не становится чрезвычайно дороже в эксплуатации. Google подчёркивает, что их новые модели быстрее осваивают задачи и дешевле обслуживать. Мы можем ожидать, что Gemini 4 продолжит эту тенденцию с оптимизациями обучения, разреженностью (sparsity) или другими умными приёмами. Это даже может позволить создавать гораздо более крупные модели или ещё более длинные контекстные окна. Google уже тестировал контекст до 10 миллионов токенов для Gemini 1.5. Представьте, если Gemini 4 сделает практическим использование контекста в несколько миллионов токенов в повседневной работе. Вы сможете загрузить в неё целую серию книг и задать тонкие вопросы о развитии персонажей во всех томах.

Глубокая персонализация и память

Подождите, пока не увидите эту часть. Google уже работает над улучшением голосового вывода Gemini, возможностей памяти и даже низкоуровневого управления компьютером. Gemini 4 сможет лучше запоминать вашу долгую историю взаимодействий, безупречно интегрироваться со всеми вашими приложениями или значительно улучшить диалоговые способности.

Представьте себе: ИИ-ассистент, который всегда включён, осознаёт контекст и действительно помнит ваши предпочтения на протяжении недель или месяцев взаимодействия. На это намекает Project Astra, и, скорее всего, это придёт в Gemini 4.

Короче говоря, Gemini 4 выведет мультимодальный ИИ на новые высоты, добавит более мощные способности к рассуждению и планированию, улучшит мастерство написания кода и сделает всё это более эффективно. История Google говорит о том, что следующая версия Gemini будет развивать их заявление о том, что Gemini 3 объединяет все возможности Gemini в одной модели. Теперь представьте, как этот фундамент будет ещё больше расширен — увеличенные контекстные окна, более быстрые выводы и, возможно, даже новые формы ввода или вывода, такие как трёхмерное понимание или интеграция с датчиками реального мира.

Долгосрочная стратегия Google в области ИИ

Но вот что делает это по-настоящему интересным. Gemini 4 не существует изолированно. На самом деле, она является частью масштабного многолетнего видения Google в области ИИ. И когда вы видите всю картину целиком, это буквально захватывает разум. Позвольте мне разбить на ключевые элементы генеральный план Google.

Видение универсального ассистента

Google DeepMind открыто заявляет о своей конечной цели: создании по-настоящему универсального ассистента. На I/O 2025 генеральный директор DeepMind Демис Хассабис говорил о расширении Gemini в так называемую «модель мира» (world model), которая сможет планировать и воображать новые переживания, как это делает человеческий мозг. Это ступенька к универсальному ИИ-ассистенту, который будет выполнять повседневные задачи и по-настоящему обогащать нашу жизнь.

Крупный проект, стоящий за этим, называется Project Astra. Это прототип ассистента, который понимает видео, может делиться вашим экраном, запоминает ваши предпочтения и адаптируется под ваши потребности. Но вот что круто. Лаборатории Google активно работают над внедрением возможностей Project Astra в Gemini Live, новые функции в Поиске и даже в новые форм-факторы, такие как умные очки.

На практике это означает, что функции, впервые протестированные в Astra — например, преобразование речи в текст, понимание вашей среды, персонализация ответов — внедряются в продукты, которые вы уже используете: приложение Gemini, новый ИИ-режим Google Поиска, API для разработчиков и новые устройства. Google даже провёл крупное исследование по этике продвинутых ассистентов, чтобы направлять эту работу, что показывает, что безопасность и согласованность с пользователем здесь — настоящие приоритеты, а не второстепенные соображения.
Планы Gemini на 2026 год ч2 Аноним # OP 08/01/26 Чтв 13:05:42 1482652 172
image 342Кб, 1280x720
1280x720
>>1482650
Агентный ИИ и многозадачная оркестрация

Теперь это то место, где всё становится по-настоящему футуристичным. Google экспериментирует с ИИ-агентами, которые могут действовать от вашего имени. В конце 2024 года они запустили Project Mariner — прототип мультиагентной системы на базе браузера. Эти агенты могут одновременно обрабатывать несколько задач — просмотр веб-страниц, исследование, бронирование билетов, сравнение цен — до 10 задач одновременно.

Теперь Google внедряет агентные возможности Project Mariner для управления компьютером в API Gemini и планирует встроить этих многозадачных агентов в ещё больше продуктов. Это говорит о том, что Gemini 4 и последующие версии будут не просто отвечать на ваши вопросы. Они будут оркестровать действия через ваши инструменты — электронную почту, календарь, веб-браузер, приложения для покупок — всё будет работать вместе с координацией со стороны ИИ.


Фундаментальные исследования DeepMind

В основе всего этого находится подразделение Google по исследованиям в области ИИ — DeepMind. Это те самые люди, которые постоянно расширяют границы в области обучения с подкреплением, оптимизации, сворачивания белков с AlphaFold, математики с AlphaZero и AlphaCode и многого другого. Руководители DeepMind часто говорят о работе над следующими крупными прорывами, необходимыми для ИОИ — искусственного общего интеллекта.

Это фундаментальное исследование напрямую вливается в Gemini. Схема Google ясна: DeepMind изобретает нечто революционное в своих лабораториях, и Google молниеносно внедряет это в продукты. Мы уже видели это с улучшениями трансформеров, архитектурами смеси экспертов и новыми VAE-архитектурами для изображений. Это непрерывный цикл инноваций, дающий Google серьёзное конкурентное преимущество.

Интеграция по всему экосистему

Именно здесь стратегия Google действительно сияет. Они активно внедряют ИИ Gemini во всю свою экосистему. И я имею в виду всё. Позвольте мне провести вас через основные интеграции.

Поиск: Gemini обеспечивает работу нового ИИ-режима в Google Поиске. И это огромно, потому что впервые Google запустил Поиск с включённым Gemini с первого дня. ИИ-режим может генерировать богатые визуальные макеты и интерактивные инструменты — графики, опросы, симуляторы — которые выходят далеко за рамки традиционных поисковых ссылок. Мы можем ожидать, что Gemini 4 ещё больше усилит эти функции — более умные резюме, поиск с помощью голоса и изображений и комплексные обзоры с указанием источников.

Workspace: Google Workspace буквально пронизан Gemini. В Gmail Gemini может суммировать цепочки писем, находить ключевые детали и писать за вас профессиональные письма. В Meet он может делать заметки, чтобы вы могли сосредоточиться на самом разговоре. Docs и Sheets получают предложения и автоматизацию от ИИ. Google позиционирует Workspace с Gemini как настоящий геймчейнджер для продуктивности — автоматизацию рутинных задач, помощь в исследованиях и даже инструменты вроде NotebookLM для анализа корпоративных данных. Ожидайте, что к 2026 году эта интеграция значительно углубится.

Android и Ассистент: Вот что действительно важно. Gemini заменяет Google Ассистент. Изначально Google планировал обновить большинство устройств Android со старого Ассистента на Gemini к концу 2025 года, но эти сроки были перенесены на 2026 год. К началу 2026 года старый Ассистент будет постепенно выведен с телефонов и планшетов в пользу Gemini.

Что это значит на практике? Голосовой ассистент на телефонах Pixel, устройствах Samsung Galaxy с приложениями Google, часах Wear OS, Android Auto и Google TV будет использовать Gemini. По состоянию на конец 2025 года Gemini уже работает на Wear OS, Google TV и Android Auto, и даже появляется на умных дисплеях Google Nest через раннюю домашнюю программу. Новые телефоны Pixel и колонки Nest специально создаются для Gemini. Речь идёт о плавных многоходовых голосовых взаимодействиях и глубокой интеграции с Android, где Gemini сможет управлять вашими приложениями с помощью касаний или голоса.

Облачные и разработческие инструменты: Google также предлагает Gemini через облачные и разработческие платформы. API Gemini позволяет компаниям использовать мощь модели, а Vertex AI от Google Cloud интегрирует Gemini для корпоративных рабочих нагрузок. Они также запустили платформу под названием Anti-Gravity для создания агентов с помощью Gemini. Дорожная карта Google указывает, что функции на основе Gemini в конечном итоге появятся во всех их флагманских сервисах.

В некотором смысле, Gemini 4 вписывается в гораздо более широкую картину. Google стремится сделать ИИ незаметной частью всех своих продуктов. Как отметил генеральный директор Сундар Пичаи, каждое обновление Gemini развёртывается в масштабах Google, охватывая миллиарды пользователей по всему миру. Project Astra и Mariner намекают на то, что будет дальше: проактивный ИИ, который поможет вам на всех устройствах, предугадывая ваши потребности и решая задачи ещё до того, как вы их сформулируете.



Сравнение Gemini с GPT-4 и Claude

Теперь поговорим о конкуренции. Потому что, чтобы действительно понять место Gemini на ландшафте ИИ, нам нужно увидеть, как она соотносится с крупными игроками. И именно здесь всё становится по-настоящему интересно.

Gemini против GPT-4

Обе модели являются крупными универсальными, но у них очень разные сильные стороны. Google описывает Gemini 3 Pro как модель, преуспевающую в мультимодальности. Она бесшовно обрабатывает и рассуждает над текстом, кодом, изображениями и аудио одновременно. GPT-4 от OpenAI, напротив, в первую очередь текстовая, с ограниченными возможностями ввода изображений.

GPT-4 чрезвычайно сильна в широких языковых задачах, таких как творческое письмо, диалог, резюмирование и программирование. Она отлично справляется с написанием разных творческих текстовых форматов, переводом языков и ответами на сложные вопросы. Но вот преимущество Gemini: более глубокая интеграция с мультимедиа. У неё встроенное контекстное окно в миллион токенов для аудио и видео, что огромно.

«Мультимодальная магия» Gemini означает, что она может бесшовно анализировать текст вместе с изображениями, тогда как GPT-4 в основном сосредоточена на тексте. У Gemini также есть встроенные агенты и продвинутые возможности использования инструментов. В бенчмарках Gemini и GPT-4 часто идут ноздря в ноздрю, но контекстное окно Gemini по-настоящему гигантское — 1 миллион токенов и растёт, — что даёт серьёзное преимущество при работе с огромными документами или длинными беседами.

С другой стороны, GPT-4 выигрывает от многолетней итеративной доработки и огромной экосистемы с плагинами, приложением ChatGPT и широким распространением.

Gemini против Claude

Claude от Anthropic — ещё один крупный конкурент с иной философией. Claude делает акцент на согласованности и безопасном выводе. У него очень строгие ограничения (guardrails). Claude включает гораздо больше этических ограничений, чем ChatGPT или Gemini, что привлекает пользователей, для которых приоритетом является безопасность и ответственный ИИ.

Модель Claude Sonnet 4 также поддерживает контекст до 1 миллиона токенов — вровень с Gemini — и известна очень чёткой, похожей на человеческую генерацией текста. Gemini под управлением Google также фокусируется на безопасности, но с несколько иным подходом. Принципы ИИ DeepMind подчёркивают безопасность по замыслу (safety by design) с самого начала.

С точки зрения «сырых» способностей, Gemini обычно обладает более сильными мультимодальными и программистскими навыками, в то время как Claude часто хвалят за творческое письмо и надёжность. Gemini 2.5 возглавляет лидерборд LMSYS Arena благодаря сильным рассуждениям и возможностям программирования, в то время как сильная сторона Claude — создание отполированной, тонкой прозы.

К 2026 году все эти модели будут развиваться дальше. Мы ожидаем GPT-5, Claude 5 и, конечно же, Gemini 4. Ключевыми отличиями станут такие вещи, как размер контекстного окна, поддержка мультимодальности, интеграция инструментов и то, как каждая компания уравновешивает «сырую» мощь с безопасностью.

На данный момент уникальное преимущество Google — использование их массивной экосистемы данных и интеграция продуктов. Gemini будет подпитываться знаниями из Google Поиска и интегрироваться в приложения Google, что даёт преимущество в сценариях использования, с которым трудно соревноваться.
Планы Gemini на 2026 год ч3 Аноним # OP 08/01/26 Чтв 13:06:23 1482654 173
image 1092Кб, 1920x1280
1920x1280
>>1482652
Амбиции на 2026 год: инфраструктура, этика и генеративные инструменты

Заглядывая дальше, Google делает абсолютно масштабные ставки на инфраструктуру и возможности ИИ на 2026 год и далее. И когда я говорю «масштабные», я имею в виду именно это. Позвольте показать, насколько масштабно они мыслят.

Инфраструктура и вычислительная мощность

Google создаёт собственные чипы для ИИ под названием TPU — Tensor Processing Units. В конце 2025 года они анонсировали Ironwood — TPU седьмого поколения, который быстрее и энергоэффективнее всего предыдущего. Аналитики ожидают, что соотношение цена/производительность Ironwood будет конкурировать с лучшими GPU от NVIDIA и AMD, что огромно.

Но вот что действительно привлекло моё внимание. Google ускоренными темпами закупает TPU. Сообщается, что в 2025 году они потратили 9,8 миллиарда долларов на TPU, по сравнению всего с 2 миллиардами в 2023 году. Это почти пятитысячный рост всего за 2 года. Это говорит нам о том, что Google готов масштабировать обучение ИИ в огромных объёмах.


И затем идут по-настоящему дикие вещи. Они исследуют нечто под названием Project Suncatcher — сверхамбициозный проект по размещению TPU Google на спутниках с солнечным питанием, создавая космические центры обработки данных, работающие почти непрерывно за счёт энергии Солнца. Хотя это дело далёкого будущего, это показывает, что Google думает вперёд о неограниченных вычислениях для ИИ.

Ближе к Земле они расширяют центры обработки данных и усилия в области квантовых вычислений, используя собственные оптоволоконные сети и применяя ИИ для управления эффективностью — например, системы ИИ, которые оптимизируют охлаждение дата-центров в реальном времени. Всё это означает, что к 2026 году Google хочет получить чёткое преимущество в чистой вычислительной мощности и эффективности для обучения ещё более крупных моделей, таких как Gemini 4 и тем, что последуют за ней.

Ответственная разработка ИИ

Google неоднократно подчёркивает ответственную разработку. И я думаю, это заслуживает внимания, потому что это не просто маркетинговые заявления. Их публично заявленные принципы ИИ подчёркивают безопасность, конфиденциальность и справедливость.

В контексте Gemini DeepMind отметил, что безопасность и ответственность являются центральными при создании продвинутых ассистентов. На практике это означает, что Google усилит ограничения на галлюцинации, предвзятость и потенциальное злоупотребление. Например, они теперь ограничивают использование персональных данных в Gemini. Данные Workspace остаются полностью конфиденциальными и не используются для обучения модели.

У них есть команды, активно работающие над согласованием ИИ (AI alignment) — обеспечивая, чтобы эти системы действительно делали то, что мы от них хотим. К 2026 году мы можем ожидать более формализованных процессов, таких как независимый аудит Gemini, функции объяснимости (explainability), где Gemini показывает, как он пришёл к ответу, и прозрачные инструменты, дающие вам больше контроля.

Это также связано с политикой. Руководители Google выступают за чёткое регулирование ИИ. Суть в том, что этичный ИИ в Google — это не второстепенное соображение. Они активно работают над тем, чтобы заложить его с самого начала, и у них есть послужной список серьёзных исследований по этике, подтверждающих это.

Расширение продуктов генеративного ИИ

Google стремительно расширяет свой набор продуктов генеративного ИИ — и некоторые из этих вещей по-настоящему впечатляют. Позвольте мне провести вас через то, что уже происходит и что грядёт.

Генераторы мультимедиа: В исследовательском арсенале Google есть модели вроде Imagen для изображений, Lyria для музыки и Veo для видео. В 2025 году они выпустили Veo 2 и Veo 3 для создания видео. Есть даже потребительское приложение Flow для редактирования видео с помощью ИИ на базе Veo. К 2026 году мы можем увидеть полноценные ИИ для кинопроизводства, инструменты виртуальной продакшн-работы и генеративное видео, интегрированное в массовые приложения. Представьте, что сможете создать профессиональное рекламное видео за минуты, просто описав, чего хотите.

ИИ для программирования и дизайна: Помимо языковых моделей, Gemini позиционируется как модель vibe coding. Вы описываете, чего хотите, и она пишет код. Мы можем ожидать продвинутые инструменты, такие как ИИ-ассистент по программированию, встроенный непосредственно в IDE от Google или Cloud Code, и даже версии Android Studio на базе Gemini. Что касается дизайна и продуктивности, Google Workspace может получить новые функции автодизайна, такие как ИИ-генерируемые макеты слайдов, мгновенный перевод и транскрибация в Meet и умное форматирование в Docs.
Планы Gemini на 2026 год ч4 Аноним # OP 08/01/26 Чтв 13:07:17 1482657 174
image 609Кб, 1120x630
1120x630
>>1482654
Генеративная коммерция и дополненная реальность: Google уже продемонстрировала покупки с ИИ через режим «Покупайте с ИИ» (Shop with AI), который использует вашу камеру для виртуальной примерки одежды. К 2026 году это может стать повседневной функцией в Google Lens или Картах. Речь идёт о шопинге в дополненной реальности, виртуальных примерках и бесшовной интеграции с рекламными и торговыми платформами Google. Покупки станут иммерсивным, персонализированным опытом.

Подписочные сервисы: Google представил Google AI Ultra — премиальную подписку, объединяющую лучшие функции Gemini, подобно тому, как OpenAI предлагает ChatGPT Plus. Это показывает, что Google серьёзно думает о постоянном получении дохода от ИИ. В 2026 году мы можем увидеть различные тарифы, такие как Gemini Pro или Gemini Enterprise, каждый из которых предлагает разные возможности и ценовые категории.

Новое оборудование: Новейшие смартфоны и умные колонки Google буквально создаются для Gemini. Идея в том, что к 2026 году устройства могут поставляться с включёнными функциями Gemini по умолчанию — мгновенное преобразование речи в ИИ, ИИ-генерируемые пользовательские интерфейсы и бесшовная интеграция со всеми вашими гаджетами.

Отраслевое влияние

Наконец, поговорим о том, как это изменит целые отрасли — потому что последствия огромны.

Поиск: Основной бизнес Google трансформируется из перечисления ссылок в предоставление ИИ-управляемых ответов. К 2026 году поиск может выглядеть больше как интерактивный чат или визуальная панель управления, как намекает генеративный поиск Gemini. Способ, которым мы находим информацию, кардинально меняется.

Продуктивность: ИИ будет автоматизировать рутинную работу в масштабах. Компании уже сообщают о огромной экономии времени. В цитате Google говорится: «Gemini и Workspace могут сократить время написания писем на 30–35%». Теперь представьте, как это пойдёт дальше — автоматически назначенные встречи, мгновенные отчёты, сгенерированные из исходных данных, автоматизированная помощь в кодировании. Это может кардинально повысить производительность работников и изменить виды работ, на которых будут сосредоточены люди.

Медиа и контент: Кинематографисты и художники будут использовать такие инструменты, как Flow и Imagen, чтобы мгновенно прототипировать идеи. Рекламодатели смогут генерировать креативные материалы по требованию. Образование сможет использовать ИИ-репетиторов. Gemini уже может анализировать ваши видео с домашними заданиями и давать обратную связь. Инструменты творчества демократизируются так, как мы никогда раньше не видели.

Исследования и наука: Модель Google Gemma — вариант Gemini — уже использовалась для решения сложных задач, даже помогая в исследованиях новых методов терапии рака. К 2026 году подобные ИИ-инструменты смогут помогать учёным в биологии, физике, химии и других областях, кардинально ускоряя темпы открытий.

Коммерция и розничная торговля: Покупки в дополненной реальности и рекомендации на основе ИИ сотрут границы между онлайн- и офлайн-шопингом. Собственный магазин Google может использовать Gemini для сверхперсонализированных рекомендаций товаров на основе всей вашей истории и предпочтений.

Другие сектора: В здравоохранении появятся чат-боты для пациентов и ИИ-помощь в диагностике. В финансах ИИ будет использоваться для анализа рынка и оценки рисков. В службе поддержки появятся ИИ-представители, решающие сложные вопросы поддержки. Каждая отрасль, о которой вы только можете подумать, почувствует влияние Gemini.

Заключение

Подводя итог, дорожная карта Google на 2026 год — это не просто создание более крупной модели. Это комплексный подход, охватывающий инфраструктуру — новые TPU и центры обработки данных, даже космические проекты. Это сами модели — такие как Gemini 4 и далее. Это инструменты — такие как AI Studio, Anti-Gravity и интеграции Workspace. И, что крайне важно, это этика — с серьёзными исследованиями безопасности, направляющими разработку.

Если это удастся, это может открыть новую эру, в которой ИИ-ассистенты будут повсеместно полезны, поиск станет больше похож на разговор с экспертом, а продуктивность — сверхускоренной, — и всё это в рамках мантры Google «ИИ для всех» (AI for everyone), которая стала официальным слоганом в 2025 году.

Итак, давайте подведём итог. Gemini 4 готова стать следующим гигантским скачком Google вперёд, вероятно, принеся более широкие контекстные окна, более глубокое мультимодальное понимание, более умные способности к рассуждению и значительный прирост эффективности по сравнению с Gemini 3. Но ещё важнее видение, которое её окружает.

Google постоянно интегрирует ИИ Gemini во все свои продукты — Поиск, Workspace, Android и потребительские устройства — одновременно ведя амбициозные исследования через универсального ассистента Project Astra и мультиагентные системы вроде Mariner. К 2026 году мы увидим, как все эти части собираются вместе: ИИ-генерируемые пользовательские интерфейсы в Поиске, автоматизированные рабочие процессы в офисе и, возможно, даже ИИ-системы, работающие в космосе.

Мы также сравнили Gemini с GPT-4 и Claude, отметив, что преимущество Google заключается в бесшовной мультимодальности и глубокой интеграции экосистемы, в то время как конкуренты делают ставку на творческие способности или строгую согласованность.

В конечном счёте, гонка ИИ стремительно набирает обороты. Но стратегия Google по созданию моделей, платформ и продуктов как единой целостной системы — это по-настоящему уникальный подход, дающий им серьёзные преимущества. Будущее ИИ — это не просто о том, у кого самая умная модель. Это о том, кто сможет интегрировать этот интеллект во все аспекты нашей цифровой жизни. И Google делает на это всё.
Революция ИИ только начинается, и поверьте мне, вы не захотите пропустить то, что будет дальше.
Аноним 08/01/26 Чтв 13:17:21 1482675 175
Аноним 08/01/26 Чтв 13:18:23 1482680 176
>>1482657
>Речь идёт о шопинге в дополненной реальности
Когда реальных юзкейсов нет, но приходится их придумывать чтоб не уволили
AGI в 2026 ч1 Аноним # OP 08/01/26 Чтв 13:27:35 1482694 177
image 1284Кб, 1280x720
1280x720
image 234Кб, 719x405
719x405
Прогноз по AGI на 2026 год: шумиха или горизонт событий?

Вы, вероятно, слышали шумиху о скором приходе AGI (искусственного интеллекта общего назначения), но задаётесь вопросом: не продают ли эти технологические гиганты просто мечты, или мы действительно на пороге чего-то грандиозного? Что ж, уже несколько месяцев я внимательно слежу за каждым объявлением, каждым релизом модели и каждым смелым прогнозом от XAI Илона Маска, OpenAI Сэма Альтмана и Google DeepMind. И вот что меня удивило больше всего: все они указывают на один и тот же год — 2026.

Мы рассмотрим, что каждая компания строит прямо сейчас, какие прорывные модели они уже выпустили и почему их временные рамки сходятся на 2026 году как на поворотном моменте для искусственного интеллекта общего назначения. К концу вы поймёте, является ли это реалистичным оптимизмом или просто ещё одним переоценённым обещанием.

XAI Илона Маска: полная ставка на 2026 год

Сейчас Илон Маск строит нечто беспрецедентное в мире ИИ. Представьте себе: суперкластер под названием Colossus, вмещающий сотни тысяч графических процессоров (GPU), с планами масштабировать его до 1 миллиона GPU. Это не опечатка — речь идёт о миллионе. Для сравнения: это больше вычислительной мощности, чем есть у большинства стран. Всё это направлено на одну цель: достичь ИИО к 2026 году.

Но самое интересное начинается здесь. Маск не просто бросает «железо» на решение проблемы. На совещании всей команды в декабре 2025 года он сказал сотрудникам нечто откровенное: «Если XAI переживёт ближайшие несколько лет, она выйдет на первое место». Это «если» очень важно, потому что показывает: он понимает, что это игра с высокими ставками. Компания тратит от 20 до 30 миллиардов долларов в год только на вычислительные мощности. Они даже назвали свой новый дата-центр Macrohard — не слишком скрытый намёк на конкурентов.

Вычислительная мощность впечатляет, но главное — что они делают с ней. В ноябре 2025 года XAI выпустила Grok 4.1, и цифры поразительны. Согласно их бенчмаркам, Grok 4.1 занимает первое общее место на LM Arena, опережая следующую по рейтингу модель на 31 очко ELO. Этого они достигли благодаря продвинутому обучению с подкреплением, повышающему креативность, связность и даже то, что они называют «эмоциональным интеллектом».

Но это ещё не всё. Маск заявил, что Grok 5 выйдет в начале 2026 года, и оценил вероятность её достижения уровня AGI примерно в 10%. Возможно, 10% звучит не впечатляюще, но задумайтесь, что это значит. Генеральный директор компании, создающей эту технологию, считает, что у их следующей модели есть реальный шанс стать AGI. Это не шумиха — это осторожный оптимизм человека, обладающего инсайдерской информацией.

Кроме того, у XAI есть уникальное преимущество, которого нет у других лабораторий: вся экосистема Маска. Чат- и голосовые ИИ Grok уже интегрированы в автомобили Tesla. Каждый разговор, каждое взаимодействие возвращают данные в систему, помогая улучшать модели в реальных условиях. Это создаёт обратную связь, которая ускоряет развитие так, как не могут чисто лабораторные исследования.

Итог: XAI собрала беспрецедентные вычислительные ресурсы, выпустила ведущую модель и имеет генерального директора, который недавно перенёс свой публичный прогноз по AGI на 2026 год. Этот сдвиг многое говорит: они достаточно близко подошли к финишной черте, чтобы её видеть, но достаточно честны, чтобы признать, что до неё ещё не дошли.

OpenAI: систематический путь к сверхразуму

В то время как XAI делает агрессивные шаги, OpenAI выбирает другой подход. Они не мчатся безрассудно — они масштабируются систематически, и их прогресс за последние 2 года был замечательным.

В августе 2025 года OpenAI запустила GPT-5. Они описали её как свою самую умную, самую быструю и полезную модель с гораздо более глубокими навыками рассуждения, знаниями и написания кода, чем всё, что было раньше. Но они не остановились на этом. Позже в 2025 году они представили GPT-5.2, которую называют самой передовой фронтовой моделью для профессиональной работы. Эти модели — не просто пошаговые улучшения, а качественные скачки, превосходящие предыдущие системы во всём: от математических олимпиад до сложных письменных задач.

Вот чего большинство не осознаёт в стратегии OpenAI: они сосредоточены не только на цифровом интеллекте. Они возвращаются в робототехнику — и делают это по-крупному, нанимая экспертов по гуманоидным роботам, чтобы создавать ИИ, способные учиться через действия в реальном мире. Это указывает на нечто важное. OpenAI считает воплощённый ИИ ключевым шагом к ИИО. Они полагают, что для настоящего понимания интеллекта нужны системы, способные взаимодействовать с физическим миром, а не только обрабатывать текст и изображения.

Публичные комментарии Сэма Альтмана показывают, насколько они уверены. В начале 2025 года он заявил, что OpenAI «знает, как создать ИИО в том виде, в каком мы традиционно его понимаем». Подумайте над этим заявлением. Генеральный директор ведущей лаборатории ИИ говорит, что они нашли путь. Следующий этап, согласно Альтману, — это настоящий сверхразум, который ускорит открытия и инновации.

Но именно здесь точка зрения Альтмана становится особенно интересной. В своём посте в блоге «Нежная сингулярность» он обозначает период с 2025 по 2027 год как время стремительно нарастающих возможностей ИИ. Он прогнозирует, что к 2026 году мы увидим ИИ-системы, генерирующие по-настоящему новые идеи — не просто рекомбинирующие существующие знания, а совершающие настоящие открытия. Он даже отмечает, что 2030-е, скорее всего, будут кардинально отличаться от любого предыдущего времени.

Альтман осторожен. Он признаёт неопределённость и призывает к осмотрительности. Он не называет чёткий дедлайн 2026 года, но траектория ясна. У OpenAI есть многомиллиардные инвестиции Microsoft, доступ к суперкомпьютерам Azure и десятки ведущих исследователей, работающих над каждым поколением моделей. Их стратегия — методичное масштабирование моделей и вычислений в сочетании с пристальным вниманием к надёжности и согласованности.

Практическая реальность? OpenAI уже внедряет модели, работающие на профессиональных знаниях почти на человеческом уровне. Разрыв до AGI больше не связан с фундаментальными прорывами — речь идёт об улучшении, масштабе и интеграции. И они одновременно работают над всеми тремя направлениями.

Google DeepMind: долгосрочная перспектива

Теперь поговорим о Google DeepMind, потому что их подход даёт интересный контраст. В то время как Маск ставит всё на 2026 год, а Альтман прогнозирует трансформационные системы к тому моменту, руководство Google проявляет большую сдержанность.

Но не путайте сдержанность с пессимизмом. Демис Хассабис, генеральный директор DeepMind, недавно заявил, что AGI всё ещё в 5–10 годах и потребует ещё одного или двух крупных прорывов. Сундар Пичаи, генеральный директор Google, описывает текущий ИИ как находящийся на «зубчатой стадии» — способный на невероятные вещи в одних областях, но испытывающий трудности с, казалось бы, простыми задачами в других. Это их способ сказать: мы ещё не совсем там.

Но вот что делает позицию Google особенно интересной: они не торопятся, потому что им не нужно торопиться. DeepMind занимается исследованиями ИИ дольше почти всех — ещё с 2010 года. Они совершили фундаментальные прорывы, такие как AlphaGo, AlphaFold для сворачивания белков и теперь Gemini — их последняя крупная языковая модель. Это не просто впечатляющие демонстрации — это вклад в научное понимание самого интеллекта.

Стратегия Google — строить инфраструктуру и фундаментальные исследования, делающие ИИО возможным. Даже если они не гонятся за самой ранней датой релиза, они сосредоточены на решении сложных задач: многошаговые рассуждения, долгосрочное планирование, понимание реального мира — и у них есть ресурсы, сравнимые с любыми другими. Вычислительная инфраструктура Google беспрецедентна. У них есть доступ к огромным объёмам обучающих данных из их продуктов, и они могут привлекать лучших специалистов.
AGI в 2026 ч2 Аноним # OP 08/01/26 Чтв 13:28:23 1482696 178
image 594Кб, 686x386
686x386
image 424Кб, 686x386
686x386
>>1482694
Сроки в 5–10 лет, упомянутые Хассабисом, могут показаться консервативными по сравнению с прогнозом Маска на 2026 год, но обратите внимание, что он на самом деле говорит: «ещё один или два крупных прорыва». В исследованиях ИИ крупные прорывы могут происходить внезапно. Мы видели это с Трансформерами в 2017 году, со скалирующими законами GPT-3 в 2020 году, с обучением с подкреплением на основе человеческой обратной связи, которое сделало возможным ChatGPT. Если судить по истории, один или два прорыва могут сжать несколько лет ожидаемого прогресса в гораздо более короткий срок.

И есть ещё один фактор. У Google есть свои интересы: огромные инвестиции в ИИ-инфраструктуру и необходимость конкурировать с OpenAI и XAI. Они не будут оставаться в стороне, если AGI станет достижимым. Как только они увидят чёткий путь, вы можете быть уверены, что ускорятся.


Почему постоянно упоминается 2026 год

Итак, у нас три разные компании и три разных подхода, но все они так или иначе сходятся на одном и том же приблизительном временном интервале. Маск говорит о 2026 году. Альтман прогнозирует новые идеи к 2026 году. Даже временные рамки Хассабиса в 5–10 лет — которые тянутся до 2029 или 2034 года — признают, что один или два прорыва могут резко ускорить этот график.

Такое сближение не случайно. Оно основано на конкретном техническом прогрессе, который наблюдают все эти лаборатории. Модели, выпущенные в 2025 году — GPT-5.2, Grok 4.1 и Gemini — представляют качественный скачок по сравнению с тем, что у нас было в 2023 году. Они не просто лучше справляются с уже известными задачами; они способны на новые типы рассуждений и решения проблем, недоступные предыдущим моделям.

Развёртываемые вычислительные ресурсы также беспрецедентны. План XAI по миллиону GPU, доступ OpenAI к суперкомпьютерам Azure, обширная инфраструктура Google — речь идёт об инвестициях в десятки миллиардов долларов, все направленные на одни и те же технические проблемы.

Когда несколько независимых команд с огромными ресурсами атакуют одну и ту же проблему с разных углов, прорывы происходят быстрее, чем кто-либо ожидает. Кроме того, здесь действует эффект обратной связи. По мере того как эти модели улучшаются, они сами становятся полезными для ускорения исследований в области ИИ. Они могут помогать писать код, анализировать результаты, генерировать гипотезы и исследовать пространства решений. Это означает, что сами инструменты для создания ИИО становятся умнее, что ускоряет цикл разработки.

И не забывайте о конкурентной динамике. Эти компании не работают изолированно. Они пристально следят друг за другом. Когда OpenAI выпускает прорывную модель, XAI и Google реагируют. Когда Маск объявляет о масштабном расширении вычислительных мощностей, другие обращают внимание. Эта конкуренция создаёт давление двигаться быстрее, сильнее напрягаться и делать более крупные ставки.

Реалистичная оценка

Вот что мы можем сказать с разумной уверенностью. Будет ли у нас полноценный AGI на уровне человека, способный освоить любую задачу, которую может выполнить человек, в январе 2026 года? Вероятно, нет. Технические трудности всё ещё значительны, и даже самые оптимистичные лидеры признают неопределённость.

Но станет ли 2026 год поворотным в разработке ИИО? Свидетельства убедительно говорят «да». Мы, скорее всего, увидим модели, способные выполнять большую часть профессиональной интеллектуальной работы на уровне или выше человеческого. Мы, вероятно, увидим системы, способные проводить настоящие исследования и делать новые вклады в науку. Мы даже можем увидеть первые версии ИИ-агентов, способных автономно выполнять сложные многоэтапные задачи в реальном мире.

Инфраструктура, строящаяся прямо сейчас — массивные вычислительные кластеры, усовершенствованные методы обучения, огромные наборы данных — создаёт основу, которой не существовало даже два года назад. А таланты, сконцентрированные в этих лабораториях, представляют собой беспрецедентную совокупность экспертизы, направленной на одну цель.

Подумайте о том, что Альтман написал в своей статье «Нежная сингулярность»: «Мы не знаем, насколько далеко за пределы человеческого уровня интеллекта мы сможем зайти, но мы вот-вот это узнаем». Это не маркетинговый слоган. Это заявление человека, который видел возможности последних моделей и понимает, по какой траектории они движутся.

Сочетание огромных инвестиций, уже достигнутых технических прорывов и сближения множества независимых временных рамок — все указывают на середину 2020-х — создаёт убедительные основания для оптимизма. Точная дата — 2026, 2027 или 2028 — может быть не столь важна, как более широкая реальность: мы вступаем в период, когда возможности ИИ перейдут от впечатляющих к трансформационным.

Последствия для нас

Так почему же это важно для вас? Потому что, если эти прогнозы окажутся хотя бы близки к истине, мир вот-вот изменится кардинально. Речь идёт не о лучших чат-ботах или более эффективном автодополнении кода. Речь идёт об ИИ-системах, способных вносить вклад в научные исследования, решать сложные технические проблемы и, возможно, ускорять инновации во всех областях.

Некоторые отрасли будут разрушены. Некоторые профессии преобразятся. Но история показывает, что такие переходы, несмотря на трудности, также создают огромные возможности. Вопрос уже не в том, придёт ли AGI — речь скорее о том, когда и как. И осведомлённость о сроках, ключевых игроках и реальном техническом прогрессе даёт вам преимущество.

Гонка за AGI — это не просто соревнование между технологическими компаниями. Это трансформация самой человеческой способности. И исходя из всего, что мы рассмотрели — моделей, вычислительных ресурсов, экспертных прогнозов и наблюдаемого прогресса — 2026 год складывается как год, когда эта трансформация перейдёт от теоретической к неоспоримой.

Заключительные мысли

Мы рассмотрели трёх гигантов ИИ: XAI со своей ставкой на вычислительные мощности и 10%-ным шансом на Grok 5; OpenAI с её систематическим масштабированием и уверенным графиком новых идей; и Google DeepMind со сдержанным подходом, но признанием, что один или два прорыва могут всё изменить.

Вывод не в том, что AGI обязательно придёт к 2026 году. Вывод в том, что множество независимых источников — каждый со знанием изнутри и огромными ресурсами — указывают на середину 2020-х как на критический период. Это сближение важнее любого отдельного прогноза.

Как отметил Альтман, мы вступаем на неизведанную территорию. 2030-е, скорее всего, будут кардинально отличаться от всего, что было раньше, и мы вот-вот узнаем, насколько далеко за пределы человеческого уровня интеллекта мы сможем зайти. Будет ли это волнующим или тревожным, вероятно, зависит от вашей точки зрения. Но в любом случае это происходит.
Аноним 08/01/26 Чтв 13:30:06 1482700 179
>>1482680
вот чем больше я читаю такие анонсы и красивые статьи, тем больше ощущение, что видимо реально уже близко к концу пузыря

Попытка придумать какие-то никому не нужные применения, которые не решают реальных потребностей, и при этом не понятно, как их монетизировать, при том, что сами технологии дорогие, и в плане разработки, и скорее всего обслуживания.
Аноним 08/01/26 Чтв 13:52:31 1482732 180
oP30xdS2vA4.jpg 841Кб, 2464x2000
2464x2000
>>1482700
Я предлагаю создать сервис "Пукай вместе с ИИ" (Fart with AI). Суть в следующем. На мобильное устройство пользователя устанавливается приложение. После пердежа пользователь должен крикнуть "Грок, я пукнул!". От этой команды запускается ИИ-агент, который анализирует последние 30 секунд аудиозаписи на устройстве, находит там звук пердежа и отправляет на удаленный сервер. Там запись анализируется посредством мощных нейросетей, и сравнивается с записями пользователей поблизости, и в итоге пользователю обратно присылается оценка качества его пука от 0 до 100. Стоимость подписки - 19.99$ на первоначальный пробный период. За дополнительную подписку можно отредактировать звук пука, поделиться им в соцсетях, послушать как звучал бы ваш пук в исполнении Джейсона Стетхема, Арианы Гранде и т.д.
Аноним 08/01/26 Чтв 14:42:34 1482776 181
>>1482696
Страшно, очень страшно. А вдруг реально появится аги, а потом аси? Это же пиздец. Это экзестенциальный ужас. Чем мы заслужили такой исход? Люди до нас тысячилетниями пахали и умирали, а мы просто так возьмем и окунемся в сингулярность?
Аноним 08/01/26 Чтв 14:59:18 1482794 182
>>1482776
Да норм, зато сколько изменений увидишь. Скучно не будет.
Аноним 08/01/26 Чтв 15:27:16 1482833 183
Аноним 08/01/26 Чтв 15:52:18 1482865 184
>>1482520
Как думаете, после того как бод появится в США, как скоро он появится здесь? Мне кажется надежда только на Китай и как скоро он догонит США, тогда они могут поделиться технологиями. Само собой "всеобщего мирового дохода" от компаний США можно не ожидать, это не для нас разработано
Аноним 08/01/26 Чтв 16:04:52 1482881 185
>>1482776
> а мы просто так возьмем и окунемся в сингулярность?
Единственное, что мне показала моя жизнь, это то, что если ты не богат, то единственное куда ты можешь окунуться это очередная задумка старых пердунов наверху уровня гойды. Вот здесь прямо таки неиллюзорные возможности. А в остальном прогресс за 40 лет шагнул разве что только в слежке за личностью с целью продать или подавить волю к сопротивлению воли барина.
Аноним 08/01/26 Чтв 17:18:40 1482995 186
Луддитов надо собрать и вывезти на отдельный остров. Пусть живут там как аборигены, пока мы будем покорять другие галактики.
Аноним 08/01/26 Чтв 17:24:12 1483011 187
>>1482995
>покорять другие галактики
Типа как когда луддиты покоряют станки разбивая их кувалдами?
Аноним 08/01/26 Чтв 17:52:43 1483053 188
>>1482596
>ChatGPT затем может транскрибировать написанное вами, сделать краткое содержание, расширить мысль или даже ответить на вопросы по этому поводу — и всё это на лету.

>Представьте, что вы находитесь на совещании и делаете заметки от руки (ведь, честно говоря, печатание на ноутбуке создаёт впечатление, что вы не слушаете). С Gumdrop эти рукописные заметки могут автоматически превратиться в структурированные цифровые конспекты.
Что значит на лету? рядом с этим говном надо держать ноутбук который будет тебе отвечать? А почему тогда не юзать ноут? И вообще что мешает сфотографировать то что ты написал нормальной, тонкой ручкой чтобы это все получить если тебе надо?

>И подождите — это ещё не всё. Согласно TechCrunch, устройство будет обладать так называемым «режимом постоянного прослушивания». Это значит, что вы сможете разговаривать с ручкой, задавать ей вопросы, вести полноценные беседы с ChatGPT — и всё это без необходимости доставать телефон.
Смартфоны и так это делают, только не явно и не для юзера. Что мешает этим заниматься смартфону для пользователя?
Абсолютно костыльное дерьмо, как и все аи пены и прочая шняга. Ничего кроме очков с доп реальностью из этого не взлетит. Быстрее бы вышло, хочу увидеть этот эпичный обсер. Сколько там инцестопидор за айва отдал миллиардов?
Аноним 08/01/26 Чтв 17:56:02 1483063 189
176788412180072[...].jpg 31Кб, 900x300
900x300
Аноним 08/01/26 Чтв 18:51:39 1483099 190
Быстровости:

—Anthropic привлекает скромные $10B по оценке $350B (для сравнения, OpenAI в ближайшее время планирует привлекать по оценке $850B), xAI —$20B, почти все из которых пойдут на строительство датацентра; оценка последних неизвестна

—По оценкам аналитиков, в течение следующих двух лет индустрия DRAM сможет обеспечить только ~15 ГВт ИИ-датацентров. На данный момент у лидирующих компаний есть план построить 50 ГВт за 3 года. Понятно, что за 2 года производство памяти так сильно не расширить, есть надежда, что к концу третьего года быть может новые плашки и появятся. А это означает, что следующие три года на рынке будет колоссальнейший дефицит DDR в потребительском сегменте.

—SemiAnalysis утверждает, что модель, выигравшая золотую медаль на олимпиаде по математике летом —это вариант GPT-5.1 Codex Max. Не знаю, зачем вам эта информация, просто между делом.

— Веб-фреймворк Tailwind уволил 75% сотрудников из-за ИИ, но не потому, что программисты теперь не нужны —у компании нет денег, так как из-за LLM-ок люди не заходят на страницу документации, и меньше людей покупает платные услуги. Выручка упала, пришлось резать штат.

—Суд продавил OpenAI сразу в двух делах: в деле против New York Times судья заставила https://news.bloomberglaw.com/ip-law/openai-must-turn-over-20-million-chatgpt-logs-judge-affirms компанию предоставить 20 миллионов чатов газете для анализа; ранее компания обжаловала этот запрос, но судья решила, что так надо. В деле против Elon Musk и нарушении миссии компании делу дали ход https://www.theguardian.com/technology/2026/jan/08/elon-musk-openai-lawsuit-for-profit-conversion-can-go-to-trial-us-judge-says , теперь стороны увидятся в суде (раньше это был просто судебный иск).

—OpenAI запустили https://openai.com/index/introducing-chatgpt-health/ ChatGPT Health, ассистента, который будет помогать в медицинских вопросах. Основная фича —это загрузка всех своих медицинских данных, от снимков и анализов до результатов тренировок с часов или MyFitnessPal. Доступно даже бесплатным пользователям, однако запуск очень лимитирован по количеству аудитории (и ещё недоступно в UK и EU, спасибо регуляторам).

— Nvidia планирует выпустить новые игровые видеокарты 60xx серии (на Vera Rubin, которую вот только что представили для датацентров) только во второй половине 2027-го. И судя по всему без заметного скачка в количестве памяти, оно и понятно. Плюс ожидаем перенос запуска консолей нового поколения и т.д.
Всё во имя ИИ!
Аноним 08/01/26 Чтв 18:58:02 1483107 191
>>1482995
>пока мы будем покорять
Ты Луну покори сначала, покорятор.
>>1483099
>предоставить 20 миллионов чатов
Нихуя себе. А участников чатов спросили или это нормальная практика - когда одна фирма разговоры других другой передает?
Аноним 08/01/26 Чтв 19:14:50 1483124 192
>>1483099
> предоставить 20 миллионов чатов газете для анализа; ранее компания обжаловала этот запрос, но судья решила, что так надо

Пиздец, ссаной газете и ее журналюгам приватные чаты миллионов людей отдают, хотя они на это не соглашались. А те потом сольют кому надо за бабки. Капитализм ебанулся вместе с судами.
Аноним 08/01/26 Чтв 19:21:44 1483137 193
>>1483099
>И судя по всему без заметного скачка в количестве памяти, оно и понятно.
Курточная крыса будет давить юзеров говняной памятью до последнего. Пока конкуренты не выпрут его с рынка датацентров. Или пока АМД не выкатят доступные ускорители с нормальной памятью.
Аноним 08/01/26 Чтв 19:24:23 1483139 194
>>1483137
Лол, реально крыса охуевшая жадная.

GeForce RTX 6090: Хотя инженеры были склонны оснастить флагман впечатляющими 48 ГБ видеопамяти, теперь компания решила остаться при конфигурации на 32 ГБ. Это снизит стоимость, но ограничит возможности карты для профессиональных задач.

GeForce RTX 6080: Положение субфлагмана выглядит еще более шатким. Есть высокая вероятность, что вместо ожидаемых 24 ГБ карта получит только 16 ГБ VRAM. Этот шаг неизбежно приведет к упрощению шины памяти и снижению общей производительности, которая может оказаться ниже ранних прогнозов.
Аноним 08/01/26 Чтв 19:39:15 1483150 195
>>1483139
Субфлагман тонет. 16 Гб оперативы, это топкек. Зачем эта карточка вообще нужна прогреваемым, если 5080 и так тянет 8к 25 килогерц ультракуалити?
Аноним 08/01/26 Чтв 19:40:18 1483151 196
>>1483150
Там же еще и DLSS 4.5 выкатили, который FPS бафает в несколько раз.
Аноним 08/01/26 Чтв 19:42:59 1483155 197
>>1483150
Там еще и цены такие, что только для сверхбогатых буратин. Ну и как всегда горящие провода и разъемы, чтобы чаще новую покупали. Короче все не для людей.

рекомендуемые цены (MSRP) уже достигли рекордных значений — 2999 долларов за RTX 6090 и 1699 долларов за RTX 6080.
Аноним 08/01/26 Чтв 19:46:00 1483159 198
>>1483151
>Там же еще и DLSS 4.5 выкатили, который FPS бафает в несколько раз.
наоборот производительность упала.
Аноним 08/01/26 Чтв 19:50:55 1483164 199
Луддитов надо убивать
Аноним 08/01/26 Чтв 20:08:29 1483182 200
1366821972093.jpg 159Кб, 640x800
640x800
>>1483164
Ты хотел сказать сингулировать, чем сингулярность отличается от смерти, после неё тоже никто не знает что будет.
Аноним # OP 08/01/26 Чтв 20:14:19 1483193 201
weichsel1.mp4 3165Кб, 752x416, 00:00:06
752x416
weichsel2.mp4 788Кб, 480x640, 00:00:06
480x640
image 1724Кб, 1558x1894
1558x1894
image 932Кб, 1548x1760
1548x1760
Исследователь xAI утверждает, что в ближайшие несколько лет люди могут начать замечать снижение стоимости товаров и услуг при одновременном росте своих доходов благодаря искусственному интеллекту и робототехнике.

Джеффри Вайхсель, исследователь xAi, Пало Альто, Калифорния:

Сингулярность:

Я начинаю новую серию публикаций, чтобы показать, как ИИ и робототехника изменят ход развития человечества. Я планирую выпускать по одной публикации ежедневно.

Модели ИИ, такие как @Grok , уже сейчас значительно повышают производительность труда работников. Моя команда наставников в @xAI уже способна выполнить за неделю то, на что ещё несколько лет назад ушло бы 2–3 месяца.

В ближайшие несколько лет люди могут заметить, что стоимость товаров и услуг снижается, в то время как доходы растут.

Однако первое крупное воздействие для большинства людей станет доступность гуманоидных роботов, подобных @Tesla_Optimus, способных выполнять широкий спектр домашних задач. Это кардинально повысит качество жизни. В недалёком будущем вам не придётся ходить в продуктовый магазин или готовить еду. Ваш робот будет выращивать продукты и готовить для вас.

Сингулярность. Часть II: Дом как фабрика

Роботы вроде @Tesla_Optimus будут делать больше, чем просто домашнюю работу — они также будут производить большую часть потребительских товаров, необходимых вашему дому. Просто попросите @Grok спланировать и спроектировать их, и Optimus выполнит задачи.

Нужна пара обуви? Optimus сможет изготовить кожу и смастерить индивидуальную пару. Качество будет соперничать с качеством лучших сапожников прошлого. Поскольку всё создаётся у вас дома, материалы могут быть натуральными и органическими, по существу ничего не стоящими.

Это заря эпохи необычайного изобилия.
Аноним 08/01/26 Чтв 20:25:17 1483203 202
>>1483193
>Нужна пара обуви? Optimus сможет изготовить кожу и смастерить индивидуальную пару.

Где он кожу-то возьмет в городских условиях? Постойте-ка...
Аноним 08/01/26 Чтв 20:25:44 1483205 203
>>1483193
>в ближайшие несколько лет люди могут начать
А могут не начать.
Главное пукнуть в твиттер.
Время такое.
Аноним 08/01/26 Чтв 20:26:27 1483207 204
>>1483203
И правда, ведь улицы забиты кожаными мешками.
Аноним 08/01/26 Чтв 20:32:56 1483221 205
>>1482600
>Компания Nvidia разрабатывает технологию
Блокируем машине прямой доступ в интернет, или банально запрещаем все, кроме нужного, файрволом, и "технология" сосет бибу. Если там другие принципы - тоже обход найдется.
Да и вскрыть\сломать\хакнуть эту херню можно будет, больше чем уверен - китайцы легко справятся.
Угроза же не обычным юзерам, а большим компаниям, с большими деньгами - а у них средства с такой ерундой бороться всегда найдутся.
Не впечатлил, вообщем.

>Никуда рф не входит
копиум.жепеге
Аноним 08/01/26 Чтв 20:38:32 1483229 206
>>1483221
>больше чем уверен - китайцы легко справятся
Я в китайцах тоже не сомневаюсь.
Они тебе еще своих закладок доложат в чипы по братски.
Ведь сам ты их произвести никогда не сможешь, а значит будешь объедками с барского стола довольствоваться, пока не произойдет не большая коррекция.
Аноним 08/01/26 Чтв 20:40:21 1483232 207
>>1483137
>Или пока АМД не выкатят
>не выкатят
Но давай представим, что чудо случится, и выкатят.
Дальше что?
Почти вся ИИ-инфраструктура программно завязана на архитектуру зеленых. Появление хорошего железа это не изменит.
Аноним 08/01/26 Чтв 20:42:22 1483237 208
4352.jpg 24Кб, 256x256
256x256
>>1483193
Напоминает посты на фоне войны про русскую семью будущего где все будут жить в частных домах и ездить на джипах, типа американская мечта но почему-то русская. Тут так же в ответ на индустриальное давления выдумывают дичь про ручные сапоги.
Аноним 08/01/26 Чтв 20:43:41 1483238 209
>>1483193
>люди могут начать замечать снижение стоимости товаров и услуг
Да мы уже заметили стоимость памяти, а ведь это только начало роста слоп-пузыря.
Аноним 08/01/26 Чтв 20:46:28 1483240 210
>>1483221
могут быть варианты, когда карта собирает сведения об аппаратной обвязке, операционной системе и т.п., и на основе этого делает выводы. Могут быть извращения с ключами активации, причём это быть вшито как-то на кристалл, что уже не исправишь.

Но скорее китайцы просто создадут замену нвидии, и монополия будет нарушена.
Аноним 08/01/26 Чтв 20:47:48 1483242 211
>>1483164
Сначала уроки сделай.
Аноним 08/01/26 Чтв 20:52:55 1483250 212
>>1483229
>Ведь сам ты их произвести никогда не сможешь, а значит будешь объедками с барского стола довольствоваться, пока не произойдет не большая коррекция
В ближайшее время выпускать свои чипы сравнимого уровня РФ не светит, вне зависимости от "коррекции". Но разработки моделей при этом идут на очень серьёзном уровне, что про очень немного стран можно сказать. А это как раз очень важно, без своих моделей ты зависим от прихоти тек, кто их обслуживает, плюс твои данные утекают, в том числе часто чувствительные.
Аноним 08/01/26 Чтв 20:54:23 1483252 213
>>1483193
>при одновременном росте своих доходов благодаря искусственному интеллекту и робототехнике
это как это интересно...
Аноним 08/01/26 Чтв 21:12:47 1483267 214
>>1483252
Ну на всяких кабанов будут роботы задаром вкалывать, вот у них (кабанов) доходы и попрут вверх.
Аноним 08/01/26 Чтв 21:15:57 1483269 215
>>1483250
>В ближайшее время выпускать свои чипы сравнимого уровня РФ не светит
Будем честны - никому, кроме Китая, не светит. У РФ тут еще побольше шансов, чем у какой-нибудь Франции или Британии. Хотя бы ресурсы местные у нас есть.

Так что
>объедками с барского стола довольствоваться
как этот >>1483229 шизик писал, придется всем.
Разосрется Трамп с Европой на почве Гренладии, или НАТО, или войнушки с РФ - вот смеху то будет...
Аноним 08/01/26 Чтв 21:20:17 1483270 216
>>1483242
Нет смысла. Скоро сингулярность. Только убивать луддитов имеет смысл
Аноним 08/01/26 Чтв 21:54:14 1483307 217
Почему когда заводы автоматизируют производство еды и выгоняют заводчан на мороз, то это нормально, а когда ИИ автоматизирует производство артов и выгоняет художников на мороз, то это плохо, у них нет души и вообще это воровство интеллектуальной собственности?
Аноним 08/01/26 Чтв 22:39:01 1483361 218
>>1483307
Потому что они думали, что наскринная живопись обладает хуйдожественной ценностью, а размазывая кал по цифровому холсту, они реализуют заложенную в них Б-гом искру творения.
Оказалось, что галлюцинации мясной нейросети вполне заменимы галлюцинациями кремниевой нейросети.
Обидно.
Аноним 08/01/26 Чтв 22:57:34 1483387 219
>>1483361
>>1483307
Работников производств из-за ИИ не сокращают. В целом автоматизация процесс медленный и постепенной, из-за неё проблем нет, реально проблемы были из-за деинструализации, выноса производств в третий мир. При этом ведь выносится не только ручной труд, но и вся организация производства. Вот это реальная проблема, и роботы как раз могут отчасти её решить, стимулировать развитие производств и даже занятости там.

С работами "белых воротничков" сейчас самая главная проблема в диких темпах. Никакой адаптации и не понятны перспективы. Плюс это в принципе более привлекательная работа для всех, и она исчезает.

Что касается художников, "высокий арт" как раз не исчезнет, потому что там работают другие законы. Не сама работа важна, а вызов, признание художника, что он будет востребован. Вот по кому удар, так это по тем, кто что-то классическое рисовал, всякие иллюстраторы книг, игр (физических, не компьютерных) и т.п. Вот как раз для них угроза большая. Пока реально только лора-варианты что-то могут выдать, под нужные требования, но процесс идёт стремительный.
Аноним 08/01/26 Чтв 22:58:40 1483389 220
>>1483361
Ты там уже хотя бы половину органов поменял на кибер аналоги или все такой же мясной? Тогда чего кукарекаешь против своего племени, дурачек. Ощушение - вас в Освенцим помести, вы и там начнете плеваться своей мизантропией. Прямо как свиньи бежите жрать кровь ближнего..
Аноним 08/01/26 Чтв 23:27:02 1483412 221
>>1483389
Был бы труъ-артистом - сам бы горел, наверное. Но я говномазюкатель и говнописатель, поэтому как-то даже и не жалко.
Если творческий процесс можно автоматизировать что и было сделано примерно при царе Горохе, когда эффективные минетжеры появились. То есть, пока исполнители бездушного монетизированного до мозга костей кала мясные, всем было ок. Когда стали механические - почалося РРРЯЯЯ, то, возможно, с самим понятием творчества что-то не так.
Аноним 08/01/26 Чтв 23:39:17 1483426 222
По моим наблюдениям ррякуют только говно художники, у которых низкий скилл и я вообще удивляюсь, что им кто то платил
Аноним 08/01/26 Чтв 23:46:12 1483436 223
>>1483426
>вообще удивляюсь, что художникам кто то платит
+++
Аноним 08/01/26 Чтв 23:48:36 1483441 224
>>1483436
Ну я бы заплатил за картину, чтобы повесить ее в качестве декора.
Аноним 08/01/26 Чтв 23:54:25 1483451 225
>>1483426
В этом и состоит космический эффект, когра ррякает или рукожоп, рисующий жирных пердящих фуррей в МС Паинт мышкой, или же кто-то уровня Сосикочан:
> АРРРЯЯЯ МАШИНА ДЕЛАЕТ БЕЗДУШНЫЙ ОДНООБРАЗНЫЙ СЛОП ЛУЧШЕ БЫСТРЕЕ И ЭФФЕКТИВНЕЕ МЕНЯ
Аноним 09/01/26 Птн 00:52:47 1483525 226
>>1483389
Было у отца три сына:
Старший был почти машиной;
Средний — геносимбиот;
Младший был без улучшений —
Хомо сапиенс — урод.
Аноним 09/01/26 Птн 04:47:59 1483592 227
>>1482523
> На почти каждый крупный западный сервис существует российский аналог в целом не хуже
Лол.
Аноним 09/01/26 Птн 05:01:31 1483596 228
>>1483193
> webm
Даже роботам иногда нужно трогать траву.
Аноним 09/01/26 Птн 05:06:13 1483599 229
>>1483307
Потому что у Петровича со Славентичем нет аккаунта в твиттере с тысячами подписчиков.
Аноним 09/01/26 Птн 08:27:33 1483641 230
Вот бы Геминю 3 локально и чтобы на одной 3090...
Аноним 09/01/26 Птн 11:11:23 1483721 231
Вот бы Машку зя ляшку, а Гемму за схему...
Аноним 09/01/26 Птн 12:02:11 1483757 232
1пр.JPG 100Кб, 753x715
753x715
>>1483193
>Это заря эпохи необычайного изобилия.

Это надо производить роботов миллионами, пока этих уже делают, инженеры уже придумывают новые более совершенные модели, и получается будет как с автомобилями и смартфонами, производство в больших масштабах товара с коротким циклом жизни (на 3-5 лет), это будет ещё больше нагрузки на ресурсы нашей планеты: литий для батарей, пластик, металлические сплавы, золото, серебро для электроники (которые кстати уже отреагировали и цены резко поднялись и на золото и на серебро).

Нужно придумывать уже сейчас как утилизировать товары с коротким сроком жизни, так, чтобы из них потом делать новые модели более совершенные (смартфоны, ПК, авто, роботы). И придумывать как добывать ресурсы на других планетах.

Так что эта ещё одна, ещё большая, нагрузка на ресурсы планеты и экологию.
Аноним 09/01/26 Птн 13:40:42 1483853 233
>>1483757
Дождались, теперь в треде еще и экошизы появились.

Что дальше? Начнешь затирать что датацентры уничтожают Климат и тратят воду миллиардами кубометров в секунду?

Похоже подобные дауны считают, что для генерации ответа на запрос ИИ каждый раз открывает портал в варп и сбрасывает туда воду в жертву Василиску.
Аноним 09/01/26 Птн 13:49:25 1483863 234
400.JPG 81Кб, 745x625
745x625
>>1483853
>подобные дауны
Ну они ж даже не задумываются сколько загрязняет земли и воды к примеру одна выкинутая батарейка типа ААА.
Аноним 09/01/26 Птн 13:53:10 1483867 235
>>1483853
>Начнешь затирать
Ну я сверху написал - прежде чем производить товары с коротким сроком жизни (на 1-3 года или до 5 лет), нужно сразу строить завод по их утилизации - приёмке, разборке, сортировке, переработке.

И важно чтобы это было не на примитивном уровне где цыгане и бомжи курочат системный блок ПК или будут курочить выкинутых на свалку роботов, а на таком же уровне как и производство самих этих товаров, технологичном, и как можно больше автоматизированном.
Аноним 09/01/26 Птн 14:02:53 1483878 236
Ну вот вам и ИИ слоп - сайфай короткометражка с 4 лямами просмотров за неделю. Комменты восторженные. Сделала маленькая команда. Индустрии пизда в привычном смысле. Нас ждет что-то новое. (@) Антон Логвинов

https://youtu.be/NLAZubEa6X4?si=FtE-t5vaZ7bpKEBF
Аноним 09/01/26 Птн 14:03:43 1483880 237
>>1483867
Так ты же первый орать начнешь, когда ценник х3 сделает.
Аноним 09/01/26 Птн 14:07:27 1483884 238
Аноним 09/01/26 Птн 14:23:23 1483902 239
IMG202601091421[...].jpg 54Кб, 1280x414
1280x414
К вопросу о прогрессе. Агент от SakanaAI занял уверенное первое место на соревновании по кодингу. В прошлом году на этом же конкурсе агент от OpenAI занял только второе место.

В AtCoder Heuristic Contest в этом году принимало участие около 800 человек. ALE-Agent от японской лаборатории обошел всех и с приличным отрывом взял топ. Стоимость решения составила примерно $1300.

При этом, что интересно: сами авторы оптимизационной задачи этого года предполагали классический подход с использованием отжига и конструктивных эвристик, но агент Sakana пошел другим путем. Он внезапно реализовал эвристику virtual power, и это позволило ему выходить из локальных оптимумов даже лучше, чем эксперты-люди.

Агент представляет из себя достаточно хитрую обертку над (в данном случае) GPT‑5.2 high и Gemini 3 Pro high. Сами Sakana, в плане моделей, звезд с неба никогда не хватали, но научились грамотно работать с inference time scaling – и вот результат. Одним словом, молодцы.

https://sakana.ai/ahc058/
Аноним 09/01/26 Птн 14:42:59 1483919 240
>>1483884
Слопное говно в сравнении - нереалистичная мимика лица, жесты, кожа, плывущие куски лица, низкая детализация во многих местах. В сравнении с первым выглядит школьным поделием, там все намного лучше по графике, артефакты не бросаются в глаза и хорошо вылизано.
Аноним 09/01/26 Птн 15:18:00 1483936 241
>>1483919
Пока у нейрослопа все плохо с композицией и идейной целостностью (абстрактное говно ни про что). Вот где главная проблема.

мимо
Аноним 09/01/26 Птн 15:37:53 1483952 242
Screenshot 2025[...].png 2013Кб, 1310x800
1310x800
Indian Army sav[...].mp4 18259Кб, 1080x1920, 00:00:28
1080x1920
>>1483878
>4 лямами просмотров за неделю
Госпаде, у индусов десятки каналов с такими просмотрами под каждым видосом. Учитесь!
Аноним 09/01/26 Птн 15:40:58 1483956 243
>>1483863
>сколько загрязняет земли и воды к примеру одна выкинутая батарейка типа ААА.
Примерно нисколько, потому что она состоит буквально из пищевых добавок. Если их горой в кучу свалить то плохо в силу концетрации таковых.
Аноним # OP 09/01/26 Птн 16:18:40 1484003 244
image 4514Кб, 2240x1260
2240x1260
image 1854Кб, 1600x1067
1600x1067
Google Gemini берёт под контроль гуманоидных роботов на сборочных линиях автозаводов

Google DeepMind и Boston Dynamics объединяются, чтобы интегрировать Gemini в гуманоидного робота по имени Atlas.

Google DeepMind сотрудничает с Boston Dynamics, чтобы наделить своих гуманоидных роботов интеллектом, необходимым для навигации в незнакомых средах, а также для распознавания и манипулирования объектами — именно те способности, которые нужны для выполнения ручного труда.

Это сотрудничество было объявлено на выставке CES в Лас-Вегасе. Модель Google Gemini Robotics будет развернута на различных роботах Boston Dynamics, включая гуманоида Atlas и робота-собаку Spot.

Компании планируют протестировать роботов Atlas с Gemini на автозаводах Hyundai — материнской компании Boston Dynamics — в ближайшие месяцы. Этот шаг даёт первое представление о будущем, в котором гуманоиды смогут быстро осваивать широкий спектр задач.

Atlas уже умеет танцевать и выполнять акробатические трюки, но, как и другие гуманоиды, ему не хватает интеллекта, необходимого для понимания окружающей среды, принятия сложных решений и манипулирования незнакомыми объектами руками. Это может начать меняться с добавлением продвинутой ИИ-модели, такой как Gemini, хотя пока неясно, смогут ли роботы когда-либо сравниться с адаптивностью и тонкостью человеческой ручной ловкости.

«Настоящая ценность в будущем заключается в том, чтобы наши роботы обладали контекстным осознанием своей среды и могли использовать руки для манипулирования любыми объектами», — сказал Роберт Плейтер (Robert Playter), генеральный директор Boston Dynamics, журналу WIRED до сегодняшнего объявления. «И мы считаем, что производственные среды, такие как заводы Hyundai, — идеальное место для внедрения этого уже сегодня».

На протяжении нескольких десятилетий Boston Dynamics была пионером в разработке передовых роботов, включая гуманоидов и четырёхногие системы, испытанные военными для перевозки грузов по пересечённой местности. Компания была продана Google в 2013 году, затем приобретена SoftBank в 2017 году. В 2021 году Hyundai приобрела контрольный пакет акций.

В последние годы достижения в области двигателей, аккумуляторов, сенсоров и других компонентов значительно упростили выход стартапов и других компаний на рынок робототехники. Более дюжины фирм в США, включая Agility Robotics, Figure AI, Apptronik, 1X и Tesla, работают над гуманоидными системами. За рубежом конкуренция ещё острее: по данным китайской отраслевой ассоциации CMRA, примерно 200 китайских компаний разрабатывают гуманоидные системы.

Многие компании в сфере ИИ обращают внимание на робототехнику, полагая, что ИИ-моделям необходимо более глубокое понимание физического мира для достижения интеллекта, подобного человеческому. Говорят, что OpenAI разрабатывает гуманоидов. Tesla уже демонстрировала гуманоида под названием Optimus. Несколько стартапов также работают над моделями, предназначенными для того, чтобы роботы быстро осваивали различные физические задачи. Некоторые надеются развернуть человекоподобных роботов в качестве домашних помощников, несмотря на их текущие ограничения.

Google DeepMind наняла бывшего технического директора Boston Dynamics в ноябре. Генеральный директор Google DeepMind Демис Хассабис (Demis Hassabis) заявил, что вместо создания собственных роботов он видит Gemini используемой множеством разных производителей роботов, подобно тому, как Android работает на самых разных смартфонах.

Хотя никто не знает лучшего способа наделить машины тем типом физического интеллекта, который люди принимают как должное, добавление искусственного интеллекта в промышленные системы может значительно расширить их полезность.

Аналогично, данные, собранные машинами Boston Dynamics, помогут улучшить способность Gemini функционировать в физическом мире, по словам Плейтера.

Каролина Парада (Carolina Parada), старший директор по робототехнике в Google DeepMind, отмечает, что Gemini была разработана как мультимодальная модель, что делает её особенно подходящей для понимания и изучения физического мира. «Основное направление робототехники Google DeepMind — создание передового ИИ, способного управлять универсальными роботами», — сказала Парада в интервью журналу WIRED. «Автомобильная промышленность — отличное место для начала, но, безусловно, наше намерение — продолжать расширяться на всё больше и больше областей применения».

Передача управления физическими системами искусственному интеллекту также может повлечь за собой новые риски. Парада говорит, что помимо уже встроенных систем безопасности Boston Dynamics, Gemini будет выполнять своего рода искусственные рассуждения, чтобы предвидеть и предотвращать потенциально опасное поведение.

Плейтер утверждает, что обеспечение безопасности людей будет иметь решающее значение, если гуманоидные роботы получат широкое распространение. «Даже маленькие могут быть опасными», — признаёт он.
Аноним 09/01/26 Птн 16:30:39 1484012 245
TheInformation:

—Как сообщили два источника, непосредственно знакомых с планами DeepSeek, китайская компания готовится выпустить DeepSeek V4 в районе Лунного Нового года (в середине февраля), однако добавили, что сроки еще могут измениться.

—По словам этих источников, предварительные тесты, проведенные сотрудниками DeepSeek на основе внутренних бенчмарков, показали, что в задачах по написанию кода новая модель превосходит существующие аналоги, Claude и GPT

—Также сообщается, что в V4 достигнут прорыв в обработке сверхдлинных запросов, связанных с кодом, что может стать существенным преимуществом для разработчиков, работающих над сложными проектами [возможно, это так описывают DSA из V3.2].

Верим?
Аноним 09/01/26 Птн 16:30:40 1484013 246
>>1484003
Отличная идея, повесить производство на too big to fail компанию которая врубит эншитификацию на полную как только почуствует что закрепилась.
Аноним # OP 09/01/26 Птн 16:38:07 1484020 247
clopus.mp4 4783Кб, 1280x720, 00:00:30
1280x720
image 1519Кб, 1609x1610
1609x1610
Автоматизация креативности становится заметной. «Клопус» (Клауди Код на Опус 4.5) создал с нуля 30-секундный рекламный ролик Hermès, самостоятельно написав сценарий, поставив съёмку и смонтировав видео и голос.

Полная автоматизация рекламы, видеорелейтед.

Claude Code — один из худших по названию продуктов. Он предназначен не только для кода.

Посмотрите этот рекламный ролик Hermès.

30 секунд. 8 планов. Голос. Музыка. Даже текстовый брендинг встроен с помощью ffmpeg. Клопус 4.5 написал сценарий, организовал работу ElevenLabs и Google Veo 3, скачал музыку и создал это всё с нуля.
Аноним 09/01/26 Птн 16:40:15 1484023 248
>>1484020
Как слить раскрученный бренд в унитаз за 30 секунд потому что у придурков в менеджменте нейроFOMO
Аноним 09/01/26 Птн 16:44:55 1484031 249
>>1484012
Они могут, весь год открытиями занимались. Опять поджарят жопы западным ИИ-лидерам, будет падение акций, много визгов про выигрывающий Китай, требований убрать антиИИ законы в США и больше инвестировать в отрасль.
Аноним 09/01/26 Птн 16:48:22 1484039 250
>>1484012
Если в бенчмарках, то да, верим.
Gemini 3 промптинг 2026 ч1 Аноним # OP 09/01/26 Птн 17:04:53 1484072 251
image 325Кб, 686x386
686x386
Получение наилучших результатов от Gemini 3 в 2026 году

Вы, вероятно, вводите эти длинные, чрезмерно детализированные запросы в Gemini, думая, что больше слов означает лучшие результаты. Возможно, вы даже копируете идеальные шаблоны запросов с Reddit, набивая их правилами форматирования и инструкциями.

Что ж, были проведены месяцы за тестами новой модели Google Gemini 3, и вот что удивиляет. Вся эта лишняя «ватная» информация, которую вы добавляете, на самом деле ухудшает ваши результаты. Модель сейчас настолько продвинута, что хочет, чтобы вы общались как человек, а не как робот.

Поэтому рассмотрим, как на самом деле получить наилучшие результаты от Gemini 3 в 2026 году. Мы поговорим о стратегиях составления запросов, которые работают в согласии с интеллектом модели, а не против него. Реальные примеры из программирования, создания контента, исследований и повышения продуктивности, а также скрытые функции, о которых большинство людей даже не подозревает.

Прежде всего, позвольте показать самое главное изменение в том, как вам следует писать запросы сейчас. И поверьте мне — это будет казаться почти слишком простым.

Новая реальность составления запросов

Вот в чём дело с Gemini 3, который Google тихо выпустил в ноябре 2025 года. Эта модель кардинально отличается от всего, что было раньше. Речь идёт о более чем 650 миллионах человек, использующих её каждый месяц, причём большинство из них до сих пор составляют запросы так, будто сейчас 2023 год.

Старый способ составления запросов заключался в гипердетализации. Вы бы написали что-то вроде: «Пожалуйста, проанализируйте приложенный отчёт и извлеките следующие поля в формате JSON с двойными кавычками вокруг ключей для выручки, расходов и маржи, убедившись, что числовые значения не заключены в кавычки». Просто прочитать это — уже утомительно, верно?

Но вот где становится интересно. Gemini 3 была обучена понимать контекст и структуру естественным образом. Поэтому теперь тот же самый запрос превращается в: извлеки выручку, расходы и чистую прибыль за третий квартал 2025 года из отчёта. Верни в формате JSON. И всё. Два предложения — и Gemini выдаст вам идеально отформатированный JSON, не требуя объяснений, как вообще выглядит JSON.

Модель может обрабатывать до миллиона токенов контекста. Чтобы представить масштаб: вы можете вставить целый роман, научную статью, несколько таблиц, изображения, даже двухчасовой видеоконтент — и Gemini всё это синтезирует. Она больше не просто читает слова. Она понимает изображения, интерпретирует графики, анализирует код и одновременно устанавливает связи между разными типами медиа.

А точность в тестах на логическое мышление и программирование достигает передовых результатов. В вопросах и ответах по фактам точность составляет около 72%, то есть примерно в 7 случаях из 10 модель даёт правильный ответ. Это огромный прогресс, но мы поговорим об остальных 28% позже, потому что это важно.

Фреймворк «Ясность прежде всего»

Позвольте показать вам фреймворк, который действительно работает в 2026 году. Забудьте всё, чему вы научились в области инженерии запросов год назад. Новый подход — это то, что Google называет инструкциями с приоритетом ясности. И это, честно говоря, настоящий прорыв.

Представьте свои запросы в виде трёх простых частей: Задача, Входные данные и Выходные данные. Вот и вся концепция. Вы сообщаете Gemini, что хотите, чтобы она сделала, предоставляете материалы для работы и указываете, в каком виде вы хотите получить результат.

Вот реальный пример. Допустим, у вас есть документ о рисках проекта.

Старый способ:
«Я предоставляю вам документ. Пожалуйста, внимательно прочитайте его. Мне нужно, чтобы вы определили все упомянутые риски. Для каждого риска также найдите, обсуждается ли стратегия его снижения. Пожалуйста, оформите это в виде таблицы с правильными столбцами и строками. Столбцы должны быть подписаны как „риск“ и „меры по снижению“. Используйте форматирование markdown для таблицы.»

Новый способ:
Задача: перечислите пять основных рисков, упомянутых в документе. Выходные данные: таблица в формате markdown со столбцами „риск“ и „меры по снижению“.

Видите разницу? Вы обращаетесь с Gemini как с умным коллегой, а не так, будто ей нужны пошаговые инструкции даже для дыхания. Модель автоматически создаст правильно отформатированную таблицу в markdown. Она знает, что это значит. За время обучения она проанализировала тысячи структур таблиц.

Теперь, если вы хотите дать Gemini дополнительный контекст или точку зрения, вы, конечно, можете. Вы можете начать с чего-то вроде «Вы — менеджер финансового проекта» или «Как эксперт по кибербезопасности…» Это даёт модели определённую призму для взгляда на задачу.

Но вот в чём суть: вы задаёте контекст, а не пишете роман. Одно предложение о роли или перспективе — и сразу переходите к сути запроса.

То же самое касается ограничений. Если вам нужна британская орфография, скажите «Используй британский английский». Если вы хотите неформальный тон, скажите «Используй неформальный тон». Если есть ограничение по количеству слов, укажите: «Максимум 150 слов». Gemini соблюдает эти ограничения без необходимости повторять их или создавать сложные правила.

Мультимодальная магия

Но подождите, пока не увидите, что происходит, когда вы начинаете комбинировать текст с изображениями, видео и документами. Именно здесь Gemini 3 действительно опережает всё остальное.

Допустим, у вас есть сложная диаграмма из квартального отчёта. Вы загружаете изображение и вместо того, чтобы описывать, что на нём изображено, просто пишете: «Что представляет собой красный сегмент на этой диаграмме? Объясни в двух предложениях». Gemini смотрит на изображение, распознаёт визуальные элементы, интерпретирует данные и даёт точный ответ. Она действительно анализирует визуальную информацию — а не просто просматривает метаданные или alt-текст.

Тот же принцип применим и к видео. Если вы пользуетесь тарифом Pro, вы можете загрузить до двух часов видеоконтента. Представьте, у вас есть записанная встреча или лекция. Вы можете сослаться на конкретные временные метки: «Обобщи обсуждение с 15:30 до 22:00 в этом видео». Gemini обработает этот фрагмент, выделит ключевые моменты и предоставит краткое содержание. Это как если бы кто-то посмотрел видео за вас и сообщил именно то, что вам нужно знать.

Что касается PDF-файлов и длинных документов, миллион-токенное окно контекста означает, что вы больше не ограничены краткими пересказами или выдержками. Вы можете передать Gemini целую научную статью, договор, техническое руководство — всё, что нужно проанализировать, — и задавать конкретные вопросы по любой его части. «Какую методологию они использовали в разделе 3?» или «Перечисли все юридические обязательства в этом договоре в виде нумерованного списка?» Модель справится с полным документом без малейшего напряжения.

Есть даже новая функция под названием Gemini Canvas, с помощью которой вы можете просить создавать визуальные материалы. Вы можете сказать: «Создай инфографику, показывающую круговорот воды» или «Разработай дизайн плаката для общественного мероприятия». Модель создаст реальные визуальные активы, которые вы сможете использовать и дорабатывать.

Практические примеры использования

Позвольте провести вас по тому, как это на самом деле работает в разных сферах — ведь именно здесь теория встречается с практикой.

Программирование и разработка

Если вы разработчик или вообще работаете с кодом, Gemini 3, скорее всего, станет вашим любимым инструментом. Модель заняла первое место в бенчмарке WebDev Arena с результатом 1487 ELO, что в мире программирования фактически означает, что она лучше большинства программистов-людей в выполнении определённых задач.

Вот практическая реальность: вы можете описать то, что вам нужно, простым английским языком, и Gemini напишет код. Например: *«Напиши функцию на Python с именем calculate_discount, которая принимает цену и процент скидки, возвращает окончательную цену и включает docstring с аннотациями типов»*. Через несколько секунд вы получите полностью готовую функцию с правильной документацией, аннотациями типов — всё корректно отформатировано.
Gemini 3 промптинг 2026 ч2 Аноним # OP 09/01/26 Птн 17:05:28 1484073 252
image 676Кб, 2914x1170
2914x1170
>>1484072
Но возможности идут дальше простого написания фрагментов кода. Вы можете попросить Gemini рефакторить существующий код, объяснить сложные алгоритмы, исправить ошибки или даже сгенерировать целые веб-интерфейсы. Есть демонстрация, где кто-то просто попросил «лендинг для ретро-танцевальной ночи», и Gemini создала полноценный HTML, CSS и JavaScript для работающей веб-страницы — не шаблон и не фреймворк, а настоящий пользовательский код, основанный на этом описании.

Функции агентного программирования выводят это на ещё более высокий уровень. Теперь Gemini может выполнять код в реальной среде разработки, запускать тесты, использовать систему контроля версий. Платформа Google Anti-Gravity продемонстрировала это, заставив Gemini решать сложные задачи, такие как балансировка имитационного маятника на тележке (cartpole), многократно записывая и запуская код, пока он не заработал.

Создание контента и творческая работа

Для писателей, маркетологов и всех, кто создаёт контент, Gemini справляется со всем — от блог-постов до рекламных текстов в соцсетях и сценариев для видео. Главное — быть конкретным в отношении тона и формата, не перегружая объяснениями.

Вы можете написать: «Напиши блог-пост объёмом 200 слов о советах по устойчивому туризму. Используй дружелюбный, разговорный тон». Этого достаточно. Gemini подготовит увлекательный текст, соответствующий запрошенному стилю. Если вы недовольны, вы можете уточнить: «Сделай его более профессиональным» или «Добавь раздел об углеродных компенсациях».

Один из моих любимых примеров — когда кто-то попросил Gemini объяснить ядерный синтез, и модель ответила как рабочим кодом для визуализации процесса, так и стихотворением о синтезе. Вот о таком творческом диапазоне мы и говорим. Это не просто генерация текста — это мышление через разные медиа и поиск интересных способов передачи идей.

Что касается визуального контента, вы можете заказывать инфографику, схемы, иллюстрации. «Создай инфографику, показывающую преимущества удалённой работы» — и вы получите реальный визуальный материал. Он не всегда идеален, и вам, возможно, придётся доработать его, но возможность получить черновик за считанные секунды полностью меняет творческий рабочий процесс.

Исследования и обучение

Именно здесь огромное окно контекста становится решающим фактором. Вы можете загрузить целые учебники, научные статьи, расшифровки лекций — любые учебные материалы, с которыми работаете, — и Gemini обработает всё это.

Практический сценарий: вы готовитесь к экзамену и у вас есть 200 страниц конспектов лекций. Вы загружаете их и спрашиваете: «Создай учебное пособие, охватывающее пять основных тем, с ключевыми понятиями и определениями по каждой». Gemini прочитает всё, определит главные темы, извлечёт важные детали и организует их в формате учебного пособия.

Или, допустим, вы занимаетесь исследованиями и наткнулись на плотную академическую статью. Вместо того чтобы тратить час на чтение, вы можете спросить: «Кратко изложи методологию и основные выводы в трёх пунктах. Какие ограничения указаны авторами?» Вы получите суть за считанные секунды.

И если вам нужно глубже погрузиться в конкретные разделы, вы можете задавать уточняющие вопросы. В режиме ИИ в Поиске Google даже есть функциональность, позволяющая Gemini создавать интерактивные симуляции на лету. Кто-то спросил, как работает РНК-полимераза, — и вместо простого описания Gemini написала мини-симуляцию, визуально демонстрирующую процесс. Это обучение нового уровня.

Продуктивность и профессиональные задачи

В повседневной работе Gemini становится похожа на крайне компетентного помощника, который никогда не устаёт. Составление писем, краткие содержания встреч, расстановка приоритетов задач, анализ данных — она справляется со всем этим.

Для электронных писем вы можете быть очень кратки: «Составь письмо с приглашением команды на планерку во вторник в 14:00. Сохрани дружелюбный, но профессиональный тон». Gemini напишет черновик, вы проверите, возможно, немного подправите строку или две — и отправите. То, что раньше занимало 10 минут, теперь занимает одну.

Планирование путешествий удивительно надёжно. Если вы скажете: «Спланируй трёхдневную поездку в Рим с бюджетом $1000, включая перелёты, проживание и мероприятия», Gemini вернёт вам полную программу, разбивку расходов, рекомендации по достопримечательностям — даже расписание на каждый день. Существует визуальный режим программы поездки, который выглядит как разворот из туристического журнала с картами и изображениями.

Функции Gemini Agent, которые всё ещё внедряются, могут даже подключаться к вашему Gmail и календарю. Вы можете сказать: «Обобщи все письма за последнюю неделю по маркетинговой кампании и выдели все задачи», и система отсортирует вашу почту, выделит соответствующие цепочки писем и предоставит сводный отчёт. Она даже может назначать встречи, просматривая доступность всех участников, хотя всегда запрашивает подтверждение перед выполнением любого действия.

Что касается анализа данных, если у вас есть таблица с данными о продажах, вы можете вставить её и спросить: «Какие тенденции наблюдаются в квартальной выручке? Есть ли товары с низкой эффективностью?» Gemini проанализирует цифры, выявит закономерности и представит выводы простым языком. Вам не нужно использовать формулы или сводные таблицы — вы просто задаёте вопросы и получаете ответы.
Gemini 3 промптинг 2026 ч3 Аноним # OP 09/01/26 Птн 17:06:02 1484076 253
image 1172Кб, 1200x670
1200x670
>>1484073
Стратегии экспертов

Теперь позвольте поделиться некоторыми стратегиями, которые сообщество ИИ выработало благодаря обширному тестированию, — ведь существуют способы сделать работу Gemini ещё лучше.

Составление запросов с приоритетом контекста — это когда вы задаёте сцену перед тем, как задать вопрос. «Как эксперт по данным, имея приложенный отчёт о продажах за четвёртый квартал 2024 года…» Вы настраиваете Gemini на подход к задаче с определённой точки зрения. Это не обязательно, но для сложных или специализированных задач значительно повышает качество ответов.

Многошаговые инструкции работают очень хорошо. Вместо того чтобы втискивать всё в одно длинное предложение, разбейте его на пронумерованные шаги:

> Задача: проанализируй этот код.
> Шаг 1: объясни, что он делает.
> Шаг 2: определи любые ошибки или неэффективности.
> Шаг 3: предложи улучшения.

Gemini обожает такую структуру. Она обрабатывает каждый шаг последовательно и выдаёт организованный результат.

Для задач, требующих сложных рассуждений, явный запрос к Gemini показать ход своих рассуждений может повысить точность. Фразы вроде «Объясни свои рассуждения пошагово» или «Покажи, как ты пришёл к этому ответу» заставляют модель действовать более осознанно. Такой подход, известный как цепочка рассуждений (chain-of-thought), помогает избежать поверхностных или неверных ответов.

Существует также интересная техника, которую некоторые используют, — симуляция дебатов. Перед тем как дать рекомендацию, вы можете написать: «Обсуди плюсы и минусы варианта А по сравнению с вариантом Б, а затем дай окончательную рекомендацию». Это заставляет Gemini рассматривать несколько точек зрения, что обычно приводит к более сбалансированным и вдумчивым ответам.

Одна из действительно мощных возможностей: Gemini сохраняет контекст разговора в течение нескольких раундов. Поэтому, если вы один раз передали подробный документ или набор инструкций, вы можете задавать уточняющие вопросы, не повторяя всё заново. «Основываясь на отчёте, который я ранее отправил, что насчёт раздела об удержании клиентов?» Gemini помнит. Вы ведёте беседу, а не начинаете с нуля каждый раз.

И вот совет, который кажется очевидным, но имеет огромное значение: уточняйте полученные ответы. Если первый ответ не совсем точен, не сдавайтесь. Попросите Gemini доработать его: «Сделай это более кратким», «Измени тон на более формальный», «Добавь конкретные примеры». Вторая или третья попытка часто оказывается значительно лучше первой.

Предупреждения и ограничения

Прежде чем завершить, я должен поговорить об ограничениях — потому что Gemini мощна, но это не магия, и вам нужно знать, где проходят её границы.

Галлюцинации всё ещё имеют место. Несмотря на то, что Gemini 3 показывает около 72% точности в тестах на фактологическую достоверность, это означает, что примерно каждый четвёртый ответ может содержать ошибки или вымышленную информацию. Если вы спрашиваете об obscure фактах, узкоспециализированных темах или чём-то, что допускает множество интерпретаций, всегда проверяйте ответ по надёжным источникам. Не воспринимайте выводы Gemini как истину в последней инстанции — особенно при принятии важных решений.

В модели заложены предубеждения. Как и в любом ИИ, обученном на данных из интернета, Google провёл обширное тестирование на безопасность, но модель всё ещё может проявлять предвзятость или неправильно понимать чувствительные запросы. Будьте внимательны к формулировкам вопросов по спорным темам. И помните, что ответы могут отражать определённые точки зрения сильнее других.

Конфиденциальность — это реальная проблема. Всё, что вы загружаете в Gemini — будь то текст, изображения или документы, — потенциально может храниться или использоваться для обучения модели, если вы не используете специальные корпоративные настройки, гарантирующие изоляцию данных. Не загружайте конфиденциальные деловые документы, личную информацию или что-либо, что вы не хотели бы видеть на каком-нибудь сервере. Внимательно прочитайте условия обслуживания для выбранного вами тарифа.

Если вы используете функции агента или любую функциональность, подключающуюся к вашему Google Workspace, будьте осторожны. Эти инструменты могут выполнять действия, такие как организация писем, назначение встреч или создание документов. Они всегда запрашивают подтверждение перед выполнением значимых действий, но всё равно следите за ними. Не подтверждайте действия вслепую, не понимая, что именно происходит.

Бесплатная версия Gemini имеет ограничения по использованию. Вы можете столкнуться с месячными лимитами на количество запросов или длину бесед. Платные тарифы Pro и Ultra дают больше возможностей и скорости, а также доступ к таким функциям, как режим Deep Think и расширенная обработка видео. Если вы планируете активно использовать Gemini, вам, вероятно, понадобится подписка.

И, наконец, помните: мы находимся в самом начале эпохи Gemini 3. Функции постепенно внедряются. Некоторые возможности, упомянутые здесь, могут находиться в бета-версии или быть доступны только в определённых регионах или для определённых типов аккаунтов. Google постоянно обновляет платформу, поэтому то, что верно сегодня, может измениться через месяц. Следите за официальными анонсами.

Заключительные мысли

Итак, вот вам Gemini 3 в 2026 году. Главное изменение — это отказ от переусложнённых запросов в пользу чётких, разговорных инструкций. Представьте, что вы разговариваете с крайне компетентным коллегой, который понимает контекст и умеет одновременно работать с текстом, изображениями, кодом и видео.

Используйте описанные стратегии: делайте запросы простыми, структурируйте их по принципу задача–результат, используйте мультимодальные возможности и уточняйте ответы до тех пор, пока они не станут именно тем, что вам нужно.

Будь вы программистом, создателем контента, исследователем или просто управляющим повседневными задачами, Gemini действительно может сэкономить вам часы работы — если вы знаете, как правильно ею управлять.
Аноним 09/01/26 Птн 17:49:25 1484125 254
>>1483952
кто это говно смотрит?
Аноним 09/01/26 Птн 18:06:16 1484157 255
Аноним 09/01/26 Птн 18:46:29 1484218 256
IMG202601091842[...].jpg 143Кб, 715x472
715x472
В феврале-марте ожидается тотальный разъеб луддитов
Аноним 09/01/26 Птн 18:48:14 1484219 257
>>1484218
+2% к метрикам. РАЗЪЁБИЩЕ!!!
Аноним 09/01/26 Птн 19:12:02 1484240 258
>>1484020
Наконец-то реклама сама себя изживет. Луддиты будут кричать, что реклама теперь генируется ИИ и перестанут ее смотреть, не разбирая, какая реально сгенирована, а которая людьми все еще делается. Как сейчас геймеры на одном известном ресурсе пытаются нейронку друг в друге раскрыть вообще без уместного контекста, просто потому, что нейронки есть и умеют писать буквами.
Аноним 09/01/26 Птн 19:52:59 1484300 259
>>1484219
> +2% к метрикам
+2% к сегодняшним метрикам буквально означает "модель ошибается вдвое реже".
Аноним 09/01/26 Птн 20:10:14 1484319 260
>>1484300
Через год введут SoW-X 40х буст + 10% к алгоритмам за год, в итоге эти +2% к метрикам будут выдаваться за несколько дней вместо текущих 3-4 месяцев. Вот тогда модели ебанут рвать тесты как на стероидах, будет что ни день, то новость как еще какие задачи порвали.
Аноним 09/01/26 Птн 20:25:11 1484337 261
>>1483441
>бы
А сколько в реальности ты купил за свою жизнь картин?
Аноним 09/01/26 Птн 20:31:19 1484343 262
>>1483878
>Комменты восторженные. Сделала маленькая команда. Индустрии пизда в привычном смысле.
Гов-но. Примерно как умиление взрослых, когда ребёнок что-то смастерил-нарисовал. Умиление только тем, что смотрите, какой маленький, как смог, сам результат же нафиг не нужен, через небольшое время надоест.
Аноним 09/01/26 Птн 20:48:37 1484349 263
>>1484023
>Как слить раскрученный бренд в унитаз за 30 секунд
Ты как-то переигрываешь с драматизацией, хотя в целом да

Бренд, конечно, не про рекламный ролик, тут вообще всё равно, что показывать, главное что-то, что привлекает внимание и показывает сам бренд.

Но конкретно сам бренд ведь не про модно и молодёжно и не про качество, а про недоступность и классику. Это про демонстративное потребление, когда суть не в том, что вещь хорошая, а в том, что обычному человеку она недоступна по деньгам.

А подход к рекламе позиционирует прямо противоположное, что-то дешёвое модное и молодёжное. Дешёвый слоп это для быдра, для элиты же дорогое и настоящее, а здесь прямое нарушение этого принципа.
Аноним 09/01/26 Птн 21:15:42 1484359 264
>>1484349
Если они рекламку сделали нейросеткой, это автоматически предполагает что сам дизайн продукта делала нейросеть тоже, ибо отделы маркетинга и дизайна расположены через коридор.
Аноним 09/01/26 Птн 21:51:36 1484413 265
>>1480431
Это миф. Человек использует мозг на 100%, просто разные области в разный момент времени не задействованы для выполнения какой-либо задачи.
Аноним 09/01/26 Птн 22:12:51 1484436 266
image.png 492Кб, 1257x685
1257x685
>>1484359
Это высокая мода, там дизайнеры именные и они своим рылом светят на показах в элитных бутиках. Hermes это следующая ступенька вверх над Louix Vuitton, то есть для обывателя LV символ роскоши, а Хермес для более состоявшихся людей.

Эти вещи покупают потому, что могут себе позволить. Реклама в целом пофиг какая. Обычный человек не пойдёт себе покупать Гермес, потому что понравился дизайн. Он глянет ценник и максимум купит копию-подделку.

В этом секторе в рекламе тоже главное не вкус, а дороговизна. Именно поэтому нейрослоп тут опасен, потому что это по-определению дешёвка. Если бы они потратили на токены сотни тысяч долларов и объявили об этом, то да, норм. Типа круто, встречайте новую эру, смотрите, что мы можем. Но тут реклама позиционируется как дешёвая. Вот в этом провал.

Сейчас же, и уже довольно давно, очевидный тренд, что автоматизированное производство для быдла, а для элиты дорогой ручной труд.
Аноним 09/01/26 Птн 22:12:55 1484437 267
>>1484413
А если человек будет буквально использовать мозг на 100%, то это называется эпилептический припадок
Аноним 09/01/26 Птн 22:17:13 1484443 268
>>1484437
Ну а теперь представь Илоний Машк делает нейрочип синхронизирующий нейроны в мозгу и твой сосед гопник становится кандидатом наук. Ты побежишь себе вставлять в мозг жучек от корпорации?
Аноним 09/01/26 Птн 22:19:15 1484444 269
2л.JPG 43Кб, 753x199
753x199
>>1484020
>рекламный ролик Hermès
Там баба открывает коробку с товаром, а она пустая, - это самый большой страх покупателя что посылка будет с обманом, хотя обычно коробку надо набить каким-то мусором для веса, но ИИ это пока что не учёл.
Аноним 09/01/26 Птн 22:35:42 1484471 270
>>1484444
Похоже что фейк >>1484020 , расходимся
В том смысле, то это не реальная реклама Hermes, а какой-то хрен, инвестор в AI, такую демонстрацию устроил возможностей. Рискует, чтобы на него в суд подали за это, за порчу репутации. Чуть начинаешь разбирать, так хрень какая-то.

Фейл с пустой коробкой. Это о чём месседж вообще? Что должны зрителю сказать эти кадры? По логике там должна быть сумочка или что-то ещё, но коробка пустая. Далее, сумка, что они показывают, тоже к бренду отношения не имеет, я так понимаю, что это фантазия нейросети. Платок судя по всему тоже.

Короче бессмысленные рандомные кадры, не несущие никакой логики, никакой идеи, никак не ложащиеся в общую линию бренда. Лучшая иллюстрация понятия "нейрослоп".

Когда снимают рекламу, особенно для дорогих брендов, очень продумывают концепции и идеи, чтобы была какая-то линия. Это главное. А тут этого нет.
Аноним 09/01/26 Птн 22:36:50 1484475 271
photo2026-01-09[...].jpg 284Кб, 1259x1280
1259x1280
SSD взлетят в цене ЕЩЕ ВДВОЕ — да, вы не ослышались. Рынок окончательно сошел с ума, заявили авторитетные аналитики из Nomura.

Кризис и жесткая нехватка оперативной памяти буквально УБИВАЕТ рынок: например, крупнейшая компания Sandisk повысит ценник на SSD на 100% уже через ДВА МЕСЯЦА. В марте 2026 жесткие диски станут ЗОЛОТЫМИ. Тенденция затронет буквально ВЕСЬ рынок.

Срочно апгрейдимся, другого шанса не будет! Всё во имя ИИ!

Помните, что индустрия DRAM в ближайшие годы сможет обеспечить только ~15 ГВт ИИ-датацентров, в то время как корпорациям требуется 50 ГВт. Так что ценам ещё расти и расти. Ебало простых потребителей в имаджинировании не нуждается.

https://www.adrenaline.com.br/hardware/ssds-empresariais-vao-ficar-mais-caros-sandisk-planeja-aumento-de-ate-100-no-nand-em-2026/
Аноним 09/01/26 Птн 22:37:54 1484477 272
3л.JPG 33Кб, 755x162
755x162
>>1484436
>автоматизированное производство для быдла, а для элиты дорогой ручной труд.
Ну у Гермеса вроде суть в том что этих сумок они шьют мало. Это как лимитированные версии конструктора "Лего", только сумки.
Аноним 09/01/26 Птн 22:45:11 1484485 273
>>1484475
>жесткие диски станут ЗОЛОТЫМИ
SSD это не жесткие диски, а твердотельные накопители.
Жесткие диски как были дешевыми, так и останутся.
Ну а так правильно, строительство нового мира требует вложений, так что потребители со своим мизерным рынком не в приоритете. Когда новый мир отстроят, это должно поменяться, все существенно удешевится.

Еще можно накинуть, что исчезнет, когда флотилию роботов строить начнут - Маск обещал 40 миллиардов гуманоидных роботов в течении 10 лет на своих фабриках, так что пока их будут строить, будут еще существенные дефициты материалов.
Аноним 09/01/26 Птн 23:09:03 1484549 274
SanDisk планирует поднять цену NAND-памяти на 100%

Один из крупнейших производителей SanDisk поднимает цены на свою NAND-память на 100%, указано в письме для клиентов компании.

Как правило, вслед за NAND-памятью дорожает и 3D NAND-память, которая используется почти во всех современных SSD.

Ещё полгода назад SSD M.2 на 1 терабайт можно было купить за 6-7 тысяч рублей — теперь минимальная цена составляет 13 000 рублей, и это только начало.

Повышение цен ожидается в марте — такой скачок повлияет и на другие устройства: телефоны, планшеты, ноутбуки — все устройства, где используется 3D NAND-память.
Аноним 09/01/26 Птн 23:25:28 1484585 275
17679792607420.png 2302Кб, 2000x1958
2000x1958
>>1484485
>Маск обещал 40 миллиардов гуманоидных роботов в течении 10 лет на своих фабриках
Аноним 09/01/26 Птн 23:32:14 1484591 276
image.png 226Кб, 512x357
512x357
image.png 93Кб, 259x194
259x194
>>1481044
Ты бы хоть посмотрел как живут художники и аниматоры. Вон видос https://www.dailymotion.com/video/x45yb0j из студии гибли, которые так-то одни из самых попялурных, там Миядзаки варит своим мангакам ремен из самых дешевых дошиков, пока художники сидят при тусклом свете заваленные кучей бумаги и там е спят. Их ебут и в хвост и в гриву - никогда эта профессия в Японии не была прибыльной. Самая что ни на есть дноработка.
Аноним 09/01/26 Птн 23:44:09 1484608 277
1д.JPG 24Кб, 951x81
951x81
>>1484591
> Вон видос
Так то ещё 1990-е годы.
Аноним 09/01/26 Птн 23:46:45 1484612 278
>>1484608
C тех пор ничего не поменялось.
Только компы появились, с прозрачностью слоев, вместо листов и подсветки лампой под ними.
Аноним 10/01/26 Суб 01:22:31 1484704 279
>>1481231
Ну и в итоге этот твой новый дивный мир будет доступен только самым богатым, остальным по подписке. Как только подписка заканчивается - выходишь обратно в мир реальности, в котором зарабатываешь на новую подписку.
Аноним 10/01/26 Суб 01:47:09 1484719 280
>>1481669
Как-будто сейчас камера смартфона\ноута за тобой не следит 24\7
Аноним 10/01/26 Суб 02:00:00 1484725 281
>>1484443
Он просто перегрузит себе мозг и у него начнётся киберпсихоз.
Аноним # OP 10/01/26 Суб 09:39:25 1484874 282
backflip.mp4 2292Кб, 720x1280, 00:00:10
720x1280
Atlas завершает выставку CES этого года сальто назад

Видеорелейтед.
Аноним 10/01/26 Суб 11:35:43 1484921 283
3пр.JPG 24Кб, 586x165
586x165
>>1480998
>Потому что код фактически либо не имеет ошибок вовсе и работает как надо, либо в нем есть хотя бы одна и он уже не работает.
Потому что код уже многократно тысячи раз протестировали на возможные ошибки.
Есть "неуловимые" плавающие ошибки, фантомы типа, есть разные код - например для программ по теории вероятностей и статистике, что ближе к ИИ уже, где нет жёсткого условия "и", а постоянные ветвления "или-или".
Аноним 10/01/26 Суб 12:01:00 1484935 284
>>1484591

Пирамида японского мира манги и аниме выглядит так:

На самом верху продюсеры, инвесторы
Сразу под ними издатели журналов и режиссёры
Ниже идут сейю, по русски актёры дубляжа
Ниже идут популярные мангаки
Потом обычные мангаки
Ассистенты
И на самом дне аниматоры
Аноним 10/01/26 Суб 12:02:21 1484936 285
>>1484585

А ещё Маск обещал генерацию видео по пятнадцать секунд, про Марс я уже даже ничего не говорю
Аноним 10/01/26 Суб 14:57:43 1485049 286
2пр.JPG 43Кб, 752x339
752x339
>>1484874
Сустав выпал. Наверное конкретно этот робот уже прыгнул 10 000 раз, типа превысил критическое число в выработке ресурса. То есть прыгать научился, но вылетели суставы. Прямо как с людьми происходит в их жизни - пока 20 - 30 лет учился зарабатывать деньги, то выработался ресурс физического тела.

Если к ним прикрутят Гемнии ИИ, то качество сальто походу ухудшится - робот будет в полёте обдумывать как ему лучше приземлиться и будет не успевать передать команды моторам и суставам.
Аноним 10/01/26 Суб 15:31:37 1485081 287
>>1484874
Хуя он крутой, даже разваливаясь на куски он выполняет задачу. Я потекла, дайте мне его чедовское масло прямо мне в кисик
мимо натраха
Аноним 10/01/26 Суб 15:37:28 1485093 288
IMG202601101536[...].jpg 106Кб, 1280x1096
1280x1096
Агент Axiom Prover решил 12 из 12 задач на самом сложном математическом экзамене в мире

Возможно, вы помните, что это за система. В начале декабря (когда и проводился конкурс Putnam, о котором идет речь) она решила 8 из 12 задач за отведенное на олимпиаду время + еще одну вне зачета. Это очень классный результат: большинство студентов получает круглый ноль.

Теперь разработчики сообщили, что агент дорешал самые сложные оставшиеся задачи и выложили все его решения в сеть.

Интересно, что среди задач явно выделяются группы таких, которые(1) просты для человека и сложны для ИИ; (2) и наоборот. Например:

– Комбинаторные задачи человек решает достаточно быстро, а Axiom Prover одна из таких обошлась в 2054 строки формального кода и 518 минут вычислений. Это из-за того, что Lean, в котором работает агент, требует формального доказательства даже очевидных фактов, и они получались крупными и долгими, хотя человеку было бы достаточно одной фразы.

– Есть задачи, где у ИИ и человека координально разный подход. Например, A4: люди думали алгебраически, а Axiom Prover внезапно подошел геометрически. Это занятно.

– А вот А6 ни один штатный математик Axiom не смог решить, а Axiom Prover довольно быстро довел решение от идеи до формального доказательства.

Короче: все равно люди все еще выигрывают в плане математической интуиции. Для ИИ задача становится сложной, если нет готовых библиотечных кирпичей + идеи. Плюс, внезапным узким местом становится доказательство мелких фактов (опять же, для человека это вопрос интуиции).

axiommath.ai/territory/from-seeing-why-to-checking-everything
Аноним 10/01/26 Суб 17:00:30 1485231 289
>>1485049
>Сустав выпал
Какой сустав, это нищая заглушка для порта куда кисть крепят, тупа от центробежки вылетела когда он рукой как пропеллером крутил.
Аноним 10/01/26 Суб 17:47:19 1485280 290
>>1484704
Вот вылетит в следующий раз этим тарантинам с мыльницами в лоб, будет кейс нападения робота на человека. Сразу запретить надо будет.
Аноним 10/01/26 Суб 17:47:45 1485281 291
Аноним # OP 10/01/26 Суб 18:01:53 1485299 292
image 617Кб, 1920x1080
1920x1080
image 611Кб, 1519x1549
1519x1549
Мировые продажи чипов выросли примерно в 8 раз всего за два года.

И этому не видно конца.

Проект «Манхэттен» составлял около 0,4 % ВВП США, а капиталовложения США в технологии только в 2025 году составили около 1,8 %.

Просто задумайтесь об этом. Мы являемся свидетелями того, как разворачивается история.
Аноним 10/01/26 Суб 18:20:54 1485319 293
image.png 769Кб, 735x567
735x567
image.png 1633Кб, 1184x799
1184x799
>>1482776
Мне это напоминает ретро-футуризм, когда начались полёты в космос, все бегали и кричали, что скоро яблони на Марсе зацветут. В итоге всё скатилось к тому, что даже на Луну уже не можем летать. Примерно то же самое будет и с АГИ\ИИ
Аноним 10/01/26 Суб 18:28:19 1485331 294
>>1485319
АГИ как раз и объясняет почему яблонь на марсе нету. Важны айфоны интернет и ИИ, а яблони на марсе бесполезная хуйня.
Аноним 10/01/26 Суб 18:31:05 1485332 295
>>1485319
>человек будет в кабинете нажимать кноки радиоуправления
Ебать кринж
Аноним 10/01/26 Суб 18:52:24 1485374 296
>>1484319
Единственное что к этому времени порвут так это очко твоей мамаши. Нихуя не будет, ставлю кстати её анус на кон. Можете скринить.
Дженсен Хуан ИИ, роботы 2026 ч1 Аноним # OP 10/01/26 Суб 19:00:00 1485401 297
image 2998Кб, 2377x1689
2377x1689
Размышления об ИИ в 2026 году: беседа с Дженсеном Хуаном

Джен-Хсун Хуан рассказывает про ризонинг модели, роботизацию, пузырь ИИ и смежные темы.

Главные сюрпризы и достижения прошлого года

Ведущий:
Итак, учитывая всё, что произошло в 2025 году, и то, что вы были в самом центре этого водоворота, на что бы вы оглянулись и сказали: «Это больше всего меня удивило» или «Это самое большое изменение»?

Дженсен:
Посмотрим. Есть вещи, которые меня не удивили — например, законы масштабирования меня не удивили, потому что мы уже знали об этом. Технологический прогресс тоже не стал для меня неожиданностью.

Меня порадовали улучшения в grounding (привязке к реальности). Меня порадовали улучшения в рассуждении. Меня порадовало подключение всех моделей к поиску. Мне приятно, что теперь перед этими моделями стоят маршрутизаторы, которые в зависимости от уверенности в ответе могут отправляться за дополнительными исследованиями и тем самым повышать качество и точность ответов.

Я очень этим горжусь. Думаю, вся индустрия справилась с одним из главных скептических возражений против ИИ — галлюцинациями, генерацией бессмыслицы и всем прочим.

Я считаю, что в этом году вся индустрия — буквально каждая область: от языковых моделей до компьютерного зрения, робототехники и беспилотных автомобилей — совершила огромные прорывы в применении рассуждений и привязке ответов к реальности. Вы бы согласились, что именно этот год стал таким переломным?

Ведущий:
Огромные прорывы. Например, такие вещи, как OpenEvidence для медицинской информации, где врачи уже действительно используют это как надёжный источник, или Harvey в юриспруденции — вы реально начинаете видеть, как ИИ становится надёжным инструментом или партнёром, который помогает экспертам делать свою работу гораздо лучше.

Дженсен:
Именно так. Во многих отношениях я этого ожидал — но всё равно рад этому. Горжусь этим. Горжусь работой всей индустрии в этой области.

Меня очень радует — и, возможно, немного удивляет — то, насколько быстро растёт скорость генерации токенов при инференсе, особенно токенов, связанных с рассуждением. Кажется, одновременно происходит сразу несколько экспоненциальных скачков.

И мне невероятно приятно, что эти токены теперь прибыльны — люди генерируют... Я сегодня услышал, что у OpenEvidence, кстати о них, валовая маржа составляет 90%. Это очень прибыльные токены.

Ведущий:
Да.

Дженсен:
Очевидно, они выполняют очень прибыльную и ценную работу. У Cursor отличные маржи. У Claude отличные маржи в корпоративном сегменте. У OpenAI отличные маржи.

В общем, замечательно видеть, что мы теперь генерируем токены, которые достаточно хороши — настолько ценны, — что люди готовы платить за них хорошие деньги. Думаю, это прекрасная основа для итогов года.

Геополитика и глобальная стратегия в области ИИ

Дженсен:
Некоторые вещи, связанные с нарративом — конечно, разговоры с Китаем — заняли много моего времени в этом году. Геополитика, значение технологий для каждой из стран...

Я провёл в поездках по миру в этом году больше времени, чем за всю предыдущую жизнь, сложенную вместе. Знаете, средняя высота моего полёта в этом году, наверное, около 17 000 футов. Поэтому приятно быть здесь, на земле, с вами.

Так что геополитика — важность ИИ для всех стран — стоит обсудить подробнее. Конечно, я много времени уделил экспортному контролю, стремясь обеспечить, чтобы наша стратегия была тонкой и действительно обоснованной, поддерживала национальную безопасность и при этом учитывала различные аспекты национальной безопасности.

Было множество таких разговоров. Естественно, много обсуждали вопросы занятости, влияние ИИ, энергетику, нехватку рабочей силы... Чёрт возьми, мы затронули всё, верно?

Ведущий:
Да. Всё было про ИИ.

Дженсен:
Всё было про ИИ. Да, это было невероятно.

Ведущий:
ИИ определённо был эпицентром бури практически во всех этих темах.



Работа, автоматизация и концепция «задача vs. цель»

Ведущий:
Может быть, начнём с вопроса о работе или занятости, потому что если взглянуть на традиционное сообщество ИИ, даже до того, как началось масштабирование и даже до того, как ИИ действительно заработал, там сильно преобладала доктрина «страшного суда»... те, кто больше всего продвигал эту область вперёд, часто были самыми пессимистичными, что довольно странно. Зачем заниматься и тем и другим одновременно?

И мне кажется, что этот нарратив захватил определённую часть СМИ, несмотря на все позитивные вещи, которые ИИ сделал для здравоохранения, образования, производительности и других сфер.

И вообще, всякий раз, когда происходит технологический сдвиг, меняется набор важных профессий — но количество рабочих мест всё равно растёт. Не могли бы вы рассказать, как вы сами думаете о занятости и работе?

Дженсен:
Может быть, я структурирую это вокруг трёх временных точек: настоящее, ближайшее будущее и некий более отдалённый период — а также упомяну некоторые контраргументы.

Ещё один аспект, о котором стоит подумать в контексте работы в ближайшей перспективе: одна из самых важных вещей заключается в том, что ИИ — это не просто программное обеспечение, не записанная заранее программа. Например, Excel был написан несколькими сотнями инженеров. Они скомпилировали его. Он записан заранее и затем распространяется в неизменном виде на протяжении нескольких лет.

В случае ИИ, поскольку он учитывает контекст — то, о чём вы его просите, что происходит в мире, — он генерирует каждый отдельный токен впервые, каждый раз заново. Это означает, что каждый раз, когда вы используете программное обеспечение, ИИ создаётся впервые — точно так же, как и интеллект.

Наш разговор сегодня опирается на определённые факты и знания, но каждое слово генерируется здесь и сейчас впервые. Вот что действительно уникально в ИИ: ему нужны эти компьютеры, чтобы каждый раз заново генерировать токены. Я называю их «фабриками ИИ».

Кто-то может сказать, что это также часть инфраструктуры. Причина в том, что ИИ влияет на каждое приложение, каждую компанию, каждую отрасль, каждую страну — следовательно, это инфраструктура, подобная энергетике и интернету.

Из-за этого — и из-за объёмов вычислительных мощностей, необходимых для генерации этих токенов, чего раньше никогда не было, — нам нужны эти фабрики. Возникли три новые отрасли:

1. Нам нужно строить гораздо больше заводов по производству чипов. TSMC строит, SK Hynix строит — значит, нужны дополнительные заводы.
2. Нам нужны больше заводов по производству компьютеров. Это суперкомпьютеры, которых мир раньше не видел. Grace Blackwell выглядит как совершенно новый тип компьютера — целые стойки представляют собой один GPU.
3. И нам нужны новые фабрики ИИ.

Эти три типа заводов сейчас строятся в Соединённых Штатах в очень крупных масштабах по всей стране.

Количество строителей, сантехников, электриков, техников, сетевых инженеров — квалифицированной рабочей силы, необходимой для поддержки этой новой индустрии в ближайшей перспективе, будет огромным.

Мне так приятно слышать, что зарплаты электриков удвоились. Их теперь оплачивают за командировки — как и нас, мы ездим в деловые поездки; они тоже теперь ездят в командировки. Замечательно видеть, как эти три отрасли создают столько рабочих мест.



Влияние ИИ на профессии в ближайшей перспективе

Дженсен:
Следующая часть — влияние ИИ на рабочие места в ближайшей перспективе. Один из моих любимых примеров: Джефф Хинтон сказал пять или шесть лет назад, что через пять лет ИИ полностью революционизирует радиологию — что каждое радиологическое приложение будет работать на ИИ, и радиологи больше не понадобятся. Он советовал не идти в радиологию.

Он оказался абсолютно прав — 100% радиологических приложений теперь работают на ИИ. Но интересно то, что количество радиологов увеличилось.

Почему? Потому что есть разница между задачей и целью работы. Работа состоит из задач и имеет цель. В радиологии задача — изучать снимки, но цель — ставить диагнозы и заниматься исследованиями.
Дженсен Хуан ИИ, роботы 2026 ч2 Аноним # OP 10/01/26 Суб 19:00:53 1485403 298
image 2788Кб, 2235x1639
2235x1639
>>1485401
Благодаря ИИ они могут изучать больше снимков глубже, заказывать больше исследований, ставить более точные диагнозы, обслуживать больше пациентов, зарабатывать больше денег — и нанимать больше радиологов.

Поэтому задайте себе вопрос: в чём цель работы и в чём её задача? Моя задача — печатать, но цель моей работы — не печатание. Если ИИ автоматизирует моё печатание, я не стану менее занят — я стану более занят, потому что смогу делать больше работы.

Моя свояченица Эрин руководит отделением ядерной медицины в Стэнфорде. Благодаря всем этим технологическим достижениям врачи их приветствуют — они работают по 20 часов в сутки, пытаясь проводить больше исследований и обслуживать больше пациентов.

Повсюду существует скрытый спрос — особенно в здравоохранении. Никто не считает, что мы достигли пика возможностей мировой системы здравоохранения. Чем продуктивнее становятся специалисты, тем выше спрос.

Если Nvidia становится продуктивнее, это не приводит к сокращениям — это позволяет делать больше. Сегодня я встретился с вашим новым набором сотрудников — похоже, вы нанимаете каждую неделю.

Именно так. Чем продуктивнее мы становимся, тем больше идей исследуем, тем больше рост и прибыль — что позволяет нам реализовывать ещё больше идей. Производительность расширяет экономику, а не сокращает её.

Роботы, нехватка рабочей силы и создание новых рабочих мест


Дженсен:
Люди говорят, что роботы отберут рабочие места. Но у нас не хватает рабочих на заводах. Наша экономика ограничена нехваткой рабочей силы — удержание сотрудников сложно. То же самое с дальнобойщиками: люди не хотят работать в условиях, когда приходится жить в дороге.

Роботизированные системы помогут закрыть этот дефицит рабочей силы — особенно с учётом старения населения по всему миру.

И кроме того: когда у нас появились автомобили, понадобились автомеханики. Посмотрите на роботакси сегодня — даже спустя 10 лет им нужны огромные ремонтные бригады и сервисные центры. Представьте себе миллиард роботов — это станет крупнейшей ремонтной отраслью на планете.

ИИ создаёт бум рабочих мест. В экономике ощущается «всасывающий звук» спроса на ИИ-инфраструктуру и на услуги, которые мы сейчас не можем удовлетворить — такие как уход за больными, бухгалтерия, юридическая поддержка.

Опять же: в чём цель работы юриста? Не в чтении или составлении контрактов — это задача. Цель — разрешать конфликты и защищать вас. ИИ помогает с задачами, но не с целью.

Мы должны различать автоматизацию задач и замену человеческой цели.


Подъём китайского открытого исходного кода и глобальный стек

Ведущий:
Ещё одна важная тема — подъём Китая в области открытого исходного кода. Некоторые из самых высоко оценённых моделей в бенчмарках теперь китайские — такие как Qwen, DeepSeek. Вы давно поддерживаете открытый исходный код. Что должны делать США?

Дженсен:
Прежде всего, давайте представим ИИ как стек из пяти уровней:

1. Энергия — питает всё.
2. Чипы — вычислительная основа.
3. Инфраструктура — аппаратное и программное обеспечение (дата-центры, оркестрация).
4. Модели ИИ — не только чат-боты, но и модели для биологии, химии, финансов и т.д.
5. Приложения — OpenEvidence, Harvey, Cursor, FSD, роботы Figure.

ИИ разнообразен. Биология не понимает английский — она понимает язык белков. Поэтому ИИ должен охватывать разные модальности.

Теперь об открытом исходном коде: без него стартапы и традиционные отрасли (здравоохранение, производство) оказались бы задушены. Им нужны предобученные модели, чтобы дообучать их под свои задачи.

Открытый исходный код движет Android, дата-центрами, промышленными приложениями, высшим образованием, исследованиями. Он повсеместен. Политика не должна ломать этот маховик инноваций.

Контраргумент — что какой-то монолитный «Бог-ИИ» доминирует — бесполезен. Бог-ИИ не появится на следующей неделе, в следующем году или даже через десятилетие. Мир не может ждать.

Каждой отрасли нужен ИИ уже сейчас — а не когда-нибудь потом. Преимущество Америки (или любого суверенного государства) заключается в освоении всего стека, а не в накоплении одной модели.



Разоблачение крайностей: апокалипсис против прагматического оптимизма

Дженсен:
В 2025 году появилось много крайних нарративов — «никто больше не будет работать», «Бог-ИИ решит всё», «открытый исходный код опасен» — но они не выдерживают проверки на практике.

Апокалиптические нарративы от уважаемых фигур могут быть крайне вредными. Когда CEO и доктора наук говорят правительствам, что мир скоро кончится, это порождает политику, основанную на страхе.

Это регуляторный захват? Возможно. Компании, выступающие за регулирование других, имеют конфликт интересов.

Но посмотрите, что произошло, когда мы быстро продвинулись вперёд: мы решили проблемы grounding, рассуждений, интеграции исследований. ИИ стал более функциональным, более надёжным — работает так, как заявлено.

Безопасность начинается с производительности. Первая функция безопасности автомобиля — это то, что он работает правильно в 99,999% случаев. То же самое с ИИ.

Мы добились огромных успехов в том, чтобы ИИ делал именно то, что обещает. И у нас впереди ещё 10 лет такой работы.

Кроме того: по мере снижения стоимости ИИ миллионы ИИ могут следить друг за другом. Снижение предельной стоимости = больше контроля, а не меньше безопасности.



Резкое снижение стоимости ИИ

Ведущий:
Стоимость резко упала — стоимость инференса, эквивалентного GPT-4, снизилась в 100 раз в 2024 году. Тем не менее, компании, разрабатывающие модели, утверждают, что их расходы растут. Как это объяснить?

Дженсен:
Андрей Карпатый оценил, что обучение первого ChatGPT обошлось в миллиарды долларов. Сейчас? Вы можете сделать это на обычном ПК за десятки тысяч долларов — или даже меньше. Есть проект с открытым исходным кодом, который можно запустить за выходные.

Прогресс в оборудовании: Volta → Ampere → Hopper → Blackwell → Rubin. Каждое поколение даёт прирост производительности в 5–10 раз. За 10 лет в совокупности? Это 100 000–1 000 000 раз.

Добавьте алгоритмические улучшения — одна лишь статья DeepSeek принесла огромную пользу американским лабораториям и стартапам. Открытый исходный код ускоряет всех.

Так что даже если передовые лаборатории масштабируются, стоимость единицы интеллекта резко падает. Быть на полгода позади — это не смертельно, вы можете быстро наверстать упущенное.

Мы вступаем в эпоху исследований и масштабирования. Лаборатории специализируются: лучшие программисты, лучший пользовательский интерфейс, вертикальная экспертиза. Вам не нужно кипятить океан.

Предварительное обучение — это не конец, а подготовка к пост-обучению (настоящему обучению). Теперь небольшие наборы данных + мощные вычисления + умные алгоритмы = высокая производительность.

Стартапы могут находить микронишы и доминировать в них с помощью открытых моделей.



Вертикализация: следующая волна

Ведущий:
Cursor достиг $1 млрд годового дохода как инструмент для разработчиков, созданный специально под ИИ — многие считали это невозможным. Что дальше?

Дженсен:
Программирование стало первым «моментом ChatGPT» для вертикалей. Но впереди ещё много такого.

Цель инженера-программиста — не писать код, а решать проблемы. Если ИИ берёт на себя написание кода, инженеры решают больше проблем. Поэтому мы нанимаем как сумасшедшие.

То же самое с официантами: их работа — не принимать заказы, а обеспечивать отличный опыт. ИИ может выполнять задачу; люди возвышают цель.

Мы привержены программируемой архитектуре (а не фиксированным ASIC), потому что варианты трансформеров продолжают развиваться — гибридные SSM, диффузия, механизмы внимания. Гибкость стимулирует инновации.

Наша установленная база гарантирует, что FlashAttention, SSM, CNN, LSTM будут работать повсюду. Это снижает стоимость и распространяет инновации.

MVLink-72 делает нас самым дешёвым в мире генератором токенов. По мере снижения стоимости появляются новые приложения.
Дженсен Хуан ИИ, роботы 2026 ч3 Аноним # OP 10/01/26 Суб 19:02:01 1485406 299
image 2780Кб, 2415x1668
2415x1668
>>1485403
Прорывные отрасли в 2026 году

Ведущий:
Что вас больше всего вдохновляет в 2026 году?

Дженсен:
Три направления:

1. Цифровая биология: мультимодальность + длинный контекст + синтетические данные = «момент ChatGPT» для белков, клеток, молекул. Мы только что выпустили Laprina — открытую мультибелковую модель. Следующим шагом станет генерация белков — затем понимание химии, связывание белков и лекарств. Фундаментальные модели для биологии уже на подходе.

2. Автомобили с рассуждающими системами: беспилотные технологии входят в четвёртую эру — сквозные модели рассуждений. Вместо цифровых рельсов автомобили будут рассуждать о новых ситуациях, разбивая их на известные. Устойчивость к нестандартным ситуациям резко возрастёт.

3. Гуманоидная и универсальная робототехника: в отличие от беспилотных автомобилей (на которые ушло более 10 лет), робототехника получает выгоду от современных фундаментальных моделей. Но воплощение разнообразно: манипуляторы для захвата и перемещения, экскаваторы, гусеничные машины — не только гуманоиды.

Победителями будут не только действующие игроки вроде Tesla. «Всё, что движется, станет роботизированным». Компании-разработчики ПО предоставят базовый ИИ; вертикальные интеграторы (вроде Caterpillar) доведут его до надёжности 99,99999%.

Вертикализация — главная тема: OpenEvidence, Harvey, Cursor добиваются успеха, потому что понимают цель своей предметной области, а не только поверхностные задачи.



Энергетика, устойчивое развитие и промышленный рост

Ведущий:
А как насчёт энергетических ограничений? Сможем ли мы обеспечить энергией этот бум ИИ?

Дженсен:
Без энергии не будет новой индустрии. Мы испытывали энергетический голод уже десятилетие. Если бы не изменения в энергетической политике США — принятие природного газа, ядерной энергетики и расширение сетей — мы бы уступили эту революцию другим.

Да, мы по-прежнему ограничены в мощностях. Но спрос на ИИ стимулирует климатические инновации: новые аккумуляторы, концентраторы солнечной энергии, генерация «за счётчиком». Спрос создаёт предложение.

ИИ может стать крупнейшим драйвером инвестиций в устойчивую энергетику за всю историю.



Отношения США и Китая и стратегическая тонкость

Дженсен:
Я оптимистично смотрю на то, что отношения между США и Китаем улучшатся в 2026 году. Идея полной де-купллинга наивна. Обе страны глубоко взаимосвязаны.

Каждая должна инвестировать в независимость — но признавать взаимозависимость. Тонкая стратегия служит как национальной безопасности, так и процветанию.

Huawei может поддерживать китайские вооружённые силы с помощью отечественных технологий. Маловероятно, что американские универсальные чипы будут использоваться в китайской обороне — так же, как мы не стали бы использовать их технологии.

Процветание финансирует безопасность. Вооружённые силы США могущественны, потому что экономика США могущественна. Лидерство в технологиях требует как глобальной конкурентоспособности, так и внутренней силы.

Кроме того: бум интернета в Китае помог Intel, AMD, Micron, Samsung. И Китай вносит больший вклад в открытый исходный код, чем любая другая страна — подпитывая американские стартапы.

Вы не можете судить об отношениях на одном уровне. Посмотрите на весь стек.



Существует ли пузырь в сфере ИИ?

Ведущий:
Находимся ли мы в пузыре ИИ?

Дженсен:
Во-первых: Nvidia — это не только ИИ. Мы пионеры ускорённых вычислений — для графики, SQL, молекулярной динамики, квантовой химии, классического машинного обучения. Даже без генеративного ИИ мы были бы компанией стоимостью в сотни миллиардов долларов.

Во-вторых: доходы от ИИ — это не только OpenAI. Наш бизнес в области автопилотов приближается к $10 млрд. Цифровая биология, финансовые услуги (количественный трейдинг переходит на ИИ), робототехника — всё это многомиллиардные сегменты.

Глобальный ВВП составляет $100 трлн. Только 2% — это НИОКР, то есть $2 трлн. Эти НИОКР переходят от «мокрых» лабораторий к суперкомпьютерам. Спрос на инфраструктуру реален.

Каждый стартап, каждый исследователь, каждый учёный умоляет о дополнительных вычислительных мощностях. Это не пузырь — это структурный сдвиг от универсальных вычислений к ускоренным.

Принятие ИИ предприятиями может быть медленным — но стартапы и эксперты (врачи, юристы, инженеры) уже полностью в игре. Они не хотят искать — они хотят получать ответы. ИИ это и даёт.

Заключительные мысли

Дженсен:
Нам нужна лучшая концептуальная модель для понимания ИИ: это многослойный торт, а не просто чат-боты. Победа означает лидерство по всему стеку — чипы, энергия, модели, вертикали, открытый исходный код.

Безопасность достигается за счёт технологического прогресса — точно так же, как ABS и системы удержания в полосе сделали автомобили безопаснее. Мы находимся в ранние годы ИИ, и следующие пять лет будут необыкновенными.

Я горжусь тем, чего индустрия достигла в 2025 году. Законы масштабирования работают. Инновации быстро распространяются. И лучшее ещё впереди.

Ведущий:
Потрясающе. Мы с нетерпением ждём возможности поговорить с вами и в конце следующего года.

Дженсен:
С удовольствием. Спасибо вам за всю вашу работу. Поздравляю — какой замечательный год.

Ведущий:
Вау. Потрясающий год.

Дженсен:
Да. Много всего. Спасибо.
Аноним 10/01/26 Суб 20:00:59 1485486 300
>>1484921
Код это всегда код.
Речь вообще о том изначально, что двоичная система не содержит недомолвок или лжи. Ложь это всегда полуправда.
В двоичной системе есть только 0 или 1.
Солгал - структура разрушилась.
Это как с биткойном, который невозможно подделать.
Аноним 10/01/26 Суб 20:04:05 1485490 301
>>1485486
>Ложь это всегда полуправда.
Тут я погорячился. Я имел в виду, что ложь может даже содержать часть истины, но упуская нюансы или скрывая их намеренно на выходе получим не истину. Для двоичного кода это невозможно.
Именно поэтому его написание и правда можно поручить машине.
Вообще много чего можно поручить, но тогда не будет разницы между богатыми и бедными, а богатые не для того династиями шли по головам, чтобы сравняться с плебеями.
Аноним 10/01/26 Суб 20:08:59 1485494 302
>>1485401
>>1485403
>>1485406
Сейчас бы простыни от продажного кожанкового хуесоса читать
Аноним 10/01/26 Суб 23:00:22 1485702 303
>>1482612
письменная речь единственное что отличает людей от животных, ни социальность, ни речь, ни всякая параша типа: "Человек — существо без перьев, двуногое, с плоскими ногтями" письменная речь наше всё и Айв скорей всего затащит, кстати заметили что гугл поглощает яблоко? Айв это ещё тогда понял и свалил
Аноним 10/01/26 Суб 23:21:15 1485718 304
>>1480406
> Nvidia хочет стать «Android» для универсальной робототехники

Да... Вклад Хуанга в ИИ трудно переоценить.
Аноним 10/01/26 Суб 23:25:18 1485721 305
photo2026-01-10[...].jpg 58Кб, 599x388
599x388
photo2026-01-10[...].jpg 27Кб, 603x180
603x180
photo2026-01-10[...].jpg 17Кб, 606x140
606x140
Ор дня: ИИ-художники бомбят на то, что у них воруют промпты.

Эти товарищи начали жаловаться, что юзеры плагиатят их запросы — те самые промпты, которые они пишут для нейросетей. Один из самых громких кейсов — «ИИ-амбассадорка» и блогерша, которая накатала пост: мол, люди берут её промпты, слегка меняют слова и выдают за свои.

По её словам, это вопрос базовой честности: идея та же, смысл тот же, результат тот же — значит, спёрли. В сети даже появились инструменты для защиты от кражи промптов.

Ирония в том, что эти люди не осознают, что те самые промпты, которые они пишут, были обучены на миллионах работ художников без какого-либо разрешения. Теперь они всерьёз требуют авторских прав на фразы вроде «ультрадетализация, мягкий свет, кинематографичный стиль».
Аноним 10/01/26 Суб 23:45:32 1485731 306
>>1485049
>Сустав выпал.
Разница с человекоидом в том, что если бы у него сустав выпал он бы орал в конвульсиях до потери сознания от шока.
А робот вставил себе сустав и дальше пошел шить сумки >>1483193
.
Аноним 10/01/26 Суб 23:52:43 1485734 307
>>1485721
>базовой честности
Копиум уровня международного права.
Пересматриваю сериал друзья, там был орный момент, когда Фиби что-то сказал на счет какой-то шмотки, а ей Чендлер сказал, что типо не переживай тебе её еще сделают за 12 центов в час дети из стран третьего мира.
Так вот все ебеали в рот и этих работников за 20 долларов в месяц и чужую интеллектуальную собственность.
Будешь выебываться - убьют нахуй за неё и всё.
Разве в США такого не бывало? Бывало и не раз.
Аноним 10/01/26 Суб 23:56:45 1485737 308
>>1485721
Скорей бы уш запилили нейросетку : промпт - целая книга, на выходе - кино.
Аноним 10/01/26 Суб 23:57:33 1485738 309
image.png 1375Кб, 1280x720
1280x720
>>1485331
Ну наебнутся с пузырём твои АГИ и нейронки как Буран, датацентры продадут за долги и будут сдавать под склады. Где тогда будет твой АГИ?
Аноним 10/01/26 Суб 23:58:38 1485739 310
>>1485738
Пузырь (денежный пузырь) лопнет.
Но останутся спецы и технологии.
Аноним 11/01/26 Вск 00:02:22 1485740 311
>>1485721
Не уважаем таких личностей. По сути те же хуйдожники, только в профиль. Тоже мешают прогрессу
Аноним 11/01/26 Вск 00:15:05 1485743 312
>>1484337
У меня нет лишних денег на это сейчас. А так купил бы с морским пейзажем
Аноним 11/01/26 Вск 00:20:21 1485745 313
>>1480390
>поскольку искусственный интеллект превзошёл человека.
Новорождённого?
Где тогда роботы на конвейерах, работающие хотя бы со скоростью человека на задачах с элементами неожиданности? Ведь по железу всё давно уже лучше и быстрее человека.
Где ИИ, который хотя бы двачевскую капчу может пройти лучше, чем большинство дващеров? (я тестировал, часто сыпется.)
Аноним 11/01/26 Вск 00:22:37 1485746 314
>>1485721
>промпты
>были обучены
Типичное понимание темы луддита.

Ирония в том, что художники не осознают, для того чтобы делать свои арты, их биологическая нейросеть была обучена на миллионах работ других художников без какого-либо разрешения. Теперь они всерьёз требуют авторских прав на свои работы, хотя по факту воруют результаты долгого оттачивания мастерства других хдожников.
Аноним 11/01/26 Вск 00:23:10 1485747 315
>>1480399
бля… вот теперь ссыкотно, что эта хуйня появится на дорогах и нарассуждает…

А можно нам просто хотя бы на уровень интеллекта роевого насекомого выйти?
Аноним 11/01/26 Вск 00:38:44 1485764 316
>>1480410
Ну нормально. Эпоха превращения творцов продукта в дирижёров процессов всё ближе. С программированием работает уже неплохо.
Но на программирование модели сильно натаскивали.

Пока что для меня проблема в том, что ИИ плох как раз в той сфере, где нужно что-то ранее не деланное. Я полностью расписал и клоду и гопоте5 как скрипт должен принимать решение в разных встречающихся ситуациях (поворот на разветвляющихся путях по углу).

А получил реализацию, которая и так уже сделана и рассказана на ютубчике. То есть мои объяснения нейронки заигнорили в угоду «о! я знаю, как это делается, меня учили! Вот тебе стандартная хуйня».

>>1480441
Пасеба!

>>1480451
Ащемта дирижёру и не нужно думать над партией каждого в оркестре, его задача задавать направление и ритмы/динамику/громкость. И вслушиваться в то, что происходит с системой в целом.

Хз, что будут уметь следующие ИИ. Но системное понимание/удержание задачи это, увы, не про трансформеры. Они вон ручками ошибки помечают и складируют.
А должно бы это автоматически происходить, причём складировать не только ошибки, а новые выводы, удачные решения, аналитику.
Аноним 11/01/26 Вск 00:44:16 1485766 317
>>1480670
не особо удивительно, что модель перевела с одного языка на другой. Причём оба языка довольно строгие и точные.
Один — техническое детальное описание. Второй — код и математика.

Большую часть времени у меня при разработке VFX занимает придумать алгоритм, последовательность математических действий. Сами формулы по этому плану пишутся быстро и работа очень техническая, во многом бездумная с очень малой свободой выбора.
Типа не забыть x² заменить на x*x или переставить порядок действий местами, чтобы сократить или улучшить читаемость.
Аноним 11/01/26 Вск 00:46:22 1485771 318
>>1485739
Технологии останутся на бумаге, оборудование уйдёт с аукционов, спецы пойдут челночить в Турцию, барыжа шмотками. Всё как у нас в 90х, только в планетарном масштабе.
Аноним 11/01/26 Вск 00:58:16 1485784 319
>>1480972
манга на 99% для говноедов. Как и марвелоговно и вообще комиксы.

Говорю, как перерывший тысячи комиксов и полюбивший единицы. И то за графический стиль и качество. Повествование в них всё ещё очень слабое.

Названия не буду говорить, они — мировая общепризнанная классика.


> но тем не менее событие вызвало дискуссии о будущем индустрии
Авторы начнут лучше кушать. Потому что им не придётся въёбывать месяцами ради создания и иллюстрирования одной истории.
Ну и волна слопа.

>хвалит художественную составляющую и сюжет, однако другие критикуют качество работы ИИ. Возможно они не видели качество работ художников других манг

Всё верно. Качество комиксов из-за трудоёмкости пиздец низкое.
Однажды я взялся за работу заливщиком (дают чёрный контур, пару страниц покрашенных примеров, дальше крась так же).
Во-первых контур. Низкие навыки, выломанные конечности, дикие проблемы с лицами в ракурсах, уродливый выбор цветов в одном из костюмов ГГ.
Предложил исправить. Исправил. И ещё несколько страниц.
Что в итоге? В итоге мне отказали, потому что а) это дорого и долго по часам, бюджета не хватит б) другие заливщики не могут выдерживать такое качество и страницы будут выбиваться, а покупатель ощутит, что его в середине наебали и уронили качество.

ИИ же без разницы насколько сложную светотень хуярить.
А если есть несколько LoRa, то вполне будет соблюдать стиль и цвета


>где ИИ-манга запрещена.
Считаю, что просто нужна маркировка и разделение по категориям.
Типа «без ИИ», «немношк», «нормально так», «по большей части».
Отдельно маркировка про сценарий, отдельно про графику.

И фильтр. То есть на ресурсе человек не желающий видеть ИИ тупо его скроет. Ровно так как по возрастному рейтингу.
Аноним 11/01/26 Вск 01:00:33 1485787 320
>>1481021
>Правда мы придём к тому, что много кто сам будет верстать работы своей мечты и не читать чужие
Швейные машинки доступны, но для себя мало кто шьёт.

Фотокамеры у каждого в смартфоне, но фотографии в основном люди свои не смотрят.

Чтобы пилить работу мечты нужны навыки и желание, а не только инструмент.
Аноним 11/01/26 Вск 01:02:56 1485789 321
aVl5bjVV700w0.jpg 70Кб, 602x592
602x592
>>1485771
>Технологии останутся на бумаге, оборудование уйдёт с аукционов, спецы пойдут челночить в Турцию, барыжа шмотками. Всё как у нас в 90х, только в планетарном масштабе.

Будет намного хуже.

Пузырь конечно обвалится, потянет за собой всю планетарную экономику, которая и так в пизде. Автоматизация никуда не уйдёт, она просто уничтожит старый капитал (типа работ для сотни тысяч живых программистов и художников). Что только углубит кризис.

И на фоне кризиса, отдельные мировые конфликты перерастут в Третью мировую. Но уже с дронами и возможно с применением яо.

Ну или мы успеем сделать ASI. Но для этого времени уже почти не осталось.
Аноним 11/01/26 Вск 01:07:19 1485793 322
>>1485319
Мне это напоминает как я в детстве не выкупал что за "пузырь доткомов" потому что по интернету не скажешь что он когда-то успел лопнуть.
>>1485738
Идея Бурана была в многоразовости, Спейс Икс в итоге и реализовали многоразовость.
Аноним 11/01/26 Вск 01:11:30 1485796 323
image.png 58Кб, 1143x379
1143x379
>>1481790

дя сьтё ти гавались!
заменяешь x³ на xxx и код работает быстрее в разы.
заменяешь if(a==true) {b =!b}
на b=b XOR a
и код работает ахуенно быстрее. А компилятор тебе такую подмену не сделает, ибо он не может сопоставить содержимое в скобках с условием.

Причём через if пишут все. И нейронка так напишет.
Аноним 11/01/26 Вск 01:14:19 1485798 324
>>1481946
>regional prompting
Я с этим баловался. Много.
Он очень грубый. Протекает даже при наличии одновременно и региона и маски инпейнта.

Всё плохо. Работает худо-бедно на одном персонаже и крупных кусках. Сносно работает в больших облачных моделях, но там нет такого удобства как в комфи.

Сначала кумекая (пробуй), потом кукарекай.
Аноним 11/01/26 Вск 01:26:24 1485807 325
>>1485746
Как говорят зумерки, хороший тейк, факти
Аноним 11/01/26 Вск 01:37:11 1485812 326
>>1485793
>>Спейс Икс в итоге и реализовали многоразовость.
С отставанием на 30 лет.
Примерно на такой же временной лаг мы можем рассчитывать, когда нейростки обвалятся и уже нам будет по 70, когда мы опять увидим GTP 5.2
Аноним 11/01/26 Вск 01:55:12 1485820 327
>>1485812
Ничего общего. Космос просто никому не нужен реально, и там у тебя траты на железо одноразовое. Модель ты один раз обучил, а потом она тебе может служить годами. В том числе может помогать обучать следующие модели. Ты научится делать модели, и дальше просто, потому что ресурсы не настолько большие нужны, если знаешь, как делать. В смысле, что спроектировать и обучить с нуля дешевле, когда есть понимание, чем вести все эти исслезования, когда много тратится на тупиковые ветви.

Дорого стоит производство чипов, вот эти технологии воспроизвести с нуля не проще, чем новую лунную программу запустить. Из реальных сценатиев, когда всё на десятиления уходит в развал, я вижу только СВО Китая на Тайване, что приведёт к ликвидации производства там и, вероятно, уничтожению оборудования там.

Ну и даже такой сценарий в вариенте, когда всё не переходит на затяжную мировую гойду, лет за 10 отыгрывается.
Аноним 11/01/26 Вск 02:39:49 1485845 328
>>1485746
Отличие человека в том, что он не нарезает чужую работу на визуальные фрагменты, чтобы составить свою. И даже не нарезает на приёмы. Он её декомпозирует и применяет в своей работе не повтор чего-то из базы обучения а личное переосмысление.

Условно нейронки — это все прыгуны до Fosbury flop или все прыгуны после. Человек разумный — тот, кто посмотрел на перепрыгивание планки и начал искать варианты, как её перепрыгнуть эффективнее в рамках физических возможностей.

Художник в отличии от нейронки а) не поглощает всё подряд б) не копирует до степени смешения.
Он учится и ищет свои способы, чтобы реализовать свои идеи.
ОЛСО когда художник делает работу, которая по композиции или даже по стилю в деталях начинает быть сильно похожа на работу другого художника — к нему тоже по закону вопросики возникают.

Важно не на чём учился, а чтобы воспроизводимое тобой не нарушало права. Воспроизводимое нейронкой таки нарушает.
Аноним 11/01/26 Вск 03:06:40 1485863 329
>>1485845
Не нарезаю, а переосмысляю, это другое!!!(нет)
>Художник в отличии от нейронки а) не поглощает всё подряд б)
Поглощает. Но выбирает работает в том жанре, каком он хочет. Нейронке ты тоже можешь определенный жанр задать
>не копирует до степени смешения.
Суть всех художников
Аноним 11/01/26 Вск 05:06:18 1485890 330
>>1485820
Ну может ты частично и прав. Давай не будем загадывать. В любом случае 2026 год всё покажет
11/01/26 Вск 05:53:51 1485903 331
>>1485746
Да как вы заебали...
У людей есть права. Люди не в чьей-то собственности. Люди не были созданы для копирования.
Аноним 11/01/26 Вск 06:03:28 1485904 332
Челибосики, вы о чём вообще ? Представьте что бы началось если кто-то реально пильнул AGI-лайк или что-то на уровне и все бы кто в теме на верхах на обкашличах всё понимали там между собой и не палили бы явно годноту быдлу (на опыте так сказать, после того как запалили трансформеры и чинг чонги в итоге надипсикали в тарелку с гешефтами). Да, началась бы ебейшая скупка мощностей под кремний от всех посвящённых. И что мы видим ? Именно её. Так что Илон Муск неспиздел, а проболтался - AGI в этом году.
Аноним 11/01/26 Вск 06:41:34 1485914 333
>>1485903
Ты же в курсе что нейронки это не сами делают? Ими управляют другие люди, с правами и так далее, чтобы создавать "ИИ арты". ИИ - это инструмент, а обучение на чужом контенте - это основной способ обучения любой нейросети в принципе, как цифровой, так и биологической.
11/01/26 Вск 06:57:16 1485918 334
>>1485914
Инструмент копирования, инструмент передаваемый. С таким же успехом мог бы заявить, что пираты тоже люди с правами и используют инструменты.
Аноним 11/01/26 Вск 07:24:00 1485922 335
>>1485845
Главное отличие художника-человека в том, что ему создавать работу очень долго. Даже когда он знает, что хочет нарисовать, он уже это рисовал, ему всё равно нужны дни-месяцы, если он рисует красками, часы-дни, если на комьютере.

Ему нужно годами учиться, оттачивать свои моторные навыки, само техническое умение рисовать.

Уже поверх этого накладывается стиль и идеи, что именно рисовать. Но каждый рисунок дорог, именно это служит тормозом. Составить промпт очень дёшево, этому не нужно особо учиться, это дешёвый общедоступный навык. Рисовать самому дорого.

И тут появляются нейронки. Которые технически умеют рисовать очень хорошо, так, как большинство профессиональных художников не научится за всю жизнь. Если бы люди тратили в 10 раз больше времени на рисование, можно было бы конкурировать. Но тут речь идёт о тысячекратной разнице. Это как делать какие-то сложные вычисления на бумажке, или с помощью компьютера. В этом корень проблемы.

Единственное. за что остаётся цепляться, это за идеи и стиль, потому что нейронка всё-таки не изобретает своё. Но это бесполезно.
Аноним 11/01/26 Вск 07:34:47 1485924 336
>>1485918
Не понял как возможность передачи делает инструмент допустимым или недопустимым для использования. Ты уже придумываешь какие-то специфические критерии допустимости под себя.
Аноним 11/01/26 Вск 07:57:29 1485926 337
>>1485796
>А компилятор тебе такую подмену не сделает,
Вообще оптимизирующие компиляторы делают на ура, 20 лет назад уже делали, и потом технологии очень-очень стремительно развивались. Но это актуально для C/C++, для многих других компилируемых платформ в сильно меньшей степени, а для интерпретируемых языков ещё в меньшей степени, хотя там тоже отдельные подходы есть, JIT, что позволяют во время исполнения получать результат иногда даже лучше, чем компилятор мог бы сделать.

>>1485796
>if(a==true) {b =!b}
>на b=b XOR a
что-что? Это помимо того, что бредовый код в плане логики, ещё и не равнозначный, точнее совсем разный>>1485796
>заменяешь x³ на xxx
Вот это как раз то, с чем оптимизирующие компиляторы справляются хорошо, в смысле замена вызова функции на операцию. Вполне верю, что питон не умеет, но питон в принципе не про вычислительную оптимальность, простая целочисленная арифметика будет сливать в сотни раз по сравнению с компилируемой типизированной. Нужна скорость, используй другие платформы.
Аноним 11/01/26 Вск 08:05:44 1485932 338
img.png 2115Кб, 1024x1536
1024x1536
>>1485904
никто не пильнёт AGI на текущем тире. Мы сейчас на втором тире, это - кремний и транзисторы. (первый тир - это лампочки)
Для АГИ надо переходить на следующий тир, но тупое человечество не может понять куда идти, либо в оптику, либо в квант.
Аноним 11/01/26 Вск 08:23:20 1485945 339
>>1485932
При чём тут кремний? Кремний со своего появления вырос в характеристиках железа в миллионы раз.

Скорее нужна другая архитектура нейросетей. Хотя там если выходить из мира ЛЛМ, там разное же есть, что вполне работает.

В ЛЛМ сейчас очень примитивный подход, запрос-ответ, и всё.
LLM(context) --> result
это противоречит живому интеллекту во всём, в живых средах идёт постоянное дообучение и возможна интерактивная работа. То есть не хватает полноценной интерактивности и дообучения в процессе, две составляющие.

"вызов внешний инструментов" это слабый костыль, при этом даже он огромный рост дал. Но нужна полноценная поддержка интерактивности, без неё AGI быть не может
Аноним 11/01/26 Вск 08:37:28 1485964 340
>>1485721
>-Ти украл
>-Нет ти

Ебаный фрот.
Запомните, прав тот, кто заработал на гоях.
Гоям похуй на промты.
Аноним 11/01/26 Вск 10:04:17 1486004 341
>>1485964
Не, тут там действительно эпичных ор. Муслимка вот реально не понимает, что её работы в результате примерно ноль. Какой-то сраный промпт, это не тот объём, про который можно говорить "украли". Реальная работа делалась тысячами художников, что рисовали то, на чём сетка училась, теми, кто готовил данные для запросов, теми, кто создавал и держит нейросеть.

Меня самого разрывает, когда я вижу, как такие люди ставят себя на один уровень с теми, кто действительно чего-то создаёт.
Аноним 11/01/26 Вск 10:28:32 1486009 342
>>1485932
> но тупое человечество не может понять куда идти, либо в оптику, либо в квант.
Идти надо туда, где работает.
В живые нейросети.
Но этика не позволит еще долго.
Аноним 11/01/26 Вск 10:29:17 1486010 343
если у тебя пис[...].mp4 5214Кб, 360x640, 00:01:11
360x640
>>1485964
>Запомните, прав тот
Аноним 11/01/26 Вск 10:33:17 1486011 344
>>1486004
>Реальная работа делалась
Титанами-классиками, заложившими базу, на плечах которых стоят миллионы хрюш-повторюш пусть и без таланта, но хотя бы с усердием. Муслимка в этой цепи самое низшее звено.
Она буквально есть пережеванный хрюшин кал.
Что она вообще может понять с магическим мышлением это отдельный вопрос.
Аноним 11/01/26 Вск 11:04:50 1486031 345
>>1486011
Аргументы художников тоже смешны, конечно, потому что что нейронки, что люди, учатся на чужих работах, впитывают чужие идеи и перекомпилируя их воспроизводят. Нейронки ведь прямо не копируют ничего. Но сейчас художники объединились и взывают к авторскому праву потому, что это можно использовать как юридический аргумент, чтобы дальше можно было в судах какие-то перспективы иметь. Если получится укоренить людей во мнении, что тут действительно использование авторских прав. В судах же люди принимают решения, законы тоже люди составляют.

Если смотреть с этой позиции, то аргументы как раз очень логичны.

Правда в отдалённой перспективе, думаю, всё равно проигрышное дело. Я думаю, что составить обучающую выборку на основе открытых работ, что уже не имеют зарезервированных прав, плюс что-то купить, чтобы стили натренировать, это не такая большая проблема и не такие большие деньги. И тогда уже совсем будет сложно какие-то претензии предъявлять.

Эмоционально при этом я понимаю, сейчас реально очень много работ, интересных, требующих квалификации и долгого обучения, благородных, иногда доходных, иногда на грани выживания, оказываются под угрозой и людям просто некуда деваться. Реально огромный социальный слой тех, кто жил за счёт своих умений и знаний вылетает на дно, в то время как те, кто за счёт каких-то юридических прав, собственности и власти жил, усиливаются. Это отбрасывает общество назад.
11/01/26 Вск 11:48:46 1486066 346
>>1485924
Ты сам только что ответил на свой вопрос.
Аноним 11/01/26 Вск 12:23:18 1486081 347
Водители Uber и Lyft вышли на протест против Waymo в Сан-Франциско

Водители Uber и Lyft провели акцию протеста в Сан-Франциско против роботакси Waymo, требуя более жёсткого регулирования автономных машин. Акция прошла у офиса Калифорнийской комиссии по коммунальным услугам (CPUC), которая как раз рассматривала новые правила для беспилотного транспорта.

Главный тезис протестующих — «неравные правила игры». Водители заявляют, что к ним применяются строгие требования и штрафы, тогда как автономные автомобили фактически избегают ответственности: например, полиция не смогла выписать штраф Waymo за незаконный разворот из-за отсутствия человека за рулём. На фоне протеста мимо продолжали проезжать роботакси Waymo, что только подчёркивало их уже повседневное присутствие в городе.

Дискуссия обострилась после декабрьского блэкаута, когда десятки машин Waymo застряли на перекрёстках и компания была вынуждена временно остановить сервис. Водители утверждают, что в такие моменты машины становятся дополнительным источником хаоса на дорогах. CPUC публично не стала комментировать протест, а Waymo ограничилась заявлением о своей миссии быть «самым надёжным водителем», на фоне продолжающихся обсуждений новых регуляторных мер.
Аноним 11/01/26 Вск 12:36:53 1486096 348
>>1486004
>ставят себя на один уровень

Не ставят, а опускают себя на один уровень с хуйдожниками луддитами, такими как ты
Аноним 11/01/26 Вск 12:41:26 1486101 349
176812425086467[...].png 186Кб, 933x728
933x728
Аноним 11/01/26 Вск 12:43:43 1486103 350
1о.JPG 31Кб, 714x176
714x176
>>1485490
>>Ложь это всегда полуправда.
>Тут я погорячился.
Ты выдал среднее значение, полуправда (и не ложь и не правда) это как бы статистическое равновесие (нейросети, квантовые ПК, военные программисты-дезинформаторы и хакеры, цель которых писать неправильные программы, или полуправду - нормальные программы, но со скрытым шпионом внутри).

>В двоичной системе есть только 0 или 1.

Кубит ещё есть. В квантовых вычислениях. Который находится в состоянии суперпозиции.

ИИ - это как раз состояние полуправды, угадывание, статистика и вероятности.

Программист-человек-дезинформатор, который пишет код намеренно с ошибкой.
Аноним 11/01/26 Вск 12:47:14 1486105 351
2о.JPG 17Кб, 716x101
716x101
>>1482642
>А вот блокнотик с ручкой обычно у всех с собой.
Для бизнесменов как раз это правильнее, потому что список задач в бумажном планировщике это как ритуальный предмет, тоже самое как и фирменная ручка, и сам блокнот тоже офисный деловой должен быть.
Аноним 11/01/26 Вск 12:54:44 1486114 352
3о.JPG 21Кб, 674x154
674x154
>>1482694
>Сейчас Илон Маск строит нечто беспрецедентное в мире ИИ
Просто эта молодежь копирует успех Генри Форда. Тогда Форд поставил задачу обеспечить всех граждан Америки собственным автомобилем.
На его заводах была зарплата 5 долларов в день, новый Форд марки "Модель-Т" стоил 300 долларов, рабочий, который работал на заводе Форда мог купить автомобиль за 4-5 месяцев просто накопив с зарплаты. К 1930 на автомобилях Форда уже рассекало 15 млн. американцев.

Теперь эти современные инженеры подражают Форду и масштабируются максимально.
Аноним 11/01/26 Вск 12:59:28 1486121 353
>>1485490
>Именно поэтому его написание и правда можно поручить машине.
Но что, если через 10 лет обычное программирование вообще исчезнет и будет только квантовое программирование, основанное на неопределённых вероятностных значениях?

Программисты будущего будут писать код, в котором будет "кот Шрёдингера" внутри.
Аноним 11/01/26 Вск 13:00:53 1486122 354
>>1486096
Чел, художник может сделать что-то сам, своими руками. Его таланты в нём. Его сошлют на необитаемый остров, будут еду скидывать, красок не дадут, но от сможет своим говном на стенах в пещерах картины рисовать.

А тебе стоит отключить доступ к сервисам и ты всё, пшик, ноль без палочки, ничего не сможешь. Ты только служишь господину, который владеет ИИ ресурсами, в надежде, что он оценит эту службу и бросит тебе какие-нибудь крошки.
Аноним 11/01/26 Вск 13:06:53 1486125 355
>>1486121
>основанное на неопределённых вероятностных значениях?
Для бизнеса, для дела, это обычно неприемлемо. Это, кстати, одно из сильных ограничений против генерации кода ИИ, подхода, когда твоё ПО это не код программы, а промпт.

Тебе часто нужна 100% определённость и воспроизводимость.

Нечёткие задачи тоже есть, но это ближе к исследовательской работе, нежели к задачам, где применяется обычно программирование.

Правда по идее эти задачи ещё проще поручить машине
Аноним 11/01/26 Вск 13:10:27 1486126 356
100.JPG 24Кб, 728x167
728x167
>>1485820
>Ничего общего. Космос просто никому не нужен реально
Чо эта? Ты просто представь что у каждого человека будет своя личная планета в собственности.

Типа как ценность, биткоин, актив, бизнес, тоже самое - свою планету можно будет продать, купить другую или обменяться.

Только в нашей Галактике Млечный Путь около 100 млрд планет, среди них около 10 млрд. таких звёзд типа нашей звезды по имени Солнце.

У нас на планете 8 млрд. человек. В Галактике минимум 100 млрд. планет. Это даже не по одной планете каждому жителю Земли, а по 12 планет, ты прикинь, если у тебя было бы сейчас 12 планет в собственности, да?
Аноним 11/01/26 Вск 13:19:28 1486131 357
чо.JPG 30Кб, 707x213
707x213
>>1486126
>Типа как ценность, биткоин, актив, бизнес, тоже самое - свою планету можно будет продать, купить другую или обменяться.

Кстати, почему бы не ввести новую валюту, ценность, вместо биткоина - планеткоины. Каждая планета - как монета. Даже не надо туда пока лететь, осваивать и добывать ресурсы, ценность же есть в реальном физическом мире, она реальная, она существует. и эту ценность можно уже сейчас использовать, создав планеткоины или звёздокоины.


Планет хватит на всех - космос безграничный, это только минимум 100 млрд. планет только в нашей галактике Млечный путь.
Аноним 11/01/26 Вск 13:20:25 1486132 358
>>1486126
Представить могу что угодно, но только с законами физике это несовместимо, слишком большие расстояния, а скорость света ограничена.

Единственный выход, это сделать Матрицу. И если переместить сознание туда, то у тебя в собственности уже может быть целая планета, и вообще любые законы физики. Может через какое-то разумное время Илон придумает реальное решение, не зря же он за нейролинк уцепился.
Аноним 11/01/26 Вск 13:25:24 1486134 359
>>1486122
Если такие луддиты как ты отправятся на необитаемый остров рисовать говном в пещерах, цивилизация от этого только выиграет. Удачи попытаться выжить без доступа к технологиям, которые ты так ненавидишь
Аноним 11/01/26 Вск 13:25:52 1486136 360
image.png 122Кб, 666x679
666x679
>>1486126
>>1486132
Вот представь, что ты живёшь на планете при одной из этих ближайших звёзд. Хочешь пообщаться к кем-то на Земле, посылаешь сообщение "Привет, как дела". Проходит 10 лет, получаешь ответ "у меня всё замечательно, а у тебя?". Ну такое себе.
Аноним 11/01/26 Вск 13:30:16 1486140 361
>>1486132
Матрица - это правильный подход. ИИ рекурсивно самоулучшается, покрывает всю планету датацентрами и исследует космос. А люди спокойно чиллят в матрице с идеально подходящими для каждого настройками
Аноним 11/01/26 Вск 13:40:37 1486145 362
1з.JPG 83Кб, 756x691
756x691
2з.JPG 68Кб, 758x539
758x539
3з.JPG 79Кб, 729x606
729x606
>>1486132
>слишком большие расстояния, а скорость света ограничена.
Ничего не мешает зарабатывать на своей планете уже сейчас. Каждому распределить по одной планете. Можно методом лотереи. Под словом планета - имеется ввиду любое состояние - горящая звезда типа нашего Солнца, или остывшая как Меркурий, или газ как Юпитер.
Родился человек - он сразу получает себе в собственность планету, вот так прямо в свидетельство о рождении записать право собственности на свою личную планету, которая назначается или по очерёдности их расположения от ближних к дальним, или по лотерее, но тоже начиная сначала с ближних к нам.
Аноним 11/01/26 Вск 14:10:01 1486155 363
4з.JPG 47Кб, 739x393
739x393
1м.JPG 64Кб, 668x576
668x576
2м.JPG 104Кб, 617x834
617x834
>>1486136
>живёшь на планете при одной из этих ближайших звёзд
Не надо туда лететь и там жить (пока). Надо сделать планеткоин и зарабатывать на нём уже сейчас.
А потом наши потомки будут запускать к своим же планетам своих же роботов для исследования и добычи ресурсов. Любая планета ценность - Солнце, Юпитер, Меркурий, и т.д. Это мега-ресурсы. Кроме несформированных, у которых нет ядра.
Аноним 11/01/26 Вск 14:59:33 1486185 364
Вот бе жить на чистенькой экзопланете с земными климатом, которая не засрана людьми
Аноним 11/01/26 Вск 15:21:23 1486195 365
176813395394390[...].jpg 81Кб, 640x559
640x559
>>1486101
205 проблема Эрдеша была решена ИИ. Третья в сумме и вторая за день.
Аноним 11/01/26 Вск 15:59:44 1486228 366
Там же дип майнд обещали уравнения Навье-Стокса решить и даже передали решение до конца года. Что там в итоге, до сих пор проверяют или у гугла официально обосрамс?
Аноним 11/01/26 Вск 16:01:36 1486230 367
>>1486081
>«неравные правила игры». Водители заявляют, что к ним применяются строгие требования и штрафы
А с хули они должны быть равными. Если водила что-то нарушает - это всегда намеренно, у водилы были все возможности этого не делать. Если машина нарушает - пока неохваченная алгоритмом ситуация, которую потом заревьювят и поправят.
Аноним 11/01/26 Вск 16:04:37 1486235 368
>>1486114
Так надо масштабироваться максимально, это реальность 21 века. Не сделаешь ты - сделает кто-то другой и соберет все бонусы. А ты потом разоришься. Сейчас это уже на уровне стран, будет тормозить США - отстанет от Китая в роботизации, станет тоже неактуальной. Европка уже посасывает. Поэтому и надо масштабироваться как угорелые, поэтому Маск и говорит о миллиардах роботов в течении 10 лет. Кто не справится - пизда ему.
Аноним 11/01/26 Вск 16:11:20 1486238 369
>>1486228
Не дипмайнд, а один конкретный их бывший высокопоставленный сотрудник. Говорят, что он был под наркотой, когда заявлял что решил Навье-Стокса. Сами дипмайнд никогда такого не заявляли и не будут, если/пока не решат официально и окончательно
CES 2026 ч1 Аноним # OP 11/01/26 Вск 16:32:33 1486249 370
image 920Кб, 959x639
959x639
image 302Кб, 958x639
958x639
image 742Кб, 960x640
960x640
image 649Кб, 958x735
958x735
CES 2026 завершилась роботами, Китаем и повсеместным искусственным интеллектом

CES 2026 завершилась как одна из самых масштабных выставок за последние годы. Ассоциация потребительских технологий (CTA) сообщила о более чем 4100 выставляющих компаниях, примерно 148 000 посетителях и почти 7000 представителях мировых СМИ в Лас-Вегасе. CTA также отметила свыше 3000 заявок на премию CES Innovation Award в категориях потребительских, корпоративных, медицинских, транспортных, экологических и новых технологий. Именно поэтому я утверждаю, что аббревиатура CES должна расшифровываться как «Consumer Everything Show» («Выставка всего для потребителей»). Доля международных участников превысила 40 % от общего числа посетителей, при этом особенно сильной была представленность стран Азии. Я бы охарактеризовал эту выставку как первую, где доминировали китайские компании, а не японские и корейские, значительно затмив американских производителей.

Как я отмечаю каждый год, крупнейшие компании — Google, Microsoft, Apple и Meta — практически отсутствовали, поскольку все они проводят собственные закрытые конференции для разработчиков позже в году. Хотя Nvidia организовала масштабное присутствие в отеле Fontainebleau, расположенном рядом с выставочным центром, остальные технологические гиганты были представлены лишь частными встречами в номерах соседних отелей. Тем не менее, CES продолжила указывать на ключевые тренды в сфере потребительской электроники, которые появятся у пользователей уже в этом году.

В пост-выставочном разговоре с Дином Такахаши из GamesBeat — «деканом технических журналистов», — а также бывшим технологическим руководителем Fox и Paramount и предпринимателем Тедом Шиловицем в подкасте AIXR оба отметили существенные отличия нынешней выставки. «Это был год драматических перемен», — сказал Шиловиц. «Sony не представила своих традиционных продуктов на стенде. Вместо этого они демонстрировали свой электромобиль Affela, совместное предприятие с Honda. Они вообще не показывали свои телевизоры. Мне просто интересно, не пересматривают ли сейчас эти корпорации рентабельность своих огромных расходов на CES и не осознают ли, что больше нет реальной отдачи от гигантского стенда с бытовой техникой и телевизорами».

Искусственный интеллект присутствовал почти в каждой крупной категории продукции на выставке. Телевизоры, бытовая техника, носимые устройства, транспортные средства, роботы и инфраструктурные системы использовали локальные или гибридные ИИ-модели для восприятия, управления и адаптации. «Мы всё ещё находимся в разгаре взрыва ИИ-продуктов, — сказал Такахаши. — Он пока не замедляется и не сходит на нет. Все просто бросают продукты на стену, чтобы посмотреть, что прилипнет».

Вычислительные мощности лежали в основе многих демонстраций. Nvidia сохранила заметное присутствие благодаря анонсам платформ и интеграциям с партнёрами, а её аппаратные и программные стеки упоминались повсюду — в демонстрациях робототехники, компьютерного зрения, автономных систем и симуляций. Nvidia сделала акцент на «физическом ИИ» — системах, предназначенных для восприятия и действия в реальных условиях, а не ограниченных экранами. «Nvidia полностью заняла Fontainebleau — совершенно новый курортный отель рядом со Северным залом Конгресс-центра. Это очень напоминало демонстрацию силы, — сказал Шиловиц. — Они словно говорили: “Посмотрите на нас — мы крупнейшая компания в мире”. В итоге ты стоишь перед серверными стойками и машинами и думаешь: на самом деле тебе совсем не нужно видеть, как выглядят компьютеры, чтобы понять, насколько они мощные».

Робототехника стала одной из самых обширных категорий на выставке. Полноценные гуманоидные роботы демонстрировали баланс, ловкую манипуляцию и согласованное движение, предназначенные для логистики, производства и сервисных ролей. Компании подчеркивали достижения в области сенсорики, телеуправления и безопасности, всё чаще проектируя системы для работы в непосредственной близости от людей. Демонстрации гуманоидов вызвали огромный интерес у публики, что отражает сохраняющийся импульс развития промышленной робототехники. «Цифровые двойники, компьютерное зрение и модели мира — вот почему роботы приходят так быстро и в таком количестве», — отметил Такахаши.

Наряду с промышленными системами, потребительская робототехника также была заметной. Многие продукты сочетали камеры, микрофоны, экспрессивные дисплеи и мобильные платформы, отражая сближение компьютерного зрения и крупных языковых моделей. Особенно выделялось большое количество ИИ-компаньонов и роботизированных питомцев, ориентированных на семьи, детей и пожилых людей. Эти устройства делали упор на взаимодействие, отзывчивость и регулярное вовлечение, а не на выполнение конкретных задач.

Технологии для домашних животных вышли далеко за рамки автоматических кормушек и GPS-трекеров. Несколько экспонентов представили ИИ-питомцев, ошейники для мониторинга здоровья и интерактивные игрушки, адаптирующие своё поведение в зависимости от активности и настроения животного. Эти продукты являются частью более широкого тренда на непрерывное считывание данных и моделирование поведения в домашних условиях. Большинство из них никогда не поступит в продажу.

Технологии для пожилых людей и вспомогательные устройства также заняли значительно большую площадь. Продукты были направлены на поддержку мобильности, обнаружение падений, контроль приёма лекарств и социальное взаимодействие для пожилых. Носимые устройства для здоровья отслеживали движения, сон и физиологические сигналы, а ИИ-системы выявляли изменения с течением времени. Устройства, предназначенные для поддержки самостоятельного проживания пожилых людей за счёт ненавязчивого мониторинга, а не клинического вмешательства, были представлены в большом количестве.

Технологии здоровья и благополучия распространились на сферу сна, массажные устройства и системы восстановления. Продукты для сна отслеживали нейронные, респираторные и двигательные данные, чтобы регулировать звук, температуру или освещение. Массажные и физиотерапевтические устройства использовали ИИ для адаптации давления и движений в зависимости от положения тела и реакции мышц. Освещение в СМИ подчеркивало интерес потребителей к неклиническим инструментам оптимизации здоровья для стареющего населения.
CES 2026 ч2 Аноним # OP 11/01/26 Вск 16:34:30 1486250 371
image 645Кб, 958x638
958x638
image 881Кб, 960x640
960x640
image 1267Кб, 959x818
959x818
image 531Кб, 958x639
958x639
>>1486249
Носимые устройства остались одной из самых насыщенных категорий на CES 2026. Устройства постоянно записывали аудио, движения, уровень освещённости и биометрические данные. Многие делали акцент на распознавании долгосрочных паттернов, а не на краткосрочных метриках. Business Insider и Investors.com сообщили об ИИ-носимых устройствах, предназначенных для записи активности и разговоров с последующим составлением краткого содержания, что вызвало вопросы о конфиденциальности и обработке данных наряду с функциональностью. «Каждая демонстрация умных очков была хуже предыдущей. Они отлично выглядят, но как только просишь показать функциональность — начинаются отговорки», — сказал Шиловиц. В то же время новые устройства для слабовидящих и с автоматической фокусировкой намекают, что гораздо большая функциональность уже в пути.

XR и умные очки образовывали заметную группу в нескольких залах. Производители сосредоточились на лёгких форм-факторах, комфорте и приватном просмотре для продуктивности и развлечений. Демонстрации делали упор на качество экрана, скорость подключения, время автономной работы и читаемость текста. После ошеломительного успеха умных очков Ray-Ban от Meta категория XR явно сместилась в сторону повседневного личного использования, а не иммерсивных гарнитур для симуляций и игр. Ключевой функциональностью этих устройств стали ИИ-поддержка перевода, ведения заметок, поиска контента и адаптации интерфейса.

Технологии телевизоров и дисплеев продолжили движение к более тонким, ярким и энергоэффективным экранам. Ультратонкие OLED- и Mini-LED-телевизоры оснащались ИИ-оптимизацией изображения, работающей локально на устройстве. TCL является ведущим партнёром Google TV, и на пресс-конференции они продемонстрировали, как это может улучшить просмотр. Появились всё более узкие рамки, возможность монтажа вплотную к стене и адаптивные системы яркости, рассчитанные на различные условия освещения. Интеграция ИИ была направлена на поиск контента, голосовое управление и автоматическую калибровку. Конечно, 163-дюймовый экран от TCL с беспрецедентной плотностью пикселей и качеством, сравнимым с кинотеатром, сегодня стоит свыше 100 000 долларов. Возможно, мы увидим тот же продукт по четверти этой цены уже через два года или даже раньше.

Фудтех вышел за пределы кухонь в область поставок и приготовления. Умная техника, системы распознавания ингредиентов и платформы для отслеживания питания появились наряду с инновациями в области альтернативных белков и упаковки. Это скорее постепенное улучшение, чем радикальные перемены, несмотря на внедрение ИИ-рецептов и холодильников, отслеживающих своё содержимое.

Бытовая техника приняла аналогичную архитектуру. Умные кухни оснащались ИИ-системами приготовления, способными распознавать ингредиенты и регулировать температуру после загрузки продуктов. Холодильники, стиральные и сушильные машины, кондиционеры адаптировали свою работу в зависимости от паттернов использования и доступности энергии.

Энергетические и солнечные технологии заняли растущую долю выставки. Экспоненты представляли интегрированные системы, сочетающие солнечную генерацию, аккумулирование энергии и ИИ-управление энергопотреблением. Эти платформы оптимизировали домашнее потребление энергии в зависимости от тарифов, доступности и спроса.

Технологии для улицы и сада стали более заметными. Автономные роботизированные газонокосилки, использующие LiDAR и 3D-картографирование, работали без периметральных проводов, рассматривая уход за газоном как задачу навигации. Садовые технологии включали системы полива с ИИ и инструменты мониторинга растений, регулирующие полив на основе данных о почве и погоде.

Мобильность и «технологии парения» проявились через компактные дроны и концепты персональных летательных аппаратов. Хотя регуляторные ограничения повлияли на многие демонстрации, летающие камеры с автономной стабилизацией и возможностью съёмки без рук привлекли внимание. Категория дронов показалась мне меньше в этом году, что удивило меня на фоне милитаризации потребительских FPV-дронов.

Спорттех охватывал всё — от носимых устройств для отслеживания производительности до ИИ-систем тренировок с компьютерным зрением и роботизированных инструкторов по теннису и гольфу на базе ИИ. Продукты отслеживали биомеханику, время реакции и восстановление, передавая данные в коучинговые платформы. Обувные технологии включали датчики для анализа походки и распределения давления, а одежда интегрировала тактильную обратную связь и терморегуляцию.

Детские и игровые технологии остались неотъемлемой частью CES. Игрушки с ИИ включали распознавание речи, зрение и адаптивное поведение. Многие продукты были ориентированы на обучение и вовлечение через интерактивные истории и решение задач. Образовательные технологии расширили эти идеи на классные комнаты: ИИ-репетиторы, инструменты для изучения языков и платформы управления учебным процессом были представлены широко.

Технологии для волос и красоты применили ИИ к персонализации. Умные стайлеры регулировали температуру и движения в зависимости от типа и состояния волос. Системы анализа кожи использовали изображения и машинное обучение для рекомендаций по уходу и средствам. Репортажи в lifestyle-изданиях подчеркивали персонализацию как ключевое преимущество.

Секстех продолжал присутствовать на CES под эгидой здоровья и благополучия. Продукты делали акцент на безопасности, согласии и физиологической обратной связи, часто интегрируя биометрические датчики и управление через приложения. Репортажи рассматривали эту категорию как часть более широких дискуссий об интимном здоровье и технологиях благополучия, но, честно говоря, это всё ещё куча мужчин, запускающих нелепые фейковые женские аватары и сексуальные симуляции.

Экономика медиа и развлечений проявилась в анонсах платформ и интервью. Roku привлёк внимание своими комментариями о недорогом стриминге и ИИ-ассистированном производстве контента; Variety сообщило о стремлении компании снизить производственные затраты за счёт автоматизации. Во всей отрасли ИИ-инструменты, встроенные в рабочие процессы монтажа, локализации и персонализации, продолжали трансформировать контент-конвейеры.

Присутствие Китая на CES 2026 широко отмечалось в прессе. Китайские компании экспонировались в категориях дисплеев, бытовой техники, робототехники, энергетических систем и XR-оборудования. Многие представленные продукты уже поставляются на рынок или находятся на грани коммерческого запуска. Большинство роботов пришло из Китая. «Мой вопрос каждой робототехнической компании был: сколько это стоит? — сказал Шиловиц. — Никто не хотел отвечать на этот вопрос».

Во всех категориях CES 2026 представила технологический ландшафт, определяемый ИИ и автоматизацией. XR-очки выглядели как повседневные дисплеи. Робототехника охватывала как промышленные, так и бытовые сценарии. Технологии в сферах здоровья, дома, энергетики и мобильности использовали схожие подходы к сенсорике и адаптации. Выставка функционировала как крупномасштабная среда сравнения, где повторяемость решений в разных категориях делала тренды заметными без необходимости полагаться на единичные прорывные моменты.
Аноним # OP 11/01/26 Вск 16:41:46 1486256 372
image 133Кб, 620x349
620x349
Сообщается, что OpenAI просит подрядчиков загружать реальные работы, выполненные ими на предыдущих местах работы

Согласно сообщению в Wired, OpenAI и компания по подготовке обучающих данных Handshake AI просят сторонних подрядчиков загружать реальные работы, которые они выполняли на предыдущих и текущих рабочих местах.

Это, по-видимому, является частью более широкой стратегии, которой придерживаются различные компании в сфере ИИ: они нанимают подрядчиков для создания высококачественных обучающих данных в надежде, что это в конечном итоге позволит их моделям автоматизировать всё больше задач, относящихся к категории «умственного труда».

В случае с OpenAI, согласно имеющимся данным, в презентации компании подрядчикам предлагается описать задачи, которые они выполняли на других работах, и загрузить примеры «реальной работы на рабочем месте», которую они «фактически выполняли». Такие примеры могут включать «конкретный результат (не краткое содержание файла, а сам файл) — например, документ Word, PDF, презентацию PowerPoint, таблицу Excel, изображение или репозиторий».

Как сообщается, компания инструктирует подрядчиков удалять перед загрузкой конфиденциальную информацию и персональные данные, указывая им на инструмент ChatGPT под названием «Superstar Scrubbing» для выполнения этой задачи.

Тем не менее, юрист по вопросам интеллектуальной собственности Эван Браун заявил Wired, что любая лаборатория ИИ, использующая такой подход, «подвергает себя огромному риску», поскольку этот метод требует «большого доверия к подрядчикам в вопросе определения того, что является конфиденциальным, а что нет».

Представитель OpenAI отказался давать комментарии.
Аноним # OP 11/01/26 Вск 16:44:24 1486259 373
image 378Кб, 975x505
975x505
Сингулярность начинает заставлять Манхэттенский проект выглядеть как погрешность округления.

В 2025 году капитальные расходы США на ИИ-инфраструктуру достигли 1,9% ВВП, что делает этот проект более чем в три раза масштабнее программы «Аполлон» (0,6%) и почти в пять раз масштабнее Манхэттенского проекта (0,4%). Эти инвестиции подпитывают переход к рекурсивному самосовершенствованию.

Капитальные расходы технологического сектора США были огромными:

В 2025 году капитальные расходы на технологии в процентах от ВВП почти сравнялись с СОВОКУПНЫМ масштабом крупнейших капитальных проектов XX века.

Это происходит на фоне того, что капитальные расходы крупных технологических компаний в прошлом году выросли примерно до 1,9% ВВП.

Для сравнения, общенациональное развитие широкополосного интернета в начале века составило около 1,2% ВВП.

Быстрое расширение электрификации в 1949 году, проект высадки на Луну по программе «Аполлон» и строительство межштатной автомагистрали в 1960-х годах — каждый из этих проектов составлял примерно 0,6% ВВП.

Манхэттенский проект по созданию первых атомных бомб в 1940-х годах в сумме составил около 0,4% ВВП.

Инвестиционный бум в области ИИ беспрецедентен.
Аноним 11/01/26 Вск 17:34:19 1486290 374
>>1486259
> Манхэттенский проект
А это было чем-то таким супер дорогим и сверх выдающимся?
Аноним 11/01/26 Вск 17:54:55 1486311 375
>>1486290
Тащем-то да, напрягли аж 3 страны, собрали все ресурсы и тысячи ученых, задача была догнать и перегнать. Примерно как сейчас с Китайским ИИ, только понапряженнее.
Аноним 11/01/26 Вск 17:57:59 1486313 376
>>1486230
>Если водила что-то нарушает - это всегда намеренно, у водилы были все возможности этого не делать
С чего бы это? Обычная история, что не заметил знак, отвлёкся и т.п. Что нормально для людей. Если же робот, то это косяк разработки, надо компании-разработчику штраф выписывать. Если из-за них проблемы какие-то возникаю, пусть оплачивают издержки, покупают страховки соответствующие.

Вообще тут проблемы нет и странно, что это не работает. Сложная проблема возникает. Сложная проблема возникает, когда положена уголовная ответственность, кого-то в тюрьму сажать, а в случае штрафов вообще нет проблем, всё очевидно.
Аноним 11/01/26 Вск 18:02:16 1486317 377
>>1486311
Тут ещё не понятно, как в каждом случае считают. В атомном проекте расходы были большие, фильм "Опенгеймер" даёт неверное ощущение, что это там построили небольшой городок и своими силами в нём всё сделали, реально там много где ещё работа на этот проект шла.
Настройки X
Ответить в тред X
15000
Добавить файл/ctrl-v
Стикеры X
Избранное / Топ тредов