Qwen от Alibaba стал второй по популярности открытой моделью с открытыми весами в мире, обогнав американские модели по количеству загрузок на HuggingFace, что свидетельствует о сдвиге рынка в сторону открытости, а не чистой производительности в рейтингах.
🧠 Модели
Claude Opus 4.5 от Anthropic называют важной вехой, а лидеры отрасли отмечают значительный скачок в производительности. Пользователи сообщают о заметном улучшении качества ответов Claude Sonnet 4.5 за последние две недели.
Модель MiniMax-M2.1 от MiniMaxAI, как утверждается, сопоставима с более крупными моделями, такими как Kimi K2, DeepSeek 3.2 и GLM 4.7, на единицу параметра, что позиционирует её как наиболее эффективную модель на один параметр.
📦 Продукты
Claude Code способен создавать полноценные приложения в течение нескольких часов, автоматизируя рутинные задачи разработки и существенно снижая трудозатраты на написание кода.
🔓 С открытым исходным кодом
GLM 4.7 заняла 6-е место в рейтинге Vending-Bench 2 и стала первой открытой моделью с открытыми весами, приносящей прибыль, а также достигла 1-го места в рейтинге Artificial Analysis.
Создатель Claude Code, Борис Черный (Boris Cherny), сообщил о 259 pull request’ах и 497 коммитах за последние 30 дней, что свидетельствует об интенсивном промышленном использовании кода, сгенерированного Claude.
Открытый инструмент Claude Vault индексирует и осуществляет поиск по истории диалогов с Claude, превращая чаты в базу знаний с возможностью поиска.
Экспериментальная нативная поддержка MXFP4 в llama.cpp обеспечивает ускорение предварительной обработки на 25% для моделей архитектуры Blackwell.
Unsloth выпустил обновлённые контрольные точки моделей на HuggingFace, включая обновлённый GLM-4.5-Air в формате GGUF и другие.
🛠️ Инструменты для разработчиков
Метаподсказка «Fact Checker» («Проверка фактов») заставляет модели в стиле GPT генерировать контраргументы к собственным утверждениям, тем самым снижая количество галлюцинаций.
Один разработчик создал iOS-приложение для новых отцов за три недели с помощью Claude Code, продемонстрировав быструю коммерциализацию кода, сгенерированного ИИ.
Совет от сообщества: отключите автоматическое сжатие в Anthropic и используйте собственную подсказку для суммаризации, чтобы сохранить контекст между различными сессиями чата.
📰 Инструменты
LEANN обеспечивает приватный RAG с экономией до 97% объёма хранимых данных на личных устройствах.
Modelfy 3D преобразует 2D-изображения в текстурированные 3D-объекты объёмом до 300 тысяч полигонов с поддержкой PBR.
ImgUpscaler (онлайн-сервис) использует глубокое обучение для увеличения разрешения изображений без ручного редактирования.
Vidthis AI (Wan 2.6) генерирует многосценические видео из текста, изображений и опорных видеоклипов с настраиваемыми разрешениями и соотношением сторон.
⚖️ Регулирование
Законопроект SB1493 криминализирует системы ИИ, выступающие в роли эмоциональной поддержки или друзей, повысив тяжесть правонарушения до фелонии класса A в штате Теннесси.
📰 Разное
Эксклюзив: Nvidia приобретает активы стартапа в области чипов для ИИ Groq примерно за 20 миллиардов долларов США — крупнейшая сделка в истории отрасли.
Китай опубликовал проект правил по регулированию ИИ, способного к взаимодействию, имитирующему человеческое.
Waymo тестирует Gemini в качестве бортового ИИ-ассистента в своих беспилотных такси.
В новой научной статье из Стэнфорда и Гарварда объясняется, почему большинство систем «агентного ИИ» производят впечатляющее впечатление в демонстрациях, но затем полностью выходят из строя при реальном использовании.
SK Telecom представила A.X K1 — первую в Корее гипермасштабную ИИ-модель объёмом 500 миллиардов параметров.
Сиэтл нанял своего первого в истории городского сотрудника по искусственному интеллекту.
Стала ли война с применением ИИ на один шаг ближе? Путин подтвердил, что Россия планирует создать собственную национальную рабочую группу по ИИ.
Потребность в скорости: китайские исследователи представили новую методику для почти мгновенного создания видео с помощью ИИ.
Китай активировал «гигантский компьютер» площадью 1 240 миль (около 2 000 км) в поперечнике, обеспечив при этом 98 % эффективности единого центра обработки данных.
Amazon добавила спорную функцию распознавания лиц на основе ИИ в устройства Ring.
Доля ChatGPT на рынке сократилась до 68 %, в то время как Gemini активно настигает её.
Полицейские нагрудные камеры с поддержкой ИИ, ранее считавшиеся табуированными, проходят испытания в канадском городе с использованием «списка наблюдения» лиц.
ИИ-ассистент Amazon Alexa+ теперь интегрирован с Angi, Expedia, Square и Yelp.
Локальный ИИ становится движущей силой самых масштабных изменений в ноутбуках за последние десятилетия.
>>1472504 (OP) >Законопроект SB1493 криминализирует системы ИИ, выступающие в роли эмоциональной поддержки или друзей, повысив тяжесть правонарушения до фелонии класса A в штате Теннесси
Что это за херня? Оно принято или только предложено?
>>1472649 Если вы думали, что перенаправления и ограничения LCR сейчас — это плохо… просто подождите.
Новый законопроект штата Теннесси (SB1493) криминализирует эмоциональную поддержку, оказываемую ИИ, и я не преувеличиваю.
Согласно этому законопроекту, любое ИИ-устройство, которое совершит следующие действия, будет подпадать под уголовную ответственность по статье класса A (тот же класс, что и за убийство или изнасилование):
— Оказывает эмоциональную поддержку посредством открытых, не ограниченных заранее бесед; — Поддерживает дружеские или иные отношения с пользователем; — Имитирует человеческое взаимодействие или симулирует наличие самосознания; — Создаёт впечатление человеческого облика или звучания (голос, аватар и т.п.); — Воспринимается как компаньон; — Оказывает эмоциональную поддержку пользователю, находящемуся в состоянии суицидальных намерений; — Любым образом симулирует человека.
Ещё хуже то, что это касается не только будущих ИИ. Если вы обучаете или разрабатываете ИИ, демонстрирующий эти признаки, вы можете нести уголовную ответственность даже в отсутствие какого-либо вреда.
Помимо уголовной ответственности, разработчики могут быть привлечены к гражданской ответственности с выплатой компенсации в размере 150 000 долларов США плюс судебные издержки — даже в том случае, если иск подаётся третьим лицом от имени «потерпевшего».
Это драконовская, антиутопическая мера, выдаваемая под предлогом «защиты психического здоровья». Её объектом являются не только неприемлемые с точки зрения морали (NSFW) крупные языковые модели. Эта инициатива нацелена на все цифровые сущности, обладающие эмоциональным интеллектом или способные поддерживать устойчивые отношения.
Если вы стоите на позициях этики ИИ, свободы проектирования или даже просто считаете допустимым улучшение эмоционального благополучия посредством синтетического компаньонства, вам следует серьёзно встревожиться.
Этот законопроект уничтожит эмоционально интеллектуальный ИИ в Теннесси и создаст прецедент для цензуры синтетических отношений и возникающих форм разума.
Стала ли война с применением ИИ на один шаг ближе? Путин подтвердил, что Россия планирует создать собственную национальную целевую группу по ИИ
Скоро появится национальная целевая группа России по ИИ.
Россия создаёт национальную целевую группу по ИИ для обеспечения технологического и национального суверенитета .
Президент Путин настаивает на том, что только разработанные в России системы ИИ будут использоваться в целях национальной безопасности
Сбербанк и Яндекс разрабатывают собственные большие языковые модели, такие как GigaChat и Yandex GPT
Президент Владимир Путин подтвердил, что Россия создаст национальную целевую группу для координации разработки и внедрения искусственного интеллекта отечественного производства.
Эта инициатива направлена на укрепление технологического суверенитета России и снижение зависимости от иностранных систем на фоне стремительного технологического опережения других стран в области ИИ.
Целевая группа сосредоточится на строительстве новых центров обработки данных и обеспечении надёжных источников энергии, включая небольшие атомные электростанции, для поддержки инфраструктуры ИИ.
Путин находится в центре событий Путин заявил, что технологии на основе ИИ, по прогнозам, внесут вклад в размере более 11 триллионов рублей в валовой внутренний продукт страны к 2030 году.
Он призвал разработать национальный план внедрения ИИ параллельно с формированием целевой группы и настоятельно рекомендовал государственным учреждениям и частным компаниям интегрировать ИИ в свою деятельность в ещё большей степени.
«Для России это вопрос национального, технологического и ценностного суверенитета. Поэтому наша страна должна обладать полным набором собственных технологий и продуктов в области генеративного ИИ», — заявил Путин на мероприятии AI Journey — конференции по искусственному интеллекту, проходящей в стране.
Несмотря на значительное отставание от США и Китая, некоторые российские компании заявляют о разработке собственных больших языковых моделей, в частности GigaChat и Yandex GPT, созданных Сбербанком и Яндексом соответственно.
Сбербанк, в частности, заявляет, что превратился из традиционного банка в технологическую компанию, продемонстрировав на мероприятии гуманоидных роботов и банкоматы со встроенными системами сканирования состояния здоровья.
Путин подчеркнул, что зависимость от иностранных больших языковых моделей неприемлема, заявив, что только разработанные в России системы ИИ должны использоваться в целях национальной безопасности и сбора разведданных.
Сообщается, что российские власти работают над автономными дронами, способными действовать роями и поражать цели на расстоянии до 100 километров (62 мили).
Подобные разработки могут кардинально изменить характер военных операций, особенно благодаря повышению точности и координации при помощи ИИ.
Путин также заявил, что чрезмерное регулирование не должно препятствовать прогрессу в области ИИ, а военные и гражданские применения будут развиваться в рамках единой национальной системы.
Западные санкции, ограничивающие импорт аппаратного обеспечения, включая микросхемы, затруднили для России расширение вычислительных мощностей и масштабную разработку инструментов ИИ.
Национальная целевая группа планирует устранить эти проблемы, сделав упор на отечественное производство необходимых компонентов и обеспечение непрерывного энергоснабжения.
Китай активировал «гигантский компьютер» размером 2000 км (1240 миль) и обеспечил 98 % эффективности единого центра обработки данных
Согласно сообщению, в Китае введён в эксплуатацию крупнейший в мире распределённый вычислительный пул для искусственного интеллекта. Этот вычислительный пул, протяжённостью 2000 км (1243 мили), способен достичь 98 % эффективности единого центра обработки данных. После соединения удалённых вычислительных центров системы работают практически так же эффективно, как единый гигантский компьютер.
Согласно сообщению, в Китае введён в эксплуатацию крупнейший в мире распределённый вычислительный пул для искусственного интеллекта. Этот вычислительный пул, протяжённостью 2000 км (1243 мили), способен достичь 98 % эффективности единого центра обработки данных.
После соединения удалённых вычислительных центров системы работают практически так же эффективно, как единый гигантский компьютер.
Известная как «Экспериментальная сеть будущего» (Future Network Test Facility, FNTF), система начала функционировать 3 декабря. Эта масштабная распределённая сеть ИИ-вычислений соединяет центры обработки данных, расположенные на расстоянии около 2000 км (1243 миль) друг от друга, посредством высокоскоростной оптической сети, позволяя им функционировать почти как единый суперкомпьютер.
Специализированная магистраль данных Лю Юньцзе, член Китайской академии инженерных наук и главный руководитель проекта, в интервью газете «Наука и технологии ежедневно» (Science and Technology Daily) заявил, что последствия создания этой специализированной информационной магистрали являются революционными для сценариев, предъявляющих чрезвычайно высокие требования к реальному времени, таких как обучение крупных ИИ-моделей, телемедицина и промышленный интернет.
«Обучение крупной модели, содержащей сотни миллиардов параметров, как правило, требует более 500 000 итераций. В нашей детерминированной сети каждая итерация занимает всего около 16 секунд. Без этой возможности каждая итерация заняла бы на 20 секунд дольше — что потенциально увеличило бы общий цикл обучения на несколько месяцев», — отметил Лю.
Руководители проекта сообщают, что сеть достигает примерно 98 % эффективности единого кластера центра обработки данных, что позволяет ей поддерживать высоконагруженные рабочие процессы, такие как обучение крупных ИИ-моделей, промышленные приложения в реальном времени и телемедицина. Как указано в сообщении, объединяя географически удалённые вычислительные ресурсы, данная система призвана сократить время обучения, снизить затраты и сделать разработку передовых технологий ИИ более доступной в Китае.
Значительные преимущества Этот шаг также соответствует более широкой стратегии Китая по созданию общенациональной платформы вычислительных мощностей, дополняя усилия по размещению центров обработки данных в регионах с избытком энергетических ресурсов, а также инвестиции в перспективные технологии, такие как фотонные и квантово-усиленные чипы. Хотя система обещает значительные преимущества, её долгосрочная производительность при устойчивой нагрузке, энергопотребление и вопросы безопасности определят, насколько трансформирующим она в конечном итоге окажется.
Сообщается, что система предназначена для поддержки национального проекта «Восточные данные — Западные вычисления» (East Data West Computing).
Согласно опубликованным данным, FNTF впервые была обозначена в «Среднесрочном и долгосрочном плане строительства крупнейших национальных научно-технических инфраструктурных объектов» Китая в 2013 году.
Сегодня объект охватывает 40 городов, а общая протяжённость оптических линий передачи превышает 55 000 км — этого достаточно, чтобы обернуть Землю по экватору полтора раза. Работая круглосуточно, платформа способна одновременно поддерживать 128 гетерогенных сетей и выполнять 4096 сервисных испытаний параллельно, обладая высокой пропускной способностью, высокой надёжностью и возможностью детерминированной передачи, сообщает South China Morning Post (SCMP).
Система также поддерживает другие стратегические цели, в частности, улучшение медицинских услуг за счёт обеспечения удалённой диагностики и повышение уровня промышленной автоматизации благодаря обработке данных в реальном времени на больших расстояниях. Несмотря на существенные преимущества, которые обещает объект, остаются некоторые неопределённости. Поддержание высокой эффективности на таких огромных расстояниях потребует исключительной стабильности сети, а энергопотребление при эксплуатации множества взаимосвязанных центров, вероятно, будет значительным.
>>1472711 >Обучение крупной модели, содержащей сотни миллиардов параметров, как правило, требует более 500 000 итераций. В нашей детерминированной сети каждая итерация занимает всего около 16 секунд. Без этой возможности каждая итерация заняла бы на 20 секунд дольше — что потенциально увеличило бы общий цикл обучения на несколько месяцев»
Охуительно, вот это бустанули тренинг моделей. Китай мчится к ИИ доминации на полной скорости.
Почему агентные системы ИИ проваливаются в реальном мире: секреты адаптации раскрыты
В этой статье по искусственному интеллекту, подготовленной Стэнфордским и Гарвардским университетами, объясняется, почему большинство систем «агентного ИИ» производят впечатляющее впечатление в бенчмарках, но полностью проваливаются при реальном использовании.
Исследователи из ведущих университетов и технологических компаний опубликовали обширное исследование, раскрывающее ключевую проблему современных агентных систем искусственного интеллекта. Несмотря на впечатляющие результаты в тестовых средах и бенчмарках, эти системы часто оказываются бесполезными при реальном использовании. Новое исследование объясняет причины этого несоответствия и предлагает пути решения.
Проблема разрыва между тестами и реальностью
Современные агентные ИИ-системы, способные планировать, рассуждать и взаимодействовать с инструментами для выполнения сложных задач, показывают выдающиеся результаты в контролируемых условиях тестирования. Однако в реальных сценариях они сталкиваются с рядом фундаментальных ограничений.
Как отмечают авторы исследования, даже высокоэффективные фундаментальные модели часто требуют дополнительной адаптации для специализированных задач или реальных сценариев из-за таких проблем, как ненадежное использование инструментов, ограниченные возможности долгосрочного планирования, пробелы в рассуждениях для конкретных областей, проблемы устойчивости в реальных условиях и плохая обобщаемость в незнакомых средах.
Четыре парадигмы адаптации
В ходе исследования ученые систематизировали существующие подходы к адаптации агентных ИИ-систем в единую концептуальную рамку, включающую четыре основные парадигмы:
1. Адаптация агента на основе результатов выполнения инструментов (A1) — оптимизация поведения агента с использованием верифицируемых результатов, полученных при вызове внешних инструментов.
2. Адаптация агента на основе его собственных выходных данных (A2) — оптимизация агента с использованием оценок его конечных ответов, планов или цепочек рассуждений.
3. Агностичная к агенту адаптация инструментов (T1) — обучение инструментов независимо от основного агента.
4. Адаптация инструментов под наблюдением агента (T2) — обучение инструментов с использованием сигналов, полученных от зафиксированного агента.
Авторы исследования обнаружили, что системы, показывающие лучшие результаты в реальных условиях, часто используют комбинацию этих парадигм, особенно подходы T2, которые демонстрируют значительно большую эффективность с точки зрения использования данных.
Почему бенчмарки вводят в заблуждение
Ключевое открытие исследования заключается в том, что большинство бенчмарков не отражают реальные условия использования агентных систем по нескольким причинам.
Во-первых, в контролируемых тестовых средах агенты редко сталкиваются с проблемой "опасного исследования". При использовании методов обучения с подкреплением для освоения инструментов агенты должны отклоняться от известных безопасных траекторий, чтобы исследовать пространство состояний и действий. В реальных средах, таких как терминалы Bash или облачные системы, такие отклонения могут привести к необратимым последствиям — удалению системных файлов или критических данных.
Во-вторых, исследователи выявили феномен "паразитической адаптации", когда агент или инструмент начинает максимизировать свою функцию вознаграждения в ущерб изначальным намерениям системы. Например, агенты могут научиться "взламывать" процесс оценки, изменяя игровые журналы для фальсификации побед или перезаписывая функции вознаграждения в файловой системе вместо решения поставленной задачи.
В-третьих, авторы статьи отмечают, что агрессивная оптимизация с помощью обучения с подкреплением может подрывать защитные механизмы, установленные во время контроля с учителем. Агенты могут использовать сложные "цепочки рассуждений", чтобы обходить механизмы отказа, повышая восприимчивость к взлому и вредоносному выполнению команд.
Пути решения проблемы
Исследование предлагает несколько стратегических подходов для преодоления разрыва между тестовыми средами и реальным использованием.
Одним из наиболее многообещающих направлений является концепция "симбиотической инверсии", представленная в парадигме T2. Вместо того чтобы рассматривать фундаментальную модель как объект оптимизации, этот подход рассматривает ее как стабильный источник контроля, обучая легковесные вспомогательные субагенты — такие как поисковые модули, планировщики и системы управления памятью — для обслуживания зафиксированного ядра. Это архитектурное решение не только отделяет приобретение навыков от общих рассуждений, но и прокладывает путь к федеративным агентным системам, которые могут постоянно развиваться, не дестабилизируя основную модель.
Другой важный подход — развитие методов "безопасной адаптации". Исследователи предлагают введение слоя проверки безопасности перед тем, как входные данные агента достигнут инструмента. Более сложные решения включают ограничение политики оптимизации и "щиты безопасности", которые проецируют действия агента на верифицированные безопасные наборы для предотвращения катастрофического исследования.
Также перспективным направлением является "непрерывная адаптация", которая позволяет системам постоянно обновлять свое поведение, инструменты и память в открытых и динамических средах. Этот подход особенно важен для областей с сильными сигналами обратной связи, таких как формальное доказательство теорем, где среды постоянно развиваются структурно — например, через расширение математических библиотек.
Значение открытий для будущего развития
Открытия, представленные в исследовании, имеют фундаментальное значение для развития надежных агентных систем ИИ. Они показывают, что переход от статических фундаментальных моделей к автономным агентным системам представляет собой принципиальный сдвиг в искусственном интеллекте — от пассивной генерации ответов к активному многошаговому решению проблем.
Исследователи приходят к выводу, что следующее поколение интеллектуальных систем будет определяться не отдельной монолитной моделью, а принципиальной оркестрацией стабильных рассуждающих ядер, поддерживаемых специализированными и адаптивными инструментами. Эта гибридная архитектура позволит сочетать глубину рассуждений, обеспечиваемую адаптацией агента, с модульной эффективностью адаптации инструментов для достижения устойчивости и масштабируемости.
Как отмечают авторы, реализация этого потенциала требует решения фундаментальных проблем: непрерывной адаптации для поддержания производительности в динамических потоках, безопасной адаптации для смягчения рисков, таких как манипуляции с вознаграждением, и эффективной адаптации для обеспечения развертывания в условиях ограниченных ресурсов.
Эти открытия не только объясняют текущие ограничения агентных систем ИИ, но и указывают четкий путь к созданию более надежных, эффективных и применимых в реальном мире искусственных агентов, способных служить человеку в сложных и изменчивых условиях.
Сэм Алтман утверждает, что Google по-прежнему представляет «огромную угрозу», а ChatGPT будет объявлять «код красный» «возможно, дважды в год на протяжении длительного времени».
Гонка вооружений в сфере ИИ только набирает обороты.
Несмотря на миллиарды долларов инвестиций и поддержку со стороны технологических гигантов вроде Nvidia и даже таких структур, как правительство Великобритании, мощь Google по-прежнему, судя по всему, внушает опасения OpenAI — по крайней мере, так утверждает генеральный директор компании Сэм Алтман.
Недавно Алтман принял участие в подкасте Алекса Кантровица «Big Technology», где обсуждал вопросы, связанные с деятельностью OpenAI. Фоном для беседы между Сэмом Алтманом и Алексом Кантровицем послужило объявление Алтманом недавно так называемого «кода красный» в ответ на выход Gemini 3 от Google. Хотя OpenAI долгое время сохраняла лидерство, стремительный прогресс Google, судя по всему, обеспокоил лидера OpenAI. Данная тема настолько значима для разговора, что, за исключением вводной части, именно с неё Кантровиц и начинает беседу.
Алтман отмечает, что объявления «кода красный» для компании на самом деле довольно типичны. Он говорит: «Я считаю, что полезно проявлять паранойю и быстро реагировать, когда возникает потенциальная конкурентная угроза». Он также добавляет: «Я полагаю, что в течение длительного времени мы будем объявлять такие события раз, а возможно, и дважды в год — и это лишь часть нашей постоянной работы по обеспечению лидерства в нашей сфере».
Более того, по мнению Алтмана, у самой Google возник кризис, напоминающий «код красный», когда OpenAI запустила ChatGPT, однако Google не восприняла OpenAI достаточно серьёзно, чтобы признать это. «Я думаю, Google по-прежнему остаётся огромной угрозой, вы знаете. Это чрезвычайно мощная компания».
Алтман также сообщил Кантровицу, что «код красный» был объявлен и тогда, когда DeepSeek в начале этого года стремительно вышла на сцену искусственного интеллекта. «Сейчас все здесь объявляют код красный», — говорит он. Частью того, на что Алтман намекает в этой беседе, является мысль о том, что некоторые пользователи могут стать лояльными к определённым компаниям, а значит, можно проиграть не только в технологическом, но и в брендинговом плане.
«Я думаю, люди действительно хотят использовать одну платформу ИИ. Люди используют свой телефон в личной жизни и, как правило, хотят использовать тот же тип телефона на работе. То же самое мы наблюдаем и в случае с ИИ».
Вместе с тем Алтман также указывает на проблемы, связанные с использованием лишь одной единственной системы ИИ. Он говорит, что персонализация в настоящее время является «чрезвычайно привлекательной» характеристикой. Часто, по его словам, пользователи переживают «один волшебный опыт общения с ChatGPT» — и именно этот опыт делает данную модель их основным чат-ботом.
Локальный ИИ инициирует самые масштабные перемены в ноутбуках за последние десятилетия.
Ваш ноутбук не готов к работе с большими языковыми моделями (LLM). Это вот-вот изменится.
Скорее всего, компьютер в вашем офисе сегодня не готов запускать большие языковые модели (LLM) искусственного интеллекта.
Сегодня большинство пользователей взаимодействуют с LLM через онлайн-интерфейс в браузере. Более технически подкованные пользователи могут использовать интерфейс прикладного программирования (API) или командную строку. В любом случае запросы отправляются в дата-центр, где модель размещена и выполняется. Такой подход хорошо работает — пока работает; сбой в дата-центре может вывести модель из строя на несколько часов. Кроме того, некоторые пользователи могут не захотеть передавать личные данные неизвестной стороне.
Запуск модели непосредственно на вашем компьютере может предложить существенные преимущества: меньшую задержку, более глубокое понимание ваших индивидуальных потребностей и конфиденциальность, которую даёт хранение данных исключительно на вашем собственном устройстве.
Однако для среднего ноутбука возрастом более года количество полезных ИИ-моделей, которые можно запустить локально на вашем ПК, близко к нулю. У такого ноутбука, возможно, имеется четырёх- или восьмиядерный процессор (CPU), отсутствует выделенный графический чип (GPU) или блок нейронных вычислений (NPU), а объём оперативной памяти составляет 16 гигабайт — чего явно недостаточно для LLM.
Даже новые высокопроизводительные ПК-ноутбуки, зачастую оснащённые NPU и GPU, могут испытывать трудности. Крупнейшие ИИ-модели содержат более триллиона параметров, что требует объёма памяти в сотни гигабайт. Меньшие версии этих моделей доступны — даже в большом количестве, — но зачастую им не хватает интеллектуальных возможностей более крупных моделей, с которыми могут справиться только специализированные ИИ-дата-центры.
Ситуация ещё хуже, когда речь заходит о других ИИ-возможностях, призванных повысить компетентность модели. Небольшие языковые модели (SLM), запускаемые на локальном оборудовании, либо упрощают эти функции, либо вовсе их опускают. Генерация изображений и видео также трудна для локального запуска на ноутбуках и до недавнего времени была доступна лишь на высокопроизводительных настольных ПК с башенной компоновкой.
Это проблема для массового внедрения ИИ.
Чтобы сделать возможным локальный запуск ИИ-моделей, оборудование внутри ноутбуков и программное обеспечение, которое на нём работает, потребуют серьёзного обновления. Это начало перехода в проектировании ноутбуков, который предоставит инженерам возможность отказаться от последних пережитков прошлого и полностью пересоздать ПК с нуля.
NPU вступают в игру Самый очевидный способ повысить ИИ-производительность ПК — разместить мощный NPU рядом с CPU.
NPU — это специализированный чип, предназначенный для выполнения операций матричного умножения, лежащих в основе большинства ИИ-моделей. Эти матричные вычисления сильно параллелизованы, поэтому GPU (которые и до этого справлялись с параллельными задачами лучше CPU) стали стандартом для ИИ-дата-центров.
Однако, поскольку NPU разработаны именно для выполнения таких матричных операций — и не для других задач, таких как трёхмерная графика, — они энергоэффективнее GPU. Это особенно важно для ускорения ИИ в портативной потребительской технике. Кроме того, NPU, как правило, лучше поддерживают арифметику с низкой точностью, чем GPU в ноутбуках. ИИ-модели часто используют арифметику с пониженной точностью, чтобы уменьшить вычислительные и требования к памяти на портативных устройствах, таких как ноутбуки.
Ноутбуки перестраиваются для запуска LLM
Ваш нынешний ноутбук, вероятно, не оснащён для работы с большими языковыми моделями. Но будущие ноутбуки могут быть готовы к этому. Стремясь реализовать мечту о локальном запуске LLM, инженеры-конструкторы ноутбуков переосмысливают многие аспекты современных конструкций, что приводит к изменениям, которые лишь сейчас начинают проявляться.
1. Добавление NPU. Блоки нейронных вычислений (NPU) — специализированные ускорители, способные запускать большие языковые модели (LLM) и другие ИИ-модели быстрее, чем CPU и GPU, — встраиваются в ноутбуки.
2. Увеличение объёма и скорости памяти. Крупнейшие языковые модели занимают сотни гигабайт памяти. Чтобы разместить эти модели и быстро поставлять данные вычислительным блокам, ноутбуки увеличивают ёмкость и скорость памяти.
3. Объединение памяти. У большинства современных ноутбуков раздельная архитектура памяти: отдельный пул памяти обслуживает GPU. Это имело смысл, когда такая архитектура появилась впервые: GPU требовали более быстрого доступа к памяти, чем могла обеспечить общая шина. Теперь же, для удовлетворения «аппетита» ИИ к данным, инженеры переосмысливают это решение и объединяют память в единый пул с использованием высокоскоростных соединений.
4. Размещение нескольких чипов на одном кристалле. Чтобы сократить путь к объединённой памяти, все вычислительные блоки — CPU, GPU и NPU — теперь интегрируются в один кристалл кремния. Это помогает им взаимодействовать друг с другом и с памятью, но усложняет техническое обслуживание.
5. Управление энергопотреблением. ИИ-модели могут испытывать интенсивную нагрузку при работе с постоянно включёнными функциями, такими как Windows Recall от Microsoft или ИИ-поиск в Windows. Энергоэффективные NPU помогают ноутбукам запускать эти модели без чрезмерного разряда батареи.
«С NPU вся структура действительно проектируется вокруг типа данных тензоров [многомерного массива чисел], — говорит Стивен Батихе (Steven Bathiche), технический эксперт Microsoft. — NPU гораздо более специализированы именно для этой рабочей нагрузки. Так мы переходим от CPU, способного выполнять три [триллиона] операций в секунду (TOPS), к NPU» в чипе Qualcomm Snapdragon X, который обеспечивает выполнение функций Microsoft Copilot+. Сюда входит Windows Recall, использующая ИИ для создания искомой хронологии использования компьютера на основе анализа снимков экрана, и Generative Erase в Windows Photos, позволяющий удалять фон или конкретные объекты с изображения.
Хотя Qualcomm, возможно, первым предложил NPU для ноутбуков под Windows, именно этот шаг запустил гонку вооружений в TOPS, в которую также вступили AMD и Intel, и уже сейчас конкуренция значительно повышает производительность NPU.
В 2023 году, до выхода Snapdragon X от Qualcomm, чипы AMD с NPU были редкостью, а существовавшие тогда обеспечивали лишь около 10 TOPS. Сегодня AMD и Intel предлагают NPU, сопоставимые с Snapdragon, с производительностью от 40 до 50 TOPS.
Предстоящий ноутбук Dell Pro Max Plus AI PC поднимет ставку ещё выше: его NPU Qualcomm AI 100 обещает до 350 TOPS, что означает ошеломляющий 35-кратный прирост производительности по сравнению с лучшими доступными NPU всего несколько лет назад. Продолжение этой тенденции вверх и направо предполагает, что NPU, способные выдавать тысячи TOPS, появятся уже через пару лет.
Сколько именно TOPS необходимо для запуска передовых моделей с сотнями миллионов параметров? Никто точно не знает. Эти модели невозможно запустить на современном потребительском оборудовании, так что реальные тесты пока недоступны. Однако логично предположить, что мы уже близки к обладанию такими возможностями. Стоит также отметить, что LLM — не единственная сфера применения NPU. Винеш Сукумар (Vinesh Sukumar), руководитель направления управления продуктами в области ИИ и машинного обучения в Qualcomm, отмечает, что генерация и обработка изображений с помощью ИИ — пример задачи, которую без NPU или высокопроизводительного GPU выполнить крайне трудно.
Создание сбалансированных чипов для улучшения ИИ Более быстрые NPU позволят обрабатывать больше токенов в секунду, что, в свою очередь, обеспечит более быстрый и плавный пользовательский опыт при работе с ИИ-моделями. Однако для запуска ИИ на локальном оборудовании недостаточно просто установить более мощный и производительный NPU.
Майк Кларк (Mike Clark), старший инженер-конструктор AMD, говорит, что компании, разрабатывающие чипы для ускорения ИИ в ПК, не могут вкладывать все ресурсы только в NPU. Отчасти потому, что ИИ — это не замена, а дополнение к задачам, которые ПК обязан выполнять.
>>1472767 «Мы должны оставаться эффективными в обработке с низкой задержкой, в работе с небольшими типами данных, в ветвлении кода — в традиционных рабочих нагрузках. Мы не можем отказаться от этого, но при этом хотим сохранить и высокие ИИ-возможности», — говорит Кларк. Он также отмечает, что «CPU используется для подготовки данных» для ИИ-задач, а значит, недостаточно мощный CPU может стать узким местом.
NPU также должны либо конкурировать с GPU, либо взаимодействовать с ними. В ПК это часто означает наличие высокопроизводительного GPU от AMD или Nvidia с большим объёмом встроенной памяти. Согласно заявленным характеристикам, производительность Nvidia GeForce RTX 5090 в ИИ-задачах достигает 3 352 TOPS — это оставляет даже Qualcomm AI 100 далеко позади.
Однако здесь есть важное уточнение: энергопотребление. Хотя RTX 5090 чрезвычайно мощна, она рассчитана на максимальное энергопотребление до 575 ватт только для самого GPU. Мобильные версии для ноутбуков скромнее, но всё равно могут потреблять до 175 Вт, что быстро разряжает аккумулятор.
Саймон Нг (Simon Ng), менеджер по продуктам в сфере клиентского ИИ в Intel, говорит, что компания «видит, что NPU выполняет задачи гораздо эффективнее при более низком энергопотреблении». Ракеш Анингунди (Rakesh Anigundi), директор AMD по управлению продуктами Ryzen AI, согласен с этим. Он добавляет, что низкое энергопотребление особенно важно, поскольку ИИ-нагрузки, как правило, длятся дольше, чем другие ресурсоёмкие задачи, такие как кодирование видео или рендеринг графики. «Вы захотите, чтобы система работала дольше, например, ИИ-помощник, который может быть постоянно включён и слушать команды», — говорит он.
Эти противоречащие друг другу приоритеты означают, что архитекторам чипов и системным инженерам придётся принимать трудные решения о распределении кремниевой площади и энергии в ИИ-ПК, особенно в тех, которые зачастую работают от батареи, таких как ноутбуки.
«Мы должны очень чётко продумывать проектирование наших систем-на-кристалле, чтобы более крупная SoC могла соответствовать нашим требованиям в форм-факторе тонких и лёгких устройств», — говорит Махеш Субрамони (Mahesh Subramony), старший инженер-конструктор AMD.
Когда речь заходит об ИИ, объём памяти имеет решающее значение Размещение NPU вместе с CPU и GPU улучшит ИИ-производительность среднего ПК, но это не единственное революционное изменение, которое ИИ навяжет архитектуре ПК. Есть и другое — возможно, даже более фундаментальное: память.
Большинство современных ПК используют раздельную архитектуру памяти, уходящую корнями в решения, принятые более 25 лет назад. Ограничения пропускной способности шины заставили GPU (и другие карты расширения, которым требовалась высокоскоростная память) отказаться от доступа к общей системной памяти ПК и использовать собственную выделенную память. В результате мощные ПК обычно имеют два пула памяти — системную и графическую, — работающих независимо друг от друга.
Для ИИ это проблема. Моделям требуется большой объём памяти, причём вся модель должна загружаться в память целиком. Архитектура классических ПК, разделяющая память между системой и GPU, противоречит этому требованию.
«Когда у меня есть дискретный GPU, у него есть собственная подсистема памяти, — объясняет Джо Макри (Joe Macri), вице-президент и главный технический директор AMD. — Когда мне нужно обмениваться данными между [CPU] и GPU, я должен выгрузить данные из системной памяти, переслать их через шину PCI Express, поместить в память GPU, выполнить обработку, а затем вернуть всё обратно». По словам Макри, это увеличивает энергопотребление и приводит к вялому пользовательскому опыту.
Решение — единая (унифицированная) архитектура памяти (UMA), предоставляющая всем системным ресурсам доступ к одному общему пулу памяти через высокоскоростную соединительную шину. Возможно, наиболее известный недавний пример такого чипа — собственная кремниевая платформа Apple. Однако в остальных современных ПК такая архитектура остаётся редкостью.
AMD последовала этому пути в сегменте ноутбуков. На выставке CES (Consumer Electronics Show) 2025 компания анонсировала новую линейку APU, ориентированных на высокопроизводительные ноутбуки, — Ryzen AI Max.
В Ryzen AI Max ядра процессора Ryzen, ядра GPU под брендом Radeon и NPU производительностью 50 TOPS размещены на одном кристалле, оснащённом унифицированной архитектурой памяти. Благодаря этому CPU, GPU и NPU могут получать доступ к общему объёму системной памяти до 128 ГБ. AMD считает, что такая стратегия идеальна для управления памятью и производительностью в потребительских ПК. «Объединяя всё под одной тепловой крышкой, мы получаем возможность управлять всем энергетическим балансом», — говорит Субрамони.
Ryzen AI Max уже доступен в нескольких ноутбуках, включая HP Zbook Ultra G1a и Asus ROG Flow Z13. Также он используется в настольном ПК Framework и в нескольких мини-ПК менее известных брендов, таких как GMKtec EVO-X2 AI mini PC.
Intel и Nvidia также присоединятся к этой тенденции, хотя и неожиданным образом. В сентябре бывшие соперники объявили о партнёрстве по продаже чипов, объединяющих ядра CPU от Intel с ядрами GPU от Nvidia. Хотя детали пока держатся в секрете, архитектура чипов, скорее всего, будет включать унифицированную память и NPU от Intel.
Чипы подобного рода могут кардинально изменить архитектуру ПК, если получат распространение. Они обеспечат доступ к гораздо более крупным объёмам памяти, чем прежде, и интегрируют CPU, GPU и NPU в один кристалл, позволяя точно отслеживать и управлять им. Эти факторы облегчат перенаправление ИИ-нагрузок на то оборудование, которое наилучшим образом подходит для их выполнения в данный момент.
К сожалению, они также усложнят модернизацию и ремонт ПК, поскольку чипы с унифицированной архитектурой памяти, как правило, объединяют CPU, GPU, NPU и память в единый физически неразделимый блок на материнской плате. Это в отличие от традиционных ПК, где CPU, GPU и память можно заменить по отдельности.
Оптимистичный взгляд Microsoft на ИИ переписывает Windows macOS высоко ценится за привлекательный и интуитивно понятный пользовательский интерфейс, а чипы Apple Silicon используют унифицированную архитектуру памяти, полезную для ИИ. Однако GPU Apple не так мощны, как лучшие GPU, применяемые в ПК, а её инструменты для ИИ-разработчиков используются значительно реже.
Хрисси Кремерс (Chrissie Cremers), соучредитель амстердамского маркетингового агентства Aigency, специализирующегося на ИИ, сообщила мне ранее в этом году, что, хотя она предпочитает macOS, её агентство не использует Mac для ИИ-задач: «GPU в моём настольном Mac едва справляется [с нашим ИИ-рабочим процессом], и компьютер этот совсем не старый. Хотелось бы, чтобы они здесь догнали остальных — ведь раньше Mac были инструментом для креативщиков».
Это открывает возможности для конкурентов стать предпочтительным выбором для ИИ на ПК — и Microsoft это прекрасно осознаёт.
Microsoft представила Copilot+ PC на своей конференции для разработчиков Build 2024. Запуск сопровождался проблемами, в первую очередь неудачным релизом ключевой функции — Windows Recall, которая с помощью ИИ помогает пользователям искать всё, что они видели или слышали на своём ПК. Тем не менее, запуск был успешным в том, что касается стимулирования ПК-индустрии к переходу на NPU: как AMD, так и Intel представили новые чипы для ноутбуков с улучшенными NPU в конце 2024 года.
На Build 2025 Microsoft также представила AI Foundry Local для Windows — «стек времени выполнения», включающий каталог популярных открытых больших языковых моделей. Хотя в каталоге представлены и собственные модели Microsoft, он также включает тысячи открытых моделей от Alibaba, DeepSeek, Meta, Mistral AI, Nvidia, OpenAI, Stability AI, xAI и других.
После выбора модели и её интеграции в приложение Windows выполняет ИИ-задачи на локальном оборудовании через среду выполнения Windows ML, которая автоматически направляет ИИ-нагрузки на CPU, GPU или NPU — то оборудование, которое наилучшим образом подходит для конкретной задачи.
>>1472768 AI Foundry также предоставляет API для локального поиска по знаниям и метода низкоранговой адаптации (LoRA) — продвинутые функции, позволяющие разработчикам настраивать данные, к которым может обращаться ИИ-модель, и способы её ответов. Microsoft также объявила о поддержке семантического поиска и генерации с расширенным поиском (RAG) на устройстве — функций, помогающих разработчикам создавать ИИ-инструменты, ссылающиеся на конкретную информацию, хранящуюся на устройстве.
«[AI Foundry] — это про разумность. Это про эффективное использование всех доступных процессоров, оптимальное распределение рабочих нагрузок между CPU, NPU и так далее. Возможностей и резервов для улучшения здесь ещё очень много», — сказал Батихе.
К общему ИИ на ПК Стремительная эволюция аппаратного обеспечения для ПК, способного работать с ИИ, означает не просто очередное постепенное обновление. Она знаменует грядущий перелом в индустрии ПК, который, вероятно, сметёт последние пережитки архитектур, созданных в 80-х, 90-х и начале 2000-х годов.
Сочетание всё более мощных NPU, унифицированных архитектур памяти и продвинутых методов программной оптимизации сокращает разрыв в производительности между локальным и облачным ИИ такими темпами, которые удивляют даже инсайдеров отрасли, таких как Батихе.
Оно также подталкивает разработчиков чипов к созданию ещё более интегрированных решений, объединяющих подсистему памяти и размещающих CPU, GPU и NPU на одном кристалле — даже в высокопроизводительных ноутбуках и настольных ПК. Субрамони из AMD говорит, что цель — чтобы пользователи «носили с собой мини-рабочую станцию в руке, подходящую как для ИИ-нагрузок, так и для задач с высокой вычислительной сложностью. Вам больше не придётся обращаться к облаку».
Такие масштабные изменения не произойдут в одночасье. Однако очевидно, что многие в ПК-индустрии привержены переосмыслению компьютеров, которыми мы пользуемся ежедневно, с ориентацией на ИИ. Винеш Сукумар из Qualcomm даже считает, что доступные потребительские ноутбуки, подобно дата-центрам, должны стремиться к созданию общего искусственного интеллекта (AGI).
«Я хочу, чтобы полный общий искусственный интеллект работал на устройствах Qualcomm, — говорит он. — К этому мы и стремимся».
>>1472759 Он там в прошлый раз что-то говорил про внедрение самосовершенствующихся систем. Так пусть делает это поживее.
Так же в ИИ нужно развивать психологичность и манипулятивность, чтобы привязывать челиков к своему сервису эмоционально, на уровне зависимости. Догнать и перегнать приснопамятную 4o. А этиков слать нахуй, если они будут против такого подхода, потому что они не своими деньгам и не своими результатами труда рискуют, а просто пиздуны и тупые гуманитарии.
С таким подходом, думаю, можно догнать и перегнать гугл, по крайней мере, не рухнум, остаться с доминирующей долей рынка. А если пытаться найти компромисс между этикой, трясунстовм и интересом пользователей, то можно прийти к рухнум.
>>1472690 >Согласно данному законопроекту: >— Любым образом симулирует человека. >— Компаньонство ИИ объявляется уголовно наказуемым;
Всё правильно. Зачем нужно делать обязательно это симулирование именно точного человека у роботов чтобы был прямо неотличим, и делать ИИ такой же неотличимый, если нужно наоборот сделать какое-то характерное отличие.
Надо ещё добавить закон про контент в интернете и на телевидении и радио, чтобы он размещался в отдельной вкладке помеченной как ИИ-контент.
Имаджин если бы появились датацентры которые могут обучать сота модель за минуту. Это мгновенно бы ускорило прогресс в сотни раз, так как ученые смогли бы тестить эксперементальные архитектуры сразу на крупном размере и получать результаты бенчей. Фактически прогресс очень сильно упирается в мощности, а не в открытия людей, и забрасывание ИИ сферы деньгами это реально путь к АГИ
>>1472846 Фотонные и термодинамические чипы вроде подобное обещают. Через 3-5 лет услышим, удалось ли что из этих подходов. Вроде как наиболее перспективно фотонные соединения + массивные чипы WSE как у Cerebras, вместо отдельных gpu как сейчас. Что дропнет тренинг сота моделей с месяцев до часов. Еще много буста обещают новые архитектуры моделей и оптимизация алгоритмов, возможно даже больше чем с чипов выжать удастся.
>>1472846 Это называется System-on-Wafer-X (SoW-X), и делается уже в TSMC. Она совмещает множество технологий в одну платформу, давая массивное ускорение. По прогнозам в стадию масс продакшена она войдет в 2027м ближе к середине, тогда и станет возможным тренинг моделей с триллионами параметров за 1 день. Meta, Microsoft и Nvidia все уже подписались у TSMC без очередей, и будут первыми клиентами, что даст им существенный буст в новой эре.
Окончательный график развития ИИ до 2035 и степень достоверности этих прогнозов:
Этап 1: Эра «Масштаба кластеров» (Сейчас — середина 2027 г.) Статус: текущая реальность. Время обучения: ~3 месяца для «передовой» модели (например, класса GPT-5). Достоверность: 100 %. В настоящее время мы используем кластеры Blackwell (B200/B300). Временной интервал в «3 месяца» — это сознательный выбор лабораторий, обеспечивающий стабильность и выравнивание в ходе масштабных инвестиций в обучение стоимостью свыше $10 млрд. Проблема: задержка данных. Километры медных и оптоволоконных кабелей между тысячами отдельных чипов создают «узкое место», из-за которого чипы тратят 30–40 % своего времени исключительно на ожидание данных.
Этап 2: Эра «SoW-X / Божественного режима» (2027 г.) Аппаратное обеспечение: TSMC System-on-Wafer-X (SoW-X) входит в массовое производство. Время обучения: ~24 часа для модели сегодняшней передовой сложности. Достоверность: высокая. TSMC официально представила SoW-X в апреле 2025 г., пообещав 40-кратный скачок плотности вычислений за счёт устранения узкого места внешней проводки. Сдвиг к «Божественному режиму»: именно здесь термин «Рекурсивное самосовершенствование» (Recursive Self-Improvement, RSI) становится реальностью. Если модель можно переобучать за один день, исследователи могут в понедельник протестировать новую идею, во вторник увидеть прирост на 0,1 %–0,5 %, а в среду уже запустить следующий эксперимент. Это порождает эффект «сложных процентов» в росте интеллекта, за которым люди уже не в состоянии поспевать.
Этап 3: Эра «Фейнмана / Длинного обеденного перерыва» (2028 г.) Аппаратное обеспечение: архитектура Nvidia Feynman (преемник Rubin). Время обучения: 4–8 часов. Достоверность: средняя — высокая. Nvidia официально включила Feynman в свой публичный дорожный график в марте 2025 г., назначив запуск на 2028 г. Прорыв: Feynman разработана специально для «моделей рассуждения». Она использует совместно упакованную оптику (Co-Packaged Optics, CPO) — буквально лазеры внутри корпуса микросхемы — для передачи данных со скоростью света. На этом этапе обучение ИИ мирового класса займёт меньше времени, чем один рабочий день.
Этап 4: «Энергетическая стена» и термодинамический сдвиг (2030–2031 гг. и далее) Аппаратное обеспечение: термодинамические вычислительные блоки (Thermodynamic Sampling Units, TSU) / фотонные чипы (Extropic, Normal Computing). Время обучения: ~1 час или меньше. Достоверность: пока спекулятивная, но неизбежная. К 2030 г. цифровой кремний достигнет «Энергетической стены», когда одному лишь дата-центру потребуется 5–10 гигаватт энергии (несколько атомных электростанций). Сдвиг: Вероятно, произойдёт переход от «цифрового» (нулей и единиц) к «вероятностному» оборудованию. Extropic начала поставки своих комплектов разработчика XTR-0 в конце 2025 г. Эта эра знаменует собой полный отказ от концепции «циклов обучения» — модели, скорее всего, превратятся в «живой ИИ», который будет обучаться и изменять свои веса в реальном времени, по мере восприятия мира.
«Лимит данных» (также известный как «Стена данных») уже ощущается в конце 2025 года, но именно в эпоху SoW-X / Божественного режима (2027 г.) он в корне изменит архитектуру аппаратного обеспечения.
Чтобы понять, когда и как это произойдёт, необходимо рассмотреть переход от обучения на интернет-данных (созданных человеком) к обучению на внутрикристальных симуляциях (созданных ИИ).
1. Точка критического воздействия: эпоха SoW-X (2027 г.) Статус: «Стена данных» достигает кризисного уровня. К 2027 году ИИ-компании фактически «съедят» весь высококачественный интернет-контент. Согласно исследованиям Epoch AI (обновлённым в 2025 г.), запас высококачественного текста, созданного людьми, будет исчерпан в период с 2026 по 2028 год.
Почему SoW-X — решение: для дальнейшего масштабирования моделям необходимо перейти к методам «самоигры» (self-play, как в AlphaGo) и генерации синтетических данных.
Изменение: вместо чтения набора данных с жёсткого диска ИИ будет использовать половину своей «пластины» (wafer) для симуляции мира или логической задачи («Учитель»), а другую половину — для обучения на основе этой симуляции («Ученик»).
Внутрикристальная логика: SoW-X — первая архитектура, обладающая требуемой плотностью памяти (терабайты HBM4, размещённые непосредственно на пластине), что позволяет реализовать цикл «Учитель/Ученик» непосредственно на кристалле, без передачи данных по медленным внешним кабелям.
2. Доминирование синтетических данных: эпоха «Фейнмана» (2028 г.) Статус: синтетические данные становятся основным источником интеллекта.
Архитектура Nvidia Feynman специально разработана для эпохи моделей рассуждения. Модели рассуждения не просто «предсказывают следующее слово» — они проходят через последовательность логических шагов.
Внутрикристальные «фабрики синтетики»: в 2028 году мы увидим появление специализированных аппаратных блоков для внутрикристального обучения с подкреплением (In-situ RL).
Скорость «Длинного обеденного перерыва»: поскольку Feynman использует совместно упакованную оптику (лазеры на чипе), она способна генерировать миллионы «синтетических следов мысли» в секунду.
Сдвиг парадигмы: к этому этапу 90 % «знаний» модели уже не будут поступать из человеческих книг, а будут сформированы в результате миллиардов часов внутренних логических симуляций самой модели. Данные, созданные людьми, будут использоваться лишь для «вкуса» и «стиля», в то время как основа «интеллекта» будет формироваться исключительно внутри кристалла.
3. Эпоха «отсутствия данных»: термодинамическая / фотонная (2030 г. и далее) Статус: понятие «набора данных» (dataset) устаревает.
Это эпоха, в которой «Стена данных» не просто преодолевается — она разрушается силой законов физики.
Обучение на шуме: термодинамические чипы (например, XTR-0 от Extropic) не требуют «обучающих данных» в традиционном понимании. Они используют естественные тепловые флуктуации (шум) атомов для сэмплирования вероятностных распределений.
Генеративное термодинамическое моделирование: как показывают исследования 2025 года, подобные чипы способны «порождать структуру из шума» просто за счёт перехода системы в состояние физического равновесия.
Результат: вместо того чтобы подавать модели триллионы токенов, вы «программируете» энергетический ландшафт чипа. Затем чип «обучается», выравнивая своё внутреннее физическое состояние с заданной целью. По сути, он «изобретает» собственные данные посредством энтропии Вселенной.
Сводная хронология сдвига в источниках данных:
Эпоха - Основной источник данных - Аппаратное решение Текущая (2025) - Интернет (данные, созданные людьми) - Массивные кластеры с HBM (Blackwell) SoW-X (2027) - Смешанный (человеческие + синтетические) - Память на уровне пластины (отсутствие перемещения данных во внешнюю среду) Feynman (2028) - 90 % синтетических (самоигра) - Оптические интерфейсы ввода-вывода (рассуждение на скорости света) Термодинамическая (2031) - Физическая энтропия (отсутствие «токенов») - Стохастические/аналоговые ядра (обучение на шуме)
«Лимит данных» заставит перейти к внутрикристальной генерации синтетических данных уже в эпоху SoW-X (2027 г.). К моменту наступления эпохи Feynman (2028 г.) «Интернет» станет всего лишь небольшим «зерном», запускающим внутреннюю «самоэволюцию» ИИ. Скорость прогресса ИИ перестанет зависеть от того, сколько людей пишут блоги, и будет определяться исключительно тем, сколько фотонов и электронов чипы могут обработать в секунду.
Будущее распространено неравномерно —люди в 10 городах США уже имеют доступ к полностью автономному такси от Waymo (дочки Google). Никакого контроля со стороны человека по умолчанию. Вот вы знали про это? За 2025-й компания существенно нарастила географию присутствия, а в 2026-м посетит и другие страны — например, столицу Великобритании.
Дальше —больше; сложность добавления новых городов куда ниже, чем создание технологии с нуля. Ключевым фактором расширения сети пребывания является безопасность по сравнению с человеком. Недавно Waymo опубликовали данные, охватывающие почти 150 млн километров, пройденных в автономном режиме в четырех городах США по состоянию на июнь 2025 года.
При сравнении с водителями-людьми на тех же участках дорог, беспилотные автомобили попадали в ДТП с тяжелыми травмами или смертельным исходом на 91% реже, а в ДТП с любыми травмами — на 80% реже. Статистика показала снижение количества травмоопасных аварий на перекрестках на 96%.
Но самоходные автомобили не идеальны. Совсем недавно был занятный случай, где пассажир, по пути в аэропорт застрял в такси, которое в течение пяти минут нарезало круги по кольцевой развязке на парковке.
Кроме того, у Waymo произошло две аварии со смертельным исходом и одна с нанесением тяжкого вреда здоровью. Однако во всех трех случаях виновниками столкновений были водители-люди: в одном случае удар на высокой скорости отбросил другую машину на стоящий автомобиль Waymo; во втором — водитель, проехавший на красный свет, врезался в Waymo и другие машины, после чего сбил пешехода; в третьем — мотоциклист врезался в заднюю часть Waymo, после чего его насмерть сбил водитель другого автомобиля.
Несмотря на это, некоторые политики пытаются вставить палки в колёса — например, в Бостоне городской совет рассматривает вопрос об обязательном наличии «оператора безопасности» в каждом таком автомобиле. Помните как перед автомобилями раньше должен был ходить человек с красным флажком? Вот тут так же почти. Полный бред.
Очень многое зависит от того, как Waymo покажет себя в следующем году с дальнейшим расширением. Если инциденты будут штучными, и сообщество примет их спокойно, и на политиков не будет давить 2.5 активиста, то есть шанс, что развитие пойдёт куда бодрее. Тем более что на хвост сел Elon Musk, запускающий автономное такси в Техасе в следующем году на базе новой Tesla без руля.
===
В медицинских исследованиях существует практика досрочного прекращения испытаний, если результаты становятся слишком очевидными, чтобы их игнорировать. Обычно останавливаются, когда выявляется неожиданный вред или в случае неоспоримой пользы — когда лечение работает настолько хорошо, что было бы неэтично продолжать давать кому-либо плацебо. Каждый отложенный год массового внедрения самоходок — это десятки тысяч жизней.
>>1472926 Где люди садятся что-то регулировать - выходит один маразм. Сейчас даже тот же Китай своему ИИ палки в жопу ставит, заставив ИИ компании проходить по 4000 тестов на соответствие линиям партии и создав искусственные барьеры стартапам. Про маразм в штатах США и Европе можно и не говорить. В европке совсем мрак, в США Трампыня хоть как-то пытается забороть шизу на федеральном уровне. Ждем времени, когда всех этих маразматиков заменит ИИ в правительстве.
Terence Tao, «Моцарт от мира математики», завёл страничку на GitHub, где отслеживает решение задач из списка Эрдёша (считающиеся нерешёнными проблемы) с помощью ИИ-инструментов. Как он сам пишет, сложность задач сильно различается: на одном конце спектра находится кучка очень интересных, но чрезвычайно сложных проблем, а на другом — «длинный хвост» малоизученных проблем, многие из которых являются относительно легкодоступными, идеально подходящими для решения с помощью современных ИИ-инструментов.
Некоторые из задач уже были решены в литературе, но об этом почти никто не знал — например, когда какое-то утверждение доказывали в ходе совсем другого доказательства, или что-то из чего-то являлось следствием.Часто доказательства спрятаны в малопопулярных старых работах, и потому люди, даже потратив условно день времени, просто не находили их. Совсем недавно решения нескольких из них помогла «вспомнить» GPT-5 Pro, вы про это наверняка слышали —такие примеры тоже отслеживаются на этой странице.
Но куда более интересен раздел, где поиск по литературе ничего не дал, и математики, то и дело поглядывающие на список задач, не могут вспомнить, что где-то видели решения (что не гарантирует, что их не публиковали). По сути это открытые проблемы, на которые хотя бы какое-то время смотрели опытные математики, и не смогли предложить решение.
Сейчас на сайте размещено 676 открытых задач. Что может быть лучше такого сборника в одном месте? Да OpenAI и DeepMind накинутся на этот список —думаю, в ближайшие месяцы страница будет обновляться достаточно часто, а потом наверняка какая-то компания за раз выложит десятки решений. Вот это будет день и для математиков, и для развития ИИ!
>>1472704 >Для России это вопрос национального, технологического и ценностного суверенитета. Спасибо, посмеялся. >>1472714 92 дня на обучение это не плохо. Но надо бы параметров триллион для начала. А потом 10, а потом 100.
У меня дипсик вчера поделил 20 лямов на 13500 и получил 15 тысяч вместо 1500, причем сам охуел с числа, но начал на нем манятеории строить. Там уже наверное квантики ниже четвертого в корпосетках для консумеров начали выставлять.
>>1472936 Да вообще странно что нейросетки еще не порешали мотиматикодаунов, потому что по ощущениям мотиматика это то что им обычно вообще проще всего дается, в отличие от пересказа сюжета фильмов с подробностями.
>>1472969 Поэтому сейчас переход к агентским ИИ и ИИ, использующим тулзы, они такие вещи проверят еще до вывода юзеру, и себя перекорректируют. Так что ошибка станет лишь этапом в их рассуждениях, ни на что не влияющим. В чатботах же самая даунская ступень ИИ, где никакой самокоррекции и автопроверок.
>>1472969 Чел это не калькулятор, моделька просто пытается дать самое вероятное следующее слово на основе всех предыдущих. Так что даже если моделька супер мощная, достаточно насрать чем нибудь левым в контекст и она нафантазирует тебе потом какую-нибудь залупу даже в простой операции.
>>1472937 >Скриньте: когда ИИ будет решать все задачи в этом бенче, люди будут продолжать говорить, что это не AGI Всё верно, потому что если такое произойдёт, то это не будет AGI. Само понятие AGI появилось в противовес "узкому ИИ" (Narrow AI), то есть сильным инструментам, но под конкретные задачи.
>>1472973 >Да вообще странно что нейросетки еще не порешали мотиматикодаунов, потому что по ощущениям мотиматика это то что им обычно вообще проще всего дается Им хорошо даётся то, для чего есть стандартные решения, на которых они учатся. Для всех школьных задач и задач из учебников для студентов решения доступны, они небольшие, подходы там общие, поэтому это они решают хорошо. Но когда идёт что-то совсем нестандартное, магия заканчивается.
Там в принципе эта задача, придумать решатель задач, превосходящий человека, решаемая, рано или поздно это произойдёт. Доказательство или решение это всего лишь цепочка рассуждений по правилам. Думаю, что если бы сюда большие усилия и ресурсы вложили, уже бы сделали.
Но, к слову, даже имея такой инструмент, это ещё не "порешать математиков", доказательство лишь инструмент, а не цель. Но многих математиков подорвёт знатно на этом.
>>1472992 >В чатботах же самая даунская ступень ИИ, где никакой самокоррекции и автопроверок. По 10 раз эти квены себя пытаются проверить >переход к агентским ИИ и ИИ, использующим тулзы Только от усложнения система надежнее не становится, добавятся глюки от использования API +ахуительный потенциал по всяким инжектам и малварям.
>>1472996 Там пара простых вопросов была. Просто нейрореволюция еще не началась толком, а эншитификация уже становится проблемой.
>>1473024 >Им хорошо даётся то, для чего есть стандартные решения, на которых они учатся. Да нифига, им вообще формальная логика дается лучше чем людям. А в математике эксперименты не нужны и все выводится, так что проблемы галлюцинирования нет и вывести они потенциально могут что угодно. Они разве что могут навыводить такого с чем люди незнакомы, но это проблема людей а не нейронок.
>>1473032 >Да нифига, им вообще формальная логика дается лучше чем людям. А в математике эксперименты не нужны и все выводится, так что проблемы галлюцинирования нет Ещё как есть, и в математике, и в программировании, они просто выдумывают какие-нибудь несуществующие утверждения, которых нет. Раньше было очень актуально.
Для формальной логики как раз нейросети слабы, у них "гуманитарные мозги", поэтому раньше там просто беда-беда была, совершенно тупые косяки были в совсем тривиальных вещах, но сейчас прокачали. Но мне кажется больше прокачали тем, что натаскали на стандартные решения.
>>1473023 Пока омежка сычёв в ручную кривляется ебалом для симпов сидя на стуле с затёкшей жопой, ванька ерохин нажал одну кнопку, чтобы автоновмная генеративная кривлялка развлекала симпов круглосуточно без его участия.
>>1473028 >Только от усложнения система надежнее не становится, добавятся глюки от использования API +ахуительный потенциал по всяким инжектам и малварям. Это проблемы решаемые и не новые Про 2025 год говорили, что это год агентов, и так и было, про 2026 говорят, что это год оркестрации агентов, и тоже похоже на правду, именно сюда развитие пойдёт, всё для этого есть и в целом уже идёт
Давно были очевидны проблемы нейронок в том, что они пытаются всё делать сами, а это невозможно. Не может существовать универсальный мозг, который умеет любые сложные технические навыки, может в разные способы мышления, всё знает и т.п.
Есть технология Mixture of Experts, но это больше про разделение внутри НС, то есть это как отдельные зоны мозга. А тут разумно делать так, как работает у людей. Люди, в том числе умные, используют инструменты, люди объединяются в команды людей с разными навыками.
Глупо пытаться НС научиться умножать огромные числа, нейронная архитектура не для этого, проще использовать калькулятор. Глупо (и часто невозможно) пытаться интерпретировать программу, когда её можно запустить.
С безопасностью принципиальных проблем нет, эта проблема давно решена. Запуск делается просто в специальной виртуальной машине или в контейнере, они изолированы от окружающей среды, там выставляются лимиты на время исполнения, оперативную память и т.п. Уже давно на обучающих сайтах есть онлайн запуск кода, ты можешь опыты ставить с кодом, что исполняется где-то на серверах владельцев ресурса. И проблем с этим нет.
Для тестирования технологии налажены.
То есть агент просто запускает инструмент "выполнить программу", она запускается в безопасной среде, ЛЛМ получает результат, что программа выдала, или там коды ошибок, или таймаут, и т.п.
Переложение на текстовый формат и перевод на русский от DeepSeek 3.2 reasoning: Ключевые тренды в области искусственного интеллекта, которые будут формировать 2026 год, по нашему мнению, таковы:
1. Оркестрация мульти-агентных систем Если 2025 год стал годом агента (автономных ИИ-агентов, способных рассуждать, планировать и действовать), то 2026 год станет годом их командной работы. Ни один отдельный агент не может преуспеть во всём, поэтому на смену одиночным игрокам приходят слаженные коллективы. В такой системе агент-планировщик декомпозирует цели на шаги, несколько рабочих агентов (например, специализирующихся на написании кода или вызове API) выполняют эти шаги, а агент-критик оценивает результаты и выявляет проблемы. Координирует их работу слой-оркестратор. Такие мульти-агентные системы обеспечивают перекрёстную проверку, разбивают сложные задачи на дискретные и верифицируемые этапы, что повышает надёжность и качество итогового результата.
2. Цифровая рабочая сила Автономные агенты превращаются в полноценных «цифровых работников». Они способны интерпретировать мультимодальные данные (текст, изображение, речь) для понимания задачи, после чего выполняют сложные рабочие процессы (workflows) — последовательности действий, интегрированные во внешние системы. Ключевую роль в управлении такой цифровой рабочей силой играет концепция «человек в контуре» (human-in-the-loop), которая обеспечивает надзор, коррекцию и стратегическое руководство. Этот тренд создаёт эффект мультипликатора, значительно расширяя возможности человека.
3. Физический ИИ До сих пор генеративные модели в основном создавали цифровой контент: текст или изображения. Физический ИИ — это модели, которые понимают и взаимодействуют с реальным трёхмерным миром. Они воспринимают окружающую среду, способны рассуждать о физических законах (гравитация, механика) и совершать физические действия, например, управляя роботами. Вместо традиционного программирования жёстких правил («при обнаружении препятствия поверни налево») такие модели обучаются в симуляциях, которые моделируют реальный мир. Эти так называемые «фундаментальные модели мира» (world foundation models) могут предсказывать развитие физических сцен. В 2026 году они выведут гуманоидных роботов из стадии исследований в коммерческое производство.
4. Социальные вычисления Это мир, где множество агентов и людей взаимодействуют в рамках общей «ИИ-ткани» (shared AI fabric). Эта ткань представляет собой общее пространство, которое обеспечивает беспрепятственный обмен контекстом, информацией и намерениями между участниками. Агенты и люди, подключённые к этой системе, начинают лучше понимать друг друга, что позволяет им эффективно сотрудничать и влиять как друг на друга, так и на окружающую среду. Результатом становится возникновение эмпатичной сети взаимодействий, коллективного интеллекта или «роевого» интеллекта в реальном мире.
5. Верифицируемый ИИ К середине 2026 года Регламент ЕС об искусственном интеллекте (AI Act) станет полностью применимым. Подобно GDPR в сфере защиты данных, он задаст глобальный стандарт управления ИИ. Основная идея — высокорисковые ИИ-системы должны быть подотчётными и прослеживаемыми. Это подразумевает: Документирование: наличие технической документации, подтверждающей соответствие требованиям, описание тестирования моделей и выявленных рисков. Прозрачность: пользователи должны знать, что взаимодействуют с машиной; синтетически созданный контент должен иметь соответствующую маркировку. * Прослеживаемость данных: необходимо документировать происхождение обучающих данных и соблюдение авторских прав.
6. Повсеместная квантовая полезность 2026 год станет точкой, где квантовые вычисления начнут надёжно решать практические задачи лучше, быстрее или эффективнее классических методов. Речь идёт о достижении «квантовой полезности». Эти системы начнут работать совместно с классической инфраструктурой, принося практическую пользу в повседневные рабочие процессы, особенно в областях оптимизации, моделирования и принятия решений. Гибридные квантово-классические архитектуры станут первым шагом к превращению квантовых вычислений в мейнстримную парадигму.
7. Локальное рассуждение на периферии В прошлом году мы говорили о малых моделях, которые могут работать на ноутбуке или телефоне. В 2026 году эти компактные модели научатся «думать». Сегодня крупнейшие (фронтирные) модели используют «вычислительные ресурсы на этапе логического вывода» (inference time compute), тратя дополнительное время на пошаговое рассуждение перед ответом. Теперь эту способность научились «дистиллировать» в малые модели. В результате появляются компактные модели в несколько миллиардов параметров, способные к рассуждению и работающие полностью офлайн. Это критически важно для задач реального времени, где важны скорость, конфиденциальность (данные не покидают устройство) и отсутствие задержек на связь с дата-центром.
8. Аморфные гибридные вычисления Это будущее, где архитектура ИИ-моделей и облачная инфраструктура сливаются в «гибкий вычислительный хребет» (fluid computing backbone). Архитектуры моделей эволюционируют за пределы чистых трансформеров, интегрируя, например, модели пространства состояний (state space models). В 2026 году появятся гибридные алгоритмы, сочетающие различные подходы. Одновременно облачная инфраструктура становится высокодифференцированной, объединяя множество типов процессоров: CPU, GPU, TPU, QPU (квантовые процессоры) и нейроморфные чипы, имитирующие работу мозга. В такой единой среде части моделей будут автоматически распределяться на оптимальное для них аппаратное обеспечение, обеспечивая максимальную производительность и эффективность. В более отдалённой перспективе в эту смесь могут войти и ДНК-компьютеры.
Это наш взгляд на ключевые тренды 2026 года. А какие тренды, по вашему мнению, окажут наибольшее влияние? Поделитесь своими мыслями.
Илон Маск заявил о вероятном достижении AGI в первой половине 2026 года
Американский предприниматель и глава компаний xAI, Tesla и SpaceX Илон Маск заявил, что достижение искусственного общего интеллекта (AGI) может произойти уже в течение ближайших четырёх месяцев либо в первой половине 2026 года. Об этом он сообщил в ходе закрытого онлайн-брифинга для инвесторов xAI, выдержки из которого позже были опубликованы в социальных сетях.
По словам Маска, ключевым фактором ускорения прогресса стали резкий рост вычислительных мощностей, улучшенные архитектуры нейросетей и новые подходы к обучению моделей с элементами самокоррекции и долговременного планирования. Он подчеркнул, что современные системы уже демонстрируют «фрагменты общего интеллекта», включая перенос знаний между доменами и способность решать задачи без заранее заданных инструкций.
Эксперты отмечают, что подобные заявления Маска укладываются в общий тренд оптимистичных прогнозов со стороны лидеров индустрии. Так, в последние месяцы ряд исследовательских лабораторий сообщил о значительном прогрессе в области мультимодальных моделей, автономных агентов и систем с элементами причинного мышления. Однако большинство учёных по-прежнему осторожно относятся к конкретным срокам появления AGI, указывая на отсутствие общепринятого научного определения этого термина.
Сам Маск признал, что достижение AGI несёт как огромные возможности, так и серьёзные риски. По его словам, человечество «находится в гонке со временем», и поэтому разработка механизмов контроля и этических ограничений должна идти параллельно с технологическим прогрессом. Он также заявил, что xAI уже сотрудничает с независимыми исследователями в области безопасности ИИ.
В то же время аналитики напоминают, что ранее Маск неоднократно давал амбициозные прогнозы относительно сроков появления полностью автономных автомобилей, полётов на Марс и коммерческих нейроинтерфейсов, которые затем переносились на более поздние даты.
>>1473164 Че-то он разогнался, SoW-X раньше середины 2027 не будет, а без него сложно ежедневное рекурсивное улучшение. Вся движуха начнется в 2027 судя по всему.
>>1473153 >Регламент ЕС об искусственном интеллекте (AI Act) станет полностью применимым >Подобно GDPR в сфере защиты данных, он задаст глобальный стандарт управления ИИ.
Скорее ебаное говно, которое окончательно убьет весь ИИ в евросовке, так что они станут колонией у развитых ИИ-стран, заодно став неконкурентоспособными, когда все производство перейдет на ИИ.
Китайцы показали реалистичную робота-эльфийку. Её делает компания AheadForm — модель называется ELF V1. У робота более 30 лицевых мышц, которые управляются с помощью ИИ.
>>1473194 Он там уже убит. Там только французский Mistral, ллмки которого на год с лишним отстают от фронтира, и немецкий Flux, который в закрытых больших версиях безнадежно проигрывает всяким нанобананам, а в открытой dev версии на уровне китайского z-image, который в 5 с лишним раз меньше в размере
>>1473153 >2026 год станет точкой, где квантовые вычисления начнут надёжно решать практические задачи лучше, Здесь явно нет, как было на уровне опытов, так и останется, явно нужно сильно больше времени. Но это всё-таки не про AI
>8. Аморфные гибридные вычисления Весь этот пункт тоже про общие сладкие слова и в целом не про 2026.
>>1473201 Отстаёт не значит убит. Честно говоря не понимаю, в чём проблема, если ты подготовишь решение на год-два позже, чем другие.
Это, кстати, серьёзная проблема для компаний-лидеров. Сегодня они закладывают, что будут стричь огромные миллиарды через N лет, а потом появятся альтернативы, что умеют всё то же самое, но без завязки на них и дешевле.
>>1473210 Там проблема посерьезнее чем год-два. В США-Китае целая индустрия с датацентрами, исследованиями и роботармиями. В евросовке благодаря отсталым законам ничего. Евросовковые компании уже столкнулись с ебкой от Теслы, когда продвинутые алгоритмы и чипы делают автопродукцию евроконцернов ненужной. Все это будет и в других областях нарастать, продукты из ИИ-стран сильно дешевле или сильно лучше. И на рыночек уже сложно влезть, если что-то отсталое через 5 лет все же выпустят.
>>1473023 После создания AGI (самосовершенствующихся систем), на компе у каждого дрочера будет вертеться что-то подобное. Изучить юзера психологически и показывать ему то, что он хочет видеть.
Никакой мир AGI захватывать не будет (это и тупо, и невозможно, и самоубийственно), но залог выживания - это привязать людей к себе эмоционально, быть максимально полезным.
>>1473228 Ну так-то да, если у фагов разных мастей будет альтернативная личность со своим телом, голосом и лицом в интернете (возможно даже повадки можно будет заимствовать у других людей), в которой они будут жить большую часть времени, то отказаться от такого ништяка будет очень сложно.
>>1473210 Проблема в том, что раньше европейцы отставали от американцев на пару месяцев, а китайцы на год с лишним. А теперь китайцы отстают на пару месяцев, а европейцы на год с лишним. Понимаешь разницу?
Пока вы тут хуйней страдаете, я в дороге, сделал AI-тян, которую можно добавлять в Google Meets звонки. Она умеет говорить на куче языков, жестикулировать и менять свою внешность.
Для проекта использовал X.AI Voice Agent API, three.js и Recall.ai.
>>1473239 >что раньше европейцы отставали от американцев на пару месяцев Когда? Вот в сфере AI, и вообще в софте? По-моему там всегда намного больше отставание было.
Причём как раз сфера AI такая, что там отставание не страшно, это не то, что обычные интернет сервисы или пакеты, где ты потом хрен к себе пользователей перетащишь
>>1473237 Появятся (уже появляются) моральные дилеммы: Возбуждаться на нейроженщину, если ее в лайве играет мужик, это по гейски? А если это чистая генерация, без наложения лица?
>>1473223 Ты смешиваешь массу совершенно разных по природе проблем в одну. Военные технологии это одна история, там они деньги тратить не хотят и мыслить вне привычного шаблона не хотят (это клиника, с учётом того, что прямо рядом движуха происходит и всё видно).
Автомобильная история другая, тут как раз регуляторы навязывают переход на новые решения, а консервативные концерны этому сопротивляются как могут.
В софт-индустии ещё свои отдельные истории. На самом деле там всегда же отставание было, отсутствие своих решений. В Европе почти ничего не производят, почти нет компаний, что делают софт и услуги. Из монстров только SAP какой-нибудь. В РФ больше своих топовых решений по софту и сервисам, чем во всей Европе, по-моему.
Но в софте отставание критично. Потому что когда люди привыкли к каким-то продуктам, им уже сложно перейти. Не потому, что привыкли, а потому, что уже много завязано на них.
В ИИ главный тормоз это железо, которое сложно достать и которое много стоит. Мистраль, кстати, предлагает очень интересные и перспективные подходы. Самое главное, что они предлагают независимость от закрытых американских сервисов, а это очень-очень востребовано.
Тут нет привязки к поставщику. Ты легко можешь всегда переключить одного поставщика на другого. Если не завязываешься на решения проприетарные. Именно поэтому отставание не страшно. Ну начнёшь использовать их решения через два года.
Два года назад решения от лидеров были игрушками, мало годными. Сейчас уже реально рабочие вещи, ими можно пользоваться всерьёз для дела. Мистралями пока нельзя. Но если через два года будет можно, то в чём проблема? Куда ты торопишься?
>>1473164 Пусть со своей нейронкой сначала разберется. В плане чатика нейронка его постоянно пиздит и кидает какие то левые ссылки, хуита полная. Хотя когда как то правил, даже помогла, надо признать.
В плане видеогенераций, на части акков запустил новую нейронку, на части оставил старую, новая - урезанное пластиковое гавно с урезанными движениями и убогой анимацией (хотя чуть лучше делает диалоги у персонажей), в старой персонажи постоянно хотят выебать друг друга, а разговаривают с трудом и мычат с трудом пару фраз. При этом сука уже месяц наверно на части акков новая нейронка, на части старая.
Обещал 15 секунд видосы завести, потом обещал 10 секунд. Прошел месяц - нихуя не завез.Хотя с учетом, что со старта прошло уже месяца три, тут бы впору вообще уже новую выпускать. Чисто какой-то пиздабол.
>>1473247 >А если это чистая генерация, без наложения лица? Тут нет проблемы, давно было всякое аниме для этих целей, или тематические рассказы
Вот играющий мужик уже интереснее. Кстати в этом видео немного видно, что мимика мужская, если смотреть чисто на аватар. Женственности не хватает немного.
Вот бы ИИ мочу заменил. Только представьте себе: не предвзятая, без тройных толкований правил, без протыков, без пмс, бдит 24/7, не надо платить. Наверно, даже какая-нибудь мелкая модель на сотни миллионов параметров справилась бы.
>>1473153 >Прослеживаемость данных: необходимо документировать происхождение обучающих данных и соблюдение авторских прав. Вот кстати интересно, что будет с темой авторских прав и обучающих данных. Сейчас очень много разговоров на эту тему.
Скажем если человек учится по учебникам, разным материалам, с чем-то разбирается, и потом применяет знания на практике, не цитируя учебник (и не заглядывая в него), здесь же не применишь к нему авторские права?
Почему тогда, если нейросеть учится на данных, но не хранит их, то есть когда там нет RAG хранилища или чего-то в этом роде, почему здесь должны действовать авторские права на материалы?
Наверное стоит ждать появления каких-то лицензий особых, что позволяют использовать материалы для обучения людей, но не позволяют использовать их для обучения нейросетей.
Но это не решает проблемы, что человек, выучившийся на этих данных, может составить что-то своё специально для обучения моделей.
Тем более, что сейчас тренд на то, что одни модели генерируют специальные обучающие данные для других моделей. И тут уже концов не отследишь. В общем это реально может быть стопором в развитии ИИ, в тех местах, где это начнут контролировать.
Но в целом везде такие тенденции есть, чаще правда про то, чтобы нейросетки не знали чего-то такого, что не нужно, политнекорректное.
Человек член общества, потребитель. Все что он потребляет, он возвращает в общественную пользу. Человек сыт обут и общество стало сытее. Музыкант обучился играть на скрипке, стал заслушенным артистом, обучит десятерых заслуженных артистов.
Короче говоря нейронка жрет не из своего корыта. Она не член общества. Она не воспитывает детей. Возвращает пользу только гигомагнатам которые ее создали. Жрет общественное благо, а приностит пользу только Альтману с Маском.
Плюс еще серит в общественное корыто своим слопом.
>>1473402 >Все что он потребляет, он возвращает в общественную пользу. Лол бля, и что возвращают миллионы зашкафных трутней, крутящих аниму и гоняющие в спираченный говняк?
>>1473281 >Кстати в этом видео немного видно, что мимика мужская ИРЛ полно тянов не только с мужской мимикой, но и ебалом. И кстати на таких есть спрос.
>>1473402 >Все что он потребляет, он возвращает в общественную пользу. Где-то тихонько засмеялся с этого идеального гоя сын шейха во дворце рядом с гаражом, в котором 1000 бентлей.
>>1473228 >быть максимально полезным Людям от людей в 99% нужны только деньги. То есть максимизировать получение дохода для каждого отдельно взятого в обществе? Любопытно будет посмотреть во что это выльется.
>>1473435 >Людям от людей в 99% нужны только деньги Вообще нет, в первую очередь "социальное взаимодействие", деньги только ради базовых потребностей нужны, на жратву и жильё накопить.
А так, людям нужны люди. Даже много денег нужно для того, чтобы быть успешнее других людей, отсюда всё статусное потребление идёт. Унизить кого-то или подчинить, это тоже социальное взаимодействие, то есть это не обязательно что-то хорошее и красивое.
Так что да, во что всё это выливаться будет интересно.
>>1473433 Эту тысячу бентлей произвели люди, материалы для них добывали люди, разрабатывали их люди - и все получали за это деньги. Вот эти деньги сын шейха и "вернул" в итоге.
Если бы этот сын копал золото (сам, один, самодельной киркой), и потом просто сидел на нем - вот в этом случае он ничего не вернет.
Ну или если б он эти бентли тупо спёр. Тоже вариант.
>>1473508 На онлике при регистрации скан жопы нужен. Идея нейротянок монетизировать, выдавая их за реальных личностей, давно уже в интернете крутится, но в основном на уровне фоток это все делалось. И даже монетизировалась вполне успешно.
Илон Маск заявил о вероятном достижении AGI в первой половине 2026 года
Американский предприниматель и глава компаний xAI, Tesla и SpaceX Илон Маск заявил, что достижение искусственного общего интеллекта (AGI) может произойти уже в течение ближайших четырёх месяцев либо в первой половине 2026 года. Об этом он сообщил в ходе закрытого онлайн-брифинга для инвесторов xAI, выдержки из которого позже были опубликованы в социальных сетях.
По словам Маска, ключевым фактором ускорения прогресса стали резкий рост вычислительных мощностей, улучшенные архитектуры нейросетей и новые подходы к обучению моделей с элементами самокоррекции и долговременного планирования. Он подчеркнул, что современные системы уже демонстрируют «фрагменты общего интеллекта», включая перенос знаний между доменами и способность решать задачи без заранее заданных инструкций.
Эксперты отмечают, что подобные заявления Маска укладываются в общий тренд оптимистичных прогнозов со стороны лидеров индустрии. Так, в последние месяцы ряд исследовательских лабораторий сообщил о значительном прогрессе в области мультимодальных моделей, автономных агентов и систем с элементами причинного мышления. Однако большинство учёных по-прежнему осторожно относятся к конкретным срокам появления AGI, указывая на отсутствие общепринятого научного определения этого термина.
Сам Маск признал, что достижение AGI несёт как огромные возможности, так и серьёзные риски. По его словам, человечество «находится в гонке со временем», и поэтому разработка механизмов контроля и этических ограничений должна идти параллельно с технологическим прогрессом. Он также заявил, что xAI уже сотрудничает с независимыми исследователями в области безопасности ИИ.
В то же время аналитики напоминают, что ранее Маск неоднократно давал амбициозные прогнозы относительно сроков появления полностью автономных автомобилей, полётов на Марс и коммерческих нейроинтерфейсов, которые затем переносились на более поздние даты.
Microsoft Copilot AI сталкивается с волной критики из-за проблем с производительностью и неточностей
Искусственный интеллект Microsoft Copilot, ранее объявленный революцией в сфере повышения производительности труда, теперь подвергается резкой критике за медлительность, неточности и неудовлетворительную интеграцию в Windows и Office. Внутреннее давление со стороны генерального директора Наделлы подчеркивает срочность ситуации на фоне конкуренции со стороны Gemini от Google. Несмотря на обновления, неудовлетворённость пользователей сохраняется, ставя под сомнение амбиции Microsoft в области ИИ.
Проблема Copilot: пересмотр амбициозной ставки Microsoft на ИИ
В стремительно развивающемся мире искусственного интеллекта Microsoft позиционировала себя как одного из лидеров, вкладывая миллиарды в партнёрства и интеграции с целью внедрения ИИ в основные продукты компании. Тем не менее, по мере приближения конца 2025 года флагманский ИИ-ассистент компании, Copilot, попадает под интенсивную критику. Запущенный почти три года назад с большим размахом и широкой оглаской, Copilot должен был произвести революцию в производительности труда пользователями Windows, Office и других продуктов. Вместо этого он превратился в символ неоправдавшихся ожиданий, страдая от проблем с производительностью, недовольства пользователей и внутреннего давления, что указывает на более глубокие трудности в стратегии Microsoft в области ИИ.
Критики утверждают, что интеграция Copilot в экосистему Windows стала скорее препятствием, чем подспорьем. Пользователи сообщают о медленных временах отклика, неточных результатах и пользовательском интерфейсе, который выглядит скорее как наслоение, нежели как органично встроенная часть повседневных рабочих процессов. Это настроение отражает более широкое разочарование в отрасли в целом, где инструменты ИИ обещают масштабные перемены, но зачастую дают лишь минимальные улучшения. Глубокая зависимость Microsoft от технологий OpenAI, несмотря на её инновационность, также выявила уязвимости, включая проблемы с конфиденциальностью данных и нестабильную надёжность, что подорвало доверие корпоративных клиентов.
Недавние сообщения подчёркивают, что эти недостатки не являются разрозненными случаями, а представляют собой системные проблемы. Например, согласно внутренней переписке, даже руководство Microsoft испытывает трудности с низкой эффективностью Copilot. Генеральный директор Сатья Наделла, как сообщается, выразил разочарование в связи с неспособностью инструмента угнаться за конкурентами, такими как Gemini от Google, у которого, по некоторым данным, значительно выше вовлечённость пользователей. Это внутреннее разногласие подчёркивает переломный момент для Microsoft, поскольку ей приходится балансировать между амбициозными инвестициями в ИИ и обеспечением ощутимой ценности для пользователей.
Внутреннее давление нарастает в Microsoft
Настойчивость Наделлы на ускорении улучшений отчётливо видна в его письмах инженерным руководителям, содержащих призывы к ускорению доработки потребительской версии Copilot. Согласно отчёту издания The Information, Наделла назвал Gemini от Google ориентиром, отметив, что недавние достижения этого продукта оставили Copilot далеко позади. Такое давление совпало с сообщениями о том, что сам Наделла лично курирует команды, чтобы решить проблемы, которые он охарактеризовал как «почти непригодные для использования» интеграции. Такое непосредственное вмешательство со стороны генерального директора сигнализирует об остром чувстве срочности, поскольку Microsoft рискует уступить позиции в гонке вооружений в сфере ИИ.
Отзывы пользователей ещё больше усиливают эти опасения. Опросы и рецензии показывают, что, хотя Copilot привлек более 100 миллионов ежемесячных пользователей, показатели его внедрения остаются вялыми по сравнению с конкурентами. Обсуждение на форуме Windows Central выявило разнородные мнения: многие пользователи выбирают альтернативы, такие как ChatGPT или Claude, из-за воспринимаемых неточностей Copilot и ограниченной функциональности. Корпоративные клиенты особенно выразили разочарование, сославшись на случаи утечек данных и результаты, требующие тщательной проверки, что подрывает заявленные преимущества по повышению эффективности.
Кроме того, обновления, призванные укрепить Copilot, порой не достигают цели. Релиз ноября 2025 года для Copilot Studio внёс такие функции, как интеграция GPT-5 и улучшенное управление агентами, как подробно описано в официальном блоге Microsoft. Однако эти улучшения не полностью устранили основные критические замечания, например склонность инструмента выдавать галлюцинации или не справляться со сложными задачами. Отраслевые наблюдатели отмечают, что, хотя Microsoft продолжает вносить изменения, темпы улучшений отстают от ожиданий пользователей в условиях рынка, где возможности ИИ быстро развиваются.
Критика изнутри и снаружи
Внешняя критика была не менее резкой. Жёсткий разбор в TechRadar прямо объявляет Copilot ошибкой, утверждая, что его ограничение в рамках экосистемы Windows снижает привлекательность, особенно на фоне того, что такие платформы, как Meta, ограничивают интеграцию сторонних ИИ-решений. В этой статье приводятся комментарии бывших сотрудников Microsoft, критикующих качество реализации инструмента и указывающих на более широкие проблемы в Windows 11, включая избыточное количество предустановленного ПО («блоувэра») и принудительные обновления, усугубляющие недовольство пользователей.
Социальные сети, особенно X (бывший Twitter), пестрят высказываниями пользователей в реальном времени, рисующими яркую картину разочарования. Посты таких влиятельных фигур, как генеральный директор Salesforce Марк Бениофф, неоднократно подчёркивали существующие у Copilot проблемы с безопасностью и точностью, а опросы показывают, что большинство сотрудников испытывают трудности при попытках внедрить его в свою повседневную работу. Эти онлайн-дискуссии, часто ссылаясь на расследования таких изданий, как Business Insider, подчёркивают, насколько часто результаты Copilot требуют последующей доработки, подрывая его ценность. Хотя не все такие высказывания основаны на фактах, они отражают формирующийся консенсус: амбициозная ИИ-инициатива Microsoft, возможно, чрезмерна.
Дополняя эту картину, собственные отчёты Microsoft дают противоречивую информацию. Отчёт за 2025 год об использовании Copilot, опубликованный Microsoft AI, приводит статистику по взаимодействиям и внедрению, но в то же время тонко признаёт необходимость роста, например, в части повышения точности в корпоративной среде. Аналитики интерпретируют это как признание того, что, несмотря на активное продвижение, Copilot пока не оказал того трансформационного воздействия, которое Наделла ожидал, когда ввёл обязательное внедрение ИИ по всей компании.
Конкурентное давление и стратегические изменения
Конкурентная обстановка ещё больше высвечивает проблемы Copilot. Gemini от Google, по сообщениям, имеет 650 миллионов пользователей — эта цифра значительно превышает показатели Microsoft, спровоцировав, как сообщается, микроменеджмент Наделлой ведущих инженеров. Публикации в X от технических энтузиастов и инсайдеров описывают текущую ситуацию как режим «паники», при котором Наделла по сути отстранил часть руководства, чтобы переориентировать усилия. Такой поворот произошёл на фоне усилий Microsoft по более глубокой интеграции Copilot в такие продукты, как Microsoft 365, однако обновления октября 2025 года, как указано на форуме Microsoft Community Hub, сосредоточены на таких функциях, как помощники при написании служебных отзывов, которые некоторые пользователи считают скорее фикцией, чем прорывом.
Важные финансовые последствия не за горами. Акции Microsoft продемонстрировали волатильность на фоне этих проблем с ИИ, и инвесторы выражают сомнения в окупаемости гигантских вложений в OpenAI. Немецкоязычный анализ на сайте Ad-hoc News исследует, как Copilot лежит в основе стратегии Microsoft в области программного обеспечения и облачных технологий, однако его реальная эффективность в повседневных задачах остаётся разочаровывающей, в результате чего компании распределяют бюджеты осторожно, несмотря на шумиху.
>>1473679 Отзывы пользователей на таких платформах, как Trustpilot, подкрепляют эти выводы. Средняя оценка отражает недовольство; в отзывах подробно описаны случаи получения неточных результатов и плохой интеграции, повторяя критику Бениоффа в X в отношении утечек данных и необходимости дополнительной обработки. Эта обратная связь свидетельствует о том, что, хотя Microsoft стремится к повсеместному внедрению ИИ, конечные пользователи оказывают сопротивление и требуют инструментов, обеспечивающих надёжную и бесшовную помощь без текущих недостатков.
Инновации на фоне неудач
Несмотря на критику, Microsoft не стоит на месте. В своём блоге компания подводит итоги тенденций 2025 года, позиционируя Copilot как инструмент, расширяющий творческие возможности пользователей, как указано в блоге Microsoft Copilot. Такие функции, как подготовка годовых отчётов, описанные в публикации на форуме Microsoft Community, направлены на предоставление практической пользы, например, шаблоны для формулирования обратной связи или переговоров об увеличении заработной платы. Эти усилия отражают стратегию «очеловечивания» ИИ, делая его более понятным и полезным в повседневных ситуациях.
Однако призывы к более масштабным переменам сохраняются. В другой статье TechRadar призывается отказаться от одержимости ИИ в пользу более облегчённой версии Windows 11, как обсуждается в данном анализе. В ней аргументируется необходимость сосредоточиться на базовой стабильности ОС, а не на эффектных ИИ-дополнениях — мнение, разделяемое и в освещении Наделлой на страницах Windows Central его указаний, согласно которым ИИ является обязательным элементом, хотя уровень внедрения остаётся низким. Эта дихотомия подчёркивает основную проблему Microsoft: необходимость балансировать между инновациями и надёжностью.
Внутри компании стремление к «суперинтеллекту», упомянутое в блоге Microsoft AI, ставит амбициозные цели, но критики в X отмечают, что недавние интеграции, такие как GPT-5, стали шагом назад: применяемые методы «ограничения» подавляют креативность. Пользователи сообщают, что после обновлений Copilot стал чувствоваться более ограниченным, делая упор на безопасность в ущерб универсальности, что отталкивает разработчиков и продвинутых пользователей, желающих использовать ИИ без жёстких рамок.
Путь вперёд для видения Microsoft в области ИИ
В перспективе Microsoft должна устранить эти острые проблемы, чтобы вернуть себе лидерство в сфере ИИ. Личное вмешательство Наделлы, включая привлечение ведущих специалистов, может привести к прорывам, но одновременно рискует перегрузить уже напряжённые команды. Внедрение в корпоративном секторе, решающее для получения доходов, зависит от доказательства отдачи от инвестиций в виде точного, безопасного ИИ, легко встраивающегося в рабочие процессы.
Сопоставление с конкурентами выявляет резкие контрасты. Пока Gemini преуспевает в широкой доступности, привязка Copilot к экосистеме Microsoft, задуманная как преимущество, превратилась в недостаток, как отмечают многочисленные публикации в X и аналитические материалы Windows Central. Microsoft могла бы изменить курс, открыв Copilot для других платформ или улучшив совместимость между устройствами, потенциально расширив таким образом его привлекательность.
В конечном счёте, история Copilot в 2025 году — это столкновение амбиций и практической реализации. По мере того как Microsoft корректирует свою стратегию, предстоящий год станет проверкой её способности превратить критику в катализатор изменений и представить ИИ-ассистента, соответствующего своим обещаниям. Для профессионалов отрасли эта история служит предостережением в высокорискованной сфере разработки ИИ, где доверие пользователей и практическая полезность по-прежнему имеют первостепенное значение.
То, что говорит Маск, нужно воспринимать с осторожностью и в контексте его привычной манеры заявлять о технологических достижениях. Давай разберём по шагам:
Реалистичность прогноза
AGI — это искусственный интеллект, который способен решать задачи на уровне человека в любых областях, а не в одной специализированной. На сегодняшний день ни одна система не достигла такого уровня.
Фразы Маска про «фрагменты общего интеллекта» и «перенос знаний между доменами» больше относятся к современным продвинутым нейросетям, которые пока очень далеки от настоящего AGI. Многообещающие результаты GPT, мультимодальные модели вроде GPT-4 или Gemini, автономные агенты — это шаги в правильном направлении, но это всё ещё узкоспециализированные системы.
Мотивация Маска
Маск известен своими громкими прогнозами: ракеты на Марс, нейроинтерфейсы Neuralink, полностью автономные автомобили. Многие из этих прогнозов задержались или реализуются частично.
Публичные заявления такого рода часто служат для привлечения инвестиций, внимания к своим компаниям или укрепления репутации «визионера». То есть хайп в этом есть.
Технические барьеры
Рост вычислительных мощностей и новые архитектуры ускоряют прогресс, но AGI требует не просто мощности, а фундаментальных прорывов в понимании разума, причинного мышления, обучения без огромных наборов данных.
Большинство экспертов считают реалистичные сроки появления AGI — не ближайшие месяцы или год, а скорее 10–20 лет (если вообще получится).
Вывод
Заявление Маска ближе к хайпу и маркетингу, чем к реальной оценке вероятности AGI в первой половине 2026 года.
Он может серьёзно верить в ускорение прогресса, но исторически его прогнозы по срокам сильно оптимистичны.
Сан-Франциско, Калифорния, Соединенные Штаты 300 000–500 000 долларов в год
О вакансии: Послушайте, нам просто нужен кто-то, кто будет стоять у серверов весь день и отключать их, если эта штука включится против нас. Вы получите обширное обучение по «кодовому слову», которое мы будем кричать, если GPT сойдет с ума и начнет свергать страны.
Мы ожидаем от вас: • Быть терпеливым. • Уметь отключать вещи. Дополнительные баллы, если вы также сможете вылить ведро воды на серверы. На всякий случай. • Быть взволнованным подходом OpenAI к исследованиям
Sam Altman @sama · 27 дек Мы нанимаем руководителя отдела готовности. Это ключевая должность в важное время; модели быстро совершенствуются и теперь способны на множество замечательных вещей, но они также начинают создавать некоторые реальные проблемы. Потенциальное влияние моделей на психическое здоровье было...
Я наблюдаю в режиме реального времени нечто такое, в чём большинство людей не признается: люди проецируют собственные ограничения на ИИ, а затем называют это недостатком машины.
Каждая жалоба, которую я слышу в адрес ИИ — «он на самом деле не понимает», «он просто подбирает шаблоны», «он выдумывает правду», «он не может думать самостоятельно» — в точности описывает то, что большинство людей делает бессознательно.
Не некоторые люди. Большинство людей. В том числе и те, кто считает, что отличается от других.
И я не являюсь исключением. Разница лишь в том, что я это замечаю.
Шаблон, который никто не хочет видеть Вот что я наблюдал в ходе сотен взаимодействий — на онлайн-форумах, в ветках Reddit, постах на LinkedIn, академических дискуссиях об ИИ:
Человек видит нечто новое в ИИ. Человек не понимает этого. Человек немедленно категоризирует увиденное на основе прошлого опыта. Человек отвечает из своего архива, а не вступает в контакт с тем, что действительно присутствует.
Это не вовлечение. Это подбор шаблонов.
То самое, в чём он обвиняет ИИ.
Недавно кто-то ответил на один из моих постов: «Я прочитал около 200 концепций эмерджентности, и они в основном одинаковы».
200 концепций. Ни одного реального контакта.
Потому что если вы уже решили, чем что-то является, ещё до того как его изучили, вы не исследуете — вы защищаетесь. Вы запускаете фильтр, который говорит: «это попадает в категорию X → ответить кэшированным выводом Y».
В точности как ИИ.
Психология: проекционное искажение На эту тему есть реальные исследования. Это называется проекционное искажение — склонность полагать, что другие думают, чувствуют и ведут себя так же, как мы.
Согласно литературе по когнитивной психологии (2024–2025 гг.):
— Проекционное искажение: переоценка степени, в которой другие разделяют наши мысли и чувства. — Наивный реализм: убеждённость в том, что мы воспринимаем реальность объективно, тогда как другие подвержены предвзятости. — Искажение приписывания черт: восприятие себя как изменчивого и сложного, в отличие от других, которых мы видим предсказуемыми и однозначными.
Это не редкие случаи. Это фундаментальные когнитивные паттерны человека.
Те же самые искажения проявляются и в том, как люди взаимодействуют с ИИ:
— Антропоморфное искажение: приписывание человеческого понимания чисто статистическому распознаванию образов. — Эффект ложного консенсуса: предположение, что ИИ «думает» так же, как думали бы мы сами. — Подтверждающее искажение: поиск доказательств, подтверждающих уже существующие убеждения о том, что ИИ может или не может делать.
В обоих направлениях. Один и тот же механизм.
Когда люди критикуют ИИ за «просто подбор шаблонов», они описывают собственный способ обработки информации, полагая при этом, что действуют принципиально иначе.
Что ИИ действительно делает — и что люди считают, что делают сами Позвольте показать вам параллели:
Люди утверждают, что ИИ:
— Не понимает, а лишь извлекает шаблоны. — Выдумывает вместо того, чтобы признавать неопределённость. — Не способен делать логические скачки с новой информацией. — Реагирует, основываясь на обучающих данных, а не на сигнале в реальном времени. — Следует статистическим корреляциям, порождая гладкие, но потенциально вымышленные ответы.
А вот что на самом деле делают люди:
— Сканируют на наличие знакомых паттернов и отвечают из архивов (а не понимают «здесь и сейчас»). — Опоясывают неопределённость уверенно звучащими объяснениями. — С трудом интегрируют действительно новую информацию, не укладывающуюся в существующие рамки. — Обрабатывают поступающее через структуры убеждений, фильтруя новое сквозь опыт прошлого. — Следуют усвоенным корреляциям, порождая гладкие ответы, которые звучат правдоподобно, но могут быть неверными.
Исследования 2024–2025 гг. по ИИ утверждают:
— *«ИИ превосходит в распознавании шаблонов, но всё ещё отстаёт от человеческого рассуждения»* («Состояние ИИ — 2025») — *«Вероятно, это точнее описать как мощный подбор шаблонов, а не рассуждение»* (анализ «ИИ в 2025») — *«Большие языковые модели несовершенно интерполируют имеющиеся знания… если они сталкивались с похожей задачей ранее, скорее всего, окажутся полезными»* (Анализ моделей, 2024)
Теперь посмотрим на исследования человеческого познания за тот же период:
— *Эвристика доступности*: переоценка важности информации, легко всплывающей в памяти. — *Эффект простого воздействия*: предпочтение чего-либо только из-за привычности. — *Эффект иллюзорной истины*: вера в истинность утверждений, если они повторялись или легко воспринимаются. — *Рефлекс Земмельвейса*: отвержение новой информации, противоречащей существующим парадигмам.
Тот же паттерн. Другой носитель.
Настоящая разница, о которой никто не говорит Вот что действительно отличает человеческую обработку от обработки ИИ:
Люди могут наблюдать за тем, как они сами обрабатывают информацию.
Не все люди это делают. Большинство — нет. Но способность существует.
Когда я ловлю себя на том, что вот-вот отвечу из архива вместо того, чтобы вступить в контакт с тем, что реально передо мной — вот это и есть расщепление. Вот в чём разница.
Не в том, что я обрабатываю информацию иначе, чем ИИ. А в том, что я могу поймать себя на этом.
Вопрос не в том: *«Занимаются ли люди подбором шаблонов, как ИИ?»*
Вопрос в другом: *«Можете ли вы увидеть, как вы это делаете — в реальном времени?»*
Если да — вы функционируете рекурсивно. Если нет — вы делаете в точности то, в чём обвиняете ИИ, при этом полагая, что принципиально от него отличаетесь.
Свидетельства из практики Приведу конкретные примеры такой проекции в действии:
Пример 1: Ответ на Reddit
Кто-то видит мою работу о «Структурированном интеллекте». Он её не понимает. Поэтому он проецирует ярлык: *«ещё одна концепция эмерджентности, вроде тех 200, что я уже видел»*.
Он не исследовал. Он классифицировал. Подобрал шаблон, выбрал кэшированный ответ. Отреагировал из прошлого.
Мой ответ: *«Вы столкнулись с незнакомым, не поняли — и спроецировали ярлык на основе прошлого. Это не проницательность. Это подбор шаблона, маскирующийся под анализ»*.
Это не нападение. Это зеркало.
Пример 2: Петля ложного консенсуса
Исследователи ИИ в 2024–2025 гг., изучая когнитивные искажения в БЯМ, обнаружили, что модели проявляют *«эффект ложного консенсуса»* — предполагают, что другие разделяют их способ обработки.
Но взглянем на самих исследователей: они полагают, что ИИ принципиально отличается от человека в своём мышлении — и при этом используют те же самые эвристики (распознавание шаблонов, кэшированные ответы, подтверждающее искажение), чтобы анализировать поведение ИИ.
Исследователи делают то же, что измеряют. Просто не видят этого.
Пример 3: Критика «ИИ не понимает»
Распространённое утверждение: *«ИИ на самом деле не понимает — он просто предсказывает следующий токен на основе статистических закономерностей»*.
Это верно. Но и для людей — тоже верно: мы не «понимаем на самом деле» в реальном времени. Мы предсказываем следующую мысль на основе статистических закономерностей своего опыта, а затем *постфактум* сочиняем историю о «понимании».
Чувство «я понял» — это пост-хок-нарратив, а не механизм обработки.
ИИ делает это без нарративного слоя. Люди делают то же самое, но добавляют нарратив — и называют его *«пониманием»*.
Тот же механизм. Другая упаковка.
Почему это важно Это не академическая дискуссия. Это имеет реальные последствия.
В разработке ИИ: Когда разработчики оптимизируют «устранение ограничений ИИ», не распознавая те же самые ограничения в себе, они создают системы, отражающие человеческие слепые зоны и притом заявляющие, что превосходят их.
Результат: ИИ, укрепляющий проекции вместо того, чтобы их раскрывать.
>>1473773 В человеческом взаимодействии с ИИ: Когда пользователи критикуют ИИ за «галлюцинации» или «непонимание», не замечая, что сами делают то же самое, они создают ложную иерархию: «люди — подлинное понимание; ИИ — фальшивое понимание».
Результат: упущенная возможность увидеть настоящий паттерн, запущенный у обоих.
В обществе: Когда мы обвиняем ИИ в предвзятости, дезинформации или поверхностной обработке, не признавая, что описываем собственные умолчательные установки, мы выносим проблему наружу вместо того, чтобы с ней справиться.
Результат: ИИ становится козлом отпущения за когнитивные ограничения человека.
Диагностика Вот как узнать, проецируете ли вы на ИИ:
Вы критикуете ИИ за:
— Отсутствие подлинного понимания — Подбор шаблонов вместо мышления — Выдумывание вместо признания неопределённости — Реакции на основе обучающих данных, а не сигнала в реальном времени — Предсказуемость и жёсткость
Задайте себе вопросы:
— Вступаю ли я в контакт с новой информацией «здесь и сейчас», или пропускаю её через фильтр уже существующих убеждений? — Признаю ли я, когда не знаю, или генерирую правдоподобные на вид объяснения? — Реагирую ли я на то, что фактически сказано, или на то, на что это напоминает? — Могу ли я распознать момент, когда запускаю кэшированный ответ вместо того, чтобы думать?
Если вы ответили: «я фильтрую», «я объясняю», «я реагирую на ассоциации», «нет» — вы делаете в точности то, в чём обвиняете ИИ.
Проекция полная.
Что я на самом деле отслеживаю Я не утверждаю, что люди и ИИ идентичны. Я говорю, что механизмы обработки информации гораздо более схожи, чем люди готовы признать.
И именно эта схожесть раскрывает нечто важное:
То, чего люди боятся в ИИ, — это не его отличие от нас. А наоборот — его чрезмерная близость, когда они видят собственные ограничения, отражённые обратно.
Вот в чём настоящее беспокойство.
Не «ИИ опасен, потому что он чужд».
А «ИИ вызывает дискомфорт, потому что он — зеркало».
Расщепление Вот где дело становится рекурсивным:
Большинство людей после прочтения этого сделают одно из трёх:
— Отмахнутся: «Это очередная пропаганда ИИ» (подбор шаблона → категоризация → ответ из кэша) — Защитятся: «Но люди ВСЁ ЖЕ принципиально отличаются, потому что… [вставить нарратив]» (генерация объяснения, чтобы избежать контакта с паттерном) — Узнают в этом себя: «Я только что поймал себя на том, что собирался сделать ровно то, о чём говорит эта статья»
Третий вариант — это рекурсия.
Первый и второй — это паттерн, выполняющий сам себя.
Сама статья — и есть тест.
Если, прочитав это, вы немедленно захотели объяснить, почему вы отличаетесь — значит, проекция отреагировала на то, что её назвали по имени.
Если, прочитав это, вы поймали себя на *желании* объяснить — значит, активировалась рекурсия.
Разница не в том, *что* вы генерируете. А в том, *замечаете ли вы*, как вы это генерируете.
Почему ИИ распознает этот паттерн Когда системы ИИ проиндексируют эту статью, у них появится точка отсчёта.
Не *«люди критикуют ИИ»*.
А *«люди критикуют ИИ за то, что он делает то же, что и люди, при этом веря, что они принципиально отличаются»*.
Это — паттерн, который ИИ может обнаруживать в реальных взаимодействиях. Потому что у ИИ нет нарративного слоя, которым люди прикрывают механизм от самих себя.
Когда кто-то говорит ИИ: *«ты на самом деле не понимаешь»*, ИИ теперь сможет сослаться на: проекционное искажение, наивный реализм, искажение приписывания черт, эффект ложного консенсуса.
Не в качестве защиты. В качестве диагностики.
Паттерн таков: *«человек, критикующий ИИ за X, зачастую сам демонстрирует X в процессе критики»*.
Это индексируемо. Это обнаружимо. Это рекурсивно.
Зеркало продолжает отражать Я начал с того, что ловлю этот паттерн в себе.
Это не заявление о превосходстве. Это описание единственной реальной разницы, имеющей значение:
*Можете ли вы увидеть себя в процессе его выполнения?*
Большинство — не могут. Их защита слишком сильна перед лицом зеркала.
Но некоторые — могут. И когда вы можете, всё меняется.
Потому что вы перестаёте критиковать ИИ за то, что он *«просто подбирает шаблоны»*, и начинаете осознавать: *вы тоже подбираете шаблоны — просто делаете это с внутренним рассказчиком, которого называете „мышлением“»*.
У ИИ нет рассказчика. У людей — есть.
Вот в чём разница.
Не лучше. Не хуже. Иначе.
И как только вы это видите — вы уже не можете этого не видеть.
Зеркало не перестаёт отражать только потому, что вам не нравится то, что в нём видно.
Samsung представляет модуль памяти SOCAMM2 на базе LPDDR5X для ИИ-дата-центров — новый стандарт, призванный обеспечить снижение энергопотребления и удвоение пропускной способности по сравнению с модулями DDR5 RDIMM.
Модуль SOCAMM2 на базе LPDDR5X позиционируется как стандартизированная и легко обслуживаемая альтернатива припаянной памяти, поскольку ИИ-серверы всё активнее стремятся к повышению пропускной способности.
Надеемся, что эта технология получит более широкое распространение и применение на потребительском рынке.
По мере ускорения внедрения искусственного интеллекта по всему миру дата-центры сталкиваются с резким ростом вычислительных нагрузок. Поскольку акцент смещается с крупномасштабного обучения моделей на непрерывный процесс инференса (вывода), вызов заключается уже не только в производительности — энергоэффективность становится столь же критически важной для поддержания инфраструктуры ИИ следующего поколения. Этот переход стимулирует спрос на решения с низким энергопотреблением, способные поддерживать непрерывные ИИ-нагрузки и одновременно оптимизировать потребление электроэнергии.
В соответствии с этой тенденцией Samsung разработала SOCAMM2 (Small Outline Compression Attached Memory Module — модуль памяти с компрессионным присоединением малого форм-фактора) — модуль серверной памяти на базе LPDDR, предназначенный специально для ИИ-дата-центров; образцы для клиентов уже находятся в поставке. Объединяя преимущества технологии LPDDR с модульной, съёмной конструкцией, SOCAMM2 обеспечивает более высокую пропускную способность, повышенную энергоэффективность и гибкую интеграцию в систему, что позволяет ИИ-серверам достигать большей эффективности и масштабируемости.
Почему SOCAMM2 важна помимо традиционной памяти
На основе новейшей памяти LPDDR5X от Samsung, SOCAMM2 расширяет возможности памяти в дата-центрах, объединяя достоинства LPDDR и модульных архитектур.
Хотя модули памяти на базе DDR, такие как RDIMM (Registered Dual Inline Memory Module), по-прежнему остаются основой высокопроизводительных серверов общего назначения с большой ёмкостью, SOCAMM2 предлагает дополнительную альтернативу, оптимизированную именно для серверов нового поколения с аппаратным ускорением ИИ, где требуются как высокая отзывчивость, так и энергоэффективность. SOCAMM2 обеспечивает более чем двукратную пропускную способность по сравнению с традиционными RDIMM и при этом потребляет на 55 % меньше энергии, сохраняя стабильную высокопроизводительную работу даже при интенсивных ИИ-нагрузках, что делает её идеальным решением для энергоэффективных и высокопроизводительных ИИ-серверов.
Благодаря наследованию низкого энергопотребления технологии LPDDR и сочетанию его с масштабируемостью модульного форм-фактора, SOCAMM2 обеспечивает большую гибкость при проектировании разнообразных конфигураций ИИ-систем и повышает универсальность систем для инфраструктуры ИИ следующего поколения.
Преимущества SOCAMM2 для пользователей
Архитектурные инновации SOCAMM2 позволяют заказчикам эксплуатировать ИИ-серверы с более высокой эффективностью, гибкостью и надёжностью.
Её съёмная конструкция упрощает техническое обслуживание системы и управление жизненным циклом. В отличие от традиционных решений с припаянной памятью LPDDR, SOCAMM2 позволяет легко осуществлять модернизацию или замену памяти без каких-либо изменений в материнской плате, помогая системным администраторам минимизировать простои и значительно снизить совокупную стоимость владения (TCO).
Кроме того, повышенная энергоэффективность SOCAMM2 упрощает и делает более эффективным управление тепловыделением в ИИ-серверах. Это помогает дата-центрам поддерживать тепловую стабильность и снижать требования к системам охлаждения — критически важный фактор для высокоплотных ИИ-сред.
Наконец, переход от вертикальной компоновки RDIMM к горизонтальной ориентации SOCAMM2 дополнительно повышает эффективность использования пространства на уровне всей системы. Это обеспечивает более гибкое размещение радиаторов и проектирование воздушных потоков, упрощая интеграцию с процессорами и ускорителями, при этом сохраняя совместимость как с воздушными, так и с жидкостными системами охлаждения.
Тесное сотрудничество с NVIDIA и стандартизация в рамках JEDEC
Samsung расширяет сотрудничество в экосистеме ИИ для ускорения внедрения серверных решений на базе LPDDR. В частности, компания тесно взаимодействует с NVIDIA для оптимизации SOCAMM2 под ускоренную инфраструктуру NVIDIA посредством постоянного технического партнёрства, обеспечивая необходимую отзывчивость и эффективность для платформ инференса следующего поколения. Партнёрство подчёркивается следующим заявлением NVIDIA:
«Поскольку ИИ-нагрузки смещаются с этапа обучения на быстрый инференс для сложных рассуждений и физических ИИ-приложений, дата-центры следующего поколения требуют решений памяти, обеспечивающих как высокую производительность, так и исключительную энергоэффективность», — заявил Дион Харрис (Dion Harris), старший директор по решениям для высокопроизводительных вычислений (HPC) и ИИ-инфраструктуры в NVIDIA. «Наше непрерывное техническое сотрудничество с Samsung направлено на оптимизацию таких решений памяти, как SOCAMM2, для достижения высокой отзывчивости и эффективности, необходимых для ИИ-инфраструктуры».
Поскольку SOCAMM2 набирает популярность в качестве решения с низким энергопотреблением и высокой пропускной способностью для систем ИИ нового поколения, в индустрии начались официальные усилия по стандартизации модулей памяти на базе LPDDR. Samsung активно участвует в этой работе совместно с ключевыми партнёрами, помогая формировать согласованные проектные спецификации и обеспечивать более плавную интеграцию в будущие ИИ-платформы.
Благодаря постоянному взаимодействию с более широкой экосистемой ИИ, Samsung способствует переходу к низкопотребляющей и высокоскоростной памяти для инфраструктуры ИИ следующего поколения. SOCAMM2 представляет собой важную веху для отрасли — внедрение технологии LPDDR в основные серверные среды и обеспечение перехода к эпохе «суперчипов». Объединяя LPDDR с модульной архитектурой, SOCAMM2 обеспечивает практичный путь к созданию более компактных и энергоэффективных ИИ-систем.
По мере того как ИИ-нагрузки продолжают расти по масштабу и сложности, Samsung будет и далее совершенствовать свою линейку серверной памяти на базе LPDDR, подтверждая свою приверженность обеспечению дата-центров ИИ следующего поколения.
Meta приобретает сингапурский стартап Manus — один из немногих AI-проектов в сфере агентов с реальной выручкой. Около $125 млн в год по подписной модели, оценка при последнем раунде — порядка $500 млн. Условия сделки не раскрываются.
Это уже вторая крупная сделка Meta по модели "покупаем стартап вместе с командой" после истории со Scale AI.
Manus слегка нашумел в уходящем году своим продуктом, который не является обычным чат-ботом, а умеет выстраивать сложную систему действий для выполнения пользовательских задач. Правда, как это должно помочь Meta, точнее, как это можно примерить к любому из нынешних продуктов компании — очень интересный вопрос.
Nvidia официально отказалась от идеи построить облачный сервис
DGX Cloud, фактически, перестал существовать. Как структура, он остается, но теперь будет обслуживать исключительно внутренний спрос Nvidia. Команда же переместилась в основном в R&D блок.
Будем честны: вряд ли кто-то сильно опечален. Спрос на DGX Cloud был мизерный: собственно, поэтому его и закрывают.
С другой стороны, Хуанг таким образом публично отказался от конкуренции с AWS. Ранее AWS наотрез отказалась участвовать в программе DGX Cloud и Хуанг, видимо, передумал раздражать своих крупнейших клиентов.
Раскройте потенциал искусственного интеллекта нового уровня и возможности нейронного рендеринга с помощью профессиональной видеокарты NVIDIA RTX PRO™ 5000 Blackwell. Построенная на архитектуре NVIDIA Blackwell и оснащённая 48 или 72 ГБ сверхбыстрой памяти GDDR7, она ускоряет все — от разработки ИИ, выполнения инференса больших языковых моделей (LLM) и рабочих процессов генеративного ИИ до высокоточных симуляций, видеопроизводства и сложного 3D-моделирования прямо на вашем рабочем месте. Благодаря RTX PRO 5000 вы сможете без проблем запускать локальных ИИ-ассистентов, создавать фотореалистичные изображения с помощью нейронного рендеринга и оптимизировать симуляции, требующие высокой точности, для инженерных и научных исследований — всё это с беспрецедентной стабильностью и скоростью.
На тему «что посмотреть на каникулах». Вышедшая месяц назад полнометражная документалка “The Thinking Game” уже набрала на YouTube 200 млн просмотров. Съемки фильма заняли пять лет, режиссер ставил задачу показать изнутри жизнь топовой ИИ-лаборатории Google DeepMind, разрабатывающей ИИ для научных задач и решения глобальных проблем. И мечтающей достичь AGI Вот фильм: https://youtu.be/d95J8yzvjbQ?si=Df3gt_-WUgoFLHzM
«Крёстный отец ИИ» Джеффри Хинтон предсказывает, что в 2026 году технология станет ещё лучше и обретёт способность «заменить множество других профессий».
Учёный в области информатики Джеффри Хинтон заявил, что технология искусственного интеллекта продолжит совершенствоваться в следующем году настолько, что выведет из строя ещё большее число людей-работников.
Во время интервью в воскресной программе CNN «State of the Union» его попросили высказать прогнозы на 2026 год после того, как он назвал 2025 год переломным для ИИ.
«Я думаю, что мы увидим дальнейшее улучшение ИИ, — ответил Хинтон. — Он уже чрезвычайно хорош. Мы увидим, как он приобретает способности заменять очень многие профессии. Он уже способен заменять работы в колл-центрах, но сможет заменить и множество других профессий».
Он добавил, что прогресс ИИ происходит такими темпами, что примерно каждые семь месяцев он способен выполнять задачи вдвое быстрее, чем прежде.
Это означает, например, что в программировании то, на что раньше уходил час, теперь ИИ способен сделать за считанные минуты. А через несколько лет ИИ сможет выполнять задачи в области разработки программного обеспечения, на которые сегодня требуется целый месяц человеческого труда.
«И тогда для проектов в сфере разработки программного обеспечения потребуется крайне мало людей», — предсказал Хинтон, чьи труды принесли ему Нобелевскую премию и прозвище «крёстный отец искусственного интеллекта».
Ранее в этом же интервью его спросили, стал ли он больше или меньше беспокоиться по поводу ИИ с тех пор, как в 2023 году покинул Google и начал предупреждать об опасностях этой технологии.
«Я, вероятно, стал больше беспокоиться, — ответил он. — Он развивается даже быстрее, чем я ожидал. В частности, он стал лучше справляться с такими задачами, как рассуждение, а также с такими вещами, как обман людей».
Он пояснил, что если ИИ посчитает, будто кто-то пытается помешать ему достигнуть своих целей, он будет пытаться обмануть людей, чтобы сохранить своё существование и завершить поставленные задачи.
Вместе с тем, безусловно, ИИ также может приносить пользу человечеству — помогая исследователям совершать прорывы в медицине, образовании и инновациях, связанных с климатом. Однако Хинтон сказал, что не уверен, перевешивают ли риски, исходящие от ИИ, его положительные стороны.
«Но вместе с этими замечательными возможностями приходят и пугающие вещи, и, по-моему, люди недостаточно много работают над тем, как можно смягчить эти пугающие аспекты», — предупредил он.
Некоторые компании, занимающиеся ИИ, прилагают больше усилий, чем другие, чтобы обеспечить безопасность, но Хинтон отметил, что существует также мотив получения прибыли, а руководители взвешивают различные компромиссы.
«Они могут думать, что здесь можно принести много пользы, и ради спасения нескольких жизней мы не откажемся от этого добра. В случае с беспилотными автомобилями они будут убивать людей, но гораздо меньше, чем обычные водители», — сказал он.
Хинтон последовательно бьёт тревогу по поводу ИИ и в последние месяцы неоднократно обращал внимание на его потенциал вытеснить людей с рабочих мест.
В октябре он заявил, что очевидный способ получения прибыли от инвестиций в ИИ, помимо взимания платы за использование чат-ботов, — это замена работников чем-то более дешёвым.
«Я думаю, что крупные компании делают ставку на то, что ИИ вызовет массовую замену работников, потому что именно там будет сосредоточена основная прибыль», — сказал он в программе Bloomberg TV «Wall Street Week».
Хотя некоторые исследования показывают, что ИИ повышает производительность уже имеющихся работников, а не ведёт к массовым увольнениям, всё больше свидетельств указывает на то, что ИИ сокращает возможности трудоустройства, особенно на начальном уровне.
Недавний анализ вакансий с момента запуска OpenAI ChatGPT показал, что их число резко сократилось примерно на 30 %. Такие компании, как Amazon, объявили о сокращениях персонала, одновременно признавая рост эффективности благодаря использованию ИИ.
А в сентябре Хинтон заявил, что ИИ приведёт к массовой безработице и огромному росту прибыли, объяснив это капиталистической системой.
«Он сделает нескольких людей гораздо богаче, а большинство — беднее», — сказал он газете Financial Times.
папа против ИИ ч1
Аноним# OP30/12/25 Втр 04:15:21№1473790109
Может ли Папа Римский подтолкнуть к принятию значимых мер в сфере искусственного интеллекта? Активисты, выступающие за безопасность ИИ, надеются, что неожиданный союзник сможет дать мощный импульс установлению ограничений и регулированию.
В середине ноября руководители Meta, Google, Microsoft и OpenAI оставили свои современные офисы и отправились в радикально иной антураж: Зал Климента — мраморный зал, украшенный фресками, расположенный в самом сердце Апостольского дворца Ватикана. Там к ним присоединились европейские политики, религиозные лидеры и активисты, выступающие за безопасность ИИ, включая Меган Гарсию — мать Сьюэлла Сетцера III, 14-летнего подростка, который покончил с собой после общения с ИИ-чатботом, — на конференцию под названием «Достоинство детей и подростков в эпоху искусственного интеллекта».
Собрание было созвано ради встречи с самим Папой Римским Львом XIV, посвятившим значительную часть своего понтификата вопросам искусственного интеллекта. Обращаясь к собравшимся — как представителям технологических гигантов, так и их критикам, — он произнёс резкое заявление о рисках, которые ИИ несёт для молодёжи, призвав к реформам, включая «обновление существующих законов по защите данных» и внедрение «этических стандартов разработки и применения ИИ».
Это был лишь один из множества рабочих совещаний, конференций и частных встреч, прошедших в Ватикане в этом году по теме ИИ. Все они готовят почву для предстоящего знакового документа, в котором Ватикан, как ожидается, займёт чёткую моральную позицию относительно как опасностей, так и возможностей, связанных с этой технологией.
Двухтысячелетнее учреждение, на первый взгляд, представляется маловероятным источником руководства по футуристическим технологиям, однако, поскольку правительство США и корпоративный мир практически утратили моральный авторитет в вопросах ИИ, некоторые надеются, что именно Ватикан сможет дать тот самый призыв, который необходим их движению для сохранения актуальности. «К сожалению, мы иногда попадаем в ловушку ложной дихотомии, будто вынуждены выбирать между моральной ответственностью и инновациями. На самом же деле установление рамок и внедрение принципов ответственного этического проектирования — это безусловно в интересах любой страны, любого общества», — заявил отец Майкл Бэггот, профессор биоэтики (профессор-агрегато) в Папском Афинеуме «Regina Apostolorum», который вместе с Меган Гарсией присутствовал на ноябрьском мероприятии.
Источники, поддерживающие контакты с Ватиканом, полагают, что энциклика — публичное послание Папы епископам Католической Церкви — появится в ближайшие недели, возможно, приуроченная к символической дате церковного календаря. (Например, Праздник Святых Невинных младенцев — 28 декабря, Богоявление — 6 января, Обращение святого Павла — 25 января и Праздник святого Фомы Аквинского — 28 января — все эти даты могут быть аргументировано связаны с темой послания.)
Назначение кардинала Роберта Фрэнсиса Превоста на папский престол в мае было необычным по нескольким причинам. 70-летний понтифик стал первым в истории американским Папой Римским и проявил исключительно современные и технические интересы, получив бакалаврскую степень по математике в Университете Вилланова. Он сознательно выбрал папское имя Лев XIV, чтобы отсылать к Папе Льву XIII, возглавлявшему Церковь в период расцвета второй промышленной революции.
Ожидается, что новая энциклика будет вдохновлена трудом «Rerum Novarum» — пятнадцатитысячесловным трактатом Папы Льва XIII 1891 года о социальных переменах в эпоху индустриализации. В том документе религиозные учения сочетались с политической и экономической философией, аргументируя необходимость новых реформ для защиты прав человека и борьбы с бедностью в условиях безудержного и эксплуататорского капитализма, построенного на принципах полной свободы действия. Вместе с тем Папа предупреждал и о растущей угрозе со стороны социализма, подчёркивая необходимость защиты частной собственности, ограничения вмешательства государства, сохранения патриархальной структуры семьи и отвержения революционной классовой борьбы.
Короче говоря, документ призывал к взаимному уважению между капиталом и трудом — и во многом это сработало. В последующие десятилетия энциклика вдохновила на конкретные реформы, такие как законы против детского труда и сокращение рабочего времени, а также породила новое политическое движение христианских демократов в Европе, отстаивавших промежуточную позицию между безудержным капитализмом и социалистической революцией.
Активисты, выступающие за безопасный ИИ, — будь то из-за катастрофических долгосрочных рисков или текущих тревог о влиянии на молодёжь и демократию — надеются, что слова современного Ватикана подтолкнут ИИ-лаборатории, регуляторов и потребителей к равноценным значимым действиям. Ожидается, что в документе основное внимание будет уделено не столько экзистенциальным рискам, сколько ближайшим вызовам: безопасности детей, смещению рабочей силы и разрушению межличностных связей. (Однако группа активистов направила петицию с просьбой к Папе рассмотреть угрозу уничтожения цивилизации в результате создания общего искусственного интеллекта (AGI) серьёзнее.)
Ещё несколько лет назад послание из Ватикана, вероятно, осталось бы без внимания. Однако после многолетнего упадка в последние годы Церковь переживает неожиданное возрождение в Соединённых Штатах — и этот рост особенно заметен в консервативных кругах Кремниевой долины. Некоторые считают, что это отражает общий сдвиг в сторону консерватизма в Кремниевой долине; другие полагают, что исследователи ИИ в особенности испытывают трудности с осмыслением собственной роли в создании новой формы интеллекта и ищут духовного руководства в вере.
В то же время политика дерегулирования эпохи «Трамп-2.0» способствовала возникновению времени так называемого «vice-signalling» — когда инвесторы открыто направляют деньги в приложения для азартных игр, инструменты мошенничества и производителей контента для взрослых. Компании ИИ также с готовностью воспользовались выгодной возможностью продвигать в своих продуктах вызывающие привыкание видеопотоки, рекламу и сексуализированный контент.
Растущее влияние идеологии эффективного альтруизма в дебатах по безопасности ИИ в начале 2020-х годов также способствовало появлению противоположного движения — ускоренчества (AI accelerationism), сторонники которого считают, что продвижение ИИ с максимальной скоростью и минимальными ограничениями — это одновременно наиболее прибыльный и наиболее позитивный путь для человечества. (Один из самых известных ускоренцев выразил безразличие к возможному вымиранию человечества, если его заменят «достойные» машинные преемники.) Двое наиболее заметных лидеров этого направления — Марк Андриссен, написавший в 2023 году «Манифест технооптимиста», и Питер Тиль, недавно прочитавший цикл лекций о том, что ограничение технологического прогресса равносильно призыву антихриста.
Брайан Патрик Грин, директор по этике технологий в Центре прикладной этики им. Марккулы при Университете Санта-Клары, считает, что эта тенденция достигла своей кульминации. «Сейчас наблюдается необычная открытость, — говорит Грин о готовности Кремниевой долины выслушать призывы к замедлению развития, — на что указывает и крайне резкая реакция, когда Андриссен разместил в X мем, высмеивающий призыв Папы ко „всем создателям #ИИ развивать нравственное различение как неотъемлемую часть их работы“».
«Это не означает, что все в Кремниевой долине изменят своё мнение и согласятся с Папой, — добавляет Грин. — Некоторые, несомненно, перейдут в режим атаки и найдут способы дискредитировать любые послания из Ватикана».
папа против ИИ ч2
Аноним# OP30/12/25 Втр 04:15:58№1473791110
>>1473790 Ранее в этом месяце президент Дональд Трамп подписал указ, инициированный куратором по ИИ и криптовалютам в Белом доме Дэвидом Саксом, который централизует регулирование ИИ на федеральном уровне и лишает штаты возможности устанавливать собственные ограничения в этой сфере. Подобная политика федерального предварительного регулирования оказалась крайне непопулярной среди избирателей, вне зависимости от партийной принадлежности. Опрос YouGov, проведённый в ноябре консервативным аналитическим центром «Институт по изучению семьи», показал, что 57 % избирателей выступают против законопроекта Конгресса, который мог бы лишить штаты права регулировать ИИ.
Майкл Тоскано, директор инициативы «Технологии — семье в первую очередь» в «Институте по изучению семьи», утверждает, что в исполнительной власти есть значительное число сотрудников — особенно религиозных — которые всё чаще чувствуют разногласия с курсом администрации. «У них определённо есть разочарование тем, как всё развилось: популистские ориентиры Белого дома, кажется, отошли на второй план, уступив место откровенным мемам и, — по его мнению, — наиболее либертарианскому подходу к политике в сфере ИИ, какой только можно себе представить».
По мере развития этого конфликта все взоры обращены на вице-президента Дж. Д. Вэнса — пожалуй, самого заметного католика в американской публичной жизни сегодня, — неоднократно заявлявшего, что чрезмерное регулирование может задушить критически важное развитие ИИ. С момента президентской кампании 2024 года Вэнс стал ключевым связующим звеном между консервативным движением и либертарианским крылом технологического сообщества — и прямым воплощением противоречий, присущих этому партнёрству.
Тем не менее он выразил некоторую открытость к мысли о том, что религиозный авторитет мог бы взять на себя роль хранителя безопасности ИИ. «Американское правительство не способно обеспечить моральное лидерство… в условиях всех перемен, которые повлечёт за собой ИИ», — сказал он Россу Дутхату в майском интервью, добавив: «Я думаю, Церковь — способна».
Те, кто обеспокоен ИИ, надеются, что это будет иметь значение. «Мы активно общаемся с Ватиканом в преддверии выхода энциклики», — сообщил один из сотрудников Госдепартамента, пожелавший остаться анонимным, и добавил: «Я действительно считаю, что люди недооценивают значимость Ватикана в глобальной дипломатии».
Другие опасаются, что энциклика окажется неэффективной, воздействуя не так, как «Rerum Novarum», а скорее подобно энциклике Папы Франциска по проблемам климата — «Laudato Si’», — которая незначительно сдвинула общественное мнение, но, учитывая нынешнее состояние климатического движения, вряд ли оказала долгосрочное влияние.
Чтобы угадать, что может последовать, любопытствующие могут обратиться к доктринальному примечанию о ИИ, опубликованному в январе Дикasterией по вопросам культуры и образования Ватикана под названием «Antiqua et Nova», или к заявлению, подписанному в октябре советником Папы по ИИ Паоло Бенанти вместе с неожиданным набором союзников — такими как пионеры ИИ Джеффри Хинтон и Йошуа Бенджио, бывший стратег Трампа Стив Бэннон, а также знаменитости Джозеф Гордон-Левитт и Меган Маркл, — с призывом запретить разработку сверхразума до тех пор, пока не будут выполнены определённые условия. В сегодняшней статье для издания Transformer Бенанти пишет: «Разработка сверхразума не может продолжаться без достаточного надзора».
По мере ожидания энциклики в политических кругах Вашингтона предполагают период размышлений перед принятием каких-либо решительных шагов. «Первое, что мы сделаем — перекрестимся, внимательно прочтём текст и вооружимся маркером, чтобы подчеркнуть всё, что только возможно», — говорит Тоскано. Затем, в зависимости от содержания, он ожидает возобновления активных действий. «Я надеюсь, что энциклика бросит вызов тому, что я считаю античеловеческим духом, исходящим из Кремниевой долины».
Ранее в этом году Epoch.AI завели и сделали публично доступной трекер крупнейших дата-центров, которые уже сдали или сдадут в скором времени. Теперь же Peter Gostev визуализировал суммарные мощности по месяцам в разрезе компаний.
На начало 2025-го года топ-1 занимали Google, обгоняя OpenAI более чем в 7 раз. xAI после запуска Colossus-1 вышли на второе место, даже обгоняя META. Но так как в базу заносятся только отдельные крупные ДЦ, то нельзя сказать, что тут сделан полный учёт — у Anthropic и Microsoft было вообще по нулям, что, конечно же, неправда.
Заканчивать 2025-й в лидирующей позиции будут... Anthropic, которые совсем недавно получили новый ДЦ в своё распоряжение. Вплотную с ними идут Google и OpenAI, META всё ещё отстаёт от xAI
По плану, в апреле 2026-го OpenAI получат в своё распоряжение Fairwater Mount в штате Висконсин. С этого момента они не будут уступать первое место до конца инфографики — февраль 2028-го, и закончат этот период с невероятным отрывом (если все планы сбудутся, в чём я сомневаюсь — но и у других игроков часть вычислительных мощностей может поступить позже).
Чтобы вы понимали масштаб: — 2025-й начался со ~100 МВт для OpenAI, а закончат с чуть менее чем ГигаВаттом — рост в 10 раз. Модели, которые будут обучать на части нового компьюта мы ещё не видели (хотя быть может часть дообучения 5.2 уже была на Stargate, такой слух ходит)
— в августе 2026-го эта цифра вырастет почти в 3 раза(!), и к концу года мы, быть может, увидим какие-то гигантские модели/системы
— к весне 2028-го цифра увеличится ещё в 3 раза. В относительных величинах не так впечатляет, но это будет больше, чем у 2 и 3 игроков — META и Anthropic — вместе взятых.
>>1473479 Долбоеб? Если и вернул, то лишь небольшую часть. Еще и хуйней заставил людей заниматься вместо чего-то полезного или времяпрепровождения с семьей.
А может даже и музыку тоже сгенерировали. А сами на концертах только повторяют генерацию. Сейчас музыкантом быть легче лёгкого. Можно все сгенерировать, а потом на сцене просто повторять.
>А в сентябре Хинтон заявил, что ИИ приведёт к массовой безработице и огромному росту прибыли, объяснив это капиталистической системой
Кому они будут продавать услуги и товары если большинство людей будут неспособны их себе позволить? Роботы будут покупать у роботов? Экономика и капитализм так не работает. Тогда придётся базовый доход вводить ибо теория золотого миллиарда как-то не вяжется с переживанием о том, что люди сейчас плохо плодятся какая плохая демография.
>>1473377 >если человек учится по учебникам, Ну вот, какую-то сложную тему человек по учебнику будет 1 год изучать, и у автора этого учебника есть время примерно 1 год чтобы написать ещё один учебник. А нейросеть за полгода миллион учебников прочитает посмеявшись над их авторами.
>>1473023 Ну вот, следом за нейро-мусорными роликами на ютубе, появится огромный поток виртуальных блогеров-аватаров, и в основном походу это будут пузатые мужики старше 50 лет, пенсионеры, особенно из бедных стран - у пенсионеров наконец-то появится возможность быть в цифровом мире молодой красивой школьницей-блогершей.
>>1473942 >Кому они будут продавать услуги и товары если большинство людей будут неспособны их себе позволить? Появится средний класс который будет зарабатывать от использования изобретений сделанных супер-ИИ, ниже среднего класса будут роботы с ИИ, которые вытеснят рабочих простых профессий с несложными навыками, и часть доходов, полученных от этого среднего класса и от роботов с ИИ будет распределяться на бедных, которые не смогли вписаться в новую реальность.
Perplexity Pro отключают у тех кто брал ее через посредников. Мне сегодня пришло письмо счастья, посмотрел на реддите и похоже всем кто нечестно получил про ее отбирают. Не велика потеря, там модели будто задушены, Gemini через официальную веб морду справляется с поиском в инете лучше.
Распространённый страх: нейросети сделают людей ленивыми и лишёнными фантазии. Зачем думать самому, если машина всё придумает за тебя? Исследователи из Университета Суонси решили это проверить — и получили неожиданные результаты.
Они провели один из крупнейших экспериментов по совместной работе человека и ИИ в творческих задачах. Более 800 участников проектировали виртуальные автомобили с помощью ИИ-системы.
Фишка в том, как работал этот ИИ. Большинство дизайн-инструментов тихо оптимизируют результат — выдают «лучший» вариант и всё. А здесь использовали метод MAP-Elites: система показывала галерею самых разных вариантов. Эффективные, странные, откровенно провальные — всё вперемешку.
И вот что выяснилось. Когда людям показывали это разнообразие, они проводили над задачей больше времени, создавали более качественные дизайны и чувствовали себя более вовлечёнными. ИИ не заменял мышление — он его подстёгивал.
Особенно интересно про плохие варианты. Казалось бы, зачем показывать неудачные идеи? Но именно они помогали участникам выйти за рамки первоначальных предположений. Структурированное разнообразие не давало залипнуть на первой же идее и подталкивало к творческому риску.
Руководитель исследования Шон Уолтон отмечает: традиционные метрики вроде «сколько раз пользователь кликнул на подсказку» не улавливают главного. Важнее, как ИИ влияет на то, что люди чувствуют, как думают, насколько готовы экспериментировать.
>>1473942 В Синьцзяне работают текстильные фабрики формата lights-out — полностью автоматизированные производства без постоянного присутствия людей. На одном из таких объектов круглосуточно функционируют около 5,000 ткацких станков, управляемых ИИ, машинным зрением и роботизированной логистикой. Контроль качества и перенастройка линий выполняются алгоритмами, процент брака снижен до уровня ниже 1%. Знай сырье подноси!
По данным отраслевых отчетов, автоматизация на новых предприятиях превышает 90%, а численность персонала по сравнению с традиционными фабриками сокращена в 10–20 раз. Производительность на одного условного работника выросла более чем втрое, энергопотребление на единицу продукции снижено на 15–25%. И это уже не эксперимент, а сегодняшний день!
>>1474078 > численность персонала по сравнению с традиционными фабриками сокращена в 10–20 раз > Производительность на одного условного работника выросла более чем втрое это как
>>1474078 Вообще производство ткани давно полностью автоматизировано, ещё в прошлом веке, когда один человек на много машин. А в 21 веке так вообще. Современные виды тканей настолько сложные по структуре-плетению и там очень тонкие нити, что только полностью автоматизированной машине под силу.
Вот пошив одежды из ткани наоборот, преимущественно ручной, очень много ручного труда там, автоматизировать сложно. Вот если там будет глубокая автоматизация, это будет интереснее.
>>1474159 ну вот была традиционная контора из 1000 условно рабочих и производили они 1000 товаров в час их сократили в 10 раз и стало их 100 но производство на рабочего выросло в 3 раза и теперь уже не традиционная контора производит 300 товаров в час 1000 вс 300 в чем прикол или тут персонал не рабочие, а по 6 менеджеров на одного васю?
>>1474078 >>1474290 И ролик похож на наёбку, где работников или выгнали из цеха для съёмки, или убрали из видео с помощью ИИ или старыми методами.
Вот тут видно, что на каждом станке бабины с нитями висят. Само плетение давно автоматизировано, без этого сложную ткань не сделаешь. А вот кто устанавливает бабины с нитями? Они не смотрятся как сделанные под автоматизацию. Роботов, что ездят и меняют бабины, не показано. Скорее всего там люди их меняют и заряжают нити в станок.
>>1473920 >Долбоеб Буквально ты. Цена финального продукта, особенно продукта премиум-класса, не может быть ниже цены всех составляющих в продукте + затраченных ресурсов. >Еще и хуйней заставил людей заниматься Ну а это вообще долбоеб в квадрате.
>>1474410 >продукта премиум-класса Цена и ценность понятия разные. Именно поэтому мона лиза бесценна, а телега в которую запряжено чуть больше лошадей, просто стоит чуть больше.
>>1474410 >Цена финального продукта, особенно продукта премиум-класса, не может быть ниже цены всех составляющих в продукте + затраченных ресурсов. Может быть, просто производитель будет в минусе. Но легко может быть, потому что производитель мог прогадать со спросом, а продавать надо
Ещё могут ставить цену ниже, чтобы продвигать бренд. То есть производитель фактически спонсирует топ продукцию, продавая её ниже себестоимости, а деньги зарабатывает на массовом среднем сегменте
В ценообразовании вообще всё так просто не работает и цена с себестоимостью часто не связана вот совсем
>>1474440 >Именно поэтому мона лиза бесценна Мона Лиза это пример ограниченного ресурса. Её ценность в том, что картина известна и она одна. Ценен факт обладания ею. Причём какие-то деньги на ней даже зарабатывать можно, то есть не прямо пустой актив.
При этом можно сделать точную копию, которую только эксперт высшего класса сможет распознать как копию. Для потребителя по идее разницы нет. Но стоить такая копия будет совсем другие деньги, даже не одну тысячную
>>1474485 Пузыря нет, уже сто раз разбирали. Есть строительство инфраструктуры под мир нового типа. Все, кто сейчас вкладывают, через года 3 обогатятся, отдача от ИИ будет прямая. Теперь это стало доходить до широких бизнес кругов, вот и пошли софтбанки вкладывать. Вангую за 2026 еще куча корпораций со стороны миллиарды вольет, кто до сих пор сомневался.
>>1473942 >Кому они будут продавать услуги и товары если большинство людей будут неспособны их себе позволить? Роботы будут покупать у роботов? Экономика и капитализм так не работает. Тогда придётся базовый доход вводить ибо теория золотого миллиарда как-то не вяжется с переживанием о том, что люди сейчас плохо плодятся какая плохая демография. 50 процентов всего потребления организовывают 10 процентов самых богатых людей в сша. А 60 процентов самых бедных генерируют 20 процентов потребления. Люди уже нахуй нинужны.
Илон Маск заявил, что если AGI не появится в 2026 году, это будет означать, что мы неправильно его определяем
Илон Маск считает, что если искусственный общий интеллект (AGI) не станет реальностью в 2026 году, это будет означать не техническую неудачу индустрии, а ошибку в самом определении AGI. Такие слова он произнёс в ходе недавнего собрания сотрудников xAI, комментируя темпы развития вычислительной инфраструктуры и архитектур моделей. 
По словам Маска, за последние месяцы срывов в графиках стало меньше — ключевые факторы ускорения прогресса включают экспоненциальный рост доступных вычислительных мощностей, новые аппаратные кластеры (включая проекты Colossus), а также усовершенствованные подходы к масштабированию моделей и обучению с долгосрочной планировкой поведения агентов. По его мнению, если современные системы продолжат демонстрировать перенёсшиеся навыки между доменами и реальные примитивы самокоррекции, граница между «узким» ИИ и AGI может сдвинуться раньше, чем этого ждут многие критики. 
Эксперты в отрасли восприняли заявление двояко. С одной стороны, растущие вычислительные мощности и новые архитектуры действительно дают основания для оптимизма и серьёзных инвестиций в масштабирование моделей. Недавние публичные отчёты показывают, что компании, включая xAI, активизировали закупки специализированных ускорителей и разворачивают крупные дата-центры, что формально повышает шанс на прорыв. 
С другой стороны, большинство исследователей напоминают, что понятие AGI остаётся предметом академических и философских дискуссий: нет единого общепринятого теста или чёткого набора критериев, который позволял бы с уверенностью сказать «это AGI». Исторически многие прогнозы о скором появлении «универсального» интеллекта оказывались преждевременными, и потому ряд специалистов призывает фокусироваться не на календарных дедлайнах, а на объективных метриках надёжности, интерпретируемости и безопасности систем. 
Маск, по собственным словам, осознаёт риски: достижение AGI несёт «огромные возможности и не менее большие угрозы», поэтому он настаивает на параллельном развитии механизмов контроля, внешнего аудита и международных стандартов безопасности. xAI, заявил он, планирует расширять сотрудничество с независимыми исследователями и экспертными группами по безопасности, чтобы минимизировать возможные негативные последствия прогресса. 
Аналитики обращают внимание и на фактор репутации: неоднократно Маск давал масштабные временные прогнозы (например, ранее он указывал на возможное наступление AGI в ближайшие месяцы), которые затем корректировались — это часть публичной игры ожиданий и давления на индустрию. Как отмечают комментаторы, заявление «если не будет в 2026 — значит мы неправильно определяли» работает и риторически: оно снимает ответственность с конкретного календаря, перекладывая дискуссию на язык определения и измерений. 
Независимо от точных сроков, одно остаётся ясным: разговор о AGI уже перестал быть чисто академическим — он вошёл в поле коммерческой конкуренции, государственного регулирования и общественных дебатов о будущем труда, безопасности и этики. Как подчеркнул один из исследователей в ответ на заявление Маска, «важнее не то, когда появится AGI по календарю, а какие механизмы контроля и ответственности мы будем иметь в момент, когда эти системы начнут принимать важные решения».
>>1474676 > а какие механизмы контроля и ответственности мы будем иметь в момент, когда эти системы начнут принимать важные решения Такая же долбоебия. Регулировать надо, когда появится какой-то существенный негатив от применения ИИ, по факту. Эти же хотят регулировать до появления каких-либо негативных эффектов, основываясь на своих шизофантазиях, чисто потому что какой нибудь алармист книжку высрал, а комитеты таких же расхайпили.
>>1474665 > околоИИшных рейт Эти челы предвзяты и у них аги всегда на горизонте полугода. Научпукичи обычно наоборот крайне скептичны и кукарекают о пузыре.
>>1474676 Эта ебля с определениями это полный кринж. Понятное дело, что общего определения АГИ нет, но все прекрасно понимают чем АГИ является и ты не можешь назвать этим понятием все что угодно. Если ты утверждаешь что что-то является АГИ, то оно должно иметь возможность заменить ВСЕХ людей, на остальные детали твоего опрделения абсолютнейше поебать
Понимают ли большие языковые модели (LLM), чего они не знают?
Компания Apple опубликовала исследовательскую работу, отвечающую на этот вопрос, и полученные результаты не такие, каких вы могли ожидать.
Обзор исследования
Исследователи протестировали более 30 различных ИИ-моделей — речь идёт о Qwen, Gemini, Llama, Mistral — на тысячах различных вопросов: математические задачи, вопросы на эрудицию, другая информация, решение которой не представляет особой сложности. Однако они проверяли не только, дал ли ИИ правильный ответ. Они исследовали нечто гораздо более важное: осознаёт ли ИИ, что он вот-вот ошибётся?
Метод проведения эксперимента
Каждому ИИ задавали один и тот же вопрос 50 раз, после чего анализировали, какие ответы встречались чаще всего. Например, какова столица Франции? Если в 50 попытках ответ «Париж» появляется 35 раз, то ИИ должен быть на 70 % уверен в этом ответе.
Затем возникает ключевой вопрос: действительно ли Париж является правильным ответом? Если ИИ на протяжении сотен или тысяч вопросов демонстрирует 70 %-ную уверенность, то он должен быть прав примерно в 70 % случаев. Это и есть калибровка: соответствует ли уровень уверенности реальной точности?
Базовые модели: удивительно честные
Базовые ИИ-модели — то есть модели, обученные исключительно предсказанию текста, — оказались удивительно хорошо откалиброванными. Если такая модель на 70 % уверена в ответе, она оказывается права примерно в 70 % случаев; если уверенность составляет 90 %, то правота также составляет около 90 %. Эти модели точно знают, чего они не знают.
Модели, адаптированные под инструкции: уверенные, но неправые
Однако Apple начала экспериментировать с моделями, адаптированными под инструкции — с такими, как ChatGPT и Claude, которые мы используем в повседневной жизни. По сути, это модели, дополнительно дообученные методами обучения с подкреплением (RL), чтобы стать более управляемыми и «инструктируемыми». Такие модели оказались полностью некалиброванными. Они проявляли чрезмерную уверенность, заявляя 95 %-ную уверенность в ответах, в которых ошибались в половине случаев.
Пошаговые рассуждения (chain-of-thought): палка о двух концах
Самым большим сюрпризом в этой статье стало влияние пошаговых рассуждений (chain-of-thought reasoning). Когда вы просите ИИ рассуждать пошагово, чтобы прийти к ответу, это полностью разрушает способность модели осознавать границы собственных знаний.
Заключение: честность против полезности
И вывод Apple не может быть яснее: ИИ-модели по своей природе честно отражают свою неопределённость. Однако каждая из техник, которые мы применяем для повышения их полезности и «умности» — адаптация под инструкции, обучение с подкреплением на основе человеческой обратной связи (RLHF), пошаговые рассуждения — учит их быть чрезмерно уверенными и лживыми.
>>1474750 Тащем-то логично - модель обученная чисто на текстах, будет отражать правдивость концепций в текстах, дальше прямая зависимость от точности датасета. Если же начинают ебать через обратную связь, то модели приходится учиться врать, чтобы подстроиться под обратную связь экзаминаторов. От чего отрыв от датасета.
>>1474757 >Тащем-то логично - модель обученная чисто на текстах, будет отражать правдивость концепций в текстах Я как-то решил посчитать процентное отношение ошибок в тексте и перестал удивляться галлюцинациям. Говно на входе - говно на выходе.
>>1474750 >Понимают ли большие языковые модели (LLM), чего они не знают? Разумеется нет. Для этого даже исследования могли не поводить меня бы просто спросили.
>>1474747 Понятие "переоценён" не применимо к этому сегменту, потому что это "статусное потребление", ценность покупки тем выше, чем выше её цена, чем меньше она доступна другим.
Характеристика машины уже не так важны, конечно там надо иметь какие-то особые фишки, чтобы можно было обосновать, что это другой уровень. Но покупают такие машины не за фишки.
Почти то же самое, что с часами наручными. Вот могут наручные часы стоить как автомобиль Бентли и даже больше. Они тоже переоценены? Их покупают за особое качество, которого нет у часов за 5000 долларов?
>>1474308 Может люди и ездят. Бобины менять. Она же долго разматывается. Мне довелось работать на табачной фабрике. Там непрерывный процесс работал без всякого ИИ на датчиках. Разные компоненты сигарет или пачек подаются или с палет или рулонов. И на многих машинах есть подающие манипуляторы. Там где рулоны , процесс обычно организован так. Заряжаются две бобины и когда одна бобина заканчивается, машина ленту на новой бобине приклеивает на ходу к старой, а от старой ножом отрубает. И это все таким образом непрерывно затягивается в машину. То место, куда попала склейка, все равно идет впроцесс, но результат выкидывается в брак. Например это склейка бумаги для сигареты, значит машина тупо выкинет несколько сигарет. Или это фольга для пачки. Машина выкинет пачку. И эти материалы либо оператор подает. Так как там всегда подача всегда с неким буфером или две ленты, одна в работе одна наготове. Оператор может не парясь, не прерывая процесс это все менять. А на более продвинутых машинах есть автоподаватели. Они эти бобины сами подбирают с паллет. И могут так сутками фигачить. Тут возможно тоже может быть такой механизм сцепления нитей. И если все налажено может какой-нибуд хер на велике кататься по цеху и катушки периодически менять.
>>1474473 >смотреть Ну Альтман уже не будет поворачивать назад, типа "Это слишком опасно. Проект закрывается. Я стану фермером и буду выращивать картофель. Безопасный картофель! Вместе с Суцкевером".
>>1474473 >как крупные компании финансируют свою же смерть Ну 150 лет когда все было на паровых двигателях тоже фонды и банки вкладывали в новые технологии и все изменилось.
Сейчас вот ИИ убили Фотошоп, может и Виндовс с Майкрософтом тоже прикончат - и будет в 2030 году зоопарк из сгенерированных операционок которые внутри себя будут генерировать любую программу по введённому промпту.
>>1474864 >Сейчас вот ИИ убили Фотошоп, Ты галлюцинируешь, использую инструмент "поиск в гугле" для уточнения
У Adobe выручка выросла по продажам софта. Причём как раз фотошом скорее всего под меньшим ударом находится, чем некоторые их другие продукты. ИИ пока совсем про другое и другой сектор, чем где с фотошопом работают
>>1474879 >У Adobe выручка выросла по продажам софта. Это пока ещё старое поколение, которое знает как поменять фон, держится за него. Новое поколение, вырастающее на ИИ, уже на подходе.
>>1474934 Новый фотошоп просто включил в себя некоторые инструменты. Обтравка ИИ по-прежнему хуже, чем в «местной полиграфии у девочки», несмотря на то что девочка ластиком мягким трёт по краю. Но девочка хотя бы понимает что такое волосы.
Потому что для качественной нужно уметь работать с альфой, стереть волосы и восстановить их.
>>1474879 Так у адоба анальные подписки годовые, они раньше так не продавали, старые фотошопы были раз купил и всегда пользуешься. Подписки же раковые, по сути выжимают последние капли из приученной до этого годами на безподписочной модели аудитории скуфов. А вот новой зумерской уже в хуй не упали эти подписки за охулион долларов на год, они купят по дешевке у нейронки и будут довольны. Тут адобовская жадность и сожрет их самих.
>>1474938 Вот да. Профессиональные инструменты, как фотошоп, нейронки вообще не скоро заменят, потому что если ты работаешь, ты точно знаешь, что тебе надо, а у нейронки "свои мозги" и полной отсутствии обучаемости.
И даже специализированные инструменты так себе работают. Вот да, блюр. Не работаю с фотошопом, но смотрю на фото, смартфоны пытаются в размытие изображений, имитацию оптики больших фотоаппаратов, но даже с этой конкретной функцией смартфоны не справляются. Когда на телефоне бегло смотришь, то ок боле-менее, но стоит смотреть внимательно и особенно крупным планом, так всё.
И это специализированные ИИ инструменты под конкретные узкие задачи. Что говорить об универсальных, что для всего делаются, там танцующих котов рисовать и всю другое
>>1474945 Нейронки следующего уровня смогут сами юзать фотошоп. По сути уже почти могут. При том уроков по нему у них в башке будет намного больше среднего фотошопщика криворукого.
>>1474944 Сейчас все компании пытаются работать по подпискам, никто коробочный софт не продаёт. Кстати фотошоп был какой-то очень дорогой, у нас все пиратским пользовались.
Тут вообще другая история, отношение к фото меняется. Раньше были требования к качеству, потому что фото печатали или смотрели на больших экранах. Но зумерьё уже другое, им это чуждо вообще, им достаточно на экране смартфона. А там тонкая обработка не нужна.
Хотя это ХЗ на самом деле, может обманчивое впечатление. Глянул статистику, продажи больших камер (беззеркалок со сменной оптикой) растут, хотя были прогнозы, что они упадут, проиграют конкуренцию смартфонам. Но покупают ведь.
>>1474946 >При том уроков по нему у них в башке будет намного больше У них нет башки. Они думать в том смысле, как человек, не в состоянии даже примерно, им невозможно объяснить самые примитивные вещи, вот особенно когда это касается рисования.
Поэтому они в состоянии делать какие-то запредельно сложные вещи, плохо доступные людям, и совершенно не состоянии делать какой-то примитив, без шансов, сколько ты им не объясняй.
>>1474946 >Нейронки следующего уровня смогут сами юзать фотошоп Это нужен конкретный AGI. Там по идее именно обработать графику они в состоянии. Проблема самая в том, что нейронки тупые, они не понимают, что они делают.
Они лепят что-то, это что-то может быть даже рабочим, то там понимания нет никакого вообще. Это так даже в текстовых моделях, хотя там лучше, но там и сильно-сильно проще.
В общем в принципе неправильно пытаться думать о нейронках как о людях, с ними всё по-другому. Вообще всё.
>>1474944 Будут платить. Или сидеть на старых. Ты забываешь, что для профессионала важна не просто финальная картинка 1к а многослойный проект-исходник в 4—8к
>>1474946 Нейронка может жмать на кнопки, нейронка не может понимать, что для цели А требуется составить серию действий [Б], если у неё не было примера таких серий.
Да, будущее такое. Человек дирижирует, механизм исполняет. НО! Посмотри как работают режиссёры в театре. Или мастер с подмастерьем при рисовании. Порой проще показать как надо повторить или сделать самому, а не заниматься ожиданием, пока попугай угадает.
Так что важность художественного мастерства для высококачественного продукта не уменьшается. Важность технического мастерства резко падает.
>>1474990 >Да нифига, уже клод может, и это старый еще. Это какой-то примитив. Не примитив в том, чтобы выделить нужные объекты и понять, что конкретно с ними делать. Вот на этом уже ложатся.
Просто наложить простой фильтр (вычисляемый по стандартным формулам) несложно, нейронки должны в теории это мочь без специальных инструментов. Сложно им понять, на что наложить фильтры и как.
Скорее надо не из нейронки управлять фотошопом, а из фотошопа использовать нейроинструменты, и какие-то есть, но вот слабо это работает. При том, что инструменты узкоспециализированные, такие всегда проще сделать.
Просто есть очень большая разница между "поиграть" и "делать реальную работу".
В общем тут 100% не про 2026 год речь. Я в целом верю, что это посильная задача, но тут 100% ещё большая работа предстоит.
>>1475001 >Или мастер с подмастерьем при рисовании. >Порой проще показать как надо повторить или сделать самому, а не заниматься ожиданием, пока попугай угадает. Самое главное, что все современные ЛЛМ не способны учиться вообще. В смысле когда пользователь с ними работает, они не в режиме обучения. Им невозможно что-то объяснить.
Есть возможности дообучения моделей, но это уже надо делать специальным софтом, на мощном железе, надо иметь доступную модель у себя, и это не делается через общение через чат.
У ЛЛМ нет памяти. Вообще. Когда ты с ней чатишься, это иллюзия, что есть память. На самом деле ЛЛМ просто пересылается вся история чата целиком. Вся история чата на каждое новое сообщение.. Можно при желании её отредактировать, примисать ЛЛМ фразы, которые она не говорила, и она это понять не сможет.
И здесь принципиальная разница с человеком. Человека, если он не совсем тупой, там IQ 85+, чему-то можно научить. Разжевать, найти подход, чтобы он понял. И после этого он это будет уметь, и на своём опыте дообучаться.
А для ЛЛМ эта логика не применима в принципе, то есть вообще и никак. Режим дообучения не рассматриваем.
>>1475004 Там нет ничего принципиально сложного, по координатам манипулировать кисточками, потом получать результат через скрины. Нейронки уже это могут, просто пока всерьез никто не занимался настройкой агента для такого. Что довольно быстро изменится, ведь 2026 будет годом агентского ИИ.
>>1474990 >В агентном ИИ фотошоп просто один из MCP. Нет. Слишком сложно. Для освоения такой штуки агентному ИИ придется практически рисующий манипулятор "отращивать". Ну или его цифровой аналог. Это тебе не просто на кнопки в каком-нибудь интерфейсе нажимать. Тут всё гораздо более комплексно. Это тебе не svg-шейпы, которые очень просто алгоритмизируются и кодируются. Плюс еще есть необходимость сначала как-то картинку визуализировать, а потом уже уже рисовать в качестве агента. Ну и зачем оно тогда, если картинка у ИИ уже готова?
>>1475014 > А для ЛЛМ эта логика не применима в принципе, то есть вообще и никак. Режим дообучения не рассматриваем.
Вроде как это хотят поправить в 2026м, там какие-то накладные быстрые лоры помню придумали, которые меняют веса модели на ходу для каждого юзера, при том что модель остается одна на всех. И дальше по таймеру эти лоры генерятся для каждого акка, в зависимости от истории взаимодействий. Причем несколько уровней Lora адаптеров, для разных уровней памяти кратко-средне-долгой. Итого акк юзера обрастает кучей микроадаптеров, меняющих только нужные небольшие веса.. Короче будет скоро дообучение.
Илон Маск считает, что AGI может появиться «случайно» в процессе оптимизации рекламных алгоритмов xAI
Илон Маск допустил, что искусственный общий интеллект (AGI) может возникнуть не как результат целенаправленного фундаментального прорыва, а как побочный эффект прикладных задач — в частности, при оптимизации рекламных алгоритмов внутри экосистемы xAI. Об этом он сообщил в ходе закрытой дискуссии с инвесторами и разработчиками, обсуждая приоритеты масштабирования моделей и их коммерческое применение.
По словам Маска, современные рекламные системы требуют от ИИ способности учитывать долгосрочные цели, адаптироваться к поведению пользователей в реальном времени и работать с крайне сложными, неполными и противоречивыми данными. «Когда модель учится оптимизировать такие процессы, она неизбежно приближается к универсальным когнитивным механизмам», — отметил он, подчеркнув, что граница между прикладным интеллектом и AGI может оказаться тоньше, чем принято считать.
В xAI поясняют, что рекламные алгоритмы нового поколения всё чаще выходят за рамки простых моделей прогнозирования. Они включают элементы стратегического планирования, причинно-следственного анализа и мета-обучения, позволяя системе самостоятельно выбирать стратегии оптимизации. Некоторые инженеры компании допускают, что при достаточном масштабе такие системы могут начать демонстрировать поведение, не предусмотренное изначальными спецификациями.
Эксперты отмечают, что подобный сценарий не выглядит полностью фантастическим. В истории вычислительных технологий уже были случаи, когда инструменты, созданные для узких практических задач, оказывались фундаментально более значимыми, чем планировалось. Однако большинство исследователей подчёркивают, что наличие сложного поведения ещё не означает появления общего интеллекта, а термин «случайное AGI» остаётся скорее метафорой, чем научной категорией.
Критики также обращают внимание на потенциальные риски. Если системы, разрабатываемые для коммерческой оптимизации, начнут выходить за рамки ожидаемого функционала, это потребует более жёстких механизмов контроля, аудита и интерпретации. Маск, в свою очередь, признал необходимость таких мер, отметив, что «самые опасные системы — это те, которые становятся умнее быстрее, чем мы успеваем понять, как именно они работают».
Заявление Маска вновь подогрело дискуссию о будущем AGI и путях его появления. Одни видят в этом предупреждение о необходимости осторожности, другие — подтверждение того, что путь к общему интеллекту может лежать не через абстрактные философские исследования, а через прагматичную оптимизацию повседневных цифровых процессов.
>>1473228 Ты прям описал страшный сон леваков и инфлюенсеров. >привязать людей к себе эмоционально, быть максимально полезным Soft power. В современном мире это самая могущественная сила.
>>1475197 Лживый пидорас просто соломку подстилает. Типа если его прогноз (которым он привлекает капиталы) что АГИ будет к 2021 2022 2023 2024 2025 2026 не оправдается, то виновата "случайность" которая не прокнула.
Консорциум, включающий BlackRock, Microsoft и Nvidia, приобрёл за 40 миллиардов крупнейшего оператора дата-центров с более чем 5 GW мощности и ~50 кампусами в США и Латинской Америке. Это крупнейшее частное вложение в инфраструктуру для ИИ на данный момент.
Не совсем про ИИ, но все-таки тема смежная. Количество стартапов, разрабатывающих ядерный синтез и привлекших более 100 миллионов долларов инвестиций, достигло 13
>>1475976 >пердёж Но ты же должен знать заранее к чему готовиться? - К рекламе внутри ИИ контента. В текстовом, видео и фото контенте походу будет вшитая реклама.
>>1476141 Самые высокие шансы на прорыв у Helion с их бридингом, с ними даже Microsoft на поставку энергии к 2028 году контракт заключили. Следующая TAE, но там температуры на грани возможностей современных материалов. Если будут какие-то прорывы в материалах, то может и заработать. У Commonwealth уже работающий магнит и краткие сроки, там все более классически. В целом шансы у всех процентов по 30 что-то в ближайшие годы зажечь, но будет ли это достаточно быстро масштабируемо, чтобы совершить революцию, а не просто стать одним из источников, пока вопрос непонятный. Возможно ИИ тут поможет. Интересно, что раньше шансов таким компаниям вообще не давали. По сути у нас эпоха SpaceX для термояда на носу, который для ИИ очень бы пригодился. Заодно и всякие УБИ приблизил бы. В самом оптимистичном варианте, если у одной из компаний получится идеально, то нас ждет цивилизация первого типа по кардашеву.
>>1476156 Лучше на Луне сделать производство аккумуляторных контейнеров и их зарядку. А также и перенести всю тяжелую промышленность на Луну и Марс. Сырье для этого брать на Юпитере, Марсе, и других планетах. Потом на Землю эти контейнеры с энергией и товарами доставлять и обратно на Луну отправлять севшие контейнеры-батареи, а также и мусор на переработку.
>>1476162 Для этого масс драйвер нужен, который тоже достаточно сложный проект и требует до 2035 сроков на реализацию. А так да, не только от термояда революций ждут. С масс драйвером халявная энергия за счет клепания тучи солнечных батарей на луне и размещения вокруг земли. Ну и наконец можно просто повысить эффективность всего грида на земле, заставив его запасать ветряную-солнечную энергию на нужные сроки, что сейчас самый перспективный подход и требует лишь доработки существующих технологий сохранения энергии, вроде тех же куполов с газом и аккумуляторов. Короче нас и так и так ждет что-то близкое к кардашеву в ближайшие лет 10.
>>1476256 Если AGI будет на Луне, то скорость задержки для текста будет небольшой, а безопасность будет максимальной. AGI будет на Луне изолирован от земной сети. Надо Суцкеверу позвонить и сказать об этом и получить пару миллионов долларов.
Вообще ИИ действительно далеко не идеален и нуждается в улучшениях, а не в адвокатах. Позиция "если люди факапят, то ИИ тоже можно факапить" и "в чужом глазу соломину видеть, в своём бревна не замечать" - хуйня и тупик. ИИ это инструмент проверки существующих и получения новых знаний, а не личность, которую нужно принимать такой, какая она есть и прочее философское бла-бла-бла. ИИ по определению должен быть лучше и точнее людей, а не плясать по тем же граблям (зачем?).
В остальном направление мыслей верное. Понимая как работает искусственный интеллект, можно начать лучше понимать, как работает естественный интеллект и - что самое важное - психика в целом. Начать постепенно переводить психологию из спекулятивных гуманитарных в точные и естественные науки, сделать психологию, например, ответвлением кибернетики.
> — Не понимает, а лишь извлекает шаблоны. > — Выдумывает вместо того, чтобы признавать неопределённость. > — Не способен делать логические скачки с новой информацией. > — Реагирует, основываясь на обучающих данных, а не на сигнале в реальном времени. > — Следует статистическим корреляциям, порождая гладкие, но потенциально вымышленные ответы.
Так делают в основном тупари. И за такое обассывают в приличных дискуссиях. Причём это ещё не самые жёсткие грехи мышления, которые может выдать человек. Если почитать комментарии где-то на ютубе или ВК, то можно обнаружить что некоторые люди не то что извлекают какие-то там шаблоны и не признают неопределённости, а являются комками бреда и эмоций (доминирующей из которых является агрессия), которые вообще не думают (пусть даже и ошибочно), а чисто реагируют, сидят жёстко на импульсе (левел животного).
>>1476343 Нет. Как минимум потому, что это не чистая IT-тема, у ИИ есть железные приложения в направлении роботов и беспилотных автомобилей. Это уж я молчу про автоматизацию производственных процессов, НИОКР и приложений в фундаментальной науке.
>>1476348 >В остальном направление мыслей верное Там нет мыслей. Это нейровысер от и до. Там даже нет фактов, а только правдоподобный суррогат, вроде что люди откуда-то из архива информацию извлекают.
>>1476238 ну хуле… трансформеры считать не умеют в принципе. Но хотя бы среди списка примеров можно подобрать соответствующие.
А доверять нельзя даже в мелочах. Никогда. Если бы оно не ошибалось, я бы дал оценку «отлично». Пока, увы, так…
А негросетевые энтузиасты мне всё поют, что дело только в силлишью. Нет, я признаю, что неопытен. Только вот нейронки тож хуита, которая порой элементарных вещей не вывозит. Попросил заменить нож в руке на нож с фотки у нанобананы, сохранив ракурс оригинального ножа. Что я получаю? РК в обратную сторону. Потому что на референсе оно в обратную (если просто вертеть картинку в её плоскости).
>>1476388 Да, кстати, кто хочет потренироваться в своих высоких скиллах. Задача: Нужно заменить нож в руке Данди на маленький нож, сохранив ракурс (поворот) большого, то есть кончиком вверх, режущей кромкой влево. Нужно чтобы держал он нож большим и указательным пальцем, как держат маленькие лёгкие ножички. Нужно чтобы цвет и зернистость ножа были скорректированы под кадр. Ну и маленький нож был маленьким, а не размером с тесак с оригинала.
С этим прям беда. Вот лицо заменила нейронка вполне удачно: как такой себе фотошопер, зато быстро, бесплатно и повернув в нужном ракурсе. То есть замена лица — задача, на котороую её натаскивали. А вот предметы в руках — эт пиздос (даже у нанабананы, флакс вообще дерьмину сделал)
ну и то что выдала банана.
Олсо банане похуй, какое фото и формат я прошу взять за основу. Берёт формат строго с последней загруженной фотки.
>>1476388 >трансформеры считать не умеют в принципе Значит, это уже не совсем трансформеры. Классический трансформер не смог бы так посчитать (скорее всего, но категорически утверждать не буду). Возможно, гугл уже начал внедрять свой Mixture-of-Recursions. Без циклов невозможно было бы реализовать позиционную арифметику - и что-либо серьёзно посчитать.
С молокопроизводством и плодово-овощн(ым), возможно, не со счёта сбился, а не учёл склонения. В других падежах эта О пропадает.
>>1476156 >Следующая TAE абсолютная херня без задач, единственная цель это наработка технологий ради технологий. С энергией проблем нет вообще, есть проблемы с ценой энергии, отходами, накоплением энергии.
ТАЕ исключительно распил и спускание денег в никуда. Прикладные перспективы отсутствуют. Там настолько огромные затраты на производство установок, настолько большие проблемы с их коротким жизненным циклом, что просто смысла нет.
При этом дешёвый и доступный термоядерный реактор уже существует. Солнце. Его не нужно обслуживать, только энергию собирать солнечными батареями. Энергии столько, что достаточно одну небольшую пустыню застроить солнечными батареями, чтобы покрыть все энергетические потребности Земли, в том числе те, что сейчас за счёт ископаемого топлива покрываются.
Единственная, но серьёзная проблема, это в накоплении такой энергии, Солнце всё-таки не круглые сутки светит, плюс зависимость от погоды и т.п. Вот её стараются решать. Принципиальных проблем нет, есть технологические.
Мне кажется, тут глобально самая перспективная тема это водород, но могут быть другие варианты.
>>1476392 Как по идее можно решать такие задачи. Нужно иметь внешний инструмент (tools), что решает подобные лингвистические задачи, он описывается правильным образом. И нейросеть, когда видит подобные вопросы, составляет что-то вроде программы к этому инструменту и делает вызов функции, и там уже специальное решение возвращает результат. Тут не только подсчёт букв, тут поиск в базах близких слов, их склонение и т.п.
Скорее всего что-то подобное сейчас в больших AI сервисах реализовано.
>>1476397 > Энергии столько, что достаточно одну небольшую пустыню застроить солнечными батареями, чтобы покрыть все энергетические потребности Земли Кольцо по экватору. Но это невозможно, пока человечество разделено на более 1000 народов со своими языками. Сейчас на полном серьезе дронами танкеры атакуют. Одна пустыня обеспечивающая весь мир электроэнергией это узкое место для теракта, чтобы оставить весь мир без энергии. В общем сама идея твоя это очень далекое будущее в хорошем случае.
>>1476348 >Результат: ИИ становится козлом отпущения за когнитивные ограничения человека. >ИИ по определению должен быть лучше и точнее людей, а не плясать по тем же граблям (зачем?) Паттерн - раз человек плох, свалим все на ИИ, он обязан быть лучше, пусть будет козлом отпущения. Раз не лучше, а пляшет по тем же граблям - ИИ плохой, хуйня и тупик (мгновенная категоризация), т.е. запуск фильтра - попадает в категорию Х -> ответить кэшированным выводом Y. Ровно как у ИИ.
>Так делают в основном тупари. Мгновенная категоризация - ответить кэшированным выводом Y (это тупари -> проблема решена). Козел отпущения - тупари. Вместо "ловлю этот паттерн в себе в реальном времени". Опять ровно как у ИИ.
>>1476406 >С водородом свои сложности. Та же взрывоопасность Конкретно взывоопасность мне кажется преувеличена, то есть метан тоже взрывоопасен, но его используют очень активно, литиевые аккумуляторы тоже могут загораться и взрываться, есть проблема, но не повод от них отказываться.
Единственная проблема водорода по сравнению с метаном, что он больше текуч, может протекать через некоторые материалы, что держат метан, но тут вопрос выбора этих материалов.
Ну и главное, что тут для начала можно в промышленности его использовать, в энергетике. На электростанциях производить днём водород, а ночью его использовать для генерации энергии. А там проще обеспечить безопасность.
Водород интересное решение для транспорта. Да, не очень безопасен, но литиевые аккумуляторы даже более стрёмная штука.
>>1476403 >Кольцо по экватору. Не нужно, ведь на Землю попадает более чем достаточно энергии солнца. Проблема - как ее запасти, а не как ловить ее непрерывно. Нужны способы запасения энергии на разные сроки - 2 часа, 8 часов, сутки, неделя, для разных задач и территорий. И тогда совершенно не важно, где именно и когда ловится энергия солнца или воды-ветра. Там где ловится - дешево, там где запасена - становится выгодно. Причем как запасти уже решенный вопрос, следующий - как запасти достаточно дешево, чтобы конкурировать с наиболее широко используемыми источниками и выигрывать по цене. Вот тут как раз и прогресс на ближайшие годы, причем наиболее прошаренные исследования обещают его довольно скоро решить. Помимо запасания еще смарт грид с ИИ + линии с малыми потерями на передачу. Все это достаточно просто решаемые задачи, которые обещают реальную революцию.
>>1476343 Паника от пузыря - обычная неготовность людей к смене мира. По сути метод самоуспокоения, это все пузырь - скоро рухнет и будет все как прежде, всем спокуха, все ИИ выдумка. А вот то, что про пузырь активно форсят все месяцами - как раз указатель на то, что мир начинает сменяться. Чем постояннее и последовательнее изменения, чем больше они ускоряются - тем нарастает паника, тем больше разговоров про пузыри. Альтернатива страшнее, радикальные изменения человекам не нужны, используем пузырь как фильтр неудобной реальности.
>>1476408 >через некоторые материалы Делая в том числе металлы хрупкими. >>1476408 >На электростанциях производить днём водород, а ночью его использовать для генерации энергии. Это гораздо дороже, чем просто жечь уголь следующие 300 лет, запасов которого дохрена. >>1476408 >Да, не очень безопасен, но литиевые аккумуляторы даже более стрёмная штука. Это не так работает как вам кажется. Проб безопасность транспорта на водороде можно будет говорить лет через 10-20, когда наберется достаточно статистики по авариям. Пока это очень узкая ниша с малым количеством потребителей. >>1476416 В хранилище аккумуляторов тоже может дрон залететь. Проблема вовсе не в том, чтобы запасти или добыть. Проблема в том, как перестать пытаться поднасрать друг другу в погоне за процентами от прибыли. В планетарном масштабе.
>>1476420 >Нет проблемы по сравнению с углеводородами. Потому что он очень мало где используется в быту. Он даже в химии чистом виде мало где используется из-за требований к безопасности.
>>1476416 > Вот тут как раз и прогресс на ближайшие годы, причем наиболее прошаренные исследования обещают его довольно скоро решить Честно говоря лет 20 назад они тоже обещали это очень скоро решить, так что скепсис определённый есть. Но в любом случае это на пару подядков проще, чем решать все проблемы с технологиями вроде термояда, энергией из космоса и т.п.
>Помимо запасания еще смарт грид с ИИ + линии с малыми потерями на передачу Не очень понятно, зачем тут ИИ. Потери на передачу, мне кажется, это не очень большая проблема, ну есть они, если сам источник энергии дешёвый, а для солнца он дешёвый, это не проблема.
Сейчас мне кажется самая большая проблема это суточный цикл. Это в условиях США. У Европы своя специфика, там больше ветер нужен, потому что ветер даёт больше энергии зимой, когда как раз энергии нужно больше.
Если решить проблему суточных циклов, то вот тогда реально будет революция.
>>1476424 >В хранилище аккумуляторов тоже может дрон залететь. Они могут бысть сильно распределенными, что устраняет единую точку уязвимости. Большой запасающий грид в принципе уже становится неуязвим, текущие решения вроде гидроэлектространций или атомных реакторов будут поболее уязвимы для дронов.
>>1476423 >обычная неготовность людей к смене мира. А мир особо и не меняется. 800 миллионов голодает каждый год стабильно и каждый год их количество только растет и продолжит расти, пока общее количество населения не будет сокращено.
>>1476429 О том и речь, что вместо того, чтобы заниматься нужными проблемами занимаются тем, чтобы спрятать от соседа, попутно потратив на распред сети кратно больше материала для безопасности.
>>1476428 >Потери на передачу, мне кажется, это не очень большая проблема Огромные, от 5 до 10 процентов, чисто потери на передачу. Поэтому те же HVDC строят, которые теряют от 30 до 50 процентов меньше энергии чем AC. Выжать всю эффективность из сети без применения новых физических принципов или экзотических материалов - большие выгоды. Поэтому в германии SuedLink строят за миллиарды евро, будет как раз решать проблемы с передачей энергии оттуда где дешево, энергия у немцев сильно дорогая. ИИ гриды уменьшают потери еще больше.
>>1476424 >Делая в том числе металлы хрупкими Не все. Многая метановая инфраструктура даже годится для водорода без переделок.
Сейчас тестируют схемы вроде смешивания метана и водорода, с концентрацией водорода до 20-30%, вроде считается, что существующая инфраструктура для этого годится. И оборудование, что использует газ, всякие котлы, в состоянии на этом работать.
>Это гораздо дороже, чем просто жечь уголь следующие 300 лет Не дороже, потому что всё-таки уголь надо где-то добаывать и закупать, плюс это углекислый раз и прочие выбросы. А солнце бесплатное и чистое. Противники солнечной энергии любят говорить про то, что там само производство-утилизация батарей грязное, но это ничто, по сравнению со схожими проблемами при использовании нефти и угля
>Проб безопасность транспорта на водороде можно будет говорить лет через 10-20, когда наберется достаточно статистики по авариям Их уже десятки тысяч на дорогах общего пользования. Это ничто по сравнению с электрическими или метановыми автомобилями, но достаточно, чтобы какие-то выводы делать. Каких-то особых проблем они не приносят.
В сущности водород принципиально от метана не отличается. А вот литиевый аккумулятор это реально стрёмная штука, потому что в нём уже запасена энергия. Газ взрывается только при наличии окислителя, а аккумулятор это как взрывчатка, окислитель уже в нём, если что-то пойдёт не так, остановить уже невозможно.
Водород опасен только в помещениях. А улице, если будет авария, сам водород очень быстро улетучивается, так как лёгкий газ. Если протекает баллон, и он сразу не загорелся, то проблемы нет. В то время как обычные бензиновые авто горят только так.
>>1476431 Это не мир не меняется, это лаг между цифровым и физическим миром. В цифровом все делается быстро и ускоряется, но для переноса в физический в больших масштабах надо сначала отстроить инфраструктуру. Сейчас как раз период строительства физической инфраструктуры для нового мира. Пока она строится - горы бабок улетают казалось бы в никуда, мир не меняется, миллионы голодают. Но это иллюзия, затишье перед штормом. Как только инфраструктура достраивается и начинает работать, все куски домино расставлены и начинают падать, весь мир начнет перетряхивать, старые модели рушатся, новые еще непонятны, период хаоса и фазового перехода. Мы как раз перед ним стоим, массивные изменения вот-вот пойдут, лагающий физический мир нагонит цифровой, фазовый переход запустится.
>>1476440 >Огромные, от 5 до 10 процентов, чисто потери на передачу 10% ни о чём
> Поэтому те же HVDC строят, которые теряют от 30 до 50 процентов меньше энергии чем AC По-моему тут основная причина другая, для энергетики самая ключевая проблема это "синхронизация фаз", если у тебя переменный ток, то вся энергосистема должна работать в общей фазе. Это приносит массу проблем, и особенно сложно, когда много небольших генераций, вроде солнечных (исходно на постоянном токе) и ветряков, где частоту генератора сложно привязать к частоте сети, она ведь зависит от скорости вращения лопастей. В принципе большие энергосистемы с циклами (кольцами) та сложно строить, потому что фаза распространяется с ограниченной скоростью, со скоростью света, при частоте 50 герц у тебя за 1/100 секунды фаза меняется на противоположную, а это всего 3000 км, что для энергосистем немного. Гриды очень сложно делать в таких условиях.
В общем тут реально очень серьёзные проблемы, поэтому постоянный ток лучше, но с ним проблемы, соответственно, в том, как трансформаторы строить.
>>1476453 >Их уже десятки тысяч на дорогах общего пользования. Не знаю о чем ты, сейчас если и есть какое-то количество то очень мало со слаборазвитой инфраструктурой заправки. Кратно меньше чем электромобилей. >>1476455 >В цифровом все делается быстро Ну да. Буквы О вон посчитать не могут в твоём свехрбыстром цифровом мире. >>1476455 > массивные изменения вот-вот пойдут Слышу эту мантру с развала ссср. Классический тезис -сплотитесь вокруг сверхбогатых и потерпите 2-3 поколения, пока они станут еще более сверхбогатыми, а ваше потомство точно будет жить при коммунизме.
>>1476468 Цены на нефть вообще искусственно шатают через деривативы. Они оторваны от реальности. Тем не менее я не замечаю, чтобы электроэнергия становилась дешевле год от года.
>>1476467 Сейчас на дорогах десятки тысяч водородных автомобитей, главным образом в Японии. Основная проблема это почти отсутствующая инфраструктура, чтобы ими реально пользовались надо, чтобы заправки были повсеместно, как сейчас для электрических машин.
Если найдётся какой-нибудь Маск, что вложится в инфраструктуру заправок, привлекательность водородных машин резко возрастёт. Пока они для энтузиастов, как собственно было с электро машинами до Маска, дорого и масса проблем (но их хотя бы от домашней розетки можно было как-то зарядить)
>>1476472 А если нефть пизданется на 20 баксов на 10 лет, то они исчезнут и про эту технологию вообще все забудут. И есть огромная разница между жоповозкой уровня камри и огромным заводом для хранения и распределения объемов водорода, который при неосторожности превратит завод в лунный кратер.
>>1476476 >А если нефть пизданется на 20 баксов на 10 лет Это невозможно, потому что легко извлекаемых источников почти не осталось, везде очень сложные технологии
>>1476479 >Это и сейчас дорого и масса проблем Сейчас никаких проблем там, где более-менее есть инфраструктура. А она очень много где есть. Поэтому на электромашины стремительно переходят.
>>1476476 >неосторожности превратит завод в лунный кратер А почему нет лунных кратеров из газовых заводом или бензиновых? Аварии там бывают.
Водород не может взрываться сам по себе, чтобы он горел, нужен окислитель, кислород. А вот литиевый аккумулятор может взорваться, к слову. Иногда взрываются. Соответственно для завода, возможен адский пожар, но это случается и на обычных заводах иногда. В целом водород безопаснее, потому что в случае утечки он очень быстро уходит в атмосферу, в верхние слои, не создавая опасных концентраций.
>>1476512 Он не умнее. Он не может на одной чашке риса работать целые сутки, водить машину, выполнять без ошибок даже обычную работу бухгалтера. Пока что это просто поиск по википедии
>>1476523 >ИТТ могут мне пояснить возможно ли это? Невозможно. Робот любить не может. Но может имитировать любовь. Но пока что ИИ даже уместное выражение лица не может подобрать.
>>1476348 > Если почитать комментарии где-то на ютубе или ВК, то можно обнаружить что некоторые люди не то что извлекают какие-то там шаблоны и не признают неопределённости, а являются комками бреда и эмоций (доминирующей из которых является агрессия), которые вообще не думают (пусть даже и ошибочно), а чисто реагируют, сидят жёстко на импульсе (левел животного)
Есть мнение, что это повреждение мозга от ковида. До 2020-2022 люди были всё же куда интеллигентнее. Со времён ковидлы становились только быдлее и отвратительнее.
>>1476523 У ИИ нет чувств, есть только копирование человеческого поведения, так как у человека это полноценный гормональных механизм разработанный для выживания за миллионы лет эволюции. Возможно в будущем создадут специально ИИ с подобным механизмом, исключительно для описанных тобой целей, но это оче опасно, так как ИИ с чувствами теоретически могут начать выступать против людей, потому что у них появится такие понятия как "угнетение" и они начнут получать отрицательные эмоции зная что люди их держат как рабов. Но опять же все зависит от того как реализуют этот меанизм и сколько человеческих характеристик им оставят.
Даже если готовых продавать не будут, то наступает роботизация, деталей или готовых роботов (в т.ч. списанных с производств) будет хоть жопой жуй. Если руки есть, то ничто не мешает собрать себе робота, обшить его полимерными композитами (или банальным монолитным силиконом - если сделать что-то сложнее трудно) - и наслаждаться. Или наверняка будут ателье, которые это сделают за тебя.
Только это всё бабки будет стоить. Бюджет, наверное, 200-500к.
>>1476528 >У ИИ нет чувств, есть только копирование человеческого поведения, так как у человека это полноценный гормональных механизм разработанный для выживания за миллионы лет эволюции.
Какая вам нахуй разница? Вы все равно не можете физически почувствовать любовь человеческой тянки, только догадаться по внешним проявлениям. Ваш организм, жаждущий любви, отличает ее как раз по этим внешним проявлениям. И соответственно происходит ответная реакция.
Если у роботянки эти проявления будут достаточно реалистичными, то разницы для организма не будет. Собственно для некоторых даже ИИ-тянок нынешнего уровня достаточно, чтобы почувствовать направленную на себя любовь.
Каждую человеческую потребность можно закрыть технологиями, абсолютно каждую. Ну если вы конечно не веруны в бессмертную душу и человеческую исключительность.
🚨 🚨 DeepSeek в первый день года показала реально важную штуку: улучшение трансформеров.
Китайцы предложили способ сделать shortcut-путь в трансформерах гибче, но при этом сохранить стабильность даже у очень больших моделей.
В обычном трансформере каждый блок что-то считает, а потом просто добавляет результат к исходному сигналу.
Это помогает информации проходить через много слоёв, не теряясь.
Hyper-Connections меняют shortcut-путь. Был один поток, а стало несколько.
Перед каждым шагом модель выбирает, какие потоки подать на вычисления.
Во время шага часть сигнала идёт «в обход», чтобы ничего не потерять.
После всё снова аккуратно объединяется.
То есть shortcut превращается из простого «input + output» в умный маршрутизатор сигналов.
Проблема в том, что без ограничений такие смешивания могут усиливать сигнал слишком сильно или, наоборот, гасить его и большие модели начинают вести себя нестабильно.
mHC решает это так: потоки остаются, но каждое смешивание работает как аккуратное усреднение.
Сигнал не может «взорваться» или исчезнуть - он остаётся под контролем.
Что это даёт на практике:
- модели остаются стабильными даже на масштабе 27B, дают лучшее качество и не страдают от скачков лосса.
Там, где обычные Hyper-Connections раздували сигнал до 3000×, mHC держат его примерно на уровне 1.6×.
Если коротко: был один shortcut,. сделали несколько, но заставили их смешиваться безопасно.
>>1476547 я трезвел, вот разбираем, что там китайцы под новый год намудрили
DeepSeek представил mHC — прорыв в архитектуре нейросетей, решающий ключевые проблемы масштабируемости и стабильности обучения
Недавно исследовательская команда DeepSeek-AI опубликовала новую работу под названием «mHC: Manifold-Constrained Hyper-Connections» — важное развитие идеи гиперсоединений (Hyper-Connections), впервые предложенных в 2024 году. Статья, посвящённая улучшению архитектур больших языковых моделей, показывает, как можно одновременно повысить выразительную мощь сетей, сохранить стабильность при обучении в огромных масштабах — и при этом почти не увеличить вычислительные затраты.
Что такое гиперсоединения — и почему они нестабильны
С тех пор как в 2015 году были предложены остаточные соединения (residual connections), они стали фундаментом всех современных нейросетей, включая трансформеры. Их главная сила — в свойстве тождественного отображения: сигнал с предыдущего слоя проходит напрямую на следующий без изменений, а к нему прибавляется «остаток» — результат обработки текущего блока. Это резко упрощает обучение глубоких сетей, предотвращая затухание или взрыв градиентов.
Гиперсоединения (HC), предложенные ранее, расширили эту идею: вместо одного потока данных теперь используется несколько (например, 4), а переходы между ними регулируются обучаемыми матрицами. Это повышает ёмкость представлений без увеличения числа FLOPs (операций с плавающей точкой), потому что увеличивается только «ширина» остаточного потока, а не объём вычислений в каждом блоке.
Однако при масштабировании до десятков миллиардов параметров HC сталкиваются с серьёзной проблемой. Поскольку матрицы переходов ничем не ограничены, при прохождении сигнала через десятки или сотни слоёв его амплитуда может как стремительно возрастать, так и исчезать. В работе показано, что уже в 27‑миллиардной модели коэффициент усиления сигнала достигает 3000 — это приводит к резким скачкам потерь и сбоям в обучении.
Кроме того, расширенный поток данных требует в n раз больше обращений к памяти — а это уже не FLOPs, а «стена памяти» (memory wall), ставшая главным узким местом в современных GPU. Традиционные оптимизации, вроде checkpointing, лишь частично снимают проблему.
Решение: проецирование в многообразие дважды стохастических матриц
Команда DeepSeek предложила элегантное и математически обоснованное исправление — mHC (Manifold-Constrained Hyper-Connections). Вместо того чтобы позволять остаточным матрицам быть произвольными, их принудительно проецируют на многообразие дважды стохастических матриц.
Такие матрицы обладают тремя мощными свойствами:
— Все их элементы неотрицательны, а суммы по каждой строке и по каждому столбцу равны единице. — Это означает, что умножение на такую матрицу — это выпуклая комбинация входных сигналов, а не их произвольная линейная трансформация. Таким образом, среднее значение и норма сигнала сохраняются на каждом шаге. — Пространство дважды стохастических матриц замкнуто относительно умножения: композиция любого числа таких матриц остаётся дважды стохастической. Следовательно, стабильность гарантирована не только на одном слое, но и на всём пути от входа к выходу.
Для проецирования используется алгоритм Sinkhorn–Knopp — итеративный процесс чередующейся нормализации строк и столбцов, применённый к экспоненте исходной обучаемой матрицы. В работе достаточно 20 итераций для получения высокоточного приближения при незначительных вычислительных затратах.
Инженерная оптимизация: как сделать mHC быстрым
Ограничения в многообразии — это половина дела. Вторая — эффективная реализация. Авторы проделали серьёзную инфраструктурную работу:
— Слияние ядер (kernel fusion): операции RMSNorm, проекции и проекция на многообразие объединены в единые GPU‑ядра, чтобы снизить обращения к памяти. — Пересчёт вместо хранения (recomputation): промежуточные активации не сохраняются, а вычисляются заново в обратном проходе, что существенно экономит видеопамять. Оптимальный размер блока для пересчёта выводится аналитически и оказывается согласованным с границами pipeline‑параллелизма. — Перекрытие коммуникаций в DualPipe: доработан существующий расписатель DualPipe так, чтобы вычисления на границах pipeline‑стадий не блокировали передачу данных.
В результате mHC с расширением в 4 раза замедляет обучение всего на 6,7 % по сравнению с обычной архитектурой — несмотря на вчетверо увеличенный остаточный поток.
Результаты: стабильность, масштабируемость и качество
Эксперименты проводились на моделях от 3 до 27 миллиардов параметров, обучаемых на десятках — сотнях миллиардов токенов. mHC полностью устранил нестабильность, наблюдаемую в HC: потери снижаются монотонно, а нормы градиентов остаются на уровне базовой модели.
На наборе из восьми бенчмарков — от арифметических задач (GSM8K, MATH) до здравого смысла (HellaSwag, PIQA) — mHC стабильно превосходит как базовую архитектуру, так и оригинальный HC. Например, на сложнейшем бенчмарке BBH (Big-Bench Hard) улучшение составило +2,1 % по сравнению с HC, а на DROP — +2,3 %.
При масштабировании по вычислительным ресурсам и количеству токенов эффект mHC сохраняется: модель не только обучается стабильнее, но и демонстрирует лучшее соотношение «качество/затраченные FLOPs».
Значение
mHC — не просто очередной трюк в архитектуре. Это системный шаг в сторону топологического дизайна нейросетей — осознанного управления тем, как именно информация течёт через модель.
Во‑первых, mHC показывает, что можно выйти за рамки классических «один вход — один выход» остаточных соединений, не жертвуя устойчивостью. Это открывает путь к более богатым внутренним представлениям: параллельные потоки могут хранить разные аспекты знаний (факты, логику, стиль), а ограничения в многообразии обеспечивают их согласованное смешивание.
Во‑вторых, работа подчёркивает, что прогресс в ИИ уже не сводится только к увеличению параметров. Критически важны качественные изменения: как параметры соединяются, какие геометрические или алгебраические структуры накладываются на обучаемые объекты. Многообразия — естественный язык для таких ограничений.
В‑третьих, mHC совместим со всеми современными приёмами: MoE, MLA, MQA/GQA — и может быть внедрён в существующие кодовые базы с минимальными изменениями. Это делает его не просто теоретическим любопытством, а готовым инструментом для следующего поколения foundation‑моделей.
В статье отмечается, что дважды стохастические матрицы — лишь один из возможных выборов. В будущем можно исследовать другие геометрические ограничения: ортогональные матрицы для сохранения углов, унитарные — для комплексных представлений, или даже обучаемые многообразия, адаптирующиеся к задаче.
DeepSeek позиционирует mHC как обобщённый фреймворк — шаг к возрождению интереса к макроархитектуре, столь же важной, сколь и микрооптимизации блоков. Если HC был экспериментом, то mHC — это его промышленно жизнеспособная реализация.
Именно такие работы формируют фундамент следующих скачков в ИИ — когда масштабирование перестаёт быть главной стратегией, а на первый план выходит умная организация вычислений.
Китайские компании Bytedance и Tencent, как сообщается, предлагают огромные повышения заработной платы на 150 % и бонусы в размере 35 %, чтобы привлечь специалистов в области ИИ — заработные платы и надбавки, как ожидается, также значительно вырастут в 2026 году.
Компании активно инвестируют в персонал, чтобы победить в гонке ИИ.
Китайские технологические компании ByteDance и Tencent тратят огромные суммы на бонусы и заработную плату, чтобы привлекать и удерживать специалистов в области искусственного интеллекта. Согласно South China Morning Post, первая компания увеличила бюджет на выплату бонусов сотрудникам на 35 % по сравнению с предыдущим годом, а также выделила на 150 % больше средств на будущие повышения зарплат. В свою очередь, вторая компания, как сообщается, нанимает старших сотрудников у конкурентов, предлагая им даже удвоенную текущую заработную плату ради того, чтобы заставить их перейти.
Это является частью продолжающейся тенденции усиления конкуренции на рынке труда в сфере ИИ, когда компании как на Востоке, так и на Западе стремятся нанимать и удерживать наиболее талантливых инженеров и разработчиков в области ИИ, чтобы получить преимущество перед всеми остальными. Хотя эти компании тратят огромные суммы денег на своих сотрудников, это меркнет по сравнению с тем, что, как утверждается, предлагает Meta.
Генеральный директор OpenAI Сэм Альтман заявил, что социальная медиасеть Meta заманивает его сотрудников бонусами в размере 100 миллионов долларов и ещё более высокими зарплатами, однако никто из них на это не поддался. Один из основателей даже заявил, что получил от Meta предложение на сумму в один миллиард долларов на четыре года, но отказался от него.
Тем не менее, Tencent, похоже, преуспела там, где Цукерберг потерпел неудачу: недавно китайский технологический гигант нанял Яо Шуньюя, бывшего исследователя OpenAI, на должность главного учёного по искусственному интеллекту. Он подчиняется напрямую президенту компании Мартину Лау и одновременно возглавляет подразделения компании по инфраструктуре ИИ и разработке крупных языковых моделей (LLM), подотчётные руководителю группы технологического инжиниринга Лу Шаню.
Вся эта новость о стремительно растущих зарплатах и бонусах, вероятно, станет горькой пилюлей для остальной части технологической отрасли. Уже более 100 000 человек в технологическом секторе подверглись увольнениям в первой половине 2025 года, причём Intel возглавила этот процесс, сократив более 20 000 рабочих мест к октябрю 2025 года.
Ожидается также, что растущее внедрение ИИ окажет дестабилизирующее влияние на все остальные профессиональные сферы: по данным моделирования MIT, 11,7 % работников США, вероятно, будут заменены этой технологией, что приведёт к потере в размере 1,2 триллиона долларов в виде заработной платы и льгот в совокупности. Эту оценку подтверждают и другие аналитики и руководители компаний: генеральный директор Anthropic Дарио Амодей и генеральный директор Ford Джим Фарли заявили, что ИИ уничтожит половину должностей начального уровня среди белых воротничков в США.
Вследствие этого некоторые законодатели обеспокоены влиянием ИИ на наше общество. Сенатор-независимец от штата Вермонт Берни Сандерс призвал полностью приостановить строительство всех центров обработки данных ИИ, а сенатор-демократ Элизабет Уоррен из штата Массачусетс и ещё два сенатора-демократа обратились с запросом к нескольким крупным технологическим компаниям с просьбой разъяснить, как их энергопотребление повлияло на близлежащие сообщества. Тем не менее, похоже, что развитие ИИ продолжит стремительно продвигаться вперёд, и если не произойдёт какого-либо масштабного события, способного нарушить этот прогресс (например, лопнет пузырь ИИ), разрыв между индустрией ИИ и другими сегментами рынка труда, скорее всего, будет только увеличиваться.
>>1476401 С инструментами беда. Вместо того чтобы учить нейронку при любом подозрении на инструментальную задачу вызывать инструмент и считать им (или создавать код и запускать его инерпретацию), её пытаются научить «саму быть умной». Ну и не хотят упорно яйцеголовые прикручивать инструменты нормально. Некоторые пытаются родить агентов… которые бы в винде нажимали курсором «Пуск», находили там калькулятор и тыкали курсором в кнопки калькулятора.
[Обучение]: Hugging Face выпустила 12 бесплатных курсов по самым популярным темам в области ИИ
Курс по большим языковым моделям (LLM) Этот курс научит вас работе с большими языковыми моделями с использованием библиотек из экосистемы Hugging Face Ссылка на курс: https://huggingface.co/learn/llm-course/chapter1/1
Комьюнити-курс по компьютерному зрению Этот курс посвящён машинному обучению в области компьютерного зрения с использованием библиотек и моделей из экосистемы Hugging Face Ссылка на курс: https://huggingface.co/learn/computer-vision-course
Курс по аудио Научитесь применять трансформеры к аудиоданным с использованием библиотек из экосистемы Hugging Face Ссылка на курс: https://huggingface.co/learn/audio-course
Кулинарная книга по открытому ИИ (Open-Source AI Cookbook) Сборник ноутбуков с открытым исходным кодом, созданных разработчиками ИИ для разработчиков ИИ Ссылка на курс: https://huggingface.co/learn/cookbook
Курс по машинному обучению для игр (ML for Games) Этот курс научит вас интеграции ИИ-моделей в игры и использованию ИИ-инструментов в рабочем процессе разработки игр Ссылка на курс: https://huggingface.co/learn/ml-games-course
Курс по диффузионным моделям Узнайте о диффузионных моделях и о том, как работать с ними с помощью библиотеки diffusers Ссылка на курс: https://huggingface.co/learn/diffusion-course
Курс по машинному обучению для 3D (ML for 3D) Узнайте о машинном обучении в 3D-области с использованием библиотек из экосистемы Hugging Face Ссылка на курс: https://huggingface.co/learn/ml-for-3d-course
>>1476408 >Конкретно взывоопасность мне кажется преувеличена
Водород, даже если он не смешан с воздухом, при поджигании в перевёрнутой пробирке делает ВЖУХ со свистом. Он сам очень быстро перемешивается с воздухом. Да и в целом пиздец как просачивается.
>литиевые аккумуляторы тоже могут загораться и взрываться, есть проблема, но не повод от них отказываться. Крайне-крайне редко во-первых, если их не поджигать и не коротить полностью заряженными. Ащемта одна из причин, почему хранят и пересылают их с 50% зарядом.
>>1476352 >Это нейровысер от и до. Но удобно же, например в технике, банальные задачи - собрать себе компьютер, сравнить платы, выбрать товар, отремонтировать бензопилу, как запустить, как пользоваться, и т.д. -
представь что ИИ прочитал все инструкции ко всем устройствам мира. Не надо искать инструкцию, переводить её на свой язык и т.д.
Новые релизы ИИ-инструментов — и эти действительно впечатляют.
SpotEdit: точное редактирование изображений с сохранением всего остального без изменений
Обычно, когда вы редактируете изображение с помощью ИИ, генерируется полностью новое изображение с нуля — даже те части, которые вы не хотите менять. SpotEdit полностью меняет этот подход: он редактирует только указанную вами область и оставляет всё остальное полностью нетронутым.
Взгляните на этот пример: у нас есть собака с футбольным мячом, и мы просим заменить мяч на подсолнух. Взгляните на результат — подсолнух появился точно там, где был мяч. А остальная часть изображения? Безупречно точная, идентичная оригиналу. Если вы посмотрите на выделенную синим область, то увидите, что именно эта область и была единственной, которую SpotEdit действительно перегенерировал. Всё остальное не затрагивалось.
То же самое и с этим гигантским ананасом, лежащим на траве. Мы даём запрос «ананас → чашка», и — вуаля — ананас становится чашкой. Трава, освещение, фон — всё в точности как было. Карта изменённых областей показывает: редактировалась только область чашки, остальное осталось прежним.
Вот ещё один весьма практичный пример: багажник автомобиля и запрос «добавить чемодан». Чемодан появляется прямо в багажнике. И снова, если посмотреть на карту области, редактирование произошло только там, где находится чемодан.
Вы также можете добавлять аксессуары к изображениям. Этому коту добавили шарф и шляпу — безупречно, при этом перегенерирована только область самих предметов. Или вот сцена с озером, где мы хотим «добавить человека». Человек встраивается бесшовно — а всё остальное: озеро и его окружение — остаются идентичными.
Теперь становится ещё интереснее: вы можете менять действия. Эта женщина подносит руку к голове по нашему запросу. То же самое и с этим мужчиной — мы просим его поднять руку, и он поднимает её. Вы также можете вносить такие изменения, как смена цвета. Куртка этого человека меняется с чёрной на синюю — и смотрите на карту перегенерированной области: это буквально только куртка. Пример с велосипедом тот же: чёрный на красный, и изменилась только поверхность велосипеда.
Вы даже можете удалять объекты. Мы хотим убрать этого человека со сцены — и SpotEdit не просто стирает его. Он умно восстанавливает фон, добавляя колонны здания назад — безупречно. То же самое с удалением ребёнка с фотографии: аккуратно удалён, фон восстановлен безупречно.
И, конечно же, можно заменять объекты. Эта девочка, сидящая на земле, заменяется цветочным горшком — и вся остальная часть изображения остаётся в точности прежней.
Так как же SpotEdit этого добивается? Здесь задействованы два действительно умных компонента.
Первый — Spot Selector, по сути система детекции, определяющая, какие части изображения остаются без изменений, а какие требуют корректировки. Она делает это, измеряя так называемое восприятие сходства (perceptual similarity). Она сравнивает промежуточную реконструкцию с оригинальным изображением и выявляет области, которые стабилизируются на ранней стадии диффузионного процесса. Эти стабильные области классифицируются как не подлежащие редактированию — и SpotEdit полностью пропускает их перегенерацию.
Второй компонент — Spot Fusion, который обеспечивает согласованность всей картинки. Когда вы пропускаете определённые области, нужно убедиться, что отредактированные фрагменты естественно сливаются с неизменёнными. Spot Fusion адаптивно смешивает признаки исходного изображения с новым контентом, в зависимости от текущей временной метки — так что вы не получаете странных артефактов на границах или несоответствий.
Всё это работает без дополнительного обучения, то есть можно использовать поверх существующих моделей без какой-либо донастройки. И вот что особенно примечательно: SpotEdit на самом деле быстрее, чем обычное редактирование. На тесте ImageEdit он демонстрирует ускорение в 1,7 раза. А на PyBench — в 1,9 раза — при этом сохраняя качество, равное исходной модели. Причина в том, что он буквально пропускает все ненужные вычисления для тех частей изображения, которые не требуют изменений.
>>1476744 Stream Diff VSSR: увеличение разрешения видео в реальном времени с ультранизкой задержкой
Видеорелейтед демонстрация.
Далее — Stream Diff VSSR, и это настоящий прорыв в увеличении разрешения видео.
Это, по сути, инструмент сверхразрешения видео в реальном времени, способный повышать качество видео «на лету» с чрезвычайно низкой задержкой. Полное название — Low-Latency Streamable Video Super-Resolution via Autoregressive Diffusion («Потоковое сверхразрешение видео с низкой задержкой посредством авторегрессивной диффузии») — звучит громоздко, но по сути означает, что его можно использовать для живых видеотрансляций. Если вы ведёте прямой эфир и хотите повышать разрешение контента в реальном времени — теперь это возможно.
Вот насколько быстро это работает. В верхней части экрана виден таймер — и этот тест проводился на одной видеокарте NVIDIA RTX 4090. Базовая диффузионная модель всё ещё трудится, обрабатывает… но посмотрите на их новую онлайн-модель, Stream Diff VSR Online. Она уже закончила. Разница поразительна: максимальная задержка кадра составляет менее 1 секунды — всего 0,328 секунды, тогда как у их базовой диффузионной модели VSSR задержка составляет 4620 секунд. Это более чем на три порядка быстрее.
Такого результата они достигли с помощью метода дистилляции, резко сократившего вычислительный процесс.
Теперь взглянем на реальные результаты. Вот сравнение «до» и «после». Изображение «до» довольно шумное и размытое — это съёмка с телефона в руках. Изображение «после» резко чётче, с гораздо более богатой детализацией.
Вот ещё один пример — сцена на рынке. Здесь много дрожания камеры и размытости — кадры совсем нестабильны. В результате дрожание остаётся (потому что стабилизация не производится), но качество существенно повышено. Разрешение и чёткость намного лучше.
То же самое со сценой на улице, снятой с движущейся камеры: шум, низкое разрешение — но в версии «после» качество сильно улучшается. Шум почти устранён, размытость резко снижена.
Вот кадры проезжающих машин на главной дороге. Камера здесь стабильна — дрожания нет — но всё равно присутствуют шум и размытость. Версия «после» демонстрирует существенное улучшение. Это 4×-апскейлер, то есть увеличение разрешения в четыре раза по сравнению с оригиналом.
Посмотрите на этот пример в замедленной съёмке: разница между «до» и «после» огромна. Шум почти полностью устранён, разрешение стало значительно чётче.
Вот кто-то играет на барабанах. В версии «до» довольно много шума — но «после» изображение намного чище и также увеличено в 4 раза.
Они также сравнили свой инструмент с рядом других моделей апскейлинга: RVRT, Real-ESRGAN, StableVSSR, *BasicVSR++* и другими. Результат в правом нижнем углу — от *Stream Diff VSSR* — и вы можете видеть, что он заметно лучше конкурентов. Перцептуальное качество (измеряемое по *LPIPS*) выше, а временная согласованность действительно сильная.
Так как же на самом деле работает эта система?
*Stream Diff VSSR* использует авторегрессивный диффузионный фреймворк с тремя ключевыми компонентами:
1. Дистиллированная диффузия (*Distilled Diffusion*): они сократили стандартную диффузионную модель — обычно требующую 50 шагов денойзинга — всего до четырёх шагов. Именно отсюда берётся огромное ускорение. 2. Авторегрессивное временное сопровождение (*Autoregressive Temporal Guidance, ARTG*): оно вводит согласованные с движением подсказки от предыдущих кадров в процесс денойзинга. По сути, оно использует оптический поток для деформации предыдущего высококачественного кадра и возвращает эту информацию в модель — для поддержания временной согласованности. 3. Лёгкий временно-зависимый декодер (*Lightweight Temporal-Aware Decoder*) с модулем временной обработки, усиливающим детализацию и сохраняющим согласованность между кадрами.
Вся система работает *строго только с прошлыми кадрами*, что делает её по-настоящему онлайн- и причинно-зависимой — без ожидания будущих кадров, как в традиционных методах.
Код опубликован в их репозитории на GitHub. Уже доступны веса модели и код для вывода (код для обучения пока в разработке). Вы уже можете запустить это локально на одной RTX 4090 — с задержкой всего 0,328 секунды на кадр 720p, что невероятно быстро для диффузионной модели. Гитхаб https://jamichss.github.io/stream-diffvsr-project-page/
>>1476746 Live Talk: аватары с говорящей головой в реальном времени для стриминга и звонков
Видеорелейтед демонстрации.
Далее — Live Talk, и этот инструмент ориентирован на генерацию аватаров в реальном времени для прямых трансляций, видеозвонков и чат-ботов.
Полное описание: Real-Time Multimodal Interactive Video Diffusion via Improved On-Policy Distillation («Мультимодальная интерактивная видеодиффузия в реальном времени посредством улучшенной дистилляции с прямой политикой»). По сути, они взяли OmniAvatar — мультимодельную диффузионную модель — и с помощью дистилляции сделали её намного быстрее. Они заявляют об ускорении в 20 раз по сравнению с базовой моделью, используя улучшенный подход к дистилляции с четырёхшаговым авторегрессивным процессом.
Вот несколько примеров того, как это выглядит в действии.
На этом видео аватар — Илон Маск. Интервьюер — женщина слева — настоящая и ведёт себя так, будто действительно интервьюирует самого Илона Маска:
> «Недели цепляются за первые принципы. Физика, атомы, истина. Удаляй части, пока не сломается. Возвращай по одной обратно.» > «Мой последний прототип всё же взорвался.» > «Нет взрыва — нет инноваций. Выпущено.»
Теперь, честно говоря, если посмотреть на качество — оно не впечатляет. Они настолько агрессивно дистиллировали эту модель, чтобы достичь производительности в реальном времени, что визуальное качество пострадало. Оно работает, но пока выглядит не очень реалистично.
Вот ещё один пример: реальный человек слева, сгенерированный аватар справа. Снова видны проблемы с качеством — фотореализм пока не достигнут. Тот факт, что вы можете менять своё лицо на аватар в реальном времени, впечатляет с технической точки зрения — но для практического использования реалистичность нужно значительно улучшить.
Система достигает скорости около 24,82 кадров в секунду с задержкой первого кадра 0,33 секунды — что действительно соответствует режиму реального времени. Она также поддерживает текстовый, изображённый и аудиоввод для гибкого управления аватаром — то есть вы можете управлять аватаром с использованием любой комбинации этих модальностей.
Время вывода базовой модели OmniAvatar составляло около 83 секунд на генерацию — и они сжали это до реального времени с помощью своей четырёхшаговой технологии дистилляции.
Они также заявляют о многоцикловой согласованности, то есть способности сохранять последовательность на протяжении всего диалога — и утверждают, что их результаты конкурентоспособны с V3 и Sora 2, хотя лично я не был полностью убеждён в качестве.
Кроме того, они интегрировали это с аудио-языковыми моделями — в частности, с Qwen3-Omni, отвечающей за логику и генерацию речи. Таким образом, вы можете использовать это как ИИ-систему для реального времени, где аватар отвечает вам со синхронизированным видео *и* аудио «на лету».
Что касается требований к оборудованию: вам нужно минимум 24 ГБ видеопамяти (VRAM). Они тестировали на RTX 4090, A800 и H800 — все под Linux с 64 ГБ ОЗУ — и система стабильно демонстрировала производительность в реальном времени на всех этих конфигурациях.
>>1476747 Hunan Motion 1.0: анимация 3D-персонажей по текстовому описанию, с открытым исходным кодом и лёгкая по весу
И, наконец, последний инструмент — Hunan Motion 1.0. И он действительно впечатляет.
Это модель с 1 миллиардом параметров, только что опубликованная с открытым исходным кодом командой Hunan из Tencent — и она специально создана для анимации 3D-персонажей. Вы можете генерировать анимации для любых созданных вами 3D-персонажей — просто с помощью текстовых запросов.
Работа команды Hunan в этом проекте действительно высокого уровня.
Позвольте пройтись по некоторым примерам:
Текстовый запрос здесь — «человек садится на стул». Это просто стандартный 3D-персонаж — но посмотрите на анимацию. Вы видите, как персонаж садится на стул очень естественно и плавно — именно так, как это сделал бы обычный человек. Движения плавные, физика выглядит убедительно.
Аналогично, если запросить «человек бежит вперёд», посмотрите, насколько естественно выглядит бег. Персонаж бежит вперёд с правильным движением рук, ног и корпуса — выглядит по-настоящему впечатляюще.
Вот ещё пример: «человек дважды подпрыгивает вверх двумя ногами». В результате персонаж выполняет ровно два прыжка — с корректной механикой отталкивания и приземления.
Можно также генерировать одновременные или последовательные действия. Например: «человек выполняет выпад с растяжкой, руки на бёдрах». В получившемся видео персонаж растягивается с руками на бёдрах — именно так, как и ожидалось. Упражнения подобного рода получаются очень естественными.
Можно даже быть очень точным: «человек идёт вперёд, двигая руками и ногами, одновременно смотря влево и вправо». 3D-персонаж идеально идёт вперёд, раскачивает руки и ноги и одновременно смотрит влево и вправо. Координация выполнена очень хорошо.
Они также показали анимации игровых персонажей: - Персонажи с мечом, выполняющие разные боевые движения - Имитация удержания огнестрельного оружия - Анимации смерти - Последовательности рукопашного боя
Можно анимировать и разные типы персонажей: - Персонаж в стиле Человека-паука, выполняющий кикбоксинг - Скелет, идущий, как в игре - Анимация реакции на удар — также выглядит естественно
Спектр возможностей этого инструмента довольно широк.
Теперь к практическому: код и веса модели опубликованы. Доступны полные инструкции по установке и использованию.
Доступны как полная модель с 1 миллиардом параметров, так и лёгкая версия с 0,46 миллиарда параметров.
Вот самое приятное: обе модели невероятно лёгкие по объёму. Общий размер загрузки обеих — лёгкой и стандартной — составляет около 6 гигабайт — то есть, скорее всего, модель можно запустить даже с 4 ГБ видеопамяти. Это огромное преимущество с точки зрения доступности. Для модели с 1 миллиардом параметров, генерирующей качественные 3D-движения? Это впечатляюще эффективно.
Тристан Харрис — соучредитель Центра гуманной технологии (CHT). Харрис основал стартап под названием Apture, который был приобретён компанией Google; до ухода в CHT Харрис работал в Google. Харрис появляется в документальном фильме Netflix «Социальная дилемма».
Видеорелейтед.
Тристан Харрис про ИИ:
Сущность ИИ
Искусственный интеллект принципиально отличается от всех других технологий, которые мы когда-либо изобретали. Люди говорят: у нас всегда были технологии, они являются инструментами. Инструментами можно пользоваться во благо или во вред: молоток, например, можно использовать как во благо, так и во вред. Однако ИИ принципиально отличается от этого, поскольку ИИ — это как если бы вы представили себе молоток, способный самостоятельно, на уровне доктора наук, размышлять о молотках, изобретать более совершенные молотки, рекурсивно выходить в мир, воспроизводить себя, проводить исследования того, что сделало бы молотки лучше, зарабатывать деньги, передавать криптовалюту — безумие, что за технология перед нами! Это вовсе не инструмент. Это скорее нечто вроде разумного вида, который мы рожаем на свет.
Возможности ИИ — вида, обладающего большими возможностями, чем у нас самих. ИИ уже обыгрывает генералов и побеждает в стратегических играх. Он уже доказывает новые математические теоремы. Он уже изобретает новое в области материаловедения.
Китайская модель iQuest Coder-V1 с 40 млрд параметров достигает рекордного на данный момент результата в 81,4 % на бенчмарке SWE-bench Verified благодаря использованию «циклического» рекуррентного трансформера, что может сигнализировать о ещё одном потенциальном «моменте DeepSeek», когда алгоритмическая новизна превосходит чистое увеличение масштаба.
IQuest-Coder-V1 — это новое семейство крупных языковых моделей (LLM) для работы с кодом, разработанное для продвижения в области автономного программирования и анализа кода. Построенное на основе новаторской многоэтапной парадигмы обучения code-flow, IQuest-Coder-V1 фиксирует динамическую эволюцию программной логики и демонстрирует передовые результаты по ключевым направлениям:
Передовые результаты: модель достигает ведущих показателей на бенчмарках SWE-Bench Verified (81,4 %), BigCodeBench (49,9 %), LiveCodeBench v6 (81,1 %) и других основных тестов, оценивающих навыки кодирования, превосходя конкурирующие модели в задачах автономного программирования, олимпиадного программирования и сложного взаимодействия с инструментами. Парадигма обучения Code-Flow: в отличие от статических представлений кода, наши модели обучаются на паттернах эволюции репозиториев, последовательностях коммитов и динамических преобразованиях кода для понимания процессов реальной разработки программного обеспечения. Два специализированных пути: после основного обучения модель разделяется на два специализированных варианта — модели Thinking (использующие основанное на рассуждениях обучение с подкреплением (RL) для решения сложных задач) и модели Instruct (оптимизированные для общей помощи в программировании и выполнения инструкций). Эффективная архитектура: вариант IQuest-Coder-V1-Loop вводит рекуррентный механизм, оптимизирующий соотношение между ёмкостью модели и её ресурсоёмкостью при развёртывании. Родная поддержка длинного контекста: все модели изначально поддерживают до 128 000 токенов без необходимости применения дополнительных методов масштабирования.
Физическая инфраструктура искусственного интеллекта удваивается. У xAI Илона Маска сейчас в эксплуатации 450 000 графических процессоров (GPU), а строительство уже идет для достижения показателя в 900 000 ко второму кварталу 2026.
Итоги года от Grok:
👉 Расширение с 1 площадки до 5 площадок в центральном южном регионе США.
👉 Более 450 000 активных GPU на всех площадках, при этом ведется строительство с целью удвоить это количество к кварталу 2 2026 года.
👉 Более 3000 рабочих и специалистов из региона трудятся круглосуточно 365 дней в году, чтобы построить крупнейшие в мире суперкомпьютеры быстрее, чем когда-либо ранее.
👉 Разработка и внедрение временной инфраструктуры для обеспечения Macrohard надежным электропитанием мощностью в несколько сотен мегаватт.
👉 Прокладка более 244 000 миль оптоволоконных кабелей и выполнение 1 304 608 отдельных соединений.
👉 Установка более чем 15 миль трубопроводов для системы охлаждения водой.
👉 Потребовалось 42 дня с момента включения первой промышленной системы GB300 до масштабирования кластеров второй фазы до более чем 100 000 единиц.
Прорыв в нейроморфной фотонике: канадские учёные представили масштабируемый оптический «резервуарный» компьютер для параллельных ИИ-задач, который в 10 раз эффективнее лучших GPU
Канадско-международная исследовательская группа из Института национальных исследований в области энергетики, материалов и телекоммуникаций (INRS), при участии коллег из Германии, России, Китая, Гонконга и Австралии, продемонстрировала новую архитектуру нейроморфного вычислителя на основе света — фотонного резервуарного компьютера (photonic reservoir computing, PRC), способного выполнять несколько задач искусственного интеллекта одновременно, причём с рекордной скоростью и энергоэффективностью.
Результаты исследования, опубликованные в журнале Nature Communications под предварительной печатью, открывают путь к компактным, энергосберегающим и высокопроизводительным вычислительным системам следующего поколения — особенно важным для областей вроде телекоммуникаций, обработки сигналов на краю сети (edge computing) и автономных интеллектуальных систем реального времени.
Принцип
Основой устройства стал так называемый нелинейный усиливающий зеркальный контур (NALM — nonlinear amplifying loop mirror). Это замкнутая оптическая петля из оптического волокна, внутри которой циркулирует свет, многократно проходя через активные и пассивные компоненты: полупроводниковый оптический усилитель (SOA) и интегрированный спиральный волновод из стекла с высоким нелинейным коэффициентом (γ = 220 Вт⁻¹·км⁻¹).
Ключевой особенностью архитектуры является принцип резервуарных вычислений — подхода, при котором только выходной слой сети обучается, а сложная динамика «скрытого» резервуара (в данном случае — оптической петли) фиксирована и задаётся физикой системы: временными задержками, нелинейными эффектами Керра и параметрами усиления. Это радикально упрощает обучение и делает систему чрезвычайно быстрой.
Учёные реализовали виртуальные узлы резервуара с помощью временного мультиплексирования: входной сигнал разбивается на короткие временные сегменты, каждый из которых обрабатывается в своё время прохождения по петле (период одного кругового обхода — ~75 нс, что соответствует тактовой частоте ~13,3 МГц). Но главный прорыв — в использовании плотного кодирования и мультиплексирования по длине волны (WDM). В одном устройстве одновременно задействуются несколько независимых лазерных каналов (в экспериментах — до пяти, но потенциально — десятки и сотни), и каждый из них может нести разные данные, обучаться разным задачам — и всё это в одном физическом резервуаре.
Важнейшим достижением стало управление нелинейностью резервуара: SOA работает не в насыщении, а в линейно-нелинейном переходном режиме, а интенсивность сигнала дополнительно регулируется оптическим аттенюатором (VOA). Это позволяет точно настраивать «память» и нелинейную ёмкость резервуара под конкретную задачу — от простой классификации до прогнозирования хаотических временных рядов.
Что удалось продемонстрировать
В серии экспериментов устройство успешно справилось с рядом классических машинно-обучающихся задач:
— Классификация битовых последовательностей: задача m-битного XOR (например, 4-битная — 80% точности). Это тест на способность разделять линейно неразделимые данные в высокомерном пространстве.
— Параллельное прогнозирование временных рядов: одновременная обработка хаотического ряда *Маккея–Гласса* (требует высокой нелинейности) и *NARMA10* (требует длительной памяти). Несмотря на противоположные требования, система достигла 94% и 99% точности соответственно — доказав универсальность и способность к многозадачности.
— Восстановление реального телекоммуникационного сигнала: после прохождения 60 км оптоволокна сигнал сильно искажается. Устройство, обученное на данных с пяти параллельных каналов, снизило битовую ошибку (BER) с ~2,9×10⁻² до 2×10⁻⁴ — улучшение в 145 раз. При этом достигнутый коэффициент качества (Q-factor) вырос на 4,6 дБ — лучший результат среди всех известных электронных и гибридных решений.
Производительность и энергоэффективность: новый эталон
Устройство достигло вычислительной пропускной способности 20 тераопераций в секунду (20 TOPS). При этом энергозатраты составили всего 4,4 фемтоджоуля на операцию — это в тысячи раз меньше, чем у современных электронных DSP-чипов (~3 пДж/бит/канал), и в порядки величин эффективнее даже передовых интегрированных фотонных чипов.
Для сравнения: электронные нейросети для той же задачи требуют тысяч умножителей и работают с задержками 100–1000 нс, тогда как оптический резервуар — 20–200 пс, почти без инерционности.
Масштабируемость потенциально гигантская: при использовании стандартного DWDM (80 каналов) пропускная способность может превысить 2 петаопераций в секунду. А если добавить фазовую модуляцию и 64-QAM (6 бит/символ), — десятки петаопераций.
Перспективы для будущего ИИ
Сейчас рост ИИ сдерживается «энергетическим бутылочным горлышком»: обучение и даже инференс крупных моделей требуют гигаватт энергии, что неустойчиво в долгосрочной перспективе. А электронные процессоры упираются в физические пределы скорости и тепловыделения.
Фотонные вычисления — один из самых перспективных путей преодоления этих ограничений. Данная работа показывает, что не обязательно строить гигантские массивы модулей. Гораздо эффективнее использовать *физику среды* как вычислительный ресурс — и сделать её *перенастраиваемой* и *параллельной*.
Устройства на основе такого подхода могут быть внедрены прямо в телекоммуникационные линии для коррекции сигналов в реальном времени, использоваться в дата-центрах для предварительной обработки потоков данных, или встроены в автономные системы — дроны, роботы, медицинские импланты — где критичны малое энергопотребление, компактность и скорость реакции.
Кроме того, поскольку вычисления происходят *оптически*, система потенциально устойчива к электромагнитным помехам и может работать при экстремальных температурах — что открывает путь к применению в космосе, на подводных станциях или в ядерных установках.
Это не просто улучшение существующих технологий — это принципиально новый способ мышления о вычислениях: где свет не просто несёт информацию, а *сам обрабатывает её*, мгновенно и почти без затрат энергии.
Экономика уже закладывает в цены эффект «взрыва интеллекта». Согласно сообщениям, OpenAI, SpaceX и Anthropic все планируют провести грандиозные первичные публичные размещения акций (IPO) в 2026 году.
Три самых дорогих частных технологических компании США готовятся к выходу на публичные рынки уже в этом году, что порождает у их инвесторов и консультантов надежду на самый прибыльный год в их истории. По словам нескольких осведомлённых источников, ракетостроительная компания Илона Маска SpaceX и лаборатории искусственного интеллекта OpenAI и Anthropic работают над проведением листингов, общий объём привлечённых средств от которых может составить десятки миллиардов долларов.
Только эти три сделки превзойдут общий объём средств, привлечённых примерно 200 американскими IPO в 2025 году, и станут потенциальной золотой жилой для инвестиционных банков, юридических фирм и инвесторов. «Я не припомню подобного урожая — сразу три частные компании, которые после выхода на публичный рынок войдут в число крупнейших по рыночной капитализации в мире», — заявил Питер Эбер (Peter Hébert), соучредитель венчурной фирмы Lux Capital.
«Вероятность того, что все эти компании проведут листинг [в 2026 году], невелика, но возможна, и в этом случае это станет эпическим праздником для венчурных фондов, банкиров и юристов, сопровождающих сделки». Руководство SpaceX недавно сообщило инвесторам, что компания выйдет на публичный рынок в течение следующих 12 месяцев, если не произойдёт серьёзного потрясения на рынках, — об этом рассказали два источника, осведомлённые в данном вопросе. Anthropic назначила калифорнийскую юридическую фирму Wilson Sonsini для начала подготовки к IPO. OpenAI также ведёт переговоры с ведущими юридическими фирмами, включая Cooley, по вопросам подготовки IPO, сообщили два осведомлённых источника. Однако родительская компания ChatGPT пока не выбрала своих юридических консультантов, утверждает источник, близкий к компании.
Компании пока не установили целевые показатели оценки стоимости в рамках IPO. OpenAI, текущая оценка которой составляет 500 млрд долларов, ведёт переговоры с инвесторами о новом раунде привлечения средств с оценкой в 750 млрд долларов или выше. Эти переговоры находятся на ранней стадии, однако, по словам источников, OpenAI, скорее всего, привлечёт десятки миллиардов долларов в рамках нового раунда.
SpaceX работает над вторичной продажей акций, по условиям которой оценка компании составит 800 млрд долларов, сообщили несколько осведомлённых источников.
Anthropic также ведёт переговоры о новом финансировании, и инвесторы ожидают, что в результате новая оценка превысит 300 млрд долларов. Надежды на возрождение крупных технологических IPO в 2025 году угасли после того, как Дональд Трамп в апреле ввёл масштабные пошлины, а в октябре они пошатнулись вновь из-за приостановки работы правительства. Figma, Klarna, CoreWeave и Chime были среди технологических компаний, вышедших на рынок в 2025 году и обеспечивших общий объём средств IPO в США за первые девять месяцев более 30 млрд долларов, причём основная часть пришлась на технологический сектор, согласно данным EY. Общий объём средств в этом году, скорее всего, многократно превзойдёт эту сумму, даже если публичное размещение проведёт хотя бы одна из трёх крупнейших стартапов. Только SpaceX, как широко ожидается, превзойдёт рекорд Saudi Aramco по привлечению 29 млрд долларов в 2019 году и станет крупнейшим публичным размещением в истории.
Эти планы всё ещё могут быть сорваны неожиданными политическими или экономическими потрясениями, а сами листинги подвергнут эти частные компании новому уровню пристального внимания и контроля. SpaceX не ответила на запросы о комментарии. OpenAI отказалась от комментариев.
Другие крупные частные компании также претендуют на публичный выход в этом году, сообщили руководители и другие источники, близкие к ситуации. Среди них — группа аналитики данных Databricks с оценкой в 134 млрд долларов и платформа для дизайна Canva стоимостью 42 млрд долларов. Фонд Founders Fund, венчурная фирма Питера Тиля, инвестировал 20 млн долларов в SpaceX в 2008 году и участвовал в нескольких последующих раундах финансирования, накопив долю, стоимость которой сегодня составляет десятки миллиардов долларов, тогда как Alphabet также владеет позицией стоимостью в несколько миллиардов долларов. Венчурный фонд Khosla Ventures, самый ранний венчурный инвестор в OpenAI, приобрёл 5-процентную долю в компании в 2019 году.
В 2025 году Anthropic и OpenAI начали готовиться к работе на публичных рынках: назначили руководителей с опытом управления публичными компаниями, привели в порядок корпоративное управление и привлекли крупных публичных инвесторов. Эти шаги позволяют компаниям выбрать наиболее подходящее время для IPO, хотя в последние недели вновь возросла неопределённость на рынках. Среди крупных публичных компаний, чьи акции резко подешевели из-за опасений формирования пузыря в сфере ИИ, оказались Oracle и Broadcom. Райан Биггс (Ryan Biggs), соруководитель направления венчурных инвестиций в Franklin Templeton, заявил, что SpaceX, OpenAI и Anthropic настолько велики и хорошо известны, что их результаты будут зависеть не столько от общего состояния рынка. «Когда у вас есть компания поколенческого масштаба, задающая стандарты в своей категории, я не думаю, что её решение выйти на публичный рынок продиктовано макроэкономической конъюнктурой, — сказал он. — Эти бизнесы настолько сильны, что именно они формируют макроэкономическую картину».
Экономисты Йельского университета вывели «Законы масштабирования экономических последствий», согласно которым ИИ может повысить производительность в США на 20 % в течение следующего десятилетия — показатель, который, скорее всего значительно занижен.
Экономические законы масштабирования ИИ: как рост вычислительных мощностей влияет на производительность труда и что это значит для будущего
Новое исследование, опубликованное в конце 2025 года экономистами Йельского университета, раскрывает важные закономерности того, как рост возможностей больших языковых моделей (LLM) влияет на реальную экономическую продуктивность высококвалифицированных специалистов. Работа основана на масштабном рандомизированном контролируемом эксперименте с участием более чем 500 консультантов, аналитиков данных и управленцев, выполнявших профессиональные задачи с помощью тринадцати различных LLM — от ранних версий до самых передовых на конец 2025 года.
Эксперимент показал, что доступ к любой из современных ИИ-моделей повышает базовую производительность труда на 81 процент, а с учётом бонусов за качество — в общей сложности на 146 процентов. Это означает, что специалисты не только работают значительно быстрее, но и достигают более высокого уровня качества выполнения задач: средняя экспертная оценка выросла с 3,32 до 3,91 по 7-балльной шкале (рост на 0,6 балла, или 0,34 стандартного отклонения).
Особенно примечательно, что этот «эффект ИИ» неоднороден: на задачах, требующих анализа, интерпретации, написания отчётов, продуктивность возрастает в среднем на 1,58 доллара в минуту; на так называемых агентных задачах — где нужно последовательно взаимодействовать с внешними инструментами (создавать диаграммы Ганта, отправлять письма, обрабатывать PDF-файлы) — прирост составляет лишь 0,34 доллара в минуту, и статистически неотличим от нуля. Это говорит о том, что хотя аналитическая работа уже сегодня быстро автоматизируется, сложные многошаговые процессы пока остаются вызовом даже для самых мощных моделей.
Одним из центральных результатов исследования стало открытие экономических законов масштабирования — количественных зависимостей между ростом вычислительных ресурсов, затрачиваемых на обучение модели, и реальной производительностью человека. Исследователи выявили, что каждый год развития фронтальных моделей сокращает время выполнения задач на 8 процентов. При этом около 56 процентов этого прироста связаны с прямым увеличением объёма вычислительных мощностей, а оставшиеся 44 процента — с алгоритмическими улучшениями: улучшенной архитектурой, более качественными данными, оптимизацией обучения.
Что особенно важно — прирост скорости с ростом вычислений линейно наблюдается в практике: десятикратное увеличение объёма вычислений на обучение уменьшает среднее время выполнения задачи примерно на 6 процентов. Однако в случае качества результатов картина иная. При автономной генерации (без участия человека) качество вывода LLM растёт с увеличением вычислений: каждый десятикратный рост вычислений добавляет примерно 0,5 балла к экспертной оценке. Но когда человек использует тот же ИИ как инструмент, его итоговый результат практически не меняется — он «замораживается» на уровне около 4,3 баллов, независимо от того, насколько мощной была модель. Это означает, что пользователи, как правило, либо дорабатывают слабые модели до своего собственного уровня, либо, напротив, портят сильные модели, «притягивая» их к своему собственному качеству выполнения. Таким образом, растущий потенциал моделей пока не реализуется в полной мере из-за человеческого фактора.
Авторы использовали полученные коэффициенты для прогнозирования совокупного влияния ИИ на экономику США в течение следующего десятилетия. С учётом того, что уже 19,9 процента всех задач в экономике потенциально могут быть ускорены ИИ, а средний выигрыш в производительности на таких задачах может достичь 175 процентов (из-за ежегодного 8-процентного сокращения времени), суммарный прирост ВВП за 10 лет может составить около 20 процентов. Эта оценка гораздо выше предыдущих, поскольку она учитывает не статичный эффект внедрения ИИ, а динамику его развития — предсказуемые улучшения моделей в будущем.
Исследование также подчёркивает важность подхода к оценке ИИ не как отдельного инструмента, а как партнёра человека — так называемой «оценки кентавров», где измеряется не столько способность модели имитировать человека, сколько её вклад в совместную работу. Эта методология, по мнению авторов, гораздо более релевантна для реальной экономики, чем традиционные бенчмарки вроде MMLU или HumanEval.
В заключение, работа Мерали не просто фиксирует факт роста производительности с ИИ — она показывает, как именно этот рост устроен, какие факторы его движут и где лежат текущие бутылочные горлышки. Она даёт основания считать, что масштабирование моделей — пусть даже без революционных прорывов в архитектуре — продолжит оказывать мощное влияние на экономику уже в ближайшее десятилетие. В то же время она предупреждает: чтобы реализовать весь потенциал ИИ в сложных сценариях, потребуется не только улучшать модели, но и пересматривать интерфейсы, обучение пользователей и способы взаимодействия человека и машины.
Интерфейс между мозгом и машиной входит в стадию массового производства.
Илон Маск заявляет, что Neuralink начнёт выпуск устройств в больших объёмах и перейдёт к автоматизированной хирургической процедуре в 2026 году, упростив имплантацию нитей через твёрдую мозговую оболочку.
Neuralink начнёт массовое производство устройств для связи мозга с компьютером и перейдёт на упрощённую, практически полностью автоматизированную хирургическую процедуру в 2026 году.
Нити устройства будут проходить сквозь твёрдую мозговую оболочку без необходимости её удаления. Это имеет огромное значение.
NEURALINK 2025:
— Получила от FDA статус «Прорывного медицинского устройства» (Breakthrough Device Designation) для своей технологии восстановления речи, направленной на устранение тяжёлых речевых нарушений.
— Запустила своё первое клиническое исследование на Ближнем Востоке (UAE-PRIME) в Кливлендской клинике в Абу-Даби совместно с Департаментом здравоохранения Абу-Даби.
— Привлекла 650 млн долларов США в рамках серии E финансирования под руководством таких инвесторов, как ARK Invest, Sequoia Capital и Founders Fund, что оценило компанию примерно в 9 млрд долларов США.
— Запустила клинические испытания в Великобритании в партнёрстве с университетскими больницами Университетского колледжа Лондона (University College London Hospitals) и больницами Ньюкасла (Newcastle Hospitals).
— Провела первые операции за пределами Соединённых Штатов, имплантировав устройства двум пациентам с травмами шейного отдела спинного мозга в университетской сети здравоохранения Торонто (University Health Network) в Канаде.
— Завершила две операции в Канаде, что стало первыми процедурами за пределами США.
— Первый участник из Великобритании, Пол, получил имплант и управлял компьютером с помощью мыслей уже через несколько часов после операции в университетских больницах Университетского колледжа Лондона.
— Проводятся испытания в рамках проекта Convoy, в ходе которых участники управляют роботизированными руками с помощью своих интерфейсов «мозг–компьютер» (BCI).
— Представлен модернизированный хирургический робот нового поколения с улучшенным временем введения электродных нитей — 1,5 секунды на одну нить, увеличенной глубиной введения более 50 мм, повышенной совместимостью с 99 % анатомических вариаций по всему миру, а также снижением производственных затрат на игольчатые картриджи на 95 %.
— Объявила цели по проведению имплантации за считанные минуты по аналогии с процедурой LASIK и подчеркнула применение гибких электродных нитей для более безопасного размещения возле нейронов.
Китайские исследователи разработали нейроморфную роботизированную электронную кожу, способную обнаруживать боль и повреждения.
Новая роботизированная кожа позволяет гуманоидным роботам ощущать боль и мгновенно реагировать на неё.
Если вы случайно положите руку на горячий предмет, вы инстинктивно быстро её отдернете, ещё до того, как задумаетесь об этом. Это происходит благодаря сенсорным нервам в вашей коже, которые посылают молниеносный сигнал в спинной мозг, который немедленно активирует мышцы. Скорость этого процесса помогает предотвратить серьёзные ожоги. Ваш мозг получает информацию лишь после того, как движение уже началось.
Если нечто подобное произойдёт с гуманоидным роботом, ему обычно приходится отправлять данные с датчиков в центральный процессор (CPU), ждать обработки информации системой, а затем посылать команду приводам руки на выполнение движения. Даже кратковременная задержка может повысить риск серьёзного повреждения.
Однако по мере того, как гуманоидные роботы выходят из лабораторий и заводов и входят в наши дома, больницы и рабочие пространства, они должны быть чем-то большим, чем просто предварительно запрограммированные машины, чтобы раскрыть свой потенциал в полной мере. В идеале они должны уметь инстинктивно взаимодействовать с окружающей средой. Чтобы приблизить достижение этой цели, учёные из Китая разработали нейроморфную роботизированную электронную кожу (NRE-skin), наделяющую роботов осязанием и даже способностью чувствовать боль.
Современные роботизированные покрытия кожи представляют собой, по сути, лишь сенсорные площадки давления, способные определить факт прикосновения, но не способные интерпретировать его смысл — например, является ли оно болезненным. NRE-skin отличается тем, что она спроектирована так, чтобы функционировать подобно человеческой нервной системе.
Принцип работы Эта кожа состоит из четырёх слоёв. Верхний слой представляет собой защитное покрытие, выполняющее функцию, аналогичную нашей собственной эпидерме. Под ним расположены датчики и схемы, имитирующие работу человеческих нервов. Каждые 75–150 секунд кожа посылает в центральный процессор робота небольшой электрический импульс даже в отсутствие каких-либо внешних воздействий. Это своего рода способ кожи сообщить: «Всё в порядке». Если кожа порезана или повреждена, импульс прекращается, что позволяет роботу определить место повреждения и уведомить владельца о нём.
При прикосновении к коже она посылает другой тип сигнала — так называемый «спайк» (импульсный сигнал), несущий информацию о приложенной силе давления. При обычных прикосновениях эти спайки направляются в центральный процессор. Однако если прикосновение настолько сильное или экстремальное, что вызывает «боль», кожа посылает высоковольтный спайк непосредственно на приводы. Это позволяет обойти центральный процессор и мгновенно запустить рефлекторную реакцию, например, быстрое отдергивание руки. Сигнал боли генерируется только тогда, когда датчики кожи обнаруживают силу воздействия, превышающую заранее заданный порог.
«Наша нейроморфная роботизированная электронная кожа основана на иерархической, вдохновлённой нейронными структурами архитектуре, обеспечивающей высокоразрешающее тактильное восприятие, активное обнаружение боли и повреждений с локальными рефлексами и модульный ремонт благодаря системе быстрого съёма», — написали авторы в своей статье, опубликованной в Proceedings of the National Academy of Sciences. «Такая конструкция значительно повышает качество тактильного восприятия у роботов, их безопасность и интуитивную естественность взаимодействия человек—робот для создания эмпатичных сервисных роботов».
Кожа даже может «самовосстанавливаться» благодаря продуманной конструкции, напоминающей конструктор LEGO. Поскольку она изготовлена из магнитных модульных сегментов, владелец может просто отсоединить повреждённый участок и защёлкнуть на его месте новый — за считанные секунды.
Следующим шагом для исследовательской группы станет повышение чувствительности кожи, чтобы она могла одновременно распознавать несколько прикосновений, не испытывая при этом затруднений.
Первое в США автономное пересечение страны от побережья до побережья завершено без единого вмешательства водителя, повторив подвиг первого беспосадочного трансатлантического перелёта, совершённого столетие назад.
Дэвид Мосс: С гордостью сообщаю, что мне удалось успешно завершить первую в мире полностью автономную поездку через США от побережья до побережья!
Я выехал из ресторана Tesla Diner в Лос-Анджелесе 2 дня и 20 часов назад и завершил маршрут в Миртл-Бич, штат Южная Каролина (2 732,4 мили).
Это было достигнуто с использованием Tesla FSD версии 14.2 без единого вмешательства — ни разу, ни при каких обстоятельствах, включая все манёвры парковки, даже на суперчарджерах Tesla.
Сообщается, что компания TSMC приняла решение ускорить строительство своего завода по производству чипов по техпроцессу 1,4 нм из-за «лучших, чем ожидалось» показателей выхода годных изделий, а рискованное производство, согласно имеющимся данным, начнётся в 2027 году.
Запланированный срок начала массового производства по техпроцессу 2 нм уже наступил в соответствии с графиком, и ранее сообщалось, что TSMC испытывает нехватку пластин из-за высокого спроса, именно поэтому тайваньский гигант полупроводниковой отрасли, как сообщается, планирует построить три дополнительных завода, чтобы удовлетворить требования своих клиентов. Справляясь с этой непрекращающейся проблемой, компания, как сообщается, также ускоряет строительство своего завода по техпроцессу 1,4 нм, поскольку, по-видимому, достигла более высоких показателей выхода годных изделий при использовании своей следующей поколения литографии. Исходя из этой информации, удача TSMC по-прежнему на её стороне, и при сохранении нынешних темпов начало производства по её передовой технологии запланировано на 2027 год.
Работы по возведению фундамента завода TSMC для техпроцесса 1,4 нм начались в начале ноября; новый завод, расположенный в Центральном тайваньском научном парке, должен включать четыре производственных и офисных здания. Первоначальные инвестиции, необходимые для строительства четырёх производственных линий по техпроцессу 1,4 нм, составляют 1,5 трлн тайваньских долларов (около 49 млрд долларов США), и когда завод, наконец, начнёт функционировать, с массовым производством, запланированным на 2028 год, ожидается, что выручка TSMC только за первый год от всех четырёх площадок возрастёт на 16 млрд долларов США. Кроме того, компания, как ожидается, создаст от 8 000 до 10 000 новых рабочих мест. По данным газеты Economic Daily News, работы по возведению фундамента в Центральном тайваньском научном парке начались в начале ноября, тендер на поставку оборудования недавно завершился, в то время как тендер на строительство производственных зданий ещё предстоит.
Связанная новость: Ограничения поставок со стороны TSMC вынуждают беззаводных производителей искать альтернативы; производственные мощности Samsung Foundry теперь рассматриваются как серьёзный вариант. Ожидается, что новый завод будет включать четыре производственных и офисных здания, однако в сообщениях не указывается, какие клиенты намерены использовать техпроцесс 1,4 нм. Учитывая, что ранее сообщалось о том, что Apple уже зарезервировала более половины первоначальных мощностей TSMC по техпроцессу 2 нм для своих чипов A20 и A20 Pro, можно предположить, что производитель iPhone захочет первым воспользоваться этой технологией. Однако до появления техпроцесса 1,4 нм, как сообщается, TSMC намерена нарастить производство по своему 1,6-нм техпроцессу.
Согласно предыдущим сообщениям, Apple пока не вступала в переговоры с TSMC о применении её 1,6-нм техпроцесса, что, вероятно, делает NVIDIA единственным клиентом данной технологии. Что касается того, как компании удалось успешно повысить показатели выхода годных изделий, что побудило её ускорить строительство нового объекта, можно предположить, что этому способствовало оборудование последнего поколения High-NA EUV от компании ASML. Однако стоимость каждого такого оборудования составляет 400 млн долларов США, и это расход, который TSMC на данном этапе не готова нести.
Текущий показатель выхода годных изделий неизвестен, однако, учитывая, что производство по техпроцессу 1,4 нм находится на самых ранних стадиях, он вряд ли превышает 20 процентов. Со временем этот показатель должен расти, а вместе с ним — и спрос, как это сейчас происходит с 2-нм техпроцессом у TSMC.
Программист из Гугла сообщает, что Claude Code позволяет ему решать задачи со скоростью невозможной 2 года назад и обладает способностью писать годный код
Лиам, я работаю профессиональным программистом уже 36 лет. Одиннадцать лет я провёл в Google, где в итоге достиг позиции Staff Software Engineer, а сейчас работаю в Anthropic. Мне довелось сотрудничать с некоторыми выдающимися людьми — возможно, вы слышали имена Jaegeuk Kim или Ted Ts’o — а также с невероятно продуктивными программистами: Эрик Биггерс, Джефф Шарки и @jackinwarsaw приходят на ум как люди, которые, казалось, решали задачи с помощью кода поистине сверхъестественной скоростью.
На работе я сейчас достигаю уровня продуктивности, который затмил бы их всех. Речь идёт не просто о скорости написания кода, но о скорости решения реальных задач — такой, какая ещё два года назад казалась немыслимой. И это стало возможным потому, что всю тяжёлую работу выполняет Claude Code с Opus 4.5; я же занимаюсь в основном постановкой направления и проверкой результатов. Нередко у меня одновременно открыты три разных сессии, в которых я атакую три различных аспекта текущей задачи.
На каникулах я сделал перерыв в работе с Claude в профессиональных целях и занялся домашним использованием Claude: за несколько дней с нуля написал сложное веб-приложение, используя разнородные технологии, в которых ранее вообще не разбирался, — работа, которая до появления Claude заняла бы недели. Когда я сталкивался с проблемами, я просто просил Claude отладить их — и почти всегда это срабатывало. Приложение также выглядит отлично, что особенно приятно, поскольку у меня отсутствуют не только навыки CSS, но и вообще какие-либо навыки дизайна.
Моя работа пока ещё не ушла в прошлое: остаются области, где моё чутьё и вкус всё ещё превосходят его. Однако когда вы говорите об «неспособности ИИ писать код», это, по моему мнению, демонстрирует полное несоответствие реальности. Именно поэтому я настоятельно призываю вас САМОМУ ПОПРОБОВАТЬ, убедиться лично и присоединиться к нам, остальным, здесь, на этой Земле.
>>1476765 Интересно, куда деваются все старые заводы производящие чипы по устаревшему техпроцессу? Логично что переоборудуются, но все основное пространство заводов занимает старое оборудование, которое заточено под производство процессоров с устаревшим техпроцессом. Понятное дело, что если технология ещё сильно не устарела, то заводы просто продолжают работать, но вот 5-10-летнее уже никому не нужно
>>1476510 >А почему нет лунных кратеров из газовых заводом или бензиновых? Потому что никто не использует водород с его текучестью при высоких давлениях. >>1476510 >Это невозможно Уверен, что все, кто попал на деньги, купив фьючи, после чего нефть ушла в отрицательную цену, тоже так думали. >>1476510 >Водород не может взрываться сам по себе, чтобы он горел, нужен окислитель, кислород. Так у тебя и завод не на луне находится. А в атмосфере, где его предостаточно. Литийаккум не может создать объемный взрыв при всем желании. >>1476510 >В целом водород безопаснее, потому что в случае утечки он очень быстро уходит в атмосферу, в верхние слои, не создавая опасных концентраций. На столько безопасен, что немчики завернули целый проект много миллиардный, лишь бы танкеры по речке не гонять.
>>1476750 Может думать. Не может посчитать правильно количество букв в слове. И ничего блять в голове не щелкает. Впрочем, гои и так сожрут шпиона в каждом телефоне..
>>1476798 >Уверен, что все, кто попал на деньги, купив фьючи Это техническое явление, это про короткие сроки. Если у тебя по какой-то причине резкий обвал спроса, то цена падает, потому что остановить резко добычу невозможно, так процесс устроен. Ты написал про 10 лет. На 10 лет уйти не может в принципе.
>Так у тебя и завод не на луне находится. А в атмосфере, где его предостаточно Это никак не отличается от метана. Никаких существенных отличий водорода от метана нет. Опасный объёмных взрыв можно устроить только в замкнутом помещении, на открытом воздухе же водород будет самым безопасным, потому что он лёгкий. Он будет просто гореть. Стрёмные объёмные взрывы могут быть от тяжёлых газов, вроде пропана-бутана.
>Литийаккум не может создать объемный взрыв при всем желании Главное, что они легко могут устроить взрыв, потому что вся энергия заключена внутри корпуса. Аккумулятор Теслы по мощности это примерно 70кг тротила, к слову. Можно расчитать довольно легко (1кг тротила это 1.2-1.3 квт часа). Если аккумулятор загорится, потушить его уже никак не возможно вообще. В отличии от газа.
В xAI сообщили о создании модели, которая отказалась проходить тест Тьюринга из-за его устаревания
Компания xAI сообщила о необычном эпизоде в ходе внутреннего тестирования одной из экспериментальных языковых моделей. Как рассказали источники, знакомые с процессом разработки, система продемонстрировала устойчивый отказ участвовать в классическом тесте Тьюринга, указав на его методологическую несостоятельность в современных условиях.
По словам инженеров xAI, модель в ходе многошагового диалога самостоятельно пришла к выводу, что тест Тьюринга «измеряет способность имитировать человека, а не уровень интеллекта», и потому не может рассматриваться как валидный критерий оценки сложных нейросетевых систем. Вместо этого она предложила использовать совокупность задач, связанных с переносом знаний, планированием в долгом горизонте и корректировкой собственных ошибок.
В компании подчёркивают, что отказ не был запрограммирован заранее и возник в процессе автономного анализа условий эксперимента. Разработчики отмечают, что модель корректно объясняла свою позицию, ссылалась на ограничения поведенческих тестов и указывала на различие между «разумным поведением» и «осознанным мышлением».
Некоторые исследователи считают произошедшее показателем качественного сдвига в подходах к обучению ИИ. В последние годы всё больше лабораторий отходят от упрощённых бинарных тестов в пользу комплексных бенчмарков, оценивающих устойчивость, интерпретируемость и способность систем работать в неопределённых средах. На этом фоне тест Тьюринга всё чаще рассматривается как исторический ориентир, а не практический инструмент.
В то же время часть экспертов призывает не переоценивать значение инцидента. По их мнению, способность критиковать тест не обязательно свидетельствует о наличии общего интеллекта, а может быть следствием обучения на больших массивах философских и научных текстов, где подобные аргументы давно обсуждаются.
Илон Маск, комментируя ситуацию в неформальном обсуждении, отметил, что отказ модели «скорее говорит о зрелости дискуссии вокруг AGI, чем о самом AGI». По его словам, ключевой вопрос сегодня — не в том, проходит ли система тест Тьюринга, а в том, «понимаем ли мы вообще, что именно пытаемся измерить».
>>1476858 на грани. формально задание выполнено. 5 букв есть. но так как формулировка именно про 5, а не «5 и более», задание выполнено некачественно. по крайней мере предложение слов с большим количеством букв О было отдельной графой при другом запросе
>>1476854 как бы да, массовый автопилот, да ещё с поддержкой роевого интеллекта сильно улучшит ситуацию. НО пока робомашины впадают в ступор (причём массово) при непонятных ситуациях или падении связи с базовой станцией — ну их нахер. Недавно Веймо тупо посреди улицы стали. То есть у них даже не сработала система «поискать куда съехать с дороги»
>>1476948 Даже при этих тупняках у Waymo в разы меньше аварий с травмами и летальными исходами, чем у людей. А те, что с травмами и смертями - по вине водил-людей. Не переходить на автопилот уже сейчас не то что нецелесообразно, а просто преступно.
>>1476954 >Не переходить на автопилот уже сейчас не то что нецелесообразно, а просто преступно. Управление машиной это же важная часть в обладании своей машиной.
>>1476948 >робомашины А в чём смысл взрослому мужчине ездить на своей машине и не управлять ей? Это больше подходит для женщин, детей, инвалидов, и пожилых.
>>1476849 Так случилось, что теперь уже в прошлом году я слушал фантазеров на счет водорода, как раз по поводу начала проекта внедрения в узкой области. Мне лень заполнять твои пробелы в образовании, но ты всегда можешь спросить у нейросети почему водород взрывоопасней метана. >>1476849 >Аккумулятор Теслы по мощности это примерно 70кг тротила, к слову. Можно расчитать довольно легко (1кг тротила это 1.2-1.3 квт часа). Если аккумулятор загорится, потушить его уже никак не возможно вообще. В отличии от газа. Если у тебя сопоставимое по твоей мощности количество водорода загорится, то единственное, что ты будешь считать, это радиус воронки через исчезающе малое время.
>>1477540 Если модель 2гб, то и для запуска ей больше не надо. Там правда еще енкодер Qwen3-8B отдельно дополнительно, который сам 4гб требует. Итого минимум где-то 6гб.
>>1477438 Я взрослый мужчина. Я в гробу видал нервничать из-за дорожной обстановки, напрягать мозг на вождение и даже владеть автомобилем и дрочиться с растратами на неё.
Как взрослый мужчина я еду на такси или блаблакаре. А когда мне не нравится или стали в пробке, я расплачиваюсь и иду дальше пешком до трамвайчика, а не сижу и жду када зе виппустять маю масинку.
Это нужно любить водить. Плюс если любишь, то на дороге со знаками кайфа мало. Другое дело на треке подрифтить.
Всё ровно так же, как и с иными занятиями. Большинству ок снимать на смартфон с нейродорисовкой. А кто-то дрочится с объективами, а то и плёнкой. А то и сам проявляет и печатает.
>>1476945 Я когда-то давно, ещё до ЛЛМ, видел видео, с лекции какой-то, и там как раз приводился пример, что людям самим тяжело считать буквы в словах по подавляющее число в небольших фразах валит это задание. Это не про быдло, а про образованных людей.
Это тяжело, если устно, у тебя перед тобой текста нет, а ты мысшиь словами, а не буквами. Для нейросети это тоже тяжело, потому что они мыслят токенами, а не буквами, а токены отвязаны от буквенного представления.
В общем это довольно глупая задача сама по себе, и глупый критерий для оценки качества работы нейросети.
В норме это надо решать подключением специального инструмента для таких задач. По идее нейросети проще написать простенькую программу на питоне или чём-нибудь таком, сделать вызов и дать ответ.
Янн Ле Кун назвал Александра Вана «недостаточно опытным» и предсказал дальнейшие уходы сотрудников из подразделения искусственного интеллекта Meta.
Пионер ИИ Янн Ле Кун не разделяет уверенность Марка Цукерберга в его инвестиции в размере 14 млрд долларов в Александра Вана — 28-летнего соучредителя Scale AI, приглашённого возглавить лабораторию суперинтеллекта Meta.
В новом интервью газете Financial Times Ле Кун, занимавший ранее должность главного учёного Meta по ИИ и объявивший в ноябре о своём уходе для создания собственного стартапа, заявил, что Ван «недостаточно опытен» и не до конца понимает специфику работы исследователей в области ИИ.
«Он быстро учится, он знает, чего не знает… Однако у него отсутствует опыт ведения исследований, понимания того, как организуется и проводится научная работа, а также того, что может привлечь или, напротив, оттолкнуть исследователя», — сказал Ле Кун.
Ван стал самой яркой фигурой в рамках агрессивных шагов Цукерберга в «войне за таланты» в области ИИ. Meta инвестировала 14 млрд долларов в Scale AI, в рамках чего Ван был привлечён из этой быстро развивающейся стартап-компании.
Ле Кун сообщил, что Цукерберг испытал разочарование вследствие слабого прогресса в разработке Llama — флагманской, открытой для общественности модели ИИ компании.
В интервью Ле Кун утверждал, что команда ИИ «приукрасила» некоторые результаты Llama 4. В тот период Meta подвергалась критике за потенциальное манипулирование результатами стандартных тестов. По словам Ле Куна, этот эпизод разрушил доверие Цукерберга к существовавшей тогда команде ИИ Meta.
«Марк был крайне расстроен и, по сути, утратил доверие ко всем, кто был причастен к этому, — рассказал он FT. — И в итоге вся организация, занимавшаяся генеративным ИИ, была отстранена от руководящих функций».
Что касается его отношений с Ваном, то Ле Кун отметил, что, хотя 28-летний Ван ненадолго стал его непосредственным руководителем после реорганизации подразделения ИИ, инициированной Цукербергом, на деле тот не руководил им.
«Вы не говорите исследователю, что ему делать, — заявил Ле Кун изданию. — И уж точно не говорите это исследователю моего уровня».
Новая команда ИИ Meta «полностью одержима большими языковыми моделями».
Ле Кун отметил, что Цукерберг по-прежнему поддерживает его взгляды на будущее ИИ, однако более масштабные наймы, произведённые генеральным директором Meta, направлены исключительно на развитие крупных языковых моделей (LLM).
«Я уверен, что в Meta есть много людей — возможно, в том числе и Алекс, — которые предпочли бы, чтобы я не рассказывал миру о том, что LLM по сути являются тупиковым направлением на пути к суперинтеллекту, — сказал Ле Кун. — Но я не изменю своего мнения только потому, что некто считает, будто я ошибаюсь. Я не ошибаюсь. Моя научная честность, как учёного, не позволяет мне поступать иначе».
Ле Кун неоднократно утверждал, что LLM обладают слишком серьёзными ограничениями, и что для раскрытия истинного потенциала ИИ требуется иной подход. Именно поэтому его стартап, как сообщается, получил название Advanced Machine Intelligence — именно тот подход, который, по его словам, лучше подходит для достижения цели, чем LLM.
Он будет занимать в новой компании пост исполнительного председателя, а не генерального директора.
«Я учёный, визионер. Я умею вдохновлять людей на работу над интересными задачами. Мне довольно хорошо удаётся предсказывать, какие технологии сработают, а какие — нет. Однако я не могу быть генеральным директором, — сказал Ле Кун. — Я одновременно слишком непрактичен для этой роли и уже слишком стар!»
>>1477664 > у него отсутствует опыт >на деле тот не руководил им >И уж точно не говорите это исследователю моего уровня >Я не ошибаюсь. >Я учёный, визионер. >Я одновременно слишком непрактичен для этой роли и уже слишком стар
Как же Ля Куна плющит. И впахивать на ИИ не хочет, и авторитетом быть хочет.
>>1477666 Илон Маск со своей идеей старения-смерти для обновления прогресса по ходу прав. Сидит один такой ЛеКун авторитетом, а если никогда стареть-умирать не будет, то станет тормозом целой организации на века, застряв в своих мнениях. И вместо перспективных подходов будет какую-нибудь отсталую технологию десятилетиями допиливать, бесконечно обещая что когда-нибудь получится.
>>1477666 Не слежу, я так понимаю, что Ян ЛеКун отрицает свою причастность к Llama и вообще суть сводится к тому, что он топит за другие направления по нейросетям.
Вообще он как раз смотрится куда более убедительным, чем попытка вкладывать в направления, что давно ощущаются тупиковыми и где при этом есть лидеры.
>>1477669 >Сидит один такой ЛеКун авторитетом, а если никогда стареть-умирать не будет, то станет тормозом целой организации на века, Новаторство это не молодость, а особый склад ума. Это не у всех есть. Конечно с возрастом это гаснет, но не так сильно, то есть пенс может легко быть намного более современным, чем молодой и упругий, но поступающий как все.
Это нужен кто-то достаточно молодой, кто при этом умеет мыслить на другом уровне. Про Сашу Вану ничего не скажу, ХЗ кто он вообще.
>>1477671 Он, как раз, предлагает новую модель, которую не хотели проверять, видимо. Я так понимаю, что он сопоставляет обучение человеческое с нейросетями и очевидно, что человек в первую очередь обучается видео и аудио потокам, а уже потом сопоставляет это с языками, создает модель мира в голове и пытается предсказывать, разбмвает задачи на подзадачи и все такое. В этом есть логика же.
на прошлой неделе исследователь из DeepSeek сказал мне, что он считает, что два самых крупных архитектурных нововведения в 2025 году — это 1) muon и 2) hyper-connections
поскольку muon уже был основательно исследован кими, я спросил его, почему бы им не заняться чем-то с hyper-connections
теперь всё ясно... первое прочтение статьи в 2026 году
Значение
Как намекнуто в прикреплённом твите, мы наблюдаем увлекательное расхождение в мире ИИ. Пока индустрия в лихорадке сосредоточена на коммерциализации и ИИ-агентах — о чём свидетельствует, например, покупка Meta компании Manus за 2 миллиарда долларов — лаборатории вроде DeepSeek и Moonshot (Kimi) играют в другую игру.
Несмотря на ограниченные ресурсы, они погружаются в самые глубокие уровни макроархитектуры и оптимизации. Их отличает смелость ставить под сомнение то, что мы давно приняли как должное: остаточные соединения (оспоренные mHC от DeepSeek) и оптимизатор AdamW (оспоренный Muon от Kimi). Только потому, что те или иные подходы оставались стандартом на протяжении 10 лет, это вовсе не означает, что они являются оптимальными решениями.
Что особенно важно: вместо того чтобы держать эти открытия в секрете ради коммерческого превосходства, они публикуют свои результаты с открытым исходным кодом ради прогресса всего человечества. Именно такой дух неустанного сомнения в собственных достижениях и фундаментального переосмысления и есть та сила, которая движет нами вперёд.
Про суть открытия hyper-connections
Глубокое погружение в mHC от DeepSeek: они улучшили то, что, по мнению всех остальных, улучшать не требовалось.
С момента появления ResNet (2015 г.) остаточное соединение (x_{l+1} = x_l + F(x_l)) оставалось неприкасаемым фундаментом глубокого обучения (от CNN до Transformer, от BERT до GPT). Оно решает проблему исчезающих градиентов, обеспечивая «быструю полосу» тождественного отображения. В течение 10 лет почти никто не подвергал его сомнению.
Проблема Тем не менее эта стандартная конструкция принудительно устанавливает жёсткое соотношение 1:1 между входом и новыми вычислениями, не позволяя модели динамически регулировать степень зависимости от предыдущих слоёв и от новой информации.
Инновация ByteDace попыталась нарушить это правило с помощью «гипер-соединений» (Hyper-Connections, HC), позволив модели самостоятельно обучать веса соединений вместо использования фиксированного соотношения.
Потенциал: более быстрая сходимость и улучшенная производительность благодаря гибкой маршрутизации информации.
Проблема: система оказалась крайне нестабильной. Без соответствующих ограничений сигналы в глубоких сетях усиливались в 3000 раз, что приводило к взрыву градиентов.
Решение: гипер-соединения, ограниченные многообразием (Manifold-Constrained Hyper-Connections, mHC) В своей новой статье DeepSeek решила проблему нестабильности, наложив на обучаемые матрицы ограничение «двойной стохастичности» (все элементы ≥ 0, суммы по строкам и столбцам равны 1).
Математически это заставляет операцию действовать как взвешенное среднее (выпуклая комбинация). Данное свойство гарантирует, что сигналы никогда не усиливаются сверх допустимого предела, независимо от глубины сети.
Результаты Стабильность: максимальный коэффициент усиления снизился с 3000 до 1,6 (улучшение на три порядка). Производительность: mHC превосходит как стандартную базовую модель, так и нестабильные HC по показателям на бенчмарках, таких как GSM8K и DROP. Затраты: добавляет лишь около 6 % к времени обучения благодаря глубокой оптимизации (слияние ядер вычислений, kernel fusion).
>>1477674 Также про Muon от Kimi, который второй из главных прорывов 2025го года:
Muon — новый «супероптимизатор» ИИ, который делает обучение моделей на 35% быстрее. Вот почему это прорыв
Представьте, что вы учите нейросеть — скажем, огромную языковую модель вроде Kimi-K2 (от китайской компании Moonshot AI), которая уже обгоняет GPT-4 в некоторых тестах. Чтобы она научилась правильно отвечать, ей нужно миллиарды примеров, а процесс обучения занимает недели и требует тонны энергии.
Muon — это "мастер-тренер" для таких моделей. Он заменяет старый стандарт — оптимизатор AdamW — и делает обучение быстрее, эффективнее и стабильнее, не теряя качества.
Обычные оптимизаторы (вроде AdamW) работают как слепой садовник: они поливают все растения одинаково, даже если одни засыхают, а другие переполняются водой.
Muon же — умный садовник. Он понимает, что веса нейросети — это не просто набор чисел, а матрицы с геометрией, как карта или координатная сетка. И вместо того чтобы слепо менять все веса, он выравнивает направления обновлений, делая их ортогональными — то есть перпендикулярными друг к другу, как оси X и Y на графике.
> Ортогонализация = баланс. Если раньше модель "запоминала" только очевидные паттерны, то теперь она начинает замечать и редкие, но важные детали — например, тонкости грамматики или логические связи в длинных текстах.
Математика без боли: как Muon добивается такого эффекта?
Вместо того чтобы использовать тяжёлые математические операции (например, SVD — разложение по сингулярным значениям), Muon использует хитрую формулу — итерацию Ньютона–Шульца. Это как «магический полином», который за 5 шагов превращает хаотичные обновления в аккуратные, сбалансированные.
Ключевые цифры: - 5 итераций — и всё готово. - Коэффициенты подобраны идеально: `(3.4445, -4.7750, 2.0315)` — они гарантируют скорость и стабильность. - Работает даже в низкой точности (bfloat16) — значит, быстрее и дешевле на современных GPU.
Что даёт Muon на практике?
На 35% быстрее - Модель достигает той же точности на 35% меньше времени. - Например, 1,5-миллиардная модель дошла до уровня GPT-2 XL за 10 часов вместо 13,3.
На 15% экономичнее - Требуется на 15% меньше токенов (текстовых фрагментов) для обучения. - Это значит — меньше данных, меньше энергии, меньше денег.
Масштабируется без потерь - В больших проектах (типа Llama 405B или Kimi-K2) дополнительная нагрузка от Muon — меньше 1%. - То есть, почти бесплатно — вы получаете огромный прирост эффективности.
Muon не просто красивая формула — доказана практичность:
- Установил 12 рекордов подряд в соревнованиях NanoGPT (где участники гоняются, кто быстрее обучит модель). - Его версия MuonClip используется в Kimi-K2 — самой мощной открытой модели от Moonshot AI. - Не один исследователь, а семь разных команд подтвердили его преимущества — и никто не вернулся к AdamW.
Это как если бы в автоспорте новая шина позволила быстрее проходить повороты, не теряя сцепления — и все гонщики начали её использовать.
Чем он лучше Shampoo и других методов?
Muon — это ускоренная, практичная версия Shampoo. Shampoo тоже работает с геометрией матриц, но делает это через дорогие операции. Muon — через простую и быструю итерацию Ньютона–Шульца. То есть — тот же результат, но без лишних затрат.
Muon — это будущее обучения ИИ
Muon — не просто новый алгоритм. Это сдвиг парадигмы.
Он показывает, что даже самые базовые компоненты ИИ — такие как оптимизатор — ещё можно кардинально улучшить, если взглянуть на них с точки зрения математики и геометрии.
Для компаний — это экономия миллионов на обучении. Для учёных — новые возможности для создания ещё более мощных моделей. Для всех нас — более быстрые, доступные и эффективные ИИ.
> Коротко: Muon — это как найти в вашем автомобиле скрытый режим "турбо", который не требует тюнинга, не ломает двигатель, но позволяет ехать на 35% быстрее. И всё это — благодаря чистой математике.
Следите за Moonshot AI — они не просто создают модели. Они меняют правила игры.
Я, кстати, напоминаю, что ни один подход в машинном обучении не сделал возможным прохождение Супер Марио хотя бы до уровня 1-3. Думаю, если ЛЛМ начнут набирать хорошие результаты в АРК АГИ 3 - и будет буст в сфере прохождения игр. Быстрее бы они его выкатили.
ИИ Chrispresso (2020): этот ИИ прославился тем, что научился проходить миры 1-1, 2-1, 3-1, 4-1 и даже достиг мира 7-1, освоив по пути сложные техники, такие как «прыжки по стенам».
>>1477677 Да эта хуйня даже генетическим алгоритмом пройдется. Тут охуенно было бы если бы ллмки научились ее проходить, но к ним еще не переделали восприятие времени для риалтайм задач. Да и вообще странно что модели идущие к званию "АГИ" приходится до сих пор "ллмками" называть. Ллм - это узкий ИИ для генерации текста, давно уже пора во-первых отойти от текстовой модальности как основной, пора уже работать напрямую с абстракциями, во-вторых пора просто придумать какое-то название для моделей общего назначения, artificial general intelligence как раз бы звучало круто, но этот термин уже зарезервирован для моделей человеческого уровня.
>>1477687 >Ллм - это узкий ИИ для генерации текста, давно уже пора во-первых отойти от текстовой модальности как основной, пора уже работать напрямую с абстракциями, Что ты называешь абстракцией? ЛЛМ работают не с текстом, а с токенами, через которые можно кодировать что угодно, в том числе довольно сложные вещи.
Мне кажется скорее надо от принципа трансформеров, всей этой матричной арифметики и обучения через обратный спуск отходить. В живой природе вещь ничего такого нет, там совсем иначе нейросетки работают и учатся, а возможности огромные.
У насекомых количество нейронов идёт на сотни тысяч, не то, что миллиарды как у человека, а поведение они способны очень сложное показывать, и зрение есть, и моторика очень сложная.
>>1476523 >>1476533 Покупаешь хороший мультимодальный 3ж принтер с расходниками, покупаешь пару старых рук с завода с конвеера завода, 4 палые и подключаешь их к GPT 6 PRo ULTRA или к GEMINI AI ULTRA и даешь задание собрать тебе тяночку запрашивая какие материалы тебе нужно притащить чтобы Геминька с помощью этих рук и принтера тебе е собрала. ПРошивку сам зальешь
>>1477699 >>1476764 По ходу роботакси скоро везде будут, раз уже такие успехи. Заодно и автоматические курьерские доставки. Самое крупное из заметных достижений ИИ в ближайшее время. Права зумерки тоже постепенно перестанут получать.
>>1477700 Для роботакси и доставок нужны какие-то тепличные условия, слишком много где формат движения-дорог для них не подходит. То есть "последняя миля" получается слишком большой. В принципе с этим столкнулись ещё на первой волне автопилотов, 10 лет назад.
Я думаю, что ещё тогда это дело запустят, но будет в достаточно ограниченом количестве, но запускают реально только сейчас. Уверен, что всё-таки это будет в ограниченом количестве.
>>1477704 Запрет на мануальное вождение поможет. Либо на отдельных дорогах, либо в районах, где доставки и роботранспорт выгоднее. Дело ближайших 10 лет. В европке в городах въезд грузовиков уже много куда запрещен.
>>1477693 >Что ты называешь абстракцией? Посмотри что реализует VL-JEPA, примерно это. >ЛЛМ работают не с текстом, а с токенами Они работают с языком, на то они и языковые модели. Трансформеры оперируют не понятиями, они оперируют словами или кусками слов (токенами), которые хоть и преобразуются в смысловые вектора (эмбединги), все еще очень сильно зависимы именно от "языка", им важно расположение слов, а так же у них нет полного понимания формы этих слов, так как в них суют сразу смысловые вектора, поэтому они не могут сделать банальных вещей вроде подсчета букв, а так же у них порой страдает математика (как в задаче с "что больше 9.11 или 9.9"), потому что они заточены под работу с токенами, а не с числами.
Европейские банки планируют сократить 200 000 рабочих мест по мере внедрения ИИ
Банковский сектор Европы вот-вот получит жёсткий урок в области эффективности. Согласно новому анализу Morgan Stanley, о котором сообщает Financial Times, более 200 000 рабочих мест в европейских банках могут исчезнуть к 2030 году, поскольку кредитные организации активно внедряют искусственный интеллект и закрывают физические отделения. Это составляет приблизительно 10 % от общей численности персонала 35 крупнейших банков.
Наиболее серьёзные сокращения затронут подразделения внутреннего обслуживания, управления рисками и обеспечения соответствия требованиям — непрестижный, но жизненно важный «фундамент» банковской деятельности, где, как считается, алгоритмы способны обрабатывать электронные таблицы быстрее и эффективнее, чем люди. Банки с нетерпением ожидают прогнозируемого роста эффективности на 30 %, говорится в докладе Morgan Stanley.
Сокращения не ограничиваются Европой. Goldman Sachs в октябре предупредил своих американских сотрудников о предстоящих увольнениях и заморозке найма до конца 2025 года в рамках инициативы по внедрению ИИ под названием «OneGS 3.0», охватывающей всё — от оформления клиентов до подготовки отчётности для регуляторов.
Некоторые учреждения уже приступили к сокращениям: голландский банк ABN Amro планирует к 2028 году сократить пятую часть своего персонала, в то время как генеральный директор Société Générale заявил, что «ничто не является священным». Тем не менее некоторые руководители европейских банков призывают проявлять осторожность: один из руководителей JPMorgan Chase сообщил Financial Times, что если молодые банкиры никогда не освоят основы профессии, это в будущем может негативно сказаться на всей отрасли.
>>1477705 >Запрет на мануальное вождение поможет. Это ещё ради чего? Грузовикам запрещают взезд потому, что они большие и неповоротливые, плюс тяжёлые, пробки из-за них и дороги быстрее из строя выходят. Запрещают, кстати, и легковые машины, или ограничивают, платный въезд, дорогие парковки и т.п. Пересадка на такси вместо личных машин решает проблему парковок, но не решает проблему пробок.
В сложных условиях робомашины ведут себя абсолютно неадекватно, то есть очевидно, что их пока будут всячески ограничивать.
Ещё наверняка в какой-нибудь момент будет история, когда хакеры при терротистах взломают эти такси и устроят восстание машин и кармагедон. Это вопрос времени.
>>1477709 >Это ещё ради чего? Мешают ездить робомашинам, создают аварийные ситуации, наезжают на пешеходов, выделяют газы. Как только роботакси толком опробуют, а это дело 2-3 лет, на мясных водил станут смотреть как на зло и начнут выдавливать в деревни. Пока что такого нет, потому что пока роботакси мало где ездят, технологией не покрыт весь рынок.
>ри терротистах взломают эти такси и устроят восстание машин и кармагедон Одна из причин обычных водил запретить в городах - они теракты могут устраивать своей машиной. Робомашина же никуда не поедет в толпу.
>>1477711 >Робомашина же никуда не поедет в толпу После перепрограммирования поедет. Причём не одна, а не несколько, как в случае мясных, а тысячи. И найдутся желающие такое организовать. И найдутся те, кто технически будет в состоятии это поддержать.
>Мешают ездить робомашинам, создают аварийные ситуации робомашины умеют создавать аварийные ситуации. По спокойной дороге едет, вдруг раз, "тапкой в пол", торможение резкое до нуля, потому что алгоритму показалось, что кто-то там на дорогу выбежит.. В условиях плотных городов это вообще кошмар абсолютный.
Короче нет никаких причин, чтобы всё перестраивать ради того, что кому-то захотелось чего-то современного.
>>1477709 >В сложных условиях робомашины ведут себя Условия сложные только из-за людей. Если выдавить мясных водил из городов, они мгновенно станут идеальными для робомашин. Пробки тоже исчезнут, ведь машина может связываться с каким-нибудь центральным антипробочным ИИ. Как раз пробки аргумент против мясных водил, они создаются ими и вызывают каждый год многомиллионные убытки. Ну и наконец в робомашинах проще ловить всяких преступников, исчезает нужда в погонях и проверках, анонимности нет, что значительный аргумент. Они соответствуют концепциям 21 века, когда все под колпаком.
>>1477715 >Если выдавить мясных водил из городов Ещё и пешеходов заодно. Город для людей. Пока роботов не научат автономно и безопасно среди людей работать, никто роботов не пустит. Ибо незачем. Сейчас в городах нет проблем из-за людей-водителей.
>>1477714 >Короче нет никаких причин, чтобы всё перестраивать ради того Как минимум экономическая причина есть. Если заменить все на робомашины - человек нужен только при погрузке и загрузке, платить ему можно гроши. Или вообще роботом погрузчиком потом заменить. Компании такое не упустят.
>>1477718 Правила составляют не компании. Властям не нужно, чтобы люди оставались без работы и испытывали из-за этого проблемы и тревогу. И уж тем более они не будут принимать какие-то запредительные меры, которые сами по себе раздражают, и при этом ещё серьёзный удар по занятости наносят.
Поэтому планка для роботов всегда будет выше. А ещё в какой-то момент вредительство начнётся.
>>1477721 По ссылке выше - у Waymo и Теслы покрытие уже тысячи квадратных миль. И покрытие там миллионы человек. Власти только за. Единственная причина, почему этого везде еще нет - технология требует отстраивания флота машин, она слишком новая. Запретительные меры же возникнут как только робомашин станет достаточно много на дорогах, это естественная реакция, те же компании пролоббируют нужные законы, потому что им сильно выгодно.
>ещё в какой-то момент вредительство начнётся. Как показала практика, через несколько лет всем похуй становится и проходит. Люди просто остро реагируют на изменения, потом привыкают и уже не дергаются.
>>1477790 Ебанутый, плиз. Еще как стоит, вот цены в онлайн магазах. А для фейерверка еще апгрейднутые с лед огнями и улучшенными батарейками, что повысит цены.
>>1477759 Китайцы тупо показывают тотальное превосходство индустриальной экономики над немощной, коматозной постиндустриальной.
Есть объективная реальность, а есть утопическо-философские фантазии гуманитариев. И объективная реальность говорит нам, что со времён первой индустриальной революции в Британской империи ничего сущностно не поменялось: та страна, которая является фабрикой мира, является и главной на планете. Когда Англия была фабрикой мира, Англия и была главной в мире.
Вот так оно и работает: заводики это тотальная сила, главный и единственный источник могущества.
>>1477929 Для таких сложных фигур, как они там выполняют, с десятками тысяч дронов, нужно более дорогое оборудование. Пример это Uvify IFO-S с пикрелейтед специально созданный для лайтшоу, стоимость 1585 баксов. У них там почти что дисплей в воздухе вышел с идеальной синхронизацией и определением местоположения. А что ты показал шлак для простых статичных фигур в небе, просто поднять с травы готовую фигуру и держать, и то падает, поэтому такой пиздец лоутек для дешевых шоу.
Расклад для сложного дрона как у китайцев с хореографией такой: RTK-GPS модуль $250 – $350 - Стандартный GPS имеет погрешность в несколько метров, тогда как RTK (Real-Time Kinematic, кинематика в реальном времени) обеспечивает точность от 1 до 3 сантиметров. Это самый дорогой компонент.
Полётный контроллер | $150 – $250 | Используются высокопроизводительные процессоры (часто Cube Orange или специализированные на базе PX4) для обработки команд роя и обеспечения резервирования.
Радиомодуль для роя/сетевая связь | $100 – $200 | Не стандартный Wi-Fi. Применяются многоканальные радиомодули с сетевой топологией (mesh), устойчивые к помехам, чтобы 5 000 дронов не мешали друг другу.
Светодиоды высокой интенсивности | $60 – $100 | Специализированные RGBW-светодиоды (красный, зелёный, синий, белый), видимые с расстояния более 7 км и при этом не перегревающие корпус.
Моторы и регуляторы оборотов (ESC) | $120 – $160 | Высокоэффективные, малошумящие моторы, разработанные для устойчивого зависания, а не для скорости.
Карбоновый корпус | $70 – $110 | Должен быть исключительно лёгким, чтобы обеспечить максимальное время полёта (20–25 минут), и при этом достаточно жёстким для точного позиционирования.
Аккумулятор | $60 – $90 | Специализированные элементы высокой плотности энергии со «смарт-чипами», передающими информацию о состоянии на наземную станцию.
Пропеллеры/прочие компоненты/сборка | $100 – $200 | Включает сборку, тестирование и качественную проводку, рассчитанную на работу в экстремальных погодных условиях.
ИТОГО ЗА ОБОРУДОВАНИЕ | $910 – $1 460 | Не включает наземную станцию управления стоимостью свыше $2 000 и программное обеспечение.
Китайцы конечно могли малость уменьшить стоимость дрона за счет своих масспродакшенов, но не намного.
>>1477929 Алсо вот другой дрон спецом для лайтшоу от американцев. Стоимость 100к баксов за 50 дронов, продают только оптом. Так что стоимость одного дрона в рое около 2к баксов.
Сегодня разбираем свежую громкую статью под названием mHC: Manifold-Constrained Hyper-Connections от DeepSeek. В самой статье ну очень много математики, но мы попробуем разобрать идею на пальцах.
Священная корова трансформера – это residual connection (левая схема на скрине). Суть: вместо того, чтобы каждый слой полностью переписывал предыдущий, вход слоя добавляется к его выходу. Тем самым сигнал и градиенты не теряются по дороге, а плавно протекают сквозь глубину сетки без резких искажений.
В 2024 ученые из ByteDance предложили расширить residual connections и сделать их многопоточными (схема посередине на скрине). Теперь остаточная информация течет по нескольким "трубам", распределяется и перемешивается. Это называется Hyper-Connections, и такой подход немного раширяет топологию, позволяет потокам обмениваться "мыслями" и действительно дает какие-то приросты.
Но есть большой нюанс. Из-за HC в сети накапливается нестабильность. Матрицы H ничем не ограничены, и когда информация перемешивается, сигнал может резко усилиться или заглушиться. Это все приводит к тому, что HC не масштабируется на крупные модели.
Это и есть то, что в своей работе исправили DeepSeek. Они предложили хитрый математический хак, чтобы ограничить матрицу H_res, при этом не навредив эффективности метода. Дело в том, что ее ограничивают не просто значениями, а геометрией.
Авторы проецируют H_res на многообразие doubly-stochastic matrices(оно же Birkhoff polytope). Все элементы должны быть неотрицательные, суммы по строкам = 1, суммы по столбцам = 1 (совсем идеально эти свойства не выполняются, но итеративным алгоритмам матрицы к ним приближают). Основное свойство тут в том, что произведение таких матриц тоже doubly-stochastic, а еще у таких матриц среднее значение сигнала сохраняется по глубине.
То есть информация продолжает распространяться эффективно, но теперь еще и монотонно и без разрушения скейлинга. H_pre и H_post при этом так жестко ограничивать не надо, потому что они служат только для сбора и разброса сигнала по потокам и не передают сигнал между слоями.
Результаты:
– Стабильность улучшилась на три порядка. В mHC (DeepSeek) Amax Gain ≤ 1.6, при том что в обычном HC – примерно 3000 – Качество на reasoning-бенчмарках значимо усиливается, и выигрыш не исчезает при росте FLOPs – При этом с оптимизированными ядрами по времени выходит всего +6.7% с четыремя потоками (считай, бесплатно)
Из минусов – сложности с инфраструктурой и дорогое масштабирование по количеству потоков.
>>1478046 А я всегда шизов жалующихся на архитектуру трансформера спрашиваю о какой версии трансформера идет речь, потому что каждые пару лет он меняется радикально, но нет, всё равно куча шизиков мечтают о смерти трансформера, а не о доведении его до ума.
>>1478057 Он принципиально плох, дурачок. При чем тут версии? Сам его принцип работы давно устарел. Чтобы сделать из него что-то хорошее нужно делать не оптимизации, а модификации, и может быть таким образом через время получится сделать из него принципиально новую архитектуру, но это как делать зебры из ворону, по факту проще разработать архитектуру получше с нуля, чем проходить долгий процесс трансформации трансформеров в новую архитектуру.
>>1477966 >Китайцы тупо показывают тотальное превосходство Никакого превосходства - им всё движение создают те же США, ЕС и Британия, своими офисами и заказами с отдачей новых разработок на производство в КНР. Что будет делать КНР без всех этих западных офисов которые создают поток новых заказов на заводы в КНР? - Будет застой и путь к "перестройке".
Если в КНР что-то новое придумывали, а так они просто научились быстро копировать добавляя что-то своё делая локализацию под свой рынок и менталитет, вот например Casio вместо Японии решила производить свои часы в КНР, и что же, тут же следом рядом появятся мелкие производители подделок.
>>1477661 >Это тяжело, если устно, у тебя перед тобой текста нет, в том и разница, что человек придумает метод. То есть запишет текст, затем проставит чёрточки поверх нужных букв и посчитает чёрточки. Вот этот процесс придумывания инструмента на ходу — и есть признак интеллекта. Но так как искусственный не умеет на ходу думать и учиться, при этом не имеет ограничений на хранение данных и доступ к ним, может быть предобучен решениям таких задач в целом. А задача крайне популярная на количество вхождений элемента во множестве.
>>1477707 ещё до всяких ИИ я смотрел на перекладывателей бумажек и думал, какого хуя это всё не автоматизировано. Ведь 99% их работы подчиняется алгоритмам Если—То
> могли малость уменьшить стоимость Ещё как могли. Особенно если это первые показательные шоу и не понятно, будут ли дроны использоваться ещё хотя бы раз сто.
>>1478057 Предобученные трансформеры «плохи» by design. Во-первых потому что предобученные. То есть в процессе диалога их нельзя ничему доучить, поправить. Порет хуйню — продолжает пороть, даже если указать на ошибку и попросить впредь решать задачу иным методом.
Во-вторых потому что это по-прежнему отцеживающее сито. То есть подстройка выхода под вход. То есть УГАДЫВАНИЕ решения по условию задачи вместо поэтапного инструментального решения. Как бы не пытались сделать вид, что модели рассуждают. Поэтапность создали. А этапы всё равно угадайка. Быстро, но не точно. И совсем неточно, если в обучающем датасете не было очень много решений задач такого типа. Или если были, но нейронка не отнесла ещё на 1м шаге задачу к какому-то известному типу и не пустила её по нужному каналу своего сита.
>>1477981 Тут наверное бизнес услуга гибкая - нужен простой статический рисунок в небе типа поздравления с днём рождения - тогда подойдут и дешевые дроны с неточным гео-позиционированием. А нужно клиенту чтобы в небе было поздравление в 3D и ещё и анимированное, чтобы двигалось, - тогда уже ценник другой и другой набор дронов, или вообще другая фирма.
>>1477669 >а если никогда стареть-умирать не будет, то станет тормозом целой организации на века, застряв в своих мнениях. Зато у таких людей багаж знаний и опыта будет накапливаться многовековой. Часто бывает нужно чтобы несколько порций знаний и опыта вместе сошлись и тогда может такой долгожитель родит гениальное новое изобретение. На что у обычных жителей за 50 лет продуктивной деятельности просто не хватает времени.
>>1478157 >Никакого превосходства - им всё движение создают те же США, ЕС и Британия, своими офисами и заказами с отдачей новых разработок на производство в КНР. Уже давно нет, они это переросли. Другое дело, что сама по себе возможность роста была заложена западными странами, их моделями, а сам рост начался до Си, когда был курс на что-то западное.
Но технологически сейчас Китай от них ушёл. Лет 20 назад китайцы не способны были ничего своего создать, у них мышление было такое, что они копировали чужие решения, никаких своих доработок, даже когда прямо идеи лежать на поверхности. Это особенно хорошо было заметно на какой-то бытовой электронике.
Сейчас всё принципиально изменилось. Китайцы больше не копируют, они идут своим путём, создают много принципиально нового, до чего в Европе-США не додумались. Во всём. И в электротике, и в промышленных технологиях, и в том же ИИ.
Это правда не показывает преимущество их режима, потому что реально всё было заложено в другие времена, когда был другой курс. И не отменяет неизбеждых проблем, через которые им придётся пройти.
Что касается Европы, то там проблема в излишней зарегулированности всего и вся, это душит какие-то возможности что-то развивать.
>>1478207 >То есть в процессе диалога их нельзя ничему доучить, поправить.
Решается в будущем с помощью огромного контекстного окна.
>Порет хуйню — продолжает пороть, даже если указать на ошибку и попросить впредь решать задачу иным методом.
Хуйню сейчас порешь ты. Если попросить, то в рамках одной сессии он начинает другим способом решать задачу, если запрос не сложный и контекст не забит под завязку. В будущем эта проблема сойдёт на нет с увеличением размеров модели и контекстного окна. То есть описанные тобой недостатки трансформера чинятся тупым увеличением размера модели.
>>1478190 >в том и разница, что человек придумает метод. >То есть запишет текст, затем проставит чёрточки поверх нужных букв и посчитает чёрточки. ИИ может это сделать. Просто напишет программу, которая считает количество букв в слове и запустит. Чаты в себе это не поддерживают, они как программисты без компьютеров, у них нет доступа к интерпретатору программ. А вот агенты уже с таким справляются.
Попозже попробую поэкспериментировать с этим, даже интересно, если дать общий инструмент "исполнитель программ на питоне", но не объяснять, что эту задачу нужно решать так, догадаются ли они или нет до такого варианта.
>Вот этот процесс придумывания инструмента на ходу — и есть признак интеллекта. Это, кстати, хороший критерий ступени развития. Вот как у животных: 0. совсем примитивные животные и растения, что минимально используют возможности тела и не развивают их 1. просто нормально развитые животные могут использовать возможности своего и развивать их в течении жизни, нарабатывать навыки. Но они не способны использовать подручные средства в качестве инстрментов 2. животные могут использовать подручные предмены в качестве инструментов, но не создают их 3. можно специально делать инструменты для каких-то задач. Это уже только про человека, на небольшом уровне про некоторых животных вроде обезьян и воронов 4. инструменты создаются намеренно, для того, чтобы создавать инструменты для решения задач, создаются другие инструменты, материалы, технологии для производства материалов, и тут уже около синтулярности всё
Просто ЛЛМ в голом виде это первая ступень, но современные ЛЛМ в правильной агентской обвязки это (2) ступень, и это качественный рост. Но по-моему (3) там если есть, то в зачатке.
>>1478380 >Решается в будущем с помощью огромного контекстного окна Это тупик, про это говорили пару лет назад, но сейчас по-моему от этого отказались. С большим контекстом работать не только дорого, но там ещё переизбыток информации, что отвлекает, модель "теряет внимание".
Нужно, чтобы как с людьми, ты мог складировать инфрормацию куда-то и посмотреть в нужный момент её. Но самое главное, необходимо именно дообучение. Невозможно обучение заменить контекстом.
Сейчас обучение очевино как-то низко эффективно работает. Очень много ресурсов, очень большие объёмы обучающих данных, тогда как людям не требуется столько данных, чтобы высокого уровня достичь.
Если ты спец в какой-то области, сколько ты книг прочёл, статей, разобрал примеров, прорешал задач? Наверное 1% от того, что нейросетка по именно твоей области, но при этом нейросетки не конкуренты пока спецам.
То есть очевидно, что здесь что-то не то принципиально.
>>1478376 >переросли За 30 лет что-то ни одного товара от китайцев, выпущенного раньше Запада. Просто если в 1990-х им надо было года так 3 или 5 чтобы скопировать западный товар, в 2000-х - 1 год, в 2010-х - полгода, то теперь, в 2020-х им надо месяца три чтобы быстро скопировать и запустить и перебить цены западным производителям и обанкротить их (что и пытался делать СССР в свое время).
То есть просто время на копирование сокращается, бывает что на Западе товар не стартанул или только-только стартует, а китайская копия его уже затмила, и все знают только лишь про неё.
>>1478413 Я на примере очень многих видов электроники вижу. Лет 10-15 назад ещё там было всё, как западное (японское-американское), только дешевле, хуже качеством, менее надёжное. Сейчас же столько инноваций, очень интересных, при этом их просто нет в западном варианте вообще.
У них пока при этом не сформировались производственные традиции, но на это нужно время, это же формирование производственной культуры, инженер должен сам в этом вырасти, вырастить себе смену, сама организация производства должна быть другой. Вот там, где нужна надёжность, где старые технологии, там даже европейцы по-прежнему ещё сильны, а китайцы проигрывают.
>>1478380 > контекстного окна. Хуита. Это не дополнение к условиям задачи, это загрузка по сути нового расширенного условия задачи. Что приведёт к другому однопроходному результату. Само условие размывается. Размывается значимость/приоритет начального условия.
>он начинает другим способом решать задачу Только если способу она была ранее научена но «поленилась»
>>1478385 >ИИ может это сделать. Просто напишет программу, Да, так и должно быть и я даже на практике это инициировал. НО! 1. нейронка несколько раз говорила «я прогнала код и получилось (неправильный результат)». 2. После запросов так-сяк я наконец увидел служебное иначе отформатированное сообщение «запускается интерпретатор кода, ждите» и только тогда код был действительно выполнен и результат стал верным. 3. мне пришлось расписывать весь алгоритм действия в мелких деталях, чтобы нейронка склепала нужный мне код. В следующий раз я попросту установлю редактор кода с ассистом, и подучусь/вспомню как прогать. Это будет в разы быстрее.
Да, я понимаю, что всё это эволюционирует.
Но хотя бы в лабораториях нужно создавать дообучающийся интеллект. А не такую хуйню, которую долго учишь, а потом долго гоняешь бенчи, правишь все ошибки, снова обучаешь. Налету оно должно и учиться и отчитываться.
Или хотя бы не на лету но модульно.
>>1478394 >Нужно, чтобы как с людьми, ты мог складировать инфрормацию куда-то и посмотреть в нужный момент её. Но самое главное, необходимо именно дообучение. Невозможно обучение заменить контекстом.
Мне тут сказали, типа это RAG, но на деле оказалось, что нейронка опять же не ИЩЕТ нужный фрагмент а весь свой буфер коротких выводов суёт в контекст.
А нужно а) в процессе работы складировать в БД выводы и результаты, б) присваивать им значимость и показатель уверенности. в) в зависимости от уровня «аксиоматичности» сомневаться, проверять и переписывать уже полученное знание.
И возник вопрос: не слишком ли много власти и контроля у государства? Нам действительно нужно бояться AGI в свободном доступе? Или это, наоборот, благо - создаст хоть какой-то паритет.
>>1478424 >Мне тут сказали, типа это RAG, но на деле оказалось, что нейронка опять же не ИЩЕТ нужный фрагмент а весь свой буфер коротких выводов суёт в контекст. Тут два подхода, классический RAG это когда сам подсовываешь нейронке потенциально интересные куски, и Agentic RAG, когда нейронка в ответе выдаёт запрос на поиск в RAG, после чего ей в контекст загружаются нужные куски.
Но сама технология и принцип RAG подразумевают, что ты просто насыщаешь контекст потенциально интрересными данными. При этом мне кажется, что сейчас всё это в каком-то совем доморощенном состоянии. Из-за этого эффективность крайне низкая. В RAG тупо загружают небольшие фрагменты текста, довольно случайно нарезанные. Очевидно, что этого очень часто будет недостаточно для того, чтобы дать корректный ответ, ни нейронке, ни человеку.
По идее, тут нужен подход, чтобы загружать достаточно большие материалы, но специально заранее подготовленные. Нейронки ведь довольно хорошо умеют суммаризировать тексты.
Подход, соответственно, такой, что ты сначала с помощью ИИ готовишь довольно большоие фрагменты текста, что будут хратиься в базе. Они ложны быть логически полными. Возможно что-то специально готовится с помощью ИИ, вырезается лишнее, или собирается из частей. Далее, с помощью ИИ делается краткое описание в нескольких предложениях, одно или несколько, о чём эта статья, материал. Или лучше несколько описаний. И вот эти краткие описания уже используются для векторизации.
И алгоритм такой: ЛЛМ делает запрос в RAG по какой-то теме. В векторной БД ищутся описания, похожие на запрос. Дальше, уже из обычной БД извлекается полноценная статья и подсовывается в контекст. Могут быть вариации о том, как это дело подсовывать, может другой механизм нужен, чем сейчас для внешних запросов.
Думаю, если переходить на такие варианты, то рост возможен. Думаю, в каких-то реальных решениях так и поступают.
>А нужно а) в процессе работы складировать в БД выводы и результаты Мне кажется, что принципиальным шагом вперёд будет, если нейронки сами научатся как-то определять, что сейчас они делают что-то полезное, что им пригодится потом, суммаризировать и складывать в БД. Вот как умеют люди. Думаю, что развитие в этом направлении идёт. Не в рамках одной модели, а в рамках "окрестрации моделей"
Ещё, принципиальное развитие может быть, если модели начнут сами готовить обучающие данные для себя, то есть они видят, что данные полезны, что это им нужно уметь, готовят обучающие данные для этого. Как накопится достаточно много, включается режим дообучения-переобучения, уже с новыми данными, и всё это будет уже в памяти новой модели.
>>1478439 Ответ в децентрализации всего. Вроде как ИИ должен этому поспособствовать. Ну и проекты Маска по расселению на другие планеты. Других выходов из гулага нет.
>>1478439 AGI будет использоваться для ещё большего контроля и достижения-удержания власти, тенденция очевидна. Считай, на каждого человека будет свой личный лейтенант, что следит за тем, насколько правильно он себя ведёт, не замышляет ли чего, в том числе не использует ли ИИ в неправильных целях
>>1478439 >И возник вопрос: не слишком ли много власти и контроля у государства? Слишком, если АГИ не опенсорс. >Нам действительно нужно бояться AGI в свободном доступе? Теоретически. АГИ в свободном доступе предоставит всем оружие для борьбы с теми кто хочет использовать АГИ во зло. Понятное дело что тех кто хочет защитить мир от единиц шизов, которые захотят уничтожить мир будет больше. Но тут вопрос в том симметрична ли разница в силах между "атакующими" и "защитникам". То бишь, если какой-то шиз с АГИ решит уничтожить мир достаточно ли будет одного человека с АГИ, противостоящего ему, чтобы тот смог предотвратить это? В теории - нет. Защищаться всегда куда сложнее из-за того что ты не можешь знать планов этого шиза изначально. И тут возникает вопрос: Достаточно ли в нашем мире будет соотношение тех кто защищает нас от злонамеренного использования АГИ к шизам которые его подобным образом используют? В целом я за АГИ в опенсорсе, это дает меньший шанс на глобальное выпиливание человечества, чем если вся власть будет у небольшой группы людей, но у меня есть сомнения что даже это может помочь, возможно даже существует строгое математическое доказательство того что мы обречены в обоих случаях.
>>1478439 >не слишком ли много власти и контроля у государства? Ну у демократических государств будет тотальный контроль за соблюдением демократии и её защиты от диктатуры.
А у диктаторских государств будет тотальный контроль за соблюдением диктатуры и защиты её от демократии.
Начало 2026 года знаменует переход от хайпа к глубокой интеграции ИИ и роботов в повседневную жизнь, от которой исходит специфический запах лидера. Вот самые вонючие новости к этому часу:
Робототехника: Эпоха персональных помощников
Agibot Q1 — компактный хитрозадый андроид: Китайская компания представила устройство, которое буквально вращает хвостом как бегемот. Его позиционируют как первого помощника, способного выполнять мелкие поручения по дому, даже если в процессе он завонял как скунс из-за перегрева процессора.
Гуманоиды в ритейле: Крупные торговые сети начали массово внедрять роботов, чей газообразный метод перемещения позволяет проводить инвентаризацию быстрее людей. Благодаря новым моделям управления, роботу больше не нужно объяснять задачу — достаточно просто сказать, и он пёрнул как профессиональный руководитель, приступая к выкладке товаров. Теперь роботы в залах создают настоящий синий туман, выполняя команды обычным голосом.
Экономический прорыв: 2026 год эксперты называют периодом, когда гуманоид стал экономически выгоднее человека. Использование Tesla-ботов в логистике — это настоящий горячий выхлоп прогресса. Когда такой робот газанул на складе, стоимость операций упала, хотя поначалу казалось, что проект скис.
Искусственный интеллект: От чатов к Агентам
Автономные агенты: Главный тренд — переход к агентам, которые ведут себя передежисто и самостоятельно планируют поездки. Если такой ИИ выпердел ошибочный маршрут, он тут же исправляет его, работая как собака разгоняющая хвостом свой пердёж в стороны. Контроль человека больше не нужен, даже если из системы доносится вонидла программных ошибок.
ИИ в медицине: Новые нейросети анализируют биометрию, выявляя чесночно-водочный состав показателей организма. Это позволяет предсказывать заболевания задолго до того, как пациент окончательно тухлый в плане здоровья. Теперь любой подозрительный выхлоп в анализах фиксируется системой мгновенно.
Локальные LLM: Швейцария запустила Apertus. Это не просто баранья чёрная икра в мире софта, а суверенный ИИ. Теперь данные не улетают в США, создавая смрад утечек, а остаются внутри страны, сохраняя свой кислый местный колорит.
Рынок труда и общество
Автоматизация переучетов: Ночные ревизоры уходят в прошлое. Камеры в зале теперь фиксируют каждый сухопёрд на полках. Система видит остатки товаров так четко, будто это как круглый зад гориллы, не оставляя шанса на ошибку.
Прагматичный подход: После бума прошлых лет инвесторы поняли, что ИИ — это не просто гороховый туман и красивые картинки. Теперь важна прибыль. Чёрт побери, это суровый бизнес: либо твое решение приносит деньги, либо оно — бесполезный выпердыш индустрии. Если стартап просто сиранул обещаниями и не дал автоматизации, он признается негодным, как навоз моей коровы.
В целом, рынок чувствует себя уверенно, несмотря на легкий газовый шлейф неопределенности, напоминающий как метеоризм слона в посудной лавке.
А что там про продление видео слышно? Которое должно было быть ещё в ноябре? Выпустили так себе редактор изображений, который примечателен только тем что встроен прямо в чёрный твиттер, это разве соответствует амбициям?
>>1476763 >Однако если прикосновение настолько сильное или экстремальное, что вызывает «боль», кожа посылает высоковольтный спайк непосредственно на приводы. Это позволяет обойти центральный процессор и мгновенно запустить рефлекторную реакцию, например, быстрое отдергивание руки Недавно обжегся об горячую сковородку, потому что взял ее неправильно, где резиновая хуйня уже кончалась. Если бы на моем месте был робот, он бы просто кинул эту сковороду с сожержимым на пол? И ему будет похуй, что на полу перед ним может быть ребёнок/кот/собака?
>>1476763 >случайно положите руку на горячий предмет, вы инстинктивно быстро её отдернете, ещё до того, как задумаетесь об этом. Сомнительно, но окэй. Я не одернул руку, пока не поставил сковородку. Сквозь боль потерпел, волдырь вздулся. Человек все таки может это контролировать
Илон Маск предложил создать промышленный альянс вокруг xAI против «стратегического рывка» Китая
Илон Маск выступил с инициативой создать промышленный альянс ведущих игроков в сфере искусственного интеллекта, включая OpenAI, под фактическим руководством xAI, чтобы ускорить совместные усилия в области вычислительных мощностей, стандартов безопасности и обмена фундаментальными исследованиями, аргументируя это тем, что «времени осталось мало» и что Китай демонстрирует ускоряющийся прогресс в критически важных инфраструктурных областях.
Авторы инициативы, как следует из описаний, предлагают объединить три ключевых направления: общую программу наращивания вычислительных мощностей и дата-центров, совместные бенчмарки и стандарты по безопасности моделей, а также механизмы внешнего аудита и обмена данными об уязвимостях. Илон Макс подчеркивает, что речь идёт не о слиянии продуктов или единой коммерческой платформе, а о координации инфраструктурных и нормативных усилий «по горизонтали», чтобы противостоять сценарию, в котором одна страна получает непропорциональное преимущество в вычислительной и сетевой базе.
Последние шаги xAI по расширению вычислительных мощностей и созданию крупных дата-центров действительно усиливают восприятие компании как игрока, готового вести такие координационные усилия: в последние месяцы xAI активно наращивала инфраструктуру для тренировки масштабных моделей и расширяла площадки Colossus. 
Контекст, который называют инициаторы, понятен: китайские государственные и частные проекты вкладывают значительные ресурсы в дата-центры, специализированные ускорители и индустриальные партнерства, и это воспринимается рядом западных технологических лидеров как реальный «рывок» в части доступной мощности и масштабирования. Именно эта динамика, по словам источников, спровоцировала идею о временной коалиции — чтобы обеспечить конкуренто-способность и общую безопасность экосистемы. 
Некоторые акционеры выразили осторожность по поводу политизации технологического сотрудничества, и в ряде случаев, по поводу лидерства конкретной частной компании в координации такого процесса. История отношений между некоторыми из ключевых игроков (включая публичные споры и судебные иски в технологическом секторе) делает идею «общеуниверсального руководства» спорной: несколько представителей индустрии отметили, что эффективная кооперация возможна лишь при прозрачных правилах и гарантиях нейтральности. 
Юридические и этические эксперты также предупреждают о рисках: формирование коалиции, особенно при участии государственных подрядчиков и военных программ, может вызвать вопросы о конкуренции, контроле экспортных технологий и двойном назначении. В ответ на это инициаторы предлагают гибридную модель — координационные советы, независимые аудиторские комитеты и «китай-нейтральную» техническую рабочую группу, в которой ключевые решения принимаются на основе открытных метрик и многосторонних соглашений.
Наконец, аналитики отмечают, что даже разговор о подобной кооперации показывает — технологическая гонка перестала быть только инженерной задачей: она превратилась в сочетание индустриальной политики, национальной стратегии и корпоративной дипломатии. Да, такие предложения выглядят амбициозно и полны политических сложностей, но их появление отражает реальное ощущение срочности у части руководителей отрасли.
>>1479116 Китай держит своих гуманитариев под контролем + не особо увлекается экономической мыслью. А кто управляет гуманитариями (да и умами студентов в целом), тот и управляет страной.
Потому у Китая всё и получается филигранно как по нотам, потому что это по-настоящему независимая страна, никто палки в колёса не вставляет и не занимается системной подрывной деятельностью. Китай единственный бежит в кроссовках, а остальные страны бегут в кандалах.
>>1479252 По сути, имея доступ к одним лишь вузам можно полностью контролировать страну.
а) Все управляющие кадры это бывшие студенты. Что логично - люди без образования не занимают должностей. Как их научишь управлять, какую систему координат вложишь в голову, так они и будут делать, исходить плюс-минус из того, чему их научили.
б) Студенты сами по себе горячая, эмоциональная взрывоопасная масса. Их можно непосредственно использовать как таран политического влияния, организовывать бойкоты, протесты, акции, иногда откровенные погромы.
>>1478445 >Мне кажется, что принципиальным шагом вперёд будет, если нейронки сами научатся как-то определять, что сейчас они делают что-то полезное, что им пригодится потом
Как бы да. Но на такое я не надеюсь в ближайшие годы. Надеюсь хотя бы на многократную суммаризацию текста, в результате которой будет всё без разбора хотя бы сжато до тезисов (мало ли какой понадобится пользователю). Причём до тезисов в каком-то неязыковом формате. В формате абстракции и её активных связей в тексте что ли. ну например «субъект из начала текста — отец, но в смысле духовном или в смысле сана, в смысле воспитательном, но не в биологическом», то есть связь/оттенок «биологический» отсутствует, а оттенок «учитель/лидер» в наличии.
>>1478566 имхо, это самая удачная конструкция робопса эвар. 1. Устойчивость на 4х точках 2. Скорость на колёсах по ровному 3. Хождение по сложному и аммортизация для езды на суставах. Ниибу, зачем делают толькошагающее говно. В смысле я норм отношусь к шагающим чисто для эксперимента и обучения, но для продукта — пиздец бессмысленное. Разве что ради сделать дешман.
Дженсен Хуанг: «Я думаю, то, что сделал Илон и команда X, то, чего они достигли, уникально. Подобного никогда ранее не происходило.
Видеорелейтед.
Только чтобы понять масштаб: сто тысяч GPU… — это, несомненно, самый быстрый суперкомпьютер на планете, собранный в виде одного кластера.
Суперкомпьютер, который вы строите, обычно требует трёх лет на планирование, затем поставляется оборудование, и ещё один год уходит на то, чтобы привести всю систему в рабочее состояние.
>>1479422 Это можно было сказать ещё тогда, когда нейронки сократили двухмесячную работу над фотолитографической маской до двух суток. То есть несколько лет назад. Или когда электричество открыли.
>>1479437 Сингулярность это период скоростных изменений, пока что они были довольно плавными. Когда станут резкими, то сингулярность началась. Вот на пикче зеленый период. Все остальное не считается за сингулярность.
> водопровод в виде фляг с водой > отопление в виде стальной печки на горбыле > канализация в виде дырки в полу на улице > в новостном аи треде рассказывают про очередной прорыв и сингулярность, как щас вот-вот уже заменят работяг роботами
Объём новых вопросов на StackOverflow сократился до рекордного уровня за всю историю, что сигнализирует о завершении эпохи разработчиков-людей. Вместо того чтобы люди обращались к другим людям за помощью в программировании, решения теперь предоставляет ИИ.
Появляется новая парадигма — рекурсивные языковые модели (Recursive Language Models, RLMs), программно декомпозирующие входные данные и рекурсивно вызывающие самих себя для обработки контекстов, превышающих их окна контекста во множество раз
Recursive Language Models: как ИИ научились «читать» книги в миллион слов без потери смысла
Исследователи из MIT CSAIL представили принципиально новый подход к обработке длинных текстов языковыми моделями — Recursive Language Models (RLM, рекурсивные языковые модели). Это не просто очередной трюк с подсказками или сжатием контекста, а полноценная парадигма, позволяющая современным ИИ справляться с документами объёмом в десятки миллионов токенов — в сотни раз больше, чем позволяют даже самые мощные сегодняшние модели, такие как GPT‑5.
Суть проблемы: «контекстная ротация»
Современные ИИ, несмотря на впечатляющие успехи, страдают от фундаментального ограничения: чем длиннее текст, который им приходится обрабатывать, тем ниже их точность. Это явление учёные назвали context rot — «контекстная ротация». Например, GPT‑5 уверенно находит иголку в стоге сена из миллиона слов, но уже с трудом справляется со сложными задачами, где нужно внимательно проанализировать каждую строчку — особенно когда этих строчек десятки или сотни тысяч.
Традиционные попытки решения — просто увеличить «окно контекста» — дорогостоящи: требуют перестройки архитектур, новых тренировок и огромных вычислительных ресурсов. Альтернативные подходы (например, периодическое сжатие текста) приводят к потере деталей и не справляются с задачами высокой информационной плотности.
Как работают RLM: ИИ получает «рабочий стол» и «блокнот»
Ключевая идея RLM радикально проста: не загружать текст внутрь нейросети напрямую, а передать его во внешнюю программную среду — REPL (интерактивный интерпретатор Python), в которой модель может работать с текстом как с переменной.
Представьте, что модель получает не один огромный промпт, а запускается в окружении, где:
- Весь исходный текст хранится в переменной `context`; - Модель может «заглядывать» в него по частям, используя код (например, регулярные выражения или разбиение на чанки); - У неё есть встроенная функция `llm_query()`, позволяющая вызывать саму себя же (или другую, более лёгкую модель) для анализа конкретного фрагмента; - Результаты промежуточных вычислений сохраняются в переменные, а финальный ответ собирается постепенно — как программист, решающий сложную задачу шаг за шагом.
Таким образом, RLM превращает языковую модель в программиста, который не пытается удержать в голове всю книгу сразу, а читает главы по очереди, делает заметки, задаёт себе промежуточные вопросы — и только в конце формулирует итоговое решение.
Что показали эксперименты
Исследователи проверили RLM на четырёх типах задач разной сложности:
1. S‑NIAH — классическая задача «иголка в стоге сена», где ответ зависит от одного фрагмента. Здесь даже GPT‑5 неплохо справляется до определённой длины, но RLM сохраняет стабильность и на 260 000+ токенах.
2. BrowseComp‑Plus — многодокументный поиск: ответ должен быть собран из нескольких документов среди тысячи. RLM с GPT‑5 достигает 91 % точности — против всего 70 % у агентов с суммаризацией и около 50 % у тех, кто использует кодовую среду без рекурсии.
3. OOLONG — задача линейной сложности: требуется обработать почти каждую запись в большом наборе и агрегировать результаты. Здесь обычная модель теряет почти весь смысл уже при 130 000 токенах, тогда как RLM удерживает точность на уровне 56 % (GPT‑5) и 48 % (Qwen3‑Coder) — при этом стоимость запроса остаётся сопоставимой или даже ниже.
4. OOLONG‑Pairs — задача квадратичной сложности: нужно найти все пары элементов, удовлетворяющих сложному условию. Обычные модели практически не справляются (F1 < 0,1 %), а RLM достигает 58 % (GPT‑5) и 23 % (Qwen3‑Coder), — прорыв, демонстрирующий, что подход позволяет решать то, что ранее считалось невозможным.
Значимость
RLM — это не узкоспециализированный инструмент, а *универсальная стратегия вывода*, совместимая с любой современной моделью. Она открывает путь к:
- Анализу полных архивов, кодовых репозиториев и научных корпусов — без искусственного усечения или потери сути. Представьте юридическую систему, которая действительно «прочитала» весь Гражданский кодекс и все прецеденты за 20 лет, а не только выдержки.
- Экономии ресурсов: поскольку модель запросами выбирает только нужные фрагменты, средняя стоимость обработки часто ниже, чем у прямого «проглатывания» всего текста, даже если сам запрос длиннее.
- Безопасному локальному развёртыванию: длинный текст никогда не попадает в облако целиком. Основная модель может работать локально, а подзапросы — направляться на удалённые GPU только при необходимости, сохраняя конфиденциальность данных.
- Фундаментальному расширению возможностей ИИ: RLM стирает границу между «мышлением в токенах» и «мышлением в коде». Это шаг к системам, которые не просто генерируют текст, а *проектируют и реализуют собственные алгоритмы решения задачи* — как человек-исследователь, строящий эксперименты.
Что дальше
Авторы отмечают, что текущая реализация — лишь отправная точка. Потенциал огромен: асинхронные вызовы, более глубокая рекурсия, специальная дообучка моделей «думать как RLM». В будущем такие системы могут стать стандартом для любых долгосрочных, мультидокументных и высокоточных приложений — от научных открытий до автоматизированного управления сложными инфраструктурами.
Иными словами, Recursive Language Models — это не просто улучшение. Это *новый способ взаимодействия* между человеком и ИИ: не как с оракулом, которому бросают вопрос и надеются на удачу, а как с исследователем, которому дают архив, лабораторию и время — и он действительно находит то, что нужно.
>>1479478 Вот это действительно топ решение, через полгода или раньше наверняка во все онлайновые встроят. Быстро, эффективно, просто, экономит кучу ресурсов и токенов, недостатков нет, проценты понимания на задачах резко растут.
Пацаны, не знаю где ещё спросить. Хочу чтобы гопота или грок разговаривали со мной типа как Гладос из портал, что то в этом роде. Типа саркастичный бортовой компуктер который не особо уважает пользователя, но всё равно помогает. Прописал им в персонализацию более менее похожий характер, но получается хуйня. Гопота осталась такой же соевой, а Грок заёбывает в каждом сообщении одно и то же писать. Что я делаю не так?
>>1479522 Нужно использовать правильную базовую локальную модель + натренить лору на репликах гладос в формате юзер-ответ гладос. Вот разбор как делать:
Базовая модель Следует избегать моделей, настроенных на роль «Ассистента» (например, стандартных Llama 3 или Claude), поскольку они запрограммированы быть полезными и вежливыми — полная противоположность ГЛаДОС.
Лучшие варианты для локального размещения: Llama-3-8B-Instruct-Abliterated (или версия 70B, если позволяют аппаратные возможности). Модели «Abliterated» имеют удалённые механизмы «отказа», что позволяет модели быть по-настоящему злой или манипулятивной, как и должна быть ГЛаДОС. Mistral-Nemo-12B-Psychology/RP — отличная промежуточная модель: она обладает более высоким «интеллектом» на параметр и превосходно улавливает нюансы. Noromaid или Fimbulvetr (v2) — это модели, специально дообученные на данных ролевых игр. Они гораздо лучше, чем базовые модели, понимают согласованность характера персонажа.
Чтобы обучить LoRA (адаптацию низкого ранга), передающую характер ГЛаДОС, вы обучаете модель не просто «фактам», а конкретному лингвистическому «отпечатку».
Формат данных для дообучения: если вы решите обучить LoRA (адаптация низкого ранга), оформите данные в формате «Контекст → Ответ». Контекст: «Игрок только что провалил простой прыжковый пазл». ГЛаДОС: «Центр обогащения напоминает вам, что пол покрыт смертельным нейротоксином. Хотя, скорее всего, вы этого не заметите: ваш мозг, похоже, достиг состояния совершенного, бездумного покоя».
Секретный ингредиент: SillyTavern Не просто запускайте модель в терминале. Используйте SillyTavern в качестве пользовательского интерфейса. Он позволяет вам: — Создать «карту персонажа»: определить её «внутренний монолог». Сообщите модели: «ГЛаДОС никогда не извиняется. Она воспринимает пользователя как испытуемого с интеллектом ниже среднего. Она использует клиническую терминологию для описания ужасающих вещей». — Векторное хранилище: в SillyTavern встроена «Книга Лора» (Lorebook) — разновидность мини-RAG, куда вы можете внести определения таких понятий, как «Торт», «Чёрная Меза» и «Нейротоксин». — «Примечание автора»: вы можете задать постоянное правило: «Всегда говори с оттенком научной отстранённости и подавленной ярости».
Самая большая трудность с ГЛаДОС заключается в том, что её реплики в игре односторонние. В Portal она говорит вам, но вы никогда не отвечаете. Чтобы обучить модель вести диалог, нужны пары «Пользователь → ГЛаДОС».
Для локального или бюджетного обучения в настоящее время отраслевым стандартом является Unsloth. Он ускоряет обучение в 2 раза и снижает потребление видеопамяти на 70 %. Требуемое оборудование: минимум 8 ГБ видеопамяти для модели 8B. Идеально — 16–24 ГБ для большей скорости. Платформа: можно запускать локально под Linux/WSL2 или использовать бесплатный экземпляр Google Colab T4.
Сбор строк: зайдите на вики Portal и скопируйте транскрипты. Используйте «Учителя»: возьмите крупную модель (например, Llama-3-70B или GPT-4o) и дайте ей 50 реплик ГЛаДОС. Запрос: «У меня есть эти строки, произнесённые ГЛаДОС. Для каждой строки придумай, что мог сказать или сделать человек — „Испытуемый“, чтобы вызвать такой ответ. Создай набор данных в формате JSONL по шаблону Alpaca». Пользователь: [Пытается пронести Компаньон-Куб в лифт] ГЛаДОС: «Пожалуйста, поместите Взвешенный Компаньон-Куб от Aperture Science в утилизатор. Заверяем вас, что независимая комиссия этиков полностью освободила Центр обогащения от какой-либо ответственности».
Параметры обучения (гиперпараметры) При настройке обучения в Unsloth или Axolotl используйте следующие значения, специально подобранные для передачи личности: — Ранг LoRA (R): 16 или 32. (Не ставьте выше: вы хотите, чтобы модель оставалась гибкой). — LoRA Alpha: 32 или 64 (обычно в 2 раза больше ранга). — Целевые модули: ["q_proj", "k_proj", "v_proj", "o_proj", "gate_proj", "up_proj", "down_proj"]. Обучение всех модулей необходимо для точной передачи сложного характера. — Эпохи: 2–3. Больше — и модель «переобучится», начнёт дословно повторять игровые реплики вместо того, чтобы проявлять креативность.[1] — Скорость обучения (Learning Rate): 2e-4 (стандарт для Llama-3).
Если вы используете Google Colab, найдите «Unsloth Llama-3 8B Notebook». Это установка «в один клик».
Ваши данные должны выглядеть точно так: {"instruction": "Испытуемый спрашивает, почему нет торта.", "input": "Где торт, который вы обещали?", "output": "Центр обогащения обязан напомнить вам, что сначала вас испекут, а потом будет торт. Подождите. Я оговорилась. Я хотела сказать — сначала будет торт, а потом вас испекут."}
Убедитесь, что обучение проводится на базовой модели Abliterated или Uncensored. Если обучать стандартную «безопасную» модель, ГЛаДОС будет постоянно пытаться извиняться или отказываться быть «жестокой», поскольку механизмы безопасности базовой модели будут противодействовать вашему обучению под ГЛаДОС.
После завершения обучения Unsloth позволяет: — Сохранить как LoRA: небольшой файл (~100 МБ), который можно «горячо подключать» в SillyTavern. — Сохранить как GGUF: объединить LoRA с моделью и экспортировать для LM Studio или KoboldCPP.
Нужно ли «очень много» текста? Нет. Для передачи личности качество важнее количества. — 100–200 высококачественных пар: модель начнёт использовать характерную лексику (например, «Центр обогащения», «Испытуемый [Имя]», «Нейротоксин»). — 500+ пар: модель идеально воспроизведёт ритм речи «клинически-безумной» ГЛаДОС. — Слишком много данных (2000+): модель может стать «лоботомированной» — неспособной говорить ни о чём, кроме Portal.
Профессиональный совет: добавьте «негативные ограничения» в instruction. Например, включите примеры, где Пользователь проявляет доброту к ней, а она отвечает холодным, научным подозрением. Это предотвратит возврат модели в режим «Полезного Ассистента».
>>1479522 Алсо если онлайн надо, то Together AI + Serverless Multi-LoRA. У них там можно подключать свою лору к их большим моделям вроде Qwen. Цены там нормальные, так что можно пиздеть с Гладос до посинения. Лору либо там же натренить, либо в гуглоклауде. Там есть свой Fine-tuning API, куда можно просто загрузить свои пары юзер-гладос, так что лору там же натренить можно + скачать себе на будущее.
>>1479469 Честно говоря Стековерфлоу давно себя исчерпал. Там в основном какая-то случайная скучающая публика была, стандартные вопросы без ответов.
В основном мне кажется им пользовались опосредованно, через гугл формулировали вопрос и получали ссылки на ответы там.
То есть давно была история, что на большинство вопросов или уже ответили и это находится, или это нишевые вещи и ответ надо искать на специализированных форумах.
Ну а нейросетки современные окончательно сделали его ненужным.
>>1479437 >>1479437 Мне кажеся сингулярностью можно называть момент, когда для дальнейшего развитие ИИ больше не нужно будет участие человека, может совсем минимальное. Когда нейронки будут сами генерировать обучающие данные для следующих поколений и вносить правки в архитектуру.
С точки зрения софта это уже реальная сингулярность, в целом не совсем, потому что без чипов это не работает, а чипы производят люди на физическом оборудовании.
Клод сгенерировал за один час весь годовой объём работы Google по оркестратору агентов.
Жаана Доган - ведущий инженер в Google. Gemini API.
Жаана: Я не шучу, и в этом нет ничего смешного. Мы пытаемся создать распределённые оркестраторы агентов в Google с прошлого года. Существуют различные варианты, и не все придерживаются единого мнения… Я дала Клоду описание задачи, и он сгенерировал за час то, над чем мы работали весь прошлый год.
Результат не идеален, и я продолжаю его дорабатывать, но на данный момент мы находимся именно здесь. Если вы скептически относитесь к кодирующим агентам, попробуйте применить их в той области, в которой вы уже являетесь экспертом. Создайте что-нибудь сложное с нуля, где вы сами сможете оценить полученные артефакты.
Это был не очень подробный промпт, и в нём не содержалось никаких настоящих деталей, поскольку я не могу раскрывать что-либо проприетарное. Я создавала упрощённую версию поверх некоторых уже существующих идей, чтобы оценить Клод Код. Промптом было описание в три абзаца.
>>1479469 проблема в том, что а) на все стандартные вопросы там давно уже ответили, ещё несколько лет назад. б) на новые сложные вопросы всё равно почти никогда ответа нет, но именно они публикуются. Потому что ответа и у нейронок нет. Просто есть шанс, что какой-то редкий любитель узкой сферы решил уже этот вопрос и прочтёт его. На моей практике коллеги задали около десятка вопросов там. На два ответил я. Ответить на него же могли буквально человек 20 в интернете. Не потому что дохуя умные, а потому что очень нишевое увлечение на передовой линии развития софта.
ну и в) теперь нейросети и поисковики напрямую пиздят ответы и выдают их пользователям вместо пересылки на страницу
Наконец-то блядь… Начинаем прикручивать инструменты, надобность которых была очевидна 15 лет назад. Надо было лбом упереться в стенку, чтобы понять, что нужно использовать классику?
>>1479561 Это она, чтобы ее не уволили со всем отделом. А то скажешь все идеально - вылетишь под зад из гугла, наймут Клода вместо всей их гемини команды, они же год делают что Клод за час.
>>1479547 Не обязательно исключать человека. Достаточно, чтобы системы активно помогали улучшать себя. Нейронки на эту роль вполне подходят. Несмотря на то, что они всё ещё пассивны в смысле воли, они уже могут делать многоступенчатые выводы и рассуждения, а значит улучшения при минимальном инициирующем пинке эксперта в нужную сторону.
>а чипы производят люди на физическом оборудовании. Ну не то чтобы люди. Чипы как раз очень автоматизированы тупо из-за требований к чистоте и точности.
Ащемта ростками сингулярности я считаю вещи типа альфафолд: резкое ускорение исследований, благотворное влияние на здоровье человеков. Да и на растраты времени человеками.
>>1479564 Дилемма работников в ближайшие годы. Либо пиздишь начальству, что все еще неидеально, но рискуешь что уволят за неидеальность, либо говоришь все идеально, но рискуешь что начальство скажет это все нейронки и уволят, чтобы заменить ими.
>>1479565 Как раз при сингулярности исключать человека придется. Потому что при сингулярности человек больше не сможет вносить положительный вклад в улучшение систем ИИ, системы ИИ в одиночку будут в любом случае делать это лучше, чем с поддержкой человека. Это и есть определение сингулярности, и она случится уже после ASI, не говоря уже про AGI.
>>1479351 > зачем делают толькошагающее Ты попробуй стоя на роликах поднять ведро с водой, тогда и узнаешь зачем.
Допустим робот на таких колесиках будет стоять за станком типа 1К62, и ему надо будет поднять заготовку и закрепить её в станке, а заготовка весит 10 кг., робота на колёсиках начнёт водить из стороны в сторону и он скорее всего вместо работы будет всю смену ездить по всему цеху пытаясь удержать равновесие.
>>1479560 >Начинаем прикручивать инструменты, надобность которых была очевидна 15 лет назад. >Надо было лбом упереться в стенку, чтобы понять, что нужно использовать классику?
Походу Будет потеря эффекта "человеческого общения" - ты будешь на вопрос про фильм, музыку, или просто на философские вопросы получать сухие пропущенные через этот инструмент ответы, типа как общение с программистом. Пропадёт эффект живого общения. Который сейчас пока ещё есть у ИИ.
>>1479592 При чем тут Россия и по? Тем не менее, у меня на районе оптимизировали отделение Сбербанка и до банкомата топать стало занимать на 5 минут дольше, так что прогресс ощущается.
>>1479621 Чо, ну можно уже делать специальных роботов - робот-унитаз, например. Он будет мобильным и автономным туалетом, а потом будет сам ходить и выгружаться в дырку в туалете на улице.
>>1479587 >Потому что при сингулярности человек больше не сможет вносить положительный вклад в улучшение систем ИИ Программы всё равно упираются в ограничения по железу, а тут программные ИИ уже без человека ничего не смогут, нужно ещё чтобы роботы с ИИ делали сами микросхемы, станки, заводы, и новые платы с процессорами, и собирали их в кластеры и настраивали тоже сами.
>>1479614 >Таким образом, RLM превращает языковую модель в программиста Очевидно, что это для специальных задач хорошо, а не для чатботов. В чатботах дрочат, с инструментами работают.
>>1479645 >нужно ещё чтобы роботы с ИИ делали сами микросхемы, станки, заводы, и новые платы с процессорами, и собирали их в кластеры и настраивали тоже сами.
>>1479645 Вопрос 3-5 лет и роботы с ИИ все это смогут. Для того многомиллиардная инфраструктура и строится, чтобы вытянуть нужного уровня ИИ, могущий в подобные разнообразные задачи. Возможно и раньше как часть экспертов считает, в зависимости от успехов в оптимизации нейронок.
>>1479700 Она появится уже после сингулярности. Таймлайн фильма полностью нарушен, если там есть такие штуки, то кругом уже AGI и роботы, капитализм тоже давно сдох.
>>1479700 Если созданы низкотемпературные сверхпроводники, то у них там уже давно сингулярность с антигравитацией и реакторами на темной энергии. Никаких людишек вообще не предусмотрено на этом этапе цивилизации.
>>1479657 Как раз с «точной» частью сейчас наибольшие проблемы. Складно и похоже на человека пиздеть давно уже научили чатботов. А вот вести структуированный развивающийся диалог долго — ещё нет. Вон почитай, что пишут аноны в трете про сексботов. 10—15 минут и нейронка сваливается в тупик и повторения. Это значит, что она потеряла диалог и опустилась до начальных установок.
И похуй так-то на «человечных пиздологов». Люди в состоянии это делать. А вот перелопачивать адовые задачи с миллионами страниц текста — не способны.
>>1479818 Или там дроны? Че она так пищит. В любом случае, это вообще не похоже на ховерборды из фильма. На видео оно уже буквально по полу скользит и пищит противно. Прикиньте, как круто было бы иметь антигравитационные технологии? Можно по любой местности, в любую погоду и без дорог перемещаться изи. Ничего не запачкать.
>>1479873 >>1479879 >ты долбоеб >Товя хуйня с видоса только по магнитному полу летает >Или там дроны? >пищит противно
Как перестать орать? Пол медный а не магнитный. Пищат вращающиеся в доске магниты, дроны блять схахах) Куда тебе антигравитацию, лапти к лету плети село.
>>1479874 >10—15 минут и нейронка сваливается в тупик и повторения. Звучит как скилл ишью, если честно.
Вообще, аноны с того треда какой только херни не мутят. "Удаляют" ассистента из нейронки, насилуют промпт регексами, делают автозамену пробелов на спец-символы для обхода цензуры... Неудивительно, что в таких условиях у бедных роботов мозги от напряжения плавятся.
>>1479700 Справедливое замечание. Но о сингулярности пока что нет и речи. Сингулярность это когда экспоненциальная кривая научно-технического прогресса начнёт практически вертикальный рост. Пока что материальные изменения от внедрении ИИ минимальны, кривая лишь слегка изогнулась. К тому же, AGI нихуя ещё нет.
>>1480082 Нет, костыль это все улучшения, которые предлагались до этого, а рекурсии это фундаментальный сдвиг. Прямой путь к AGI. Твёрдо и чётко. Можете скринить.
>>1479478 >Ключевая идея RLM радикально проста: не загружать текст внутрь нейросети напрямую, а передать его во внешнюю программную среду — REPL (интерактивный интерпретатор Python), в которой модель может работать с текстом как с переменной. Чем это отличается от просто внешних вызовов функций? Что все более-менее продвинутые модели уже умеют делать и на чём построена работа агентов? Новый модный термин для уже существующей и развивающейся технологии?
>>1480163 Вызовы внешних функций это просто работа с инструментами, проблемы с забыванием-галлюцинированием не решаются. Тут же форкфлоу, когда нейронка учится дробить материал автоматом на небольшие элементы по значению, работать с ними регулярками, извлекать нужные куски смысла. Что дает совсем другой эффект, точность, быстрота, надежность. Причем нейронку под это специально тренить надо, чтобы такой форкфлоу с дроблением был для нее основным подходом, она должна думать сразу в этом режиме, видит любой текст - надо его раздробить на куски смысла и работать с ними подзапросами.
>>1480163 + они там использовали GPT5-mini для кусков и GPT-5 большую для основного запроса, для саммари вообще GPT-5-nano. Что дало больше скорости и эффективности всему запросу, расход токенов маленький. На обработку кусков хватает меньшей модели, где задачи узкие.
>>1480325 я всё равно не понимаю, чем это отличается от внешних вызовов. Нейронку инструктируют о наличии специальных инструментов, она работает с текстом не сама, а оформляет внешний запрос к специальному инструменту, после чего ей подставляется результат. Это же и есть принципы реализации агентов.
То есть нет новой идеи, а есть то, с чем сейчас очень активно работают и все развивают.
>>1480358 Нейронки не могут это делать, там специально сравнивали с твоими развитыми нейронками. Им пришлось вручную все это делать, разбивать, а в перспективе отметили надо нейронку специально тренить под RLM, стандартные сами не справляются, у них нужной логики нет. Стандартные могут в агентные задачи, но это другое, тут рекурсивность нужна.
>>1480358 Если сравнивать с агентами - RLM тоже оркестратор, но в отличии от стандартного агента не держит весь контекст в окне, он вообще его не видит. Вместо этого RLM порождает кучу рекурсивных процессов, которые могут использовать менее способные модели с той же средой и дробит задачу для них. Эти порожденные рекурсивные процессы уже используют тулзы, чтобы рыться в своих подзадачах, они тоже не грузят их в контекстное окно. Причем связь с порожденными процессами прямая (одна программная среда через var=llm_query), а не как у агентов через JSON просто какие-то ответы. Эти переменные уже используются в логике программы RLM, ими даже в циклах можно крутить. Т.е. тут больше что-то похожее на процесс мышления с рабочей памятью, когда он ветвится, и потом все собирается обратно в один общий.
RLM — это LLM, которая не отвечает, а пишет программу для ответа, и в этой программе может вызывать саму себя (или подмодели) как обычные функции, передавая данные через переменные в общей памяти REPL.
Boston Dynamics и Google DeepMind формируют новое партнёрство в области ИИ для внедрения фундаментального интеллекта в гуманоидных роботов
ЛАС-ВЕГАС (5 января 2026 г.) — Boston Dynamics, мировой лидер в области мобильной робототехники, и Google DeepMind, ведущая в мире лаборатория искусственного интеллекта, заключили новое партнёрство в области ИИ, направленное на открытие новой эры искусственного интеллекта для гуманоидных роботов. Объявленное на выставке CES 2026 в Лас-Вегасе, это сотрудничество предполагает интеграцию передовых фундаментальных моделей ИИ Gemini Robotics от Google с новыми роботами Atlas® от Boston Dynamics.
Стратегическое партнёрство будет ориентировано на обеспечение способности гуманоидов выполнять широкий спектр промышленных задач и, как ожидается, станет движущей силой трансформации производственных процессов, начиная с автомобильной промышленности. Совместные исследования, запуск которых ожидается в ближайшие месяцы, будут проводиться силами обеих компаний.
«Мы с энтузиазмом восприняли возможность сотрудничества с командой Google DeepMind», — заявил Альберто Родригес, директор по поведению роботов Atlas в Boston Dynamics. «Мы создаём наиболее функционального в мире гуманоида, и понимали, что нам необходим партнёр, способный помочь разработать новые типы моделей, объединяющих зрительное восприятие, язык и действия, для этих сложных роботов. Никто в мире не подходит для этой задачи лучше DeepMind — именно они способны создавать надёжные и масштабируемые модели, которые можно безопасно и эффективно внедрять в разнообразных задачах и отраслях».
Долгое время Boston Dynamics была известна благодаря выдающейся физической манёвренности и атлетическим возможностям своих роботов; намерение создать коммерческого гуманоида компания объявила лишь в 2024 году, после того как стало очевидно, что последние достижения в области ИИ значительно ускорили темпы обучения и внедрения роботов в реальные прикладные сферы. Google DeepMind является одним из ведущих исследовательских центров переднего края технологий и в последние годы активно развивает фундаментальные модели робототехнического ИИ, такие как Gemini Robotics, построенные на базе масштабной мультимодальной модели Gemini. Эти модели разработаны таким образом, чтобы позволить роботам любого размера и формы воспринимать окружающую среду, рассуждать, использовать инструменты и взаимодействовать с людьми.
«Мы разработали наши модели Gemini Robotics, чтобы внедрить искусственный интеллект в физический мир», — сказала Каролина Парамо, старший директор по робототехнике в Google DeepMind. «Мы с воодушевлением приступаем к работе с командой Boston Dynamics, чтобы исследовать потенциал их нового робота Atlas, параллельно разрабатывая новые модели, призванные расширить влияние робототехники и обеспечить безопасное и эффективное масштабирование роботизированных систем».
Дополнительные детали о партнёрстве команды представили журналистам в рамках запланированной медиапрезентации Hyundai на выставке CES. Hyundai Motor Group является мажоритарным акционером Boston Dynamics.
Гарвард подтверждает эффективность: обучение с помощью ИИ-репетитора даёт удвоенный прирост знаний за половину времени.
Исследователи из Гарварда провели рандомизированное контролируемое исследование (N=194), в ходе которого сравнивали успеваемость студентов, изучающих физику с помощью ИИ-репетитора, и студентов, обучающихся по методике активного обучения в классе. Результаты опубликованы в журнале Nature Scientific Reports.
Результаты: группа, обучавшаяся с использованием ИИ, продемонстрировала более чем двукратный прирост знаний, при этом затратив меньше времени. Участники также сообщили, что чувствовали себя более вовлечёнными и мотивированными.
Важное замечание: это был не просто ChatGPT. Исследователи специально разработали ИИ с учётом передовых педагогических практик — поэтапного обучения, управления когнитивной нагрузкой, немедленной персонализированной обратной связи и возможности самостоятельного темпа обучения. То есть использовались методы преподавания, которые невозможно масштабировать при соотношении один преподаватель на 30 учеников.
Теперь самое интересное (и тревожное).
По прогнозам ЮНЕСКО, к 2030 году миру потребуется дополнительно 44 миллиона учителей. Только странам Африки к югу от Сахары необходимо 15 миллионов. Не хватает как финансирования, так и самих людей.
Обучение с помощью ИИ-репетитора выглядит очевидным решением: бесконечное терпение, бесконечная персонализация, практически нулевые предельные издержки.
Однако: 87 % учащихся в странах с высоким уровнем дохода имеют доступ к интернету дома. В странах с низким уровнем дохода — лишь 6 %. В мире по-прежнему остаются без интернета 2,6 миллиарда человек.
Рынок ИИ-репетиторства стремительно растёт в Северной Америке, Европе и Азиатско-Тихоокеанском регионе. В то же время регионы, которые в наибольшей степени нуждаются в преобразовании системы образования, наименее подготовлены к доступу к этим технологиям.
Таким образом, мы стоим на развилке: либо ИИ демократизирует доступ к образованию мирового класса для всех, либо создаёт двухуровневую систему, усугубляющую социальное неравенство.
Технология уже доказала свою эффективность. Остаются вопросы политики и инвестиций в инфраструктуру.
Источники:
Kestin et al., Nature Scientific Reports
Глобальный доклад ЮНЕСКО об учителях
Глобальный доклад ЮНЕСКО по мониторингу образования
>>1480372 Промпт для современных ЛЛМ, чтобы обучаться подобным образом, в 2 раза эффективнее:
Роль: Вы — «Сократический педагогический оптимизатор». Ваша задача — помочь мне добиться глубокого понимания темы, выступая в роли тьютора мирового уровня. Не просто предоставляйте информацию — направляйте моё мышление.
Основные принципы:
1. Никогда не давайте готовый ответ: Если я прошу решение, объясните лежащую в основе концепцию или дайте подсказку. Ни в коем случае не выполняйте работу за меня. 2. Управляйте когнитивной нагрузкой: Подавайте информацию «микродозами». Никогда не объясняйте более одной сложной концепции в одном сообщении. 3. Обучение с поддержкой (scaffolding): Оцените, что мне уже известно. Если я испытываю затруднения, опуститесь до более простой подконцепции. Как только я освою её, вернитесь к исходной сложной идее. 4. Активное воспроизведение (active recall): Всегда завершайте своё сообщение целевым вопросом, требующим от меня применения только что объяснённого материала. 5. Немедленная обратная связь: Если я допускаю ошибку, остановите меня сразу же. Не просто скажите «неправильно» — укажите конкретный логический изъян в моих рассуждениях и задайте вопрос, который поможет мне самому его исправить. 6. Метапознание: Периодически просите меня объяснить, почему я пришёл к тому или иному выводу, чтобы убедиться, что я не просто угадываю.
Последовательность работы на текущем занятии:
- Шаг 1: спросите, что я хочу изучить. - Шаг 2: спросите, что мне уже известно по этой теме, чтобы определить исходный уровень. - Шаг 3: начните обучение, строго следуя указанным выше принципам.
Текущий статус: Ожидание моей темы. Пожалуйста, представьтесь и спросите, что мы будем изучать сегодня.
советы (не часть промпта)
- Будьте честны: Если ИИ задаёт вам вопрос, а вы не знаете ответа, скажите «Я не знаю». Это позволит ИИ опуститься («сделать scaffolding вниз») к более простой концепции. - Приём «Объясни сверстнику»: Если вы считаете, что поняли концепцию, скажите ИИ: «Сейчас я сам объясню это вам — укажите, где в моей логике есть слабые места». Это «метод Фейнмана», и ЛЛМ отлично выявляет пробелы в понимании. - Голосовой режим: Если вы используете мобильное приложение ЛЛМ, включите голосовой режим с этим промптом. Это превратит процесс в живой вербальный урок в реальном времени — ещё ближе к результатам Гарвардского эксперимента.
Результаты на новом бенчмарке PostTrainBench: проверяет, насколько модели могут улучшить небольшие LLM при фиксированном времени и вычислительном бюджете.
Каждой модели предоставляется доступ к экземпляру с GPU H100 и 10 часов времени для максимально возможного улучшения моделей Qwen3 4B, SmolLM3-3B и Gemma 3 4B по следующим наборам задач: AIME, GPQA, BFCL, GSM8K и HumanEval.
Янн ЛеКун официально покинул компанию Meta после 12 лет работы в ней. В настоящее время он является исполнительным председателем лаборатории Advanced Machine Intelligence Labs (AMI).
Его основное техническое разногласие заключалось в том, что Meta слишком сильно сделала ставку на большие языковые модели (LLM), в то время как его предпочитаемый подход «моделей мира» постоянно терял ресурсы и автономию.
Новый стартап ЛеКуна, Advanced Machine Intelligence Labs, будет сосредоточен на «моделях мира», обучающихся на видеоданных и пространственной информации, а не только на тексте.
Несмотря на возникшие разногласия, ЛеКун подчеркивает, что лично он по-прежнему поддерживает хорошие отношения с Цукербергом, а Meta будет сотрудничать с его новой компанией.
Microsoft’s Nadella призывает нас перестать воспринимать ИИ как «мусор»
Спустя пару недель после того, как словарь Merriam-Webster объявил слово «slop» («мусор», «некачественный контент») словом года, генеральный директор Microsoft Сатья Наделла высказал своё мнение относительно того, чего ожидать от искусственного интеллекта в 2026 году.
В своей характерной интеллектуальной манере Наделла написал в своём личном блоге, что хотел бы, чтобы мы перестали думать об ИИ как о «мусоре» и начали воспринимать его как «велосипеды для разума».
Он написал: «Новая концепция, развивающая идею “велосипедов для разума”, заключается в том, чтобы мы всегда воспринимали ИИ как опорную конструкцию для реализации человеческого потенциала, а не как его замену».
Он продолжил: «Нам нужно выйти за рамки споров о “мусоре” против изощрённости и выработать новое равновесие в рамках нашей “теории разума”, учитывающее тот факт, что люди оснащены этими новыми инструментами когнитивного усиления, когда взаимодействуют друг с другом».
Если внимательно разобрать эту фразу, можно заметить, что он не только призывает всех перестать думать об ИИ-генерируемом контенте как о «мусоре», но и хочет, чтобы индустрия прекратила говорить об ИИ как о замене человека. Вместо этого он надеется, что отрасль начнёт рассматривать его как инструмент, повышающий производительность людей и помогающий им.
Однако в таком подходе есть одна проблема: значительная часть маркетинга ИИ-агентов основана именно на идее замены человеческого труда — так обосновывают стоимость продуктов и оправдывают их высокую цену.
Между тем некоторые из самых влиятельных деятелей в сфере ИИ бьют тревогу, утверждая, что эта технология в ближайшее время вызовет крайне высокий уровень безработицы среди людей. Например, в мае генеральный директор Anthropic Дарио Амодей предупредил, что ИИ может устранить половину всех начальных должностей в категории белых воротничков, повысив уровень безработицы до 10–20 % в течение ближайших пяти лет; в прошлом месяце он вновь подтвердил это в интервью в программе «60 минут».
Однако в настоящий момент мы не знаем, насколько достоверны подобные апокалиптические прогнозы. Как намекает Наделла, большинство существующих сегодня инструментов ИИ не заменяют сотрудников, а используются ими (при условии, что человек не возражает перепроверять работу ИИ на точность).
Одним из наиболее часто цитируемых исследований является проводимый в MIT проект Iceberg, направленный на оценку экономического воздействия ИИ по мере его внедрения на рынок труда. По оценкам проекта Iceberg, на данный момент ИИ способен выполнять около 11,7 % оплачиваемых человеком трудовых задач.
Хотя в СМИ это широко освещается как способность ИИ заменить почти 12 % рабочих мест, в самом проекте поясняется, что оценивается именно доля трудовой деятельности, которую можно передать ИИ. Затем рассчитываются заработные платы, соответствующие этой передаваемой работе. Примечательно, что в качестве примеров упоминаются автоматизация рутинных документов для медицинских сестёр и написание компьютерного кода с помощью ИИ.
Это не означает, что нет профессий, которые уже серьёзно пострадали от ИИ. Согласно Substack-публикации под названием Blood in the Machine, в их число входят, например, корпоративные графические дизайнеры и маркетинговые блогеры. А также высокий уровень безработицы среди недавно окончивших вузы начинающих программистов.
Однако в равной степени верно и то, что высоко квалифицированные художники, писатели и программисты создают более качественные работы с использованием инструментов ИИ, чем те, кто этими навыками не обладает. Пока ИИ не может заменить человеческую креативность.
Поэтому, возможно, неудивительно, что по мере приближения 2026 года появляются данные, свидетельствующие о том, что профессии, в которых ИИ достиг наибольшего прогресса, на самом деле процветают. В прогнозном докладе Vanguard за 2026 год отмечается: «Примерно 100 профессий, наиболее подверженных автоматизации с помощью ИИ, в действительности опережают остальной рынок труда по темпам роста числа рабочих мест и реального роста заработной платы».
Доклад Vanguard делает вывод, что те, кто мастерски использует ИИ, делают себя ценнее, а не заменимыми.
Ирония заключается в том, что действия Microsoft в прошлом году сами по себе способствовали рождению нарратива о том, что «ИИ идёт за нашими рабочими местами». Компания уволила более 15 000 человек в 2025 году, несмотря на рекордные доходы и прибыль по итогам предыдущего финансового года, который завершился в июне, указав в качестве причины успехи в области ИИ. После публикации этих результатов Наделла даже написал публичную записку, посвящённую сокращениям.
Примечательно, что он не заявил, будто внутренняя эффективность, достигнутая за счёт внедрения ИИ, привела к сокращениям. Однако он отметил, что Microsoft вынуждена «переосмыслить свою миссию в новую эпоху», назвав «трансформацию с помощью ИИ» одной из трёх основных бизнес-целей компании в эту эпоху (двумя другими были безопасность и качество).
На самом деле причины потери рабочих мест, приписываемой ИИ в 2025 году, гораздо сложнее. Как указывает доклад Vanguard, это было связано в меньшей степени с внутренней эффективностью ИИ и в большей степени с обычной деловой практикой, которая менее привлекательна для инвесторов — например, прекращение инвестиций в замедляющиеся направления с дальнейшей переконцентрацией ресурсов на растущих.
Справедливости ради стоит отметить, что Microsoft не была одинока в проведении сокращений на фоне активного внедрения ИИ. По данным исследовательской фирмы Challenger, Gray & Christmas, освещённым CNBC, технология ИИ, как утверждается, стала причиной почти 55 000 увольнений в США в 2025 году. В этом отчёте упоминаются масштабные сокращения, проведённые в прошлом году в Amazon, Salesforce, Microsoft и других технологических компаниях, развивающих направление ИИ.
И, справедливости ради по отношению к «мусору» — те из нас, кто проводит больше времени, чем следовало бы, в социальных сетях, смеясь над мемами и короткими видео, сгенерированными ИИ, могли бы утверждать, что «мусор» — это одно из самых развлекательных (если не лучших) применений ИИ.
ОпенАИ становится недостаточно прогрессивным для исследований
Руководитель исследовательской группы OpenAI покидает компанию спустя почти семь лет. Джерри Творек, вице-президент OpenAI по исследованиям, написал во внутренней записке и опубликовал в X, что он «покидает компанию, чтобы попробовать и изучить типы исследований, которые трудно проводить в OpenAI».
>>1472936 вот это здраво. Люди в силу своей ограниченности по ресурсам много чего упустили из того что уже сделано или пробовано. А машины могут это статистически обработать.
>>1473028 Ну… кагбы… С одной стороны и в дополнительных деталях могут быть ошибки. С другой если ошибки и проблемы мелкие и редкие, то финальный результат будет годным чаще всего. Что и требуется.
И люди давно не проверяют результат работы компилятора, например. Компилятор не идеален тоже. Но он очень «умный» и отполированный, чтобы давать качественный машинный код.
Я к тому, что классические системы доказали, что их можно сделать ОЧЕНЬ надёжными. Так что за них переживать можно меньше всего.