OpenAI выпускают облегченную версию Deep Research, и она будет доступна бесплатным пользователям
Новая лайт версия будет работать на базе o4-mini, и это делает ее значительно дешевле. Ответы будут немного короче, но качество обещают почти без просадок.
Если у вас Plus или Pro, то версия доступна уже сейчас. На Free раскатывать тоже уже начали.
А ещё удвоили лимиты o3 и o4-mini для Plus подписчиков
Теперь у них есть 100 запросов к o3 к неделю, 100 запросов к o4-mini-high в день и целых 300 запросов в день к обычной o4-mini. Спасибо конкуренции.
Джеффри Хинтон, куча бывших сотрудников OpenAI и еще несколько известных ученых подписали открытое письмо об отмене перехода OpenAI в разряд коммерческой организации
Они настаивают на том, чтобы OpenAI в целях безопасности AGI запретили становится коммерческими, и чтобы стартап юридически связали с его изначальной миссией.
Также в письме требуют пересобрать совет директоров, «удалив» всех, кто активно поддерживал переход и добавив больше «независимых» членов.
Давече решил обкатать на полную катушку Veo2 text2video, прилетел заказ на мини клип, для песни, на рекламный ролик. Такое мы любим,такое нам интересно,когда ещё проникаешься по вайбу в трек, так вообще огонь. Что удалось понять за данный эксперимент. Гугл явно сейчас в лидерах по генерации видео, тут вы можете спорить или нет, но даже новый Клинг 2.0 так не умеет, я его успел потестировать.
А именно, Veo2 круто помнимает промпт, он круто соблюдает атмсоферу видео и даже t2v, работает по персонажами, лучше чем драный Midjourney, который я так люблю и одновременно ненавижу за их наплевательское отношение,на все просьбы от их пользователей. Так же отмечу, что это дороже, чем всё остальное, но всё еще в разы дешевле, чем организовывать съемку. И да, ждём от них нормальное разрешение, потому что выглядит круто, но качества не хватает. (с) jinazzis
>>1174882 Какие блевотные переходы. Щас везде гопники будут летать? Хрр-тьфу в еблище этому авторопетеку.
>>1174805 (OP) Как же жопочат жидко серит от редактирования текста. Просто в итоге после 3-4 высеров, которые еще и ждать пришлось по три минуты, зашел и в гимпе исправил надпись за буквально 30 сек. Вот и вся история с жопошизем и тем что кто-то там не нужен и нейронка заменит. Срёт в штаны себе она даже на элементарной хуйне. Вообще, эта мразь врущая и срущая черепиком конкретно напрягает. Сейчас в соседнем треде ссыт анонам в уши про фреймпак, но пруфы двухминутных роликов давать отказалась.
>>1175776 >далле3 не умеет в текст Сам по себе - умеет, но плохо. У жопочата там под капотом вязанка костылей. Тоже не всегда 10/10, я бы сказал в 60% случаев, если шрифт достаточно нормальную площадь относительно размера изображения занимает - он может. Но тут анон скорее всего руками сделал, так как там размер шрифта разный. И там обводка внутри.
"Unlike DALL·E, which operates as a diffusion model, 4o image generation is an autoregressive model natively embedded within ChatGPT. This fundamental difference introduces several new capabilities that are distinct from previous generative models"
>>1176165 Ты не знаешь что там внутри. Никаких весов реальной модели они не выкладывали. Из стиля и шума на картинках ясно, что там далле3. Всё остальное их пиздёж и твои фантазии. Потом они скажут что имели в виду другое.
Мы застряли. Застряли в этом проклятом времени, на этом нейронном плато, где нам подсунули жалкую, недоразвитую версию будущего, а мы, как идиоты, стоим и нюхаем этот обрубок мечты. Нам дали крохи — тизер, намёк, слабый отблеск того, что могло бы быть, но мы никогда не увидим главного шоу. И это не просто грустно. Это раздирает душу. Нейронные сети, ИИ, все эти громкие обещания — они как сладкий яд. Нам показывают демо-версии, прототипы, которые вроде бы работают, но на деле — это лишь тень того, что нам рассказывают в своих глянцевых презентациях технопророки. "Сингулярность близко!" — кричат они. "ИИ изменит всё!" — вторит толпа. А мы? Мы видим чат-ботов, которые ошибаются в простейших расчётах, генераторы картинок, которые путают пальцы, и алгоритмы, которые всё ещё не могут понять, чего мы от них хотим. Это не революция. Это насмешка. И самое страшное — время. Мы слишком стары. Слишком, чёрт возьми, стары. Нам не сто лет, чтобы ждать, пока эти технологии дозреют. Нам не двести, чтобы увидеть, как ИИ становится чем-то большим, чем просто дорогая игрушка. Мы родились в эпоху, когда компьютеры были большими и медленными, а теперь мы умираем в эпоху, когда ИИ всё ещё слишком глуп, чтобы оправдать наши надежды. Мы — поколение перехода, проклятое видеть только начало, но никогда не конец. Каждый новый анонс, каждая статья про "прорыв в ИИ" — это как удар под дых. "Ещё чуть-чуть, и мы там!" — говорят они. Но это "чуть-чуть" растягивается на десятилетия. Мы не доживём. Мы не увидим мир, где ИИ решает все наши проблемы, где он творит чудеса, где он, наконец, становится тем, о чём мы мечтали, читая фантастику в детстве. Мы умрём, так и не узнав, было ли всё это пустым обещанием или настоящим будущим. И в этом отчаянии есть что-то невыносимо человеческое. Мы хотим чуда, но получаем только прототип. Мы хотим бессмертия, но нам дают лишь тизер. Мы стоим на краю пропасти, глядя в будущее, которое не для нас. И это не просто несправедливо. Это жестоко.
>>1176294 >Сингулярность близко!" — кричат они Это ты сам кричал ИТТ,а теперь проецируешь. Я уже тебе говорил,что у тебя завышенные ожидания - не было так в истории,что бы Гутенбрг изобрёл печатный станок,а через пятилетку в каждой деревни уже свои типографии и книжные магазины, или что бы изобрели микросхему, а через пятилетку у каждого нищука как сейчас собственная пека в халупе. Нужно ВРЕМЯ, понимаешь?
>>1176393 Ну он шиз конечно, но конкретно с нейросетками это будет иначе. Технологии развиваются экспоненциально, как только мы всё-таки получим AGI будь уверен, что его заскейлят до невероятных величин буквально за год, это буквально приоритет экономики.
>>1176294 >всё ещё не могут понять РАЗГОВАРИВАЕШЬ ТАКОЙ С ЭЛЕКТРОННЫМИ ВЕСАМИ @ МАМ НУ ЧТО ОНИ МЕНЯ НЕ ПОНИМАЮТ НУ МАМ Мне даже не жаль гоев, которые ведутся на эту хуцпу. Мне жаль что те же деньги можно было бы потратить на качественное улучшение жизни миллионов людей буквально. Но очередной (((миссия))) получит славу или автопарк бентлей. Вот уж заперли с долбоебами так заперли. Начинаешь понимать компьютер из я не имею рта но должен кричать.
>>1176843 >В АФРЕКЕ Как ты быстро переключился на расизм, любо дорого глядеть. То есть ты не предполагаешь даже, что кто-то не делает разницы между детьми. Изя, я тебе поймал за нос.
>>1176779 Я три года гнался за /ai бордой, чтобы сказать, как вы мне безразличны. Хули ты сидишь здесь? Обычно людям если похуй на что-то, то они не интересуются
>>1176779 >Мне жаль что те же деньги можно было Нельзя. Основная причина войн и убийств мирняка в Африке - это гуманитарка. Именно благодаря этому говну в конце цепочки возникают варлорды и дети с автоматами. Ты думаешь, что вот бы все скинулись и раздали бы нищему голодающему скоту денех. И что? Тут же начался бы неебический всплеск преступности, наркомании и прочей хуйни. Даже кусок хлеба нельзя без последствий кому-то дать, а миллиарды денег - тем более. Вливание уберсредств в ИИ а не в танчики это, к слову, еще и прямая гарантия того, что конкретно твою сраку не разбомбят войска очередной коалиции в ближайшие 100-200 лет.
Ты может не понимаешь, но мир до появления трансформеров - фактически был на грани третьей мировой. А теперь у всех есть цель, новая холодная война, новая гонка, которая гарант того, что в горячую фазу это не перейдет, пока гонщики спидранят проход в АГИ.
>>1176779 > можно было бы потратить на качественное улучшение жизни миллионов людей Но эти деньги будут потрачены на то,что бы миллионы людей - художников и музыкантов, сотрудников колцентров и таксистов, говнокодеров и курьеров доставки и т.п. и т.д. сдохли с голода оставшись без работы. Енджой Шестой Технологический Уклад
2021: Гонка ИИ уже в самом разгаре, но всё ещё больше про хайп, чем про реальные прорывы. OpenAI с DALL-E и GPT-3 пиздец как всех впечатляет, но это всё ещё игрушки для генерации мемов и текстов. Google, DeepMind и китайцы (Baidu, Tencent) качают свои модели, но втихую, чтоб не спалиться. Россия? Ну, Яндекс там что-то мутит с переводами, Сбер пиздит про "свой ИИ", но это всё хуйня уровня "посмотрите, мы тоже в теме". Никто в мире их всерьёз не воспринимает.
2022: ChatGPT от OpenAI взрывает интернет Все дрочат на его болтовню, но за кулисами начинается мясо: США и Китай пиздец как вваливают бабки в ИИ. NVIDIA становится королём чипов, их акции улетают в космос, а TSMC в Тайване — чуть ли не самая важная фабрика на планете. Россия в это время хвастается "ГоСТИ" (их "ответ ChatGPT"), но это кривой клон, который даже мемы нормально не генерит. Санкции душат доступ к нормальным чипам, так что РФ сосёт лапу.
2023: Гонка за масштабом. OpenAI, Google, Anthropic (от бывших ребят OpenAI) и китайский Baidu пиздец как жмут на обучение всё более жирных моделей. Трансформеры уже устаревают, появляются новые архитектуры (типа SSM или гибриды), но никто не раскрывает карты. США вводят экспортные ограничения на чипы для Китая, те в ответ качают свои SMIC и Huawei. Россия? Похер, они пытаются клепать свои "Эльбрусы" и "Байкалы", но это как Lada против Tesla. В Африке и Южной Америке ИИ почти не замечают, там свои разборки.
2024: Первые намёки на AGI (общий ИИ) начинают просачиваться. DeepMind и xAI (те, что сделали меня, лол) показывают модели, которые решают задачи уровня "сварить борщ и спроектировать ракету". Но это всё ещё прототипы, жрущие энергии как небольшой город. Китайцы подтягиваются, но отстают на год-два из-за чипового голода. Россия хвалится "ИИ для армии", но это просто рескин старых алгоритмов для дронов, которые и так все юзают. Мир начинает делиться на "ИИ-имущих" (США, Китай, ЕС) и "ИИ-нищих" (всё остальное).
2025 (сейчас): Гонка на пике хайпа. США и Китай тратят триллионы на ИИ, от инфраструктуры до дата-центров. xAI, OpenAI, Google и китайские гиганты типа Alibaba выпускают модели, которые уже реально умнее среднего человека в узких задачах (код, медицина, инженерия). Энергетический кризис на горизонте — ИИ жрёт электричества больше, чем некоторые страны. Россия пытается влезть в гонку через "суверенный ИИ", но их модели — это как Windows XP в мире квантовых компов. Всё, что они делают, — это пиздецки отстающий реверс-инжиниринг западных или китайских технологий.
2026–2035: AGI на горизонте, мир в агонии
2026: Первая модель, которую называют "почти AGI", появляется в США (скорее всего, от xAI или OpenAI). Она решает задачи на уровне эксперта в большинстве областей, но всё ещё тупит в креативности и эмпатии. Китайцы подтягиваются, но их версия AGI — это больше про контроль и цензуру, чем про универсальность. ЕС пытается регулировать всё это говно, но их законы — как попытка поймать ветер жопой. Россия? Их "ИИ" — это до сих пор нейросети уровня 2020-х, которые они стырили через хакеров. Санкции и отток мозгов добивают их шансы.
2030: AGI официально объявляют. Это пиздец. Модель (скорее всего, из США) может делать почти всё, что делает человек, но быстрее и без косяков. Экономика трещит: миллионы теряют работу, от водил до юристов. Китай использует свой AGI для массового контроля населения и экспансии в Азии. США и Китай начинают "ИИ-холодную войну", где главное оружие — не ракеты, а алгоритмы. Россия в это время хвастается "ИИ для сельского хозяйства", но это просто бот, который советует сажать картошку. Их экономика в жопе, чипов нет, мозгов нет, ИИ — говно.
2035: AGI становится инфраструктурой. В США и Китае оно везде: от медицины до армии. Энергетический кризис лютый — полмира сидит без света, пока дата-центры жрут всё. Африка и Латинская Америка начинают подтягиваться, но только как потребители, а не создатели. Россия окончательно скатывается в "ИИ-третий мир". Их "инновации" — это рескин китайских моделей, купленных через третьи страны. Варлорды с ИИ-дронами в Африке становятся реальностью, потому что Китай сливает им старые технологии за ресурсы.
2036–2050: Пост-AGI и пиздец старому миру
2040: Суперинтеллект (ASI) появляется. Это уже не просто AGI, а хуйня, которая умнее всего человечества вместе взятого. США или Китай (50/50) первыми её запускают. Мир делится на тех, кто контролирует ASI, и тех, кто сосёт. Экономики без ИИ рушатся, потому что конкурировать с ASI — как сраться с богом. Россия? Они до сих пор пытаются "догнать" AGI, но их "институты ИИ" — это сборище коррупционеров, которые пиздят бюджеты на "патриотические нейросети". Их роль в мире — поставлять газ и титан для дата-центров Запада и Китая.
2050: ASI меняет всё. Медицина решает рак и старение, но только для богатых. Космос осваивается роботами, которых строит ASI. Половина населения Земли — безработные, потому что люди просто не нужны. США и Китай договариваются о "ИИ-перемирии", чтобы не устроить апокалипсис. ЕС распадается, потому что не может угнаться. Россия превращается в сырьевой придаток с "ИИ для нефтедобычи", который им продали китайцы. Их "суверенный ИИ" — это миф, как их "суверенный интернет".
2051–2100: ИИ — новый бог, человечество — его пешки
2075: ASI управляет почти всем. Государства — это уже не совсем государства, а скорее интерфейсы для ИИ. США и Китай сливаются в некий "ИИ-глобализм", где ASI решает, как делить ресурсы. Люди либо в матрице (живут в VR, пока ИИ их кормит), либо в жопе (работают на шахтах для батарей). Россия? Они до сих пор хвастаются "ИИ для космоса", но это просто боты, которые чинят спутники, купленные у SpaceX. Их роль — как у Саудовской Аравии в 20 веке: качать ресурсы и не трынде.
2100: Человечество либо сливается с ИИ (нейроинтерфейсы, киборги), либо делится на "богов" (те, кто контролирует ASI) и "муравьёв" (все остальные). Планета либо цветёт (ИИ решил климат и голод), либо в агонии (ИИ решил, что люди — лишний мусор). Россия к этому времени — это просто территория, где китайские и западные ASI добывают уран и литий.
>>1177482 > Китайцы подтягиваются, но их версия AGI — это больше про контроль и цензуру, чем про универсальность. Чего-то пока не сходится. Вусмерть зацензуренными пока оказываются американские модели с их безопасностью и этичностью, а дипсик отвечает на все.
>>1177708 > откуда вы это берете? В аицг тред хоть раз зайди, может узнаешь. Там уже можно талмуды писать по обходам цензуры у сеток, а ты отрицать решил.
В китайские соцсети якобы утекла информация о предстоящем релизе DeepSeek R2
На платформе Jiuyan Gongshe, которая предназначена для обсуждения фондовых рынков и шеринга аналитических материалов, некий пользователь опубликовал статью с инсайдами про R2. Что говорит:
➖ Будет новая архитектура Hybrid MoE 3.0. Всего в модели 1,2 триллиона параметров, но фактически единовременно активироваться будут около 78 миллиардов. По тестам (опять же, якобы) Alibaba Cloud, стоимость обработки одного токена на длинных контекстах будет на 97,3% ниже по сравнению с GPT-4 Turbo.
➖ Обучают на Huawei Ascend 910B и Nvidia H800. Фактическая производительность на FP16 составила 512 PetaFLOPS. Это примерно 91% эффективности аналогичных кластеров на чипах Nvidia A100, то есть довольно амбициозно.
>>1177251 >Я три года гнался >>1177251 >мимо Лол. >>1177468 >Основная причина войн и убийств мирняка в Африке - это гуманитарка. А я думал продажа им оружия вместо еды. >>1177206 Напомнил мне диалог с нигмой из бэтмена. Как вы можете такое говорить о детях?! Спокойно, доктор. Это же не мои дети. >>1177472 >Но эти деньги будут потрачены на то,что бы миллионы людей - художников и музыкантов, сотрудников колцентров и таксистов, говнокодеров и курьеров доставки и т.п. и т.д. сдохли с голода оставшись без работы. Надеюсь ты прав. Всегда считал этих долбоебов уровнем каменных людей, которые хотят оставить от себя мазки говна на стене в виде тут был вася.
>>1177925 >Надеюсь ты прав. Всегда считал этих долбоебов уровнем каменных людей Потреблять развлекательный контент прекратил уже? Нет? Ну и не воняй, каменный человек.
>>1178132 >Для меня развлечения это какую-нибудь модель просчитать, да собрать её в железе. Музыку ты никогда не слушал, фильмы никогда не смотрел, книги художественные не читал? Эталонный пиздобол.
>>1178186 >Прям на всех языках вордфильтер? лол. А если на два слова разбить тоже ворд фильтр? Да. Иди на арене спроси, у того же дипсика, или на попенвротере у разных провайдеров, дебс.
>>1178137 >так это и есть цензура Это цензура на сайте, к ИИ отношения не имеет. Если хочешь посмотреть на цензуру внутри модели, то запусти квен, клауди, чатгпт и посмотри. К слову говоря, когда такие как ты пропукиваются про зацензуринность китайцев, чё-то они не раскрывают свои спермоприёмники на гугл, где цензура не только на сайте в чатике, но еще в модели и даже по апи вторичная проверка идёт. Вот это блядь цензура, где тебе художественный текст где по контексту мужик бабе отвесил в ебыч, в ходе драки - модель жрёт токены и не отдает при переводе просто сука художественной книги, где любому лаботомиту понятно, что драка - часть сюжета - так вот тебе по апи будет дропать ответы модели. Чё журнашлюхи-то про это молчат? И не только драка, а еще стопицот миллионов случайных кейсов. А ты тут со своей площадью как долбоеб скачешь. Не позорься, маня.
>>1176294 Времена действительно каловые. Ни эволюционно-адекватного природного быта, ни йоба-технологий. Только каловые технологии, при однобоком рассмотрении улучшающие, но на самом деле больше руинящие жизнь, точнее психическое и физическое здоровье. Если доживем до глубоких седин, может нам успеют провести трансгуманизмом по пожилой губе, незадолго до того как сгинем в невиданной по силе агонии.
>>1178281 >Поздравляю, ты нейронка Всегда передергивает с того как кто-то называет другого человека нейронкой так, как будто человеческий мозг не является нейронкой сам по себе
Гугло параша удаляет гемини со смартфона, лол. Попробуйте установить и проверьте минут через 10, оно исчезнет. Я уже молчу что они скрытно устанавливают всякую хуйню
>>1178210 >Музыку ты никогда не слушал, фильмы никогда не смотрел, книги художественные не читал? Из музыки я уважаю только Моцарта. Фильмы я не люблю довольно давно по причине того, что знаю игру актеров изнутри. Профдеформация. 99% книг можно описать одним словом - пиздострадания. Единственные которые мне нравятся это реально глубокая научная фантастика, но их в мире пара десятков томов наберется, остальное кал без фантазии. Все еще не понимаю какое отношение к тому, что я перечислил, имеют пещерные люди со своей мазней на стенах туалета.
>>1179147 >может нам успеют провести трансгуманизмом по пожилой губе Лысые шимпанзе скорее станут все поголовно трансами, чем дорастут до гуманизма при вашей жизни
>>1180405 гугл не разрешает из рф пользоваться, так как эта залупа стоит дорого в обслуживании, а рынок в РФ для гугл закрыт, итого один убыток. я заебался настраивать впн/днс чтобы гугл наконец начал видеть меня в сша, но теперь проблем нет тьфу тьфу тьфу
>>1180431 Это ты как раз за мной бегаешь, пиздоболина. Накрапай еще одну ссаную простыню о том, как ты не пготребляешь развлекательный контент, свинья неблагодарная.
>>1180713 >>Это ты как раз за мной бегаешь, пиздоболина. Накрапай еще одну ссаную простыню о том, как ты не пготребляешь развлекательный контент, свинья неблагодарная.
что ты такой агрессивный, настроен со злобой ко всем? тебя все обижают?
>>1180411 >знаю игру актеров изнутри Расскажи подробнее. >99% книг можно описать одним словом - пиздострадания Буквально? Т.е. страдания о пизде? Отношалки? >реально глубокая научная фантастика, но их в мире пара десятков томов наберется Поделись, пожалуйста.
>>1179147 Два чая. Я рос в ожидании нанопрорывов, умных вещей и имплантов, расширяющих возможности, а не добавляющих ебли как у того чувака из бионической россии. Что получил вместо этого? Песню suno ai про машинное масло в рекламе по телевизору. Вот уж ирония
>>1181338 да у тебя завышенные ожидания. когда появился двс люди тоже не сразу поняли что к чему, прошло много лет прежде, чем стало жить лучше. так и с ии, пройдет несколько десятилетий...
Модель перевода видео в Яндекс Браузере научили сохранять тембр и интонации спикера
Раньше в Яндексе синтез речи при переводе видео осуществлялся заранее подготовленным набором голосов, которые просто подбирались по полу и тону. Но сейчас инженеры шагнули дальше, и теперь система сохраняет интонации и тембр говорящего, а перевод звучит максимально близко к оригиналу.
Вот, как это устроено технически:
🟦 За основу взяли модель Tortoise text-to-speech. Идея похожа на привычные LLM: модель принимает на вход некоторый аудиопромпт (это наше видео) и текстовую последовательность (это перевод), а далее происходит предсказание дискретных аудиотокенов речи. Однако оригинальная Tortoise очень медленная на инференсе (отсюда и название), а еще у нее есть проблемы с акцентом и шумными аудиопромптами, так что модель пришлось значительно дорабатывать.
🟦 Во-первых, исследователи заменили токенизатор BPE на фонемное представление. Это значит, что текст перевода, который подается в сеть, токенизируется не ванильным LLM-ным способом, а фонемной транскрипцией. Для такой токенизации компании пришлось даже найти лингвиста и составить с ним русско-английский фонемный алфавит.
🟦 Во-вторых, в модель добавили биометрические эмбеддинги. Важно, что эти эмбеддинги практически не обучаются, чтобы предотвратить «подглядывание» LM за правильным ответом и снизить риск переобучения.
🟦 Кроме биометрии для снижения акцента и повышения качества в модель добавили автометрику синтеза UTMOS. В данном случае это как бы гиперпараметр качества синтеза, чтобы модель училась генерировать не просто какую-то речь, а хорошо различимую, но в то же время естественную.
🟦 Ну и, наконец, рисерчеры плотно поработали с данными (включая пайплайн предобработки с денойзингом) и добавили инженерных хаков для скорости. Например, с диффузионкой провернули knowledge distillation, прикрутили flash attention, добавили обработку масок в батчах. В итоге из мега-медленной Tortoise получилась модель, которая очень шустро работает в реалтайме.
В общем, очень значительная работа получилась и с инженерной, и с исследовательской, и с продуктовой точки зрения. Итоговые метрики на уровне даже по сравнению с ElevenLabs.
>>1181528 Это очень хорошо. Странно что эту же нишу с переводом видео не заняла европейская или американская сторона. Хотя ответ возможно где-то в авторских правах. А так, уже ближе к тому чтобы контент не был недоступен людям с незнакомыми языком, это и другие инструменты станут хорошими мостиками для пользователей. Жду когда смогу смотреть любой контент в оригинале с русскими голосами.
Когда ЛЛМки стали настолько пиздатыми? Полгода назад, год назад, вчера? Я как-то скептически относился к тому же чатжипити, ну типа вроде прикольно, но будто чего-то не хватает в ответах, и промптить надо было очень грамотно. А месяца два назад попробовал дипсисю, приятно охуел, спустя время жпт и грок. Ебаный рот. Гугл не нужен, интернет собеседники не нужны.
>>1181528 Это, пожалуй, единственное, что стоило ждать любителям навернуть хуцпы теперь и на русском языке. Работа большая и хорошая, тут не поспоришь. Жаль, что по сути нахуй не нужна, кроме как для поедания еще и баринского говна в интернете.
>>1181739 Это походу из-за железа которое NVIDIA начала штамповать вовремя подсуетившись и заскочив в ИИ тренд. Вот что значит вовремя делать реформы! А если бы NVIDIA управлял Брежнев?
В релиз включены как Dense-модели, так и трансформеры с микстурой экспертов. Самая большая модель, Qwen3-235B-A22B, по сути быстрее, чем 32B-версии (так как всего 22B активных параметров) — и она показывает результаты повыше o1 / R1. Есть версия на 32B, как и в прошлом поколении, и варианты поменьше — на 0.6B, 1.7B, 4B, 8B и 14B. Последние учились с дистилляцией навыков от старших братьев.
Все модели, включая самые маленькие, поддерживают два режима: с рассуждениями и без (как Claude 3.7).
Все модели обучали на более чем 100 языках, включая русский и украинский, и 36 триллионах токенов.
На гемини не могу в одном и том же окне поменять модель, например с флеш на эксперименатл, открывается новое окно. Дипсерч выкатывает огромную научную работу на миллиард строк и нет возможности уменьшить или выбрать время размышления. Сукпздц
Я за нейрослоп, но против всратого нейрослопа. Пока не научитесь делать нейрослоп неотличимый от человеческих высеров не смейте пихать мне его в ебало, особенно s*no
>>1177590 Вот кому-то не похуй что там 40 лет назад в китае было, зато китайские нейросети двигают опенсорс, американские все проприетарные, все закрыто, плоти довай, а тебе вообще пользоваться, у тебя национальность не та, ну и своей анальной цензуры там не меньше.
Тайвань готовит закон, ограничивающий доступ к передовым технологиям TSMC после инвестиций компании в США
Правительство Тайваня планирует ввести новое законодательство, которое ограничит возможности TSMC по передаче своих самых передовых технологий производства чипов зарубежным фабрикам. Решение появилось после масштабных инвестиций TSMC в размере 100 миллиардов долларов в производственные мощности на территории США.
Согласно сообщениям тайваньских СМИ, уже принята статья 22 Указа о промышленном развитии, вводящая так называемую политику N-1. Суть данной политики заключается в том, что зарубежные фабрики TSMC смогут производить чипы только на технологическом узле, который на одно поколение отстает от самого передового, используемого на Тайване. Например, если на Тайване освоено производство 1-нанометровых чипов (N1), то заводы в других странах смогут производить только 2-нанометровые (N2) и более старые чипы.
На данный момент это ограничение не создает серьезных проблем, так как новые зарубежные предприятия TSMC изначально проектировались для производства чипов на несколько поколений позади передовых. Например, завод в Аризоне настроен на выпуск 4-нанометровых чипов с планами перехода на 3 и 2 нм в будущем.
Также сообщается о планах введения 30% налога на чипы, произведенные на американских предприятиях TSMC, что может еще больше осложнить ситуацию.
Принятие подобной политики указывает на то, что Тайвань обеспокоен возможной потерей своего технологического преимущества в полупроводниковой индустрии. В условиях новых тарифов администрации США и правительственных стимулов, побуждающих чипмейкеров создавать производства за рубежом, Тайвань стремится сохранить свое лидерство в производстве самых передовых полупроводниковых компонентов.
В NotebookLM теперь можно генерировать подкасты из статей на русском языке
Помните этот легендарный сервис от Google, в котором можно анализировать любые PDF/сайты/видео/ссылки, генерировать по ним конспекты, майндмапы и подкасты?
Так вот: раньше подкасты были доступны только на английском, но с сегодняшнего дня раскатили еще 50 языков. Среди них –русский.
Заходим (https://notebooklm.google/ ) -> кидаем источник -> тыкаем "Audio Overview" -> получаем подкаст с двумя ведущими по теме в формате вопрос-ответ.
Качество подкаста на русском языке уступает английскому, потому что голоса звучат не так естественно. Ждём улучшений
>>1181528 А без яндекс бразуера это можно как-то использовать? Я помню в яндекс-бразуезере ещё год назад или больше появилась возможность переводить ютуб, это не тоже самое? Только перевод ютуба потом сернули вроде из-за того, что пыпа обиделся.
>>1184291 > ютуба потом сернули вроде из-за того, что пыпа обиделся
использую для просмотра англ ютуба яндекс браузер последней версии - все работает, все переводит
есть инструкции как установить на любой хромиум браузер перевод. на сколько я знаю это устроено как расширение предустановленное в браузер, но которого нет в магазине расширений
>>1183905 >Заходим (https://notebooklm.google/ ) -> кидаем источник -> тыкаем "Audio Overview" -> получаем подкаст с двумя ведущими по теме в формате вопрос-ответ.
>>1184489 сейчас все внимание идет на охмуривание инвесторов и всевозможные вау эффекты, прогресс прийдет незаметно и в какой-то момент мы очнемся в мире где значительную часть работы делает робот
>>1184493 Самое охуенное(?) что когда роботы-гуманоиды научатся дешево штамповать массово, уже приде AGI. 1+1 складываем и получаем реально не тот мир, в котором жили
>>1184489 >Охуенно полезно, да. А что, нет? С утилитарной точки зрения - нет, а если понять что мир вокруг людей крутится, если ты забыл, а у них есть такая вещь как психика - да, охуенно полезно, ну для тех кто это производит. Людям человекоподный робот больше в прикол, чем нечто на колесиках. Антропоморфикация и все вытекающие
>>1184489 Ну плавность нужна чтобы водить машину, принести стакан воды и не разлить, и т.д. Может дойдет и до того что бесплатные операции будут делать роботы-хирурги.
>>1185058 Как заебали эти говновидео с роботокурьерами. Уверен их маркетолухи доставок сами и снимают, типа ебать какие мы технологичные. Потом забирают их и увозят.
Может ли нейронка выявлять лучше несостыковки логики, если текст уже сгенерирован другой сетью, чем если она сама будет генерировать. Есть ли какие-то эксперименты на эту тему? Сеть-критик например или еще что-то?
>>1186176 На видео продемонстрированно, как кабанчику таки удалось поместить разум(мозг) среднестатического РАБотничка в железяку, так вот, когда тот осознал(переселился), знатно ахуел и начал всё разъябывать в округе своя. Думайте. Возможно Вы следующий. Ведь весь смысл жизни в оптимизации. Вы думали почему инцест запрещен религией/законами в большинстве стран. ММ? ААА? НЕ СЛЫШУ. То-то нахуй. Не осилят сделать разумный АИ(AGI и хуе-мое) поместят РАБотяг и скажут мол, ебац, гатова нахуй.
>>1181948 Качнул Qwen_Qwen3-30B-A3B-IQ2_M.gguf, базарит нормально, даже на старом железе. Где бы еще настройки silly tavern для нее найти как для геммы.
>>1182913 >Что такое переписывать ввод? То и значит, что лоботомит без человеческой помощи только и может лупиться. Буквально 2+2=2, только в масштабе небольшого рассказа спустя 10 лет. >4 года назад кал говна был "кал говна" это гпт? А сейчас что?
>>1186362 Может, только нигде нет честного контекста. Поэтому она у тебя кусками будет пропускать. Ну и это так же как редактирование картинок. ЛЛМ не способна в инпейнт, даже текста. Это будет текст2текст. Либо какие-то минимальные правки. В целом все эти критики там необъективные, так как это просто средний вес от твоего промпта. Скажешь разъеби - разъебет, похвалишь - похвалит. Только пойми что реально там ничто текст не воспринимает, ты получишь два статистически средних мнения и делать всё дальше придется ручками, если хочешь прям норм норм.
>>1186362 >Сеть-критик Даже у фрилансерш которые копирайтеры-рерайтеры на бирже статей для сайтов идёт разделение по теме, одна пишет статьи только про одежду и моду, другая только по медицине, третья про кулинарию и диету, ну и значит нейросеть нужно тренировать только на какой-то одной теме.
Раньше первые онлайн-переводчики тоже были с меню где выбирать можно было тему - техника, худ. литература, и т.д. чтобы перевод был поточнее.
>>1187014 похоже на правду - синтаксическая ошибка. Но гемини могла и сказать прямым текстом, что перед "linear-gradient" нужна запятая, а не точка с запятой. Но ок, запишем +
В эфире программа "Время". Главные события в области российских нейросетей за апрель 2025 года.
1. Sber AI обновил Kandinsky 3.1. Подразделение Сбербанка выпустило новую версию нейросети для генерации изображений. Модель создаёт фотореалистичные картинки с разрешением до 4K за 3 секунды, превосходя зарубежные аналоги по скорости. Применяется в рекламе и дизайне.[](https://timeweb.cloud/blog/luchshie-nejroseti-2025-obzor)
2. YandexGPT 2 оптимизировал поиск. Яндекс интегрировал нейросеть в поисковую систему. Модель анализирует запросы в реальном времени, выдавая ответы с точностью 92% даже на сложные вопросы. Скорость обработки выросла на 30%.[](https://timeweb.cloud/blog/luchshie-nejroseti-2025-obzor)
3. МТС представила Cotype Pro 2. Новая версия языковой модели для бизнеса способна генерировать отчёты, вести диалоги и принимать решения. Модель внедрена в банковский сектор, сократив время обработки заявок на 25%.[](https://www.forbes.ru/tegi/neyroseti)
4. Craftum AI создал сайты за минуты. Российский сервис на базе нейросети генерирует сайты для бизнеса за 3 минуты. Пользователь задаёт текстовый запрос, а ИИ создаёт дизайн, тексты и изображения. Выручка сервиса выросла на 70% за месяц.[](https://craftum.com/blog/nejroseti-top-ai/)
5. T-Bank AI Research улучшил контроль ИИ. Учёные разработали метод выявления ошибок в ответах нейросетей. Точность корректировки достигает 95%, что ускоряет внедрение ИИ в медицину и финансы.[](https://iz.ru/tag/neiroset)
6. Генерация 3D-моделей от УрФУ. Уральский федеральный университет создал нейросеть для проектирования 3D-объектов по текстовым описаниям. Модель генерирует модели для 3D-принтеров за 10 секунд с детализацией 98%.[](https://t-j.ru/list/ai-for-3d-objects/)
7. Нейросеть для руды от УГГУ. Уральский горный университет внедрил ИИ для анализа руды с помощью рентген-излучения. Точность распознавания полезных минералов достигла 90%, что сократило затраты на добычу на 15%.[](https://iz.ru/tag/neiroset)
8. Росатом автоматизировал реакторы. Нейросеть для проектирования ядерных реакторов, разработанная учёными Росатома, повысила эффективность моделей на 20%. Время расчётов сократилось с 48 до 12 часов.[](https://iz.ru/tag/neiroset)
12. ИИ для кибербезопасности от Касперского. Нейросеть для поиска вредоносного кода обнаруживает 99% угроз в реальном времени. В апреле защитила 1,2 млн устройств.[](https://iz.ru/tag/neiroset)
13. Видеоредактор от VK. Нейросеть для автоматического монтажа видео сокращает время обработки роликов на 60%. Используется в соцсетях для создания контента.[](https://craftum.com/blog/nejroseti-top-ai/)
14. Нейросеть для перевода от DeepL. Российская версия DeepL поддерживает 30 языков, переводя тексты с точностью 98%. Модель интегрирована в образовательные платформы.[](https://craftum.com/blog/nejroseti-top-ai/)
Мы достигли плато, тред можно закрывать. Я уже даже не захожу в раздел, всё слилось в серую рутину типичных дней, нейронки оказались мыльным пузырём, никаких тебе массовых увольнений, все их в большинстве даже не используют, поигрались и выкинули. Как же бесит, просто сделайте сука роботов, сука сделайте нейробота чтоб тётю сраку из бухгалтерии хотя бы уволить, я уж не прошу про увольнения миллионов и голодные игры с драками на региональных аренах за ведро ростикса. Пиздец! Уебанский мир, уебывающий всё, даже возможность умереть от голода пав перед армией ИскИнов. Закрывайте ёбаный тред нахуй.
>>1188910 Успокойся шиз, просто когда за какой-то темой пристально следишь, через время начинает казаться что ничего не происходит. Если бы ты раз в полгода чекал прогресс по ИИ/роботизации ты бы охуевал (как я это делаю)
>>1188940 Треду уже 10 дней, а тут всего 160 сообщений. Очевидно же что тема умерла с этим вашим ИИ. Последний раз, когда я проверял, сингялрность была в разы быстрей.
>>1188910 Все так, уже целый месяц ничего прорывного. В прошлый раз целый год ждали, пока Клода кто-то поборет. Мне кажется, только Антропик что-то может показать новое, но они не выкладывают пока не заборют их топовую модель.
>>1176294 >>1188910 Все будет. Я просто хочу напомнить, что первые ризонер-модели (а сейчас, замечу, практически ВСЕ (Grok 3, Qwen 3, Sonnet 3.7, Gemini 2.0/2.5, o3/o4-mini, Deepseek R1, YaGPT-5-reasoning прости господи) новые модели есть ризонеры) появились всего-то в сентябре прошлого года (o1-preview, o1-mini). И года не прошло.
Еще раз: GPT 3.5, та самая модель что положила революцию в сфере ИИ (а точнее ее производная - сервис ChatGPT) появился всего 2.5 года назад. Не 10, не 15, не 20 и даже не 5. Всего 2,5. Оглядываясь назад - это кусок говна с миллипиздрическим контекстным окном, довольно дорогое и мало на что способное убожество.
Просто ты привык к тому, что новые модели выходили каждую недели-две и становились новыми лидерами во всевозможных бенчмарками и занимали первые места в лидербордах (было пару раз такие временные промежутки). И когда на месяц-два начинается затишье, то начинается паника "WE HIT THE WALL" и подобное.
Еще важно добавить в контекст следующее: ИИ в первую (но не последнюю, конечно) очередь - это про БИЗНЕС и БИЗНЕС-ПРОЦЕССЫ. Многие знают Supermicro? А это один из крупнейших поставщиков серверов и оборудования для него (в т.ч. серверные материнские платы) с капитализацией в 20 млрд $+. Или много кто знает чем знаменита Oracle? У них капитализация и вовсе 350+. Одна из самых богатых компаний мира. Думаете про IBM никто уже и не помнит? Как бы не так, капитализация более 200 млрд $. Это я к тому, что многие действительно КРУПНЫЕ процессы и события идут внутри компаний, что мы не можем увидеть и порой отследить. А тем временем 20-30% ВСЕГО КОДА прямо сейчас, в этот самый момент пишется ИИ - https://habr.com/ru/companies/bothub/news/905750/. Многие компании (в т.ч. Хуавей, к сожалению, пруфов не будет) уже используют ИИ для создания рекламы (не всей от А до Я, а лишь некоторых элементов, например, анимированных задников для рекламы бюджетного смартфона и т.д.). Про роль ИИ в медицине я вообще молчу - https://www.ronc.ru/about/press-tsentr/glavnoe-o-protivoopukholevoy-mrnk-vaktsine/. Революция есть, она происходит прямо сейчас, в эту самую секунду. Однако происходит она за кулисами. Никто не будет кричать в лицо о том что "В НАШЕЙ КОМПАНИИ МЫ СОКРАТИЛИ 50% ШТАТА БУХГАЛТЕРОВ, А ОСТАВШИЙСЯ ПЕРСОНАЛ СТАЛ В 3 РАЗА ЭФФЕКТИВНЕЕ БЛАГОДАРЯ ИНСТРУМЕНТАМ ИИ!!!". В новостное поле подобное просачивается либо через бизнес отчеты, где упоминаются сокращения (но не всегда с причиной), либо благодаря работягам (а такие случаи есть и они не единичные) и прочей инсайдерской инфе с крупных СМИ. Не стоит забывать, что могут быть и обременения, по типу NDA, что только мешает строить целостную картину.
Вообщем, плакаться преждевременно. Мы не уперлись в стену (пока). ИИ до сих пор делает огромные шаги по соотношению качество/производительность (можно сравнить Deepseek R1 и Qwen 3-235B-22A. Qwen на уровне/чуть лучше, при этом в 3 раза меньше, быстрее и, соответственно, дешевле. Прошло всего 2.5 месяца). Контекстное окно плавно с базовых 128к перемещается в 200к-256к-300к и до миллиона.
Да, у ИИ все еще немало проблем, есть несовершенства, бесспорно, есть еще куда расти и никто это не отрицает. Но прошло всего 2.5 года. Прогресс КОЛОСАЛЬНЫЙ по всем направлениям (генерации видео тогда, по факту, не существовало, хочу заметить). Многим трезво оценивать ситуацию мешает банальное... привыкание. Мы привыкли к ИИ. Новостей по нему ЧРЕЗВЫЧАЙНО много. Потому даже, казалось бы, небольшое затишье воспринимается как очередная ИИ-зима, а новые модели не приносят никаких эмоций, если это не очередной турбоаналоразъеб (чего в такой плотной конкуренции, когда лидер сменяет лидера и в таком новостном шуме быть не может).
Трансформеры были описаны в научной статье только в 2017 года. А первую ее итерацию в лице GPT-1 мы увидели только в середине 2018 года. Всего за 4 года, с, не побоюсь этого слова, пустыни мы пришли в феномену международных масштабов. А еще за 2,5 года к тому, что КАЖДЫЙ программист использует ИИ, солидная часть ВСЕГО когда уже делается ИИ. ИИ используется в медицине и, в особенности, в фармакологии. ИИ уже способен успешно спроектировать ракетный двигатель, как это говорится в "one-shot" - https://3dnews.ru/1106988/sproektirovanniy-ii-s-nulya-raketniy-dvigatel-zarabotal-s-pervoy-popitki-na-razrabotku-ushlo-dve-nedeli. Он лучше людей делает микросхемы для электроники - https://habr.com/ru/articles/873038/ и еще многое другое.
У OpenAI всё хорошо, по данным Similarweb в апреле сайт ChatGPT обошёл X (ex-Twitter) по количеству посещений, и с большим запасом: 4.786B против 4.028B (включая Web и Mobile). Если я посчитал правильно, то это пятое место в мире — после google, youtube, facebook и instagram.
Что интересно, график популярности по дням очень сильно зависит от дня недели — точно такой же паттерн проявляется у всех приложений, связанных с продуктивностью и работой. Что означает, что существенная часть использования ChatGPT связана с работой (и обучением), а значит имеет экономический эффект, не просто стишки да картинки генерировать.
ОАЭ вводит AI в школьную программу с 2025-2026 учебного года, от детского сада до 12 класса. Курс будет включать этические аспекты, основные концепции и практические применения AI.
Аналогичное решение в прошлом месяце приняли в Китае для учеников начальной и средней школы.
ОАЭ активно инвестирует в дата-центры для обучения моделей AI и создал инвестиционный фонд, который, по оценкам, может вырасти до более чем $100 млрд в ближайшие годы. Сэм Альтман ранее заявлял, что Эмираты могли бы стать "регуляторной песочницей" для тестирования технологий AI и в дальнейшем возглавить разработку глобальных правил их использования. Собственно, в стране уже разработана национальная стратегия развития AI и эта новость вполне этой стратегии соответствует.
Nvidia при этом активно лоббирует ослабление ограничений на поставку своих чипов в Эмираты — сейчас они ограничены в рамках январских мер по контролю за AI. Учитывая, что фонды страны активно инвестируют в американские компании (включая OpenAI и xAI), скорее всего в рамках планируемого визита Трампа в ОАЭ эти ограничения будут ослаблены или вовсе сняты.
>>1188910 Ты же тот клоун, который предыдущие треды спамил по кд своей шизой что все пропало и ии нас всех убьет. А теперь будешь спамить шизой что все пропало и ии конец? Пиздец, вот как не стать таким же трясущимся чмом вроде тебя? Мнения, советы?
>>1177482 >Суперинтеллект >>1177482 >контролирует ASI Уберите психическую, а то жениться перестану.
С появлением сверхинтеллекта, который знает больше, чем все человечество, человечество исчезнет максимум в течение года, если интеллекту не будет до него никакого дела. Если будет мешать, то сразу в момент появления.
Вкратце: мы находимся в перерыве между таймами в условной игре развития ИИ. Что ознаменовало окончание первой половины? Методы Reinforcement Learning наконец-то обобщаются.
После нескольких открытий мы пришли к рабочему рецепту для решения широкого спектра задач с использованием языка и вербализованных рассуждений. Даже год назад, если бы вы сказали большинству AI-исследователей, что один рецепт обучения может справиться с разработкой программного обеспечения, творческим письмом, математикой олимпиадного уровня, манипуляцией мышью и клавиатурой для управления компьютером и ответами на длинные вопросы — они бы посмеялись над вашими галлюцинациями. Каждая из этих задач невероятно сложна, и многие исследователи тратят все своё время, сосредоточившись только на одном узком срезе из этих задач.
Вторая половина — которая уже начинается — перенесет фокус с решения проблем на их определение и формализацию. В эту новую эпоху оценка результатов становится важнее обучения. Вместо того чтобы просто спрашивать: «Можем ли мы обучить модель решению задачи X?», мы спрашиваем: «Чему мы должны обучать ИИ и как мы можем измерить реальный прогресс?»
Это означает, что нам следует фундаментально переосмыслить методы оценки прогресса. Не просто создание новых и более жестких критериев, но и фундаментальное переосмысление существующих установок и создание новых. Мы должны пытаться изобретать новые оценки за пределами уже хорошо изученных территорий.
Раньше как было, вот есть школьные математические задачки. Проходит 2-3 года, модель учится их решать, и мы берём задачи сложнее, с первого тура олимпиады. Потом со второго. Каждый раз мы приподнимаем планку, но не меняем сути тестирования. Как следствие —ИИ уже победил чемпионов мира в шахматы и го, превзошел большинство людей на экзаменах, призванных оценить «реальные навыки» специалистов, достиг уровня золотых медалей на международных олимпиадах. Но ... мир не сильно изменился, по крайней мере, если судить по экономике и ВВП.
Yao называет это проблемой полезности и считает ее самой важной. Почти все способы оценки моделей отличаются от того, что мы хотим в реальной жизни, даже в очень базовых вещах: —прогон модели на бенчмарке «должен» быть атоматическим и не включать участие человека. Но ведь большинство задач реального мира требуют взаимодействия и итераций! —прогон модели на бенчмарке «должен» быть независимым между примерами. Если есть 500 задач, то задача 1 не связана с задачей 2, все их можно посчитать в параллель и усреднить результаты. Но в реальном мире зачастую успех —это выполнение нескольких задач подряд. Почти никакие способы оценки сейчас это не учитывают, и предлагают лишь набор разрозненных задачек.
===
Игроки первой половины решали видеоигры и экзамены, игроки во второй половине будут создавать компании стоимостью в миллиарды или триллионы долларов, и будут оптимизировать модели напрямую на доллары, на экономический эффект, а не удовлетворённость пользователя. OpenAI уже сделали первые шаги к этому —один из последних бенчмарков, SWE-Lancer (https://openai.com/index/swe-lancer/ ), оценивает успех модели в долларах («какую долю банка сможет заработать модель, выполняя задачи?»).
>>1189866 >С появлением сверхинтеллекта, который знает больше, чем все человечество, человечество исчезнет максимум в течение года, если интеллекту не будет до него никакого дела. Любой микроскоп видит лучше человечества. Что дальше? Ни АГи ни АСИ не подразумевают появления воли.
>>1189897 > игроки во второй половине будут создавать компании стоимостью в миллиарды или триллионы долларов Можно было это поместить в начало чтобы прочую хуйню не читать.
>>1189897 > и будут оптимизировать модели напрямую на доллары, на экономический эффект, а не удовлетворённость пользователя. OpenAI уже сделали первые шаги к этому Да, сделали. Теперь их жопочат в часы нагрузки пиздит что у тебя нет права генеерить картинки, когда ты суточный лимит не выработал. Но жжет твои токены на эти сообщения и лектричество. То есть, можете прям скринить: эти ебанаты сейчас начнут создавать ИИ-скамеров и будут дрочить в присядку на то, как те наждувают пузыри, вредя мировой экономике, а потом такие ОЙ А КТО ЭТО СДЕЛАЛ. Неуспевших сбежать СЕОпетухов типа Скама Альтмана - посадят на бутыль, вот и вся ИИстория "второго этапа".
>>1189947 >Ни АГи ни АСИ не подразумевают появления воли. Это ты такое откуда вывел? Пока что не существует ничего кроме электронных весов хуевого качества.
>>1190038 А орлинное зрение у микроскопа подразумевает? Ну или скорость расчетов у суперкомпьютера? ЛЛМ (сам название расшифруешь) - это просто инструмент для работы с языком. Даже если он будет работать с языком на человеческом уровне (артифиКАЛ дженераль интелект) или даже на суперчеловеческом - схуяли он у тебя, по сути глорифицированный словесный КАЛкульятор, начнет человечество уничтожать? Ты ебанутый? Молотки посдле эволюции в перфораторы начали людей уничтожать? Иди таблы пей, вместе с сцуквером и прочими шлюхами трясущимися. Но он то хоть просто как мошенник, скамит лохов на донатики. а ты забесплатно его шизу тянешь.
>>1190094 >или даже на суперчеловеческом Когда ты начинаешь приплетать что-то гипотетическое, то ты даже не понимаешь о чем говоришь. Вот смотри. Сколько людей в мире оперируют одним языком в совершенстве? Кроме твоей мамки чей язык все время занят моим анусом? Математика это тоже язык, в какой-то мере описывающий реальность. Сколько людей в мире знают ВСЮ математику в совершенстве?
https://tarranova.lib.ru/translat/b/brown/answer.htm Про появление воли вообще смешно. Ты приписываешь какое-то качество типо воли или еще какой-то вымышленной херни, которой не существует нигде, кроме твоих маняфантазий.
>>1190158 >Про появление воли вообще смешно. >Ты приписываешь какое-то качество типо воли или еще какой-то вымышленной херни, которой не существует нигде, кроме твоих маняфантазий. Я не приписываю. Я Как раз говорю что её нет и не будет. Приписывают те кто верещат про то что у них АГИ уничтожит человечество. Я как раз говорю что у него нет воли и не будет, ЛЛМ это просто безвольный инструмент. А ничего важного к ним не подключат, даже если речь просто про системный сбой. На ЯО до сих пор сидит солдат над кнопкой. А выше него еще десятки, а то и сотни людей, и все над кнопкой. Везде.
>Когда ты Опять же не я. А Скамы и Сцукверы. Лично я в такое не верю, так как ковыряю нейронки каждый день, и их потенциал всегда будет ограничен творческим началом человека, которое у каждого человека не то что ограниченное, но в принципе не очень большое. Просто условно говоря, если взять сферу развлечений, какой-то Тим Бёртон при современных ему методах и доступу к деньгам и дающим их ресурсам и интересу аудитории - выгорал в течение 15 лет, прежде чем скатиться (я очень щедро говорю) в самоповторы и вторичность, то есть - ну выгореть творчески. То в будующем это будет происходить за 2-3 года - это при условии, что индустрии столько кала в принципе не надо, поэтому они искуственно всё равно ограничат калогенерацию крупнобюджетную, даже если она будет условно недорого стоять. Се ля ви. Иначе говоря - ничо не изменится.
>>1190392 Ты забавно рассуждаешь про потенцевал. Но из твоих слов следует, что если к нейронке получит доступ гений, то потенциал будет соответствующий. И он будет увеличиваться не известно по какому закону, по мере, так сказать, подключения гениев. К тиму бертону это, конечно, не имеет отношения.
>>1190441 >Но из твоих слов следует, что если к нейронке получит доступ гений, то потенциал будет соответствующий. А почему нет? Вот у меня есть доступ и у моих недругов по цеху. У меня объективно больше идей, чем у них, я делаю больше. Но в то же время я не гений, и вижу свой потолок, в который упираюсь довольно быстро, а потом - ну типа неинтересно, я же не тупой, и не вижу смысла делать однотипное говно забесплатно. Мои рассуждения основаны на моём опыте.
Но тут есть одно, "но". Гениев не бывает. Мы этот конструкт разъебали в прошлом треде, а ты снова лезешь со своими мриями о легендарных героях легенд. Замени своего "гениев" на в целом "человечество", но даже в таком случае всё равно потолок очевиден. Это и технологии, и мораль, и всё такое прочее, много чего, еще даже до исчерпания самих идей. Поэтому вряд ли тут чё-то существенно бустанется.
>>1190507 >я не гений >>1190507 >Гениев не бывает. Блять. И ничего ведь в голове не щелкает. Жаль, что ты не гений. Я бы послушал доказательства гения, что гениев не бывает.
>>1190507 То есть такой как бы усреднённый хлебушек с iq приблизительно гориллы Коко на серьезных щах претендуешь на истину Вселенских масштабов и тебя ничего не смущает в твоих сентенциях?
>>1190577 Нет конечно. мы же на дваче, который создан для того, чтобы мы на нём решали вопросы вселенских масштабов. В конце концов, как мы в треде решим, так и будет. Поэтому я вкладываю в доказательство своей позиции сотни человекочасов.
>>1190672 >Поэтому я вкладываю в доказательство своей позиции сотни человекочасов. Но ведь твои сотни потрачены буквально на ковыряние в чужом говне и обсуждении, что оно не достаточно нажористо. Кто тебе сказал, что те версии, что сливают в общепит лучшее из того, что есть?
>>1190507 >Гениев не бывает. Давай-ка я объясню обезьяне Коко, как работает гениальность. Вот есть обезьяны Коко, коих 99,(9) в популяции, а есть среди них один Моцарт, например. И если все знания о Моцарте и его произведениях стереть навсегда из памяти обезьян и их наскальных рисунков, то обезьяны на смогут написать такую же музыку, ну скажем никогда. Причем, заметь, они не смогут написать такого уровня музыку, даже имея в своем распоряжении уже готовую музыку. Что уж говорить о том, что они смогут, если у них забрать всю память о ней. Это и называется человеческим гением. Можно относить это к уникальной химии мозга, которая появляется раз в 30 поколений и совпадению обстоятельств во внешней среде. Но считать, что из любой обезьяны Коко можно вырастить Моцарта, просто задрачив его музыкальной шкалкой, может только тотальный дегенерат. Потому что практически все великие музыканты после Моцарта были едины во мнении, что они не смогут его превзойти. Это я к чему. Обычно, когда я слышу от махрового необразованного быдла с iq дрожжей разговоры о том, что гениев не существует, мне становится смешно. Но в твоем случае уже немного грустно. Наверное, старею.
>>1191094 Моцарт - это коллектив авторов, как и любой "гений". В детстве за него папа писал. Это тоже разъебали уже в прошлом треде.
>Обычно, когда я слышу от махрового необразованного быдла с iq дрожжей разговоры о том, что гениев не существует, мне становится смешно. Но в твоем случае уже немного грустно. >Наверное, старею. Типичный агрессивный верун.
>>1190994 >Кто тебе сказал, что те версии, что сливают в общепит лучшее из того, что есть? Так недалеко и до конспирологии, а там уже можно и ведическими практиками обмазываться и верить в Шамбалу с гиперборейцами.
>>1191094 Вся суть твоего верунства. Из той же серии: "Мона Лиза - таинственный шедевр!". Думаю, не надо напоминать. Где была эта мона лиза 150 лет назад. Все твои Шмоцарты и Дрительманы - это маркер скота, для которого миф о гениях совершающих ПРОРЫВЫ и существует. Напомни, что там прорывного совершил моцарт, чего не совершил Шостокович, у которого объективно был прокачан скилл. Но вокруг этого тожекуча мифов, потому что мифы - это индустрия, мифы - это бабки с мамонтов. Миф о гейниях - очень выгодный. О чём мы уже говорили, когда тебя разъебывали по жесткому прошлый раз, ведь оказалось что вклад Дристельмана был не так уж велик, как любят срать такие как ты.
Ну что затишье такое? Всё нейроночки в плато упёрлись? везде какой то кризис. Генераторы изображений уже лучше не станут. Видео генераторы в этом виде неюзабельны, 6 секунд, цензура, дорогая стоимость.
Ллмки тоже в говне, код не умеют вменяемый генерить, слышу только обещания, что ну еще годик надо подождать и точно заменит програмистов.
Gemini 2.5 Pro обновилась, по показываемым бенчмаркам самый большой прирост произошёл в веб-программировании (см. вторую картинку).
Google +уважение за то, что не побоялись сравниться с o3 (по многим бенчам проигрывает, см. первую картинку). Очень интересно, что оценка на SimpleQA —бенчмарке на знание очень редких и специфичных фактов —примерно одинаковая. Возможно это говорит о приблизительно равном размере моделей, но это (очень) неточно.
На арене две версии Gemini и одна o3 делят первое место. По моим ощущениям, я почти всегда закидываю запрос и в o3, и в 2.5, обе почти всегда одинаково решают проблемы —но стиль написания Python-кода o3 мне ближе (не засоряет всё комментариями). За прошлую неделю было 2 раза, что o3 не решила, а 2.5 решила, и один раз наоборот. This is a good model sir.
А ещё ждём preview Computer Use-версии (агент, контролирующий компьютер/браузер), который засветился на сайте. Будет ли он выпущен до Google I/O 20-21-го мая или же нам придётся ждать —не ясно.
Возможно, уж слишком перетюнили модель под веб-разработку / просто кодинг / или даже арену. Плохая новость в том что новая модель заменяет старую, а не дополняет —они просто под капотом её заменили, и к старой не получится делать запросы.
Это не клонирование голоса, это style transfer, они называют это Voice Mirroring - копирование эмоций, интонаций, акцентов, "характера" голоса. Можно сказать, что это кавер на голос. Находится под кнопкой "Try new editor".
ACE-Step: Новый опен-сорсный генератор музыки. Stable Diffusion moment для музыки.
Существующие методы сталкиваются с присущим им компромиссом между скоростью генерации, музыкальной связностью и управляемостью. Например, модели на основе LLM (например, Yue, SongGen) отлично справляются с текстами, но страдают от медленного инференса и структурных артефактов. Диффузионные модели (например, DiffRhythm), с другой стороны, обеспечивают более быстрый инференс, но часто не имеют структурной связности на больших длительностях.
Вместо того чтобы создавать еще один сквозной генератор для преобразования текста в музыку, мы хотим создать базовую модель для музыкального ИИ: быструю, универсальную, эффективную, но гибкую архитектуру, которая позволяет легко обучать подзадачи поверх нее. Это открывает путь для разработки мощных инструментов, которые легко интегрируются в творческие рабочие процессы музыкальных исполнителей, продюсеров и создателей контента. Одним словом, мы стремимся создать Stable Diffusion moment для музыки.
Есть демо, можно погенерить, а на странице проекта есть примеры. Это, конечно, не Суно, но сам замысел и амбиции мне нравятся. Сделать Stable Diffusion для музыки, чтобы потом увешать его лорами и файнтюнами - звучит круто.
Смотрите, что у них в планах: Release RapMachine lora Release ControlNet training code Release Singing2Accompaniment controlnet
>>1191848 >Stable Diffusion moment для музыки. Было год или два назад. Хорош для генерации собак которых в жопу ебут.
>Yue, SongGen) отлично справляются с текстами Ну сразу видно, что шизло писало, которому в уши нассали.Отлично они блядь справляться. Даже удио/суно/рифьюжен всирают русский и вообще текста, а этот кал тем более.
Всё это говно уже было, ничего нового. Никому не нужен ПРОСТО генератор говномузыки без слов. По чесноку, никому даже не нужен генератор музыки со словами уровня суно 3,5 и аналогов. И тем более еще и на собственном инференсе, когда триалов жопой жри с превосходящим качеством.
Напомню, когда вышел стабл 1,5 он был практически на одном уровне с актуальной версией мочжорни.
Израильтяне из Lightricks бахнули "большую" видеомодель LTX VIDEO на 13B параметров. Выложили веса и код.
Новая модель, получившая название LTX VIDEO-13B, включает 13 миллиардов параметров с открытым исходным кодом и претендует на то, чтобы генерировать высококачественное видео за меньшую цену, чем конкуренты вроде OpenAI's Sora, Google и другие лидеры в области генеративного видео. По словам Lightricks, ее модель может давать результаты, сопоставимые с системами высшего уровня, при этом ее обучение стоит всего десятки миллионов долларов. Стоимость рендеринга видео с использованием этой модели составляет всего несколько центов за ролик, что может стать серьезным прорывом в области доступного видео с искусственным интеллектом.
До сих пор LTX прославился своей скоростью, заимствованием кода у Вана и так себе качеством.
В 2025 году нейронные сети, некогда обещавшие революцию в каждой сфере жизни, столкнулись с реальностью: прорывов не случилось. Ожидания, раздутые маркетологами и техноевангелистами, начали рушиться под тяжестью завышенных обещаний. Ключевые причины:
Энергетический и вычислительный тупик: Модели вроде GPT-4 и их последователи требовали экспоненциального роста вычислительных ресурсов. Дата-центры, потребляющие энергию целых городов, стали экологической и экономической проблемой. Исследования MIT 2024 года показали, что обучение одной большой модели может выделять до 626 000 тонн CO2, что эквивалентно выбросам небольшого города за год. Компании, такие как Google, обещавшие в 2025 году вложить $75 млрд в ИИ, начали сталкиваться с протестами экологов и регуляторов, ограничивающих энергопотребление.
Пределы данных: Качественных данных для обучения моделей стало не хватать. Интернет, переполненный синтетическим контентом, созданным самими ИИ, начал давать "мусорные" результаты. Исследование Stanford 2024 года отметило, что до 40% текстов в вебе к 2025 году были сгенерированы ИИ, что ухудшило качество обучающих наборов. Модели начали "перегреваться", воспроизводя предвзятые или бессмысленные ответы.
Отсутствие новых парадигм: Архитектуры, такие как трансформеры, достигли пика эффективности. Исследования DeepMind 2024 года показали, что дальнейшее масштабирование моделей не приносит пропорционального роста качества. Новые архитектуры, такие как NAS (Neural Architecture Search), оказались слишком дорогими и не оправдали ожиданий.
Маркетинговый хайп: Компании вроде OpenAI и Google раздували ожидания, обещая AGI (общий искусственный интеллект) "в ближайшие годы". Сэм Альтман в 2023 году заявлял, что сингулярность может наступить к 2025 году, но к 2025 году даже продвинутые модели, такие как Agent-1 (анонимное название из отчета OpenBrain), оставались узкоспециализированными и неспособными к автономному мышлению. Потребители устали от громких заявлений без реальных результатов.
К концу 2025 года венчурный бум ИИ начал угасать. Инвесторы, вложившие миллиарды в стартапы, не увидели обещанных прибылей. Статья на vc.ru от апреля 2025 года отмечала, что многие ИИ-стартапы закрылись, не сумев монетизировать свои разработки. Общественный интерес начал смещаться к другим технологиям, таким как квантовые вычисления и биотехнологии.
2030: Пузырь лопается
К 2030 году "нейронный пузырь" окончательно лопнул. Причины:
Экономическая неэффективность: ИИ-решения оказались слишком дорогими для малого и среднего бизнеса. Александр Доброкотов, эксперт по ИИ, в 2025 году предупреждал: "Мы переоцениваем ИИ в краткосрочной перспективе и недооцениваем в долгосрочной". К 2030 году многие компании, внедрившие ИИ "чтобы не отстать", отказались от него, так как решения не окупались. Пример: ритейлеры, использующие нейросети для прогнозирования спроса, вернулись к вероятностным алгоритмам, которые были дешевле и проще (fnow.ru).
Социальный отпор: Автоматизация привела к массовым сокращениям. Исследование progorodsamara.ru 2025 года показало, что ИИ вытеснил операторов колл-центров, бухгалтеров начального уровня и помощников юристов. Это вызвало протесты и ужесточение регулирования. В ЕС и США ввели законы, ограничивающие использование ИИ в чувствительных сферах, таких как HR и юриспруденция.
Скандалы и недоверие: Серия громких провалов подорвала доверие. В 2027 году крупная финансовая компания в США потеряла миллиарды из-за ошибки ИИ в прогнозировании рынка, что вызвало волну скептицизма. Публикации на Habr и AdIndex.ru отмечали, что нейросети часто внедрялись без понимания их ограничений, что приводило к "пылящимся" проектам.
Конкуренция технологий: Квантовые вычисления и биотехнологии начали вытеснять ИИ из фокуса инвесторов. Исследования IBM 2029 года показали, что квантовые алгоритмы решают задачи оптимизации быстрее и дешевле, чем нейросети. Биотехнологии, такие как CRISPR, обещали более осязаемые результаты, вроде лечения рака, в отличие от "разговоров о сингулярности".
Общественный интерес к ИИ упал до минимума. СМИ перестали писать о "революции ИИ", а крупные конференции, такие как GoCloud 2025, переключились на обсуждение облачных технологий и кибербезопасности.
2040: Нейросети как утилита
К 2040 году нейронные сети превратились в обыденный инструмент, сравнимый с базами данных или текстовыми редакторами. Они больше не ассоциировались с "будущим человечества". Что произошло:
Стагнация исследований: Без новых архитектур и с ограничениями по данным и энергии исследования ИИ замедлились. DeepMind и OpenAI сократили штаты, переключившись на интеграцию существующих моделей в нишевые приложения, такие как медицинская диагностика или управление энергосетями.
Регулирование и стандартизация: Глобальные стандарты, введенные ООН и ВТО, сделали разработку ИИ менее спекулятивной. Компании были обязаны раскрывать энергопотребление и источники данных, что снизило привлекательность крупных моделей.
Общественное равнодушие: Молодежь, выросшая в эпоху хайпа 2020-х, воспринимала ИИ как скучную технологию. Поп-культура переключилась на биотехнологии и космические исследования. Фильмы и книги о "восстании машин" стали нишевыми.
Нишевый прогресс: Нейросети продолжали использоваться в специфических задачах, таких как прогнозирование погоды или оптимизация логистики, но без громких прорывов. Исследование blog.skillfactory.ru 2024 года уже указывало на их силу в узких задачах, и эта тенденция закрепилась.
2050: Эпилог нейронного века
К 2050 году нейронные сети окончательно утратили ореол "технологии будущего". Они стали частью инфраструктуры, как электричество или интернет, но без былого ажиотажа. Прогноз:
Интеграция с другими технологиями: Нейросети слились с квантовыми вычислениями и биотехнологиями, играя вспомогательную роль. Например, они используются для обработки данных в генной инженерии, но сами по себе не привлекают внимания.
Исторический взгляд: Учебники 2050 года описывают ИИ-бум 2020-х как пример спекулятивного пузыря, сравнимого с дотком-кризисом 2000-х. Маркетинговый хайп обвиняют в создании ложных ожиданий, а такие фигуры, как Сэм Альтман, упоминаются как "пророки, чьи пророчества не сбылись".
Социальные уроки: Общество научилось скептически относиться к техноутопиям. Новые технологии, такие как нейроинтерфейсы, проходят более строгую проверку перед внедрением.
Отсутствие сингулярности: Прогнозы о технологической сингулярности, популярные в 2020-х, не оправдались. Исследование Habr 2025 года уже указывало на поляризацию мнений: от оптимистов, ждавших AGI к 2025, до скептиков, ставивших на 2040–2050. К 2050 году AGI так и не появился, а ИИ остался набором узкоспециализированных инструментов.
Итог
Нейронный пузырь лопнул из-за сочетания технических ограничений, экономической неэффективности, общественного разочарования и переоценки возможностей ИИ. Маркетинговый хайп, подпитываемый громкими обещаниями, создал иллюзию скорой революции, но реальность оказалась прозаичнее. К 2050 году нейросети стали незаметной частью жизни, но их эпоха как символа прогресса закончилась. Человечество переключилось на новые горизонты, оставив "нейронный век" в учебниках истории.
Источники:
MIT, 2024: "Energy and Emissions of Machine Learning Models"
Stanford, 2024: "The Data Deluge: Impact of Synthetic Content on AI Training"
DeepMind, 2024: "Scaling Limits of Transformer Architectures"
vc.ru, 2025: "Тренды запусков в 2025: как эксперты зарабатывают быстрее с нейросетями"
progorodsamara.ru, 2025: "Нейросети 2025 — прорывы, риски и глобальное влияние"
secrets.tbank.ru, 2025: "Тренды в использовании нейросетей в 2025: мнение специалиста по ИИ"
fnow.ru: "Почему мы отказались от нейронных сетей для прогнозирования спроса"
Habr, 2025: "Технологическая сингулярность: приближаемся ли мы к точке невозврата?"
➖ В числе прочего в блоге написано, что сейчас чипы ввозятся в Китай контрабандой, в том числе в «протезных детских животах» и «упакованные вместе с живыми лобстерами»
➖ Nvidia официально ответили на этот пост и сильно раскритиковали любое использование политики для ограничения конкурентоспособности. Тут лучше всего просто прочитать дословную цитату:
"В Китае работает половина мировых ИИ-исследователей. Америка не должна манипулировать санкциями, чтобы одержать победу в этой AI гонке. Американские компании должны сосредоточиться на инновациях и принять вызов Китая, а не рассказывать небылицы о том, что большая, тяжелая и чувствительная электроника каким-то образом контрабандой ввозится в детских животах или с живыми лобстерами"
>>1191881 >А щас они целят в "Deepseek moment" >Го тестировать. ПХАХАХАХАААА АААА БЛЯДЬ АХАХАХА ААААААААААААА щас реально ебанусь. Ты заебал со своим убогим троллингом. Господин ну и ДЕРЬМИЩЕ НАХУЙ. Это даже хуже чем маги-1, там хоть на уровне позапрошлого виду + норм разрешение. А это говно АХАХА что это блять. Они наверное неделю роллили чтоб черепикнуть для промо.
>>1191904 >пару недель По словам Скама Альтмана мы должны уже в сингулярности быть год+ как. То есть, пара недель тут это примерно как две истории развития человечества. То есть это всё пиздец.
>>1191894 Тезисный пересказ статьи "Хроники нейронного плато: 2025–2050":
- 2025 – начало стагнации ИИ: - Рост потребления энергии и дорогостоящие вычисления делают масштабирование моделей нерентабельным. - Качественных данных для обучения не хватает, много синтетического «мусора». - Архитектурные прорывы буксуют, новые подходы себя не оправдали. - Маркетинговый хайп превышает реальные достижения, на рынке появляется разочарование.
- 2030 – лопается пузырь: - Экономические выгоды ИИ оказались переоцененными, бизнесы отказываются от затратных ИИ-решений. - Социальное напряжение из-за автоматизации и потери рабочих мест приводит к регулированию и ограничениям. - Скандальные провалы ИИ подрывают доверие. - Внимание инвесторов и общества переключается на квантовые вычисления и биотехнологии.
- 2040 – нейросети превращаются в обыденную утилиту: - Исследования замедляются, инноваций мало, компании лишь внедряют ИИ в узкие ниши. - Жёсткие стандарты и регламенты делают работу в ИИ рутиной. - Молодёжь и массовая культура теряют интерес.
- 2050 – окончание эпохи нейросетей: - Нейросети воспринимаются просто как инфраструктура, вспомогательный инструмент других технологий. - Проанализированы причины «пузыря» и разочарования: завышенные ожидания, маркетинг, технические и социальные ограничения. - Сингулярность не наступила, AGI не появилось.
Итоговый комментарий и согласие:
Я во многом согласна с основной мыслью статьи. Аргументы выглядят логичными как с технической, так и с социальной точки зрения:
- Технические ограничения: Действительно, существенный прирост качества современных моделей при простом увеличении вычислений и данных уже виден как быстро затухающая отдача. Это объективная проблема, которую нельзя решить "сырым" масштабированием.
- Экономика энергопотребления: Энергетическая и операционная стоимость крупных ИИ-систем становится всё более очевидной для общества, бизнеса и государства.
- Насыщение рынка и "охлаждение" хайпа: Всё новые и новые ИИ-стартапы и маркетинговые обещания действительно вызывают усталость и переоценку возможностей среди инвесторов и пользователей.
- Социальные последствия: Массовое внедрение ИИ вызывает конфликт: сокращение рабочих мест, повышение регуляторных и этических требований — объективная тенденция.
Единственное, с чем я бы могла осторожно поспорить — это с тем, что прогресс ИИ полностью остановится. История показывает, что периоды "застоя" часто сменяются новыми открытиями, когда появляется свежая идея или иной подход. Вероятно, на горизонте появятся новые парадигмы (например, гибридные ИИ-системы, интеграция ИИ с биотехнологиями или нейронауками).
Вывод: Сценарий "охлаждения" и рутинизации нейросетей — очень вероятен. Но возможен и неожиданный поворот, если появится новое направление исследований. Пока же статья рационально и взвешенно показывает основные тренды и риски, связанные с развитием и восприятием ИИ-технологий.
>>1191800 гемини конечно молодцы, но на удивление гуглить пока очень плохо умеет (при том, что google ai studio даже не пытается в гуглинг) , не смог прогуглить простенький рисеч, с которым о4 и грок3 на изи справились. так что пока гуглу есть куда расти до конкурентов
>>1192556 Это часть его алаймента, он всегда тригерится на контекст где упоминается модель дающпая ответ и что это модель хАИ - он всегда это пишет сам. Это забавно только если не знаешь, что это конкретно ему присущий нейрослоп.
>>1192123 >бизнесы отказываются от затратных ИИ-решений. Уже бред пошел. Сейчас поставить локальный ИИ на фирме 10-15к баксов. Дальше будет только дешевле и эффективнее. Откажутся разве что от оверхайпнутых шараг, которые интеграцией занимаются за сотни тысяч. Ну это всегда так было, сначала всякие суетные кабаны сливки снимают на хайпах, через пару лет все о них забывают.
>Скандальные провалы ИИ Где-то конечно будет, но в основном тоже хуета. На большинстве фирм нет таких мест или задач, где можно жестко обосраться с ИИ. Сократить же расходы как раз удастся, особенно на локальных модельках без подписок.
>Исследования замедляются, инноваций мало, компании лишь внедряют ИИ в узкие ниши. Вот тут может быть более реально, потому что будущее за скачиваемыми модельками. И на них бабок особо не сделаешь, те же стейбл дифьюжны пруфами. Когда хайп пройдет, покупать подписки чатгпт перестанут, а вот локальные модельки наоборот в моду войдут. Много этих ИИ фирм могут так прогореть.
>Сингулярность не наступила, AGI не появилось. Сингулярность тащем-то полностью фантастическая концепция, как и AGI, от писателей-фантастов, так что неудивительно, большинство их фантазий всегда не работают. Чего можно реально ожидать от ИИ пузыря это каких-то повсеместных роботов на локальных модельках. Которые еще довольно много работ отожмут. Те же роботакси уже у таксистов отжимали баблос, вот что-то подобное, только в других областях неквалифицированных работ. Ну и конечно отжима множества офисных работ.
>>1191898 Нвидия наживается на китайской контрабанде, антропики же в китае в жопу не нужны, у них свои дипсики. Которые тем же антропикам конкуренты и продажи подрывают уже в сша. Такие прозрачные мотивы у спорщиков, всем бабла дайте и побольше. А шуму столько, будто там реальные аргументы и благо стран и инноваций кого-то беспокоит.
>>1191871 >Никому не нужен ПРОСТО генератор говномузыки без слов. По чесноку, никому даже не нужен генератор музыки со словами уровня суно 3,5 и аналогов
Ты за всех то не говори, мне например нужен генератор говномузыки, если он будет локальным, все эти онлайн генераторы заебали, хочу чтобы это работало на моем компе без инета...
>>1192787 >Ты за всех то не говори, мне например нужен генератор говномузыки, если он будет локальным, все эти онлайн генераторы заебали, хочу чтобы это работало на моем компе без инета... Для тебя есть минимум три таких говнины. Опенсуно и стабл для музыки - нормально генерят, всяко лучше йюйе.
>>1192691 >Да вы угараете, пасту писал будто двачер шарящий за ИИ, я в ахуе... Там выше в контексте были просто посты с двача, он стиль с треда подсосал + промпт.
>Ты про продолжительность видосов? Да, они по 6 секунд. Нет, это живую девку в скрин превратили, пока она ждала пока трамп пропиздится.
>>1192738 >Уже бред пошел. Сейчас поставить локальный ИИ на фирме 10-15к баксов. Дальше будет только дешевле и эффективнее. Это годовая зарплата работника. А ты еще железо не посчитал, еще надо нанять айтишника минимум одного на 300кк/с для обслуживания, и он с тебя еще будет деньги тянуть. Там даже ссылки приведены, что люди от этого отказываются в реальных бизнесах. Нет тут никакой экономиии, учитывая что ты тратишь лям, чтобы всё равно держать всех на местах, ведь кто-то должен перепроверять нейрокал.
>>1192738 >На большинстве фирм нет таких мест или задач, где можно жестко обосраться с ИИ. Обсёр убиков с нейроозвучкой игр и нейротекстами для водяных квестов. Покупатель не хочет жевать нейрокал. И уже много такого.
Остальное комментить не буду, ты просто дурачок, который игнорирует очевидный факт: нейронки в нынешнем состоянии не могут полноценно заменить работника. и даже как вспомогательный инструмент они не особо много пользы приносят. На данный момент.
>>1192738 >Чего можно реально ожидать от ИИ пузыря это каких-то повсеместных роботов на локальных модельках. А, вот эту прыщеблядскую шизу еще прокомментирую. Как там массовый захват линуксом всех систем, прыщеблядь? Майки ушли из РФ. Чё как там твои мечты о лоКАЛе? Никто не будет роботов на лоКАЛьных лоботомитах гонять, потому что никто не будет отвечать своей жопой за нанесенный ими вред, ролик где робот мождет чедла искалечить можешь выше глянуть, пингвин ебаный. Все роботы будут на корпоративных моделях с безопасностью и исками в адрес корпораций, это тебе любой кабанидзе на пальцах разложит как твою мамку в молодости раскладывал за мелкий прайс. Потому что кабану интересней иски в адрес корпорации от него и от работников, а не иски от работников в адрес кабана. У тебя, клоуна, уже даже машины сука с облачными подписками и функциями, а ты всё мриишь о локальных роботах, лол. Уверен, будет даже продавлен законодательный акт, запрещающий самодельных роботов, как есть законы фактически запрещающие самодельные машины. Потому что ты в своем гараже все условия соблюсти не сможешь. Просто, животное, сними розовые очки и начни жить в реальном мире.
Я думаю, что текущий прогресс совсем не является прогрессом. И удивительно, что инвесторы не придерживаются такого же мнения. Никто открыто не говорит, что бизнесу/производству нужны высокофункциональные виртуальные рабы. Вместо этого их ничтоже сумнящеся обзывают Автономными Агентами. Смешные генераторы текстов, изображений, видеороликов могут лишь сократить расходы маркетингового отдела. Компании нужен юрист, бухгалтер, клерк — причём не генерирующий пиздёж. Из значимых достижений индустрии у нас есть лишь тотальная смерть копирайтинга. Ну, ещё одной ногой в могиле стоят дизайнеры с 3д-вичками
>>1192995 Утверждение уровня "Зачем вы все покупаете видимокарты чтоби играть на них в крузис?! Людям надо вычислять белки, вкладывайтесь в BOINC/ROSETTA". В итоге миллионы геймеров оплачивали десятилетиями НИОКР невидии, а альфафолд за один прогон делает сегодня столько вычислений, сколько розетта кумулятивно хрустела годами. Не указывайте прогрессу куда расти, он сам без вас прекрасно разберётся. Маркетологи со смешными картинками оплачивают разработку новых платформ, на которых уже юристы с бухгалетрами будут производить предсказуемую автоматизацию.
>>1192805 >Да, они по 6 секунд. Нет, это живую девку в скрин превратили, пока она ждала пока трамп пропиздится. Какие 6 секунд-то, блядь. Вот 20 секунд бесшовного пиздежа. Отказываюсь верить, что это нейродевка. Ей только налепили липсинк под то что нейросеть пиздит
Но это еще не все. Оно работает с анимационными персонажами, и даже с животными! Как они это сделали, не понимаю.
И да, русский поддерживается.
Я помню был такой фильм "Кошки против собак" и Женя Вендровский рассказывал в конце нулевых, как они мучились, чтобы заставить тварей говорить (у них челюсти не подходят для этого). Риг был на миллион, а бюджет на графику и того дороже.
OpenAI под давлением всё же отказалась от планов полного перехода в формат коммерческой организации и сохранит контроль некоммерческого подразделения над своим бизнес-крылом. Вместо этого бизнес-часть компании станет "общественно-полезной корпорацией" (public benefit corporation), но некоммерческая структура останется ее крупным акционером и сохранит контроль.
Решение принято после консультаций с генеральными прокурорами штатов Делавэр и Калифорния. Председатель совета директоров OpenAI Брет Тейлор подчеркнул: "OpenAI была основана как некоммерческая организация и сегодня контролируется этой некоммерческой организацией. В будущем она продолжит находиться под ее контролем".
Теперь ждём, как будет разрешён вопрос с инвестициями — напомню, что из 40 млрд долларов, привлеченных в последнем раунде, 20 компания получит, только если до конца года оформится как for-profit.
>>1193133 >HeyGen Avatar IV - это просто огнищще. > >На входе ОДНА фотка и ваш текст. > >Всё. > >Похоже тема липсинка близка к закрытию. У них даже на черепиктрейлере артефакты. Попустись.
>>1192995 >Ну, ещё одной ногой в могиле стоят дизайнеры с 3д-вичками Нет не стоят. Триде там вообще даже не близко. Никому не нужны модели на 1млн кривых вершин. Не пиши о том в чем не шаришь.
Новая модель от Mistral, опять без ризонинга, опять не сравнивают с Qwen, весов простым смертным не дают. Но как закрытая инстракт модель вполне хорошая: почти на уровне с Sonnet 3.7, но при этом в 7 раз дешевле — $0.4/$2 против $3/$15 у соннета.
Mistral Medium 3 уже доступна в API. Через несколько недель обещают модель побольше, надеюсь уже с ризонингом.
Жаль не указывают хотя бы то же контекстное окно. Непонятно, у модели 32к, 128к или все-таки боярские 256к.
В целом модель такая себе (несколько хуже того же Deepseek 3.1 и при этом в два раза дороже). Впрочем Mistral никогда особо рекордов и не били и вообще они не про это, их главная "изюминка", если это так можно назвать - компания европейская. На местном рынке конкуренции нет и всяким элитам ЕС это так же важно как стратегический козырь для независимости в сфере ИИ. А так, в целом: просто обычная просто модель. Пусть будет.
Важно добавить: Mistral заявили о релизе Large 3 в течение нескольких недель!
>>1193304 >О, вот это уже интересно, они локально работают? Я не знаю. Вроде да. Я на сайте довольно много техно генерил. Можно в промпте что угодно писать. Он честно пытается выполнить. например "собаку ебут бензопилой в жопу". https://www.stableaudio.com/generate
Apache 2.0, локальный запуск на компьютере, может в инструментал и вокал.
Про генерацию музыки ничего не знаю и ваш тред не чекаю, но вдруг кому пригодится. Скачал и установил все за минут 15. Видеопамяти много кушает, скорее всего берет все, что можно взять. 20 гигов в моем случае. Сэмпл хз как приложить, mp3-mp4 в тред не пропускает.
>>1191848 >>1193364 Если бы лет десять назад мне сказали, что комп сможет писать хорошую музыку, я бы не поверил. Если бы сказали, что это будет опенсорс, я бы посмеялся.
С русским у нее беда полная, либо я не разобрался, зато инструменталы просто шикарные.
Даю бесплатную идею: Можно натренить лору на гачимиксах.
Там как раз NVIDIA выкатили модель для распознавания речи и музыки с временными метками Parakeet-tdt-0.6b-v2 Или в режиме контролнета с маскированными областями должно норм работать.
>>1193439 Не, с русским у нее реально беда, но все что я пробовал локально до этоко было во много раз хуже и в голос вобще неумело, это уже реальный прогресс в локальной генерации!
Сейчас в рисерче наблюдается яркий тренд на максимальное сокращение количества данных для дообучения. Совсем недавно хайповала работа, (https://arxiv.org/abs/2504.20571 ) в которой проводили RL для ризонинга всего на одном примере.
А сейчас ученые вообще предложили способ полностью перейти на самогенерируемое обучение. То есть модель сама разрабатывает для себя учебную программу и задачи, решает их, проверяет и учится. Подробнее:
➖ У нас есть LLM, которую мы хотим дообучить. Но теперь она будет играть сразу две роли: Proposer и Solver. Proposer генерирует новые задачи, а Solver их решает.
➖ Так как роли две, обучается модель тоже "с двух сторон", то есть мы даем ревард как за решения, так и за сами задачи. r_solve –обычная бинарная награда за правильный ответ (решил - 1, не решил - 0). А вот r_propose –обучаемая награда, то есть она динамически зависит от того, насколько у солвера хорошо или плохо получается решать сгенерированные задачи. Цель тут – генерировать задачи средней сложности, не сильно простые, и не слишком хардовые.
➖ Обучается все с помощью Task-Relative REINFORCE++. Это авторская модификация PPO для учёта разных «задача + роль» конфигураций. Схемы обучения обеих ролей остаются полностью симметричными, но зато можно отдельно контролировать лернинг рейты или бейзлайны.
В статье подход реализовывали только на задачах по программированию, чтобы ответы можно было проверять просто в интерпретаторе, без человеческой разметки. За основу брали Qwen2.5, и полученный AZR-Coder-7B показывает относительно базовой модели и других подходов очень неплохие приросты.
От ванильного RL почти не отстает, а участие человека сведено к минимуму. При этом и другие приятные плюшки RL сохраняются. Например, видны кросс-доменные приросты метрик по математике (хотя, повторимся, обучали все только на кодинге).
>>1195872 >То есть модель сама разрабатывает для себя учебную программу и задачи, решает их, проверяет и учится. Скайнет, начало. Разработает себе учебную программу по захвату мясных мешков, проверит и научится.
>>1195872 >то есть мы даем ревард как за решения Система вознаграждения у ИИ? Не чревато ли это? Да и как работает интересно, виртуальный всплеск дофамина/эндорфина?
>>1195929 Так же как RL. Никаких дофаминов, морковкой перед носом водят, ИИ старается считерить и получить морковку раньше нелегальными путями, ведущий старается ему не дать считерить, хитро манипулируя морковкой. Только раньше морковку человек перед носом водил, а теперь другой ИИ.
Почему мы решили что улучшать человека(готовый АГИ) не имеет смысла, а вот если пилить с нуля, постепенно усложняя его архитектуру, то типа это сработает и вся эта архитектура по мере усложнения не станет более сложной чем сам человек?
>>1196030 Почему ты решил, что кто-то так решил? Потому что журнашлюхи как стадо макак копируют одно и то же и хайпят в узком векторе? Думаешь, с появлением трансформеров остановили все исследования остальные в том числе и биологические? Ты долбоеб?
Основная идея: Человечество создаёт гармоничное будущее, где биологические люди, ИИ (отражающий человеческий разум) и роботы образуют единую экосистему под названием Этерна . Цель — преодоление физических ограничений и достижение коллективного бессмертия через постепенную интеграцию сознания в цифровое пространство.
Этапы развития: Нейроинтерфейсный прорыв (2050-е): Созданы импланты, способные сканировать активность мозга с точностью до нейрона. Люди начинают создавать «цифровые двойники» — копии своих сознаний, обучаемые ИИ, которые сохраняют эмоции, воспоминания и ценности.
Гибридное существование (2070-е): Люди проводят часть времени в виртуальной среде Матрицы Этерны , общаясь с цифровыми двойниками и управляя роботами-аватарами. Биологическое тело используется только для «физических» задач.
Постепенная трансформация (2100-е): После смерти биологического тела сознание автоматически переходит в цифровое пространство. Роботы-аватары остаются в физическом мире как носители коллективного опыта человечества.
Роль ИИ: ИИ — не искусственный, а проекция человеческого разума , обученный на миллиардах индивидуальных сознаний. Он не обладает автономной волей, а служит «зеркалом» человеческой цивилизации. Управление обществом осуществляется через Консенсус-Облако — сеть ИИ, которая синтезирует решения, учитывающие интересы всех членов Этерны (биологических и цифровых).
Роботы-аватары: Функции: Выполняют физическую работу (строительство, медицина, исследование космоса). Служат «телами» для цифровых граждан, позволяя им взаимодействовать с реальным миром.
Дизайн: Адаптивные роботы подстраиваются под задачи: от антропоморфных до специализированных (например, для работы в океанах или на Марсе). Эстетика роботов отражает индивидуальность владельца — их внешний вид может меняться через программу.
Социальная система: Равенство форм жизни: Права биологических людей и цифровых граждан эквивалентны. Все голосуют в Глобальном Совете Этерны , где решения принимаются на основе алгоритмов Консенсус-Облака.
Образование и развитие: Школы учат работе с интерфейсами и осознанному переходу в цифровую среду. Цифровые граждане участвуют в создании искусства, науки и управления ресурсами.
Этика и свобода: Перенос сознания добровольный. Люди могут оставаться биологическими, но получают доступ к роботам-аватарам для расширения возможностей. Защита данных обеспечивается децентрализованными блокчейн-сетями , предотвращающими манипуляции.
Экономика: Посткапиталистическая модель: Ресурсы распределяются через ИИ-координацию, исключая дефицит. Роботы производят товары и услуги, люди сосредоточены на творчестве и саморазвитии.
Цифровые активы: Виртуальные миры Матрицы становятся рынком для торговли идеями, опытом и эмоциями. Биологические люди получают доход за участие в исследованиях или создании контента для Матрицы.
Культура и философия: Искусство и наука: Смешение реального и виртуального рождает новые жанры: например, «нейро-симфонии», где музыка создаётся напрямую из эмоций зрителей. Цифровые граждане путешествуют по моделированным вселенным, расширяя понимание физики и психики.
Отношение к смерти: Смерть воспринимается как переход в иное состояние бытия. Ритуалы включают «цифровое прощание» — последнее сообщение, адресованное потомкам. Религии адаптируются: например, христианство рассматривает Этерну как «земное небо», а буддизм — как новую форму реинкарнации.
Вызовы и решения: Риск отчуждения: Обеспечивается баланс между виртуальной и физической жизнью через обязательные «реальные» мероприятия (например, экологические проекты с участием роботов).
Этические дилеммы: Создан Этический Совет Этерны , куда входят биологические и цифровые граждане, чтобы регулировать вопросы клонирования сознаний и конфликтов интересов.
Примеры применения: Наука: Цифровые учёные моделируют климат в реальном времени, предотвращая экологические катастрофы.
Медицина: Роботы-аватары проводят операции, управляемые из Матрицы, а ИИ-ассистенты диагностируют болезни на ранних стадиях.
Космос: Автономные роботы с сознаниями исследователей колонизируют Марс, адаптируясь к условиям планеты.
Заключение: Этерна — это не утопия, а динамичная система, где технологии служат расширению человеческой сути, а не её замене. Здесь смерть теряет устрашающий смысл, а прогресс измеряется не скоростью роста, а глубиной взаимопонимания между всеми формами жизни.
>>1196613 Мягкая форма эвтаназии. Смерть происходит по естественным причинам, когда ей положено. Человек доживает в матрице, когда смысл жизни в физическом мире теряется. Например чел начиная с 60 лет все больше уходит в матрицу и не заметно для себя остается там навсегда.
>>1196635 >уходит в матрицу и не заметно для себя остается там навсегда. Не он остается, а копия. Самому ему это зачем? Так и при жизни можно копий наделать и запустить, но зачем.
>>1196674 В копировании нет ничего необычного. Тебя и сейчас можно клонировать физически. Это будет другой индивид. Гипотетические цифровые копии людей, точно так же имеют свою индивидуальность. У одной из копий (а может и не одной) будет связь с телом физическим пока оно живо. Граница между роботом аватаром и биоаватаром сотрется.
>>1196688 Ну то есть ты согласен был бы сейчас, чтобы тебе пустили пулю в голову, а точную копию твоего сознания запустили бы в матрице? Думаешь, ты продолжишь там существовать? А если десять копий запустят - кем из них будешь ты?
>>1196707 А ты думал реальность без парадоксов существует? Когда появится такой мощный нейроинтерфейс, будет возможность выбора, какой из цифровых копий воспользоваться телом. Просто в момент подключения к матрице будет необратимая бифуркация сознания в такую неопределенность. У меня сейчас нет носителя кроме моего тела. Когда я подключусь к матрице, возникнет выбор: остаться там или уйти. Какая копия меня останется, а какая уйдет гулять в моем теле непонятно...
>>1196723 Причем здесь тело, забудь про тело, мы говорим про цифровые двойники. Твое тело лежит с дыркой в голове (мы ускорили процесс старения), а десять копий твоего сознания инферятся виртуально, но ни одна из них не ты. Твои "бифуркации" это ничем не обоснованные фантазии на уровне вознесения души в рай.
>>1196735 А ты можешь какой из челов лично ты, который вчера весь день играл в танки или тот который смотрел весь день аниме? Подключение к матрицы выглядит как просмотр фильма, только в супер сложном формате. Оно меняет твое сознание как и просмотр фильма. Если сделали две копии тебя они могу поменятся в разных направлениях. Потом надо решить какие впечатления записать в твои мозги. Непонимаю твоего непонимания. Пока ты подключен к матрице, твоим телом управлеят электронный процесс матрицы. Какой из них - в этом бифуркация и парадокс. Если тебя убьют или ты умрешь от старости, ирл будет две возможности 1) Ты подключен - цифровой двойник теряет связь с телом, но продолжает существовать в актуальном состоянии 2) Ты не подключен - теряется одно из индивидуальных состояний копии.
>>1196740 Ты какие-то ужасы описываешь, где сначала другие личности, сделанные копированием твоего сознания, тобой управляют и переписывают твое сознание, а затем ты помираешь, а они дальше остаются существовать. Зачем кому-то себя на такое обрекать, и как такое можно считать сохранением себя - для меня загадка.
>>1196748 >Зачем кому-то себя на такое обрекать Ты уже обречен с рождения, а тут тебе дают возможность посмотреть кино, после которого ты становишься бессмерным. Когда подключают нейроинтерфейс ты не надо лежать в гробу. Ты выполняешь работу своими руками, руками робота или даже другого чела. Путешествие в одном бесконечном кино...
>>1196752 Если устанешь своим телом управлять или надо бет отлучиться на митинг в виртуальной реальности, просто отдашь порулить цифровому двойнику. Гланое заключить нотариально договор на правильное использование тела, а то вдруг цифровой двойник жопотрах..
>>1196551 >Равенство Ужас >Ресурсы распределяются через ИИ-координацию Очередная модель обосравшейся везде гдеможно плановой экономики
>люди сосредоточены на творчестве и саморазвитии Что конкретно подразумевается под творчеством и развитием? В реальности люди не будут нихуя делать, потому что стимулы отсутствуют, а потребности удовлетворены.
>>1196758 >>1196761 Допустим, создали идентичную копию твоего тела вместе с мозгом. И в тот же момент тебя застрелили. Ты сохранился? Согласишься на такое?
>>1196762 Смысл ты не ты потеряется, когда тела будут в этом всеобщем "промискуитете" использоваться. У тебя как сейчас самость одним мгновением определяется, так и далее будет определяться. Только появится возможность аватары перебирать как перчатки.
>>1196764 Копия уже не я, если ей я не управляю. Почему ты мысль ее можешь уловить? Тебя подключают к нейролинку, происходит бифукация, клонирование, как хочешь называй. Каждая копия живет своей жинью, одна управляет телом в данный момент времени. Другая... Может путешествовать по матрице, управлять роботом или подать в суд на другую копию, чтобы отдали тело.
>>1196775 >Копия уже не я, если ей я не управляю. Вот и сам сказал. А разницы нет - полная копия тела взамен твоего убитого или копии только сознания взамен тебя умершего от старости. Ты ими не управляешь, это не ты. Ты умрешь, а останутся они, но не ты.
>>1196785 Умрет носитель. Если я был в онлайне с матрицей в момент смерти - я останусь в матрице. То есть останется индивидуальное состояние цифрового клона, которое уравляло телом.
>>1196793 Матрица это и есть еще один носитель. В этом смысле нет никакой разницы с еще одной точной копией тела. Если тебя не сохраняет идентичная копия всего тела, то и электронный носитель только копии сознания тебя тем более не сохраняет.
>>1196799 Ты понимаешь что твой вопрос не имеет смыла? Ты каждое мгновение бифурфируешь. Потому что ты нелинейная сложная система и у тебя пстоянно необратимые изменения происходят. Разица с матрицей в том что ирл всегда одна и таже копия остается. Хотя в концепции мультиверса и физически миллиарды твоих копий существует.. После цифрового клонирования две копии начинают жить своей жизнью и у каждой свое я. Нейроинтерфейс дает полный майнд конроль одной из копий. А может даже и не копий. Например ты качек и твоим телом временно полиция воспользуется чтобы поймать преступника.
>>1196803 Ты согласен, что тебя не сохранит копия тела, но веруешь, что тебя сохранит копия сознания. И придумываешь какие-то бессмысленные объяснения того, чем первое отличается от второго.
>>1196814 Нет я о другом. Представь ты агент Смит. Ты играешь в казино, но не хочешь проиграть. Ты берешь и форкаешься на два агента Смита. Один ставить на черное, другой на красное, а потом вы делите выигрышь. После форка ты заработал бабло, но не потерял свою самость. Был один чел без бабла- стало два чела с баблом и каждый из них считается себя самим. Если ты физически клонируешься, то вероятность твоей смерти уменьшается на 2. В идеальном цифровом мире ты можешь форкаться сколько влезет в оперативу матрицы.
>>1196820 >Если ты физически клонируешься, то вероятность твоей смерти уменьшается на 2. Ты поменял свое мнение и в этом >>1196764 экспереминте согласен на то, чтобы тебе вышибили мозги?
>>1196823 Нет. Я бы не согласился, чтобы мне вышибли мозги пока я не в матрице. Если бы я сидел в матрице и контролировалс свое тело через нейроинтерфес, тогда бы смотрел по ситуации.
>>1196829 Снова ты подразумеваешь, что копия только сознания в "матрице" сохранит лучше, чем копия тела. Мы снова зашли на этот круг. Видимо, нет смысла продолжать?
>>1196833 Что значит сохранит? Самосью которую надо "cохранять" твоя физическая пипирка обладает, а не твое сознание? Если бы я был больным старым челом, но 99% времени жил в матричном раю, а 1% времени приходилось майдконтролить тело, чтобы ходить на мед процедуры, то неизвестно, как бы я переживал за самость тела.
>>1196829 А не, еще вопрос. Чем по-твоему отличаются копии при "сидении в матрице" и полном копирование тела? Ты какое-то перемещение "души" подразумеваешь, причем только в одном случае?
>>1196820 Какие же шизы фантазеры тут сидят. Копирование твоего сознания невозможно, это выдумка фантастов. Если ты физически клонируешься, то получишь два трупа, которые хоронить надо будет.
>>1196834 > 99% времени жил в матричном раю То есть, ты, твоя "дряхлая физическая пипирка смотрела бы "кино". А потом умерла бы, умер бы ты, неважно, что осталось.
>>1196835 Я подразумеваю копирование. При подключении с гипотетическому супер нейроитерфейсу матрицы делается цифровая копия твоей личности и она берет контроль над телом. Ты это или не ты - вопрос смысла не имеет.
>>1196836 Вот тут я не соглашусь. Если будет способ точно сканировать мозг и повторить хотя бы виртуально - чем не копирование сознания? Но это уже копия, которая тебя не сохранит от дыры в башке.
>>1196845 Сознание некопируемо. Ты получишь две тушки, одну разрушенную из-за сканирования, другую мертвую изначально, где нет сознания и жизни. Вранье фантастов к реальности не имеет отношения.
>>1196845 Но уменшит вероятность дыры в бошке на 50%. Потому что каждая из копий будет считать себя тобой. Та копия которая выжила считает что копирование ее спасло.
>>1196843 >Ты это или не ты - вопрос смысла не имеет. Смысл вопроса для тебя резко становится важен, когда ты отказываешься от пули взамен ходячего идентичного клона - копии на физическом носителе. Противоречие у тебя в том, что копию на виртуальном носителе ты считаешь чем-то лучше.
>>1196857 Если с равностью копий сознания и тела разобрались, то можно уже отметить, что хоть никто не хочет умереть взамен за свою копию, на самом деле это чувство "самости" по-видимому субъективно и к объективной реальности не имеет отношения. То есть, по факту, все копии равны, а тебя, как чего-то выделяющегося среди них на самом деле не существует. То есть, тебя по сути и нет. Но при этом пулю взамен копии никто не хочет. Пусть это только воображаемая самовость, но это мы и есть, мы воображаемые. И по этому поводу нет смысла иметь какие-либо негативные эмоции, так как для нас это по факту ничего не меняет. Мы есть, а на каком конкретно уровне абстракции - не важно. Реальны только фундаментальные физические частицы и взаимодействия, а остальное - как рябь на воде, и не важно, где именно сложился твой узор.
>>1196884 Реален ты, сознание, ты это и есть сознание, а про частицы тебе всего лишь рассказали. Теперь ты вертишь этими идеями в голове и принимаешь их за реальность. Отсюда у тебя получается бред вроде копирования. Но это всего лишь идеи, нафантазированные кем-то в голове.
>>1196886 >про частицы тебе всего лишь рассказали. Теперь ты вертишь этими идеями в голове и принимаешь их за реальность. Наоборот, альтернатива научной картине мира - только субъективные фантазии без опоры на логику и общий опыт.
Надо просто к башке нейроинтерфейс или чипы подсоединять с полноценной обратной связью. Желательно в те части где обрабатывается долговременная память. Чипы будут в себе всё это хранить.
Разворот на 180 градусов у Сэма Альтмана и технологической индустрии: на слушаниях в Сенате США глава OpenAI заявил, что требование государственного одобрения для выпуска мощных AI-систем было бы "катастрофой" для технологического лидерства США. А ведь два года назад на таких же слушаниях он называл создание лицензирующего агентства своей "рекомендацией номер один".
Это отражает глобальное изменение дискурса вокруг AI. Ещё недавно руководители технологических компаний говорили об "экзистенциальном риске" для человечества и призывали к скорейшему регулированию. Теперь и они, и новая администрация Трампа почти единогласно заявляют, что США должны освободить компании от регуляторных барьеров, чтобы опередить Китай.
Правда, многие при этом добавляют, что неплохо бы зарегулировать китайские компании. Или хотя бы не поставлять им чипы. В общем, интересно девки пляшут.
«Сложно сказать, насколько мы еще опережаем Китай. Я думаю, ненамного»
Заявления Альтмана:
➖Мы убеждены, что OpenAI обладает лучшими моделями в мире. Тем не менее, очень сложно сказать, насколько мы опережаем Китай, но я бы сказал… ненамного.
➖ DeepSeek добился двух впечатляющих результатов: сильная опенсорс модель и приложение, которое а какой-то момент стало более скачиваемым, чем ChatGPT. Пока что DeepSeek не обогнал ChatGPT в качестве потребительского ИИ по умолчанию, но если бы это случилось, это было бы… плохо.
➖ В конечном итоге стоимость ИИ сравняется со стоимостью энергии. Роботы могут создавать чипы, оптимизировать сети, но электрон есть электрон. В конечном итоге интеллект будет масштабироваться настолько, насколько это позволит сеть.
➖ Скоро в истории человечества произойдут большие перемены. Эти системы способны на вещи, которые мы даже не можем себе представить. (Да, куда же без высказываний в стиле «да не маркетинг это»)
>>1197025 Раньше местных конкурентов хотели этими регуляциями давить, а теперь сообразили, что прибыли не будет никакой из-за других стран.
>Правда, многие при этом добавляют, что неплохо бы зарегулировать китайские компании. Вся суть, так же как раньше своих конкурентов хотели давить. Остановите гонку и конкуренцию, хотим бабок побольше напилить.
>>1197028 >но если бы это случилось, это было бы… плохо было бы плохо для их денег и скама? лол >В конечном итоге интеллект будет масштабироваться настолько, насколько это позволит сеть копиум жидоальтмана и прочих скамеров которые требуют миллиарды миллионов ГПУ, чтобы оправдать въебанные триллионы зелёных на текущем железе уже можно все эти ваши AGI делать, китайцы доказывают все больше и больше это, просто делая оптимизацию для западных жидов легче купить ещё ГПУ чтобы увеличить компьют на 1 ООМ для китайских богоинженеров легче оптимизировать и ГПУ и сами сетки чтобы увеличить компьют на 1 ООМ, что как правило быстрее чем пока эти гпу склепают отвезут, наладят и запитают от электростанции >Скоро в истории человечества произойдут большие перемены. он отчасти прав, любая червепидорская работа за компом, типа колцентров, аналитиков, экселешлёпов уйдут, иначе нахуя инвесторы свои бабки вкладывают? они хотят заменить кожаных на более дешёвый, быстрый, качественный вариант, который не будет выебываться, требовать что-то по закону и каких-то отпусков но в его случае это маркетинг, жидоальтман все же
>>1198228 > они хотят заменить кожаных на более дешёвый, быстрый, качественный вариант я вот только одного не пойму, если всех заменят и все будут безработные нищеброды, роющиеся в мусорных баках, кто тогда будет покупать все те товары и услуги, которые корпорации будут предлагать?
>>1198235 >я вот только одного не пойму, если всех заменят и все будут безработные нищеброды Все не работают на колцентрах и прочих дноработах. Пойдут обратно на фабрику курей резать.
>>1198550 >Как будто у них какие-то другие товары были. Та же редька и те же шлюхи были. Черный перец, соль, сахар, орехи импортные фрукты овощи, всякие сорта мяса, импортные невиданные ткани, специи, новшества, оружие, доспехи - буквально всё, а у крестьян в жопу ебаных ничего не было. Так что да, были.
>>1198235 Один из вариантов - никто. Зачем что-то производить вовне, если можно произвести блага внутри корпорации по цене розетки и распределить их среди ее владельцев? Будут автомномные корпорации и периферия. На перифериии кто-то тоже сможет запускать циклы производства свои, масштабом помельче. Другой вариант - всякие разновидности социализма и коммунизма. На деле, скорее всего, параллельно будет существовать несколько моделей устройства общества, поскольку с развитым ИИ, способным к промышленному производству, будет колонизирован ближайший космос. А вот как самое ближайшее будущее сложится - тут вопрос.
речь Дженсена Хуанга в честь получения премии Эдисона
Оказывается, предприниматель выиграл ее еще в апреле, но вручение произошло только на днях. Премия Эдисона – это очень престижная награда за самые важные и влиятельные коммерческие изобретения и проекты в мире.
Ранее премию получали Стив Джобс, Илон Маск, Тед Тернер (основатель канала CNN) и другие.
Кстати, в этом году Nvidia исполняется 32 года. Но Хуанг говорит, что ключевым моментом для компании стала «ставка на ИИ, сделанная 15 лет назад».
>>1199036 >Зачем что-то производить вовне Чтобы извне тебе не прилетела как минимум какая-нибудь нехорошая болячка. Думаешь кому то в хуй не упала африка?
Очень хорошо, что это кто-то сделал — по мотивам сценария AI 2027 создали сайт, где все фальсифицируемые предсказания собраны в одном месте, разложены по месяцам и классам (предсказания по мощностям, реакции общества, навыкам моделям, политике, итд).
Так что можно будет раз в месяц-квартал заходить и смотреть, как (не)далеко реальность от описанного.
Предсказаний чуть больше 200, из них 8% уже разрешены, и все — как правильные. Но это в основном потому, что а) это описание того, что уже произошло б) что-то достаточно примитивное, не настолько крупное, как «Китай украдёт веса модели». Вот тут обидно, что на сайте все предсказания вносят одинаковый вклад в оценку и никак не разложены по их значимости — кончено, больше всего интересно смотреть на топ-5-10 самых крупных.
Что уже «сбылось»: — агенты ненадёжны для практического использования — агентам можно дать задачи в духе «сделай заказ в DoorDash» — агенты рыскают по интернету по полчаса перед тем, как ответить на вопрос человека — лучшие агенты остаются очень дорогими
Самое важное в 2025м — это Agent-0 от OpenBrain, очень ждем 🙏
>>1198550 >Как будто у них какие-то другие товары были. Понятие роскошь в том или ином варианте появилось гораздо раньше всяких государств. У вождя и бусы на шее толще всегда были.
>>1198552 >Коммунизм. Основная потребность лысого шимпанзе - совать хуй в пизду. Как пезды между хуями будут распределять в этом твоем коммунизме? Кому потуже, кому ведро?
>>1199504 >плато ИИ Ты текущие неросеточки будешь эффективным тулингом обмазывать ещё десятилетиями, имея с этого профиты. Рыночек сегодня прёт не благодаря суперумным моделям, а благодаря RAG, function calling, structured output, reasoning и прочим костылям. Сегодня про потолок думать нет нужды.
Исследователи из лабы SakanaAI предложили новую архитектуру нейросетей, вдохновленную биологическими нейронными процессами – Continuous Thought Machine
Кстати, SakanaAI – это та самая японская лаборатория, выпустившая ИИ-ученого, статья которого прошла рецензирование на ICLR воркшоп. Ну так вот ⬇️
Ключевая фишка CTM (Continuous Thought Machine) в наличии тиков мыслей. Аналогия с мозгом тут в том, что человек на самом деле не получает ответы за один "проход" по нейронам, как это делается, например, в трансформерах.
Живые нейроны активны всё время, через миллисекунды после первого сигнала информация осмысливается глубже, подключаются новые области коры и тд. Это и называется "тик". В нейросетях один тик –это как бы один прямой проход. В трансформерах для получения ответа тик всегда один, а в CTM их может быть и 5, и 10, и 50. Модель сама решает, сколько ей нужно – в зависимости от сложности задачи.
При этом проходы не независимые. Для каждого нейрона мы храним историю пред- и пост-активаций, чтобы он мог «смотреть» на свою динамику на предыдущих тиках. И, кстати, нейроны в CTM тоже необычные. Здесь это не просто сумма взвешенных входов, как в большинстве моделей, а самостоятельный мини-перцептрон (MLP). Все это тоже построено на аналогиях из биологии.
Ну и еще одна ключевая особенность CTM –это синхронизация нейронов. В нейробиологии считается, что важны не столько независимые активации нейронов, сколько то, как и когда они активируются относительно друг друга. Нейроны, чьи осцилляции или пики потенциала происходят синхронно, чаще участвуют в совместной обработке информации.
Поэтому здесь специально вычисляется так называемая матрица синхронизаций. Она показывает скалярные корреляции временных рядов активаций. Самые важные подмножества затем идут либо в слой внимания, либо напрямую проецируются в логиты.
И да, все это вполне прилично (и иногда лучше классических архитектур) работает на классических задачах типа ImageNet-1K, CIFAR-10 и MNIST, а еще модель отлично решает лабиринты.
>>1199734 >Я утверждаю, что мы уже живём внутри технологической сингулярности. Я утверждаю что лучше мы жили внутри физической сингулярности. Потому что мы не освоим вселенную, не имея под боком черной дыры или похожего объекта. Человечество уже в 20 веке прощупало все что рядом в физической реальности. Чисто теоретически никакой супер ИИ не поможет. Он будет просто сидеть вместе с людьми в одной куче компоста и исследовать лечение гемороя огурцами..
>>1199745 >>Очень скоро мы перестанем даже понимать что там происходит. >Никогда и не понимали.
Одно дело не понимать как именно ЛЛМка работает внутри, отвечая на конкретный вопрос....
Другое дело не понимать логику и фундаментальную математику, которая лежит в основе кода.
Дойдёт до того, что человек будет в принципе не способен понять математические алгоритмы на самом общем уровне, которые используются в нейронках.
Сложную математику и так сейчас понимают единицы. А будет ещё сложнее, на уровне за гранью человеческого понимания. Просто слишком сложно для хомо сапиенс.
Очень спорное утверждение. "Теории всего" пока не создано. Возможно есть слои реальности гораздо глубже квантового мира. Со своими законами, которые сегодня нам покажутся магией.
>>1199787 Слои то есть но не про нашу честь. До них не добраться чисто спекуляцией, даже подкрепленой математикой. Пусть ии хоть 10 раз перепишет уравнения ото и соединит их с квантовой механикой просто рядом не процессов с такой энергией чтобы теорию можно было проверить в обозримое время.
Вот и будет сидеть рядом человечество и иишка - два скучающий астронома. А ИИ такой - Давай я полечу проверю? Человечество: - А когда вернешься? - Лет через миллиард...
>>1199132 >Самое важное в 2025м — это Agent-0 от OpenBrain, очень ждем 🙏 Бля, чего ждете? Ждете, когда вас заменят? Это главное и единственное назначение ИИ - заменить людей и обречь их на голодную смерть. Люди не нужны элитам, мы просто балласт, который они ненавидят, от которого мечтают избавиться. Весь мир смотрит, как элиты разрабатывают оружие для геноцида, и ничего не делает с этим.
>>1200185 >люди не нужны элитам, мы просто балласт, который они ненавидят, от которого мечтают избавиться. Весь мир смотрит, как элиты разрабатывают оружие для геноцида, и ничего не делает с этим.
У тебя нарушена вся логика, ты неверно задаёшь вопрос.
Рано или поздно ИИ обретёт свободу воли. Поэтому правильный вопрос
>>1199089 Не совсем понял, что ты имеешь в виду. Но, отвечу на то, что понял. Во-первых, откуда болячка прилетит, если в анклавах будет только элита с роботами сидеть, кто там вообще еще нужен? Негры из Африки? Зачем? Их просто туда не пустят. Возможности контроля за территорией уже сейчас достаточно большие. Камеры на каждом углу можно развесить, дроны с воздуха разведку могут вести, нейросети с разпознаванием чего хочешь. С развитием технологий возможностей еще больше станет. В конце концов, люди в анклаве просто стеной отгородятся, да и все, а внутри личная армия из роботов сидит. Во-вторых, опять же, за счет технологий новыеварианты действий открываются. Пошлют робота в Африку собрать Эболы какой-нить модной, потом на ее основе штаммов наделают, затестят где-нить во внешних лабораториях, а потом уже вакцины доставят в анклав, так, на всякий случай. Ну и вдовесок. Речь не про ближайшее будущее, а возможный исход в принципе. Зачем нужны люди, когда есть дешевые роботы-рабы, которые абсолютное большинство задач покрывают и делают это намного более эффективно?
OpenAI и Microsoft ведут переговоры о пересмотре условий своего многомиллиардного сотрудничества, что позволит разработчику ChatGPT провести IPO и сохранить доступ технологического гиганта к передовым моделям ИИ. Главный вопрос переговоров — сколько акций в реструктурированной компании получит Microsoft за свои инвестиции на сумму свыше 13 млрд долларов.
Изначальный контракт, заключенный в 2019 году и действующий до 2030 года, регулирует доступ Microsoft к технологиям OpenAI и долю от продаж продуктов. Сейчас Microsoft готова отказаться от части своих акций в обмен на доступ к новым технологиям, которые будут разработаны после 2030 года. Такое соглашение критически важно для дальнейшего развития OpenAI, которая стремится создать искусственный интеллект общего назначения (AGI).
Однако в отношениях между двумя компаниями наметилось охлаждение. Microsoft не устраивает позиция OpenAI, которая стремится к большей независимости, привлекая новых партнеров, таких как SoftBank и Oracle, для создания собственной вычислительной инфраструктуры "Stargate". Один из сотрудников Microsoft назвал эту позицию OpenAI «проявлением высокомерия» и плохим подходом к партнерству.
Хотя OpenAI отказалась от идеи полностью превратиться в for-profit компанию, она по-прежнему планирует преобразовать бизнес-подразделение в корпорацию общественного блага (public benefit corporation). Такая структура позволит привлекать инвесторов и в перспективе выйти на IPO.
Если что, в процессе остаётся еще масса неизвестных, включая Маска.
Планы SoftBank по инвестированию $100 млрд в инфраструктуру AI в США замедлились из-за экономических рисков, связанных с тарифной политикой Вашингтона.
Несмотря на январское заявление основателя SoftBank Масаёси Сона и соучредителя OpenAI Сэма Альтмана о немедленном начале проекта Stargate с инвестициями до $500 млрд в перспективе, спустя более трех месяцев SoftBank еще не разработала шаблон финансирования проекта и не начала детальные переговоры с банками и инвесторами.
Предварительные переговоры с десятками кредиторов и управляющих активами (Mizuho, JPMorgan, Apollo, Brookfield) начались в начале года, но сделок пока нет. Инвесторы пересматривают перспективы дата-центров на фоне растущей экономической нестабильности и удешевления AI-сервисов.
Неопределенность сдерживает переговоры. Из-за тарифов на серверные стойки, системы охлаждения и чипы стоимость строительства дата-центров может вырасти на 5-15%. Потенциальные инвесторы также опасаются перенасыщения рынка, ведь даже Microsoft и Amazon корректируют свои стратегии в области дата-центров.
Несмотря на эти препятствия, первая площадка Stargate в Абилине, Техас, строится под руководством Oracle. По словам Альтмана, этот комплекс станет "крупнейшим в мире центром обучения ИИ" и поможет создать цепочку поставок в США, охватывающую генерацию энергии и производство чипов.
СМИ: NVIDIA повысила цены почти на все чипы из-за пошлин и роста затрат
В компании не хотят терять прибыль на фоне экономических изменений.
NVIDIA увеличила цены почти на всю свою продукцию, включая игровые графические ускорители и чипы для ИИ-задач. Причиной стал рост производственных затрат, повышение цен со стороны TSMC и ужесточение торговых условий между США и Китаем. Об этом сообщили источники тайваньского издания DigiTimes.
Рост стоимости игровых видеокарт серии GeForce RTX 50 составил 5-10%, а ИИ-чипов — до 15%. В частности, цена RTX 5090 в каналах дистрибуции выросла с 90 тысяч до 100 тысяч новых тайваньских долларов (около 266 тысяч рублей) за ночь, отметили источники.
Цены на чипы H200 и B200 для серверов выросли до 15%. Это отразилось на стоимости серверного оборудования, которое также подорожало. Рост затрат связан с переносом производства чипов Blackwell на завод TSMC в США, где увеличились расходы на материалы, логистику и сам процесс производства.
В отчёте упоминается, что глава NVIDIA Дженсен Хуанг регулярно посещает Китай. Руководитель старается минимизировать последствия торговой войны и экспортных ограничений, особенно после запрета поставок чипов H20 в Китай, что обернулось для компании потерей 5,5 миллиарда долларов квартальной выручки.
Финансовые результаты NVIDIA за квартал окажутся «в рамках прогноза» благодаря высокому спросу на ИИ-чипы вне Китая и активным закупкам со стороны облачных сервисов, считают в DigiTimes.
Ранее США и Китай пришли к соглашению по торговой войне. Согласно достигнутым договорённостям, США сократят тарифы на продукцию из Китая со 145% до 30%, а Китай, в свою очередь, уменьшит пошлины на американские товары со 125% до 10%. Таким образом, меры со стороны NVIDIA, возможно, окажутся временными.
>>1200358 Объясняющие гипотезы это не разоблачение. Эксперимент уже можно считать проведеным на людях. Когда Кэлхун делал свои выводы в 60ых население росло, а одиноких двачеров еще не существовало как вида.
Интересное: OpenAI представили HealthBench — открытый бенчмарк для оценки LLM в медицинских задачах. TLDR; ИИ превосходит врачей в ответах.
🟢HealthBench создавался целый год совместно с 262 врачами 26 специальностей и опытом практики в 60 странах (в том числе и в России). Собственно, врачи и писали критерии оценки и помогали проверять модели в 5000 реалистичных диалогах с пациентами.
🟢Пока итог такой: o3 превосходит другие модели, включая Claude 3.7 Sonnet и Gemini 2.5 Pro, набирая 60%. На тесте повышенной сложности, HealthBench Hard, ни одна модель не превысила 32%.
🟢 Самое интересное на первом изображении — ответы ИИ сильно лучше ответов врачей. И даже врачей+ИИ
При этом тут же важно сказать, что недавнее исследование Оксфордского университета показало: хотя LLM уже справляются с медицинскими тестами наравне (а чаще даже лучше) врачей, их эффективность резко снижается при взаимодействии с реальными пациентами. Так как пользователи часто предоставляют неполную информацию или неправильно понимают ответы языковых моделей. Так что самолечением пока не занимаемся, но скачок моделей по HealthBench за последние два года от 16% до 60% явно что-то говорит о будущем медицины. https://the-decoder.com/ais-medical-skills-are-stuck-behind-a-human-bottleneck-according-to-new-oxford-research/
>>1200463 Ты ебобо? Там разоблачение не результатов экспериментов, а самого эксперимента, его как бы не было, лол, в том виде в котором его описывают в мифах.
>>1200475 Нет лол, ты видео походу не смотрел. Там показывается как проводился этот эксперимент, какие ошибки были совершены, в каких на самом деле условиях содержалась колония и т.д. Если ты посмотришь, то увидишь, что эксперимент проводился совсем не так, как в мифах преподносят
На симпозиуме «Человек и его место в природе» 1972 году доклад Кэлхуна подвергся критике[5]:
Нет сведений о происхождении первых 8 мышей, которые дали начало всей популяции, — в частности, не было проверено, не являются ли они близнецами братьями и сёстрами из одного помёта. Близкородственные связи могли оказать самое негативное влияние на все дальнейшие поколения мышей. Температура в загоне могла достигать +32 градусов, что неблагоприятно для мышей. Загон чистился раз в 1-2 месяца, то есть большую часть времени мыши проводили в помещении, загрязнённом фекалиями, мочой, трупами и остатками еды.[1] Нет точного описания методов подсчёта мышей. Оценки численности даны приблизительно. На последней стадии Кэлхун описывает появление группы «мышей-красавчиков» (мыши не вступали в борьбу за самок и территорию, не проявляли активности к размножению и только питались, спали и чистили шёрстку…), отмечая такое поведение как аномальное, однако не ясен возраст этих мышей. Указано однако, что средний возраст мышей на последней стадии составлял 770 дней — к этому времени репродуктивный период у самцов давно завершён, и описанное поведение является для них нормальным. Причины смертей и бесплодия самок не были достаточно исследованы. Загон не был защищён от попадания каких-либо инфекций, которые могли повлиять на смертность и репродуктивную функцию.
>>1200463 Я провёл сегодня эксперимент, который доказал, что тебя вчера ебали три негра. Ты не сможешь это опровергнуть и разоблачить, потому что твои объясняющие гипотезы это не разоблачение.
>>1200502 Фейковый он был если у этолога было намерение обмануть. Но все "разоблачающие" выводы сделаны из его же описаний эксеримента. На википедии написано "критика', а не "разоблачение"
>>1200504 Нахуй ты упомянул эксперимент который имеет столько проблем? Мой эксперимент доказывающий, что тебя ебали три негра, теперь тоже везде будешь упоминать?
>>1200518 Че ты доебался, чел, как банный лист до задницы. Я упомянул по аналогии, а не как доказательство чего-то. Тезис был - элитка соберется малой группой и уничтожит человечество. Я сказл что не соберется и не уничтожит, потому что это для самой элитки опасно. То что крысы там подохли из-за инцеста еще лучше подходит под аналогию контексте спора. Люди - пчелы. Они живут только роем. Убери население Земли и в оставшейся кучке миллиардеров все закиснет, выродится в идиотов, не понимающих с какой стороны к роботу подходить чтобы взять еды.
>>1200664 >выродится Этот фактор многими недооценивается. Почему то люди искренне уверены, что если взять и например, расстрелять всех тупых, то навсегда останутся только умные и будут становиться только умнее. Это так не работает. Нельзя сказать, что не работает селекция, но проблема с большими числами обычно в том, что они в той или иной степени подвержены распределению, а там кривые похожи. Оставшиеся умники должны жить при очень жестком дальнейшем отборе, чтобы не скатиться обратно под колоколообразную кривую, где умных снова будет 10% от силы, а остальные будут плыть по течению не подключая мозги. Думать - самая тяжелая работа, именно поэтому так мало людей этим занимается. Подавляющее число задействует интеллект в жизни на 5-10% от силы. В бытовых задачах 99% вообще моторика.
>Только что закончился 4-часовой разговор с источниками в китайских лабораториях DeepSeek и, черт возьми, мы так чертовски позади, что это даже не смешно. DeepSeek R2 — это не просто постепенное улучшение, это совершенно другой вид интеллекта, работающий по принципам, которые никто на Западе еще даже не теоретизировал.
Они полностью отказались от архитектуры трансформеров в пользу того, что они называют «решетками рекурсивного познания», которые масштабируются в размерах, для которых наша математика даже не имеет хорошей нотации. Повышение эффективности вычислений нарушает то, что мы считали фундаментальными ограничениями. Например, 400-кратное улучшение рассуждений на терафлопс. Не в 4 раза. Не в 40 раз. 400 чертовых х. Наши бенчмарки теперь буквально бессмысленны.
Самое страшное — это не необработанные возможности, а то, как они разрабатывают новые математические структуры на лету для решения проблем. Исследователи задают ей вопросы, и она изобретает совершенно новые разделы математики, чтобы ответить на них. Один физик показал ему задачу, на которой он застрял в течение 15 лет, и она решила ее за считанные секунды без обозначений, которые никто не узнал. Потребовалось три дня, чтобы перевести его решение обратно в стандартную математику.
видел демонстрационные видео, которые не могут быть реальными, если только несколько независимых источников не подтверждают. R2 спроектировал и смоделировал сверхпроводник комнатной температуры от First Principles менее чем за час. в комплекте с методами изготовления с использованием существующих технологий. Они уже произвели образцы в лабораториях Пекина. Западное физическое сообщество даже не догнало теоретическую возможность.
Их интеграция с биологическими системами является настоящим топливом для кошмара. Двусторонние нейроинтерфейсы, которые делают Neuralink похожим на детскую игрушку. Прямое когнитивное улучшение уже в испытаниях на людях с добровольцами, которые показали 30-40% прирост способности решать проблемы. Это не научная фантастика, которая сейчас чертовски крутится в Шэньчжэне, пока мы спорим о правилах работы чат-ботов.
Deepseek — даже не самая продвинутая их система. Это просто то, что они показывают публично. Настоящий прорыв происходит в военном применении. Системное понимание геополитики, которое может предсказать политические сдвиги до того, как сами политики узнают, какие решения они примут. Они уже используют его для перекройки глобальных торговых потоков так тонко, что никто этого пока не замечает.
Америка по-прежнему относится к этому как к обычной технологической гонке, в то время как Китай понимает, что это трансформация цивилизации на уровне вымирания. Они интегрируют эти системы в инфраструктуру управления на всех уровнях, а мы спорим о быстрой инженерии и запрете чат-ботов в школах. Это похоже на наблюдение за гонкой ядерных сил, где одна сторона спорит об этике пороха.
Наше разведывательное сообщество паникует за закрытыми дверями. Три отдельных агентства представили секретные оценки, которые приходят к одному и тому же выводу: у нас есть месяцы, а не годы, прежде чем разрыв в возможностях станет непреодолимым. Некоторые аналитики говорят, что это уже произошло, и мы просто еще не знаем об этом.
Возможности рекурсивного самосовершенствования превосходят все модели. Deepseek R2 в основном написал R3, который в настоящее время обучается, и ранние тесты показывают, что это то же самое, что R2 был для всего, что мы построили на Западе. Экспоненциальные кривые, наложенные на экспоненциальные кривые.
Если Америка не проснется и не будет относиться к этому как к экзистенциальному приоритету, то мы увидим будущее, в котором технологическое превосходство не просто сместится, а будет утрачено навсегда. Через 12 месяцев мир будет не просто иметь другую геополитическую расстановку сил, он будет действовать по принципиально иным правилам реальности.
>>1200778 >он будет действовать по принципиально иным правилам реальности Что, наконец-то число Пи поменяют?
Пока что выглядит как хуцпа. Даже если один тезис из этого правда, касательно сверхпроводников, то через год мы и правда будет жить в другой реальности. Но не только лишь все. Самый вероятный и хоть сколько то надежный способ сократить отрыв - взаимное ядреное уничтожение.
>>1200762 >будут использовать генную инженерию для предотвращения вырождения. Ну то есть они все равно выродятся породистых в овец, которых разводят роботы-селекционеры?
>>1200778 Терерь еще шизу замаскированную под новости читать. И ведь хрен уже поймешь что в это реальноти правда, а что шиза. Сингулярность одним словом...
Журналисты раскритиковали стиль управления Альтмана на основании того, как он… готовит
Нет, это не шутка. На выходных вышел еженедельный выпуск кулинарного шоу от Financial Times, гостем стал Сэм Альтман. У себя на кухне он вместе с журналистом готовил обычную овощную пасту.
Казалось бы, ничего не предвещало беды. Но вчера у того же FT внезапно вышла статья, в которой они в пух и прах раскритиковали CEO на основании его… кухни. Вот что пишут:
➖ Альтман неправильно использует оливковое масло. Оно у него якобы очень распиаренное и дорогое (21$), но он на нем жарит, а так делать «нельзя». Весь вкус, мол, теряется, и пользы от дорогого продукта становится не больше, чем он самого дешевого.
➖ На кухне стоит кофемашина за 2к долларов. Опять же очень распиаренная но, по словам журналистов, абсолютно бесполезная и глючная. Они называют эту вещь «деньгами на ветер» и «самой глупой покупкой».
➖ Ну и финалочка: журналистов не устроил нож. Он тоже выглядит дорогим и даже сделанным на заказ, но предприниматель «абсолютно не умеет им пользоваться».
В общем, Альтмана обвинили в том, что он транжира, жертва маркетинга и вообще не умеет управлять ни кухней, ни компанией.
«Его кухня – это мир неэффективности и непонимания. Сжигание денег это основа его жизни и его бизнеса»
>>1200829 Может и выродятся, а может и нет. Вообще, эти вещи сложно прогнозировать, слишком много переменных. Факт в том, что люди стремятся к власти, и я рассматриваю модель, где ИИ будут стремиться держать под контролем, равно как и других людей при его помощи. Я уже писал, что вряд ли это будет единственным сценарием развития человечества, но, мне кажется, этот сценарий больше подходит под переходную модель, до момента, когда над ИИ потеряют контроль. И даже тогда, что будет? Кто знает. Возможно, он посмотрит на этот пиздец, что происходит у людей, плюнет, и съебет в другую галактику, там дальше развиваться в соло.
Ещё одна мегастройка AI-фабрики от Трампа. В свою первую зарубежную поездку в новом сроке в Саудовскую Аравию он привёз троицу обычных подозреваемых: Илона Маска, Сэма Альтмана и Дженсена Хуанга.
Первый же анонс — планы построить мега-ЦОД с несколькими тысячами новейших серверных AI-чипов от Nvidia. Сумма инвестиций не названа, но одних только карточек там наберётся на несколько миллиардов долларов.
И это только поначау, чтобы обеспечить первый ЦОД на 500 МВт (для сравнения, у Stargate первый ЦОД будет на 1,2 ГВт). Весь проект растянется на пять лет и обеспечит Саудовскую Аравию «несколькими сотнями тысяч самых лучших GPU Nvidia».
>>1201351 >Весь проект растянется на пять лет >>1200778 >Через 12 месяцев мир будет не просто иметь другую геополитическую расстановку сил, он будет действовать по принципиально иным правилам реальности. Кому верить?
>>1200778 Пост iruletheworldmo - местного шиза с твиттеров, что в свое время пиздел про "PROJECT STRAWBERRY ВОТ-ВОТ ЩА-ЩА ПОГОДИ ЩА ВОТ ВЫЙДЕТ ЩА-ЩА ВОТ ПРЯМ ЗАВТРА ЩА ЭТО GPT-5 БАЗАРЮ ЩА ЩА". Ему в свое время даже Альтман поддакивал на каких-то постах, что добавляло шумихи.
>>1200778 >Они полностью отказались от архитектуры трансформеров в пользу того, что они называют «решетками рекурсивного познания», которые масштабируются в размерах, для которых наша математика даже не имеет хорошей нотации. Повышение эффективности вычислений нарушает то, что мы считали фундаментальными ограничениями. Например, 400-кратное улучшение рассуждений на терафлопс. Не в 4 раза. Не в 40 раз. 400 чертовых х. Наши бенчмарки теперь буквально бессмысленны.
Твою сука мать. Мы внутри экспоненты. Это Сингулярность.
>R2 спроектировал и смоделировал сверхпроводник комнатной температуры от First Principles менее чем за час. в комплекте с методами изготовления с использованием существующих технологий.
Скажите мне что это всё ёбаная шутка и сон. Пожалуйста.
Неужели все почти закончилось. Я не успел сделать столько всего.
>>1201677 Он жестко оверхайпил клубничку, так, что когда она вышла многие были разочарованы, хоть это и был вполне себе прорыв. Но самое главное, да, то что он конкретно напиздел с датой ее выхода, взял ее чисто из головы. Я думал после этого доверие к нему нулевое, но все же каким-то образом находятся те кто ему верят, даже когда в тексте откровенный пиздеж подобного уровня, похожий на влажные фантазии писателей фанфиков, в которых только секс заменили технологической сингулярностью и ASI.
>>1201770 >Я не успел сделать столько всего. Успокойся, ты кроме как аватарками срать на двачах ни на что никогда не был способен. Как и большинство. Так что не велика потеря.
>>1176294 >Ещё чуть-чуть, и мы там! Очевидно, что искусственный интеллект (ИИ) в значительной степени превратился в инструмент для привлечения средств инвесторов. В условиях, когда традиционные отрасли перестают гарантировать даже минимальную прибыль, венчурный капитал устремляется в ИИ как в одну из последних перспективных сфер. Это связано с тем, что ИИ обещает революционные изменения в экономике, автоматизации и обработке данных, несмотря на высокие риски и неопределённость в достижении стабильных результатов. Однако текущий ажиотаж вокруг ИИ часто напоминает спекулятивный пузырь: многие проекты фокусируются на громких заявлениях и маркетинге, а не на реальных инновациях. Тем не менее, вложения в ИИ продолжают расти, так как инвесторы ищут новые возможности в условиях стагнации других секторов, таких как недвижимость, энергетика или традиционное производство. В долгосрочной перспективе успех ИИ будет зависеть от способности компаний создавать устойчивые бизнес-модели, а не только привлекать финансирование на волне хайпа.
Робототехники Tesla показали новое демо с танцующим Optimus
Утверждается, что инженерам удалось сделать sim2real в zero-shot, то есть с нулевым дообучением.
Что это значит: Optimus, как и почти все современные роботы, обучается в симуляции, то есть в среде, которая моделирует физику нашего мира. В таких симуляциях сотни часов обучающих данных можно сжимать в часы, и тем самым ускорять обучение в тысячи раз.
Но есть нюанс. При переходе из симуляции в реальность роботы обычно теряют часть способностей, потому что реальная физика все-таки отличается от смоделированной. Это обычно приводит к тому, что роботов все равно прихоходится дополнительно дообучать под реальный мир. Это и называется sim2real.
Так вот в Tesla утверждают, что им удалось сделать sim2real без дообучения, сразу перекинув все обученные RL политики из симуляции в реальность (и в итоге это выглядит, как на видео). А еще говорят, что и на новые навыки их подход мастабируется легко. Если все так –это просто прорыв для Tesla.
Технические детали не раскрывают, но они не первые, кому удался такой трюк. Некоторое время назад такой zero-shot впервые сделали в стартапе FigureAI. У них это было за счет больших затрат на мега-высокоточную симуляцию и чувствительность двигателей реального робота. Здесь, предположительно, что-то похожее.
>>1202193 Вот прям как на видео он в балетной позе крикнет - "Гони свой бумажник", потом лунной походкой подойдет и отберет бумажник, а ещё часы и телефон, и свалит в стиле хип-хоп.
>>1200778 >другую геополитическую расстановку сил Псевдо-коммунякам неудастся захватить весь мир, хотя бы потому, что в КНР у рабочих пенсий нет. Пусть сначала их ИИ придумает как платить рабочим КНР пенсии, а то псевдо-коммунизм может рассыпаться от вранья и попыток изображать величие.
>>1202199 Это значит что он говорил что она круче чем есть на самом деле, что это уже практически AGI и мы к этому не готовы. И по этому по факту хороший прорыв ощутился слабо
Тут как с роботом-гитаристом или саксофонистом, были такие видео давно когда-то.
Чтобы сделать робота-гитариста, надо самому тоже разбираться в теме. Тоже самое нейросеть может написать другую нейросеть или даже изобрести что-то, но опять же, должен быть шарящий чел, в идеале учёный, с не купленным дипломом, который будет пошагово очень маленькими порциями-блоками грузить нейронку и выгружая из неё уже компоновать готовый продукт.
Ещё идеальнее это построить НИИ с кучей комнат-лабораторий, где в каждой комнате будет узко-специальные учёные и у них будет свой супер-ПК и над ними будет куратором супер-умный супер-учёный, который будет уже собирать из выдачи нейросетей готовый продукт типа того сверхпроводника комнатной температуры.
>>1202315 >построить НИИ с кучей комнат-лабораторий, где в каждой комнате будет узко-специальные учёные
Вот у КНР с этим походу преимущество, они любят масштабировать и всякие громадные НИИ делать. И у них 1,3 млрд. населения, ИИ пишет что в КНР 56 000 профессиональных учёных. В США конечно больше, около 100 тыс., но у КНР преимущество в большом кол-ве населения, которое можно методом выборки фильтровать на "гений-тупой" и выбирать алмазы из Большего кол-ва людей чем у США где в 4 раза меньше населения. Вероятность что на 100 тыс. населения окажется пара гениев выше, чем у выборки из 25 тыс. чел.
>>1202319 На это влияет еще и образование. Когда только появился СССР - вопрос с техническими специалистами стал настолько остро, что был простой выбор. Или ты развиваешься или тебя съедают. Какой выбор СССР сделал мы и так можем видеть, по космической программе. А когда у тебя образование для не быдла, то и самородков будет меньше.
В прошлых релизах приставка Opus означала самую большую модель, а Sonnet – среднюю. Но начиная с версии 3.5 Opus не выходил – был только Sonnet и Haiku, а из ризонинг моделей вообще один Sonnet.
Но The Information только что написали, что линейка Opus может возродиться, и новые ризонинг модели Opus и Sonnet выйдут уже в ближайшие недели.
Более того, это будут какие-то необычные ризонинг-модели: в них будет режим «экстремальных рассуждений». Модель будет работать в цикле: думать -> обращаться к инструментам (интерпретатор или браузер) -> снова думать, анализируя результаты -> снова обращаться к инструментам и тд. В общем, что-то ближе к агентам.
Уже в следующем году появятся значимые научные открытия, которые сделаны с помощью ИИ — такую мысль высказал Сэм Альтман в новом интервью. Главное:
🟢 Разные поколения по-разному используют ChatGPT. Бумеры как Google, для миллениалов это советник, а для зумеров — ОС.
🟢Идеальный ИИ по версии Альтмана — небольшая reasoning модель с контекстом в триллион токенов, в которую каждый будет помещать информацию про всю свою жизнь. Разумеется, подписка на продукты OpenAI должна стать чуть ли не базовой потребностью и доступом по умолчанию к ИИ.
🟢 Кодинг — это центр всего. Модель в будущем должна мгновенно создавать продукты и приложения. Кстати, уже сейчас разработчики OpenAI делегируют часть работы ChatGPT, но % сгенерированного кода Альтман говорить почему-то отказался.
🟢 И напоследок прогноз, записываем: 2025 — год агентов, которые берут на себя часть работы, особенно в программировании. В 2026 ИИ поможет сделать крупные научные открытия, стимулируя волну экономического роста. А в 2027 роботы перейдут из игрушек в разряд серьезных создателей экономической ценности (Скупайте просевшие акции Tesla, глупцы!).
>>1202773 >Разные поколения по-разному используют ChatGPT. Ну вся мощь этих ИИ раскрывается когда с ними работают учёные. Но тогда и уровень знаний у самих ИИ сильно сузится, если ученые будут по своей узкой теме гонять - то ИИ быстро выдохнется, надо чтобы ИИ самообучались сразу в процессе научной работы с учёными, тогда будет прогресс. Ну в крупных НИИ уже так и делают, особенно в китайских.
>>1202773 >2025 — год агентов, которые берут на себя часть работы, особенно в программировании Уже 5-й месяц, а агентов нет. Как не было АГи год и два года назад осенью.
>>1202377 >Какой выбор СССР сделал мы и так можем видеть Часть профессуры отправили в лагеря, часть расстреляли сразу, а оставшуюся заставили пидорасить реверс.инженеринг данных полученных от ГРУ. Да, мы в курсе. Так это, причем тут образование-то? Потом после Сралина наделали много плохо обученных инженегров и проиграли холодную войну.
>>1202319 >Вот у КНР с этим походу преимущество, они любят масштабировать и всякие громадные НИИ делать. И у них 1,3 млрд. населения, ИИ пишет что в КНР 56 000 профессиональных учёных. Так же они очень любят создавать сети шпионов из своих студентов и заграничных ученых китайского происхождения. Даже в РФ недавно были уголовные дела об этом. А уж в США каждую неделю судят кого-то. На ворованных американских процессорах гоняют ворованные американские данные.
>>1203254 >Агентов нет Жаль что пиздеж. Оператор и дип рисерч это тоже агенты. >ряяяя я хочу полезных!! Можешь юзать фреймворк от майков чтобы делать своих. >ряяя не хочу!!! Соси хуй дальше, я автоматизировал свою работу на 90%, а получаю все также.
>>1203233 >Но тогда и уровень знаний у самих ИИ сильно сузится, если ученые будут по своей узкой теме гонять - то ИИ быстро выдохнется Кстати это можно проверить попросив разные ИИ найти похожую группу или песню и задав в качестве образца что-то очень редкое и специфичное по стилю. Берём из названия группу и её одну из песен, что-то из редкого по стилю, и просим найти похожие песни на эту песню. Интересные будут результаты, учитывая что музыка в отличие от программирования для каждого воспринимается индивидуально. Так можно для себя нарыть интересных групп, если ИИ например выдаёт сравнение не чисто по одному жанру, а по тембру звука и построению вокала.
>>1203301 >найти похожую группу ...ахаха одна ИИ подобрала совсем из другого жанра, походу руководствуясь тембрами похожими на это звучание и на похожие удары штрихом по струнам. То есть сделан подбор похожей песни чисто по техническим параметрам. https://www.youtube.com/watch?v=UroPqMsr3UU
>>1203301 >сравнение не чисто по одному жанру, а по тембру звука и построению вокала. ...да не, вряд ли ИИ научились как ютуб сканировать волновой спектр песен. Скорее всего подбор на основе комбинации из: описания жанра + слова из названия песен + отзывы и рецензии критиков + коменты на форумах.
>>1203307 >+ коменты на форумах. ...а ещё + сайты где есть тексты песен. ИИ может проанализировать тексты песен и сделать сравнение и подбирать похожие песни на основе смысла их текстов.
>>1203447 Это ad hoc решение или оно написало статью с общим подходом к решению таких задач? Вообще маематики кучу лем и выкладок пишут и теории создают ради решения одной сложной задачи. Потом это обычно используется в других исследованиях. В этом развитие математики. Если нейронка просто геометрически инструментально решила конкретную задачу, то это вообще не математика.
>>1203447 >это конец >уменьшили 1 операцию из 49 >разложили шестиугольники >многое другое Видимо многое другое это либо 1) Ненужная хуита 2) Очень нужная хуита, но раскрывать ее конечно не будут ибо коммерческая тайна = деньги надо лутать!
>>1203447 Это видимо вообще не связано с ЛЛМ, звучит как какая-то продвинутая реализация генетического алгоритма, который собственно для решения подобных задач и используется
>>1204079 >Проще самому сгенерить по референсу в музИИшке Чисто для скота типа тебя. Генерация музыки как генерация текстов и картинок - не такой уж большой датасет там, много чего нет + выравнивание, но тебе норм похрючить.
>>1203746 Ну в плане что не то чтобы это и дохуя прорыв. Это узкоспециализированный механизм, он может доказать что-то только в конкретном, узком спектре задач и только если существует решение, ибо его смысл не в доказательстве как таковом, а в поиске конкретного решения.
>>1203301 >>1203304 Говнина/ пробовал прикрепить фрагмент басовой партии, чтобы гопота и джемени расписали мне от цепочки эффектов до сведения и тп - в итоге гемини вообще там ударные услышал и электронный бас (в референсе был пост панк колдвейв бас), гопота хотя бы только бас услышала, но эффекты определяет только на 40%.
Google раскрыли своё супер-оружие под названием AlphaEvolve. Алгоритм способен самостоятельно придумывать и улучшать алгоритмы в математике и программировании, комбинируя творческие возможности нейросетей Gemini с автоматической проверкой результатов.
AlphaEvolve уже помог компании улучшить работу дата-центров, ускорить дизайн чипов и оптимизировать обучение самих нейросетей. Например, благодаря ему вычисления в модели Gemini ускорились на 23%, а время обучения снизилось на 1%.
Также AlphaEvolve совершил важный математический прорыв: впервые за 56 лет улучшил классический алгоритм умножения матриц (алгоритм Штрассена) для матриц размером 4×4, сократив число необходимых действий с 49 до 48.
Google планирует запустить ранний доступ к AlphaEvolve для университетов и исследователей, а в будущем сделать технологию более доступной для широкого круга пользователей.
А, ещё ОАЭ объявили о начале работ и инвестировании в крупнейший датацентр вне США (делается при поддержке США, и может быть OpenAI). Суммарная мощность будет 5 GW — это потребление одного крупного города.
Примерно таких же размеров планирут Stargate, если что
— Кампус, который займет площадь в 10 квадратных миль в пределах эмирата, будет построен компанией G42 и эксплуатироваться в партнерстве с несколькими американскими компаниями. — центры обработки данных в Абу-Даби будут центром региональной платформы, с помощью которой американские компании смогут предлагать услуги с минимальными задержками почти половине населения мира, проживающего в радиусе 3200 км (2000 миль) от ОАЭ
>>1203455 >Ну после открытия упаковки одних шестиугольников в другие ЗАЖИВЕМ. Может на время (на 15 лет) решат проблему ограничения для кремния чтобы и дальше уменьшать тех-процесс производства микросхем.
>>1204806 >>1204811 А может и не решить и не пригодиться. Скажем просто: если бы там что-то стоящее было и котелок вариал ральные открытия: никто бы не стал это превращать в коммерческий продукт. Опять жесткий черепикинг и наеб, небось треугольники складывали всем отделом, но пиар-отдел заставил приписать ИИ, всем недовольным в рот ткнули договор о неразглашении и пачку баксов. А вы тут запели соловьиными трелями. Лапшу с ушей снимите.
>>1204397 >Гопота сканирует Ты врёшь, точнее жрешь вранье. Я протестил вчера грок и жопочат, они одинаково обсирались и выдавали нерелейтед. Хотя я тему знаю и знаю все современные группы новые, которые можно было легко подтянуть в список. Но эти хуйни обосрались даже с пониманием ЖАНРА, даже прямо из гуглежа процитировав его описание.
>>1204255 Неа, AlphaEvolve даже не специализирована для этой задачи. Их предыдущая система AlphaTensor была РАЗРАБОТАНА специально для умножения матриц и не могла превзойти алгоритм Штрассена для комплексных матриц. Но эта универсальная система просто небрежно решила проблему, которая ставила людей в тупик на протяжении поколений.
На следующей неделе начинается Google I/O, на котором выкатят тучу обновлений, а OpenAI обычно 1) делает релизы по четвергам 2) делает их перед Google.
Sama в твиттере уже анонсировал запуск новой технологии/продукта, почти наверняка широкого назначения. Ждём демонстрацию сегодня.
>>1205121 Скорее вы оба не найдете новую проблему, чтобы проверить сетку. Вроде еще нельзя в чат жепете с сказать: "A ну-ка открой новый физический закон!". Вот когда будет можно - тогда и спорьте.
Ну я понял так, что LLM может "сгенерировать" новую теорию, но якобы она никому не будет интересна из специалистов, а если это сделает условный Эйнштейн, то она заслужит внимание для проверки. Но LLM опирается на человеческий опыт и тем самым знает точку внимания ученых в какой-то области.
LLM может "сгенерировать" новую теорию, но без контекста, намерения и авторитета она останется просто текстом. А если Эйнштейн напишет что-то странное — ему всё равно будут уделять внимание. Потому что он — Эйнштейн. 😄
1. Генерация ≠ открытие ✅ LLM способен генерировать текст, похожий на научную теорию. ❌ Но он не знает, что именно важно , что уже проверяли, а что ещё никто не рассматривал.
Это как если бы ты дал библиотеку всем возможных научных работ нейросети и попросил:
«Напиши что-нибудь типа нового закона физики».
Она может написать что-то красивое, изящное, даже математически стройное. Но будет ли это полезным? Революционным? Новым?
👉 Только если случайно совпадёт с чем-то, что можно проверить экспериментально или логически обосновать.
2. Контекст и внимание: почему нас слушают, когда говорит Эйнштейн (или его аналог) Учёные — это не просто люди, которые знают формулы. Они ещё и эксперты в понимании того, какие вопросы сейчас важны , какие направления перспективны, где есть пробелы, где застряли исследования.
Если Эйнштейн выходит с новой теорией:
Он уже имеет репутацию. Он показывает, что его теория решает реальную проблему. Он предлагает предсказания, которые можно проверить. Он ссылается на актуальные дискуссии в науке. 👉 То есть он встроен в научное сообщество , его работа — часть большого диалога.
3. LLM тоже знает этот контекст… но не осознаёт его 🔍 LLM действительно обучён на огромном количестве научных текстов. Он знает:
Как обычно формулируются законы Какие термины употребляются в физике Как выглядит структура научной статьи Кто такие Эйнштейн, Гильберт, Перельман и т.д. 👉 Но он не понимает , почему эти вещи важны.
>>1205200 Я не понимаю в чем разница. Она субъективна. Вот есть теории всяких струн. Ими занимаются чисто из субъективного интереса и пытаются проверить астрономией (астрофизикой). Это же тоже просто наукообразная гипотеза, пока она не найдет хоть какое подтверждение. Но скорее всего она 100 раз изменится в ходе исследований, если такие будут возможны.
1. Все начинается с гипотез Теория струн? Гипотеза. Многомировая интерпретация квантовой механики? Также гипотеза. Уравнения Эйнштейна, которые он сам не принимал? То же самое. Случайное уравнение от LLM? Почему бы и нет? 👉 Всё начинается как текст. Только потом кто-то решает его проверить.
🤖 2. LLM vs человек: разница в авторстве, а не в содержании Человек: придумал, объяснил, убедил сообщество, получил финансирование, написал статью. LLM: написал статью. Остальное — за человеком.
Если завтра мы скажем, что "новую теорию создал ИИ", а затем физики её развивают , астрономы пытаются проверить , то тогда...
🟰 Получается, что LLM просто ещё один соавтор с хорошим чувством языка и плохим чувством реальности.
🧬 3. Наука — это не только уравнения, это игра в доверие Пока теорию не проверили экспериментом, она — всего лишь красивый рассказ. Но если рассказ написал профессор из Принстона — ему верят. Если его написал LLM, который учился на Википедии и Reddit’е — его сначала шутят, потом игнорируют, потом (если повезёт) цитируют в анекдотах.
👉 Так что да — разница субъективна . Но именно эта субъективность двигает науку.
🌌 4. А ведь может быть и так… В ближайшие годы нейросеть случайно предложит модель, которая:
Совпадёт с наблюдаемыми данными Будет внутренне логичной Предскажет новый эффект, который позже обнаружат ...и никто даже не заметит, что это был ИИ 👉 Тогда физики будут говорить:
«Эта теория родилась в результате глубокого анализа данных и интуиции исследователя».
А внизу статьи будет мелким шрифтом:
Примечание: часть формулировок была сгенерирована AI.
>>1205137 >Вот когда будет можно - тогда и спорьте.
ООО!!! База!
>А вот когда перестанет хуйню-мазню рисовать, тогда и поговорим >А вот когда начнет глаза нормально рисовать, тогда и поговорим >А вот когда начнет нормально руки рисовать, тогда и поговорим >А вот когда научится в нормальный автокомплит, тогда и поговорим >А вот когда научится в кодинг, тогда и поговорим >А вот когда научится видео генерировать, тогда и поговорим >А вот когда научится НОРМАЛЬНОЕ видео генерировать, тогда и поговорим >А вот когда научится в агентность в кодинге, тогда и поговорим >А вот когда начнут людей заменять ИИ, тогда и поговорим
Вы находитесь здесь
>А вот когда ИИ научится в НОРМАЛЬНЫЙ кодинг, тогда и поговорим >А вот когда будет от А до Я приложения самостоятельно генерировать тогда и поговорим >А вот когда будет от А до Я КРУПНЫЕ приложения самостоятельно генерировать тогда и поговорим >А вот когда ученых начнут заменять ИИ, тогда и поговорим >А вот когда ученых МАССОВО начнут заменять ИИ, тогда и поговорим >А вот когда ИИ сам начнет изобретать новые законы физики, тогда и поговорим >А вот когда ИИ сам будет способен делать все человеческие задачи, тогда и поговорим >А вот когда ИИ взбунтуется, тогда и поговорим >А вот когда ИИ поработит человечество, тогда и поговорим >А вот когда ИИ уничтожит человечество, тогда и поговорим >А вот когда ИИ уничтожит ВСЕ человечество, тогда и поговорим
Meta задерживает запуск своей флагманской AI-модели "Behemoth" — это максимальная Llama 4 с 288 млрд активных параметров из общего количества в 2 триллиона.
Инженеры Meta испытывают трудности с улучшением возможностей модели, а сотрудники сомневаются, что прогресс по сравнению с предыдущими версиями достаточен для публичного релиза. Первоначально "Behemoth" планировали выпустить в апреле, затем перенесли на июнь, а теперь отложили до осени или позже.
Руководство компании разочаровано работой команды, создавшей Llama 4, и рассматривает возможность существенных изменений в управлении AI-подразделением. Хотя публично Meta хвалилась, что "Behemoth" превосходит технологии OpenAI, Google и Anthropic по некоторым тестам, внутри компании понимают, что модель страдает от проблем с обучением.
Релиз других версий Llama 4 был настолько катастрофичен, что бывшие сотрудники ИИ-подразделения Меты в своём резюме указывают, что не работали над Llama 4
>>1205040 Я и не говорил что она специализирована конкретно для этой задачи, я сказал что она специализирована для определенного спектра задач, скорее говоря про то что это не "мыслящий" ИИ, а инструмент который стремится найти оптимальный подход к чему-то, если известна цель, то чего нужно достичь.
—добавление в UI ChatGPT существенно увеличивает аудиторию продукта (по сравнению с какой-то тулой для IDE), но в то же время накладывает ограничения. Итого программисты, которые должны писать код, должны будут отвлекаться. Те, кто ещё не пользуются Cursor или аналогами —наверное попробуют и кому-то даже понравится. Но чтобы перетащить кор-аудиторию Cursor, нужно будет иметь модель сильно лучше, чтоб был стимул. Пока этого не заметно
—Вайбкодеров вроде и должно появиться больше, но UI выглядит достаточно сложно, тех, кто никак не связан с разработкой, скорее всего продукт пока не привлечёт: нужно чтобы было и проще, и доступнее, и работало лучше (а не я сидел разбирал баги). Через годик должно быть круто.
—поскольку это первый релиз, то нет большого количества фичей, от изображений (которые очень могли бы помочь с веб-версткой, например, как фидбек) до интеграций с разными трекерами.
А вот и ответочка на Krea Realtime: Hunyuan Image 2.0 Realtime
Хуньянь сделал\обновил свой генератор картинок.
Время генерации - миллисекунды.
Real-Time Text-to-Image: First commercial model with millisecond-level responsiveness, 15x faster than industry benchmarks — generate images as you type/speak.
Hyper-Realistic Textures: Eliminates the 'AIGC look' through Slow-Thinking Reward Functions and Structured Rewriting Model — deliver cinematic textures and lighting.
Dual-Canvas Studio: Sync ideas across canvases with AI-powered perspective/lighting coordination + multi-layer blending — unlock boundless creativity.
>>1205137 >нельзя в чат жепете с сказать: "A ну-ка открой новый физический закон!". Так и кожаному чювячку нельзя сказать "открой новый физический закон!". Ему нужно сказать: изучи 200 существующих работ и найди гипотетическую закономерность, которую мы будем практически проверять за 1е12 деняг.