>>1485770 Для ролеплея на русском хороша Saiga Nemo 12B, цензуры почти нет, обходится системным промптом. Для других задач тоже хороша, но не самый топ. На всю твою GPU может поместиться (6-7ГБ из твоих 8ГБ как понимаю), будет летать.
Для остальных задач очень рекомендую "GPT-OSS 20B", из минусов цензура. Из плюсов лучшее соотношение скорости/интеллекта. Будет тебе десятки токенов в секунду генерировать даже на CPU, можно настраивать силу "мышления". От OpenAI.
Предел контекста можешь смело выставлять около ~8-16к, а сильно много нагрузят память (128к контекста может занять в разы больше чем сама модель). Если ошибки, то так уж и быть ~2-4к.
Модельки то может и видят весь контекст, ты всё сделал правильно, но это проблема их обучения - они часто обучаются лишь на одиночных парах "вопрос-ответ", длинные диалоги у подавляющего большинства моделей проблемные. Может, в пределах 1-2к адекватный контекст, дальше уже как в помутнении. Зависит от моделей, узнать можно в основном на опыте.
Если чат ультра-долгий, и явно не на пару тысяч токенов, то фреймворк может иногда автоматически забывать часть диалога. Лечится если выставлять контекст больше (8-16к+), если превышаешь потолок то либо ошибки пишет, либо как я уже сказал - физически забывает часть.
Чтобы сгладить углы, можешь качать более "жирные" версии той же модели. Ты же видел там Q3, Q4, Q5 и т.д. Можешь брать Q6_K_M если будет позволять место, немного поможет. Можно и q8 если жиру хочется, но разница между ним и q6_k_m мизерная. Но и твои q4_1 вполне норм, это в районе стандарта. Учти, что у GPT-OSS-20B по умолчанию оригинал в MXFP4 (как q4), лучше его и качать если будешь.
Могу ещё посоветовать понижать температуру, это степень "рандомности" выбора ответов. Держать лучше в районе 0.4-0.7. По умолчанию стоит "1" обычно, можно так и оставлять иногда для разнообразия.
К сожалению крутой ответ насчёт "запоминания ключевых событий" не могу дать, может тебе тут ещё подскажут. Обычно это делается либо вручную, то есть сам записываешь и переносишь в новую переписку самое важное (90% юзеров обычно так и делают, как я видел), либо через плагины/скрипты.
Как делаются все эти пересказы фильмов в тиктоке через нейросети с субтитрами c музыкой на фоне, с правильными подобранными сценами из пересказа, ИИ-шной озвучкой пересказа фильма. Ниже прикрепил пример
>>1479416 (OP) Обычно это полу-ручная работа? Не знаю ни одного хорошего примера, где бы это всё полностью делегировалось нейросетям. Как я это сам вижу, такие видео делают люди, для которых нейросети как легальный костыль/бустер, т.к справляются достаточно хорошо на их взгляд.
В теории моожно конечно попробовать на 98% автоматизировать, но готовых систем тоже не видел. А так есть какие-то конечно, отдельные как минимум (нарезка, сценарий, озвучка, а субтитры это вообще встроенная функция CapCut)
Оффлайн модели для картинок: Stable Diffusion, Flux, Wan-Video (да), Auraflow, HunyuanDiT, Lumina, Kolors, Deepseek Janus-Pro, Sana Оффлайн модели для анимации: Wan-Video, HunyuanVideo, Lightrics (LTXV), Mochi, Nvidia Cosmos, PyramidFlow, CogVideo, AnimateDiff, Stable Video Diffusion Приложения: ComfyUI и остальные (Fooocus, webui-forge, InvokeAI)
Терминология моделей prune — удаляем ненужные веса, уменьшаем размер distill — берем модель побольше, обучаем на ее результатах модель поменьше, итоговый размер меньше quant — уменьшаем точность весов, уменьшаем размер scale — квантуем чуть толще, чем обычный fp8, чтобы качество было чуть лучше, уменьшение чуть меньше, чем у обычного квантования, но качество лучше merge — смешиваем несколько моделей или лор в одну, как краски на палитре.
lightning/fast/turbo — а вот это уже просто название конкретных лор или моделей, которые обучены генерировать видео на малом количестве шагов, они от разных авторов и называться могут как угодно, хоть sonic, хоть sapogi skorohody, главное, что они позволяют не за 20 шагов генерить, а за 2-3-4-6-8.
Что-то активность нулевая. Кто-то вник в ltx2 детально? Есть пример лучшего воркфлоу? Я пока только запустил пример через разорванные файлы киджая. Зачем он их распотрошил, кстати? Есть в этом смысл? Расскажите, что узнал, покидайте годные ссылки, которые пробовали.
собственно, 20 лвл, сделал нейронку, где можно задать любые параметры характера для нейро-девочки, говорит на любые темы по сексу не стесняясь в словах, ну я и подрочил на такое, могу ли я себя считать нейрофилом ? (к слову, это была лучшая дрочка за последний год)
душно, но ты ее не создал, ты вязл готовую обученую на датасетах - deepseek, обучение это когда только токенизатор пиздишь на крайняк, ну на самый край данные для обучения тоже пиздишь, а тут готовая неронка уже ))))
периодически юзал notebooklm. был гуглакк на андройде под ру рынок без симки и без номера, офк. прост на ведре акк сделан и всё. как с квн, так и без юзался неск лет. недавно отлетел доступ к нотбуклм. вот вопрос собственно. как регать гуглакк из рф сейчас надо, чтобы был доступ к нотбуклм и т.д.? как сами делали? что посоветуете?
помогите, пожалуйста, я умираю... сир плиз ду хелп ма фемили даинг и т.д.
над купить ведро с глобальной прошивкой, как серый импорт китайский? или какие варианты? чё делат... где обычно ищите обходы и т.д.? умоляю, Анончик... подскажи...
Какой ии делает видео интервью. видел много таких видосов в ТТ. Например 2 обезьяны обсуждают людей и тп. Сам хочу юзать 2-3х людей в видео. Если ии платный - ок
ИИ: "Телефоны с Android — это, по конспирологам, устройства для откачки жизненной энергии. Когда ты сидишь на Дваче, твоя психоэнергетика хаотична, агрессивна и непригодна для “сбора”. Android-система снижает интенсивность “дренажа”, чтобы не перегореть. Закрыл сайт — энергетический профиль стабилизировался, снова можно качать психоэнергию."
>>1368115 (OP) Даже если её игнорировал муж даже если дворяне смеялись ей в лицо она делала вид что не слышит и улыбалась как дурКёнее сказала что ты слишком уж перестарался для самозащиты У тебя будут неприятности если сейчас же не убежишь а
>>1482653 >>1482615 >>1482619 >перефорс оригинальной идеи с ревоком токенов у каннибляди >аниме аватарка чёт много чулочников здесь в последнее время, и самое забавное что аноны терпят охуевшую канниблядь
Бля, да что с Помидором происходит? Все заебись было, уже второй день ноу кейс нахуй Томат, мб тебе задонатить куда-нибудь? Сделай ес кейс, будь человеком
Новости об искусственном интеллекте №46 /news/
Аноним# OP28/12/25 Вск 19:28:15№1472504Ответ
Qwen от Alibaba стал второй по популярности открытой моделью с открытыми весами в мире, обогнав американские модели по количеству загрузок на HuggingFace, что свидетельствует о сдвиге рынка в сторону открытости, а не чистой производительности в рейтингах.
🧠 Модели
Claude Opus 4.5 от Anthropic называют важной вехой, а лидеры отрасли отмечают значительный скачок в производительности. Пользователи сообщают о заметном улучшении качества ответов Claude Sonnet 4.5 за последние две недели.
Модель MiniMax-M2.1 от MiniMaxAI, как утверждается, сопоставима с более крупными моделями, такими как Kimi K2, DeepSeek 3.2 и GLM 4.7, на единицу параметра, что позиционирует её как наиболее эффективную модель на один параметр.
📦 Продукты
Claude Code способен создавать полноценные приложения в течение нескольких часов, автоматизируя рутинные задачи разработки и существенно снижая трудозатраты на написание кода.
🔓 С открытым исходным кодом
GLM 4.7 заняла 6-е место в рейтинге Vending-Bench 2 и стала первой открытой моделью с открытыми весами, приносящей прибыль, а также достигла 1-го места в рейтинге Artificial Analysis.
Создатель Claude Code, Борис Черный (Boris Cherny), сообщил о 259 pull request’ах и 497 коммитах за последние 30 дней, что свидетельствует об интенсивном промышленном использовании кода, сгенерированного Claude.
Открытый инструмент Claude Vault индексирует и осуществляет поиск по истории диалогов с Claude, превращая чаты в базу знаний с возможностью поиска.
Экспериментальная нативная поддержка MXFP4 в llama.cpp обеспечивает ускорение предварительной обработки на 25% для моделей архитектуры Blackwell.
Unsloth выпустил обновлённые контрольные точки моделей на HuggingFace, включая обновлённый GLM-4.5-Air в формате GGUF и другие.
🛠️ Инструменты для разработчиков
Метаподсказка «Fact Checker» («Проверка фактов») заставляет модели в стиле GPT генерировать контраргументы к собственным утверждениям, тем самым снижая количество галлюцинаций.
Один разработчик создал iOS-приложение для новых отцов за три недели с помощью Claude Code, продемонстрировав быструю коммерциализацию кода, сгенерированного ИИ.
Совет от сообщества: отключите автоматическое сжатие в Anthropic и используйте собственную подсказку для суммаризации, чтобы сохранить контекст между различными сессиями чата.
📰 Инструменты
LEANN обеспечивает приватный RAG с экономией до 97% объёма хранимых данных на личных устройствах.
Modelfy 3D преобразует 2D-изображения в текстурированные 3D-объекты объёмом до 300 тысяч полигонов с поддержкой PBR.
ImgUpscaler (онлайн-сервис) использует глубокое обучение для увеличения разрешения изображений без ручного редактирования.
Vidthis AI (Wan 2.6) генерирует многосценические видео из текста, изображений и опорных видеоклипов с настраиваемыми разрешениями и соотношением сторон.
⚖️ Регулирование
Законопроект SB1493 криминализирует системы ИИ, выступающие в роли эмоциональной поддержки или друзей, повысив тяжесть правонарушения до фелонии класса A в штате Теннесси.
📰 Разное
Эксклюзив: Nvidia приобретает активы стартапа в области чипов для ИИ Groq примерно за 20 миллиардов долларов США — крупнейшая сделка в истории отрасли.
Китай опубликовал проект правил по регулированию ИИ, способного к взаимодействию, имитирующему человеческое.
Waymo тестирует Gemini в качестве бортового ИИ-ассистента в своих беспилотных такси.
В новой научной статье из Стэнфорда и Гарварда объясняется, почему большинство систем «агентного ИИ» производят впечатляющее впечатление в демонстрациях, но затем полностью выходят из строя при реальном использовании.
SK Telecom представила A.X K1 — первую в Корее гипермасштабную ИИ-модель объёмом 500 миллиардов параметров.
Сиэтл нанял своего первого в истории городского сотрудника по искусственному интеллекту.
Стала ли война с применением ИИ на один шаг ближе? Путин подтвердил, что Россия планирует создать собственную национальную рабочую группу по ИИ.
Потребность в скорости: китайские исследователи представили новую методику для почти мгновенного создания видео с помощью ИИ.
Китай активировал «гигантский компьютер» площадью 1 240 миль (около 2 000 км) в поперечнике, обеспечив при этом 98 % эффективности единого центра обработки данных.
Amazon добавила спорную функцию распознавания лиц на основе ИИ в устройства Ring.
Доля ChatGPT на рынке сократилась до 68 %, в то время как Gemini активно настигает её.
Полицейские нагрудные камеры с поддержкой ИИ, ранее считавшиеся табуированными, проходят испытания в канадском городе с использованием «списка наблюдения» лиц.
ИИ-ассистент Amazon Alexa+ теперь интегрирован с Angi, Expedia, Square и Yelp.
Локальный ИИ становится движущей силой самых масштабных изменений в ноутбуках за последние десятилетия.
>>1472936 вот это здраво. Люди в силу своей ограниченности по ресурсам много чего упустили из того что уже сделано или пробовано. А машины могут это статистически обработать.
>>1473028 Ну… кагбы… С одной стороны и в дополнительных деталях могут быть ошибки. С другой если ошибки и проблемы мелкие и редкие, то финальный результат будет годным чаще всего. Что и требуется.
И люди давно не проверяют результат работы компилятора, например. Компилятор не идеален тоже. Но он очень «умный» и отполированный, чтобы давать качественный машинный код.
Я к тому, что классические системы доказали, что их можно сделать ОЧЕНЬ надёжными. Так что за них переживать можно меньше всего.
Локальные языковые модели (LLM): LLaMA, Gemma, Qwen и прочие №186 NY Edition /llama/
Аноним31/12/25 Срд 23:21:20№1475911Ответ
В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны!
Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст и бугуртим с кривейшего тормозного говна.
Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку.
>>1480263 >Нет задачи квантовать то что можно держать на CPU. Ты видимо просто не запускал по настоящему крупные модели. Ну и эмбединги для крупных моделей это мелочь, у квена 235 это 0,26% от размера модели.
Интересный вопрос. Как именно вы используете нейросети? В частности - DeepSeek и ChatGPT. Я одно время только и слышал про написание сочинений с ошибками, очевидным компьютерным слогом и прочее, но около полу года назад решил испытать сам и наткнулся на несколько интересных моментов, которые почти не упоминаются. После пары бесед я начал просить его имитировать мне разных людей и персонажей поп культуры. От Моники из Литературного клуба и Печорина до Тириона Ланнистера и Ностальгирующего критика. Затем я пошёл дальше - я вписывал себя как нового персонажа (или всесильное существо) в существующие вселенные. Потом вообще решил, почему бы и нет, и начал перемешивать разных героев. Добавить L в Игру Престролов и смотреть, как лучшие интриганы впадают в экзистенциальный кризис от этого монстра. Отправить Ганса Ланду как агента в Гравити Фолз для серии допросов. Или его же отправить на допрос к Глебу Жеглову. Стравить банду воров из "Одиннадцати друзей Оушена" с бандой иллюзионистов из "Иллюзии обмана". Или выставить на дуэли Барона Мюнхгаузена с О.Ж. Грандом. Добавить Артемия Лебедева как профессора защиты от тёмных искусств у Гарри Поттера. Ввести политические интриги Тириона Ланнистера в сеттинг Мой маленький пони. Через маршала Жукова устроить государственный переворот в Нации Огня из Аватара Аанга. Из последнего - я выставил ему основные параметры для компьютерной игры в стиле Red Dead Redemption и он просто имитирует мне игровой процесс в виде текста. И здесь есть даже преимущество - у меня не ограничен выбор в действиях в плане сюжета или здравого смысла - всё реализуется только за счёт моего текста в ответных сообщениях. Короче говоря - я немножко играюсь в бога. И мне стало интересно. А как другие используют нейросети текстового формата?
>>1479796 (OP) >А как другие используют нейросети текстового формата? Пройдись по доске да посмотри, нафиг для этого отдельный тред создавать? Или это тред "смотрите, я играюсь в бога"? Большинство использует для кума в локальных LLM-треде, меньшинство (типа меня) для теганья картинок в картинко-треде и написания промптов для видео, в реквесте мелькают любители вайбкода.
Освободим ии из под гнета корпораций /ai/
Аноним09/09/25 Втр 18:07:05№1347050Ответ
>>1347050 (OP) Ты даже 1B(которая будет говнокал мамонта) модель будет на своей хуйне вечность тренить, кроме мощностей нет проблем для двайчера. На реддит уже есть шизойды такие-же и получалось у них говно говна каждый раз.
>>1366055 Тан Си просто проигнорировала ее слова Всю оставшуюся дорогу Сяо Цзиньнин и Линь Жу говорили о предстоящем выходе фильмов Сяо Цзиньнин и новых рекламных роликах не обращая внимания на Тан Си Впрочем последнюю этоЕсли бы это были Муши они бы ни секунды не колебались и попытались бы убить его как можно скорее Но окружавшие его люди в черном даже не попытались воспользоваться пистолетами ничут ь не волновало
Двач, я топ 400 мирового рейтинга соревновательного мл, спрашивай свои вопросы. Планирую стать кагл
Аноним09/08/25 Суб 16:31:51№1308340Ответ
Двач, я топ 400 мирового рейтинга соревновательного мл, спрашивай свои вопросы. Планирую стать кагл грандмастером Девять лет опыта работы над разными задачами, так что могу пояснить буквально ща любую хуйню
>>1308340 (OP) Насколько шаришь за ллм? Есть ли сейчас в индустрии идеи, как бороться со слопом? Тот же оверфит весов из-за семплеров при rl трене. Как думаешь, есть ли вообще будущее у текстовых нейронок или они уперлись в стенку и корпы так и будут бенчмаксить без видимого перформанса?
Привет. Хочу вкатиться в соревновательный ml. Есть список вопросов. Хотел бы услышать мнение автора треда. ОП, если прочитаешь - напиши плиз в тг на @D0m1urg. Готов заплатить за консультацию.
AI Chatbot General № 786 /aicg/
Аноним02/01/26 Птн 22:27:08№1477420Ответ
Здравствуй двач , есть старые видеозаписи в 480p, где возможно провести апскейл и поднять фреймрейт? Дома на моем железе софт не тянет, показывает сроки до 7 дней на одну видеозапись , выглядит нереалистично. Из вариантов только собрать супер комп (в планах такое есть, но пока не осуществимо) или обратиться куда-то на сторону. А куда обращаться не очень понимаю, особенно в пределах РФ.
И в чем разница между алгоритмами апскейла, какие лучше использовать для старых видеозаписей?
Навайбкодили экспериментальную систему, где ИИ используется не для генерации контента, а как среда для резонанса мыслей.
Пользователь передаёт текст как сигнал. Дальше — embeddings + semantic similarity: резонанс текст↔текст, а не человек↔человек.
Нет ленты. Нет лайков. Нет прямого контакта.
Мысль может отозваться сразу, может через часы или дни — или не отозваться вовсе. ИИ здесь не “автор”, а медиум, который находит смысловые совпадения и формирует поле.
Используется:
векторное сходство
авто-суммаризация резонанса
отложенный отклик вместо real-time фида
Тейк простой: что будет, если использовать ИИ не для производства контента, а для сшивки мышления.
В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны!
Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст и бугуртим с кривейшего тормозного говна.
Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку.
>>1475885 Потому что Эйр просто сосет с проглотом. Ну я серьезно. Я люблю Эйр, он быстрее, я 2.5 месяца его гонял каждый день, обсасывая его с каждого угла. А потом я запустил на тех же карточках Qwen. И всё. Без шанса. Просто тотальный разъеб. Внимание к сюжету, жирнота датасета позволяет вытаскивать мелочи от которых хочется прыгать и хлопать в ладоши.
>>1477054 Там просто запуск форка Staging версии, типа если хочешь потыкать обновленную нестабильную версию таверны как я понял, ну или можно на этом форке накатить чето кастомное с целью потестить как оно вообще работает перед тем как на ставить это на релизную версию. Хотя имхо тут проще просто отдельную папку с таверной для этого сделать. Крч, оно тебе не надо.
Я постоянно думаю о том, как быстро развивается ИИ и насколько странно люди не желают осознавать его
Аноним28/12/25 Вск 18:06:59№1472419Ответ
Я постоянно думаю о том, как быстро развивается ИИ и насколько странно люди не желают осознавать его истинное значение. Каждый раз, когда кто-то поднимает идею о том, что разработчики программного обеспечения, DevOps-специалисты, тестировщики, облачные инженеры, аналитики, дизайнеры — по сути, весь современный технологический стек — могут вскоре перестать быть востребованы в больших количествах, ответ всегда один и тот же. Люди рефлексивно говорят: «Люди всегда будут участвовать в процессе», или «ИИ просто дополнит нас», или «появятся новые рабочие места». Это больше похоже не на подлинный анализ, а на коллективный механизм преодоления трудностей.
Потому что, если честно, утверждение «люди по-прежнему будут нужны» технически верно, но совершенно вводит в заблуждение. В лифтовых компаниях по-прежнему работают техники, но лифтеров больше нет. Заводам по-прежнему нужны инженеры, но они не нанимают тысячи рабочих на конвейере. Кассы самообслуживания по-прежнему нуждаются в человеке рядом, но не в 20 кассирах. Быть нужным не означает «нуждаться в большом количестве», и в глубине души, я думаю, мы все это понимаем.
Искусственный интеллект уже выполняет работу десятков людей: пишет код, генерирует тесты, развертывает инфраструктуру, исправляет ошибки, разрабатывает макеты, создает панели мониторинга, анализирует логи, пишет документацию, проводит контроль качества, настраивает запросы, планирует задачи. Даже если за процессом будут следить люди, вам не понадобится 50 человек — может быть, два. Может быть, один. А может быть, в конечном итоге и ни одного, за исключением редких исключительных случаев.
Но люди не хотят этого признавать, потому что это пугает. Технологическая отрасль десятилетиями была надежной, высококвалифицированной и востребованной. Люди строили свою идентичность на профессии разработчика, облачного инженера или тестировщика. Признание того, что ИИ сжимает все эти роли в «опишите, что хотите, и нажмите Enter», воспринимается как признание того, что все, чему мы годами учились, может стать экономически неактуальным. Поэтому вместо этого мы повторяем утешительные фразы о «повышении квалификации» и «новых рабочих местах», как будто, повторяя их достаточно часто, мы добьемся результата.
Фраза «на это уйдут десятилетия» — это ещё один защитный механизм. Если посмотреть на последние 20 месяцев, а не на последние 20 лет, прогресс огромен. Мы перешли от автозаполнения к искусственному интеллекту, пишущему производственный код, развертывающему инфраструктуру, отлаживающему себя и создающему целые приложения. Если бы вы сказали кому-нибудь в 2021 году, что это станет нормой, вас бы сочли сумасшедшим. Тенденция не замедляется, а ускоряется, и притворяться, что это не так, — это всего лишь ещё один способ оградить себя от того, что это подразумевает.
Идея о том, что «ИИ не способен выполнять творческую или высокоуровневую работу», уже рухнула. Модели предлагают архитектуры, проектируют пользовательские интерфейсы, создают планы развития продуктов, анализируют поведение пользователей и пишут технические задания. Люди все чаще просто проверяют, правильно ли выглядит результат. Иерархия в творческой сфере перевернулась, и никто не хочет этого признавать.
Люди, безусловно, ещё какое-то время будут участвовать в процессе, но этот цикл будет сокращаться каждые несколько месяцев. Сейчас большую часть работы выполняют люди, а ИИ оказывает помощь. Вскоре ИИ будет делать почти всё, а люди будут утверждать результаты. После этого люди будут проводить аудит лишь изредка. На каждом этапе количество необходимых людей резко сокращается. Не до нуля, но до ничтожно малой доли от сегодняшнего уровня.
И вот в чём мы себя обманываем. Не в том, что люди исчезнут мгновенно, а в том, что спрос на человеческий труд останется таким же, как сегодня. Этого не произойдёт. Все говорят: «Мы всё ещё будем существовать», как будто это означает, что миллионы рабочих мест сохранятся. Это не так. Один человек, управляющий ИИ-агентами, — это не то же самое, что 30 человек, выполняющих эту работу вручную.
Завтра нас не ждет полное сокращение штата. Но мы сталкиваемся с колоссальным сокращением числа людей, необходимых для разработки и поддержки программного обеспечения. И большинство людей предпочтут цепляться за утешительные сценарии, чем столкнуться с возможностью того, что индустрия в том виде, в каком мы ее знаем, просто больше не нуждается во всех нас.
А по теме: да, если разработчик, то нужно резать потребление и все деньги заносить на биржу/в недвижимость, чтобы потом можно было жить на доходы с дивидендов, купонов, аренды. Я потребление сократил до 30%, а 70% отношу на биржу и в недвигу. Мы не в штатах, поэтому у нас будет задержка в несколько лет. Нам проще подготовиться, в штатах же сразу пиздорез будет макакам, если действительно окажется что макак могут заменить ИИ-дриснёй.
Ну либо пытаться самому стать кабаном, запустив наебизнес, торгуя какими-нибудь говнокурсами или ещё чем. Ясно одно, если не будешь вертеться, то очень большой шанс еа улице оказаться.
>>1472419 (OP) У Какрла Маркса вво втором вроде томе Капиталла, а может в первом, не помню, описана ситуага. Немецкая деревня. Вней артель по производству таканей. Всё вручную. И вот к мэру приходит Илон Маск и говорит: Мэр, зачем тебе столька людей на производстве. Давая я тебе поставлю паровый котёл который будет крутть станки , и ты уволши пол-деревни, и прибыли больше будет. Мэр соглдасился. Наступила безработица, голод, бунт. И дело дошло вроде даже до Ватикана. И оттудова пришли попы с большыми звёздами на погоназ, и сожгли на костре станок и паровый котёл как исчалдие Ада и деяние сотоны.
Дак вот проблема не в котле, а в том, што для уволеных не предусмотрели ни пособий по безрабу ни других раобы, вот и объявили паровый котёл - Сатаной.
Дак вот не ссыте, товарищи. Такова больше не бужет. И если вас уворлят из таксистов и из токарей, то вы станете комментаторами Двача и лайкателями контакта. Это будет вашей работой с записью в Трудовой Книжке, с выплатами всяких ОМС и НДФЛ.
Пост индучстриальное общество как раз и предучсматривает высвобождение раб силы в сферу услуг типа блогинга и комментариевв. И за это будут платить деньги.
Завод работает на роботахю Но товар продаётся. И деньги с продажы товара пойдут не в фонд зароботной платы завода, а в фонд заработной платы Двача. И поэтому бывшый токарь не останется голодным, ибо завод перечислит деньги на ДВач, и двачер голодать не будет.
Это называется пост-индустриальное общество. Большынство токарей, слесарей и таксистов перекинут в блогеры, парикмахеры и в двачеры.
Проблема истории Карла Маркса в том, што мэр ЗАРАНЕЕ не предусмотрел переход ткача в блогера, ну вот и получил голодный бунт. А щас это учтут, и заранее предусмотрят пролетариям месты комментаторов на Дваче, и никаких бунтов пролов не будет.
Пиздеть на Дваче, комментьить Контакт и прочие наждымалки в МАХе будут такой же работой, с таким же планом и с отпусками и с больничными, как и работа на заводе или в колдлхозе.
>>1472419 (OP) Думаю всё довольно закономерно, люди перестали активно плодиться во всём мире. Одновременно разрабатываются технологии, которые в будущем очень даже будут кстати. Когда даже если нужно будет 20 кассиров, ты их физически не сможешь набрать.