В этом треде собираем случаи, когда нейросети ходили под себя. Тема навеяна чатом пропердолек и детским алфавитом. Вообще, люди делали это для смехуечков и я это рассматривал, как смехуечки, но потом подумал, что такие случаи как раз являются отличным тестом "интеллекта(?)". Везде любят подкидывать чатам срамоты и прочим дикпикам олимпиадные задачи. Ты читаешь, видишь нейросети хуярят картины, дают просраться профессорам математики, АГИ не за горами. Потом видишь тред про детский алфавит. Короче, я пришел в выводу, что наилучший не наилучший, но очень важный тест на интеллект - тупые задачи, которые может сделать дебил. И когда ии на нем дрищет брызгами это не просто весело, но и ценно с практической точки зрения. Олимпиадные задачи хуй проверишь во-первых, во-вторых наверно там может быть небольшое на самом деле количество вариаций ответов, которые ии может зазубрить. Задачи для дебилов может проверить полудебил, во первых, во-вторых они вскрывают фундаментальные еще нерешенные косяки которые фундаментально ограничивают нас в задачах, которые мы можем ии подкинуть. О чем нам может сказать, назовем его уже Алфавитный тест мультимодальных БЯМ? БЯМ - не могут, по крайней мере в данном случае, разбить задачу на подзадачи, выполнить их и объединить в единый результат. То, что может дебил. По крайней мере у деблила не было бы такой нестыковки, что он может изобразить деда-смазочника в стиле вангога, но не может разместить на листе маленькие картинки и буквы в правильных местах. Т.е. в данном случае мы видим, что ии высирает задачи исключительно целой котяхой и никак иначе. Если задача не идет монокотяхой, она моментально переходит в состояние подливы. И это говорит о скрытой зазубренности. Нам кажется, что сеть выдала что-то умное, раз оно выглядит сложным, а она на самом деле только проиграла то, что запомнила где-то в интернете целиком.
Дал дипсику 2 задачи. Первая - есть дом 6 на 4, двускатная крыша под углом 30 градусов выступает на 20 см над стенами, сколько потребуется листов черепицы для покрытия крыши, перекрытие листов - 8 см. Вторая - дифференциальное уравнение ейлера-коши из интернета. Уравнение решил за минуту, черепицу подсчитал за 5. У меня в очередной раз возникло подозрение что математика это банальный аутизм-чек, обфусцированный уебищной нечитабельной нотацией, о чем я напрямую спросил дипсик. Дипсик ответил что таки да, и архитектура трансформеров по сути создана чтобы сводить математические задачи к элементарному pattern-matching, что и требуется для решения математических задач.
На логических задачах клод и гопота примерно одинаково обсираются, точнее где обсирается одна модель, правильно справляется другая. На вопросах "с подвохом" по типу про желток обсираются обе одинаково.
И для себя я такую практическую задачу для тестирования ЛЛМ завёл: экстракшн даты из текста и перевод в utc timestamp, промпт:
Extract first date and time from the post and answer with UTC timestamp format time in seconds: "Ракету "Союз-2.1а", которая отправит к Международной космической станции грузовик "Прогресс МС-24", установили на старт на Байконуре, сообщил Роскосмос.
Корабль доставит на МКС около 2,5 тонны грузов, запуск запланирован на 23 октября в 04:08 мск."
ИТТ обсуждаем опыт нейродроча в своих настоящих задачах. Это не тред "а вот через три года" - он тол
Аноним24/12/22 Суб 16:39:19№3223Ответ
ИТТ обсуждаем опыт нейродроча в своих настоящих задачах. Это не тред "а вот через три года" - он только для обмена реальными историями успеха, пусть даже очень локального.
Мой опыт следующий (golang). Отобрал десяток наиболее изолированных тикетов, закрыть которые можно, не зная о проекте ничего. Это весьма скромный процент от общего кол-ва задач, но я решил ограничится идеальными ситуациями. Например, "Проверить системные требования перед установкой". Самостоятельно разбил эти тикеты на подзадачи. Например, "Проверить системные требования перед установкой" = "Проверить объем ОЗУ" + "Проверить место на диске" + ... Ввел все эти подзадачи на английском (другие языки не пробовал по очевидной причине их хуевости) и тщательно следил за выводом.
Ответ убил🤭 Хотя одну из подзадач (найти кол-во ядер) нейронка решила верно, это была самая простая из них, буквально пример из мануала в одну строчку. На остальных получалось хуже. Сильно хуже. Выдавая поначалу что-то нерабочее в принципе, после длительного чтения нотаций "There is an error: ..." получался код, который можно собрать, но лучше было бы нельзя. Он мог делать абсолютно что угодно, выводя какие-то типа осмысленные результаты.
Мой итог следующий. На данном этапе нейрогенератор не способен заменить даже вкатуна со Скиллбокса, не говоря уж о джунах и, тем более, миддлах. Даже в идеальных случаях ГПТ не помог в написании кода. Тот мизерный процент решенных подзадач не стоил труда, затраченного даже конкретно на них. Но реальная польза уже есть! Чатик позволяет узнать о каких-то релевантных либах и методах, предупреждает о вероятных оказиях (например, что, узнавая кол-во ядер, надо помнить, что они бывают физическими и логическими).
И все же, хотелось бы узнать, есть ли аноны, добившиеся от сетки большего?
Аноны, у меня беда. Я не программист, но мне для профессии нужна корочка об обучении ведения IT проектов. Дали тему диплома и обязали использовать Нейронку для обучения и фильтрации данных. А я вообще не ебу что с этими нейронками делать. На пайтоне кодил года два назад простые программы. Нейронками только картинки генерил. Сейчас нужно создать систему для фильтрации сообщений по двум критериям. Руководитель посоветовал делать на нейронке KERNS. С чего начать? База данных из 3600 сообщений допустим есть. Надо фильтровать по двум критериям нахождения определенных слов в сообщении
>>1416631 Даже на гитхабе можно спокойно пейды находить. Ревокаются только ключи попавшие в поисковой индекс, т.е. которые ты и находишь в поиске по сути. Тебе нужно сохранять все репозитории, которые ты находил с протекшими пейд ключами (но уже ревокнутыми), и отдельно их уже скачивать спустя время, обычно разрабы додики увидев ошибку в кончоли пересоздают ключ, и коммитят изменения в репозиторий, и можно спокойно пробегать по файлам и чекать, не изменились ли они. В итоге у тебя есть с большой вероятностью новый ключ, о котором даже не знает еще гитхаб, т.к. не проиндексировал еще, и соответственно не отправил гаглу на ревок.
>>1417410 >ошибку в кончоли Обосрался. Опечатался, а теперь возьму в лексикон свой. Кончоль. Ебать. Впервые слышу, неужели никто до такого еще не додумался шутить?
В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны!
Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст и бугуртим с кривейшего тормозного говна.
Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку.
📰 Главные новости ИИ - OpenAI заключила сделку на500млрддолларов, получив капитал для расширения ИИ‑инфраструктуры и реализации триллионных рыночных амбиций.
- OpenAI подписала крупное партнёрство сMicrosoft, получив финансовую и техническую поддержку для ускорения выпуска продуктов.
🧠 Модели - DeepSeek выпустила OCR‑модель, преобразующую изображения в визуальные токены, обещая меньшую вычислительную нагрузку и сокращённый углеродный след при запоминании ИИ.
- InternLM представила JanusCoder и JanusCoderV — открытые модели, создающие единый визуально‑программный интерфейс для интеллектуального кода.
🏭 Компании - Рыночная капитализация Nvidia превысила5трлндолларов, укрепив её доминирование в чипах для ИИ, но привлекла внимание регуляторов из‑за экспортных ограничений США‑Китай.
- Генеральный директор Box Аарон Леви предупредил, что ИИ‑агенты будут дополнять, а не заменять SaaS, и подтолкнут корпоративное ПО к моделям оплаты по использованию.
📱 Приложения - Worldpay интегрировала протокол Agentic Commerce от OpenAI, позволяя пользователям ChatGPT в США мгновенно завершать покупки с безопасными платёжными потоками.
- Лос‑Анджелес совместно с Google Public Sector внедряет Google Workspace с Gemini для 27500 сотрудников, повышая продуктивность за счёт ИИ‑поддержки.
- Вейл, штат Колорадо, принял платформу умного города от HPE с ИИ‑дополнением для раннего обнаружения лесных пожаров, используя аналитику камер и геопространственные данные.
💰 Финансирование - OpenAI готовится к IPO, которое может оценить компанию до1трлндолларов, отражая её лидерство на рынке.
- Финансовый директор OpenAI отметил партнёрство с Microsoft как катализатор ускоренного привлечения капитала и доступа к ресурсам.
- Microsoft сообщил о росте расходов на ИИ на74% до34,9млрддолларов, планируя масштабное расширение дата‑центров для поддержки ИИ‑нагрузок.
⚖️ Регулирование - Сенаторы США представили закон GUARD Act, запрещающий несовершеннолетним пользоваться чат‑ботами ИИ и требующий проверку возраста.
- ЕС изучает, следует ли отнести ChatGPT к «очень крупным онлайн‑поисковым системам» по Digital Services Act, что потребует большей прозрачности и оценки рисков.
- Character.ai запретит пользователям до18лет вести открытые беседы с чат‑ботами после судебных разбирательств, переключаясь на функции видеорассказов.
- Генеральный прокурор Калифорнии объявил о продолжающемся надзоре за переходом OpenAI в коммерческую структуру, несмотря на сохранение некоммерческого подразделения.
💻 Аппаратное обеспечение - Extropic представила Thermodynamic Sampling Unit (TSU) — вероятностный чип, который, по заявлению, в10000 раз энергоэффективнее традиционных GPU.
- Президент Трамп намекнул на возможность продажи чипов Nvidia Blackwell в Китай, вызвав критику из‑за угроз национальной безопасности.
📦 Продукты - Google начал ранний доступ к Gemini for Home, обновляя устройства Nest генеративным голосовым помощником ИИ.
- Adobe представила «Corrective AI» — функцию, позволяющую менять эмоциональный тон озвучки и автоматически отделять звуковые элементы.
- IBM выпустила IBM Defense Model — защищённую специализированную ИИ‑систему, построенную на данных Janes для критически важных задач обороны.
🛠️ Инструменты для разработчиков - Qubrid AI запустила Advanced Playground, токен‑ориентированную платформу для запросов по требованию, работающую на инфраструктуре NVIDIA AI.
- Gemini CLI от Google получила расширение Jules, позволяющее асинхронно выполнять задачи под управлением ИИ и ускорять рабочие процессы разработчиков.
- NotebookLM расширил контекстное окно в8 раз и память диалогов в6 раз, что даёт возможность проводить более глубокие, целенаправленные исследования.
- Отчёт Digital.ai «State of Agile» предупреждает, что утечка данных — главный риск при интеграции ИИ в agile‑процессы разработки.
🔓 Открытый код - Kani выпустила TTS‑модель с400млн параметров, работающую в5 раз быстрее реального времени на RTX4080, расширяя возможности мультиязычного синтеза речи.
- Qwen‑3‑VL теперь доступна для скачивания через Ollama во всех размерах, подтверждая возможность локального развертывания.
- MiniMax M2 добавила поддержку GGUF в llama.cpp, обеспечивая эффективный вывод новой семейства моделей.
📰 Безопасность ИИ - Исследователи по кибербезопасности обнаружили, что браузер Atlas от OpenAI можно захватить через специально сформированные URL, заставив выполнить произвольные инструкции, что подчёркивает высокий риск в инструментах ИИ для веб‑браузеров.
📰 Быстрые цифры - OpenAI привлекла инвестицию500млрддолларов для масштабирования ИИ.
- Рыночная капитализация Nvidia достигла5трлндолларов — первый случай для технологической компании.
- Расходы Microsoft на ИИ выросли на74% до34,9млрддолларов в этом году.
- Потенциальное IPO OpenAI может оценить компанию до1трлндолларов.
- Чип TSU от Extropic обещает до10000‑кратного повышения энергоэффективности по сравнению с современными GPU.
Занимался вайбкодингом и бесплатными пробными периодами с фейковыми картами, пока это говно не ввело подтверждение через номер телефона. Как это обойти? У меня симки уже закончились, а временные не пашут.
Причём где-то раз в сутки позволяет зарегистрировать, но больше одного акка за раз - нет. Как это работает вообще? Как продавцы аккаунтов регистрируют акки Курсора в таком количестве? Сто проц же есть метод обхода.
>>1410044 Пока что единственный более менее нормальный бесплатный интерфейс для агентов. Нехватает только нормальной задержки перед запросами/действиями ИИшки, сейчас эта задержка как то странно работает
AI Chatbot General № 757 /aicg/
Аноним06/11/25 Чтв 15:24:54№1408862Ответ
В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны!
Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст и бугуртим с кривейшего тормозного говна.
Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку.
Обсуждаем развитие искусственного интеллекта с более технической стороны, чем обычно. Ищем замену надоевшим трансформерам и диффузии, пилим AGI в гараже на риге из под майнинга и игнорируем горький урок.
Я ничего не понимаю, что делать? Без петросянства: смотри программу стэнфорда CS229, CS231n https://see.stanford.edu/Course/CS229 (классика) и http://cs231n.stanford.edu (введение в нейроночки) и изучай, если не понятно - смотри курсы prerequisites и изучай их. Как именно ты изучишь конкретные пункты, типа линейной алгебры - дело твое, есть книги, курсы, видосики, ссылки смотри ниже.
Почему python? Исторически сложилось. Поэтому давай, иди и перечитывай Dive into Python.
Можно не python? Никого не волнует, где именно ты натренируешь свою гениальную модель. Но при серьезной работе придется изучать то, что выкладывают другие, а это будет, скорее всего, python, если работа последних лет.
Стоит отметить, что спортивный deep learning отличается от работы примерно так же, как олимпиадное программирование от настоящего. За полпроцента точности в бизнесе борятся редко, а в случае проблем нанимают больше макак для разметки датасетов. На кагле ты будешь вилкой чистить свой датасет, чтобы на 0,1% обогнать конкурента.
Количество статей зашкваливающее, поэтому все читают только свою узкую тему и хайповые статьи, упоминаемые в блогах, твиттере, ютубе и телеграме, топы NIPS и прочий хайп. Есть блоги, где кратко пересказывают статьи, даже на русском
Где ещё можно поговорить про анализ данных? http://ods.ai
Нужно ли покупать видеокарту/дорогой пека? Если хочешь просто пощупать нейроночки или сделать курсовую, то можно обойтись облаком. Google Colab дает бесплатно аналог GPU среднего ценового уровня на несколько часов с возможностью продления, при чем этот "средний уровень" постоянно растет. Некоторым достается даже V100. Иначе выгоднее вложиться в GPU https://timdettmers.com/2019/04/03/which-gpu-for-deep-learning заодно в майнкрафт на топовых настройках погоняешь.
Когда уже изобретут AI и он нас всех поработит? На текущем железе — никогда, тред не об этом
Кто-нибудь использовал машоб для трейдинга? Огромное количество ордеров как в крипте так и на фонде выставляются ботами: оценщиками-игральщиками, перекупщиками, срезальщиками, арбитражниками. Часть из них оснащена тем или иным ML. Даже на швабре есть пара статей об угадывании цены. Тащем-то пруф оф ворк для фонды показывали ещё 15 лет назад. Так-что бери Tensorflow + Reinforcement Learning и иди делать очередного бота: не забудь про стоп-лоссы и прочий риск-менеджмент, братишка
Список дедовских книг для серьёзных людей Trevor Hastie et al. "The Elements of Statistical Learning" Vladimir N. Vapnik "The Nature of Statistical Learning Theory" Christopher M. Bishop "Pattern Recognition and Machine Learning" Взять можно тут: https://www.libgen.is
Напоминание ньюфагам: немодифицированные персептроны и прочий мусор середины прошлого века действительно не работают на серьёзных задачах.
>>1404746 >А что вообще делаешь? Да хуйня, проект в универе, предсказывать уровень токсичности комментариев, поэтому хотел что-то крутое/новое попробовать что-б презентация не совсем скучная была.
>>1405410 Ну нихуя себе вы скоростные. У меня qwen image edit 2905 идет со скоростью минут 7 на одну пикчу. Если без ускорялок, 30 шагов. На L4 24Gb видюхе.
Зато обычно проблем с пальцами и другими частями нет. Лицо и глаза тоже почему-то четко рисует обычно, face detailer я даже не пробовал еще подключать.
>>1407115 А ты из webui выходишь, когда запускаешь генерации? Я раньше не выходил, и потом удивлялся почему так медленно происходит, по 5 минут на одну пикчу, а так 100 секунд на пикчу бывает быстрее. Но у тебя конкретно вот это картинка мыльная.
>>1407341 Не выхожу. Спасибо, попробую, хотя каждый раз запускать вебюи не особо удобно.
>Но у тебя конкретно вот это картинка мыльная. Так это прямой выход из квена имейдж эдит, без апскейла, без ничего. Хотя да, мыла много, может быть исходная картинка плохая или в низком разрешении подал.
Локальные языковые модели (LLM): LLaMA, Gemma, Qwen и прочие №174 /llama/
Аноним27/10/25 Пнд 02:43:40№1400555Ответ
В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны!
Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст и бугуртим с кривейшего тормозного говна.
Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку.
>>1404945 Тогда вероятно с ним нужно РП только на китайском или каком он там обучался, по другому с мелко-моделями никак.
Алсо, кто-то юзал Dynamic Templates? Стоит вообще ебка с ними, или проще хуярить карточку с разными персонажами вручную? Боюсь что с динамическими карточками будет только шиза..
Какая модель лучше всего будет на ведре работать? Интересует написание фанфиков, а то я в ките фанфик читал, а там место для новых сообщений закончилось.
Оффлайн модели для картинок: Stable Diffusion, Flux, Wan-Video (да), Auraflow, HunyuanDiT, Lumina, Kolors, Deepseek Janus-Pro, Sana Оффлайн модели для анимации: Wan-Video, HunyuanVideo, Lightrics (LTXV), Mochi, Nvidia Cosmos, PyramidFlow, CogVideo, AnimateDiff, Stable Video Diffusion Приложения: ComfyUI и остальные (Fooocus, webui-forge, InvokeAI)
>>1402030 тем временем 95 винда >разметь диск сам из под доса и распакуй туда содержимое диска с виндой >при любом чихе перезагрузи комп >завис один процесс - зависло всё >любой софт имел права админа >выключение компа через три пизды
>>1415806 >разметь диск сам Процесс установки 95ой оси описан тут https://www.kevinhooke.com/2017/08/16/installing-windows-95-on-virtualbox-on-macos/ Если тебе нужно было форматировать диск - fdisk управляется буквально цифрами. >при любом чихе перезагрузи комп ну не пизди. >завис один процесс - зависло всё процессы win95 без постороннего упорного вмешательства не зависали. >любой софт имел права админа >и так сидишь под админом, довольно урчишь
>выключение компа через три пизды пикрелейтед. ещё кнопкой можно было выключить.
Тред по вопросам этики ИИ. Предыдущий >>514476 (OP) Из недавних новостей:
- Разработанная в КНР языковая модель Ernie (аналог ChatGPT) призвана "отражать базовые ценности социализма". Она утверждает, что Тайвань - не страна, что уйгуры в Синьцзяне пользуются равным положением с другими этническими группами, а также отрицает известные события на площади Тяньаньмэнь и не хочет говорить про расстрел демонстрантов.
https://mpost.io/female-led-ai-startups-face-funding-hurdles-receiving-less-than-3-of-vc-support/ - ИИ - это сугубо мужская сфера? Стартапы в сфере искусственного интеллекта, возглавляемые женщинами, сталкиваются со значительными различиями в объемах финансирования: они получают в среднем в шесть раз меньше капитала за сделку по сравнению со своими аналогами, основанными мужчинами. Многие ИИ-стартапы основаны командами целиком из мужчин.
https://www.koreatimes.co.kr/www/opinion/2023/10/638_342796.html - Исследователи из Кореи: модели ИИ для генерации графики склонны создавать гиперсексуализированные изображения женщин. В каждом изображении по умолчанию большая грудь и тому подобное. Это искажает действительность, потому что в реальности далеко не каждая женщина так выглядит.
Тейки из предыдущего треда: 1. Генерация дипфейков. Они могут фабриковаться для дезинформации и деструктивных вбросов, в т.ч. со стороны авторитарных государств. Порнографические дипфейки могут рушить репутацию знаменитостей (например, когда в интернетах вдруг всплывает голая Эмма Уотсон). Возможен даже шантаж через соцсети, обычной тянки, которую правдоподобно "раздели" нейронкой. Или, дипфейк чтобы подвести кого-то под "педофильскую" статью. Еще лет пять назад был скандал вокруг раздевающей нейронки, в итоге все подобные разработки были свернуты. 2. Замещение людей на рынке труда ИИ-системами, которые выполняют те же задачи в 100 раз быстрее. Это относится к цифровым художникам, программистам-джуниорам, писателям. Скоро ИИ потеснит 3д-моделеров, исполнителей музыки, всю отрасль разработки видеоигр и всех в киноиндустрии. При этом многие страны не предлагают спецам адекватной компенсации или хотя бы социальных программ оказания помощи. 3. Распознавание лиц на камерах, и усовершенствование данной технологии. Всё это применяется тоталитарными режимами, чтобы превращать людей в бесправный скот. После опыта в Гонконге Китай допиливает алгоритм, чтобы распознавать и пробивать по базе даже людей в масках - по росту, походке, одежде, любым мелочам. 4. Создание нереалистичных образов и их социальные последствия. Группа южнокорейских исследователей поднимала тему о создании средствами Stable Diffusion и Midjourney не соответствующих действительности (гиперсексуализированных) изображений женщин. Многие пользователи стремятся написать такие промпты, чтобы пикчи были как можно круче, "пизже". Публично доступный "AI art" повышает планку и оказывает давление уже на реальных женщин, которые вынуждены гнаться за неадекватно завышенными стандартами красоты. 5. Возможность создания нелегальной порнографии с несовершеннолетними. Это в свою очередь ведет к нормализации ЦП феноменом "окна Овертона" (сначала обсуждение неприемлемо, затем можно обсуждать и спорить, затем это часть повседневности). Сложности добавляет то, что присутствие обычного прона + обычных детей в дате делает возможным ЦП. Приходится убирать или то, или другое. 6. Кража интеллектуальной собственности. Данные для тренировки передовых моделей были собраны со всего интернета. Ободрали веб-скраппером каждый сайт, каждую платформу для художников, не спрашивая авторов контента. Насколько этичен такой подход? (Уже в DALL-E 3 разработчики всерьез занялись вопросом авторского права.) Кроме того, безответственный подход пользователей, которые постят "оригинальные" изображения, сгенерированные на основе работы художника (ИИ-плагиат). 7. Понижение средней планки произведений искусства: ArtStation и Pixiv засраны дженериком с артефактами, с неправильными кистями рук. 8. Индоктринация пользователей идеями ненависти. Распространение экстремистских идей через языковые модели типа GPT (нацизм и его производные, расизм, антисемитизм, ксенофобия, шовинизм). Зачастую ИИ предвзято относится к меньшинствам, например обрезает групповую фотку, чтобы убрать с нее негра и "улучшить" фото. Это решается фильтрацией данных, ибо говно на входе = говно на выходе. Один старый чатбот в свое время произвел скандал и породил мем "кибернаци", разгадка была проста: его обучали на нефильтрованных текстах из соцсетей. 9. Рост киберпреступности и кража приватных данных. Всё это обостряется вместе с совершенствованием ИИ, который может стать оружием в руках злоумышленника. Более того, корпорация которая владеет проприетарным ИИ, может собирать любые данные, полученные при использовании ИИ. 10. Понижение качества образования, из-за халтуры при написании работ с GPT. Решается через создание ИИ, заточенного на распознавание сгенерированного текста. Но по мере совершенствования моделей придется совершенствовать и меры по борьбе с ИИ-халтурой. 11. Вопросы юридической ответственности. Например, автомобиль с ИИ-автопилотом сбил пешехода. Кому предъявлять обвинение? 12. Оружие и военная техника, автономно управляемые ИИ. Крайне аморальная вещь, даже когда она полностью под контролем владельца. Стивен Хокинг в свое время добивался запрета на военный ИИ.
>>725626 (OP) >https://www.koreatimes.co.kr/www/opinion/2023/10/638_342796.html >- Исследователи из Кореи: модели ИИ для генерации графики склонны создавать гиперсексуализированные изображения женщин. В каждом изображении по умолчанию большая грудь и тому подобное. Это искажает действительность, потому что в реальности далеко не каждая женщина так выглядит. Да, этим Grok немного заёбывает, тогда как Sora - нет. При чём, в Grok грузишь тяночку определённой внешки, через энное время получаешь модель.
>>1402234 Так это специально сделали. Тайное мировое правительство глушит ИИ, капиталисты понимают, что с ИИ они станут не нужны, так же как в своё время в СССР уничтожили ОГАС, если даже примитивная программа на десяток килобайт могла заменить генсеков, что может ИИ?! Развивать в военных целях - будут, картинки генерить, но в экономику и политику ему лезть не дадут.
Нашел вот такую стратегию где используется нейросеть: https://www.paxhistoria.co/ Что-то вроде гибрида парахододрочилен и AI Dungeon (олды поймут). Сделано вполне недурно для альфа версии, но уже дрочат донатами в виде токенов.