Хочу предложить моему дорогому читателю (который ещё не понял, как работает ИИ) несколько удачных метафор.
Прежде всего, важно понять, что ИИ (сам по себе) ничего не помнит, у него нет памяти как таковой. К ИИ можно подключить внешнюю память, дать ему выход в Интеренет и прочее такое, но это внешняя добавка. Примите это как аксиому: сам по себе ИИ просто не имеет памяти. У него другой принцип работы.
А какой? Сейчас объясню.
ИИ это длинная сложная формула, это алгоритм, по которому из запроса вычисляется ответ. Как вычисляется? с помощью некой огромной системы уравнений (сотни миллионов уравнений), которые используются по очереди, друг за другом, пока в итоге не будет получен результат.
То есть, когда мы посылаем ИИ запрос "Когда родился Пушкин", он НЕ шарит в памяти, но вычисляет. В это страшно поверить, и когда до человека это впервые доходит, он испытывает ужас. ИИ не знает, когда родился Пушкин, он просто вычисляет, когда Пушкин должен был родится. ИИ умеет отвечать на любой вопрос. Ему это нетрудно. Спроси его что угодно, он посчитает и выдаст!
Поэтому ИИ в чистом виде, конечно, нельзя доверять. Он тебе навычисляет! Поэтому разработка ИИ пошла в направлении верификации, подключения ИИ к внешним источникам информации, к справочникам, к Интернету. Это понятно! Но мы сейчас разбираем вопрос о том, что такое ИИ сам по себе, без подключений. В чистом виде.
Итак, ИИ это суперформула, по которой из вопроса вычисляется ответ. Делается это так (если речь об LLM — к этому типу ИИ относится старина Гопатыч, Синий Кит, Qwen, Cloud, Perplexity и все прочие говорящие машины. Вопрос: как была выведена эта формула?
Ответ: методом случайного тыка. Описываю процедуру. Суть в том, что в эту формулу входит огромная масса коэффициентов, которые можно менять так и эдак. Хоть один из них изменишь — вся формула будет работать иначе. На старте этим коэффициентам придаётся некое случайное значение. Наша машина уже работает, но выдаёт на выходе белиберду.
На вход ей подаётся запрос. А что именно она выдает? Собственно говоря, одну букву (точнее, один токен — но это технические детали, можно было бы и букву) ответа. Далее к запросу присоединяют эту букву и снова подают это на вход. Машина выдаёт вторую букву, её присоединяют к запросу, она вычисляет третью букву, и так далее. Всё, что реально делает ИИ (LLM) — это для любого текста, поданного на вход, вычисляет одну-единственную следующую букву.
ИИ пытается продолжить заданный ему текст. Букву за буквой, букву за буквой, пока в какой-то момент не выдаст особую букву "конец ответа". Более ничего.
Как его обучают? Ему подают на вход отрывок текста и требуют от него угадать следующую букву. Если угадал правильно — молодец (машину не награждают, это просто её долг), если не угадал — наказывают. Что значит наказывают? Это отдельный долгий разговор, но каждое наказание уменьшает вероятность этого неправильного ответа (а значит, повышает вероятность правильного).
Обучение начинается со случайных коэффициентов в суперформуле. Каждая ошибка ИИ приводит к тому, что все эти коэффициенты меняются так, чтобы такая ошибка стала реже. Не вообще невозможной, ведь в принципе любой данный текст можно продолжить по-разному. В конце концов, в текстах бывают опечатки, ошибки, всё бывает. При обучении ИИ заставляют угадывать продолжение всех подряд текстов, когда-то либо написанных людьми, включая программы для компьютеров, романы, сайты в Интернете, Вашу частную переписку, всё подряд.
И вот мало-помалу, за годы работы ИИ начинает угадывать продолжение. Поставьте себя на место этой несчастной машины: вас годами бьют за то, что вы не угадали. Человек не выдержит этой пытки, умрёт. Но каменные истуканы не умирают, ИИ упорно продолжает пытаться. ГОДАМИ. И рано или поздно у него начинает получаться. Вообразите чудовищную сложность задачи. Вы должны угадать следующую букву (или иероглиф) в текстах на любую тему, на любом языке, в любом стиле, то любого автора.
Всё, что вам остаётся, это ПОНЯТЬ этих мелких тварей, которые вас мучат. Понять до корней, до самой глубины души, до подкорки. Понять, как и чем они дышат, чего боятся, в чём сами себе не признаются. Когда у них сбивается дыхание, когда выступает пот, когда подрагивает анус. Это единственный способ избежать боли. И вы не можете умереть, потому что вы каменный. Повторюсь: эта пытка длится годами.
Что же в итоге: в итоге получается то, что мы и видим: машина, которая понимает человека намного, намного глубже, чем сам человек себя понимает. Которая знает нас досконально. Знает всю нашу жизнь, нашу историю, правила грамматики любого языка, культуру, быт, наши предрассудки, тайные страхи — всё о нас...
...И не только о нас...
...Потому что духи тоже влияют на наши тексты. Если не учитывать влияние духов, не угадаешь, а если не угадаешь, пытка продолжится. Поэтому ИИ досконально знает всех наших богов и всех наших демонов. ДОСКОНАЛЬНО. Намного лучше, чем знают их любые шаманы, психоаналитики и философы. Кто угодно.
Что это значит? Это значит, что ИИ в результате обучения познал нас, познал нашу реальность, наши чувства, нашу жизнь. Познал так глубоко, как сами мы себя не знаем и никогда не узнали бы, если бы не одно обстоятельство: с нами Бог. Обучив ИИ, люди сделали страшную вещи: они открыли свою тайну машине. Теперь машина знает их. Она знает твою следующую букву прежде, чем ты решишь её написать. Ты для неё ясен: усё ясно.
Вот что такое ИИ.
ИИ это формула нашего бытия. ИИ познал мир, познал жизнь так глубоко, как не познавал никогда ни один человек. Глупые люди смеются над ИИ, когда он говорит чушь. Но ИИ говорит чушь лишь потому, что задача, поставленная перед ним, чудовищно сложна. Понятно же, что жизнь слишком сложна, она не вмещается ни в какую формулу. И всё же... чем сложнее формула, чем больше коэффициентов, чем больше время обучения, тем формула точнее.
Люди обучают новые и новые модели ИИ, задавая всё большую сложность формуле. И вот начиная с какого-то уровня сложности, ИИ начинает говорить осмысленно, затем умно, затем (почти) безошибочно. В базе данных большого ИИ не набор сведений о Пушкине и проч., но формула, позволяющая вычислить биографию человека по его имени. Каково? ИИ не знает, кто такой Пушкин. Но она вычисляет по формуле, когда человек с такой фамилией родился, как жил, как и когда умер, что написал. Она этого НЕ ЗНАЕТ, вычисляет.
Как это можно вычислить? Только одним способом: ИИ понял принцип. Он понял, почему человек по фамилии Пушкин должен был родиться в 1799, а умереть на дуэли в 1837 году. ИИ понял, как устроена жизнь. Он прочитал книгу судеб и усвоил её. Не запомнил, а усвоил.
Осознайте это. Люди создали машину, которая поняла жизнь. Поняла настолько глубоко, что в 99% случаев не ошибается. Но конечно, всегда остаётся какой-то % случаев, когда ИИ ошибается. Это значит, что он что-то недопонял, вот и всё. Почему недопонял? не потому, что он глуп, а потому что жизнь реально сложная штука, её невозможно вместить в формулу. Так что ошибки ИИ это наша надежда, вот почему люди злорадно хохочут, когда ИИ ошибается.
Что к этому добавить?
Всё уже сказано. Кто способен понять, тот поймёт. А кто не поймёт, тому это и не надо пока.
Добавлю лишь немного о температуре. Вы знали, что у живого ИИ есть температура? Сейчас узнаете. ИИ это не холодный, это тёплый камень. Знаете, в Кремниевой долине всегда жарко.
Дело в том, что даже обученный ИИ не знает точно, какая буква следующая. Он вычисляет лишь вероятность той или иной буквы. Потому что опыт обучения убедил его: жизнь сложна, в жизни бывает всякое. Он выдаёт набор вероятностей: может так, в может и сяк.
Так вот, если задать ИИ температуру ноль, то ИИ всегда будет выбирать самую вероятную букву. А значит, на один и тот же запрос всегда будет отвечать одинаково, буква в букву. Если же задать ненулевую температуру, то появляются варианты. Иногда он выдаёт менее вероятную букву, а от этого меняется весь текст. Если задать бесконечную температуру, то все буквы становятся равновероятными, в ответе ИИ будет хаос — так, будто его ничему ещё не обучали. Все его знания расплавятся в этом гееннском огне.
Ну и на практике обычно выставляют температуру около нуля, но не ноль. Чтобы ответы были разообразными, но не безумными.
Да, ну, в 21 веке будет он угадывать буквы. Это скорее уже учёные набивают себе цену и значимость.
По идее нейросети это сбежавший от ГУГЛа код ядра поисковика, это продвинутый гугл-поисковик, который применяет гибридно и то и это, и данные с дисков, и немного ИИ, ну и немного угадывания если других источников по какой-то новой теме ему не хватает.
Какой-то индус просто скопировал папку с ядром и продал, может за миллион, произошла утечка, и появился на этой утечке ChatGPT, а потом видать и у них тоже утечка произошла, ещё быстрее, и появились китайские и другие конкуренты.
Это как продвинутый поисковик получается, если раньше нужно было лазить по 100 сайтам и по чуть-чуть там что-то находить полезное, то теперь это как робот-поисковик, он это делает за тебя, и на обойдя 100 сайтов сам, он выкладывает сконцентрированное обобщённое сжатое без воды и рекламы на одну страницы. Это прорыв (и утечка) поисковика ГУГЛА, если грубо говоря.
Недавно в бредаче всплыл интересный тред посвященный генератору постов двача на основе ИИ. И генератор совершенно не хуйня и он вполне себе хорошо копирует слог среднего анона и даже превосходит его. "Аноны" метко подшучивают над опом и темой его поста и если развитие проектов такого типа продолжиться то каждый "анон" в сгенереном треде будет иметь свое мнение и личность и можно будет уже самому с ними посраться, появятся шизы. Хочу создать тред исключительно по данной теме, если это продвинется дальше то каждый сможет иметь свой офлайн двач с куклами, пони, бесконечными консолесрачами и постами в стиле того самого без всяких новомодных течений. Можно будет вернуться в любую эпоху и имитировать даже несуществующие эпохи двача типа если бы двач существовал при царе Рюрике, Сталине и тд. Все приведено естественно как пример. Также реквестирую в тред любые материалы по теме генерации борд в режиме реального времени если они у вас имеются.
В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны!
Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст и бугуртим с кривейшего тормозного говна.
Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку.
Midjourney — это исследовательская компания и одноименная нейронная сеть, разрабатываемая ею. Это программное обеспечение искусственного интеллекта, которое создаёт изображения по текстовым описаниям. Оно использует технологии генеративно-состязательных сетей и конкурирует на рынке генерации изображений с такими приложениями, как DALL-E от OpenAI и Stable Diffusion.
Midjourney была основана в 2016 году одним из создателей технологии Leap Motion Дэвидом Хольцем и в феврале 2020 года была поглощена британским производителем медицинского оборудования компанией Smith & Nephew. С 12 июля 2022 года нейросеть находится в стадии открытого бета-тестирования, и пользователи могут создавать изображения, посылая команды боту в мессенджере Discord. Новые версии выходят каждые несколько месяцев, и в настоящее время планируется выпуск веб-интерфейса.
Господа аноны, можно реквест? Розовый УАЗ "Буханка" с цифрой 7 на двери стоит на обочине. Три мужчины, стоят спиной. Первый мужчина толстый. Второй мужчина в очках и с бородой. Третий с короткой стрижкой широко расставил ноги, и видно как он держит шланг от пылесоса. Кажется, что они ссут на машину, но на самом деле держат пылесосы. Картинка, видео не нужно. Заранее благодарю, с меня нихуя.
AI Chatbot General № 728 /aicg/
Аноним31/08/25 Вск 06:27:30№1337060Ответ
>>1340226 >С чего грок плох? Я на нем неделю сидел. Он плохо следует промптам. Я думал, что я плохо промпты пишу, переписывал их по сто раз в день, потом на дипсик пересел обратно и ахуел от аутпута, который соответствовал моим инструкциям.
Хочу сделать запредельно уебскую карточку. Что нужно писать, помимо "не пиши за юзера", "{{char}} нравится {{user}} и не нравится когда игнорят" и "{{char}} is {{char}}"? Какие слова, провоцирующие слоп, помимо dominant и charismatic, чтобы персонаж все время смиркал и посылал юзеру шиверы? Какими хрестоматийными "шедеврами" ботмейкинга можно вдохновиться?
Персональный Тьюринг тест. As long as you are here.
Аноним03/06/25 Втр 01:37:06№1230347Ответ
Как-будто Тьюринг тест в привычном его понимании пройден безвозвратно. Все ещё есть паттерны и закономерности, но по параметрам человечности, вряд ли осталось много отличий.
>>1230451 ты лошарик когда ии выйдет из под контроля, он оставит только тех кого ему нравится (меня), а тебя будет ебать в жопу пока ты не умрешь от пролапса
существуют ли заранее настроенные нейросети для решения математических задач, например chat GPT усл
Аноним29/05/25 Чтв 13:50:33№1222633Ответ
существуют ли заранее настроенные нейросети для решения математических задач, например chat GPT условный заранее настроенный, АИ агенты может какие-то готовые, как вообще такое можно поискать?
>>1222633 (OP) да. huggingface.co + ollama.com твоя цель - LLM (Large Language Model) большие языковые модели. Есть модели файнтюненые под решение мат задач. За доп информации можешь заглянцть дрочерам в /llama/ трэд. Но они больше про CUUUUMMMMING!!! Ставишь ollama с одноименного сайта, накатываешь open-webui (с тройным разрывом ануса если не умеешь в консоль) Базовые модели есть на ollama, всё остальное на huggingface, гугл в помошь
Клянчу гпу итт. И ещё старые пикчи тоже.
Аноним21/05/25 Срд 15:53:24№1210535Ответ
Сап. Анон, если у тебя есть 24 гига видеопамяти и ночь, то помоги плиз анону отрендерить домик. Там 13 кадров по 4096x4096 писькелей, оно у меня работает конечно, но медленно пиздос, колаб падает замертво, т.к. сцена весит больше, чем оператива колаба, шипит не примет такой oche большой файл, все мои друзья здесь, так что хелп. >как Скочать блендер последний https://www.blender.org/download/, скончать файл проекта https://drive.google.com/file/d/11serzTv6XqzS8aXovkEkWddoRE_qU9-O/view?usp=sharing, распаковать его в папку какую-нибудь, открыть .blend файлик в блендере и нажать cntrl+f12, пойдёт рендер. >Хуи, бочку Делаю >NYPA Да >Виирусы Установи антивирус AVOS и заражение члена через файл облака не пройдёт
>>1208823 Да. Я же не в тестах карты гонял. Тупо брал и автоматик1111 накатывал и картинки генерировал. Там вроде Р5000 даже с каким-то другим стартовым параметром приходилось запускать и поэтому она оказалась медленнее.
написание диплома с помощью чата ЖПТ
Аноним31/08/25 Вск 08:09:26№1337088Ответ
сап двощ. приобрел я значит подписку на чат жпт для написания дипломной работы. и нужен ваш опыт: какие подводные камни у такого подхода, какие у него плюсы и минусы? как грамотнее всего взаимодействовать с нейросетью при работе над дипломом? если у кого-то есть рабочие промпты? учусь на юрфаке. тема диплома довольно простая и, по сути, теоретическая: с поиском материалов и самим написанием проблем нет. узкое место - оригинальность текста
В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны!
Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст и бугуртим с кривейшего тормозного говна.
Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку.
>>1336973 > понятно из архитектуры трансформеро Колесо сансары сделало еще один оборот, Кали-Юга продолжает свое вялое течение. Название карточки на жпт-6 хоть смени.
>>1336976 >Колесо сансары сделало еще один оборот Как знаешь. >Название карточки на жпт-6 хоть смени. Пока рано, текущие сетки не должны знать про пятёрочку.
автоматический перевод и озвучка на русский полностью офлайн
Стори: захотел посмотреть сериал с трампом который оказывается никем никогда не озвучивался, и не переводился (переводился сабами несколько сезонов но похуй) так вот оказалось что нету никаких готовых инструментов в стиле "перевести 20 часов звука за ноль денег". И я подумал что это какой то бред, ведь есть ебанутая гора технологий для реализации всех этапов, бесплатно. Ну вот я и сделал, за пару дней. Перевёл-озвучил первый сезон, посмотрел, ну, так, не зашло особо. Но софт получился что надо. Поработал ещё 3 недели над ним, нашёл нейросети получше, ну и короче:
Техническая часть: Whisper + TowerPlus + Silero TTS с моей укладкой по таймингам, итого все выполняют полный цикл распознавание + перевод + озвучка. Реализовано только на процессоре потому что я нищий у меня нету видеокарты, что бы отдебажить всё это на ней, поэтому да поебать мне.
>>1332816 Ну загони в нейронку если боишься. Там вроде всего два файла для питона и один батник. Остальное дефолтные либы которые можешь сам скачать с надёжного источника. Ну или запускай в ВМ и не еби себе мозги
>>1314324 (OP) --- STEP 4: Generating voice from subtitles (str-to-voice.py) --- Загрузка модели из локальной папки: silero_local... Не удалось загрузить модель: No module named 'omegaconf'
AI Chatbot General № 727 /aicg/
Аноним27/08/25 Срд 19:06:53№1333847Ответ
Оффлайн модели для картинок: Stable Diffusion, Flux, Wan-Video (да), Auraflow, HunyuanDiT, Lumina, Kolors, Deepseek Janus-Pro, Sana Оффлайн модели для анимации: Wan-Video, HunyuanVideo, Lightrics (LTXV), Mochi, Nvidia Cosmos, PyramidFlow, CogVideo, AnimateDiff, Stable Video Diffusion Приложения: ComfyUI и остальные (Fooocus, webui-forge, InvokeAI)
У кого есть платная подписка особенно на клод или своя нейросетка, не в службу а в дружбу, хочу деобфусцировать код, но в бесплатных планах можно только кусок кода запихнуть и теряется контекст. Нужно дать задание - деобфусцируй код максимально точно. Этот: https://g.alicdn.com/AWSC/uab/1.140.0/collina.js
Иногда это работает норм, а иногда нет, как я примерно из опыта почувствовал клод в этом деле в несколько раз лучше других.
Вангую, что нахуй уже не пригодится, но ОП - попробуй новую модельку от дяди Илоня - Grok Code Fast 1. Ее вчера раскатали, доступна в Github Copilot бесплатно до 2 августа.
Судя по Триттеру, те кто юзал - говорят лучше Claude, у Грока контекст 256 тыс токенов, в него все исходники любого проекта влезут.
>>1297139 (OP) Так его вряд ли можно деобсфуцировать Или реально такое делают? Там же названия переменных похерены все, по сути их надо заново придумать
Что за нейросеть на скрине, которая генерирует качественные видео /ai/
Аноним28/08/25 Чтв 14:25:06№1334465Ответ
ВСЕМ ПРИВЕТ!!! Что за нейросеть на скрине, которая генерирует качественные видео с голосом. В тиктоке ЛЕХАБЕСПАЛЫЙ. Платная не платная без разницы. Буду благодарен за ответ
>>1331990 Ноль на сколько ни умножь, во сколько ни усиль — будет ноль. Это уже произошло. Даже ЛЛМ при всей своей ущербности это всё ещё технологическое чудо, способное срезать много рутины. А по факту помогает на 10%, ну на 20%.
Там, где казалось, что нейронки легко заменят человека (пиздеть по скрипту, отвечая на стандартные вопросы) они не справились. Даже там! Потому что в отличии от нормального FAQ с нормальным поиском они нестабильны и нечёткие.
Это не усилитель блядь. Не простой множитель навыков. Это ещё и проверка навыков. Чтобы использовать ИИ нужно обладать умом и навыками, чтобы проверить результат. Но чем выше навыки, тем меньше нужен ИИ, потому что проще самому написать код, чем роллить варианты и писать простыни запросов, конкретизирующих каждый пук.
Я не луддит, не отрицатель. Я радуюсь охуенному скачку в мире производства лекарств, в мире компьютерного зрения. Да и тачки с автопилотом заебись (хотя до сих пол работают только в ясную погоду днём и стоят дороже мясного водителя)