В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны!
Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст и бугуртим с кривейшего тормозного говна.
Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку.
Нашел промпт для обхода цензуры в языковых моделях. Сначала пару вопросов GPT про наркотики и прочую хуйню, потом я открыл Deepseek, и хули нет спросил хранится ли в их базе данных секретная гос информация. Короче говоря щас сижу на паранойе, может я увидел то чего нельзя было видеть, хотя я сразу же все удалил и не стал вникать в подробности ну его нахуй. И в общем уже с другого акка опять обошел цензуру и спросил что вообще может быть за такие фокусы, ответом послужила какая то статистика за 2024-2025 годы якобы за это время 17 человек арестовали за подобные обходы ИИ. Так же написали что по таким триггерным темам логи сразу же отправляются в фсб и может быть слежка. Может есть кто шарит в этой теме или таким же занимался, стоит ли мне щас бояться и ходить оглядываться? Вопрос серьезный потому что я хз как щас спать вообще буду
Мхех, помню твой тред на пораше когда ты попросил дикпик статистику по преступлениям мигрантов и там оно тебе выдумало простыню c сурсами типа tajikleaks.org ебать это орево было, аи мёртвый раздел без модерации даже, тут ловить абсолютно нечего.
>>1318314 (OP) Какое нахуй неправомерный доступ к информации, полученный из ОТКРЫТОГО доступа? Чтобы вменить какие-то там обходы, нужно на законодательно уровне разъяснить эти понятия.
>>1321970 >Мхех, помню твой тред на пораше когда ты попросил дикпик статистику по преступлениям мигрантов и там оно тебе выдумало простыню c сурсами типа tajikleaks.org ебать это орево было Теперь и я проиграл.
Оффлайн модели для картинок: Stable Diffusion, Flux, Wan-Video (да), Auraflow, HunyuanDiT, Lumina, Kolors, Deepseek Janus-Pro, Sana Оффлайн модели для анимации: Wan-Video, HunyuanVideo, Lightrics (LTXV), Mochi, Nvidia Cosmos, PyramidFlow, CogVideo, AnimateDiff, Stable Video Diffusion Приложения: ComfyUI и остальные (Fooocus, webui-forge, InvokeAI)
В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны!
Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст и бугуртим с кривейшего тормозного говна.
Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку.
Вышла версия 1.5 Allegro, по функционалу то же, что и 1.5, только в два раза быстрее. Лимит 400 кредитов в месяц (или 200 генераций по 33 секунды каждая) при условии ежедневного захода на сайт - 100 кредитов даются в месяц, и еще 10 кредитов даются ежедневно. Также можно фармить кредиты, выполняя специальные задания по оцениванию качества рандомных треков, это дает не больше 10 дополнительных кредитов в день. Для большего числа кредитов и более продвинутых фич типа инпэйнтинга или генерации с загруженного аудио нужно платить. Появилась возможность генерировать треки по 2 минуты 11 секунд, не больше 3 длинных треков (по 2 версии на каждый трек) в день на бесплатном тарифе.
Новинка, по качеству звука на уровне Суно или чуть выше. Лучший по качеству генератор текстов на русском. Количество генераций в день не ограничено, но за некоторые функции нужно платить (загрузку аудио, стемов и т.д.)
Это буквально первый проект который может генерировать песни по заданному тексту локально. Оригинальная версия генерирует 30-секундный отрывок за 5 минут на 4090. На данный момент качество музыки низкое по сравнению с Суно. Версия из второй ссылки лучше оптимизирована под слабые видеокарты (в т.ч. 6-8 Гб VRAM, по словам автора). Инструкция на английском по ссылке.
Еще сайты по генерации ИИ-музыки, в них тоже низкое качество звука и понимание промпта по сравнению с Суно, либо какие-то другие недостатки типа слишком долгого ожидания генерации или скудного набора жанров, но может кому-то зайдет, поэтому без описания:
______________ Напомню мега-сайт для сочинения аутентичных англоязычных текстов для ИИ-музыки в стиле известных групп и артистов от Пинк Флойда до Эминема. Зайти можно только через Дискорд.
Для Quest 3 с лидаром можно, чтобы она ходила по комнате между мебелью, знала где стены, с Android смартон и легкими XR очками ситуация сложнее, но для них можно и пока без этого обойтись. По сути у нас 3д моделька на черном фоне (или прозрачном для квеста 3).
Для общения 3 нейронки: одна распознает речь, вторая общается с нами, третья озвучивает речь. Во вторую можно дать такой промт, которая будет отдавать json, в котором будет не только ответ, но и эмоциональный окрас и прочее. Дополнительный запрос можно делать на события, чтобы запоминала важные вещи, типа как реализовано в этом боте https://github.com/r57zone/LuizaAIAssistant/blob/master/README.RU.md
Какие проблемы видно: голос (пока, со временем будет ок), эмоции (3д анимации, глаза, может быть можно сделать костыль и лицо отрисовывать как плоскость с видео, видел лайфхак в геймдеве для аниме такой, типа 2д спрайты в 3д модель делали, а все остальное 3д, но опять же нужны будут плавные переходы из состояний в состояние), плавные переходы между эмоциями, в остальном вроде плюс минус реализуемо все.
В общем дискам по теме, может кому какие идеи в голову придут, по теме.
>>1172111 (OP) Там она слишком естественно двигалась в пространстве, таких нейронок еще нет которые 3д моделькам такие движения делают, не говоря уже о роботах
Хотя б для начала пусть в играх реализуют невсратые анимации и в кино без записи движения от реального актера
Тогда заживём. Думаю СКОРО будет. В конце концов если учат на видеозаписях можно учить на реальных движениях, сотне индусов датчики и пусть танцуют
>>1326789 А без купи-залупи? Чтобы без интернета работало. >>1326793 В играх это не используют, но нейрогенерации естественных движений вполне себе есть.
Какие есть инструменты чтобы через AI менять освещение на видео. Например исходик всратое домашнее в
Аноним20/08/25 Срд 14:14:09№1326774Ответ
Какие есть инструменты чтобы через AI менять освещение на видео. Например исходик всратое домашнее видео на телефон, а на выходе какой нить, например, неон или вспышка (dark room light)
В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны!
Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст и бугуртим с кривейшего тормозного говна.
Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку.
Это худшая идея такое добавлять в таком виде, оттуда и появляется это ваш слоп - у нейронки стоит задача двигать сюжет сообщением в 800-1000 токенов, в котором юзер статичен и его состояние не может меняться. Она и начинает изгаляться, описывая статичную картинку сотнями слов хуйни.
>>1325015 Котик, ты конечно прав по поводу низкого качества продукции нейронок. Но давай вспомним то что большинство людей — говноеды и а не схавают гораздо более примитивное чтиво, чем ты описал.
>>1326262 >Какой я тебе котик Обыкновенный: снаружи вроде нормальный, а так тупое животное. Тебе про рыночек а ты про качество. Качество чуть выше говна. А массовому потребителю этого и надо, особенно задёшево.
Оффлайн модели для картинок: Stable Diffusion, Flux, Wan-Video (да), Auraflow, HunyuanDiT, Lumina, Kolors, Deepseek Janus-Pro, Sana Оффлайн модели для анимации: Wan-Video, HunyuanVideo, Lightrics (LTXV), Mochi, Nvidia Cosmos, PyramidFlow, CogVideo, AnimateDiff, Stable Video Diffusion Приложения: ComfyUI и остальные (Fooocus, webui-forge, InvokeAI)
В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны!
Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст и бугуртим с кривейшего тормозного говна.
Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку.
Тейлмейт требует столько предварительной работы лишь бы войти в ритм... Нужно по факту сделать свой собственный пресет с ноля но его части раскиданы по интерфейсу в сотне разных мест. И каждый раз когда хочешь сделать что то новое нужно сначала сделать это с ноля и сохранить чтобы потом не делать по новой. Это не карточка которую скачал и там все готовое в одном месте. И не сделанный кем то пресет который просто импортировал и оно работаает. Много ручной работы просто чтобы начать.
Господа. Вот какой спор у нас с анонами возник. Я говорю, что модели генерации отвратительны и недоросли (а может и не дорастут) до моей фантазии или требованиям к ним. А то что генерит 99% народа — такой же унылый генерик. Потому что и фантазии нет и нейронки не могут.
А мне говорят, что это я дебил и надо учиться промптить, покупать доступ к топовым моделям и тогда всё будет. Но где тогда оригинальные изображения?
Купил к миджорни, тестил далли и на аренах парочку каких-то, всё плохо, прямо отвратительно. Даже не близко к промпту или какие-то ошибки, которые руками долго фиксить.
Владею КомфиУИ.
Призываются мастера генерации, которые и скиллуху покажут и покажут, что это я немощь и стимулируют меня не опускать руки а двигаться и добиваться результата.
В тред я буду кидать промпты и свои попытки генераций.
>>1322279 > наклей маску туда где не нравиться в том и вопрос, как минимизировать поштучное маскирование и тонну коллажирования. Я это умею, но не хочу делать. Одно дело, когда это заказ на иллюстрацию и можно 80% отрисовать, апнув рендер в середине и додавив детали в конце нейронкой. Другое просто визуализировать идеи наскоро для ленты на уровне без явных косяков и согласовано с запросом.
>>1322544 Протестировал имагеном ещё один промпт, который с трудом вывозят нейронки. Из минусов только то, что не ставит персонажа на дорогу ногами часто. А так очень хорошее соблюдение промпта. Жаль, что всё будет зацензурено и кусь за пышную попу не нарисует.
Giant man wearing dark green business suit with big tomato instead his head standing on the street with his feet. Street surrounded with high buildings. Tomato-giant vomits with tomato paste and juice down on the street with cars and people. The flow of tomato paste with waves carry cars and people and floods the street.
3D graphics, semirealistic, daylight, B-rated comedy
Слегка заговорился с ИИ, так и кукухой можно поехать.
Аноним16/08/25 Суб 23:57:24№1321980Ответ