Генерируя в коллабе на чужом блокноте будьте готовы к тому, что его автору могут отправляться все ваши промты, генерации, данные google-аккаунта, IP-адрес и фингерпринт браузера.
ComfyUI https://github.com/comfyanonymous/ComfyUI Интерфейс, заточенный на построение собственных workflow посредством организации конвееров через редактирование нод с различными действиями и указанием связей между ними.
Аноны, наконец то купил себе видимокарту и теперь пытаюсь вкатиться в апскейл. Хочу добиться эффекта детализации как на прикле 1. Засунул исходник в img2img, выставил Ресайз 2 Денойз 0,45 В скриптах выбрал SD upscale и апскейлер 4x-AnimeSharp
На выходе всё равно какое-то кривое лоурез говно. ЧЯДНТ?!
>>719339 Во-первых, ты зачем решил такую длину выставил в 1280? Плюс, персов зачем вставил, их так и будет мутить на таком разрешении Во-вторых, модель и Лору какую использовал лора на какой-то стиль аниме по киберпуку, верно? . Ставь модель как в первом пике и повторяй ее. В-третьих, хайрез фикс при генерации сразу ставь
>>719405 Что не так с разрешением? Мне нужна картинка с шириной 2560, поэтому я поставил изначальную генерацию 640х256 и хайрезфиксом х2, потом в img2img ещё х2. Аноны скидывали похожие широкоформатные пики с нейрошумом. Включил Custom hires fix, результат изменился, но ХЗ в лучшую ли сторону, такое ощущение что с настройками что-то не то. С моделью CLZK3 и лорами так-то норм должно быть всё, но попробовал пик1 с ними и пик 2 без них
>>719334 >>719224 Совпадение? Не думаю! >>719339 > В скриптах выбрал SD upscale и апскейлер 4x-AnimeSharp Тайловый апскейл сильно зависит от размера тайла. В обычном sd upscale он выставляется через разрешение что указано в imgimg, если там выбрал ресайз 2 то по сути апскейлил одним тайлом (хз как там новый автоматик это воспримет, раньше было так). Выстави разрешение что-то типа 1024x1024 (для sd 1.5) и попробуй с ним. Для добавления деталей лучше использовать больший денойз и контролнет, просто включи тайл для начала. Алсо по сравнению с исходником деталей хорошо добавилось, можешь просто даунскейлить пичку до 66.7% и пройтись еще раз, уже с меньшей кратностью апскейла. Для йобы уже нужен multidiffusion, обязательно пускать с контролнетом и повысить размер тайла латентов до 128-160, перекрытие 30-60% от размера. >>719368 Проиграл, харош
>>719537 >Для йобы уже нужен multidiffusion, обязательно пускать с контролнетом и повысить размер тайла латентов до 128-160, перекрытие 30-60% от размера. На старой видюхе апскейлил как раз тайлами, правда через Ultimate SD Upscale, потому что была АМД и мультидифьюжн не работал. Очень подзаебали тогда внезапно вылезающие в тенях лица персонажей. Думал что 24 гигов хватит чтобы апскейлить всё одним куском. Но если без тайлов никак, попробую с ними поебаться. Контролнет пока не пробывал, т.к. на старой видеокарте не работал, а на новой думал без него обойтись, попердолим и его. Спасибо за подсказку!
>>719590 > Очень подзаебали тогда внезапно вылезающие в тенях лица персонажей. От этого сильно спасает использование контролнета. Также он, как ни странно, бустит детали, без него получишь сильно перестроенную пикчу с меньшим уровнем. > Думал что 24 гигов хватит чтобы апскейлить всё одним куском. В комплекте с тем аддоном есть tiled vae, нарезает латент/пиксельное на куски, частями конвертирует, а потом склеивает обратно, так что теперь ограничение - твоя рам. По сути также реализована работа и gan апскейлеры, тайлинг - база.
>>720222 >>720227 Это вообще чистейшая ванильная пони. У файнтюнов всё очень плохо с тёмными цветами, хоть dark night, хоть black background пиши, всё равно нарисуют всё под дневным освещением. В ваниле хоть пародия на темноту есть.
>>720364 Индийский код, лол, точнее подходы. > В ваниле хоть пародия на темноту есть. Хз, просто промтом их нигде не удавалось получить. Только если заказать или сам срандомится очень яркий объект, который позволит затемнить остальное сохраняя среднее, вон пик 1 - "dark night" на ванильной пони. Покажешь что у тебя получалось? При наличии костылей это не то чтобы проблема, пик 2 - 3. По-хорошему, нужно дообучать с возмущением шума, также как делали в анимейджине (работает, но не супер эффективно или с кучей побочек) , или пытаться переехать на https://huggingface.co/stabilityai/cosxl
Народ, как аутизм-микс заставить делать темные картинки? Пишу в промпте про ночь, про свет в негативы - все равно фигарит стандартное освещение. Лора может какая есть для этого? На 1.5 помню были такие.
Да и векторскоп в альт-режиме неплох, оказывается.
Не было его раньше, чтоль, когда я его тестировал?.. Потому что помню, что он практически как ФШ работал - вместо правильной смены освещения - тупо менял яркость и цветокоррекцию. А вот в альтернативном режиме он начинает еще и освещение менять.
>>720754 > Не было его раньше, чтоль, когда я его тестировал?.. Ну я не знаю когда ты там тестировал, видимо ты про имейдж фильтры имеешь ввиду, они и вправду из фотошопа просто, с ним полностью черную или белую картинку можешь сделать, это не просто фильтры
Пидрилы из thinkdiffusion наконец подняли время триала у новых акков в два раза, - теперь это 1 час. Хотя и не 2 часа, как в прошлом году. По странному совпадению, именно вчера я гонял у них по 3 машины одновременно, чтоб компенсировать короткий рантайм длиной в полчаса
У кого нет локального девайса - налетай, пока не откатили обратно.
Ого, какую красоту вы делаете! Случайно зашел, теперь тоже хочу. Но после прочтения фака из шапки остались вопросы, если не трудно, попрошу ответить. Я так и не понял, в итоге, чтобы такое же делать надо качать Stable Diffusion или какую-то WaifuDiffusion? И еще, результаты и промты никуда не отправляются же, это конфиденциально и никто не узнает про мои извращенные желания?
>>721384 >Я так и не понял, в итоге, чтобы такое же делать надо качать Stable Diffusion или какую-то WaifuDiffusion? Я тоже думаю, что давно пора переименовать тред в "Stable Diffusion Аниме-тред"! >и никто не узнает про мои извращенные желания? Да кто знает, сколько у тебя в Виндоус анальных зондов стоит и регулярно отправляет твои картинки товарищу майору из ФБР и других заинтересованных организаций.
>>721384 > надо качать Stable Diffusion Да. Вайфу дифьюжн это тоже модель на основе sd, но уже давно заброшенная и не поддерживаемая. > это конфиденциально и никто не узнает про мои извращенные желания? Нет, мы узнаем когда ты запостишь картинки. А так само никуда не отправляет если генеришь локально на своей пека. >>721395 Лолбля, импостер на 3й >>721429 На линуксе чуть быстрее в некоторых ситуациях, если генерить в большом разрешении/с батч сайзом то разницы и нет.
Я рад поделиться новостями о прогрессе в разработке нашей предстоящей модели V7, а также ретроспективным анализом V6.
Признание, которое получила V6, радует, и я благодарен всем пользователям и производным моделям, даже если некоторые из них отклоняются от моего первоначального видения. Однако повторить такой успех непросто, и ожидания от V7 понятно высоки. Давайте рассмотрим некоторые из улучшений, которые вы можете ожидать в V7.
Призыв о поддержке Но прежде чем мы погрузимся в технические детали, давайте на секунду остановимся!
Создание моделей масштаба Pony Diffusion - сложная и дорогостоящая задача, поэтому их так мало. Я хочу, чтобы PDV7 дарила еще больше радостных моментов и помогала сообществу создателей моделей. Но мне нужна ваша помощь, чтобы это произошло.
Если вы компания, которая хочет быть представлена в предстоящем релизе V7 и поддержать разработку - финансово или вычислительными ресурсами - это ваш шанс. Пожалуйста, свяжитесь со мной по адресу [email protected] для обсуждения вариантов партнерства.
Если вы индивидуальный энтузиаст, подумайте о присоединении к PurpleSmartAi Discord. Мы предлагаем различные варианты Подписки и Спонсорства, которые помогают нашим усилиям по разработке.
Согласованность и выбор стиля Одним из заметных аспектов Pony Diffusion является отсутствие тегов художников - решение, которое, как я хорошо знаю, могло разочаровать многих. Выбор исключить теги художников связан с основным принципом: Pony Diffusion предназначена для развития креативности, а не для копирования стилей других. Однако теги художников, несомненно, мощны; они не только вносят сильное смещение в качество, но и направляют пользователей к последовательному тематическому использованию (например, привлекая известного художника-пони для рисования изображений на тему пони). Эта ситуация ставит такие модели, как PD, в значительно менее выгодное положение, подчеркивая необходимость лучших инструментов для управления стилем и обеспечения качества.
В V6 мы представили такие функции, как добавление подробных описаний стиля к промптам, что работало адекватно, но имело ограничения. К сожалению, более продвинутые методы, предназначенные для улучшения управления стилем в V6, работали не так хорошо, как ожидалось.
Сообщество четко продемонстрировало потребность в улучшенном управлении стилем (см. исключительно популярную коллекцию стилевых LoRA от prgfrg23). В ответ на это для V7 я разрабатываю концепцию группировки стилей или «супер-художников» в базовой модели. Цель состоит в том, чтобы использовать обратную связь от людей о различиях в стиле для автоматической кластеризации изображений по стилю. Я планирую подробнее рассказать об этом в отдельной статье, но общий подход предполагает использование художников в качестве основы для начального обучения с последующим уточнением процесса с помощью запросов к людям о том, имеют ли два изображения схожий стиль. Результат представит специальные теги, такие как «anime_1», «smooth_shading_48» и «sketch_42», которые можно будет использовать во время обучения и в промптах модели для повышения точности стиля.
Расширенные наборы данных Для V6 я сузил набор данных с примерно 10 миллионов изображений до 2,6 миллиона лучших. Для V7 я расширил полный набор данных примерно до 30 миллионов изображений, из которых я планирую отобрать около 10 миллионов для обучения. Это расширение улучшит способность модели поддерживать больше типов контента и распознавание персонажей в различных фэндомах, поскольку я обновляю старые данные и интегрирую новые источники.
Улучшенный охват SFW-данных Хотя более 50% данных, использованных для обучения PD, особенно V6, были безопасны для работы (SFW), стало очевидно, что этого недостаточно для разнообразия. Мои текущие усилия по улучшению возможностей генерации SFW сосредоточены на поддержании высокого качества результатов с особым вниманием к достижению правильного баланса в наборе данных.
Набор данных косплея Хотя мое основное внимание по-прежнему сосредоточено на нефотореалистичных стилях, значительное количество 3D-изображений в наборе данных, охватывающих различные уровни реализма, оправдывает расширение в сторону человеческих субъектов. По крайней мере, это должно помочь производным, ориентированным на реализм, достичь лучшего качества.
Аниме набор данных V6 включала значительный объем данных, специфичных для аниме, но вы можете ожидать значительных улучшений в распознавании персонажей и общей поддержке стилей аниме, поскольку я включаю несколько разнообразных наборов данных на основе аниме.
Набор данных на основе видео Поскольку я готовлю нашу инфраструктуру для обработки задач «текст в видео», сейчас подходящее время для расширения нашего конвейера сбора данных, чтобы извлекать неподвижные изображения из видеоданных. Этот подход ставит новые проблемы в аннотировании и выборе лучших образцов, но я уверен в наших первых успешных экспериментах по эффективному внедрению этого в V7 и будущих версиях.
Набор данных видеоигр, 3D, артбуков и концепт-артов Я также включаю различные дополнительные источники для устранения пробелов в понимании моделью медиа, отличных от персонажей. Это должно улучшить наши возможности SFW и представить больше уникальных стилей.
Улучшенные подписи Включение подписей на естественном языке, несомненно, стало значительным прорывом, который внес большой вклад в эффективность V6, несмотря на ограниченное применение. В V7 я сосредоточен на улучшении как качества, так и охвата этих подписей - V6 имела только половину своих изображений полностью аннотированными. Качество обучающих данных имеет решающее значение; независимо от того, насколько модель способна понимать промпты, ей нужны надежные данные для поддержки.
В настоящее время, продолжая совершенствовать модель аннотирования, я наблюдаю результаты, превосходящие любой общедоступный набор данных, с которым я сталкивался до сих пор. Ниже вы можете найти несколько примеров из наших рабочих моделей аннотирования.
https://derpibooru.org/images/3345861 Female feral alicorn Princess Luna from My Little Pony stands confidently against a backdrop of telephone poles and clouds in a bright, sunny day. She wears sunglasses with reflective orange lenses and a black glove on her right hand, which houses her cybernetic arm. Princess Luna's horn is adorned with a crown, and her mane flows freely behind her. She is wearing a brown bikini top that exposes her midriff.
https://derpibooru.org/images/3340263 A serious female alicorn unicorn, Princess Celestia from My Little Pony, is depicted wearing a dark hoodie and sunglasses with tinted lenses that glow with the sunlight. Celestia's mane flows in a wavy pattern of pastel colors, with shades of blue, green, and pink blending into each other. She is looking at something out of the frame with a displeased expression. The setting is an urban environment with multi-story buildings, snow on the ground, and a clear winter day. In her outstretched magical aura, there is a smartphone with a snowflake logo on its back.
https://derpibooru.org/images/3337672 Apple Bloom, the feral pony with a bright red mane and a big pink bow, and Applejack, the feral pony wearing a cowboy hat, are sitting against a tree, holding an apple. Apple Bloom is looking at Applejack with a smile and Applejack is looking at her with affectionate eyes. They are on a picturesque apple orchard set against a backdrop of a red barn and clouds in the sky.
Улучшенные эстетические оценки Для глубокого понимания «score_9» и связанных с ним метрик, пожалуйста, обратитесь к моей предыдущей статье здесь. В V7 я внедряю два основных улучшения. Во-первых, проблемы, с которыми V6 сталкивалась с длинными промптами, будут решены, что позволит прямо использовать «score_9» и другие теги оценки. Во-вторых, по мере перехода на более крупные модели CLIP и внедрения рейтингов изображений типа арены, я стремлюсь более точно отражать качество изображений внутри тегов.
Однако с добавлением в модель большего количества типов контента потребуется дополнительное ранжирование данных. Я предполагаю, что потрачу несколько дней на маркировку большего количества изображений, чтобы усовершенствовать эти процессы.
Более широкое применение таких тегов оценки остается открытым вопросом, но любые значительные обновления будут отложены до графика разработки V8. Хотя такие варианты, как DPO и «ползунки» качества привлекательны, я предпочитаю исследовать их после установления прочной базовой линии с более простыми механизмами в V7.
JPEG-артефакты Проблема, которую я изначально не заметил в V6 и на которую мне указали несколько пользователей, - это наличие JPEG-артефактов. Хотя эта проблема очевидна только в определенных стилях, я привержен ее решению. Проблема, по-видимому, проистекает из двух основных источников: некоторые исходные материалы уже содержат артефакты, а мой конвейер, который включает в себя двукратное сохранение изображений с качеством 95%, вероятно, усугубляет проблему.
Чтобы решить это, я вношу коррективы в конвейер, чтобы гарантировать, что изображения передаются напрямую от источника к VAE-кодированию без промежуточного снижения качества. Кроме того, я разрабатываю методы обнаружения и либо автоматического исправления, либо исключения изображений с заметными артефактами. Это должно значительно уменьшить присутствие JPEG-артефактов в выходных данных V7.
Базовая модель и сроки Я стремлюсь обучить V7 с использованием SD3, хотя в настоящее время неясно, будем ли мы иметь доступ к весам модели. Я остаюсь в надежде и был бы рад, если бы кто-нибудь из SAI мог обсудить со мной эту возможность. Несмотря на мои попытки связаться, ответа пока не было - возможно, есть некоторое опасение быть затмеванным PD (просто легкомысленная мысль).
Заглядывая вперед, следующий месяц посвящен аннотированию - задаче, которая требует столько же времени и ресурсов, сколько и само обучение модели. За этим последует завершение сбора данных от людей и завершение исследовательских работ, таких как группировка стилей. Я предполагаю начать фазу обучения после этого и предоставлю более конкретные сроки по мере приближения к этим этапам.
🌟 Внедрение концепции "супер-артистов" для улучшения стилевой согласованности через кластеризацию изображений по стилю на основе обратной связи от людей. Будут введены специальные теги стилей.
📚 Расширение датасета до 30 млн изображений, из которых около 10 млн будет отобрано для обучения. Это позволит улучшить поддержку разных типов контента и распознавание персонажей в разных фэндомах.
🌞 Больше внимания SFW данным для достижения лучшего баланса и разнообразия при сохранении высокого качества.
🎨 Добавление датасетов косплея, аниме, видеоигр, 3D, артбуков и концепт-арта. Извлечение кадров из видео для расширения датасета.
📝 Улучшение качества и охвата текстовых описаний изображений. Приведены впечатляющие примеры результатов.
📏 Исправление работы метрик качества вроде "score_9" и добавление новых метрик на основе больших моделей CLIP.
🖼️ Устранение артефактов сжатия JPEG как из исходных данных, так и возникающих в процессе обработки.
🚀 В качестве базовой модели планируется использовать SD3. Ближайший месяц будет посвящен генерации текстовых описаний, затем сбор данных от людей, после чего начнется непосредственно обучение модели.
Ключевой фокус - на улучшении качества и согласованности стилей, расширении датасета, повышении качества текстовых описаний. Ожидается значительный прогресс по сравнению с V6.
Также в статье упоминаются некоторые интересные технические детали
👥 Для автоматической группировки изображений по стилю планируется использовать обратную связь от людей. Сначала для обучения будут применяться художники в качестве ground truth, а затем процесс будет уточняться через опросы людей о схожести стиля двух изображений. Это позволит ввести специальные теги вроде "anime_1", "smooth_shading_48" для улучшения согласованности стиля.
😇 Доля безопасного для работы (SFW) контента в обучающих данных будет существенно увеличена для обеспечения необходимого разнообразия. При этом особое внимание уделяется сохранению высокого качества результатов.
🎥 В рамках подготовки инфраструктуры к задачам text-to-video в конвейер сбора данных добавляется извлечение статичных изображений из видео. Это ставит новые вызовы в плане аннотирования и выбора лучших сэмплов.
📊 Для более точной оценки качества изображений планируется переход на более крупные CLIP модели и внедрение механизмов попарного сравнения изображений (image ratings). Однако применение этих метрик в виде "слайдеров" качества и подобных механизмов, скорее всего, будет отложено на следующие версии после V7.
🤝 Пока нет ясности, получит ли проект доступ к весам базовой модели SD3 от Stability AI, на которой планируется обучение V7. Автор надеется на диалог с представителями SAI по этому вопросу.
Про "супер-артистов"
Концепция "супер-артистов", которую автор планирует реализовать в Pony Diffusion V7 - это способ автоматической группировки изображений по схожести стиля с использованием обратной связи от людей.
На первом этапе в качестве эталона (ground truth) для обучения используются реальные художники и их работы. Затем процесс кластеризации уточняется с помощью опросов людей, которым показывают пары изображений и спрашивают, насколько похож их стиль.
На основе собранных данных алгоритм выделяет группы изображений со схожей стилистикой и присваивает им специальные теги вроде "anime_1", "smooth_shading_48" и т.п. Эти теги потом можно использовать как при обучении модели, так и при генерации в промптах - для обеспечения более высокой согласованности и чистоты стиля.
По сути, "супер-артисты" - это автоматически сформированные кластеры изображений, объединенные общими стилистическими признаками. Такой подход позволит более точно управлять стилем генерируемых изображений без необходимости указывать конкретных художников в промптах.
Безусловно, это очень интересная и перспективная идея. Она поможет сделать генерацию в Pony Diffusion более контролируемой и предсказуемой в плане стилистики.
>>721680 >На первом этапе в качестве эталона (ground truth) для обучения используются реальные художники и их работы. Затем процесс кластеризации уточняется с помощью опросов людей, которым показывают пары изображений и спрашивают, насколько похож их стиль.
А человек точно способен отличить одного аниме художника от другого?
>>721677 > «anime_1», «smooth_shading_48» и «sketch_42» > Хотя более 50% данных, использованных для обучения PD, особенно V6, были безопасны для работы (SFW), стало очевидно, что этого недостаточно для разнообразия. Ссанина
>>721230 Это a1111, пчел. Который должен предоставляться бесплатно в облаке, что в наше время уже большая редкость. Там и комфи есть, и фокус, и кохья. Но если ты спрашиваешь, вместо того чтобы попробовать триал - то тебе и не нужно.
>>721677 > V6 имела только половину своих изображений полностью аннотированными Они были жутко припезднутыми и по сути модель нормально с ними не работала. Неудивительно, ведь они пыталсь юзать ллаву для того в чем она достаточно слаба и никак не фильтровали. Новый вариант куда интереснее и перспективнее, если только оно стабильно такое а не просто правленный черрипик. Алсо > апперкейс больной ублюдок, конечно в сд3 текстовая часть будет еще сильнее но всеравно это приведет к деградации. >>721679 > Я стремлюсь обучить V7 с использованием SD3 Это хорошая новость - под сд3 не придется очень долго ждать модель. И в то же время плохая - это еще не один месяц ожидания от текущего момента и очень очень вероятно что оно также будет сильно кривое из-за плохого знания инструментов для сд3. >>721680 > По сути, "супер-артисты" - это автоматически сформированные кластеры изображений, объединенные общими стилистическими признаками. Ну это по сути ноукост с точки зрения усложнения обучания фича которая легко реализуется, вполне логично. Вот только > anime_1 > smooth_shading_48 Он просто так и жаждет взрывать нахер клип своими шизотегами. Чаров вернет или опять все будут потерты? >>721715 Это можно исправить.
>>721702 > Вальехо, Брома и Хорли Не то, чтобы уж очень их хотелось. Ройо ещё забыл. Главное, чтобы тренинг на v7 остался не хуже, чем то, как гибко получается тренить на v6
>>721720 Пинаю его в жопу. Мало того, что он художников закодировал, так в том числе из-за этого модель дополнительно кукухой поехала, ибо натуртекст замешалось с его шизоидными трехбуквенными токенами. >>721738 >Он просто так и жаждет взрывать нахер клип своими шизотегами. А то! Ничему не научился, походу. >Чаров вернет или опять все будут потерты? А это как у него очко сыграет. Вангую, ничерта не изменится. Какую-нибудь СпайдерГвен модель будет отлично знать просто потому, что, а вот Конату Идзуми - хер тебе, а не Lucky Star. >Это можно исправить. И как?
>>721747 Ебанько, энкодер читает текст не по словам и не по буквам, - а по токенам. Это значит, что для нового понятия нужен новый токен. Одно цельное слово, без пробелов, иначе будет глючить. Можно сделать_вместо пробела.
>>721747 > Вангую, ничерта не изменится. А ces by gpo останется? > Какую-нибудь СпайдерГвен модель будет отлично знать просто потому, что, а вот Конату Идзуми - хер тебе, а не Lucky Star. Rrreeeeee > И как? Тренировать >>721780 Понимаю
>>721783 > Это значит, что для нового понятия нужен новый токен. Одно цельное слово, без пробелов, иначе будет глючить https://www.youtube.com/watch?v=fUAaTSmDqS8 И интереса ради посмотрел бы как токенизируются его набор.
>>721783 > _вместо пробела Токены фиксированные и большинство токенов для слов начинаются с пробела. Т.е. вместо "говно" обычно используется " говно". Это помогает экономить токены на пробелах, потому что в 99% слов перед ними стоит пробел, что как бы очевидно. Ставя подчёркивание ты автоматически дропаешь все длинные токены с пробелами и скорее всего откатываешься к слогам, а то и просто буквам. По этой причине в пони все подчёркивания выкидывали в датасете, и это надо делать всегда при обучения лор, а не впихивать теги с бур с подчёркиваниями.
>>721795 >Тренировать Тю. Какое ж это исправление?
>>721809 Мне вот давно интересно было, как они там тот самый натуртекст со всеми его предлогами и артиклями токенезируют. Что для нейронки условный токен "the" обозначает? Особенно учитывая, что он в описании комплексной картинки по пять-семь раз встречаться может.
>>721873 > Тю. Какое ж это исправление? Только так. Будет знатный рофл если такой дохуя "праведный" понифаг таки запустит обещанную платную версию где артисты и чары будут. > как они там тот самый натуртекст со всеми его предлогами и артиклями токенезируют Имеешь ввиду как воспринимается? Токенизация фиксирована, словарь в открытом доступе.
the, a, и прочие прочие при использовании их как связок эффекта не окажут кроме смещения позиций, считай эквивалент возмущения сида. Однако, никто не мешает самому натренить сочетания "a concept_name", "the concept_name" и модель будет их друг от друга отличать. Точнее скорее всего что-то подобное уже может быть, текстовый энкодер смотрит как на сочетания тегов как в одном "блоке" отделенным запятыми, так и в совокупности с другими блоками а не просто каждый тег обрабатывает отдельно.
>>721880 >Будет знатный рофл если такой дохуя "праведный" понифаг таки запустит обещанную платную версию где артисты и чары будут. Так, это. Как минимум стили даже в 6-ю версию встроены. Просто закодированы через неинформативные токены. Был же брутфорс трехбуквенных тэгов анонами с форча. Там прям заметно результат отличался, простым шумом такую значительную разницу в выводе объяснить никак не получится.
>считай эквивалент возмущения сида >"a concept_name", "the concept_name" Что-то мне кажется не все так просто и прямо должно быть. Взаимопроникновение все равно будет.
>>721882 > Как минимум стили даже в 6-ю версию встроены. Ага, протечки и "хэши" с коллекцией анальных игрушек автора, лол, нормальных в смысле нет. Эта ерунда, если оно действительно сделано сознательно на что все указывает, а не просто баг ТЕ, неплохо так подсирает при обычном использовании. В в7 скорее всего понифаг позаботиться как о том чтобы было непросто разгадать, так и о том чтобы все не ломало. Как бы без проблем можно научить модель тегам типа > MWdpcmwsIGxvb2tpbmcgYXQgdmlld2Vy и она будет их устойчиво выдавать, без лишних проявлений. > Что-то мне кажется не все так просто и прямо должно быть. Взаимопроникновение все равно будет. Оно и просто и сложно одновременно. Простой пример - cowboy hat / cowboy shot / cowboy, минимальные отличия в тексте но значительные в результата. Если в обучающих материалах достаточно данных то обучится и будет без проблем различать. Но если условия будут не идеальными - действительно полезут проникновения, все от степени обучаемости. да что объяснять ты явно и сам все это знаешь
>В в7 скорее всего понифаг позаботиться как о том чтобы было непросто разгадать Да вопрос не в том, сложно или тяжело это разгадать. Меня его лицемерие раздражает, когда он пишет, что модель художникам не обучалась. Обучалась же, просто скрытно.
>>721889 >да что объяснять ты явно и сам все это знаешь Потому и интересно, как все эти артикли в результате на генерацию влияют. У них же удельный вес просто чудовищный должен быть, в каждом описании натуртекстом их по несколько штук в одном блоке. При этом когда ты на чисто тэговой системе работаешь - у тебя всех этих токенов нет, т.е. какой-то огромный пласт модели может теоретически тупо не работать. Интересно, тупо вырезать это все на тренировке никто не пробовал?
>>721906 > Меня его лицемерие раздражает Ой не говори. Все модель настолько засрана ватермарками, что даже просто так сквозь негативы лезут. И их ну пиздец как сложно вычистить, кормишь чистейшими артами - всеравно иногда пролезают такие же как на оригинале. Решается увеличением масштаба - на крупном файнтюне разве что personal ami лезет, или тренировкой лоры, желательно с другим тегом артиста. Меня больше прет с того что он удалил множество чаров чисто из-за пидорской натуры, а потом aua называет "дженерик вангерл просто, потому и не запомнилось". Да что там, оно даже сырну не может нормально сгенерить, только подобие по куче тегов. Офк среди тох, наверно, самая максимальная концентрация мусорных пикч и их нужно особенно тщательно фильтровать для датасета, но у него оно явно было если судить по присущим только там тегам. > Потому и интересно, как все эти артикли в результате на генерацию влияют. 100% влияют если попадают на стык чанков. Ситуация редкая, но можно наблюдать внезапное существенное возмущение стиля или странные объекты. При этом чуть меняешь порядок тегов - все опять ок становится. Хз, в детали не вдавался, большей частью фиксится если делать оче большую тренировку. > тупо вырезать это все на тренировке никто не пробовал? Хз как вырезать, только "слаживание", оно проявляется. Можно выпилить средствами что клип лоботомируют, но хз какие полезут побочки и заебешься все искать. Больше заботы за то чтобы запомнило новые вещи а не выпил старых. Вообще не понимаю почему до сих пор никто не взял и не проанализировать текстовый энкодер на активации от единичных токенов. Или банально не пустил генерации для оценки, можно и нейронку на это посадить. Сидят вручную майнят.
>>721960 >Все модель настолько засрана ватермарками, что И ведь есть же тулзы для автоматического удаления всего этого. Чего он ими не воспользовался - непонятно. Пусть там какие-то косяки ретуши были бы небольшие - но это ж всяко лучше, чем ватермарки. >но можно наблюдать внезапное существенное возмущение стиля или странные объекты Ага. Когда на трех картинках из батча в четыре у тебя вангёрл, а на одной - какой-то непонятный бублик на фоне цвета дрисни. Уф, как меня чистый пони раздражает этими своими закидонами.
>>721967 Хуясе ебать. Squatting тяночку на крыше или не поверю! >>721975 > более полный https://lite.framacalc.org/4ttgzvd0rx-a6jf >>721996 > тулзы для автоматического удаления всего этого Они довольно всратые большей частью. Однако, никто не мешает потратить пару вечеров и запилить собственное решение. Узнаешь артистов? 2-3 тот еще хардмод.
>>722015 >Хуясе ебать. Squatting тяночку на крыше или не поверю! Чего? Я уже всё повырубал. На тебе пруф, чтоль. Долго я не постил, тому що SD1.5 меня доебала, нихуя не генерит то, что хочу. А SDXL с этим справляется. Когда время есть свободное чо-то генерю, пощу и съёбываюсь. А сижу с вами с первых тредов в /b/, помню лягущьку и пчолу. Единственный минус SDXL - лор хуй да нихуя. И чтобы сделать лоры самому, надо иметь пеку с 12gb vram. И они тут как-то странно работают, будто они есть, а будто и нет. И нету моей любимой лоры на VoxMashina, пиздец обидно.
>>722024 Ебать ты, это был реквест пикч, нахуй эти пруфы. > И чтобы сделать лоры самому, надо иметь пеку с 12gb vram Собери датасет и скинь сюда или с технотред, натренят. Алсо генерить в одной и апскейлить в другой пробовал?
>>722015 >Они довольно всратые большей частью. Та, которой я пользовался, вычищала 95% ватермарок, причем любых. И это год назад было, с тех я так думаю, прогресс должен был вперед шагнуть.
>>722149 Покажешь какой пользовался? Ничего приличного не нашел. Разумеется речь про unattended использование а не где ты сам обрисовываешь область, последнее и так 1.5 года всем доступно на соответствующей вкладке автоматика.
>>722037 Простите госпожа! В отличии от вашего величества, у меня нет такого утонченного вкуса, как и у большинства недостойных вас крестьян, которых собрались опрашивать.
>>722153 Тогда пользовался ЛЛамой, она в ручном режиме работает. Сейчас есть вот такая штука, например: watermarkremover.io Не шибко стабильно, но автоматически. Еще пару других помню, но они сильно агрессивно картинку колбасят, механизм детектирования у них не очень. Плюс по гитхабу еще поискать можно, наверняка что-то найдется.
Т.е. решения есть, технология тоже, вопрос в том, насколько чел готов был этим запариться. И очевидно, что запариться автор поней был не готов.
>>722286 > решения есть Они не работают для большого количества пикч. Все эти решения говно. Когда у тебя 10 лямов пикч, то тратить по 10 секунд на каждую неприемлемо, ты будешь ватермарки чистить в 10 раз дольше чем тренить.
>>722291 Так и ватермарки не везде есть. И да, конечно, лучше не чистить нихрена, и пусть оно замешается в модель настолько мощно, что потом этот мусор оттуда никаким шаманством не вычистить будет.
>>722299 >И как ты узнаешь есть ли она там или нет? Ээээ. Как бы, ты для тренировки модели составляешь описание картинок. По ним уже обрабатывать, после обработки упоминание о ватермарке из файла убирать.
>>722301 > для тренировки модели составляешь описание картинок Но зачем, когда оно уже руками протегано? Да и BLIP-подобные говномодели не умеют нормально детектить такое.
>>722307 Затем, чтоб взаимопроникновения токенов не было, когда у тебя по вангёрл вызывается кусок ватермарки, не говоря уже о том, когда ты пытаешься вызвать стиль художника, а он намертво на его подпись "запитан". Плюс можно из негатива убирать весь ассоциированный с ватермаркой текст, сокращая длину промпта и улучшая стабильность. >Да и BLIP-подобные говномодели не умеют нормально детектить такое. Проблемы негров шерифа не волнуют. Пусть учатся. Если уж всякие ВД-таггеры научились, то и эти смогут поди.
>>722286 > ЛЛамой С одной Л может? Да, она работает, но накидывает странное мыло в то месте, что плохо если проходит по телу. И сама по себе не работает. > watermarkremover.io Забавно, по сути у них та же лама, но добавлена автоматическая детекция. Но анимушные подписи и лого она скипает. > технология тоже Ну как, питорч, лол. Тренится своя yolo что точно и аккуратно работает, потом sam, математика для полученной маски, и уже удаление оптимальным способом или использование особых техник тренировки. > И очевидно, что запариться автор поней был не готов. Абсолютно! Возможно, офк, просто не осознавал масштаб проблемы на тот момент, но скорее просто похуй. >>722291 > то тратить по 10 секунд на каждую неприемлемо В чем проблема? Во-первых, далеко не на всех пикчах есть ватермарки, если брать консервативно то потребуется для 2 лямов. Во-вторых, у тебя N видеокарт, даже с 10с на пикчу можно уложиться в 1-2-3 недели, что для такого датасета вполне себе. > ты будешь ватермарки чистить в 10 раз дольше чем тренить. Чел, ты даже не осознаешь масштабы, это херня по сравнению со сбором датасетов, написанием оснасток и самой тренировки, которая не месяцы может затягиваться.
>>722310 >С одной Л может? Да, с одной. Опечатался. >Но анимушные подписи и лого она скипает. Там как фишка ляжет. Я по гуглу пробежался - уже в первых выдачах есть несколько вариантов автоматического детектирования и удаления, все по-разному работают. Где-то текст хорошо зачищается, где-то сигнатуры, где-то сильно агрессивно картинку в некоторых случаях корежит. Т.е. штука рабочая, просто до ума довести - и качество датасета поднимется прям значительно. >но скорее просто похуй Это да. Еще, например, по тегу на НСФВ-картинки (rating_explicit или как оно там) понь такую лютую мозаичную цензуру высирал, что прям уф.
>>722312 Да практически всегда умели. Больше года, как я свои первые лоры тренить начал - они это уже ловили.
>>722314 Иногда шизят, конечно. На уровне 80-90% детектит, что тоже как бы неплохо.
Анончики, у меня видеокарточка rx6600 (8гб), что поставить что бы не сильно долго генерило? Мб тут есть кто с такой же карточкой? Пользовался форжем на старой, но на амд такого нету
>>722396 > На уровне 80-90% детектит, что тоже как бы неплохо. Хм, казалось там пониже эффективная. Действительно просто сотлеживать скор по соответствующим тегам, но там еще проблема в том что разрешение пикчи что идет в модель невысокое, может терять. Лучше йолой сразу, она сразу и детектит, и количество показывает, и область выдает, и работает быстрее из-за меньшего размера. Потом обработав так датасет можно посмотреть на бигдату, которую заслужили, и выявить закономерности где нужно юзать прежде всего, а что стоит пропустить без обработки чтобы не обрезать детали персонажей. >>722462 Как забавно взаимодействуют косички с ушным мехом. Просто ears/tail ставишь и работает в пони, в этом отношении культурная модель из коробки. Если нужно ими управлять - 4th tail с цивы. >>722645 Брутфорс. Более менее стабильно оно только в аутизме, но будешь уже черрипикать нескучную позу и другие нюансы есть.
Парни, поясните, какие настройки мне поставить, чтобы ебла нормальные получались, как у вас. Я newbie, помргите! Тока обновил железо >>722443 Нет, он мой
>>722813 Напишите с какими настройками вы генерируете, а дальше я сам разберусь. Если что я не БЛеб, я анон который сиськи нейросгенерированные недавно кидал и поставить софт пытался
>>722834 Для xl/pony разрешение генерации ровно в 1 мегапиксель, хайрезфикс х1.5-х1.8 с ган апскейлером по вкусу и дейнойзом 0.4-0.55, >>722838 Хорош, что за модель/лоры? >>722853 Делай апскейл (базовый highres fix), или используй адетейлер по лицам. В стандартном разрешении оно так себе, особенно если в отдалении.
>>722854 А, блять, ясно, ебать я дебил, я в стандартом 512x512 генерировал. Если что, вот это >>722853 без апскейла 1024x1024, а вот с апскейлом. Извиняюсь перед господами ИТТ за собственную тупость
>>719182 → Генерёжка с хайрезфиксом а потом апскейл в img2img с тайловым контролнетом и мультидиффузией >>719339 > как на прикле 1 Ого, ну ты откопал..
Какие теги позволяют сделать узкий таз и маленькую жопу на моделях пони? Slim, slender, skinny не работают, делают худое тело, но оставляют широкую жопу и бедра. И еще вот для 1.5 был thickness slider для этих целей, а на пони нет такого?
>>723043 Начинай пацана генерить, на половине переключайся на девку. Типа [1boy:1girl:0.5] Про негативы уже написали. Лольских тэгов насыпать еще можно, но тут уже пропорции поедут.
>>722930 Красивые! А баскетболисток сможешь? Или бейсбол, окф в момент взаимодействия с кольцом/замахе. >>722934 > мультидиффузией Поделишься параметрами, особенно контролнета? Или хотябы в общем опиши. >>723056 Вот этого ценителя двачую, лол.
Почему у хуежников так горит от данного базового треда? Или у них промпт написать не получается нормальный и им надо ещё пользоваться всякой мерзостью вроде controlnet или , что еще хуже, i2i?
>>723131 Я медленно беру в руки перо моего фирменного дигитайзера от Wacom и заношу его над рабочей поверхностью. Кривая чувствительности настроена идеально, каждое движение отзывается точным штрихом на экране. Я готов творить, вдохновение переполняет меня. Мои навыки рисования отточены годами практики, поэтому мне не нужны жалкие попытки подделки поз с помощью промптов. 1girl - вот и все, что мне нужно. Четкими, уверенными движениями я выставляю скелет OpenPose в моем ControlNet и начинаю работу. Линия за линией, штрих за штрихом, итерация за итерацией, образ оживает на экране. Я использую все возможности Stable Diffusion, словно дирижер, управляющий оркестром. Inpainting позволяет мне прорабатывать мельчайшие детали, создавая идеальную композицию. Upscaling делает изображение кристально чистым, каждый пиксель на своем месте. Но я не останавливаюсь на достигнутом. Постобработка - вот где настоящая магия. Цветокоррекция придает картине нужное настроение, играя с оттенками и контрастами. Я экспериментирую с фильтрами и эффектами, добиваясь совершенства. И вот, после всего нескольких минут работы, шедевр готов. Он завораживает, притягивает взгляд, заставляет задуматься. Это не просто изображение - это история, рассказанная красками и светом. Каждая деталь продумана, каждый штрих имеет значение. Я с гордостью смотрю на свое творение, зная, что оно не чета жалкому дженерику тех, кто использует лишь базовый txt2img. Это настоящее искусство, рожденное талантом и мастерством. И пусть другие довольствуются посредственностью - я буду продолжать создавать шедевры, раздвигая границы возможного в мире цифровой живописи.
>>723150 До чего технологии дошли то, правильных красивых обнимающихся нек можно пачками генерить. >>723170 3 интересная если не смотреть на ноги, ну блять как так-то, заинпеинтить поленился?
>>723316 Easy way - инпеинти аутизмом, в нем лучшие пальцы, и уже после первого апскейла/хайрезфикса. Да или просто в любой xl модели с достаточным разрешением, оно по дефолту умеет и одна из 4х точно получится. Hard way - для большого выхода качественных рук на них должен приходиться определенный размер пиксельного/латентного пространства. Если делать всю руку на тайл разрешением в мегапиксель - будет херь, если она будет лишь мелким участком - банально не сможет детализировать и еще вае ее пережует. Так что сначала кропаешь часть пикчи примерно на оптимальном разрешении для модели чтобы рука занимала 10-20% по стороне и инпеинтишь whole picture. Это слишком заморочно, только если готовый костыль/воркфлоу пилить, иначе нет смысла т.к. легко чинится и так.
>>723331 > зато всё остальное качество днище Двачую рогулика, если присмотреться то далли тот еще бадихоррор рисует. Странные пропорции, растущие не оттуда конечности, деформированные телаесли вдруг это не скрыто костюмами - частый гость. Хз как даллипостер такие хорошие получает.
>>723282 DALLE не для маняме из за анальной цензуры, сгенерить Неко девочку в трусиках та ещё задачка, даже бездомную раньше делал в порванном шмотье, сейчас блокирует, так что нет уж спасибо
Выбор между комфи и а1111 для API в облаке, это выбор между пиками точеными, и зуями дрочеными.
Комфи умеет во временную загрузку лоры, чтобы не забивать хранилище. Но не может загружать файлы батчами, а также оче криво сделано изменение количества лор в вф (например ты хочешь чтоб иногда была одна лора с весом 1, а иногда 3 с весом 0.4), вдобавок несовместимо с временной загрузкой. Также в комфи есть ноды постобработки. Говноматик оче кривой во всем, но в нем многое работает из коробки. Расширения ставятся через жопу, хотя и в комфи приходится чекать и обновлять ноды в каждом рантайме.
Выбор между комфи и а1111 для API в облаке, это выбор между пиками точеными, и зуями дрочеными.
Комфи умеет во временную загрузку лоры, чтобы не забивать хранилище. Но не может загружать файлы батчами, а также оче криво сделано изменение количества лор в вф (например ты хочешь чтоб иногда была одна лора с весом 1, а иногда 3 с весом 0.4), вдобавок несовместимо с временной загрузкой. Также в комфи есть ноды постобработки. Говноматик оче кривой во всем, но в нем многое работает из коробки. Расширения ставятся через жопу, хотя и в комфи приходится чекать и обновлять ноды в каждом рантайме. Эх! Попенсорс...
>>723119 > Поделишься параметрами, особенно контролнета? Или хотябы в общем опиши. Примерно так: денойз 0.3, контролнет врубаю Tile с весом 1 и ничего больше не трогаю, мультидиффузия - 144х144 с перекрытием 80, Иногда врубаю noise inversion с силой 0 и шагами 10-15
https://civitai.com/shop Civitai добавили магазин со свистелками и перделками! Жаль, что пидорги вдобавок давно убрали с сайта рефералы, а так бы я нафармил сразу 30к валюты и обмазался ненужными фичами на основном акке. Может быть они это сделали, чтобы не абьюзили систему перевода баззов в реальные деньги. Но теперь даже и лоры не потрейнить толком, лучше бы убрали перевод в реал и оставили рефералы как лазейку.
Ну по крайней мере, эти перделки будут работать для мотивации лучших создателей контента (когда им перечисляют базы), а также чтобы выделять их среди остальных (видишь сверкающий аватар - сразу знаешь, что это богатый буратинка).
>>723880 Я все же украл себе один из эффектов, но он не может вылезти за рамку аватара (наложен на пикчу слоем с анимацией). Еще цвета поменял и накинул эффектов сверху.
Ах да, и увёл один из фонов на рабочий стол в ПК. С паршивой овцы да шерсти клок.
>>723860 Выглядит прикольно, хоть на что-то можно будет их потратить. Может допольнительных рамок для профиля сделают, а то без ассортимента. >>723894 По апи ему же хоть целый воркфлоу можно сувать.
>>723265 Хорош, тебе клод/жпт ассистил или вручную сочинял?
>>723860 Предполагаю, что это вопрос времени, когда они просто прикрутят монетизацию к скачиванию моделей с выплатой комиссий авторам. Я не вижу другого способа, как такая инфраструктура с командой может окупиться. Сейчас там из реально полезных вещей это возможность тренить лоры и генерить картинки на самом цивите, но, камон, если у человека нет денег на видеокарту, то он не будет тратить их на такие подписочные системы за определёнными исключениями (AMD вместо видеокарты, ноутбук со слабой картой, постоянные разъезды и вынужденная генерация с телефона и т.п.). Собственно, они и сейчас пишут, что одной из их важных целей является возможность дать авторам моделей заработать. Ну и свою комиссию 30% на вывод они конечно же упомянули.
Менеджеры цивита застряли во времени, пытаясь сделать из цивита что-то вроде соц. сети, но они опоздали лет на 15. Думаю, ещё побрыкаются, попытавшись окупиться за счёт свистоперделок, но более жёсткая монетизация будет неизбежной, иначе проект не окупится.
https://iblnews.org/civitai-com-ai-content-marketplace-reaches-3m-registered-users/ Число зарегистрированных пользователей на цивите около 4 миллионов, уникальных посетителей 12 миллионов/месяц. Однако, только 10 000 человек публикуют там свои модели. Даже если каждый креатор отсыпет им по $10 ради нескучных обоев в профайле, то это принесло бы им единоразово только $100 000, чего хватит разве что покрыть зарплату одного кодера за год.
Большая часть людей использует цивит просто как поисковик по моделям, им эти свистоперделки даром не нужны.
>>724054 согласен, чтобы зарабатывать, им нужно как-то пустить поток денег через себя, например вместо всяких бусти/патреонов автор сможет сразу же выкладывать модели/лоры на цивит для своих платных подписчиков
иначе, как еще зарабатывать, когда у тебя проект - ебаная галерея моделей с картинками. Скорость они прикрутить не могут, ведь все тогда просто переползут на обниморду.
Интерсно, с каким планом они приходили к инвесторам, чтобы выбить финансирование, лол.
>>724054 Клод, вручную это же пиздец. хедпат ассистента Составь сатирический текст в котором художник использует stable diffusion с полным функционалом, насмехаясь над теми, кто ограничен базовым (только промпт). Используй ['img2img','inpaint','controllnet','дальнейший апскейл','постобработку','цветокоррецию']. Также упомяни про openpose, 1girl - весь промт что нужен, упрекни в жалком дженерике использование txt2img. Начни с "Я медленно беру перо моего wacom", художественно перефразируй и продолжи. > монетизацию Там ведь уже очень давно стоит галочка "я заинтересован в монетизации модели" при загрузке. > монетизацию к скачиванию моделей Вот это интересно как реализовать, ведь пойдет вопреки заголовку про дом опенсорсного генеративного ии.
>>724060 Я скажу еще больше, раньше был китайский сайт с бесплатным хостингом и запуском моделей SD, с функциями как в каломатике и без каких-либо платных фичей. Очень тогда радовался, что смог его найти, заливал туда приватно тонны моделей и лор, гонял круглосуточно через API сайта. Он работал около года, добавлял новые фичи (SDXL), прожег средства инвесторов и закрылся.
>>724054 > зарегистрированных пользователей на цивите около 4 миллионов Только благодаря лёгкой процедуре регания, позволяющей регать без подтверждения и на темповую почту. Пока позволяющую.
>только 10 000 человек публикуют там свои модели Когда что-то публикуешь там, то можно ожидать набега шизов, которые либо нагенерят гуро, либо вампиров 800 лет, и тебя же будут в этом обвинять.
Пусть свою монетизацию UGC в задницу себе засунут.
Для таких советов бывает два варианта ответа, первый самый очевидный.
1. Пошёл на хуй.
2. Никогда в жизни не работал, живу на пособие на 2-й группе. Мне 30 лет. Хотя одно время после окончания учёбы ходил по объявлениям и пытался, смотрел на варианты. Решил чиллить на средства тех кто платит налоги, паразитировать. Какое общество - такие и меньшинства.
>>724496 autismmixPony + Lora Red7cat, qiyana + white hair модель умеет рисовать ее свистопердельный скин, лучше указывать ей этого не делать, остальное в промте ±стандартное
>>725064 Да пока просто по гайду из шапки всё, модель Meina V8. Только лиса вот такая же получилась, а мегумин отличается почему-то, хотя все настройки такие же. У лисы модель Anything XL.
Извиняюсь я нуфак точнее за полтора года третий раз пытаюсь вкатиться после неуспехов Скажите про аткой момент по промтам - я заметил, что картина меняется, если слова переставлять местами, и вроде как ВАЖНО что в начале учитывается, и что в конце. То есть мне не показалось программа как художник рисует вначале общий скетч - позу, ракурс и композицию, затем лайн четче и черты всякие, потом ерндеры допиливает и т.п. Т.е. я правильно понял сперва надо прописывать позу, ракурс и действие (если это персонаж), затем черты персонажа, его одежду, а уж в конце стилистику, всякие теги гримдакр стиль, хай рез, кволити и т.п.?
Но если так, то как в паре с этим программа обрабатывает негативные промты? Там тоже надо порядок учитывать? И куда лучше прописывать лору - в начале или в конце?
А ещё я заметил, что если тег удаляшь, например зелёные глаза, и даже если их не было на пикче в рендерах, то пикча после этого изменится и надо писать чтоли на место удалённого тега какую-то пустую заглушку чтоб всё кардинально не менялось? Можно так?
Мне надо базу БАЗУ, как граммотно составлять промты. Я не знаю ещё зачем некоторые пишут разного вида скобки.
>>725143 > ВАЖНО что в начале учитывается, и что в конце Да.
>сперва надо прописывать В порядке важности: обычно квалити/пони тэги, дальше уже то, как тебе важнее. У меня, нампример: пони_скоры, мастерписы, поза, угол, типаж перса, что делает, куда смотрит, его трейты и особенности, местность/фон, лоры.
>негативные промты? Там тоже надо порядок учитывать Почти неважно.
>лучше прописывать лору Пофиг, она обрабатывается по-другому.
>если тег удаляшь, например зелёные глаза, и даже если их не было на пикче в рендерах, то пикча после этого изменится Можешь погуглить про чанки, 75 токенов, битые тензоры. Сейчас на норм моделях это почти не должно влиять.
>скобки (my tag:1.2), (your tag:0.8) - для усиления/уменьшения эффектов. Но уже тоже почти не требуется.
Фигурные скобки - наследие NAI, не нужно, квадратные - для замены тэгов на ходу, для очень редких колдунств.
>>725178 Спасибо, это так сразу не усвоить, надо потестить по пунктам, может приду к своей системе. Должна же быть какая-то культура, а не рандомить каждый раз и дописывать.
Кстати, а как проверить рендерит ли видюха или цпу? Потому что у меня подозрения почему долго и видюха холодная.
>>725143 открывай aibooru и смотри, как люди пишут промты. Промт для анимешных моделей - просто набор booru-тегов
негативный промт - обычно есть стандартный для модели, он не меняется, только добавляется вконец что нужно уже во время самой генерации
>Т.е. я правильно понял сперва надо прописывать позу, ракурс и действие вообще нет, лол. Работай с промтом так, как тебе удобно, только квалити теги ставятся вначало, как писал анон.
Мужички, забахайте, пожалуйста, Саманту Смит под аниме стилёк какой-нибудь. Желательно под 3д. Чтобы вот няшная девочка держала полярного мишку. Хочу сделать тридэшный скетч на неё, а в этот ваш нейроайрт я нихуя не умею (и учиться нет желания).
>>725250 В восьмидесятые написала письмо главному операционеру СССР с просьбой закончить конфликт с США, а спустя полгода советы оплатили ей поездку в Россию, показали артек, красную площадь и накормили блинами. В её честь даже марки издавали. Стала основоположницей движения «Детей за мир». Я очень по верхам описал, в сумме своей очень много милого и доброго связано с историей её поездки в СССР.
Я хочу попросить анона скинуть мне топовый негативный промтик, который улучшает качество и убирает ошибки, только эту часть, потому что я не заядлый посетитель аи бур и мне не из чего выбирать. Ну или посоветуйте аи буду, чтоб найти пикчи под мою конкретную модель? У меня Pony Diffusion V6 XL кста.
Объясните, пожалуйста, как скопировать полностью изображение. Мне не понятен момент, как и где использовать вот это поле модель и нужно ли так же где-то использовать хеш?
Ананасы, накопилась куча лор и моделей на 200 гигов, хочу почистить, но не помню, какими я пользовался, а какими не особо, чем можно собрать стату с пикч, чтобы посмотреть какие лоры и модели чаще всего используются?
>>725392 В экстеншонах adetailer. Ты скорее всего какую-то хуёвую лору или модель используешь, если так пидорасит. Или разрешение начальное меньше 512 поставил, миллион причин может быть, кидай все настройки.
>>725389 Есть один скрипт, вызывается: python sort_pics_by_metadata.py --show_stats -r Покажет стату пикч в текущей папке (можно указать через ключ -i или в самом файле, вверху, константа) и подпапках (убрать флаг -r если не нужно). Не забудь --show_stats, иначе оно тебе отсортирует в одну папку.
Перетащил картинку с цивита в пнгинфо и запустил генерацию в txt2img с этими настройками. Но в точности Йоко все равно не получилась почему-то. Правда у меня не было нужного апскейлера (4x-NMKD-YandereNeo-Superlite), я использовал встроенный, но от этого же вроде не должна картинка меняться? Сейбер просто по сиду и промту сделал, тоже не в точности получилась. Это нормально или у меня где-то косяк? Кста, моя сейбер вообще без апскейла, просто изначально указал 1024 1024, вроде норм получилась и так. Апскейл слишком долгий по ~10 минут, а тут 3. С 512512 вообще кал получался. Я так понял, лучше сразу указывать высокое разрешение. И еще, установил sdxlVAE_sdxlVAE, но он вообще ничего не меняет. Какое вае нужно для AutismMix SDXL? Мои пикчи справа.
Привет ананасы, я нафаня по части тренировки лор и тут столкнулся с таким пассажем в гайде: >The takeaway from this is that Reimu always has brown hair, a bow, a miko outfit, sidelocks, etc etc, Features that a character always has should not be tagged, otherwise the AI won't understand what "hakurei_reimu" means on it's own and you would have to use a dozen tags for the job of one Для тех кто не может в бургерспик, мораль такая: при теггировани лучше не тегать сам дефолтный костюм персонажа и его черты. Якобы все это и есть этот персонаж, а потому нахуя. В шапке треда делается обратное и там уже эти дефотные теги прописаны как вот на пике, например. Собсно, а что лучше? Есть соображение, что если в датасете есть костюмы помимо дефолтного, первый вариант себя покажет лучше.
А есть какой-то мини гайд по аутпеинту или может тулзы какие-то получше чем poor man's скрипт? Вытягиваю картинки в уебищные щелеразмеры типа 21:9, генерить сразу в таком формате вообще не вариант т.к. генерится хуета, поэтому юзаю 1024*512, дальше вытягиваю края и апскейлю. Опять же, может есть другой способ получше чтоб добиться вытянутых форматов? Даже самые удачные результаты аутпеинта довольно уебищные.
>>725459 Один-в-один у тебя никогда не получится, так как итоговый результат зависит от железа, версии каломатика, фаз луны. Если что-то примерно похожее получилось, значит работает. Родное разрешение тренировки для СДХЛ моделей - 1024х1024, так что на этом разрешении будут наиболее удачные результаты, 512х512 для СДХЛ мало, но для моделей 1.5 это родное разрешение. Всё это не значит, что можно генерировать лишь квадраты, можно делать и широкоформатные пикчи, но отталкиваться надо от этих разрешений. У СДХЛ моделей больше разрешение и больше деталей, так что хайресфикс там не так критичен, как у полторашек. Ну и sdxl_VAE это база.
>>725500 Если у тебя цель рисовать чара только в одном костюме и с одной прической - тэгай его одним токеном, плюс позу и всё окружение. Если у тебя цель сделать гибкую лору, где ты чару можешь менять наряд, прическу и прочее - тэгай всё целиком. Второе, имхо, правильнее.
>>725511 >так как итоговый результат зависит от железа, версии каломатика, фаз луны Повторял результаты годичной давности на абсолютно другом железе, дровах, и версии каломатика с 96% точностью. Отличия были на уровне _а семплера. Если промпт был простой, без скобок и прочего, то результат можно будет воссоздать в любой момент, были бы исходники. Вот если промпт был сложный - тут уже могут начаться пляски с бубном и поиск режима совместимости в настройках ВебУЯ.
Хотя между зелеными и красными картами разница может быть, это да.
Гребаный фордж, почему на нем половина XL-контролнетов не работает? Выбивает с ошибкой >TypeError: 'NoneType' object is not iterable При этом на автоматике оно работает. Кто-то забыл в свой "интегрированный контролнет" фиксы поставить? Можно от него как-то избавиться и внешний поставить, нормальный?
Господа, несколько вопросов. 1) Вижу на Цивитаи Dora помимо Lora. Что такое, в чём профит? 2) У меня автоматик 1.7.0. Имеет ли смысл обновляться? 3) Завезли наконец модели для XL контролнета? 4) Завезли ли мультидиффузию для контролнета?
Как улучшить фоны на AutismMix,чтоб можно больше деталей хотя бы ближе к 1.5 и так же что бы он понимал какой фон мне нужен, он не знает что такое военная база, гетто,свалка и подобное, всякое простое типо парка,спальни, кафе он уже знает, лоров для этого и стилей я не нашел, наверно плохо искал, есть советы?
>>725500 Для нескольких концептов/чаров/стилей лучше тегать всё, но желательно не плодить одинаковые по смыслу теги. Для одиночной лоры на персонажа можно, но не обязательно нужно, пренебрегать и теггингом присущих ему постоянных особенностей, например цветом глаз, но тогда и сменить в последствии цвет будет труднее, в зависимости от вжаренности результата, плюс же в том что не надо будет его промптить
>>725143 Позиция важна прежде всего для тегов, что были фиксированы при обучении. Как правило туда ставят качество, какие-то категории и подобное, оно будет работать и в конце промта, но эффект может уменьшится. Для остальных тегов порядок почти не важен, есть нюансы с чанками по 75 токенов но для начала можешь забить. >>725178 > пикчи Мое почтение культурному человеку такое будущее протеряли Лорой поделишься или так запромтил?
>>725578 > Как же каскад? Его вроде даже тренить собирались. Фурфаг выкинул прототип и оно даже подаёт признаки жизни с 1гёрлингом, можно даже попробовать лору натренить, если совсем делать нехуй, но прототип был натренен на очень мелком датасете, процентов на 10 от общего запланированного времени, пока слабо впечатляет, на пиках пример лоры для теста, интересно получилось с сеткой забора на ласт пикче, она даже выглядит более менее консистентно, хоть и тян всратая
>>725510 >щелеразмеры типа 21:9, генерить сразу в таком формате вообще не вариант т.к. генерится хуета Генери не хуету, в чём проблема-то? Или сделай квадрат и обрежь как хочется, потом апскейль. >>725511 >512х512 для СДХЛ мало, Есть Турба, для которой это родное разрешение. Никогда не пользовался, впрочем. >>725578 >Как же каскад? Ну поэтому не "совсем нет", а "считай, нет".
Если датасет ну прям очень не впечатляющий: порядка 20 картинок и даже они в разном стиле, типо чиби и тп. То насколько рабочий вариант тупо взять 3д модель и наделать скринов с ней? А-то пайплайн "натренить на 10 картинках->нагенерить миллиард->отобрать лучшие->тренить на них->повторить до готовности" звучит супер времязатратно.
>>725325 >>725330 > low quality, worst quality, normal quality Оно имеет практически нулевой эффект в чистых понях. soucre/score есть смысл спамить >>725349 Там есть кнопка copy generation data, вставляешь потом в пустой промт автоматика и жмешь синую стрелку под кнопкой generate. Это чтобы через пнгинфо не таскать, быстрее. >>725500 С одной стороны, при таком теггировании более жестко к тегу персонажа привяжутся его характеристики и потом просто по вызову его имени будет делаться. С другой, это потребует более интенсивной тренировки, а следствие и больше побочек, а также будешь потом страдать с переодеванием или изменением свойств. На практике когда тренится с тегами, модель гораздо лучше запоминает именно сочетания тегов при этом не переписывая основные их предназначения, например > a bow, a miko outfit, sidelocks вместе с Рейму дадут ее, а само по себе не будет серьезно треггирить, офк зависит от лоры. Также, даже с полноценным теггингом чара запоминает очень хорошо, вплоть до того что могут быть те же проблемы со сменой костюма, но изменений в модели требуется меньше, обучается легче и вероятность поломок ниже. Делай с полными тегами и забей на то, можешь запрунить однотипные.
>>725593 > поделишься Пожалуйста: pixeldrain com /u/vEzkexF9 Там внутри и датасет, и тэги, только обмажь ещё стилями какими-нибудь, иначе будет ужас. Т.к. изначально это была попытка сделать лору на Гостью из будущего. Но артов нет нифига, кроме 1 картинки Кувшинова. Пришлось скриншотить. И тупо пони учить по скринам, что, конечно, дичь. В итоге и получилась дичь. Если лорами других стилей не давить, то буквально копирует датасет с дикой зловещей долиной.
>>725601 Эти пикчи хороши! Сетка вообще ебанись. Насколько там высокая сложность тренировки по сравнению с 1.5/xl и сколько врам требует? Го сами натреним, это не то чтобы сильно сложно. >>725621 Люблю целую обнимаю. > Там внутри и датасет, и тэги Не против если в особых целях воспользуюсь? Хотя скорее тут синтетику делать, с пикч сложно будет обучить.
>>725614 >То насколько рабочий вариант тупо взять 3д модель и наделать скринов с ней? У меня один товарищ сидит в чатике фигурко-делателей, так он говорил, что некоторые там успешно пилили лоры по своим персам, сделанным в Койкацу. Так что очевидно рабочий. _________________
>>725510 > генерить сразу в таком формате вообще не вариант т.к. генерится хуета На 1.5 обычно никаких проблем нет, XL? Используй стоковый скрипт, емнип там важно было денойз поставить единицу. Но проще кропнуть бывает. >>725605 Лиси :3
>>725614 > насколько рабочий вариант тупо взять 3д модель и наделать скринов с ней? Рабочий, на скринах с игр только так. Если не получится - можешь воспользоваться планом б, разбавив скрины удачными генерациями. Правда проверено что действительно качественно это работает только с приличным разбавлением или на больших датасетах.
>>725638 > Насколько там высокая сложность тренировки по сравнению с 1.5/xl и сколько врам требует? Сложнее, чем с XL, медленнее и ест чуть больше врам, файл на выходе ещё толще на сопоставимом ранге. > Го сами натреним, это не то чтобы сильно сложно. Это долго, фурфаг вроде уже зарядил, или прямо на финальной стадии перед началом, да и ему задонатили немного на некоторое время гпу-часов в дц, так что рано или поздно будет готово на огромном датасете из гелбуры и е621
>>725655 >На 1.5 обычно никаких проблем нет, XL? 1.5, но при выходе за 1024 по ширине оно начинает генерить 2 персонажа рядом, хотя нужен один, все негативные теги вмазал но это не слишком помогает, слишком дохуя места видимо. Денойз в скрипте ставлю 0.6-0.8, на 1 хуета и гост кладбище.
>>725710 >1.5, но при выходе за 1024 по ширине Ну, не выходи? У меня сколько указано, столько и генерит. ...Вейт, на первых двух даже "уангёрл" и "соло" нет. А на третьей - три и прописано.
>>725658 > Сложнее, чем с XL, медленнее и ест чуть больше врам Эээ рили? Он же вроде меньше по размеру и любитель меха тренил на слабых видюхах, не? > фурфаг вроде уже зарядил Интересно что там выйдет. Вырвиглаз, который файнтюнить до нормального состояния по сложности как с нуля обучать, и тогда лучше сразу второе, или хорошее годное без необходимости разговаривать на собачьем. >>725710 > по ширине оно начинает генерить 2 персонажа рядом Странно, обычно такое на совсем уж высоких начальных разрешениях, хватает 1girl solo и отсутствия конфликтов в промте. >>725769 Подозрительный леденец какой-то.
>>719192 (OP) Аноны, мне нужна ваша помощь. Дело в том что я 3д художник, и я для портфолио хочу сделать модель анимэ тяночки в unreal engine. Но я хуево рисую и вообще не концептер. С нейросетями я не разбирался. Я подумал что могу попросить помощи у завсегдатых.
Мне нужно сделат концепт анимэ тяночки на основе ДЖОКИРА из ДЖЕКПОТА которому целуют залупу. Анон, ты можешь сделать мне концепт арт персонажа, а я его замоделю и анимирую? Мне нужно чтобы тяночка была прям в таком же костюме, чтобы она была брюнетка, чтобы зрителю было СРАЗУ понятно откуда это и на что отсылка. Я сделаю чтобы она еще танцевала под ПОЦЕЛУЙ МОЮ ЗАЛУПУ анимэ опенинг. Пример того как было бы хорошо 4я пикча. Заранее спасибо!
>>725418 >>725864 Кайф, восхитительно >>725842 Реквест сложный но интересный. Хз, по-простому тут не сделать, но может у кого идеи или реализация появится.
>>725883 >>725878 Да какая разница. Я может вообще слот машину сделаю в анриле где эта тяночка будет спины магические крутить и когда будет джекпот то будет танцевать и можно ей костюмы будет клоунские выигрывать, и выкину это все в эпстор или стим ЗАБЕСПЕЛАТНО. Я не знаю что получится. Я это все для опыта делаю. Могу сказать анону с этого я дам как обычно нихуя. Тоесть это все чисто на энтузиазме. Я не шарю за все эти промты, поэтому я подумал что вы тут каждый день генерите тяночек и это займет у опытного нейросеточника минут 5. Я б может взял бы даже картинку, мусор с нее поубирал и концепт бы какой то получился. В любом случае это все пока на уровне идеи. Там до воплощения нужно один хуй прототип в анриле пилить. То во что там эта баба будет одета это вообще дело десятое. Саму модельку сделать для меня это меньшая проблема из всех.
>>725981 Источник? Насколько помню, они обещали сделать веса публичными для всех; но если планируешь монетизацию делать, то надо им роялти выплачивать.
>>725825 > Эээ рили? Он же вроде меньше по размеру и любитель меха тренил на слабых видюхах, не? У него как то хитро настроено это всё с шардингом, вообще есть модели поменьше, они конечно по доступнее будут, но 3.6б+1.5б даже жирнее XL > Интересно что там выйдет. Вырвиглаз, который файнтюнить до нормального состояния по сложности как с нуля обучать, и тогда лучше сразу второе, или хорошее годное без необходимости разговаривать на собачьем. Скорее что то среднее, если хотя бы на уровне пони, то уже успех, потому что в датасете ничего не обрезается
>>725981 Овари да >>725998 > habr > 18 апр Ебать ты, давай кипиш зазря не поднимай. >>726003 > У него как то хитро настроено это всё с шардингом Раз можно дробить значит можно обучать, особенно на популярных десктопных видюхах. > Скорее что то среднее Ну хуй знает, конечно. Если оно окажется лоботомировано по общим знаниям, а по эстетике окажется на уровне собачьей 1.5 - нахуй такое счастье нужно. В том смысле что уже есть пони и превзойти их в чистом кумерстве - почти нет шансов. > потому что в датасете ничего не обрезается Поняч вон тоже ничего не обрезал, в итоге половина - отборный пойзон и просто так она выглядит ужасно. Как минимум - необходимо фильтровать треш и ранжировать.
>>725990 Они уже обосрались и теперь пиздят что выложат только самую мелкую модель, которая размером с полторашку, полноценная только через API всё так же будет. Причём там идёт прогрев лохов на завершающем этапе, сами стабилити кормят беливами чтоб их не обоссали на месте в стиле "даже если руководство стабилити нормальную не релизнет в опен-сорс, партнёры сольют её", ну вы поняли. Можете забыть уже про SD3, выкатят огрызок и скажут что вот как и обещали, жрите.
Господа, a NovelAI diffusion v3 sdxl модель нет возможности поставить локально? Только использовать парадные сервисы? Если нет, то какие есть неплохие sdxl модели для аниме?
>>726055 > Трёшка то на RTX3050 запустится? Там будет несколько чекпоинтов разного размера, самый жирный из которых влезет только в 24GB VRAM; самая лёгкая модель содержит в 10 раз меньше параметров (т.е. и требования к VRAM так же должны быть в ~10 раз ниже):
- Новая архитектура Multimodal Diffusion Transformer (MMDiT) использует отдельные наборы весов для представлений изображений и текста, что улучшает понимание текста и возможности правописания по сравнению с предыдущими версиями Stable Diffusion.
- Самая большая модель SD3 на 8 млрд параметров помещается в 24 ГБ видеопамяти RTX 4090 и генерирует изображение 1024x1024 за 34 секунды при 50 шагах сэмплирования. Будут доступны модели от 800 млн до 8 млрд параметров.
- Архитектура MMDiT использует два независимых трансформера для обработки текста и изображений, объединяя их последовательности для операции внимания. Это позволяет информации перетекать между токенами изображений и текста.
- Удаление текстового энкодера T5 на 4.7 млрд параметров при инференсе значительно снижает требования к памяти с небольшой потерей качества, особенно для сложных промптов с большим количеством текста.
>>726080 > самая лёгкая модель содержит в 10 раз меньше параметров (т.е. и требования к VRAM так же должны быть в ~10 раз ниже) Самое смешное что новый CEO стабилити писал что мелкую он сам даже не рассматривает как юзабельную из-за плохого качества, а теперь она будет тем что они релизят людям. У нас же уже есть полторашка с ELLA, а ведь у стабилити по классике оно будет хуже, если у большой уроды не сильно от XL ушли, то что там на мелкой. Опять пол года ждать пока васяны перетренят всё за ними и глаза перестанут вытекать.
>>726075 Ну да. Разраб комфи (которого захантили стабилити, так что у него должна быть инфа о внутрянке) пишет, что 8B не будут по крайней мере сразу релизить, т.к. "всё равно её мало кто сможет запустить, а тренить лоры на консьюмерском железе даже для 4B модели будет проблематично".
Планируют релизнуть только чекпоинты, которые они сами считают оптимальными по соотношению "качество/производительность".
>>726103 > на консьюмерском железе Со скрипом как-нибудь в 24 гига влезет, а там хуанг 32/36 может подвезет. К тому же не обязательно же будет тренить все ее блоки. Херня а не отговорка. Хотябы 4б релизнули бы, но это по сути xl.
>>726103 Ну это всё дешёвые отмазки. 4В - это размер XL, которая тоже лезет в 8 гигов. И судя по его высерам 8В в 12 гигов легко лезет с fp8. > качество/производительность Второго у нищуков как не было так и не будет, первое они решили дропнуть. Мы же прекрасно видим какое качество в 8В. Промпт оно лучше понимает, но визуал ни на шаг не продвинулся со времён полторахи, а они режут даже это. Алсо, про тренировку он тоже пиздит, если градиенты грамотно порезать потребление памяти при тренировке лор мизер выше чем при инференсе, т.е. на 24 гигах 8В тренить можно без проблем.
>>725552 Хах, ну точно, древний баг контролнета, который не принимал в генерацию картинки с не-кратным чему-то там разрешению. 256 или 128 пикселов, чтоль. 1024х768 генерит, увеличиваешь любую сторону на 8 и 'NoneType' object is not iterable. В отдельном контролнете пофикшен еще в прошлом году, а в фордже - до сих пор есть.
>>725918 Если генеришь пикчи локально, то питон уже где-то есть. 1. Открываешь папку с картинками и копируешь туда скрипт. 2. По пустому месту с зажатым шифтом жмешь правую кнопку мыши и выбираешь "Открыть окно команд". 3. В появившемся окне пишешь python sort_pics_by_metadata.py --show_stats -r Если опять ничего, то результат картинкой сюда.
Что-то не выходит у меня, анончики. Я слишком большое значение апскейла указываю(1.5-1.6, в итоге где-то 1600х1600) или просто вюдюха кал для этого(2070с)? Можно меньше, конечно, указать, но хочется высокой детализации. Кстати, сколько времени у вас в среднем занимает генерация? У меня по ~15 минут с апскейлом, так и должно быть долго?
>>726442 > просто вюдюха кал для этого(2070с) Есть такое. Изначально для xl минимум было 12гигов врам. Помимо опций типа медврам и подобных попробуй для большего разрешения tiled vae использовать (идет в комплекте с этим аддоном) https://github.com/pkuliyi2015/multidiffusion-upscaler-for-automatic1111 > У меня по ~15 минут с апскейлом, так и должно быть долго? Нет, обычно один-несколько десятков секунд на пикчу. У тебя похоже на переполнение врам и ее выгрузку что сильно все замедляет. >>726457 python --version Алсо из коробки оно не заведется, там используются модули, которые отсутствует в стоке. Самым простым путем, наверно, будет использование venv автоматика.
Кто тут пытается питон скрипт запустить - просто блин посмотри пару гайдов на ютубе - питон самый лёгкий к изучению и начальным этапам в принципе язык.
Также, даже если генерит локально, то питона прописанного в систему может и не быть если скачивал самостоятельный пак а не ставил клонированием репозитория.
>>726103 > тренить лоры на консьюмерском железе даже для 4B модели будет проблематично Хуйню несёт, XL даже с 8гб умудряются тренить успешно с помощью лоры, не файнтюн конечно, но параметр эффишиент куда более доступный, была бы база по типу пони >>726112 > К тому же не обязательно же будет тренить все ее блоки Это как обычно сломано и работает через жопу https://github.com/kohya-ss/sd-scripts/issues/1309 судя по вот этому. Кто то завёз дипспид для кохьи недавно, но надо было ставить что? есть нюанс, походу опять придётся запускать через костыль https://github.com/kohya-ss/sd-scripts/pull/1101
Чему у меня с одними и теми же параметрами, но с включеным опенпозом все ломается нахер? Позу описываю промтом, менял настройки в контролнете, но ниче не помогает, буквально начинает генерировать жижу, но поза узнаваема Без позы генерит хорошо Ладно пойду гайды смотреть
>>726786 Сунул готовую опенпоз позу / сдела сам Нажал энейблед, поставил галочку опенпоз, убрал препроцессор Дальше ниче не трогал, а даже когда трогал делало не всегда, ну иногда делает, процентов 15 картинок делает адекватно, но ломает ногу или вместо нее генерит чета невнятное Да ладно, я просто поныть зашел, думаю разберусь
+ выключи выгрузку в системную память при переполнии врама в настройкам панели нвидиа. Так у тебя сразу честно будет вылетать ошибка, а не по 10 минут пикча делаться, когда перебор по размеру будет.
>>726807 Как я понимаю, если тут отображается, значит работает. После включение медврама стало все быстро генериться, по 40 секунд без хайреса и минуты 2 с ним.
Перед тем как у меня взорвётся компьютер хочу спросить. Тренировка лор на 1.5 и ХЛ отличаются чем-нибудь? Я ведь сейчас сделаю всё тоже самое что в 1.5, только выберу ХЛ модель и оно заработает??? Скажите, что заработает... Я так ебаться не хочу...
>>726827 Крыжики правильные не забудь проставить в скриптах для хл, а так все также. Автоматик не даст выбрать лору для 1.5, если загружена модель хл, не ошибешься.
>>726669 3 и 4 вообще огонь >>726729 > работает через жопу https://github.com/kohya-ss/sd-scripts/issues/1309 судя по вот этому. Кохяпроблемы, лол. > Кто то завёз дипспид для кохьи недавно Опа, хуясе. Вот это весьма перспективно и должно помочь в условиях ограниченной врам. >>726737 Жопа та же, лол. Похожа.
Делаю энд степ контрола 0.3-0.7 и поза теряется С 0.8-1.0 копирует полностью контуры, в пропмте "пышное платье, широкие штаны" и прочие попытки одеть персонажа Как сделать так, что бы и позу копировало и промпту следовало? Как вы делаете? Опенпоз не может чета в такую позу... Он вот хорошо другие делает, но мб я крикорукий Короче дайте рецепт Пробовал все настройки менять, все галочки тыкал и все ползунки. Получается либо другая поза, либо обтягивающая одежда / голая
>>726913 Не только >>726915 Себе хочет приделать >>726922 Для начала подробно опиши какой именно контролнет используешь и какая модель. На пикчах у тебя depth, с ним в такой конфигурации не получится переодеть. Openpose с подобным справлялся, офк придется пороллить. Алсо переодеть может быть проще инпеинтом, с ним также можешь использовать openpose или другой контролнет для повышения выходе правильных.