>>1473456 (OP) Просьба к опу, есть возможность расширить будущие коллажи так, что бы их можно было бы как обоину использовать? А то посетила такая мысль,а возможности реализовать нету.
>>1473526 >>1473456 (OP) Я попал и в большой наверно чисто из-за тематики и маленький телевизор, но если не решу вопрос со своей депрессией, чувствую ни в какой не попаду в следующем треде.
>>1473502 >Так я считай и не постил в прошлом треде картинки. Я тоже. Реанимировал аккаунт в старой ммо, возможно буду пытаться прокачать персонажа до капа на новом сервере.
>>1473456 (OP) Лучший, спасибо за перекат. >>1473535 Имеешь ввиду чтобы был не квадрат а типа 16:9? Или тебе заготовки задников до добавления рамок? >>1473553 Не грусти, подумай об открытии дополнительных галерей и прочего чтобы наращивать аудиторию. Ну и проблема явно носит массовый характер, как с нею справляются те, кто более провокационный контент постят?
>>1473661 Нашел ошибку у себя в бровях, косяк при использовании adetailer, наверное никто не против если я исправлю? >>1473738 > Ну и проблема явно носит массовый характер, как с нею справляются те, кто более провокационный контент постят? Я слежу за одним человеком https://x.com/OsugiAI, он давно был в шедоубане наверное больше месяца, тем не менее вчера ему бан сняли, хотя он продолжает постить провокационные работы (у него других и нет, зато есть патреон) и вообще никак не менял своего поведения. > Ну и проблема явно носит массовый характер, Мне предложил человек из Японии полностью прекратить активность на 72 часа и это тяжело, так как я любил лайкать и комментировать чужие посты. Тем не менее, по его слова он несколько раз таким образом уже выходил из своего бана.
Меня другой вопрос (очень дебильный) волнует, мне очень понравилось пользоваться чекпоинтами на Нубе, прям глоток свежего воздуха. Я сидел на люстре и никогда не пользовался тэгами художников, на нубе я так понимаю это критично, но если я случайно нароллил в Нубе понравившиейся мне стиль (пример пик4), можно ли в теории понять, что это за художник? Сумбурно написал, надеюсь вопрос понятен
>>1473764 > полностью прекратить активность на 72 часа и это тяжело Новый год же, ну. Выберись с друзьями за город, устройте что-нибудь по месту, ну или в одиночку запрись с сериалами, играми, llm, новелами и прочим. > можно ли в теории понять, что это за художник? Это сочетание? Есть тренировки вита под стили и даже их детекцию, вот только сочетания оно совсем не может. Обычных артистов может угадать. Повтори вопрос через месяц, возможно будет решение.
>>1473764 >Я сидел на люстре и никогда не пользовался тэгами художников И кто тебе доктор? Обмазываться тегами рисобак - давняя традиция треда ещё с полторахи. На люстрах теги работают не хуже нубов. >можно ли в теории понять А в png-info пишется не результат ролла, а только ссылка на вайлдкарту? Очень давно этой фигнёй не пользовался.
>>1473767 >Это сочетание? Да без понятия, я использовал chenkinNoobXLCKXL и лоры add-detail и Expressive_still_life, при чем лоры на люстру. При этом я заметил стиль может значительно меняться даже при том же сиде, но минимальном изменений промпта
> Есть тренировки вита что это такое? >А в png-info пишется не результат ролла, а только ссылка на вайлдкарту? Я никогда не пользовался вайлдкартами в png-info записывается только промпт и настройки сэмплера
Похоже что в моем случае, наверное проще собрать все изображения и сделать стилевую лору. Ладно, буду продолжать экспериментировать с Нубом, как будто действительно по возможностям он поинтереснее Люстры будет.
>>1473984 Тут таких большинство. >>1474027 > стиль может значительно меняться даже при том же сиде, но минимальном изменений промпта Велкам ту нуб, тут стиль может меняться даже на разных сидах одного и того же промпта. Большая дичь была только на пони, которую ты не застал, то еще древнее зло. Раз от лор то просто ими и пользуйся. Лору тоже можно сделать, но учитывая дефолтность и отсутствие явных отличий от базового стиля может быть сложно именно зафиксировать его не притаскивая кучу байасов. > что это такое? Визуальный трансформер для извлечения свойств. >>1474084 Красивые
>>1474476 инпеинт, хоть что в нем выделяй и ролль. Можно автоматизировать с клипсег в комфи, но вы же не любите лапшу поэтому ибитесь со своим каломатиком сами.
>>1474503 >вы же не любите >ибитесь со своим каломатиком сами
Кто вы? Я вообще-то сам в комфе сижу. Просто еще не опытный, вот и ищу автоматический варик, чтобы пропускать картинку через 3 ксемплера (датейлера). А везде одни воркфлоу на головы и руки.
ХГПТ "советует" попробовать какую-то ноду groundingdino с промтом для автоматического определения ног, но я ее даже найти не смог.
Пони дифужн конечно устарелая модель с множеством косяков в генерациях, но вы заметили как даже до сих пор все лоры к любым моделям на циве у поней лучшие? Ну рил скок не перебирал для люстры, вечно как-то персонажи и авторские стили не похоже выражены, а у поней лица и стили прям точное попадние. Это от комунити зависит, Золотая эпоха цивы пришлась на хайп у поней и для её лор люди кажется прямо реально старались или это особенность модели? И главное люстра рисует качественно, чеко, без мусора, но пони какие-то душевные и лица очень похожи как надо. Можн ли усидеть на ДВУХ стульях и например рисовать миниатюру понями, а апскейлить люстрой или как-то так?
>>1474659 Мне кажется, или у этой пикчи была интересная версия околофуллбади? >>1474811 Хотеть >>1474823 Красиво. Элементы все на удивление аккуратные и детализация огромная, красавчик.
>>1474852 Так. Первая это ориг? А на которой из двух следующих пикч по-твоему есть попадание в стиль? Лор нет хороших видимо потому что всем кто умеет тренить похуй на этот вестерн кал
>>1474852 Эмоции, ухмылки и т.д. - все проебано. Акабур в этом плане имеет свой четкий стиль, пони в 90% попыток будет генерить дженерик люстра еще хуже, да
>>1474921 Ничего не проебано у поней, глазки невыспанные протри, а вот у люстры проебочка значительная, вообще не похоже. Но все равно люстра крутое чтоб оси рисовать и можно будет с похожим стилем продавать на патрике генерации и врать что это микс из аишек в датасете.
Кстати, кто-то стал успешником по меркам заводчанина в этом году? Я год назад мечтал как 300 баксов лутать хотя б начну на своих нейронках и геймдеве. Санкции сосанции, гулаг скрепный не дают мне дышать. Будто мне без этого легко жить, а еще братва угрожает что будешь деньги зарабатывать как ПИДОР хентайный анимешный. У меня последнее время такое чувство будто по лицу ледяной дубиной уебали и я постоянно сонный. Как мне в норми мире уживаться. Мое решение только затворничество в уединении и творчество всякое неформальное. Реквесты тоже мог бы выполнять, но не галеру где надо быть КРЕАТИВНЫМ НА ВОЛНЕ.
>>1473589 >Это вокалоидоёб наверное Тогда уж микуёб, вокалоидоёб очень долго произносится. >>1474072 >>1474073 Ну можно не только с Мику. Вот, налетайте, разбирайте девчонок. Только быстрее, иначе кому-то достанется парень >>1474436 Красиво! Волосы очень хорошо получились, девочки с очень длинными волосами редкость для данного треда. Походу хеирфетишистов здесь не водится. >>1474112 >Велкам ту нуб, Возможно я несу чушь, но такое ощущение, что у нуба по умолчанию гораздо хуже с пальцами чем у люстры, но лучше с анатомией тела. У NovelAI с пальцами еще хуже чем у Нуба >>1475005 Да, все эти ограничения, белые списки очень бесят. С одной стороны гайки закручивают с другой стороны тоже усиливают цензуру. Пример - Цивит, ну или твиттер кто о чем, а вшивый о банеохуенно получилось, прям КАЛамбурчик
>>1475030 Усиление цензуры, запрет генерации NSFW за синие валюту, запрет тега "flat chest" Вообще удивлен, что на Цивите очень много чего нет. Например, мало Лор на костюмы для Мику. Нет даже Лоры на костюм из песни World is Mine supreme module. Хотя на Pixai есть лоры почти под все костюмы, и их даже можно скачать, но они натренированы на какую-то inhouse модель Haruka v2, основанную на SDXL,и на люстре они работают с потерей качества
>>1475037 Ну епты бягу скачивать запасать лоры под поней и люстры и нсфв модели всякие. Какие посоветует кроме очевиных вае? Я о реализму и 3д не угораю, но надо б тоже соответсвующее, не флакс.
Друзья, это был очень интересный и насыщенный год.
Начался он с события, которое заметно встряхнуло фондовые рынки - релиз Deepseek привёл к тому, что от запуска больших языковых моделей, близких по качеству к закрытым, нас стало отделять лишь отсутствие подходящего железа у нас дома.
И это очень здорово, ведь сам факт существования крупных качественных моделей в опенсорсе не позволит корпорациями закручивать цены, а явное политическое противостояние США и КНР не позволит разработчикам LLM организовать картель. Чем бы не закончилась эта "гонка за AGI", выигрывать от текущей ситуации с активной конкуренцией будем мы с вами - простые любители играться с нейронками.
Именно в этом году миллионы кодеров (включая меня) открыли для себя такое явление, как вайб-кодинг. Безусловно, кодить нейронки могли и раньше, но только в этом году у нас появились инструменты, позволяющие это делать эффективно для крупных сложных проектов. Да что там - в начале этого года только я из своей команды экспериментировал с попытками писать отдельные модули через нейронку, а большая часть моих коллег воспринимала возможности нейронок со скепсисом; Сейчас же абсолютно каждый человек в моей команде активно использует нейронки в своей ежедневной работе, включая программистов, дизайнеров, QA, саппорт и менеджеров. Если вы работаете за компьютером, то нейронки становятся таким же важным инструментом, как гугл или доступ в интернет.
Развитие LLM активно продвинулось за последний год, и, судя по безумным инвестициям, которые продолжают вкидывать в эту область, это развитие и не думает останавливаться. Будущее, безусловно, будет увлекательным!
Но, естественно, одними LLM развитие в этом году не ограничилось - мы увидели релиз нескольких видеонейронок, как открытых, так и закрытых. Тот же релиз WAN2.1 и его продолжение WAN2.2 привели к тому, что энтузиасты начали активно клепать лоры под большое количество концептов и выкладывать их в публичный доступ - а таким явлением, между прочим, может похвастаться далеко не каждая картинко-генеративная нейронка. Что более забавно, WAN2.2 какое-то время оставался лучшей из публично-доступных видео-нейронок, опережая по возможностям своих проприетарных собратьев. И лишь последующие релизы sora и grok снова перевели локальные модели в категорию "догоняющих".
В момент релиза gemini 2.0 flash весной этого года, первой моей мыслью, когда я увидел пример, как модель точечно модифицирует картинку по текстовому промпту (без рисования какой либо маски!), было следующее - "мы никогда не увидим ничего подобного локально". Каково же было моё удивление, когда не прошло и нескольких месяцев, как у нас появился Flux Kontext и Qwen Image Edit, где мы точно так же могли точечно делать правки наших картинок, используя исключительно текстовые промпты. Локальные диффузионные модели по своим возможностям стремительно догоняют своих проприетарных собратьев, и это здорово.
Так же в этом году мы увидели несколько новых базовых моделей для генерации картинок с впечатляющими возможностями - Lumina Image 2, Flux-Krea, Flux 2, Qwen-Image и Z-image-turbo, чей потенциал мы сможем раскрыть только после релиза базовой модели.
Что же действительно разочаровало в этом году - так это тот факт, что SDXL так и остался нашей основной моделью, а ведь ей, между прочим, уже два с половиной года - вечность по современным меркам развития нейросетей!
Мы увидели несколько любопытных попыток аниме-файнтьюнов на новых архитектурах, таких как Chroma и Neta-Lumina. Но ни одна из них не нашла такого сильного отклика в сердцах любителей генерировать анимешных 1girl'ов, как это произошло после слива NAI v1 в октябре 2022 или релиза Pony Diffusion v6 в январе 2024.
Так же стоит упомянуть об интересных попытках модифицировать саму архитектуру SDXL от Минти - а именно, попытке прикрутить к ней более современные текстовые энкодеры на замену CLIP, посредством обучения специального адаптера, а так же попыткой заменить VAE на 16-канальный. Удачная реализация подобных механизмов позволила бы нам использовать существующие наработки по SDXL, скомбинировав их с удачными решениями из диффузионных моделей новых поколений. Пожелаем же ему успехов с этим! Ну а я, в свою очередь, постараюсь помочь, чем смогу.
Главным провалом года, вероятно, стал релиз Pony7. Пожалуй, это самая наглядная иллюстрация в нашем комьюнити, к чему ведёт излишняя самоуверенность, вкупе с неприятием критики. Надеюсь, что этот опыт был отрезвляющим для Астралайта, но не сломил его. Я всё ещё буду ждать его попытки выправить чекпоинт в 7.1, а так-же новый файнтьюн, где он за основу возьмёт более удачную базовую модель и учтёт свои прошлые ошибки.
Самой же тревожной вещью в уходящем году стал разразившийся кризис памяти. Ситуация выглядит даже более серьёзной, по сравнению с бумом майнинга криптовалют в прошлом - тогда производители не стали становиться спиной к потребительскому рынку, в открытую переориентируя свои производственные цепочки под новый, более выгодный рынок. Сейчас же сложно сказать, чего нам ждать в среднесрочной перспективе. Понятно только то, что в ближайшее время вся техника будет дорожать. Порадуемся же за тех, кто успел урвать память по старым ценам... И объявим минуту молчания в честь тех, кто хотел обновить свой компьютер, но не успел сделать это до нынешнего подорожания!
Друзья, я верю, что в следующем году нас будут ждать новые модели и инструменты, более совершенные, чем в прошлом. Желаю, чтобы перед всеми нами открывались новые возможности, как в нейросетях, так и в реальной жизни. И пускай же технологии и дальше будут делать нашу жизнь проще и интереснее!
>>1475229 >Так же стоит упомянуть об интересных >попытках модифицировать саму архитектуру SDXL от Минти - а именно, попытке прикрутить к ней более современные текстовые энкодеры на замену CLIP, посредством обучения специального адаптера, а так же попыткой заменить VAE на 16-канальный. Удачная реализация подобных механизмов позволила бы нам использовать существующие наработки по SDXL, скомбинировав их с удачными решениями из диффузионных моделей новых поколений. Пожелаем же ему успехов с этим! Так это уже есть, че он там еще пытается? https://civitai.com/models/2237480/noobai-flux2vae-rectifiedflow
>>1475005 >Кстати, кто-то стал успешником по меркам заводчанина в этом году? Ага. Нашёл работу с частично удалёнкой и продолжаю генерировать чисто по фану, тем более что написание кодов (даже очень хуёвых) грузит пекарню не так сильно, чтобы в фоне не мог крутиться процесс, жарящий её видимокарту.
>>1475026 > такое ощущение, что у нуба по умолчанию гораздо хуже с пальцами чем у люстры Честно говоря, эту тему с нытьем о пальцах еще со времен развития пони не понимал. На 1.5 действительно был треш еще тот, но xl если брать не совсем сток в6 и не что-то очень эксперирментальное, то пальцы или сразу норм, или лечатся инпеинтом за один ролл батча. Стоковая люстра может не блещет стабильностью, но с пальцами там точно не хуже, а далее результат во всех дерриативах очень сильно зависит от стиля. В одних у тебя будет 9/10 идеальных, в других наоборот треш потому что или паттерны накладываются, или сам автор рисовал ту еще дичь. Гораздо сложнее сроллить интересную композицию, а если что-то не так то мелочи включая пальцы поправить - секундное дело. > разбирайте девчонок Забрал 3ю единственную с хорошим голосом. > иначе кому-то достанется А они и не против, лол. >>1475151 Жопа что надо
>>1475229 Красиво расписал, добра. >>1475235 В флюкс2 32 канала, и оно тоже очень нестабильное. Важен сам прецедент, наконец каким-то развитием моделей занимаются и улучшают, а не просто пытаются грокать да зажаривать, что не прокатывает с dit. >>1475417 Пробуем!
>>1475229 Мог бы и своими словами написать, вроде все по делу, но бездушно. >>1475399 Честно говоря, эту тему с нытьем о пальцах еще со времен развития пони не понимал. ...пальцы или сразу норм, или лечатся инпеинтом за один ролл батча. У меня честно говоря не получается быстро править пальцы в инпейнт, и с Акиту Неру я считерил, закинув ее в банану. Очень надеюсь, что в следующему году выйдет достойный "убийца" бананы в локале, если это будет NSFW, так вообще огонь. >единственную с хорошим голосом Мне больше все нравится голос Тето Synthv. Голос Мику на 7/10, хоть я и микуёб.
Не разделяю восторгов по поводу Z-Image. Пока не одной картинки на этой модели не понравилось. Она постоянно софтит, у нее какие то плоские тени и мало деталей что-ли, цвета тоже странные.
>>1475432 Для составления того текста не использовались нейронки. Сейчас я в пути и самой продвинутой из доступных мне нейронок является T9, поскольку я не озаботился вопросом настройки VPN на телефоне.
Возможно, слишком частое общение с LLM даёт о себе знать.
Что поделать - я и сам в последнее время, когда вижу какую-либо простыню на АИБ, в первую очередь думаю про то, что данный текст был сгенерирован нейронкой; Ну, или, как минимум - был написан под её редакцией.
Неспособность отличить текст, написанный человеком, от текста, сгенерированного нейронкой, очень хорошо отражает реалии нашего времени, как мне кажется.
>>1474936 Чел, в игре буквально несколько десятков спрайтов с эмоциями. И нейронка не выбирает их по очереди. Она рисует свои, которые отличаются от исходных.
>>1475432 > Мог бы и своими словами написать Ну что же ты, ни одного тире, рандомайзер между е и ё, на первый взгляд нет типичных выгражений популярных ллм, двощевская разметка. > Не разделяю восторгов по поводу Z-Image. Она достаточно послушна в целом, а стиль - самое простое что можно исправить.
>>1475450 >я не озаботился вопросом настройки VPN на телефоне. айфон?
Извини, я как-то написал не подумав, непривычно видеть текст в такой стилистике на дваче. Мне даже стыдно стало, сидел упрекал себя полчаса, ведь на дваче сообщения не удалить. Как-то излишне агрессивно в ответ человеку, который поздравляет всех. Надеюсь это не я такой, а просто плохое настроение.
>>1475196 >>1475524 Каеф, красивая >>1475620 Провокационный контент чтобы хоть какое-то внимание привлечь, так неумело борется с одиночеством и унынием.
Ну, с наступающим и уже наступившим на какой-то части земного шара. Пишем из 2026. Там уже есть настоящие кшк-девочки если зажмуриться достаточно сильно. Спасибо, друзья.
Картинка на скорую руку. Никогда не генерировал лис, не разбираюсь в этом. Чекпоинт какой-то фурриёбский
Наверное, хотелось бы пожелать всем того, что хотел бы пожелать себе: не унывать, не впадать в депрессию, развиваться в своем хобби, но не зацикливаться только на нем. Тем кто зарабатывает генерацией картинок, желаю зарабатывать еще больше денег. Тем кто просто выкладывает работы на различных сайтах, желаю просмотров, лайков, активных подписчиков, и отсутствия жалоб и теневых банов. Ну и банально удачи, здоровья и хорошего настроения!
Эх по ощущением и общему настроению как будто худший Новый год в жизни! Новогоднего настроения нет совсем.
>>1475432 > Она постоянно софтит, у нее какие то плоские тени и мало деталей что-ли, цвета тоже странные. Так турбо версия. Даже у её подвального дедистилла с этим куда лучше, а когда выпустят базовую, будет точно лучше.
Хочу перекатиться на Forge c A111. Кто-нибудь пользуется Forge - Neo? В описании написано, что поддерживает Z-Image-Turbo, Wan 2.2, Qwen-Image и Qwen-Image Edit. Очень не хочу переходить на лапшу
>>1476524 Зетку поддерживает вроде нормально, она самая простая (запускать в пресете квена). WAN 2.2 так поддерживает, что лучше бы не поддерживал — сгенерить можно, но через жопу, метадату в видео не сохраняет, генерация чаще фейлится. В Квенах у меня простой t2i запускался, с референсами — сосалити. Хотя квены давно проверял, в отличие от, сейчас у меня этих моделей в скачанном виде нет, чекай сам.
>>1476545 >Вот эта ничего. И на пиксиве наоборот подобное котируется. Спасибо! Хотел сделать в с помощью эпсилон Нуба, мучился, мучился, в итоге пришлось делать в люстре. Какой-то очень капризный Нуб
>>1476556 Подтверждаю, отличный 2512. Я вначале затупил, думал это ещё один неудачный эдит как 2511, а это замена самому первому КвенИмаджу, без эдит-функций, зато очень послушный. Перетрениваю все лоры срочно. Одну уже проверил - реально много лучше стало.
>>1476887 XL без батча обычно в ЦП долбится на 5090, некорректно сравнивать так. Большое разрешение или батч 4+ уже даёт хороший прирост в +50%. И на 5090 можно флеш аттеншен 3 или сажу накатить, которые только для Блэквелла.
>>1476889 > большое разрешение или батч 4+ Это база вроде, с мощной картой априори батч. Интереснее всеже то, что с повышением разрешения и сложности отрыв увеличивается, хотя и на низком тоже загрузка гпу полная и упор в лимит тдп. В пике получалось примерно +70-80%, на лоурезах меньше 50.
>>1476937 p.s и это вечная ебля с настройками бтв, поэтому чем быстрее дергается 1 проход тем лучше, ибо то что подойдет 1 пикче с результатом удовлетворяющим вкусовщину, не подойдет другой или там вообще все поплывет нах
>>1476937 У тебя 3 стула. На первом - задача уже достаточно сложная по вычислениям и ничего делать не нужно. На втором распределение разных тайлов на разные потоки чтобы те шли параллельно. На третьем - делаешь батчи хайреза чтобы выбрать лучший/лучшие элементы.
Вопрос по ComfyUIю Чем заменить WD14 tagger? Он у меня сдох и, судя по всему, автор его не обновляет. Чем щас можно прогонять арты, что бы получить набор тэгов?
>>1477080 когда ты иностранец ты зарабатываешь немного, просто возможностей это делать больше и бабки ты получаешь чаще но зимой например сосешь в основном бибу
а костюмы не покупаю, у меня фетиш на купальники, так что у нее 20 слитных купальников по 100-150 баксов =D
>>1477100 Красивые. Зетка или квен? >>1477123 > когда ты иностранец Там нет гражданства за брак? Если с заработком так плохо то привози ее на родину, покажешь морозы и возможности > у нее 20 слитных купальников Богоугодная тема.
>>1477409 Да, надо делать настоящее аниме в стиле таких произведений как: Груз-200, За Маркса, Дурак, Левиафан, Майор, Зелёный слоник, Кремень, Жить, Волчок, Кочегар, Чистильщик, За кромкой льда, Комбинат "Надежда", Счастье моё, и т.д.
>>1477371 Так я интересуюсь как раз потому, что чет нихуя найти не могу, все что есть не работает, может кто нашел раньше. >>1477453 >навайбкодить ноду самому? Щас бы уметь кодить, если только дипсику скармливать со словами "ПОЧАНИ ЕЖЖИ"
>>1477594 Ну да, вначале генерил на миксе лор на нескольких художников. Потом как набралось достаточно пикч - получилось просто на персонажа уже сделать.
мда охуеть, сдохля теперь только для создания болванки чтоли? гемини реально большую часть работы теперь делает. Хуя оно там деталей, композиции и четкости накидывает.
бля после такой хуйни от гемини, где ты имеешь фактически полный контроль над сценой, сидеть на сдохле даже как то обидно, но гемини не забустит хайрез
че бы я не писал эта хуета делает, но так как не платный господин, с каждой круткой убивается качество
>>1477757 >сидеть на сдохле даже как то обидно Два чаю, купил 5090, а все равно сижу в онлайне, кекая над зетами и квенчмонями. Лучшее враг хорошего, открыв коробку корпоративной пандоры в лоКАЛьный угол себя уже не затрамбовать.
Какую модель (желательно, чтобы влезла в 16 гб) посоветуете ньюфагу для генерациии анимешных мемов? Скачал WAI-illustrious-SDXL по гайду, но там почему-то одна порнуха получается. Пытался сгенерировать девочку со стаканом в руке, стакан постоянно в конче и прочих выделениях генерируется.
>>1477577 Почему у кошки не куплена полноразмерная обнимажка с нею же? >>1477757 > полный контроль Автомобиль может быть любого цвета если это черный, поставить вангерла справляется. Когда вау эффект от первости проходит - обнаруживаешь что однообразия, байасов и ограничений там в избытке, помимо серьезных недостатков. >>1478039 Недобро смотрят на них, с замыслом. >>1478668 Кайф, со второй орнул.
>>1478674 Потому что она сама - обнимашка с большой спать удобно, а чтобы кино смотреть нужна поменьше а в кровати есть, наверное, с каким-нибудь геншитом, как у прототипа.
>>1477713 >>1477757 Аноны, а как вы вообще геминю используете? Она же жутко цензурная. Я в AI Studio пробовал, там фильтр лютый, уже после генерации картинку смотрит и блокирует.
>>1479182 Из специальной прорези в трусиках для хвостаток. Одно отверстие сверху, для загрузки, два других для ножек и маленькая прорезь для выпуска хвостика наружу. Вроде той, которая в нижних штанишках мальчиков бывает спереди.
>>1479770 Да, нормисные модели, не трененные нормально на аниме, на промпт "кошкодевочка" рисуют фуррей или просто животных. Пиши "девушка с кошачьими ушами и хвостом" или вообще "с ушами, похожими на кошачьи".
>>1479789 >>1479794 Ура получилось нефурри, правда не совсем аниме ну да ладно все равно неплохо. Хотя может это у меня скуфнутый ггуф квен поэтому не может в разные стили?
Я пока только вкатился в комфи, и разбираюсь с промтами. А есть расширение на много промтов? Что бы я смог создать копию, и редактировать или свапаться между ними. Как в таверне.
>>1479978 >Зимага (на 2 пике) красивые глазки рисует при инпейнте У меня наоборот не нравится, какие-то они заблюренные, первые пик лучше. Пальцы еще страшноваты, а так хоть какая-то приличная картинка на зимаж в треде, продолжайте. >>1479883 Как будто нет взаимодействия людей и лисы, из-за этого ощущение зловещей долины немного
Всем привет! В общем, меня разбанили в твиттере ровно через неделю после сёрчбана. Очень неприятная штука, по ощущениям просмотры режутся раз в 10. Всем, кто публикует SFW иллюстрации лучше конечно в сёрчбан не попадать. Чего точно не стоит делать, так это пытаться заливать одну и ту же картинку, меняя некоторые детали или разрешение, в надежде что она не получит автоматически отметку сенситив. Также не стоит репостить сенситив контент других пользователей, это тоже в какой-то момент неизбежно приведет к обоюдному сёрч бану. В течение этой недели я в основном генерировал с помощью Noob AI, в моем случае это эпсилон версия нуба (я так понимаю, впред версия лучше, но она у меня не работает) СhenkinNoobXLCKXL. С точки зрения эстетики Нуб нравится гораздо больше любых чекпоинтов на Illustrious, но при этом как же на нем тяжело генерировать и получать хороший результат. Я попытаюсь описать свой опыт максимально кринжовый естественно, было бы здорово, если бы подсказали, что я делаю не так.
1. Теги качества:
Позитивный промпт: very awa, high resolution, masterpiece, best quality, absurdres, newest, highres, 4k, very aesthetic Негативный промпт: low resolution, worst aesthetic, worst quality, low quality, bad quality, lowres, jpeg artifacts, censored, bad anatomy, bad hands, extra digits, fewer digits, old, adversarial noise, signature, username, logo, watermark
Может я что-то упустил, или наоборот пишу лишнее?
2. Лоры на детализацию
Я использую NoobAI-XL Detailer эпсилон версию 1.0. Насколько это вообще оправдано и имеет ли смысл такие Лоры использовать?
3. На шаге генерации в базовом разрешении (1216 х 832 и пр.) CFG 6-7, Euler a, с шедулером Karras сталкиваюсь со следующими проблемами: - Очень сильные изменения картинки при корректировке хотя бы одного тэга качества, из-за чего поиск нужной композиции превращается в мучительную лотерею. Генерация с другим сидом при том же промпте – это уже практически 100% изменение стиля - Иногда при всех написанных тэгах качества картинка получается тусклая и неконтрастная. - Очень странная история: с некоторыми промптами у меня почему-то генерировалось поверх изображений что-то типа света лампочек или конфетти, но все эти артефакты пропадали после хайреза
4. Что касается апскейла, лично для моих целей мне достаточно увеличить разрешение в полтора раза. Я обычно чередую эти 4 апскейлера: Latent, R-ESRGAN 4x+ Anime6B, 4xNomos8kDAT и remacri_original. Denoising strength ставлю обычно обычно 0,5-0.7, Hires steps – 0-10.
После апскейла возникают такие проблемы, которые не всегда мне удается решить: - Иногда получаются более блеклые изображения, чем в базовом разрешении; - Стираются детали, картинка становится более плоской в плохом смысле этого слова; - Полностью меняется стиль изображения.
Иногда, когда у меня совсем ничего не получается, иду апспкейлить в img2img, через Resize by 1,5 + Включенный Control Net с My prompt is more important и с весом 1. Но это тоже не панацея.
5. ADetailer detector – почти всегда использую face_yolov8s.pt, в 90% случаях все хорошо, но иногда делает лица более скучными. Также бывали случаи, когда ADetailer и вместе с ним весь img2img ломался при попытке отредактировать изображения, сгенерированные онлайн (Например, в чате джпт или нанобанане)
6. Inpaint – так как часто случается плохая анатомия рук, приходится пользоваться инпейнтом. Я столкнулся с такой проблемой, что на Нубе инпейнтить очень трудно, из-за того, что, от сида к сиду сильно меняется стилистика, и, в итоге руки по стилистике начинают отличаться от основного рисунка. Когда я делал картинку с Манхэттен Кафе (пик 1), в какой-то момент плюнул и перерисовал руки в Illustrious, даже вроде и не бросается в глаза.
Если своими словами, то получается примерно так. Очень хочется продолжать пользоваться Нубом, но при этом по возможности максимально облегчить себе жизнь.
>>1480157 Советы, как ты и просил. На истину не претендую, только собственный опыт:
0. Лучше разберись с проблемой впреда. Я когда пользовался - даже в форже его запускал. Эпсилон скучнее.
1. Тэги норм.
2. Не знаю такой лоры, но обычно все спо/дпо/псевдо-детализаторы - мусор. Попробуй выбросить и погенерить без.
3. У тебя какой-то стиль есть свой любимый? Художник или даже несколько? Используй их или лору/ы на них. Это стабилизирует гораздо лучше. Да и зачем крутить тэги качества? Ну вот такой костыль для ХЛ моделей, ничего не поделать. Первая строчка занята всегда, а нужно пишешь ниже.
4. Очень разные апскейлеры для разного. Очередной 101 раз: латент - денойс 0.6-0.7 для пиксельного хайресфикса хватит ланкроза, разницы не будет. Денойс 0.4. Кратность лучше поменьше, 1.25 хватит. Потом если надо - ещё в 1.25 в и2и можно повысить. Но так ты точнее контролируешь результат Номос отличный, особенно для фоток/реалистика/3д, но тут не нужен. Его для SD_upscale оставь. 6b и ремакри - это очень старые апскейлеры абсолютно без достоинств в 2026. Если тебе от 6b нужно было его "выравнивание лайна", хотя оно там никакое, то лучше обрати внимание на SSDIR_DAT_GAN - свежий как номос, лайн чистит прекрасно.
5. Не использую сто лет уже
6. Тоже не использую, перегенерирую целиком картинку, вставляю послойным редактированием, ничго не выделяется.
>Лучше разберись с проблемой впреда. Я когда пользовался - даже в форже его запускал. Тут моя проблема нужно установить Forge. Я просто очень ленивый и с июля до сих пор как установил А1111, так им и пользуюсь. Единственное что я с ним делал, это менял pytorch под 50 серию Nvidia. Я пытался поставить Forge Classic, но что-то пошло не так. Хочу до конца праздников поставить Forge Neo, даже скачал его. Кроме того, у меня установлен Comfy UI десктоп, но я там кроме как Qwen Edit больше ничем не пользовался. К сожалению после релиза Banana Pro интерес как к Qwen Edit пропал. Наверное, это эпичный дебилизм иметь rtx 5090 и генерировать изображения в а1111 да еще и с онлайн доработкой. >Чем впред лучше эспилон А чем именно лучше? И есть какие-то хорошие миксы на нем, а то базовый нуб очень старый. >Не знаю такой лоры, но обычно все спо/дпо/псевдо-детализаторы - мусор. Попробуй выбросить и погенерить без. https://civitai.com/models/987736/noobai-xl-detailer > У тебя какой-то стиль есть свой любимый? Художник или даже несколько? Используй их или лору/ы на них Да, есть, правда мало кого знаю поименно, просто не хотелось бы на 100% их копировать, так как они против использования своих изображений для генерации. При этом, я на них подписан даже делаю репосты и комментирую. Остро встает вопрос этики. Тут есть еще такой момент, я уже писал об этом, что бывает Нуб случайно в очень крутом стиле генерирует картинку без тэгов художников, но непонятно что это за художники и как такой стиль воссоздать >Первая строчка занята всегда, а нужно пишешь ниже. Здесь не совсем понял, если честно. Промпт же сплошным текстом через запятую идёт? Если только не региональный промптинг >Если тебе от 6b нужно было его "выравнивание лайна" От апскейлеров мне нужно, чтобы геометрию не ломало и чтобы текстуру одежды, особенно джинсов, не стирало (этим грешит 6b) >Не использую сто лет уже Интересно почему? >Тоже не использую, перегенерирую целиком картинку, вставляю послойным редактированием, ничего не выделяется. Ничего не понял, но тоже интересно
>>1480157 > 1. Теги качества: Выкинь большую часть, оставь по 1-2 штуки. Остальное по ситуации, например течет какая-то хрень - попытайся ее явный тег в негатив добавить, или для усиления эффектов от позитива закидывать в негатив противоположные теги композиции. > 2. Лоры на детализацию Выкинь, если только не видишь конкретный явный и очевидный эффект от нужной тебе и осознаешь возможные побочки. Теги артистов и то больше эффекта дают, причем использование спеллов для включения на разных этапах денойза поможет дать нужный эффект. > 3. > Euler a, с шедулером Karras Normal, simple, sgm uniform. Иногда lcm/beta, забудь про карася на xl. Ну а рандомайзер стиля на нубе - дефолтное поведение. > Hires steps – 0-10 Мало, особенно для больших денойзов. Учитывая общую неустойчивость большая амплитуда денойза на единичном шаге и шаг по таймстепам, в итоге будет порождать описанные тобою проблемы. > 5. ADetailer detector Результат зависит от основной модели, режима инпеинта и тегов обработки. Модель йолы никак на это не влияет, она просто детектирует обрабатываемую область. Используй промпт адетейлера, стили там очень сильно повлияют. > 6. Inpaint Если лениво - режим fill, денойз 0.7, soft inpainting, замазываешь нужные пальцы или целую кисть и крутишь батч. Обычно из 8 изображений 2-3 есть хороших. Или можешь просто дальнейший апскейл бахнуть, само починится.
По стилю - используй артистов или стилелоры, это хоть как-то стабилизирует нуба. Не майся дурью с базовым рандомайзером и попытками что-то получить из сочетаний мета-тегов, там энкодер l почти мертвый и при малейших изменениях порядка тегов без явного якоря порождает сильные изменения шума на которые ты (в том числе) наматываешься.
>>1480273 >Normal, simple, sgm uniform. Иногда lcm/beta, забудь про карася на xl. Тут поржал. Хотя все это вкусовщина, конечно. Большинство связок юзабельны, промпт сильнее роляет. За исключением тех случаев, где тупо несовместимость идет, по типу пары DPM++ 2M SDE и Normal.
>>1480273 >>1480254 Спасибо еще раз! Попробую все это переварить и поэкспериментировать. Ну и попробовать разные теги художнико в Понятно почему люди до сих сидят на SDXL, пока тэги художников не заработают на более современных чекпоинтах, они будут проигрывать Нубу и даже Люстре. >>1480256 Не с той ноги встал что-ли? Основная цель была не поделиться, а понять что я делаю не так, и как минимум два человека откликнулось. А полученная от них информация, она на вес золота на самом деле, так как настолько подробных гайдов нигде нет, только свой опыт. Возможно эти знания понадобятся и другим анонам.
>>1480294 >карась портит и искажает Там с лупой разницу искать надо в большинстве случаев. Отличия на уровне смены сида или разбавления промпта бессмысленным шумом.
Вот если DPM на Euler поменять - разница сразу заметна.
>>1480519 Ну люстра его знает, просто пишешь murata range, без лец ми спик фром май харт ин инглиш. Вроде у нуба видел формат artist:by murata range, и у минти by murata range. У японцев бтв фамилия пишется вперёд имени.
>>1480525 хз на люстре и на нубе всяко работает и artist:name и by artist name, другое дело что какая нить ваи выдаст пластиковый калл все равно даже со стилем
>>1480306 Ты, главное, не забывай что все что пишут - лишь некоторый опыт, сложившийся в определенных обстоятельствах. Не обязательно что он подойдет тебе на 100%, лучше проанализируй и сам старайся находить нужные тебе закономерности. Ведь достигнуть цели можно разными путями, и цели у всех разные. > тэги художников Кмк, без них еще можно жить натренив лоры. Куда важнее знание персонажей, концептов и прочего. >>1480377 Ласт ничетак >>1480494 Бля, загорелая Сырна, теперь я видел все.
У меня старая rx580 на 8гб... Вроде можно на линуксе пропатчить драйвера что бы она нормально работала для картинок... но может потом, если с облаками будет все плохо. Я раньше когда залетал в тред, нашел чей то колаб на комфи и чуть модифицировал под себя: https://colab.research.google.com/drive/1O1veU5bNJ3Pou8WM8q_CzSac4ENXaoDb?usp=sharing Сначала самый нижний запускаю, потом средний для скачивания нужной модели и уже самый верхний последним и с оутпуда достаю труклоудфларе ссыль.
Несколько раз запускал чисто для тестов, вроде нормально работает. Может кто подскажет еще какие практики/недостатки моего скрипта? И еще банят за такое? Раньше помню ныли что гугл начал набутыливать за генерацию картинок
>>1481199 Мне нравится вот эта отсылка к пионерскому галстуку в виде красной ленты на шее (по крайней мере мне так показалось, зная твое отношение к советской школьной форме). С этой прической она выглядит невероятной мило. Единственное, что смущает, это подштанники под юбкой в духе китайских гач, слишком сейвово.
>>1481199 Какая-то она не такая тут >>1481270 > подштанники под юбкой в духе китайских гач, слишком сейвово Двачую, здесь получается совершенно чужеродный окружению элемент. Юбку бы ниже если уж так хочется целомудрие.
>>1481276 >>1481270 Шо б вы понимали. Под "подштанниками" какие бля, подштанники, это шорты-велосипедки! ничего нет. Т.е. это, буквально, трусы. Выставляемые напоказ. Да, я смотрел бакемоногатари.
> подштанники Велосипедки же. Она же умная девочка. Значет, что в при танцах может быть "упс", поэтому заранее приготовилась. И красивая форма а другой может и нет, учитывая обстановку и сейф.
> слишком сейвово Не бывает слишком ))
>>1481276 > не такая тут Я проверял, всё чётко. Форма лица, глаз не изменена - см. картинки. Реально причёска радикально меняет. Ну и хочется же изменений. ИРЛ и в хороших аниме персонажи и одежду, и причёски меняют в зависимости от обстановки. Тут - чтобы в глаза не лезло при экшне.
> чужеродный окружению элемент Ну, написал выше. Захотелось так.
> Юбку бы ниже Ты не поверишь, они из закатывают, подтыкают, чтобы были короче.
>>1481301 > ничего нет. Objection! Какие ваши доказательства?
> бакемоногатари Человек культуры. Но тут точно всё, что нужно есть "под".
>>1481339 Ну это бан! )) В процессе совершенно не сложно было заменить cycling shorts на underwear или тем паче bottomless, но это вообще мимо же. Смысл в другом.
>>1481409 >не такая тут Да не все, правильно сделал, с такой прической повысилась девочковость и это положительно повлияло на сюжет. Ничего себе в твиттере ты ультанул с этой пиксей, поздравляю!
>>1481505 Надо будет попробовать разные варианты поделать причёсок, напр. в другое время или других обстоятельствах. Спс! Кот бы говорил )) Там такое "ультанул" - буквально ничего рядом с обычными реакциями у постеров неОС
>>1481301 > ничего нет Хммм... Не ну если смотреть в таком прочтении то можно несколько баллов накинуть. А как это доказать? Увидеть вареник за авторством - детерминистически исключенное событие >>1481339 Не не, в идеале белья вообще не должно быть видно, вместо него игра теней и ракурсов. И все прилично, и в то же время культурно с простором для размышлений. >>1481409 > Форма лица, глаз не изменена Ага, все то, но в сочетании смотрится непривычно, пусть будет разнообразие. Но блин, шорты - хз вообще, очень контрастно со всем окружением и остальной одеждой + флешбеки с гейщитопараши и релейтед. Кстати, а ты делал ее в чисто спортивной форме, исполняющую какую-нибудь гимнастику? Вот там и шорты бы уместными были. Как вариант сделать "домашний" вариант где сверху на каноничный crop top, а оверсайз футболка.
>>1481611 >флешбеки с гейщитопараши Я бы даже сказал, что инспирировано. Если какая-нибудь кшк играет в генш, то вполне может потом что-то применить на себя.
>чисто спортивной форме Давненько было в форме типа "физра", не в настоящей гимнастической.
>шорты + crop top, а оверсайз футболка У меня от этого прямо скулы сводит, слишком просто и заэксплутировано АИ вангерлами.
А так всегда стараюсь не идеализировать/объективизировать, а сделать живую. Пусть глупую, неуклюжую, без сформированного вкуса, но с какими-то своими выборами.
Но за советы в любом случае спасибо. Что-то потом вспомнится или применится все равно.
>>1481665 > инспирировано Bruh. Худшее из китайской цензуры, лучше бы нарядами закрыли. > то вполне может потом что-то применить на себя Так блет, где косплей? Мемный-колхозный, или кропотливо выполненный из подручных материалов, но красивый. > сделать живую. Пусть глупую, неуклюжую, без сформированного вкуса, но с какими-то своими выборами Показалось что именно сочетание правильных спортивных шорт и футболки алкоголички домашней, которую лень было менять или оставлена по другой причине, как раз будет в нужном образе. Лол а ведь этот наряд уже был, но там 1гирл лежит и даже почти с вареником.
>>1481518 >Надо будет попробовать разные варианты поделать причёсок, напр. в другое время или других обстоятельствах. Обязательно, хотя с ее длиной вариантов не так много: короткий хвост, небольшой пучок, небольшой боковой хвост с распущенными волосами, зачесенные назад волосы. Да, тут есть простор для фантазии. >Спс! Кот бы говорил )) Там такое "ультанул" - буквально ничего рядом с обычными реакциями у постеров неОС. Уже практически 1000 лайков за оригинального персонажа, это реально очень круто, рад за тебя. Я даже с самым популярным аниме персонажем в мире не могу стабильно 1000 собирать, после шэдоубана не было еще удачных постов, но я и не рискую особо. А мой друг чилиец, который меня научил генерировать в stable diffusion и который посоветовал зарегистрироваться в твиттере, так и не смог раскрутить свой твиттер, как было 40 подписчиков полгода назад, так и осталось. Правда он генерирует исключительно Кагамине Рин. При этом на пиксив у него около 700 подписчиков. Почему, его аккаунт так и не взлетел с таким популярным персом я без понятия. /spoiler]
>>1480571 >Ты, главное, не забывай что все что пишут - лишь некоторый опыт, сложившийся в определенных обстоятельствах. Не обязательно что он подойдет тебе на 100%, лучше проанализируй и сам старайся находить нужные тебе закономерности. Ведь достигнуть цели можно разными путями, и цели у всех разные.
Я кажется уже это понял, я много чего попробовал из советов выше, но к сожалению мало что помогло. Какого-то универсального рецепта сделать заебись, увы, похоже нет.
Я попробовал несколько тэгов художников, которых знают, например, chaesu, к сожалению картинки в шедевры сразу не превратились, мягко говоря сказано. При этом попробовал использовать одновременно лору на него, и как будто с лорой лучше результат. В итоге, я прихожу к выводу, что нужно делать собственную стилевую лору, только как ее делать, я пока без понятия, точнее не определился.
Это конечно очень кринжово, но в качестве лоры на стиль я временно использую свою лору, натренированную на Люстре, для генерации девушек в джинсах, лол. Примерно с силой 0.3-0.5, это звучит тупо, но тем не менее эта Лора стабилизирует стиль хотя бы в пределах одного промпта. Из побочек, так как она натренирована на изображениях из чата джпт, она добавляет желтизну и плохие пальцы.
Самая огромная проблема, что уже не хочется возвращается на Illustrious. При этом Нуб отнимает гораздо больше времени на генерацию изображений.
Есть еще один вопрос. Это не связанно конкретно с нубом. Я часто генерирую женских персонажей только взрослых с маленькой грудью, при этом почти все чекпоинты, включая Нуб, генерируют очень выделяющие мышцы сразу под грудью, которые приводят к эффекту "четырех грудей", не знаю как даже это описать (третий пик). Как от этого избавиться?
>>1482276 > простор для фантазии Как только время найти на всё...
> временно использую свою лору Вот и отлично же. Примерно то, что и имелось в виду под использованием стилевых лор. Если твоя стабилайзит - её и используй. А если в ней есть проблемы - можно почистить датасет и перетренить, благо тренить хл - 20 минут.
> очень выделяющие мышцы ХЗ, проблем не встречал. Попробуй с небольшим весом использовать тэги телосложения. skinny или наоборот plump c 0.3-0.4, а muscular в негатив.
>>1482322 Все картинки на всех площадках одинаковые, патреонов/фанбоксов нет. Я даже лору скидывал, просто мне не говори, что там генерил.
>>1482276 > с маленькой грудью, при этом почти все чекпоинты, включая Нуб, генерируют очень выделяющие мышцы сразу под грудью То не мышцы а выступы ребер, как вариант поиграться с тегами на форму живота (чекай данбуру вики), действительно может помочь. Если же брать частный случай нуба - лишние пары бубсов могут лезть из фуррячей части, особенно если юзаешь более ранние версии где энкодер был заморожен. Для такого можно попробовать навалить в негатив фуррячье бинго (антро, млекопитающие, фурри и т.д.), можно по частям. На самом деле на 3м пике ничего криминального не вижу, просто втянутый живот, вполне приятно и органично. Генерируй кемономими и будет еще лучше >>1482474 Найс, консистентный задник референс пикчей делаешь?
Пиздец, я просто в шоке, установил Neo Forge, не мог нарадоваться, уже начал раскидывать модели по папке, устанавливать расширения, заметил что все генерируется ощутимо быстрее чем в Automatic111, потом после очередной загрузки что-то скачалось и перестал работать, это просто пиздец. Я в этих консолях и командах ничего не понимаю, LLM не помогли, какую то чушь пишут
Python 3.11.9 (tags/v3.11.9:de54cf5, Apr 2 2024, 10:12:12) [MSC v.1938 64 bit (AMD64)] Version: neo Launching Web UI with arguments: Total VRAM 32607 MB, total RAM 128629 MB pytorch version: 2.9.1+cu130 Set vram state to: NORMAL_VRAM Device: cuda:0 NVIDIA GeForce RTX 5090 : native Hint: your device supports --cuda-malloc for potential speed improvements. VAE dtype preferences: [torch.bfloat16, torch.float32] -> torch.bfloat16 CUDA Using Stream: False 2026-01-08 15:40:41.560073: I tensorflow/core/util/port.cc:153] oneDNN custom operations are on. You may see slightly different numerical results due to floating-point round-off errors from different computation orders. To turn them off, set the environment variable TF_ENABLE_ONEDNN_OPTS=0. Traceback (most recent call last): File "C:\Users\user\AppData\Local\Programs\Python\Python311\Lib\site-packages\diffusers\utils\import_utils.py", line 1016, in _get_module return importlib.import_module("." + module_name, self.__name__) ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^ File "C:\Users\user\AppData\Local\Programs\Python\Python311\Lib\importlib\__init__.py", line 126, in import_module return _bootstrap._gcd_import(name[level:], package, level) ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^ File "<frozen importlib._bootstrap>", line 1204, in _gcd_import File "<frozen importlib._bootstrap>", line 1176, in _find_and_load File "<frozen importlib._bootstrap>", line 1147, in _find_and_load_unlocked File "<frozen importlib._bootstrap>", line 690, in _load_unlocked File "<frozen importlib._bootstrap_external>", line 940, in exec_module File "<frozen importlib._bootstrap>", line 241, in _call_with_frames_removed File "C:\Users\user\AppData\Local\Programs\Python\Python311\Lib\site-packages\diffusers\loaders\single_file_model.py", line 29, in <module> from .single_file_utils import ( File "C:\Users\user\AppData\Local\Programs\Python\Python311\Lib\site-packages\diffusers\loaders\single_file_utils.py", line 53, in <module> from transformers import AutoImageProcessor File "C:\Users\user\AppData\Local\Programs\Python\Python311\Lib\site-packages\transformers\utils\import_utils.py", line 2302, in __getattr__ module = self._get_module(self._class_to_module[name]) ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^ File "C:\Users\user\AppData\Local\Programs\Python\Python311\Lib\site-packages\transformers\utils\import_utils.py", line 2332, in _get_module raise e File "C:\Users\user\AppData\Local\Programs\Python\Python311\Lib\site-packages\transformers\utils\import_utils.py", line 2330, in _get_module return importlib.import_module("." + module_name, self.__name__) ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^ File "C:\Users\user\AppData\Local\Programs\Python\Python311\Lib\importlib\__init__.py", line 126, in import_module return _bootstrap._gcd_import(name[level:], package, level) ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^ File "C:\Users\user\AppData\Local\Programs\Python\Python311\Lib\site-packages\transformers\models\auto\image_processing_auto.py", line 27, in <module> from ...image_processing_utils import ImageProcessingMixin File "C:\Users\user\AppData\Local\Programs\Python\Python311\Lib\site-packages\transformers\image_processing_utils.py", line 22, in <module> from .image_transforms import center_crop, normalize, rescale File "C:\Users\user\AppData\Local\Programs\Python\Python311\Lib\site-packages\transformers\image_transforms.py", line 48, in <module> import tensorflow as tf File "C:\Users\user\AppData\Local\Programs\Python\Python311\Lib\site-packages\tensorflow\__init__.py", line 49, in <module> from tensorflow._api.v2 import __internal__ File "C:\Users\user\AppData\Local\Programs\Python\Python311\Lib\site-packages\tensorflow\_api\v2\__internal__\__init__.py", line 8, in <module> from tensorflow._api.v2.__internal__ import autograph File "C:\Users\user\AppData\Local\Programs\Python\Python311\Lib\site-packages\tensorflow\_api\v2\__internal__\autograph\__init__.py", line 8, in <module> from tensorflow.python.autograph.core.ag_ctx import control_status_ctx # line: 34 ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^ File "C:\Users\user\AppData\Local\Programs\Python\Python311\Lib\site-packages\tensorflow\python\autograph\core\ag_ctx.py", line 21, in <module> from tensorflow.python.autograph.utils import ag_logging File "C:\Users\user\AppData\Local\Programs\Python\Python311\Lib\site-packages\tensorflow\python\autograph\utils\__init__.py", line 17, in <module> from tensorflow.python.autograph.utils.context_managers import control_dependency_on_returns File "C:\Users\user\AppData\Local\Programs\Python\Python311\Lib\site-packages\tensorflow\python\autograph\utils\context_managers.py", line 19, in <module> from tensorflow.python.framework import ops File "C:\Users\user\AppData\Local\Programs\Python\Python311\Lib\site-packages\tensorflow\python\framework\ops.py", line 33, in <module> from tensorflow.core.framework import attr_value_pb2 File "C:\Users\user\AppData\Local\Programs\Python\Python311\Lib\site-packages\tensorflow\core\framework\attr_value_pb2.py", line 9, in <module> from google.protobuf import runtime_version as _runtime_version ImportError: cannot import name 'runtime_version' from 'google.protobuf' (C:\Users\user\AppData\Local\Programs\Python\Python311\Lib\site-packages\google\protobuf\__init__.py)
The above exception was the direct cause of the following exception:
Traceback (most recent call last): File "C:\Users\user\AppData\Local\Programs\Python\Python311\Lib\site-packages\diffusers\utils\import_utils.py", line 1016, in _get_module return importlib.import_module("." + module_name, self.__name__) ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^ File "C:\Users\user\AppData\Local\Programs\Python\Python311\Lib\importlib\__init__.py", line 126, in import_module return _bootstrap._gcd_import(name[level:], package, level) ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^ File "<frozen importlib._bootstrap>", line 1204, in _gcd_import File "<frozen importlib._bootstrap>", line 1176, in _find_and_load File "<frozen importlib._bootstrap>", line 1126, in _find_and_load_unlocked File "<frozen importlib._bootstrap>", line 241, in _call_with_frames_removed File "<frozen importlib._bootstrap>", line 1204, in _gcd_import File "<frozen importlib._bootstrap>", line 1176, in _find_and_load File "<frozen importlib._bootstrap>", line 1147, in _find_and_load_unlocked File "<frozen importlib._bootstrap>", line 690, in _load_unlocked File "<frozen importlib._bootstrap_external>", line 940, in exec_module File "<frozen importlib._bootstrap>", line 241, in _call_with_frames_removed File "C:\Users\user\AppData\Local\Programs\Python\Python311\Lib\site-packages\diffusers\models\autoencoders\__init__.py", line 1, in <module> from .autoencoder_asym_kl import AsymmetricAutoencoderKL File "C:\Users\user\AppData\Local\Programs\Python\Python311\Lib\site-packages\diffusers\models\autoencoders\autoencoder_asym_kl.py", line 23, in <module> from .vae import AutoencoderMixin, DecoderOutput, DiagonalGaussianDistribution, Encoder, MaskConditionDecoder File "C:\Users\user\AppData\Local\Programs\Python\Python311\Lib\site-packages\diffusers\models\autoencoders\vae.py", line 25, in <module> from ..unets.unet_2d_blocks import ( File "C:\Users\user\AppData\Local\Programs\Python\Python311\Lib\site-packages\diffusers\models\unets\__init__.py", line 6, in <module> from .unet_2d import UNet2DModel File "C:\Users\user\AppData\Local\Programs\Python\Python311\Lib\site-packages\diffusers\models\unets\unet_2d.py", line 24, in <module> from .unet_2d_blocks import UNetMidBlock2D, get_down_block, get_up_block File "C:\Users\user\AppData\Local\Programs\Python\Python311\Lib\site-packages\diffusers\models\unets\unet_2d_blocks.py", line 36, in <module> from ..transformers.dual_transformer_2d import DualTransformer2DModel File "C:\Users\user\AppData\Local\Programs\Python\Python311\Lib\site-packages\diffusers\models\transformers\__init__.py", line 5, in <module> from .auraflow_transformer_2d import AuraFlowTransformer2DModel File "C:\Users\user\AppData\Local\Programs\Python\Python311\Lib\site-packages\diffusers\models\transformers\auraflow_transformer_2d.py", line 23, in <module> from ...loaders import FromOriginalModelMixin, PeftAdapterMixin File "<frozen importlib._bootstrap>", line 1229, in _handle_fromlist File "C:\Users\user\AppData\Local\Programs\Python\Python311\Lib\site-packages\diffusers\utils\import_utils.py", line 1006, in __getattr__ module = self._get_module(self._class_to_module[name]) ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^ File "C:\Users\user\AppData\Local\Programs\Python\Python311\Lib\site-packages\diffusers\utils\import_utils.py", line 1018, in _get_module raise RuntimeError( RuntimeError: Failed to import diffusers.loaders.single_file_model because of the following error (look up to see its traceback): cannot import name 'runtime_version' from 'google.protobuf' (C:\Users\user\AppData\Local\Programs\Python\Python311\Lib\site-packages\google\protobuf\__init__.py)
The above exception was the direct cause of the following exception:
Traceback (most recent call last): File "C:\Users\user\AppData\Local\Programs\Python\Python311\Lib\site-packages\diffusers\utils\import_utils.py", line 1016, in _get_module return importlib.import_module("." + module_name, self.__name__) ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^ File "C:\Users\user\AppData\Local\Programs\Python\Python311\Lib\importlib\__init__.py", line 126, in import_module return _bootstrap._gcd_import(name[level:], package, level) ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^ File "<frozen importlib._bootstrap>", line 1204, in _gcd_import File "<frozen importlib._bootstrap>", line 1176, in _find_and_load File "<frozen importlib._bootstrap>", line 1147, in _find_and_load_unlocked File "<frozen importlib._bootstrap>", line 690, in _load_unlocked File "<frozen importlib._bootstrap_external>", line 940, in exec_module File "<frozen importlib._bootstrap>", line 241, in _call_with_frames_removed File "C:\Users\user\AppData\Local\Programs\Python\Python311\Lib\site-packages\diffusers\pipelines\pipeline_utils.py", line 47, in <module> from ..models import AutoencoderKL File "<frozen importlib._bootstrap>", line 1229, in _handle_fromlist File "C:\Users\user\AppData\Local\Programs\Python\Python311\Lib\site-packages\diffusers\utils\import_utils.py", line 1006, in __getattr__ module = self._get_module(self._class_to_module[name]) ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^ File "C:\Users\user\AppData\Local\Programs\Python\Python311\Lib\site-packages\diffusers\utils\import_utils.py", line 1018, in _get_module raise RuntimeError( RuntimeError: Failed to import diffusers.models.autoencoders.autoencoder_kl because of the following error (look up to see its traceback): Failed to import diffusers.loaders.single_file_model because of the following error (look up to see its traceback): cannot import name 'runtime_version' from 'google.protobuf' (C:\Users\user\AppData\Local\Programs\Python\Python311\Lib\site-packages\google\protobuf\__init__.py)
The above exception was the direct cause of the following exception:
Traceback (most recent call last): File "C:\sd-webui-forge-classic-neo\launch.py", line 52, in <module> main() File "C:\sd-webui-forge-classic-neo\launch.py", line 48, in main start() File "C:\sd-webui-forge-classic-neo\modules\launch_utils.py", line 505, in start import webui File "C:\sd-webui-forge-classic-neo\webui.py", line 25, in <module> initialize.imports() File "C:\sd-webui-forge-classic-neo\modules\initialize.py", line 49, in imports from modules import gradio_extensions, processing, ui # noqa: F401 ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^ File "C:\sd-webui-forge-classic-neo\modules\processing.py", line 22, in <module> import modules.sd_models as sd_models File "C:\sd-webui-forge-classic-neo\modules\sd_models.py", line 11, in <module> from backend.loader import forge_loader File "C:\sd-webui-forge-classic-neo\backend\loader.py", line 7, in <module> from diffusers import DiffusionPipeline File "<frozen importlib._bootstrap>", line 1229, in _handle_fromlist File "C:\Users\user\AppData\Local\Programs\Python\Python311\Lib\site-packages\diffusers\utils\import_utils.py", line 1007, in __getattr__ value = getattr(module, name) ^^^^^^^^^^^^^^^^^^^^^ File "C:\Users\user\AppData\Local\Programs\Python\Python311\Lib\site-packages\diffusers\utils\import_utils.py", line 1006, in __getattr__ module = self._get_module(self._class_to_module[name]) ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^ File "C:\Users\user\AppData\Local\Programs\Python\Python311\Lib\site-packages\diffusers\utils\import_utils.py", line 1018, in _get_module raise RuntimeError( RuntimeError: Failed to import diffusers.pipelines.pipeline_utils because of the following error (look up to see its traceback): Failed to import diffusers.models.autoencoders.autoencoder_kl because of the following error (look up to see its traceback): Failed to import diffusers.loaders.single_file_model because of the following error (look up to see its traceback): cannot import name 'runtime_version' from 'google.protobuf' (C:\Users\user\AppData\Local\Programs\Python\Python311\Lib\site-packages\google\protobuf\__init__.py)
Сап, Посоветуйте скачиватор бур, а то мне лоры сделать нада. Я пользовался граббером, но оно лоховское в плане, что не качает с модифицированных бур, а только стандартных. А Булк не умеет качать через апи, мне надо залогиниться чтоб все скрытые картинки качать, закрытые от незарегестрированных.
>>1482874 Там же стандартные запросы и апи ключ или сохраненный токен авторизации для аккаунта. Напиши сам простенький скрипт, что как не родной? > Посоветуйте скачиватор > Я пользовался граббером Всхрюкнул >>1482873 Почему у тебя пакеты установились в системный пихон, а не вэнв? Попробуй pip uninstall protobuf pip install protobuf==3.20.3 активировав питон, который задействуется в софтине.
>>1482938 Что ебанутый? Тебе посоветовали программу который заточен под скачивание с бур и прочих сайтов, как картинок так и видео, меты, тегов, и т.д.
>>1482938 Я тоже качаю с помощью gallery-dl. Причина подрыва? >Зачем вы вообще высираетесь если не готовы помочь? Пошел ка ты нахуй отсюда, мало того что тупой, так ещё и кислота ебаная.
>>1483173 Что такое, сказать нечего? >>1482968 >сохраненный токен авторизации для аккаунта. Напиши сам простенький скрипт
Анончик, да это же одноклеточное существо. Он только по одной кнопке в гуи может жать. Ему скажешь "куки", так он максимум за печеньками в магаз поёдёт.
Говорят, базу Z-image наконец выкатывают. Ждем понификации, нубификации и в целом НСФВфикации от энтузиастов. Как думаете, сколько будем ждать первый компетентный НСФВ файнтюн?
>>1483271 Так тут ценность в том, что наконец-то хоть что-то, что можно зафайнтюнить, появилось. После СДХЛ ничего нормального не выходило для файнтюнов до сих пор. А первые лайтнинг лоры сто проц появятся раньше первых компетентных файнтюнов.
>>1483210 >дай промпт >albino, white skin, pale skin, red eyes, white hair Совсем ленивый чтоль? Буквально пишешь, что видишь - будут у тебя альбиноски.
Блять и куда в новой версии комфи пропала кнопка удаления всех тасков из очереди нахуй? Сука я специально не обновлялся чтобы такой хуйни не было, случайно нажал не на тот батник и вот блять здравствуйте.
>>1482968 >Почему у тебя пакеты установились в системный пихон, а не вэнв? Попробуй Очень странно, но в итоге это как-то само прошло, я так и не понял, еще оказывается на компе стояло одновременно три версии питона 3.10, 3.11 и 3.13
По сравнению с автоматиком сильно увеличилась скорость, на примере той картинки от спермошиза: 17 секунд на Forge Neo против 26 секунд на А1111
Также попробовал первый раз с помощью Forge Neo генерировать картинки с Z-image Turbo (пик2), огромная проблема, почему-то упорно не хочется генерировать плоскую грудь или маленькую грудь, и почти всегда генерирует какие-то огромные буфера, что с этим делать непонятно. Я правильно понимаю, что базовый настройки для Z-image это CFG 1,5 10 шагов и Sampling method: Euler?
>>1483265 >Ждем понификации, нубификации и в целом НСФВфикации от энтузиастов. Потенциал определенно очень большой у этой модели
>>1482873 >Launching Web UI with arguments: (нету arguments) Ты как Форж ставил-то? Там на странице Нео в рекомендованном способе установки написано, ставить через uv. И после этого в батнике запуска надо прописать/раскомментить соответствующий ключ. А у тебя в ключах пусто.
>>1483402 >Ты как Форж ставил-то? git clone https://github.com/Haoming02/sd-webui-forge-classic sd-webui-forge-neo --branch neo и дальше скачал файлы, распаковал архив и запустил launch.py, в общем, как написано в "Deprecated Method" >Там на странице Нео в рекомендованном способе установки написано, ставить через uv. Не хотелось лишнюю программу ставить, которой все равно не буду пользоваться.
>>1483423 Я бы крайне не рекомендовал скидывать сюда Лору этому человеку. Ну или будь морально готов, что твоего персонажа расчленят или выпотрошат кишки.
>>1477592 >Спосеба! Не, тут уже только Qwen2512. Это qwen_image_2512_bf16? Лору на ускорение использовал? Какие вообще для этой модели рекомендуемые CFG и шаги?
>>1483453 > qwen_image_2512_bf16 Эту для трена только. А для генерации fp8 как обычно.
> Какие вообще для этой модели рекомендуемые CFG и шаги? Я из комфи стандартные взял и крутил их. Цфг 1 с лайтингом, 4 или 8 шагов. Эйлер/СГМ или Бета57. Бонг грубоват показался.
Для тех, кто хорошо себя вёл в этом году: 4ik2u46u9xku1l2d.rar на litter catbox moe, хттпс - нуб-кшк
Для использования необходимо ПОДПИСАТЬСЯ НА БУСТИ, ПАТРЕОН, КАНАЛ В ТГ, МАКСЕпоклясться и принять EULA: I swear to God, I adore cats, I will take care of her and love her!
>>1483665 prompt: Нарисуй Суссурро (персонаж со второй картинки) в позе и с выражением лица персонажа с первой картинки, в аниме-стиле, на колоризированном фоне
>>1483714 Досадно, конечно, что автор такой прелестницы неки и просто очень душевных работ оказался снобом с повадками школотролля, но мне не в первой в людях разочаровываться. Заморочусь: сам сваяю лору.
А у вас нет стремления прыгать с СД? Я вот не могу ровно, хотя казалось бы генерь разных тянок гигабайтами по-больше. Хочется их ожилять анимациями и вообще, поэтому я попрыгун на чат ботов, ваны, да просто дедовские методы анимировать и геймдев немного хочу, чтоб оно все было ЖИВОЕ, да по-больше и быстрее, быстро на уровне мысли, понимаете? Но так не скоро будет. А вот если только сд брать, то практически быстро как фантазии исполняется, я уже приноровился, только мощности видюхи замедляют.
Господа, я клинический дегенерат. Поделитесь, пожалуйста, ссылками на воркфлоу для для квенимаж-2512 и квенимажэдит-2511 сразу с лорами-ускорителями. Я пытался переделать воркфлоу из примеров анслота - но у меня хуита какая-то получатся.
CVE-2025-67303 Description: An issue in ComfyUI-Manager prior to version 3.38 allowed remote attackers to potentially manipulate its configuration and critical data. This was due to the application storing its files in an insufficiently protected location that was accessible via the web interface
>>1483747 Сорян. Зря быканул. Просто у Кэтбокса этих вариаций линков столько, что чёрт ногу сломит, вот я и взял тот, что привычный, а огн-то и не пашет. В общем, уже щупаю лору. Спасибо и кланяюсь. Пусть ты и тот ещё шутник, но я радуюсь, что твои восхитительные работы всё же не обманули моего впечатления.
>>1483658 Отлично, теперь она, наконец, станет полноценной кошкой! >>1483701 Ухи не такие и поза другая. >>1483856 Страшно представить откуда ты это знаешь.