Оффлайн модели для картинок: Stable Diffusion, Flux, Wan-Video (да), Auraflow, HunyuanDiT, Lumina, Kolors, Deepseek Janus-Pro, Sana Оффлайн модели для анимации: Wan-Video, HunyuanVideo, Lightrics (LTXV), Mochi, Nvidia Cosmos, PyramidFlow, CogVideo, AnimateDiff, Stable Video Diffusion Приложения: ComfyUI и остальные (Fooocus, webui-forge, InvokeAI)
>>1405146 (OP) Аноны, почему вы генерируете кал? Почему во времена 1.5 было меньше кала, даже не смотря на абсолютный бред на пикчах? Я считаю что в плане креатива полтораха до сих пор даёт пососать всем моделям что вышли позже. Да тёлки стали фотореалистичнее, кожа перестала быть пластиковой, да пальцев стало меньше 6 и больше 4, а двоепиздие пропало, но все пикчи - словно под копирку, ебаный фотореализьм, ван стендинг херл, никакой блядь изюминки, никакого блядь креатива. ЫЫ тёлка ыы смотрит каменным лицом в нихуя ыыы. Никакие хромы, никакие флюсы-хуюсы не смогут нарисовать: кошкодевка-вампир-суккуб с чёрными крыльями и шапкой из кала сидит на мотоцикле из костей своего бывшего, гонится за дартом вейдером в открытом космосе, сжимая в руке его гуся, едет по дороге из сказочного сада, усыпанного лепестками роз и трупами рептилоидов, из колёс её мотоцикла вырывается пламя, которое поджаривает пукан космической флотилии что преследует её.
>>1405302 Из небольшого личного опыта с Qwen (+Wan или +SeedVR2 upscale) могу предположить, что это связано с тем, что описанные тобой типовые генерации получаются сносно, а что-то за их пределами получается говняком. По крайней мере у меня так. Где-то полтора года назад играл в Automatic. Результаты не удовлетворили, забросил. Сейчас решил посмотреть что изменилось, освоил ComfyUI, изучил manual от корки до корки, разобрался с чужими workflows типа Qwen all-in-one, начал их редактировать, затем потихоньку начал лепить свои по их подобию. В результате, когда хочешь что-то с комбинацией ControlNet для поз и глубины (Qwen > Wan; Qwen > SeedVR2) получаются тормоза, дикий жор VRAM и дерьмовое качество. LoRAs, пляски с бубнами на изменение strength и start/end ControlNet, workflow в два прохода: Qwen T2I + Openpose/Depth > чистовой Qwen I2I > SeedVR2 uspcale (для детализации) помогают, но не радикально, и при этом требуют ещё больше возни. Спустя полтора года, сдвиги вижу, но всё ещё пока разочарован.
Аноны, помогите пожалуйста. Генерю второй день 2 года назад генерил на 1.5 моделях в автоматике.
Суть в чем, загенерил первую картинку txt2img, она меня устраивает но хотел чтобы ещё она показывала знак v вот этот. Добавил в промпт v_sign. Получилась вторая картинка. Но теперь она не играла рукой с бикини, пытался через промпт поправить, не получалось, поэтому плюнул,в графическом редакторе наложил друг на друга изображения, подтер где надо грубо, линию бикини кистью провел - получился пик 3, закинул в img2img с промптом второй картинки и получил пик 4 который меня устраивает. Вопрос в чем. Когда генеришь txt2img можно hiresfix использовать и он типа работает сразу на стадии генерации, более качественный хайрез получается. В img2img есть такой же hires fix или нет? Как сделать пиздатый хайрез картинки полученной в img2img или он всегда будет проигрывать hiresfix в txt2img?
Надеюсь понятно написал, если тупо как-то написано не серчайте.
>>1405339 Если у тебя хайрезфикс через латент - то никак. Если ты с моделью хайрезфиксишь - то хайрезфикс ничем не отличается от апскейла во вкладке img2img.
>>1405339 Вкладка img2img использует ровно такой же хайрезфикс, там только апскейлер отличаться может, потому что он отдельно выбирается в настройках. Если ты конечно не на комфи сидишь, где хуй знает как все работает. А во всяких автоматиках и форжах нет никакой разницы между хайрезом при генерации и апскейлом в img2img.
Другое дело - это апскейл во вкладке extras. Вот там уже более простая система, которая просто растягивает пик и сглаживает. Качества не добавляет, зато можно растянуть в четыре раза без особого напряга видюхи.
>>1405341 Сорян если вопрос тупой - но где вкладка на хайрез в Img2img? Рефайнер есть. Сейчас делаю хайрез через R-ESRGAN 4x+ Anime6B в txt2img. Я конечно могу просто поставить в Img2img resize 1,5 и количество шагов, но где выбрать саму модель R-ESRGAN 4x+ Anime6B?
>>1405360 Без разницы, апскейлу сид изначальной картинки не важен, он все равно в других условиях работает. Этот сид нужен только для того, чтоб ты мог повторно такой же апскейл этой картинки сделать с идентичным результатом.
Нужна помощь от знатоков. Какие модели можно использовать для локальной генерации nswf видео и сколько ресурсов железа желательно для этого иметь? Если кормить подомные модели первым кадром для необходимого видоса, будет ли конечный результат сильно меняться к последнему кадру? Ну условно есть ли модели которые к 10 секунде генерации не меняют цвета/формы/геометрию обьектов?
>>1405384 Генерить и тренить - разные вещи. Генерить можно на любом говне, но без тренинга любая модель будет отклоняться с каждым фреймом. Тренить даже на 24гб видюхе сложно - можно арендовать облачную побольше, но для этого лучше хоть как-то сначала научиться на своей, так что все-таки 24 крайне желательно. 2 видюхи по 24 не складывают свой врам, но позволяют запускать параллельно 2 процесса, которые влезли бы в одну.
>>1405347 >>1405362 Короче хуй знает, первый пик хайрез с txt2img второй с img2img. Модель хайреза одна и та же R-ESRGAN 4x+ Anime6B, все параметры одинаковые количество шагов и все такое. Сид был одинаковый. Единственное что конечно может быть что сид в txt2img влияет только на картинку до апскейла, а когда начинается апскейл применяется другое значение сида, но этого не может быть потому что повторяемость есть, сколько раз делал апскейл при одних и тех же параметрах в txt2img картинка абсолютно идентичная на выходе с апскейлом. Тут же отличие видно, и при таком же сиде как и в txt2img если его перебить в Img2img (пик2), так и при рандомном сиде (что само собой разумеется (пик3), при чем на обоих пиках апскейла через img2img - пальцы получились хуже как видите.
>>1405416 Я имел в виду только то, что там одинаковая система используется, так что в плане качества они одинаковы, нет чего-то лучше или хуже. То что там могут быть некие подкапотные различия в пару байтов информации, которые не позволяют сделать буквально попиксельно идентичные пикчи - ну это вполне возможно. Пальцы в данном случае это просто рандом, они в любых условиях могут проебаться случайно, я никаких закономерностей не видел, чтоб хайрез всегда делал их хорошо, а имг2имг постоянно ломал. Если для тебя важны идеальные пальцы, то привыкай в инпеинте их поправлять после апскейла.
>>1405416 Вот параметры чтобы было понятно пик 1 хайрез в txt2img пик 2 хайрез img2img c тем же сидом что и в txt2img пик 3 хайрез img2img с рандом сидом (но он понятное дело будет отличаться, не знаю нахуя я его сюда добавляю)
В img2img хайрез делал из картинки которая получается по всем вводным данным без хайреза само собой. Кто-ниюудь объяснит мне долбоебу почему так?
>>1405429 Денойз у тебя слишком высокий, по-моему. Хватило бы в районе 0.3-0.4. Меньше денойза - меньше отличий будет. Это не конкретно по твоему вопросу, а в целом.
>>1405438 Слушай ну увеличиваю в полтора раза изображение, т.е. на 50%, 0,3-0,4 мало на мой взгляд, смазанно будет. Хотя на аниме артах ещё пойдет но на другом будет мыло. Я хоть на новых моделей всего 2 дня генерю по прошлому опыту композиция существенно не меняется вплоть до 0,7 денойза, потом уже да.
Слоп? Конечно слоп. Но тем не менее. Кто-то мне говорил что на 4070 квен будет больно? да, немного больно Юзаю лору на 4 шага, картинка выпекается за 35-40 сек. Собсна вопрос такой: есть лоры для nsfw на квен хорошие? они точно не будут использоваться относительно пирелейтедов. Нужно ли обращать внимание на совместимость lightning лор и прочих лор? Есть ещё вариант ускорить эту машинку? Пока сижу на qwen-image-Q5_0. Извините если несвязно пишу, немного в эйфории от всей этой темы.
>Извините если несвязно пишу, немного в эйфории от всей этой темы.
Главное, не особо разочаровывайся (как я), когда будешь пытаться делать что-то отличающееся от стандартного сценария использования и получать неудовлетворительные результаты.
>есть лоры для nsfw на квен хорошие?
За LoRAми тебе на Civitai. Пробуй разные и решай насколько они тебя устроят (например QwenSnofs).
>Нужно ли обращать внимание на совместимость lightning лор и прочих лор
Методом проб и ошибок по результатам генерации. (QwenSnofs с лайтнингом на 8 шагов проверено).
>>1405784 > за час - другой на 12 гб тренится персонаж 200 шагов или сколько? 7 часов для норм трена на 5090 и это только половина, 7ч на хай, 7ч на лоу
>>1405795 >7ч на хай, 7ч на лоу 2.2 я ещё не пробовал, треню на 2.1 >200 шагов или сколько? 500-1000. я только на фотках тренирую, c максимумом в 512x512, этого обычно достаточно для получения требуемого персонажа. а вот тренировка на видосах сжирает все ресурсы и уходит в своп. то есть каким-то новым действиям, например взрыву башки обучить лору мне уже не выйдет.
>>1405802 обычные промпты для qwen image edit: turn this anime picture to white 3d wireframe view, change background color to black и turn to draft 3d render, totally white surfaces
>>1405811 >Reforge хз, последний раз где-то год назад юзал его. посмотри на гитхабе reforge описание того что он умеет. там же есть ссылки на форки reforge, в которые новые фишки накидывают. >как будто в пэйнте ну почти так и есть)
>>1405302 Здесь давно остались одни продрочившие мозги кумеры, все нормальные люди свалили, утомившись смотреть на однообразных врсатых блядей, которыми кумеры вайпают каждый тред.
бляяааать, гуфф - говно. чат жпт меня наебал, говорил что квантизацию более лудше чем фп8, хуй там! квен имаге, гуфф качество хуже и 51 секунда, фп8 36 секунд
>>1406296 >минимальное железо что-то типа rtx 3060 с 12 гигами, быстрый ssd и 32 гб системной оперативки. видеокарту можно и 8-гиговую, главное чтобы системной памяти было побольше, в идеале 64 гига.
Почему обоссаные Флакс Контекст и Квен полностью перерисовывают персонажей? Допустим я гружу им 2 изображения с людьми и третье с диваном. Пишу типа: 2 этих человека сидят на этом диване (ну только красиво стеной текста и про сохранение консистентности 3 строчки). На выходе диван более-менее тот же, люди просто полностью перерисованное левое говно.
Какого хуя блять? Я думал фишка этих моделей в том, что они типа с выданным контекстом работают, а не придумывают хуиту.
>>1406316 используй qwen-edit-2509 воркфлоу из последнего обновления комфи. сделай активной группу raw latent version и попробуй ещё лору consistence-edit
>>1406316 бля, про диван забыл. а в общем качество там заметно гуляет, надо ковырять настройки. >>1406373 >этот ебучий пластик даже у подростков вызывает кринж спасибо, капитан подросток очевидность. если постоянно повторять про пластик, то китайцы увидят твои посты и всё починят. а я думаю, хули ты доебываешься до качества бесплатной нейросети? очевидно что её такой выложили чтобы не создавать конкуренцию своим премиальным версиям продукта в онлайне. и погляди ещё на досуге что генерировали в конце 2022 года, потом постарайся не помереть от этого своего "кринжа".
>>1406391 >бля, про диван забыл. а в общем качество там заметно гуляет, надо ковырять настройки. Можешь скинуть свой воркфлоу? Там вроде можно как-то ж-соном экспортировать/импортировать. У меня пока просто поебота какая-то...
Qwen-Image-ControlNet-Union переполняет видеокарту. Что делать? При том что видюха у меня в облаке, L4 c 24Gb Vram. Нунчаку модель у меня не завелась, использую самую обычную Qwen Image Edit 2905. Главное, без контролнета все отлично работает, ни единого вылета. Пробовал лору-ускорялку отключать, не помогает.
Может, есть какой-нибудь другой контролнет, не прожорливый к памяти и стабильный?
>>1406472 Вот именно что не за чем, это генерация без depth карты. Хочу брать своих персонажей и ставить в разные позы с помощью depth карты из 3д-редактора. Без контролнета хуево. Можно скармливать квену картинки с позами, конечно, но он позы хуево понимает и слишком фантазирует. Один раз я даже напрямую попросил: use the depth map from second image. Что забавно, он это понял и сделал. Но как контролнет с силой 1, уродство.
>>1406521 >если памяти это жрет меньше чем ControlNet Union жрет столько же сколько обычный qwen-edit, просто второй картинкой на вход подавай dwpose пикчу
Анон, у тебя все LoRAs работают с этим загрузчиком? Связался с nunchaku, похоже, напрасно. Прирост в скорости генерации появляется у меня только на горячем запуске. Но суть не в этом. Часть LoRAs работает, а часть нет. Никаких сообщений об ошибках нет, просто не видно следов работы LoRAs. Пример, их родные svdq-int4_r128-qwen-image-lightningv1.1-8steps.safetensors не работают, а неродные Qwen-Image-Lightning-8steps-V2.0.safetensors работают и результат их работы виден, за 8 шагов генерируется изображение. Некоторые другие LoRAs ведут себя точно так же. Без каких-либо сообщениях об ошибке могут влиять или не влиять на генерацию. Strength не влияет. Не сталкивался с таким?
>>1406578 иногда некоторые лоры "зависают" и смена на другую ничем не помогает. это баг данного расширения. выбирай те лоры с которыми изначально работать будешь и перезапусти comfy. автор расширения не nunchaku а другой человек https://github.com/ussoewwin/ComfyUI-QwenImageLoraLoader
>>1406659 Хе-хе, как раз проебал. Попробовал APOB (хуй знает че там за модели) - он тупо с первой попытки понимает промпт в 3 слова для редактирования пикчей и контекстного преобразования нескольких изображений. Еще и NSFW нормально выдает, в отличии от говноГрока. Еще и апскейл ебейший сделал.