Оффлайн модели для картинок: Stable Diffusion, Flux, Wan-Video (да), Auraflow, HunyuanDiT, Lumina, Kolors, Deepseek Janus-Pro, Sana Оффлайн модели для анимации: Wan-Video, HunyuanVideo, Lightrics (LTXV), Mochi, Nvidia Cosmos, PyramidFlow, CogVideo, AnimateDiff, Stable Video Diffusion Приложения: ComfyUI и остальные (Fooocus, webui-forge, InvokeAI)
>>1423674 → >Телепаты в отпуске, а Edit устарел в момент выхода Edit2509 Про телепатов - согласен, а на счет устаревания: "Ложки устарели в момент появления вилок". Они, сцуко, разное делают лучше. Например, если хочешь превратить грубый скетч в фото-имитацию - старый edit сделает легче и лучше. Предпочтителен там, где нужна полная или просто масштабная перерисовка "на основе" исходника, но не "сохранить точно это самое". Но при этом старый edit хуже сохраняет детали объектов и персонажей - тут 2509 ему даст прикурить.
>>1424110 Если Qwen Edit 2509 (указывайте 2509, чтобы не путать с предыдущим Qwen Edit) с узлом TextEncodeQwenImageEditPlus (куда изображения подключаются), то вполне.
Можешь подключить к Ksampler EmptySD3LatentImage, задав в нём нужное разрешение генерируемого изображения, а другие входные изображения на узел TextEncodeQwenImageEditPlus могут быть произвольных разрешений и соотношений сторон (хотя лучше этим не злоупотреблять) (всё равно автоматом ужимаются до 1 mpx). А дальше уже говоришь что, куда и как вставлять из image1, image2, image3.
На пикриле исходником была вообще половина туловища Luna Lovegood из предыдущего треда, которую Qwen Edit 2509, отмасштабировал и вписал в стеклянную камеру.
Единственная одна из проблем с Qwen Edit 2509 в том, что происходит небольшое смещение всего итогового сгенерированного изображения. Причём фокусы с latents (нижняя, отключенная часть типового workflow для Qwen Edit 2509), вместо изображений особо не помогают.
>>1423811 (OP) Есть кто с картами Intel и AMD в Comfy? Стоит вопрос о выборе карты, AMD сильно выгоднее по цене выглядит за 16 Гб. Перейти на Линукс не проблема. Как вариант, в продаже может появиться Intel B50 тоже с 16 Гб. Больше интересует AMD.
>>1424763 > Есть кто с картами Intel и AMD в Comfy? Есть. Intel для нейронок не имеет смысла, ни при каких условиях. > AMD сильно выгоднее по цене выглядит Если тебе исключительно для нейронок, то AMD тоже не имеет особого смысла - выгода по цене мгновенно теряется и перевес по цене идет в сторону нвидии, т.к. VRAM от амд и VRAM от нвидии - это две большие разницы (всякие fp8 либо совсем не работают, либо требуют много ебли и всё равно работают через зад).
Ребят подскажите какую карточку купить для нейронок, на данный момент rtx 2060super на 8Гб, полная херня, в основном приходится с SDXL работать, ну и квантами Qwena и Flux, очень медленно и качество такое себе соответственно. Варианты: Б.у. 3090 на 24Гб, RTX 5060ti 16гб, либо подождать релиза в конце января если не ошибаюсь RTX 5070ti super на 24Гб. Хочу делать видосики на моделях Wan 2.2 I2V, ну и Qwen fp8, Flux fp8, Chroma. Что посоветуете ? Заранее спасибо за ответ.
>>1425120 Ну очевидно лучше подождать. Куда торопишься? на 3090 проблемсы с фп8, будешь юзать только фп16 а это только сдохли, т.к. фп16 флюкса и вана с квеном всё равно в твои 24 не влезут нормально, опять те же кванты ссаные гуфы.
>>1425131 С 5070 Ti 24 Gb будет другая очевидная проблема - лютый оверпайс. При условии, что онa выйдет в обозначенную дату. И ждать еще год, пока он спадет. И все равно будет оверпайс, просто не лютый, кек. Ну, это мое мнение, может у спрашивающего другое.
>>1424813 Какой конфиг у тебя и какой опыт? Мне, по сути, только Qwen Edit 2509 крутить надо. Но помимо того, что есть куча болячек АМД, про них я знаю, есть инфа, что он тупо начинает отваливаться, если на вход несколько картинок подать.
>>1425195 Ну не год, а месяца 3-4. Я уже так 30хх и 40хх серии брал на их релизе очевидно оверпрайс на релизах вообще всегда и не только видях. Брал по реальной цене. Да ещё и по акциям там каким-то. Тоже планирую взять эту супер. >>1425201 >Ты предпочел не заметить? Ну окей, отложен, подождём. Куда торопимся?
>>1423811 (OP) >>1423831 >>1424140 Всем ку, нужно ли много видеопамяти (12гб) натренировать лору на 30-40 картинках? Если да, есть ли варианты сделать это бесплатно онлайн?
+ еще вопрос, я совсем нубас поэтому не хуесосьте, какие параметры отвечают за детализацию картинки? Я имею ввиду если генерить условно реалистичные изображения людей они сильно палятся по слишком гладкой, кукольной коже или слишком мягкому освещению. Как можно увеличить кол-во деталей? Нужен какой-то датасет который будет под это заточен или нужно именно тюнить параметры?
>>1425131 Ты наркоман? Разница между нативным и эмулированным фп8 - меньше секунды, а оффлоад моделей - это минутЫ. 3090 была, есть и будет вне конкуренции по эффективности на рубль, появляется больше рублей - докупаешь больше 3090. Только если деньги ваще не вопрос есть смысл брать 48гб карты.
>>1425277 >по эффективности на рубль Подожди, дай посчитаю. Это... Ноль?! Бу карта это лотерея. Ты либо выкинул деньги на ветер, либо тебе повезло ещё поживёт она полгодика, ведь это лом из бод майнера. Берём сумму бу 3090 и прибавляем к сумме другой карты с гарантией и получаем, что ты себе накинул прайс на любую карту.
>>1425291 Наоборот. Карта либо ломается сразу если она дефектная, либо не ломается ваще. Хуево содержавшиеся карты майнеров легко видно по температурам, а нормально содержавшиеся ваще похуй как работали.
>>1425195 > Какой конфиг 7900XTX, 64Gb RAM. > Qwen Edit 2509 Fp8 модель кастит в bfloat16 и жрет 17.5 Гб. С одним пиком на входе 7s/it на 1920 x 1152. С тремя пиками на вроде не отваливается, но время улетает в ебеня - 21s/it и больше. Обычный квен - 4.3s/it.
>>1425271 >…они сильно палятся по слишком гладкой, кукольной коже или слишком мягкому освещению >Как можно увеличить кол-во деталей?
У тебя в посте намешаны в кучу разные вещи. Забудем на минуту про какие-то параметры и «тюнить». Тем более, я не совсем понимаю к чему это в этом случае.
Рассмотрим на примере:
На пикрил 1 стоковая генерация с помощью Qwen-Image. Из коробки, без LoRAs Qwen-Image «реализмом» не отличается.
Здесь на помощь приходят, либо модификации тюны самой модели, заточенной под «реализм» (например, Jib_Mix_Qwen-Image_V4_E_fp8_e5m2_00001_.safetensors), либо комбинации разнообразных LoRAs (например, Samsung_qwen_overtrained.safetensors, Skin_Fix_rank64.safetensors). Результат (пикрил 2) получается на шаг ближе к тому, что требуется, но всё ещё далёк от того, что нужно.
Этапы генерации видит только тот, кто генерирует изображение. Зрители видят только конечный результат. Они не знают о том, какие этапы трансформации и обработки прошло изображение. Что было на изображении изначально. Не знают, какие детали были изначально. А раз так, то детали нужно «дорисовать».
Как это можно сделать? Есть разные подходы, но суть заключается в дополнительном проходе (отчасти это можно назвать refiner) другой моделью (можно рефайнить той же самой моделью, но логично, что полировать нереалистичный Qwen нереалистичным Qwenом в надежде получить «реализм» не следует).
Это могут быть: SDXL tile ControlNet (у меня с ним не особо получается; а ещё у него есть особенность изменения цветов, по своему усмотрению, когда обрабатываемое исходное изображение нарезается на фрагменты к которым применяется diffusion; но это пока лишняя информация), wan2.2_i2v_low_noise_14B_fp8_scaled.safetensors и другие модели, которые позволяют докинуть деталей.
Для этих же целей не совсем стандартным образом можно использовать апскейлеры типа SeedVR2. По этой методике предлагается несколько уменьшать разрешение исходного изображения, созданного Qwen-Image, чтобы потом скормить его апскейлеру, чтобы тот, в свою очередь «дорисовал» несуществующих деталей в процессе увеличения его разрешения. (Пока говорим только про сгенерированные растровые изображения PNG; про то, что в некоторых моделях, например Qwen-Image>Wan можно передавать прямо LATENTs, избегая дополнительных шагов VAE Encode/VAE Decode, приводящих к потере «информации» пока оставим за кадром).
В итоге получаем что-то типа пикрил 3.
Всё это IMHO, основанное на личном опыте использования. Возможно, тебе расскажут ещё и другие варианты, более подробно. Но здесь я не наблюдаю особого желания. Здесь даже генерации в JPG выкладывают, вместо PNG (не иначе для того, чтобы PNG нельзя было открыть в ComfyUI и «секретный workflow» не разузнать из метаданных).
>>1425676 Спасибо большое, ты ответил на все мои вопросы. Последний раз я генерил пикчи несколько лет назад не особо вдаваясь в технические детали, но ты прояснил почти все.
>>1425679 Вот ещё страшилку слепил для демонстрации. Прошлое изображение было тёмное, а это светлое, чтобы заметнее липовые «детали» стали. Пикрил 1 — генерация стоковым Qwen-Image; Пикрил 2 — Qwen-Image с LoRAми на том же seed и с тем же prompt, что и стоковый Qwen-Image; Пикрил 3 — «Детализация» через SeedVR2 из уменьшенного изображения: 1328x1328>826x862>SeedVR2>2656x2656.
Да, приношу извинения по поводу PNG. Попробовал скачать свой только что загруженный сюда PNG и открыть из него workflow в ComfyUI. Пишет: Alert Unable to find workflow… Похоже, метаданные с workflow в PNG отрезаются при загрузке файла сюда.
Надо таки апнуть вопрос, гугление ничего не дает практически. Как сделать чтобы в comfyui использовались две видеокарты при работе одного семплера? Аналогично языковым моделям.
Всем огромное спасибо за советы по выбору видеокарты я в этом нуб, только недавно начал изучать нейронки и comfyui, буду ждать выхода 5070ti super 24Гб, думал про 3090 но, они все б\у и хрен его знает, плюс ещё по любому в майнинге участвовала, не хочу связываться. А покупать 5090 за почти 250К, да ну его, деньги то есть, но что бы побаловаться за такую сумму не моё лол, было бы это заработком другое дело, а так не готов такую сумму выкладывать за видяху, если 5070ti super будет стоит в районе 100К, то куплю без проблем. Ещё раз спасибо за советы и хорошего всем дня !
>>1425808 Добавлю, мои генерации на модели fluxmania_legacy-Q4_K_M, качество такое себе, квант всё таки, но что поделать 8Гб видеопамяти лол. Надеюсь с выходом и покупкой новой видяхи качество сильно улучшится гы
>>1425699 Только через вебп можно нодой SaveAnimatedWEBP, только комфи надо перезагрузить после добавления ноды, она почему то не сразу сохраняет воркфлов.
>>1425490 Ясно, спасибо. Че-то уже тяга к экспериментам отпадает, лол. У тебя огромный запас Врам и Рам, на 16 все так бодро точно не будет. А дополнительного варианта для оптимизации через Нунчаки просто нет.
>>1426627 >И еще - Qwen Image Edit Plus - это же охренеть жирная модель, локально на 4070Ti не запустить? Да ее (как и остальные qwen/flux/wan) на 3060 можно спокойно запустить (в comfy как минимум). Скорость, конечно, будет не фонтан, но работать то будет.
>>1426658 А есть для квена чтото вроде автоматика чтобы был инпеинт и imgtoimg функционал удобный? Потому что в ебаном комфи постоянно искать под каждый чих воркфлоу это шиза. Да и хуй найдешь еще нужный.
Можете взять его же, но видоизменённый под GGUF >>1426419 из моего поста. Зачем отдельно сделал отдельным файлом с узлом для загрузчика модели GGUF? Возможно, это исключительно мой опыт, но в шаблоне «всё в одном» используются узлы «Switch any» и прочие разновидности switch для организации ветвления workflow, в зависимости от условий, заданных переменными (читай, переключатели «режимов работы» T2I, I2I, Edit, In/Outpaint, Stitch и ряда других параметров, а также работы режимов работы ControlNet). Нормально «переподключить» узлы «Switch» в ComfyUI у меня не получается. Стоит переподключить один из входов, и подключения ко всем остальным входам в этом switch узле слетают и съезжает их «нумерация», изменяются типы данных link, тем самым ломая workflow.
>искать под каждый чих воркфлоу это шиза
Я понял, что это идеология ComfyUI. В моём понимании, это своего рода среда для прототипирования рабочих процессов. Более, того, личный опыт подсказывает придерживаться этой идеологии, иначе будут проблемы.
Все сложные и накрученные workflow сложно поддерживать. Постоянно накатываются обновления, меняются узлы, их количество, количество входов, порядок их соединения (привет, SeedVR2; я думал, что лыжи не едут, а оказалось, что они в одном из апдейтов перешли на другие узлы, которые надо по-другому соединять; всё хорошо, новые возможности, удобство, tile режим «из коробки», только вот workflow, построенные на старой версии узлов сломались; там исправление в два клика, но пока прочитаешь релиз-ноуты и поймёшь что дело именно в новых версиях узлов).
В итоге, прихожу к выводу: одна задача — один workflow. Те, что требуется, сначала доводишь до рабочего состояния, а затем добавляешь в «закладки» workflows. Если сломается из-за обновления ComfyUI, Custom nodes, неба… то проще найти неполадку.
>Да и хуй найдешь еще нужный
А это следствие предыдущего тезиса о среде для прототипирования. Там одна задача может быть решена разными способами, разной комбинации промежуточных узлов, помимо ряда обязательных, которые должны быть в любом workflow.
Как «правильно» никто не подскажет. Каждый собирает свой набор узлов. У кого-то workflow получается точнее, у кого-то быстрее, оптимальнее по загрузке RAM/VRAM и т. д. Особенно увлекаются добавлением Custom nodes без меры, от которых ComfyUI пухнет. Надо поставить rgthree, multigpu, узлы от Васяна, узлы от Стасяна. Они ещё и конфликтовать будут, поэтому лишние нужно либо отключать, либо вообще не ставить. По итогу, критерием «правильности» workflow, наверно может стать результат генерации: нравится/не нравится. Всё остальное это бесконечное дрочево и мучения.
>>1426770 >В итоге, прихожу к выводу: одна задача — один workflow. >Те, что требуется, сначала доводишь до рабочего состояния, а затем добавляешь в «закладки» workflows. Кстати, там еще и папки можно делать, в закладках. Просто пишешь название "myfolder/my_workflow" - и создается папка myfolder (если еще нету) куда кладется my_workflow.json - и вложенные папки тоже можно так создавать. Сортировать потом - просто в файловой системе - хранятся в user/default/workflows внутри папки comfy.
>>1426786 Спасибо. Полезно. Продолжу тему с «сохранением», которая совершенно не очевидна (как и многое в ComfyUI). Если пользоваться узлами SaveLatent и LoadLatent, то по умолчанию, SaveLatent сохраняет LATENTs в ComfyUI\output\latents, а узел LoadLatent загружает их из ComfyUI\input. Очевидно, что LATENTs, сохранённые в одну папку сами по себе в другую никак не попадут, если их не скопировать вручную (или не изменить префикс сохранения). В официальной документации на ComfyUI написано об этом примерно нигде. Поэтому только гуглёж и поиск по реддиту, среди постов тех, кто уже об это споткнулся. Да, а когда нужные LATENTs скопировали вручную из output\latents в \input, нужно ещё и кнопочку R прожать в интерфейсе ComfyUI, чтобы «Node definitions updated». И тогда в интерфейсе узла LoadLatent, наконец, отобразится имя файла для выбора.
Добавлю ещё один момент для тех, кто только знакомится с ComfyUI. Перед обновлением ComfyUI (обновлением Python dependencies), установкой большого количества новых непроверенных узлов сразу и одновременно, прочих «экспериментах», лучше сделать snapshot текущей установки (можно даже в ручном режиме, для верности, скопировав все папки, кроме жирной папки с моделями).
Не так давно у меня использование update_comfyui_and_python_dependencies.bat убило ComfyUI Вместо того, чтобы разбираться с ворохом ошибок, проще было откатиться их бэкапа к рабочей версии.
Можешь взять оригинальный workflow, там нет подключений моделей в формате GGUF и сохранения LATENTs генераций. Если тебе это всё не нужно, можешь попробовать запустить его.
>>1426672 В смысле искать? Изучить функционал комфи дело пары минут. Потом сам накидываешь быстро ноды по-быстрому, не задумываясь. Никогда не искал воркфлоу, лол.
Если вы пользуетесь старым релизом, а за это время было выпущено несколько новых версий portable, то обновление Python dependencies с помощью файла update_comfyui_and_python_dependencies.bat из старого релиза, может стать причиной того, что текущая portable установка грохнется (из-за установки неактуальных dependencies). (У меня было: AssertionError: Torch not compiled with CUDA enabled после «обновления»). Выкачивание актуального релиза portable версии ComfyUI и замена файла update_comfyui_and_python_dependencies.bat на его актуальную версию из скаченного дистрибутива, а затем его последующий запуск, всё починило.
Не могу не поделиться. Ещё на шаг удалось приблизиться к тому, чтобы хотя бы частично побороть ещё одну Qwen-овскую (и отчасти Wan-овскую) мерзость, которая меня вымораживала неимоверно. При изучении деталей изображений, сгенерированных Qwen-ом, на увеличении, мне казалось, что на них можно заметить узор типа dithering (что-то среднее между dithering и halftone pattern). Я думал, что дело в настройках генерации, используемых LoRAs, комбинации выбранных sampler/scheduler, что это просто является свойством модели Qwen-Image и так и должно быть (как уклончиво ответили сами авторы модели, когда им задали похожий вопрос).
Так вот, мне не казалось, эта проблема действительно присутствует и некоторые её тоже заметили.
Все перечисленные выше потенциальные причины практически ни при чём (ну, разве что, кроме выбранных sampler/scheduler, которые влияют на результат генерации).
Для того, чтобы стало понятно о чём идёт речь, посмотрите внимательно пикрил в масштабе 1:1, на нём как раз уже увеличенная часть сгенерированного изображения для демонстрации. Сталкивались с таким на Qwen-Image? Левая часть — стоковый VAE. Чётко виден этот dithering. Правая — после предлагаемого фикса. Выясняется, что этим dithering поверх изображения срёт сам Qwen-овский VAE, когда делает VAE Decode!
Предлагается в качестве временного решения использовать ещё пару васянских узлов https://github.com/spacepxl/ComfyUI-VAE-Utils?tab=readme-ov-file с файнтюном VAE. Эта тюненная VAE делает двойной апскейл, убирая dithering. Поскольку новых деталей на изображение не добавляется, то целесообразно сделать даунскейл 0,5 и получить изображение уже без этого dithering, но в размере LATENT, который был при генерации.
Я проверил. В принципе, большая часть этого dithering убирается. Кажется, что при этом несколько страдает детализация. Но изначально деталей не было. Именно из-за этого dithering pattern, казалось, что изображение более детализировано, чем оно есть на самом деле.
В принципе этот dithering и SeedVR2 неплохо вычищает при апскейле в два раза. Но теперь, по крайней мере, чётко ясно откуда эта дрянь берётся.
Аноны, я зеленый. FLUX1dev через какую ноду надо подключать? Через «чекпоинт лоадер» или «че то там дифузии»? Везде пишут, что его надо кидать в папку чекпоинт, а где-то в unet. Оно работает и так и так. Как правильно?
>>1425618 Да, причём уже пару месяцев, на civitaiarchive многое ёбнули ещё в августе, в поиске в фильтре указывай: "искать на других источниках". Вообще, надо как-то выбрать врем и поднять наверх тред с "обменом лорами", нужно только выбрать файловый обменник нормальный. Я как-то натыкался, не помню как назывался, на нечто с олдовым дизайном в мелкую клеточку (серо-тёмно зелёного цвета с фреймом слева), если кто знает напомните, мне как он называется.
Порекомендуйте связку семплер/шедулер для квин лайтинг. Включая эти модные рес2см, бонги, батя57. У меня генерится очень долго для своих экспериментов может готовое кто-то подскажет?
>>1426849 Да откуда я должен понять какие ноды нужны для наприпер квена в какойнить гуф версии? Да еще и с функцией инпеинта участка изображения с заданным денозом?
>>1426672 баляять воркфлоудауны воистину необучаемы, тебе дали конструктор из которого ты можешь делать все что захочешь, но нееет блять, нам надо 10 часов как побитая солевая шлюха бродить по цивиту/ютубу/тгк/бусти в поисках другого дауна который осилил добавить две нужные ноды и соединить их, это пиздец
>>1427197 В принципе, здесь противоречие: Lightning LoRA (4/8 steps) предназначены для получения изображения за меньшее количество шагов (с некоторой потерей качества). А навороченные schedulers/samplers, как раз таки для повышения «качества» но при количестве шагов порядка 20 (там по-разному; для каждого надо смотреть в описании). Надеяться на то, что одно компенсирует другое, если их использовать одновременно — наивно. (Но я всё равно использую). Получается медленнее, но результат меня устраивает у res_2s/bong_tangent. Не могу сказать только, стоит ли использовать ClownSampler/SharkSampler/ClownSharkSampler вместо штатного KSampler ConfyUI.
Довольно сильно отстал от трендов и вообще выпал из темы генерации картинок, так как иногда захожу на цивитаи в в общем то одно и тоже. Есть ли что на сегодняшний день локальное что генерирует лучше люстры?
>>1427505 Нет. Есть более продвинутые модели, которые понимают описания человеческим языком, но что-то хорошее в них генерить все равно заебешься, да и знания там не в пример ниже люстры. Что-то необычнее дженерик среднестатистической бабы сгенерить - это как плыть против течения.
>>1427552 Я как раз к такому и пришёл мнению потыкав Флюкс еще давно, правда он уже наверно старый ппц. Честно просто было лень вваливать время и получать не ахти результат. Ну и лору на флюкс я не натренирую в отличии от люстры.
>>1427175 Я совсем салаг, можешь в кратце накидать какой ветра у тебя из моделей и прочего чтобы получать такой результат типа фотка реальная не восковая? Я не душнила и до 6 пальца не доебусь лол. Я пока осваиваю флюкс, прям чувствую как я преиполняюсь с каждым днем, мда. Вообще у меня дикий восторг от всех этих локальных нейросетей, порнуха идет бонусом. В целом нравится настраивать и генерить всякую хуйнб
>>1427552 > да и знания там не в пример ниже люстры знания чего, как женская писька выглядит? ну так есть лоры и файнтюны, хрома из коробки знает больше чем что ты ищешь на порнхабе > Что-то необычнее дженерик среднестатистической бабы сгенерить - это как плыть против течения. как раз генерить что-то кроме дженерик бабы только новые нейронки и могут
Аноны, потихоньку разбираюсь. А можно краткий набор для того чтобы загрузить фотку еотовой, написать что она делает и получить результат? Меня интересует модель и инструменты которые мне понадобятся
>>1427814 Вот буквально сегодня зашел и забил в поиск одну знаменитость которую хотел скачать, но откладывал - в выдаче осталось только парочка, то что я хотел скачать - удалено. И ещё сегодня обнаружил что чинчонги начали блурить уже даже не NSFW контет, а воообще любой. Короче теперь seaart по цензуре тот же самый civitai, только ещё и все пики заблюрены.
Может есть какой-нибудь ещё ресурс. Я помню был сборни ссылок где аноны собирали все редкие лорки, там и ссылки на мегу были и вот это всё. Может какие-то то торенты есть?
>>1427819 Я пока этот флюкс ебаный пытаюсь осилить. То он выдает около лютую годноту, то выдает ебанутую дичь, но пизды он рисует нормально, мне нравится. Сейчас я запнулся об Face ID или как его там, чет пиздец все сложно и нихуя не работет. Я уже посматриваю на другие модел, тот же sd, на него всяко больше примочек. Попробую qwen хули
>>1427834 Qwen это про prompt прежде всего. В этом его достоинство и, одновременно, недостаток. Попробуй Qwen-Image использовать для генерации изображения (Qwen-Image-Edit для обычного in/outpaint, Qwen-Image-Edit-2509 для добавления, удаления объектов и прочих манипуляций), а дальше уже полируй полученное изображение чем умеешь для «детализации» (здесь твой flux на low denoise может помочь; а может и не помочь, зависит от объектов на изображении; SDXL тоже можно использовать для «деталировки» с помощью ControlNet tile diffusion).
>>1427834 Вдогонку: >но пизды он рисует нормально, мне нравится Если тебе нужны именно NSFW генерации, то Qwen плохой помощник. Нужны LoRAs типа Qwen_Snofs_1_2.safetensors и подобных, чтобы он хоть как-то начал рисовать то, что ты описал. Из коробки ни Qwen, ни Wan этого делать нормально не будут. Даже хуже, если ты им скормишь NSFW изображение на входе для i2i, то есть шанс, что на определённом уровне denoise, они тебе все NSFW детали затрут.
>>1427843 Ну так самый большой дурак тот кто думает что умнее остальных. И это ты, если не понимаешь что сексуальное влечение это главный мотив человека, да и вообще всей биологической жизни с разумом. Удивляться что люди реализуют свои желания. Ты то у мамы нитакусик, для другого в нейронки пошел. (а порнуху делаешь просто так, это другое)
Парни, нужна ваша помощь. Я знаю, что двач это лучшее место на свете где ее можно найти, но пожалуйста, не закидывайте какахами сразу - я только вкатываюсь. Итак суть проблемы: По какой-то неведомой причине я не могу скачать никакую модель с huggingface. Загрузка начинается на меленькой скорости а потом просто падает до нуля и все, финиш. Причем я там и аккаунт зарегистрировал и че только не пробовал делать с командной строкой с помощью советов Deepseek результат все тот же - хуй. Причем как я понимаю всякие базовые штуки типа моделей для аутпентинга, инпейнтинга и апскейла можно достать только оттуда. Соответственно, вопрос: 1. Кто-то сталкивался с подобным и как по итогу пофиксил? 2. Можно ли где-то достать эти модели не на сайте ебучей обнимающей рожи? 3. Есть ли полные аналоги тем моделям которые лежат там и которые я не могу оттуда скачать?
>>1427939 Ну вот я читаю гайд https://comfyui-wiki.com/ru/tutorial/basic/how-to-outpaint-an-image-in-comfyui там упоминаются v1-5-pruned-emaonly.safetensors и sd-v1-5-inpainting.ckpt. Или скачиваю какой-нибудь рабочий процесс с Civitai и там они же фигурируют (к примеру, могут быть и другие). И все, если в конфи я нажимаю кнопку скачать недостающую модель снова иду нахуй.
>>1427942 Тебе для начала полезно разобраться, какие вообще существуют виды моделей. Все эти 1.5. ХЛ, Люстра, Флакс, Квен и т.д. Потом какую из них твоя видяха потянет, т.к. так возрастающие требования. Потом что именно ты хочешь генерить. Голый рисованных\аниме девок, голых фотореалистичных девок или что. Исходя из этого уже можно модель выбрать. А в целом искать и скачивать модели удобнее на сайте типа civitai, там интерфейс дружелюбнее с нормальными картинками, с примерами работ других пользователей и т.п. И скачивается все без проблем вроде.
>>1427948 >>1427952 Хм, то есть всю эту фигню можно делать просто базовой моделью? Я для обычной генерации использую https://civitai.com/models/24350/perfectdeliberate или как она где то называется "турбошлюхи кажется"))) То есть в теме генерации можно вообще без huggingface обходиться? А то меня прям калит каждый раз когда на этот ресурс натыкаюсь
>>1427955 Можно. Я не знаю нах вообще делают отдельные модели для инпеинта, может это во времена 1.5 было актуально, щас весь инпеинт свободно делается той же моделью, которой ты генеришь. Просто надо научиться в него. И уж точно было бы абсурдом генерить на люстре, а потом че-то инпеинтить через сд 1.5, лол. Модели для апскейла, во-первых, сразу должна быть в твоей проге. Во-вторых, их на цивите тоже можно найти, по крайней мере все популярные. На хаггинфейсе может только что-то супер-новое и нишевое, малоизвестное, хз. Но щас никаких особых прорывов в апскейле не делают вроде.
>>1427955 hf это главная база ии моделей в интернете, на минутку. васянский пердеж мелкого калибра типа файнтюнов sdxl и перезаливы можно и с цивита занюхнуть конечно.
>>1427965 Понял, спасибо. Буду разбираться дальше. Хотя тот гайд и закреплен в шапке треда, но ладно. >>1427968 Бро, да я бы рад понюхать сочного контента с hf, так не дают.
>>1426917 >Не могу не поделиться. Спасибо, что поделился. Немного потестировал и показалось, что так размывается мелкая текстура. Например штриховка или сетка из линий на уровне в 1-3 пикселя размывается. Я использую просто wan vae 2.1 вместо qwen vae.
Аноны, дайте ссылочку на модель ADetailer которая сигментирует и находит соски на реалистичном изображении. На civitai нашел десяток моделей НО 1) либо находят соски на анимешных картинках, а на реалистичных вообщее не работают 2) те модели, которые работают на реалистичных изображениях находит бубсы целиком, а мне надо именно соски
Смёржил свой набор лор с настроенными весами. Модель получилась такого же размера, и теперь нет необходимости подключать к ней лоры. Теперь эта модель генерирует на 30% быстрее, чем оригинал с набором лор. Картинки чуть отличаются в деталях. Почему собственно? Но так-то почти не существенно отличие, а вот выигрыш по скорости хороший.
>>1427707 Вкраце всё как описал >>1425676 -кун > на помощь приходят, либо модификации тюны самой модели, заточенной под «реализм» (например, Jib_Mix_Qwen-Image_V4_E_fp8_e5m2_00001_.safetensors), либо комбинации разнообразных LoRAs (например, Samsung_qwen_overtrained.safetensors, Skin_Fix_rank64.safetensors).
Qwen+Samsung - получаешь нормальные генки. Хочешь сисек-писек, подключай Snofs, но имхо он анатомию слишком часто пидорит.
Спасибо аноны, я пока попытаюсь пободаться с флюксом. Смежный вопрос - вот есть всякие NSFW чекпоинты flux/sd/pony и тд, чекпоинт чекпоинтом, но к нему лучше все равно добавить lora на эту тематику?
>>1428104 Мне показалось, что это делалось на процессоре, вентиляторы видяхи молчали.. Подкачка поднималась до 80гигов, но у меня какая-то трабла с этим, вот мой скрин >>1424466
>>1427938 Прокси-ВПН. Только так. Хотя на цивите мне помогает приостановить и продолжить загрузку. Частенько скорость восстанавливается. Но с хаггинга я уже давно ничего не качал, так что хз.
Решил тут вернуться к своему давнему "хобби" - фотобашингу с последующим "скреплением" всё в одну картинку с помощью нейронок. Это ещё на заре локальных нейронок делалось, на SD 1.5 - первые две пикчи - просто нахуячил в пейнте примерный эскиз, и через img2img по кусочкам генерил каждый элемент с мелким денойзом. Вторые две пикчи - сгенерил картинку, и потом в фотошопе поэтапно добавлял в неё разные элементы (от холодильника-Элеоноры из Атомик Харта), "встраивая" в общую картину с помощью того же img2img.
Подскажите, пожалуйста, для подобного ведь и сейчас наверняка можно не ломать особо голову, и достаточно какого-нибудь обычного SDXL? Или стоит обратить внимание на что-то ещё? А то я со времён Флюкса немного отходил от генерации изображений в сторону видосов.
>>1428202 >а смысл это кусочками делать? Так чтоб "встраивать" в изображение инородные куски ж. Вот, например, промежуточный этап, где я вырезал элементы холодильника, и вставил в свою картинку. Потом выделял их (по одному за раз - сенсор, экран на лице, вырез на животе), и проходился img2img с мелким денойзом. На SD1.5, конечно, красота была, можно хоть 6-9 картинок за раз генерить за несколько секунд, потом выбирать понравившийся. А почему кусочками - так так надёжнее просто. Я пробовал, помню, сразу все "инородные" элементы инпейнтить - часто получался один из трёх прям охуенно, а остальные срань - и всё равно потом так же каждый отдельно перегенеривал. Ну и ещё насчёт кусочков - в предыдущем посте на втором пике генераций 200 минимум пытался получить адекватные кисти рук и пальцы (SD1.5 же, хули), а на Элеоноре и вообще забил, хоть даже сам пытался пальцы дорисовать.
Сейчас, смотрю, некий Qwen Edit появился, по описанию прямо многообещающе. С другой стороны для Flux есть лора Майка Франчину (дизайнер Тренч Крусейда), надо будет тоже пробовать, правда я без понятия как Флюкс вообще ведёт себя с img2img и прочими инпейнтами. Будем пробовать.
>>1428256 Крита - насколько помню, что-то вроде фотошопа. Как понял, там тоже какие-то нейронки завезли как в фотошопе?
>>1428341 Да, для СДХЛ и флюкса надо специальные модели искать, натренированные на порнухе. Иначе максимум что ты получишь это такая рубенсовская картинная нагота. А если попытаешься повторить "Происхождение мира" Курбе, то уже обломаешься.
Реально ли на пони/sd добиться реального качество фотографии? Попробовал я пони, конечно обдрочиться, но смотрю на с болью сгенериеные фотки на флюксе, хоть и криво, но блять живой же человек, вот тут верю, поверил.
>>1428304 >С другой стороны для Flux есть лора Майка Франчину (дизайнер Тренч Крусейда), надо будет тоже пробовать, правда я без понятия как Флюкс вообще ведёт себя с img2img и прочими инпейнтами. Будем пробовать.
Ух, попробовал я снова погенерить на этом Flux Q8 - ну и срань же. Сколько лор ни накатывай - даже винтовку сгенерировать нормально не может, я уж не говорю про то чтобы её правильно держать. Хотел в кайф погенерить, и с минимумом фотобаша, но скорее придётся всё самому делать, и лишь в конце полирнуть img2img для "скрепления". В пизду, аж расхотелось.
По поводу Qwen Edit'а - я краем глаза по диагонали посмотрел, вроде очень интересная штука. Правильно понимаю, что я смогу тут относительно без ебли вкидывать всякие концепт-арты (как на пиках), и на выходе получать новые картинки "в стиле" или с какими-нибудь изменениями? Хотя бы чисто медитативно поиграться. Спрашиваю заранее, а не сходу пробую сам, потому что боюсь лишний раз к Комфи подступать - с Wan 2.2 оно мне все мозги вытрахало, почему-то в тех местах, где у всех всё запускается с одного щелчка, мне приходилось самому выкачивать хуйню с гитхаба и перекомпилировать всякие библиотеки (в итоге-то всё шикарно работало, я не совсем даун всё таки). Ну и в целом, с 3090 и 32Гб рама этот Квен Эдит не сильно больно будет ведь?
>>1429124 >Правильно понимаю, что я смогу тут относительно без ебли вкидывать всякие концепт-арты (как на пиках), и на выходе получать новые картинки "в стиле" или с какими-нибудь изменениями?
Ну, давай проверим. Кидай какой-нибудь пикрил, а я его через Qwen-Image-Edit и Qwen-Image-Edit-2509 img2img прогоню.
Могу даже с твоим promptом для чистоты эксперимента.
>3090 и 32Гб рама VRAM норм, RAM маловато. Надо пробовать.
А ещё мне кажется: «Qwen без нужных LoRAs — генерации на ветер».
Последний вопрос для нешарящего анонс. В комфуюай, мне надо писать типа <lora 0.8… и тд>, если есть нода Лора лоад модель? И вообще триггер слова добавлять?
>>1429146 >В комфуюай, мне надо писать типа <lora 0.8… и тд>, если есть нода Лора лоад модель? И вообще триггер слова добавлять?
Вот это вообще не понял. Добавляешь в workflow такой узел типа Power Lora Loader (rgthree) и накидываешь в произвольном порядке туда все нужные тебе LoRAs. Выставляешь значения Strength там же. Может и есть (я вроде видел) LoRAs, которым нужны слова-триггеры, но у меня либо таких нет, либо без них всё и так нормально работает.
>>1429146 >В комфуюай, мне надо писать типа <lora 0.8… и тд>, если есть нода Лора лоад модель? И вообще триггер слова добавлять? Нужны ли слова-триггеры в промпте - зависит от конкретной лоры. Как она тренилась, так и будет. Никакого "общего правила", увы, нету. Просто, если автор понатыкал для каждой картинки датасета одинаковые ключевые слова и выставил определенный режим - лора будет откликаться на эти триггеры, а без них проявляться слабо, или вообще нет. А если ключей при тренинге не было - будет как бы всегда (на всё) действовать, и зависеть это будет исключительно от силы применения лоры на ноде. Это все не зависит от софта на котором картинка делается. Только от самой лоры.
>>1429152 Вот я и спрашиваю анон, нужно ли писать <лора стрендж> и тригер слова, этож хуйня из а11111 или как там его. Спасибо за ноду, с меня как обычно
>>1429203 >нужно ли писать <лора стрендж> и тригер слов Про триггер-слова грамотнее написал >>1429202 Больше ничего писать не надо. Strength конкретной LoRA указываешь прямо в узле.
>>1428003 Использовать WANVAE оказалось неплохой идеей (версия от WAN 2.1, учитывая их совместимость; от WAN 2.2 у меня уже не стыкуется). Проверил все три варианта для сравнения, чтобы убедиться, что не плацебо. Изображения не модифицировал, только вырезал из PNG, склеил и текст поверх наложил. Области на щеке и ниже переносицы. Средств акцентуации и увеличения контрастности не применял. Рассматривать с увеличением.
На изображении в центре (qwen_image_vae.safetensors) в указанных областях заметен характерный dithering. На wan_2.1_vae.safetensors он частично присутствует, но другой паттерн (об этом писали по ссылке, которую я приводил). Предлагаемый вариант на Wan2.1_VAE_upscale2x_imageonly_real_v1.safetensors с даунскейлингом выходного изображения на изображении справа.
>>1429264 Вдогонку: Ещё на левую бровь посмотреть можно. Сначала на ту, что по центру от qwen_image_vae.safetensors, а затем на остальные. В принципе, в сухом остатке, мне кажется, можно смело вместо qwen_image_vae.safetensors использовать wan_2.1_vae.safetensors. А на счёт Wan2.1_VAE_upscale2x_imageonly_real_v1.safetensors, по сравнению с wan_2.1_vae.safetensors сопоставимо. Если и использовать Wan2.1_VAE_upscale2x_imageonly_real_v1.safetensors, то по желанию (там всего пара узлов добавляется, и на время генерации не влияет).
Вообщем подобрал спустя 3 часа я комбинацию из пони и лоры под нее чтобы результат меня устраивал, попутно тыкая параметры нихуя в этом не понимая, их тоже подобрал. Тут конкретно упролся в промте чтобы он не вылизывал до воскового блеска кожу, писал и в негатив и в позитив «дефекты кожи», «не идеальная кожа» и тд. Нашел какой то воркфлоу, первую картинку генерит 1024 на 1024 примерно секунд 50, потом 2048 на 2048 почти 2 минуты, у меня к слову amd 7900gre:( Надо все таки накатывать WSL2 и ставить линукс, там есть дрова с торчем и ROCm для моей видюхи.
Осталось отполировать и закрепить результат. Иногда хуево рисует лица, видно что что-то не так. Вообще еще чуть чуть и можно освоить фейс свап, а как итог - наконец дам в рот еотовой.
Смежный вопрос - фиксить «загар» от купальника через промт или как то еще?
Про лоры вроде понял, но не увидел на примерах как это точно работет - грузим ноду, ставим стренж, в промт пишем только тригер слово если есть, вроде ясно.
Вообщем испытываю небольшой восторг, закончу разбираться с порнухой, в целом освою эту хуйню.
>>1429319 Поверь, sd1.5 - это не то, с чем ты хочешь трахаться, несмотря на то, что там и лора не требуется а цензура как класс отсутствует. Этот антиквариат в 98% случаев выдаст кривую анатомию. Оно только лица боле-менее стабильно рисует. По факту - каждую картинку придется чинить и дорабатывать через inpaint вручную чтобы получилось хоть что-то похожее на то, что ты постил. SDXL и pony - лучшее, что ты можешь выбрать с таким железом под твои запросы.
>>1429370 >>1429395 Спасибо аноны, да это я сам запутался и вас запутал, я имел ввиду не SD1.5, а SDXL - он же в основе и пони и люстры? Вот я и думаю, что из этих трех лучше выбрать пони/люстра/sdxl >>1429400 Да на том же civitai смотришь промты, а там часто пишут <лора нейм стренж 1>, вот я и подумал за ноды в комфе, а они видать в а1111 делали. Один хай всегда тригер слова пишу, а это <> не нужно видимо.
>>1429503 >всегда тригер слова пишу, а это <> не нужно видимо иногда нужно, иногда похуй, иногда даже вредно обычно триггер-слово в идеале представляет из себя бессмысленую хуйню, которую невозможно как-то интерпретировать. допустим: ka55andra без цифр может спровоцировать рисовать кассандру из игры (брюнетку гречанку) с косой толщиной в руку, тогда как в датасете блондинка с зеркально-противоположной внешностью, что-бы гречанка не протекла в перса, слово-триггер намеренно каверкается. модели все разные, какие-то могут рисовать определённого реального и нереального персонажа из коробки, какие-то нет, и одно и то-же осмысленное слово может быть воспринято по разному. многое перетекает в sdxl-модели ещё из базовой, и порой казалось-бы довольно безобидное слово может справоцировать какой-нибудь пиздец).
Остановись на sdxl, формировать сцену (композицию) может только она (кто-бы что ни говорил), если захочешь нарисовать хуй в жопе, просто берёшь pony-модель от того-же автора, и в импаинте деталишь. не бойся эспериментировать, часто в описании пишут какую именно модель нужно и можно, какой семплер и шедюлер, эт всё хуйня - сам пробуй и решай, что и как...
Кокретика: https://civitai.com/user/Cyberdelia/models иди туда, и выбирай что тебе больше нравится, есть модели с уклоном в портретики, есть универсальные, есть пони, есть люстровские, их много их нужно все пробовать, подбирать таким образом, что-бы они рисовали в одной гамме и с похожей детализацией. даже если взять только sdxl-модели от этого автора, то они все разные, не всегда самые новые - самые охуенные, зачастую всё наоборот) Если будут вопросы, стучись сюда: https://2ch.su/ai/res/33171.html Здесь только злобные и токсичные уёбки, помощи от таких никакой.
Здравствуйте, аноны. Последовал вот этому гайду >>1425676 и столкнулся с тем, что самсунг лора заставляет модель qwen image генерировать какие-то каловые ужасы (на пик 1 только кожафикс, пик 2 кожафикс+самсунг). При чем, если генерить на qwen image edit 2509, то лора работает нормально (пик 3). Уже пробовал: ставил clip gguf и fp8 scaled safetensors; семплер переставлял; ModelSamplingAuraFlow включал и выключал; vae ставил и wan и qwen Как починить? Извините, если я не понимаю чего-то очевидного, я только вчера про qwen узнал и еще не со всем разобрался.
Вообще так-то заебись, Квен выеебан. Понимание промпта сильно выше Квена, на пикрилы 50 секунд уходит в 20 шагов. Скорость как у Квена с cfg. На 4/8 шагах уже можно будет жить и повышать разрешение. В русский промптинг умеет заебись. Знания по сравнению с Квеном просто космос. Из минусов пока нет превью, не понятно что генерим. Пойду семплинг пердолить дальше. В зеркала умеет как Квен, т.е. так себе. В дашкам умеет, в срущих медведей нет (а может и умеет, я только на русском промптил). Зато кровь из медведя идёт.
>>1429961 Эм... В таком доме я бы жить точно не хотел. Так даже стройбат СССР не строил. Приглядитесь. :) На третьем пике - шедевры автопрома на заднем плане. :) И зелень на первом пике выглядит дюже странно.
Так-то в общем - ну, неплохо, некий прогресс явно есть. Вон - люди на отдалении очень реалистично выходят (мужик, правда, в позе "ожидаю пенделя", но тем не менее). Но чтоб прямо "вау" - как-то, все-же, неубедительно пока.
>>1430025 > шедевры автопрома Какая ещё модель знает российский автопром? Флюкс литералли полную линейку ВАЗа знает, даже чем 2108 от 2109 отличается. Даже всякие ЖПТ не смогут так. Ты только посмотри какая красота.
>>1430046 Учитывая что это наивные тесты первого дня - потанцевал охуенный. Жаль только я со своими 12 гб буду дальше пердолиться в старые моделями с лорами.
>>1430053 > для тупого быдла Ну литералли для меня. Как будто тренили на фотках моего двора. >>1430096 На 5090 без проблем работает в fp8. Скорость грустная только. А ведь это ещё и сразу Edit модель, но с референсом в два раза медленнее генерит. Лица лучше Квена копирует, но две минуты уже слишком.
>>1429956 Пока навскидку низкий квант модели (я как самую нижнюю границу qwen-image-Q5_K_S.gguf использую, ниже Q5 не рекомендуют) Ну и как вариант поставь res_2s/bong_tangent, вместо er_sde/beta.
>>1430331 Возможно ты прав в том, что стоит сменить модель, потому что я прогнал через воркфлоу со странички аналогичной сасунгу лоры на реализм на циве и, при том что буквально единственное, что у меня отличалось это квант модели, получил такое же говно, как выше. Но для меня совершенно непонятен тот факт, что image edit 2509 того же четвертого кванта с той же цифрой 0 все делает нормально и при прогоне через упомянутый воркфоу выдает в целом нормальный, хоть и ожидаемо несколько худший, чем если бы это делала image модель, результат.
>>1430129 Ничего не будет. Вангую что ни файнтюнов, ни лор на нее не будет. Весит много, цензура из коробки и куча Безопасных ШтукТМ, еще и лицензия говна.
Анчоусы, поделитесь опытом. PonyXL порнушая. COMFYUI Добрался до этапа где начал юзать второй семплер, первая проходка, подключаю его через апскейл модел 4хultrasharp и тд, ну вы знаете короче. Первая проходка че то 500х800, вторая 1080. Вопрос - каков предел в таком видел в два прохода? Я апскейлил до 2440 пикселей, на 3800 и 4000 уже получается два рта и тд, короче пидарасит модель конкретно. Или уже для этого нужен другой инструмент? Ставлю cfg 0.2, в первом 16 шагов, во втором 8, Семлер LCM, шедулер бета и там и там.
Второй вопрос - сильно «высветяляет» картинку, ни о каком «романтичном свете» и речи нет лол. Это вопрос к модели может быть? В промте я 10 раз тегнул «тусклый свет», а по факту, «фотка» в полдень у окна в которое хуярит солнце. Потыкал между делом инпейнт flux, первый раз он мне вообще перерисовал все нахуй, второй раз поставил 0.2cfg, разница наверное есть, но я не увидел. Я во flux писал полностью такой же промт, наверное надо попробовать просто описать тусклый свет и тд.
Вот так, желание и интерес надавать в рот всем своим знакомым, открыли для меня этот дивный новый мир и хобби. Пик1 - фул хд Пик2 - удачный инпейнт флюксом Пик 3 - неудачный инпейнт флюксом Пик4 - апскейл 4к, на любителя.
>>1430419 Не будет потому что особого смысла нет, оно и так всё что угодно умеет. Разве что на голых баб тренить. А остальное и референсами покрыть можно. > цензура из коробки и куча Безопасных Штук В Квене её больше. Тут гурятину даже можно генерить.
>>1430426 >Флюк 2 Ну, если на 1-й всё есть уже, то почему для 2-го ничего не будет? Лор дохуя на 1-й, я так понимаю, что на втором они тоже будут работать, или нет?
>>1430435 >В Квене её больше. В Квине ее нет, она просто плохо натренирована в этом сегменте. И я еще не видел ничего даже близкого к nsfw на Флюкс 2 (я не про гуро и копродедов).
>>1430445 Потому что на момент выхода Флюкс1 не было альтернатив. Если бы Квин вышла тогда, но на Флюкс бы забили.
>>1430445 Он намекает типа размер большой, но на деле У Ф2 размер как у Вана 2.2, у Вана даже больше потребление памяти из-за длины видоса. Обмаз блоксвапом и на 24 гигах всё будет.
>>1430446 > nsfw Как будто он есть где-то в ваниле. В первом Флюксе его не было, Квен не может в голых баб, Ван тоже. Везде лорами пердолили. Только в Хроме что-то было из коробки, да и то он пизду нормальную не может сгенерить.
>>1430427 >Добрался до этапа где начал юзать второй семплер, первая проходка, подключаю его через апскейл модел 4хultrasharp и тд, ну вы знаете короче. Первая проходка че то 500х800, вторая 1080 Это было бы норм для SD1.5. Для SDXL (и пони) первый проход - что-то на базе 1024х1024 +- (т.е. мегапиксель в картинке), иначе ты теряешь возможности модели по детализации - ее на такие разрешения тренили. Для второго прохода - правило: чем больше апскейл, тем меньше denoise. Вот эти твои лишние рты и прочее - следствие слишком высокого denoise. Но выше чем где-то 2400 - 2800 погонять через полноценный ksampler смысла нет, IMHO, в любом случае. Если хочется еще выше - нужно или через простую upscale модель, или через tile_upscale ноду.
>>1430447 выиграет то, с чем будет проще работать, и даже потребление памяти тут роли не сыграет, если есть обратная совместимость, и к ф2 будут подходить лоры для 1-го, то появление nsfw-версий на базе ф2 это вопрос пары месяцев.
>>1430455 Шизик из спячки, чекни что ван генерит. По сравнению с мылом квена, ван просто скала. У ван совсем не с мылом проблемы, с мылом там проблем вообще нет. Впору интересоваться как новый HY 1.5 генерит картинки на разных настройках, это более интересно.
>>1430485 > У ван совсем не с мылом проблемы, с мылом там проблем вообще нет. Показать ты конечно же не сможешь. Квен с лорами уже обошёл Ван по реалистику.
Хайдрим, квен, ван. Протестируйте ваши локалочки: A photograph of four small animals in a round nest made of intertwined brown twigs. The nest is positioned centrally in the image, with sunlight filtering through green leaves in the background. The four animals have large, round yellow eyes and fluffy fur. The animal in the center has a white face and chest with black and gray stripes on its body and head, resembling a tabby cat. The other three animals have similar facial markings but are more owl-like with rounded faces and prominent ear tufts. All four animals are looking directly at the camera with slightly parted mouths, displaying curiosity or alertness. The sunlight creates a warm, golden glow on the leaves and nest, adding depth and contrast to the image. The overall composition is balanced, with the nest and animals occupying the central focus.
>>1430685 С одной стороны технически он справился. С другой - меметичная ценность утеряна. Но для локалочек существенный прогресс, да. Эх скорее бы 5070ti 24gi.
>>1430784 просто очень боюсь вкидывать картинки в тредик чтобы чисто случайно не опозориться как тот ггуф квенодаун с разъебанными артефактами по всем пикчам, тот самый который вкидывал пикчу мужика с черными червями на ногах вместо волос как образец для подражания, они прям почему-то очень похоже на черных червей с твоей пикчи, но тут это очевидно стиль такой, must be the wind, показалось в общем...
>>1430801 Какие-то картинки лучше, чем никакие, в конце концов. Косячат все, даже мастера-художники. Вот этот пик >>1430784 если поправить через инпейнты со знанием дела, то вполне годная картинка будет. Другое дело, что вы дрочите на качество с рьяностью ОКРщика. Как те "знатоки" графона в которые с нулевых до середины десятых примерно докапывались до разрешения текстур в углу карты вместо того, чтобы смотреть на графику и игру в целом. Качество - это хорошо, но баланс между качеством и идеей намного лучше просто чистого качества или чистой идеи. Как ни крути, а весь тред забит стерильной хуитой уровня студийного фотографа, который голый писик-сисик фоткает раз за разом, с нового ракурса, на все более лучшую зеркалку, но это просто поток серийной безыдейности с точки зрения творчества. Дрочение на качество - путь в никуда. Вы не инженеры и не занимаетесь качеством, не улучшаете модели. Просто используете чужие настройки, в надежде на чудо каждый раз. Но оно не происходит, везде кривота. Кривота никуда не денется, она будет существовать в разных формах всегда.
>>1430814 да пости че угодно если ты идейный ггуф юзер или что более вероятно просто нищук который доп плашку на 16гб оперативы не смог себе позволить с маминой пенсии, пока она была максимально дешевая. Проблема в том что одни такие одаренные говорят о q6-q4 и даже ниже квантах в этом треде как о чем-то нормальном, новички на это смотрят, пробуют, а потом не понимают почему кал получается. >>1430822 какой нахуй баланс между качеством и идеей, от того что ты ггуф скачал у тебя идеи круче не станут
>>1430837 Так речь не про гуфа шла, а про то, что ты без картинок сидишь на фп16. Вангую, что даже там ты косяки выискиваешь и думаешь, от них избавиться и идеальную картинку получить. Освой фотошоп уже, намного меньше проблем сразу станет. Им можно хоть второй квант править.
>>1430844 > Так речь не про гуфа шла а, да?))) ну только если в твоей разбушевавшейся от обиды фантазии
ты не можешь знать какие картинки в этом треде мои или не мои, мы на анонимной доске сидим блять, прием, как из палаты слышно? только таких уникальных индивидов как ты можно 100% задетектить лопочешь просто детсадовскую несуразицу. скажи просто что ггуф q6 и ниже это кал собачий, просто лично у тебя других вариантов нет, это же так легко. но нет, твое ебаное хуй пойми на чем основанное эго заставляет тебя выдумывать про то что у оппонент не выкладывает картинки в тред и что это каким-то хуем аргумент в твою пользу, про баланс качества, про фотошоп, про какую-то хуйню, малафью, че угодно блять в оправдание продавай нахуй свою картошку на авито и иди траву (снег трогать), полегчает
>>1430861 Да ты сам сказал >просто очень боюсь вкидывать картинки в тредик чтобы чисто случайно не опозориться как тот ггуф Что касается остального. Конечно, кванты хуже оригинальной фп16. О чем речь? Но я умею пользоваться графическими редакторами, так что для меня и четвертый квант не такая уж проблема. А ты не умеешь. Поэтому, для тебя и Flux 2 и Flux 3 панацеей не станет, они будут и дальше косячить хотя бы по мелочи, а ты найдешь, где придраться. Докопаешься до пиксельного артефакта на очередной студийной вагине, прикрытой занавеской.
>>1430874 > Да ты сам сказал очевидная ирония, юмор с тонким (толстым) намеком > Но я умею пользоваться графическими редакторами, так что для меня и четвертый квант не такая уж проблема. А ты не умеешь ну вот о чем я и говорю, ты настолько со своими четвертыми квантами слился воедино, что любой наезд на ггуфы воспринимаешь как наезд на тебя лично и от зудящей обиды выдумываешь все что угодно лишь бы чем-то плюнуть в ответ. по твоим же словам я не вкинул не одной пикчи в тред, но ты все равно точнейше определил что фотошопом я пользоваться не умею, да иди ты нахуй блять, балаболище инфантильное. Скажи всем тем кто в этом треде сгенерил говно из-за низкого кванта и сам сказал что вышло говно, что они просто докапываются и фотошопом пользоваться не умеют.
>>1430904 Так речь о тебе шла. Ты на фп16 сидишь, а не люди из треда. И ты неудовлетворен качеством генераций. Я, например, посматриваю тред не первый год. И все картинки более-менее одинаковые, плюс-минус. Большинство же людей со стороны вообще не отличит Q6 от fp16. Многие проблемы треда просто инпейнтом решаются. Другие проблемы возникают просто от непонимания того, как вообще должно выглядеть хорошее изображение. Композцияи плохая, например. Палитра, свет. Но дело уж точно не в качестве модели. На том же SDXL до сих пор вполне годные картинки можно сделать. Да хоть на SD1.5, он может годноту выдавать, если его потрясти хорошенько.
Не знаю, почему тебя так триггерит моя позиция и ты постоянно пытаешься на личности перейти. Я понимаю, что мы на Дваче, но это же не повод трястись по каждому незначительному поводу. Таблетки там выпей, что ли. (Иди на хуй, короче, если кратко. Заебал трястись и говном исходить).
>>1430973 С хуя ли он должен знать даже о себе? У тебя никакого понимания как нейросети обучаются. Если разработчики насильно не добавили информацию о каких-то свежих вещах, то оно не будет обучено, если нет в датасете. И если к модели не прицеплен модуль для выхода в интернет и подача результатов в промпт.
>>1431068 лимиты на количество генерируемого, если ты вдруг подумал что за 20$ ты сможешь генерить вообще нонстопом весь месяц. цензуры там быть не должно по идее
Поясните, челики генерят знаменитостей прямо с очень хорошим лицом, которое не меняется. Генерят в ване. Говорят нужна лора. Н о что за лоры - молчат. Лоры на ван видео или какие другие есть со знаменитостями? Или от флуксов подходят? Не могу понять вообще. Есть ли гайд для людей?
>>1431110 >цензуры там быть не должно по идее Там написано что в наличии все нужные популярные модели. Уверен, что nsfw модели в это утверждение не включены. У уж тем более 100500 лор, которые каждый день появляются.
>>1431218 >>1431220 Ну так я ж и говорю что просто первой что тыкнул по запросу аренда ГПУ. Этих датацентров ебом нахуй. Но мне желательно чтобы рублевой картой расплатиться и не париться.
>>1431227 >при том, что ты можешь написать, что это такой-то селебрити, и у тебя перс уже не уплывёт никуда. Ясно.
Вопрос открыт, от нормального анона в теме хочу ответ. Лоры на ван видео или какие другие есть со знаменитостями? Или от флуксов подходят? Не могу понять вообще. Есть ли гайд для людей?
>>1431347 ван появился примерно в то же время когда на цивите запретили лоры селебрити. поэтому если ты уверен что это именно ван лора, то велика вероятность что ее в принципе в открытый доступ не выкладывали изначально. перезаливы лор для флюксов и sdxl еще можно найти в интернете. лоры флюкса очевидно не подходят к вану.
>>1431366 >>1431366 >ван появился примерно в то же время когда на цивите запретили лоры селебрити. Да я бы и сам натренировал. Просто понять не могу, анон напиздел про лоры селебов для вана или сами просто тренируют. И да, я под имейдж ту видео говорю.
>>1431414 Ты пробовал просто в промте написать Emma Watson допустим? Или ты решил здесь всем мозги выебать своими блядь лорами? Их нет для вана, потому что ван должен знать их из коробки, ты понимаешь это или нет?
>>1431218 >Но все равно гораздо дороже зарубежных платформ лол Я так понял на западных за все платишь отдельно: мощности, память и еще может и трафик, лол. А тут все включено в стоимость мощностей.
>>1431373 Ненужно. Там текстовый энкодер совсем кал, Edit отдельной моделью. И её невозможно скачать, на HF они выложили и сразу потёрли, теперь 404 там. Партия запрещает тебе пользоваться ей.
Анончики, посоветуйте лучший flux/qwen чекпоинты для порнухи :( А то я устал, литерали голова кипит уже, за эту неделю так и не подрочил ниразу. Все генерю и генерю, нужн перерыв от сеток
>>1431419 >Ты пробовал просто в промте написать Emma Watson допустим? Ну, конечно пробовал, что ты несешь то? >>1431419 >Их нет для вана, потому что ван должен знать их из коробки, ты понимаешь это или нет? Бля, я тебе говорю, что спрашиваю, какие лоры подходят для вана. Надо - сам натренирую. Не охота день убивать на тренировку, а потом охуеть от того, что это не работает.
>>1431539 Если вкратце - консистентность композиции хорошая, мелкие детали и качество - говно, знаний мало, промптинг средний - чуть получше стандартного Т5. Ну типа он голую бабу может сгенерить, а дальше что. Качество такое себе из-за Турбо-говна, всё как будто в бандинге и жипеге. В высокое разрешение не умеет, на 2048 ломается. С промптингом после Флюкса вообще очень плохо. Обязательное мыло на фонах на месте. С одной стороны что-то может, с другой хуйню генерит хуже первого ванильного Флюкса. Из хорошего вроде бабы на лицо норм и анатомия, но лица без вариативности. Спасибо хоть в лес может. > похоже на квеню Скорее на Шнель.
>>1431663 >Ну типа он голую бабу может сгенерить, а дальше что А дальше то, что хоть одна новая модель вышла не искореженная цензурными шрамами до идиотизма. Вопрос же даже не в том, что модель не знает как сиськи или письки рисовать, а в том что от цензуры страдают связи в модели которые должны быть с ними соединены для адекватного отображения реальности. А не ее альтернативы в угоду моралистам. Не может быть зацензуренная модель адекватной во всем остальном. Не работает оно так.
>В высокое разрешение не умеет, на 2048 ломается. Пох, апскейл никто не отменял. Для мелкомоделей не особо страшно.
>С промптингом после Флюкса вообще очень плохо. Ну дык там 4B текстовая модель за encoder служит, чего с нее ждать? С другой стороны, есть шанс, что сделают вариацию на основе более продвинутой модели. Есть даже мысль, просто попробовать подсунуть другой квен из этой же линейки - побольше. Токенайзеры же у них совместимы, на этом принципе draft модели работают в текстовой гененрации...
Вообще, IMHO, должно радовать то, что кто-то не забивает на небольшие модели. И даже не только потому, что не только лишь все имеют железо под второй flux. Просто - там ведь у чернолесных развитие пошло скорее в количество, чем в качество. А оптимизировать и улучшать, IMHO, есть еще очень много куда и чего. И на меньших моделях это обкатывать быстрее. Ну и конкуренция - двигатель прогресса. Чтоб не застаивались, и не расслаблялись.
>>1431711 > хоть одна новая модель вышла не искореженная цензурными шрамами Так Z нихуя не может как раз. 1girl standing и всё. Тело абсолютно никак не реагирует на промпт, в отличии от Флюкса. Альтушек прикольно рисует, но лицо одно на всех как будто на XL геенерю. А ещё азиатки протекают как от худших азиаткотюнов XL, на промпт ему похуй, при первой же возможности пытается азиатку сделать.
Котаны есть ли хороший аналог флоренс2 что бы не только флоренс можно было юзать, и вообще какой вы считаете набор кастомных нод актуален сейчас, ну типа набор джентльмена так сказать!?
>>1431826 есть много разных задач, под каждую есть свой джентельменский набор. одна нужная нода может быть у одного джентельмена, другая у другого. не надо искать что-то "универсальное" что можно просто перевоткнуть вместо стандартных нод и получить волшебный прирост члена, надо сначала понять какие у тебя задачи и потом уже искать как их лучше решить, попутно впитывая теорию о том как работают используемые тобой нейронки.
>>1431850 >полтораху Вот, с реддита принёс: пик1 - 20481536 - 60s on a 5060Ti пик2 - 5 sec. to generate 1280x1024 on a 3090 RTX with sageattenion. Img2img and inpaint work great too. пик3 a HUGE prompt made by Sonnet, with reflection, different plate and people. 15362048 - 200sec (хз на чём)
То есть в модели есть селебрити. Она не зацензурена(по комментариям). Норм делает руки в отдалении. Что еще надо?
Она не может в сложный промт. Не может в необычный шрифт. Не может в абстракции. не может в эффекты. Нихуя не может. Шаг назад после квена. Может в реализм, если что-то простое. И в быструю скорость. дрочерам зайдет, если ее затюнят
1 пик. Первая половина квен. Вторая половина z-image
>A photograph of four small animals in a round nest made of intertwined brown twigs. The nest is positioned centrally in the image, with sunlight filtering through green leaves in the background. The four animals have large, round yellow eyes and fluffy fur. The animal in the center has a white face and chest with black and gray stripes on its body and head, resembling a tabby cat. The other three animals have similar facial markings but are more owl-like with rounded faces and prominent ear tufts. All four animals are looking directly at the camera with slightly parted mouths, displaying curiosity or alertness. The sunlight creates a warm, golden glow on the leaves and nest, adding depth and contrast to the image. The overall composition is balanced, with the nest and animals occupying the central focus.