Оффлайн модели для картинок: Stable Diffusion, Flux, Wan-Video (да), Auraflow, HunyuanDiT, Lumina, Kolors, Deepseek Janus-Pro, Sana Оффлайн модели для анимации: Wan-Video, HunyuanVideo, Lightrics (LTXV), Mochi, Nvidia Cosmos, PyramidFlow, CogVideo, AnimateDiff, Stable Video Diffusion Приложения: ComfyUI и остальные (Fooocus, webui-forge, InvokeAI)
Пытался использовать ллмку для написания промптов. Потом править промпты ручками. Плюнул, написал на русском. Получилось лучше, ближе к задуманному. Вот думаю.
Ребят, уже года два не трогал оффлайн генерацию картинок, тк старушка 1660ти уже не справлялась. Сейчас в попыхах пришлось купить себе 5050, да, ужасная, понимаю, но все же. Что сейчас можно на чем генерят, что пойдет на этот огрызок?
>>1462278 А почему Qwen3 все советуют и на реддите тоже. Почему не JoyCaption(может в nsfw и бору теги), или не гемма 3 12b (хорошее понимание изображений и богатое описание)?
>>1462333 Я еще что заметил,в зимаге русский текст получается если только капсом написать. Нижний регистр вообще не получается, а капс практически без ошибок выходит.
>>1462333 Анон делал лору для Edit. Жду, что он тут появится. Хочу узнать как он собирал датасет. Мое предположение, что если взять кадры со спермой, почистить лицо любой edit моделью и обучить на этих парах, то лицо не будет искажаться. Потому что в его лоре слегка искажается будто обучена на парах фотографий в разные моменты времени.
Prompt: A medium close-up shot of a crt moninor, displaying text 'Не особо жалую Z-Image, но кириллицу пишет и строчными и КАПСОМ.' Green ambient cinematic key-lighting.
В чём-то ты определённо прав. Не особо пользуюсь Z-Image. Хотел тебе сказать, что всё дело в волшебных пузырьках в модели text encoder и «сложности» описания сцены. Даже картинку на FLUX.2 бахнул: >>1462551
А потом затестил на Z-Image с его default qwen_3_4b.safetensors Сдаюсь. Даже упростив сцену до prompt выше, всё равно не получилось вывести строку без ошибок. И на латинице тоже (на ней, думал, будет без ошибок). Иероглифы лучше получаются. А остальной текст это «Вонни и Птчк». Изменение настроек sampler/scheduler (default: res_multistep/simple) на (euler, heun, res_3s/beta, linear_quadratic, beta57) ожидаемых результатов не дали.
>>1462562 У меня как раз 4080s. FLUX.2 жирный и тормозной (чтобы ворочался побыстрее, MultiGPU узлы в помощь и достаточный объём RAM для оффлоада, чтобы SSD не дрочить; у меня 128 Гбайт). Для получения качественных результатов в сложных сценах promptах без JSON-разметки (и специальных узлов, которые позволяют её собирать) лучше не лезть. Мне нравится, что она качественно позволяет текст выводить и следует promptу (даже сложному, детальному, при наличии JSON-разметки). А вот всё остальное (в том числе сложность получения «гиперреализма», который в не особо близком мне Z-Image есть прямо из коробки, а на FLUX.2 для этого нужны realistic LoRAs типа lenovo_flux2.safetensors; да и то с оговорками и переменным успехом). Ещё, если это читают coomerы, то в NSFW FLUX.2 «из коробки» не умеет совсем; сверхсоевая модель.
>>1462561 Не знаю. FLUX.2 в какой-то степени может. Но я нечестно поступил, я загуглил референс-картинку с твоей лисой или кто это и подсунул её FLUX.2, описав остальное в prompt.
>>1462570 Тогда усложним задачу. Тоже самое, но в 1990х, монитор один и ламповый с тремя стаканами акций на экране, механическая клавиатура для трейдинга. И Холо порядочно уставшая.
>>1462579 Под референсом для FLUX.2 я подразумевал пикрил 1. Я его скармливал, этого FLUX.2 достаточно.
>Тогда усложним задачу. Тоже самое, но в 1990х, монитор один и ламповый с тремя стаканами акций на экране, механическая клавиатура для трейдинга. И Холо порядочно уставшая.
Вот это без JSON-promtа уже не сделать на FLUX.2 Поэтому, уточним детали. 1990-е это общая обстановка или стиль фотографии, как на «мыльницу» (FLUX.2 некоторые стили фотографий понимает)? Потом, сам персонаж должен быть остаться плоским в аниме-стилистике (как на пикриле в этом посте) или как на пикреле выше трансформироваться в подобие 3D?
>монитор один и ламповый с тремя стаканами акций на экране >с тремя стаканами акций на экране
Это как? CRT-мониторы FLUX.2 умеет рисовать. А что за стаканы, я хз. Prompt я на английском ему пишу, если что.
>>1462565 С рамой проблемы, 32 ссаных гига ддр4, правда 4000mhz. Лан пох, факапнул тут rm -rf'ом с недосыпа models из каталога с лапшой вместо output, перекачивать все лень.
>>1462590 >факапнул тут rm -rf'ом с недосыпа models
Печально. Сочувствую. Я эту папку отдельно сохранил, чтобы случайно не ушатать при обновлении ComfyUI и прочих перипетиях.
>32 ссаных гига ддр4, правда 4000mhz У меня DDR4 @ 3000 МГц; правда 128 Гбайт в Quad Channel. Сейчас посмотрю на следующем пике сколько займёт. А то тут глянул, а там 111 Гбайт RAM было забито (может, там Z-Image не выгрузилась ещё, помимо FLUX.2) и прифигел малость.
>>1462588 А, окей. Я не так понял. >1990 Это про время, тогда была другая электроника и дизайн всего. Старые компы, мониторы, здоровенные клавиатуры. >персонаж должен быть остаться плоским Лучше чтобы было как на твоей картинке >А что за стаканы stock exchange order book На русском называется стакан. Типо пикрил для быстрой торговли. Надо чтобы они были на экране поставлены в ряд.
>>1462599 В общем, что-то типа пикрила. Каждый референс, ещё минута к генерации. Потребление RAM 111 Гбайт. Выгрузил все модели, чтобы проверить начисто. Теперь понятно как ушатываются SSD некоторых Анонов, когда туда оффлоад делается. Если бы не знал, можно было бы не заметить. Меня объём RAM до этого момента спасал, получается. Ещё взлолировал с монитора, когда FLUX.2 на просьбу отобразить несколько копий референс изображения с интерфейсом торговли, просто растянул CRT монитор. Вот prompt, я поленился JSON-формат делать и попробовал одной строкой:
A hyper-realistic 1990s digicam style with CCD sensor characteristics photograph, a medium-shot depicting a character from Image 1 in 2d anime style, pretty tired and sleepy, sitting at the vintage 90's era IBM PC terminal with CRT monitor, displaying 3 copies of reference Image 2, vintage mechanical keyboard, at 1990s stock market with CRT television screens and trading stocks shorting. Warm lighting, dramatic lighting, orange tint for highlights, blue tint for shadows.
>>1462604 Лул эти чудеса техники. Видимо он подумал, что если есть лучевые мониторы c портретной ориентацией, то почему бы не положить его набок. Окей по крайней мере теоетически он в такое может. Клавиатура даже нормально получилась.
Хотя потребление памяти чудовищное для таки задач.
>что если есть лучевые мониторы c портретной ориентацией, то почему бы не положить его набок
Я слежу за генерацией на этапе preview. Ждать 3-5-7 минут ради запоротой генерации непозволительно (после скорострела Z-Image). Когда видишь, что не получается, лучше сразу остановить и сэкономить время. FLUX.2 начинал рисовать его как нормальный монитор, а потом, на последующих шагах стал тянуть, чтобы вместить референс с интрефейсом торговли. Он хотел его ещё больше вытянуть, но решил нарисовать третий пустой CRT монитор рядом.
> Клавиатура даже нормально получилась Мне нравится, что FLUX.2 имеет примерное представление о железках. Допускает вольности, но в целом, может в vintage разных эпох худо-бедно.
Вот ещё одна генерация на пикриле. Убрал строчку про двухмерность. Забавно, что третье изображение референса с интерфейсом торговли начиналось бледнее остальных (но на начальном этапе генерации условия были соблюдены; уже на первом шаге было 3 копии изображения). А затем превратилось просто в два интерфейсных окна.
Ещё я SEED не сохранял, генерировал с разными. А правильнее было бы зафиксировать.
>Хотя потребление памяти чудовищное для таки задач. Согласен. Но FLUX.2 dev (возможно, скорее про-версия, предназначалась для корпоратов с их датацентрами и колоссальными объёмами VRAM в ригах). То, что это можно запустить хоть в каком-то виде за счёт оффлоада в RAM, да ещё и получать генерации в пределах 3-5-7 и далее минут, уже считаю крайне неплохим результатом.
>>1462613 Расскажи подробнее про эталонные изображения. Какие ноды использовать чтоб добавить их в свой воркфлоу? Это только flux2 так умеет или на Z тоже возможно? И да, спасибо за инфу про JSON разметку - на Z опробовал, годнота.
Аноны, Z по части генерации текстур, ассетов (предметов, объектов) и прочей стоковой хрени хуже, чем flux? Я пробовал простые запросы типа "чистый лист бумаги" или "голая стена", так Z часто хуярит просто белое изображение. Да ещё и между генерациями у него с вариативностью плохо.
У кого-то есть опыт генерации подобного? Может, специфика промтов? Я пробовал stock image писать в начале проста, так Z начинает генерить людей с презентации. Хуйня какая то.
>>1462693 зимаге нужно более детальное описание того что ты хочешь
В дипсике пишешь типа 1 промпт для текстуры "голая стена" Вот это уже вставляешь в зимагу Голая бетонная стена в индустриальном лофте, фактурная серая поверхность с неровностями, шероховатостями, мелкими сколами, пятнами от высохшей влаги и следами опалубки. Естественное рассеянное освещение под острым углом подчёркивает грубую текстуру и глубину рельефа. Монохромная цветовая гамма в оттенках бетона, пепла и пыли. Высокое разрешение, фотореализм, детализация каждой трещины и песчинки.
>>1462724 прекрасные узоры, чдохля ведь не способна такое, неее...
Я хочу посмотреть как ваши модненькие XYZ-модели для которых нужны пекарни за полляма умеют в брестфидинг - нурсинг, чтобы баба кормила грудью младенца при этом не дроча ему член. и чтобы младенец не просто тупо утыкался кудато-там, а явно сосал сисю, что-бы сосок был во рту. жду ваших нелепых потуг и оправданий.
Задача ясна? Тут кто-то хотел челенджей и реквестов? Считайте, что это он и есть)
>>1462746 О том и речь, я выкинул все свои sdxl модели в итоге, т.к. зимага сочетает умение в текст почти уровня флакса (с нюансами), отзывчивого промптинга и охуенного реализма и отличной скорости на картошке.
Бонусом текстовый энкодер понимает и русский язык.
Девушка в домашнем халате с чашкой чая стоит на балконе хрущёвки ранним осенним утром, наблюдая, как двор оживает: дети идут в школу, пенсионеры выгуливают собак, а её отражение едва видно в запотевшем стекле. Россия, осень, свинцовое небо
>>1462757 Хз почему но у меня обратная ситуация - на sdxl приемлемо идёт, зимаг ради интереса попробовал (все же пишут что он быстрый) вырубил на 10-й минуте первого шага, что-то явно не то.
>>1462820 >при этом не дроча ему член по секрету, единственная модель, которая в это умела (с оговорками) была пони v6, у вас есть охуенный шанс показать свои неибейшие скиллы в плетении комфи-соплей, и пристыдить меня деда.
>>1462797 >если ллм или другая модель то не выгрузилась из видеокарты у тебя грана... ллм не той системы, только у меня той, что надо, но я её вам не дам)
>>1462657 Да, FLUX.2 работает с референсными изображениями. Там ничего экзотического не надо. Всё есть в default workflow для FLUX.2 (по умолчанию там два референса подключено и написано, что по этому образцу можно добавить ещё). Вообще, такая работа с референсами это Edit — функционал модели. По ссылке подробнее: https://docs.bfl.ml/guides/prompting_guide_flux2 (там про JSON-форматирование тоже есть) Z-Image-Edit я не видел, чтобы выпускали. Аналогичный функционал работы с референсами есть в Qwen-Image-Edit-2509. Поэтому с FLUX.2 мне уже было проще.
>>1463041 так умеет только флюкс и в этом похоже и заключается его смысл. генерация по рефу через квен эдит это весьма ограниченая тема, пусть и юзабельная. плюс у флюкс2 расширенный датасет который знает какая тачка хранится в гараже твоего бати
>>1462716 У меня зет не переносит эталонную копию а генерирует что-то подобное. Так и должно быть? Пример промта: The girl depicted in image 1 sits on a chair at a computer desk and looks at the monitor. Transfer the reference copy of image 2 to the monitor. Тебе удается перенести точную копию изображения?
>>1463174 так это не едит, там ллм по изображению генерирует промпт описывающий изображение. похожий эффект можно получить засунув картинку в чатгпт. за точной копией иди в квен едит
>>1462724 Спасибо бро! Да, это решение. Но я пошёл по ленивому пути: добавил нод оллама с квен3:8б и он мои примитивные запросы описывает высоким слогом, лол.
А вообще, это как будто бы мастхэв фича. Ибо расширенние промта делает и более толковое изображение. Вот, для сравнения, та же баба, что и выше, с тем же промтом, но прогнанным через промт "напиши мне красивый промт" лол.
>>1463226 >та же баба я пока бабы не увидел, пластиковое говно с жёсткими тенями и примитивной текстурой, свет ебанутый, будто киловатной лампой со всей дури светят, ноль иммерсива, хуита короче, всё это можно описывать безо всякой ебанутой llm-ки как: 1girl, casual spacesuit. и нихуя не поменяется, ровным счётом, даже лучше станет. всё то что тебе насрала твоя поридж-ллм это просто шизойдная каша из случайных слов, в итоге модель выхватывает лишь работающие токены, которых всего 3 из 33-х, в лучшем случае, а остальное игнорит. да, она может всосать в себя хоть "войну и мир" но толку с этого никакого, пиши сразу по сути с рабочими токенами.
>>1463086 >Хз, пробовал так Вот я об этом и говорил. И если генерировать несколько, то будет куча такой белой однотипной хуйни. Для сравнения, flux1dev сразу выдаёт ебейшее разнообразие по простому запросу Stock image. the wall. Да, они не идеальны, но с большинством уже можно работать, или запустить генерацию ещё раз, чтобы выбрать из другой пачки говна. Но, разнообразного говна!
>>1463160 какой позорный пердолинг, волк из журнала "крестьянка" сдохли вырезан маникюрными ножницами из и кое как вкорячен с чудовищным проёбом по свету и детализации, садись 2. ты вкурсе, что вживлённых персов нужно вторично проходить, чтобы вписать в полотно?
>>1463255 >Для сравнения, flux1dev Для справедливого сравнения нужно сравнивать с Флюкс Шнель. Это же турба Зет, значит сравни с турбо флюксом - Шнель.
>>1463273 Шнель хуйня же. Я сравниваю то, что генерирует по скорости примерно одинаково на моей системе. Сравнение не для хейта, а для того, чтобы найти решение своей проблемы.
>>1462844 Как же сдохля ебёт. Современные модели только на то и годятся, чтобы генерить болванки для последующего обмазывания сдохлей с контролнетами, айпиадаптерами и т.п.
Не надо всего этого пластикового говна китайского с сэймфэйсами и двумя с половиной стилями, и уж тем более на хуй не надо всратого совевого флюкскала для обладателей 5090, надо прокачивать сдохлю, чтобы к ней было побольше средств контроля, и они получше работали, и оптимизировать это всё как следует.
>>1463312 >то 0 и есть Ну, сгенерь только одну картинку из батча. Чтоб она самая была, но одна. Хз, твой промпт Stock image. the wall. Остальное на скрине. fp16
>>1463295 > генерить болванки > для последующего обмазывания сдохлей с контролнетами айпиадаптерами это что за секретная метода когда ты СНАЧАЛА генеришь пикчу, а уже ПОТОМ каким-то образом обрабатываешь ее контролнетом в сдохле? или ты просто навалил умных слов о которых когда-то слышал?
>>1463354 Я перепроверил у себя. мой чемодан в том что когда крутишь лоры при одинаковом промпте, кеш не сбрасывается, и лоры норм крутятся, без неё кеш постоянно скидывается
>>1462756 Не, ну падажжи, анимешные люстро-модели такое умеют. Хотя с постоянством и правильностью поз там ниоч маловато датасета, да и вообще взаимодействия за рамками ебли так себе получаются, плюс пальцы ожидаемо колбасит, но вполне можно кормящую мамку с ребенком и без NSFW-контекста сгенерить. >>1462826 Пони тут не нужен.
>>1462756 >модненькие XYZ-модели для которых нужны пекарни за полляма такие на домашних компах очевидно не заведутся как минимум без скрипа. но я полагаю что для тебя это вообще любая модель которая вышла после sdxl, поэтому вот генки с хромы.
>при этом не дроча ему член попробуй использовать файнтюн который умеет делать что-то кроме порнухи, МОЖЕТ БЫТЬ ПОМОЖЕТ
>>1463530 И вот так, с помощью нехитрых манипуляций мы получили 46 секунд вместо 40. Но зачем?
Может лучше найдете способ как отключить ебучий upcast у комфипараши и гонять почти вдвое быстрее с вдвое меньшим потреблением памяти? Я пробовал фаст, саге и прочее, комфикал все равно апкастит фп8 до бф16. https://civitai.com/models/2172944/z-image-tensorcorefp8
>>1463896 У меня нет заготовленных батов, но добавил этот флаг к вызову main.py, ебучий калфи всё равно кастит вверх. Я не понимаю этот принцип. Модель фп8, нахуя эта скотина "повышает" точность, если 4000 поддерживают 8 битов, а 5000 вообще поддерживают 4 бита.
model weight dtype torch.bfloat16, manual cast: torch.bfloat16 Prompt executed in 15.67 seconds model weight dtype torch.float8_e4m3fn, manual cast: torch.bfloat16 Prompt executed in 14.89 seconds model weight dtype torch.float8_e4m3fn, manual cast: torch.bfloat16 Prompt executed in 15.03 seconds
>>1464001 >Модель фп8, нахуя эта скотина "повышает" точность, если 4000 поддерживают 8 битов Не знаю правда или нет. Скайнет скозал так: RTX 4000 поддерживают INT8, а не полноценный FP8 FP8 официально и полноценно поддерживается только на Hopper (H100)
>>1464001 а так все нейронки инфернируют в своей полной точности, веса только скукоживают чтобы меньше врама занимала статическая часть, а рабочая динамическая вычислительная хз часть всегда одинаковый объём занимает
>>1464077 Сочно. У меня нюанс в том что мы с гпт до этого пилили машинки в стиле пикрил1, и оказалось что он очень привязывается к стилю, робот сам как выглядит как будто к машине лицо приделали, в SD это как то гибче. Вот ещё топовый кек сегодня был - делал всякие пушки под моделирование, после нескольких штук пишу - а сделай противотанковую турель на платформе, открываю пик2 и ору в голос.
>>1464119 Ну так она и занимает столько потому что мудацкий комфи апкастит. Нет? >одинаковый объём Тогда почему не полные 32 бита, а именно бф16? Нет более указан именно "manual" cast. Мне кажется это как-то можно задать. Нахуя тогда чел загрузил специальный билд и пишет, что оно сильно бустит скорость.
>>1464240 >Ну так она и занимает столько потому что мудацкий комфи апкастит. Нет? Апкаст это процесс, а не занимаемое пространство. Ты можешь хоть в int1 иметь веса на карте, но сам расчет будет intN -> fp16, это карте по враму ничего не стоит. >Тогда почему не полные 32 бита, а именно бф16? 1. Потому что изначальная модель bf16/fp16 и в коде скриптов так прописано (можешь паприколу все на float поменять ток смысла ноль) 2. fp32 и выше смысла нет для генерации, эти точности только для обучения
>>1464596 Про фп8 прав. Причём, с флаксом это проще было: скачал ггуф q8 и получил легковесный вариант модели с незаметной разницей. С з имаге подобное не работает, к сожалению.
>>1464596 Кто вообще дрочит на поломанные мизинчик, когда генеришь 100 пикч? Уж для продакшена можно запустить полную версию, а для себя хотелось бы вдвое быстрей генерить на фп8, все равно эти пикчи удаляются.
>>1464720 >генеришь 100 пикч... Я генерю 100 пикч не потому что пальчики не сходятся. Я генерю 100 пикч потому что возможности и границы модели надо исследовать автоматическими методами. Пидорить часами один и тот же 1girl промпт - проёб жизни.
Чуваки что с Civitai..?? Сносят к Хуям пикчи ! Выкладываешь через сутки сносят без причиный. SDXL еще норм робит, но посты с Z-image просто банят или xxx рейтинг на картинку где все норм.
>>1465257 может без метаданных загружаешь? у меня на цивите фап рефы сохранены именно на зимагу и они все еще на месте спустя пару недель, с красными тегами причем.
>>1465317 >>1465317 То то и оно что описание оставляю, лоры добавляю что использую. Все в png, Для повторяемости. Может за схожеть лиц с celebrity ? даже без красных тегов удаляли хз чего у них там.
Последний Бан на морду Джокера )) без adetailer лица. Просто тестил лору на стиль.
>>1465386 Тоже думал DMCA. Харли Квин, Бэтманы и тд это все в базовой модели. Их можно все ок же должно быть.
Хз куда капать, мож репорты набрасывавют просто. Вообще проблема тока с реалистиком и Z image. Да и в лентах civitai, tensorart и остальных одно аниме це зрада.
Ты вместо пустого latent_image подсовываешь в sampler либо ранее сохранённый latent_image от генерации, либо конвертируешь картинку в latent и подсовываешь её на вход latent_image в sampler. Для последнего варианта, в минимальной схеме добавляются два узла и три связи.
По порядку: 1) Открывай свой Z-Image workflow; 2) Добавляй узел Load Image; 3) Добавляй узел VAE Encode; 4) Соединяй эти два узла (IMAGE>pixels); 5) Тяни VAE от узла Load VAE; 6) Соеднияй VAE Encode с KSampler (LATENT>latent_image); 7) В KSampler ставишь denoise где-то на 0.2 (тебе не нужно сильно менять исходное изображение; если оставить 1.0, то будет совсем другое изображение); 8)… 9) PROFIT.
Если исходное изображение больше 2048×2048, то используешь узел ImageScaleToTotalPixels на шаге 8 (с потерей деталей и даунскейлом до 1 Мп, чтобы модели было проще ворочать).
>>1466106 >Если исходное изображение больше 2048×2048, то используешь узел ImageScaleToTotalPixels на шаге 8 (с потерей деталей и даунскейлом до 1 Мп, чтобы модели было проще ворочать).
Если железо позволяет, можешь в этом узле указать 2 Мп. И генерировать в 2048×2048. Или использовать другие узлы для resize в другие разрешения, если генеришь не «квадраты», а «прямоугольники». С разрешением выше 2048×2048 Z-Image Turbo нормально не работает (про всякие фокусы со сшиванием не говорим; я лично не проверял их работу, но в теории они существуют).
>>1466147 Увеличивай denoise (выше 0.45, так заметно должно быть). Если что, это img2img, а не Edit. Просто генерации стартует не с «чистого листа», а с latent_image, полученного из изображения.
Ананасы, я чутка выпал из обоймы. К хромогу присрали уже редактирование изображений по промту? Нунчаки вобще стоят ебли? Или будет как с DMD скорость выше но результат мыло?
>>1467078 Нахуй не нужен этот анимешный слоп-кал. Когда хотя бы до бананы 2к добустят, тогда можно пользовать. А так ни качества, ни знаний. Просто бесполезная хуйня при рабочих онлайн-инструментах. Только если обучат на какое-то узкое нужное/интересное применение, которое даже банана не умеет.
>>1467078 Отлично. По «пресс-релизу» выглядит красиво, апдейт 2509. Посмотрим что они сломают и где насрут в этот раз, по сравнению со старыми версиями. Как бы не пришлось не только старую Edit, но и 2509 держать вместе с этой.
>>1467234 А чем разница между тем, чтобы запустить браузер для комфи и запустить lmarena в инкогнито? И там, и там нсфв либо лютый кал, либо цензура, а во всем остальном банана ебет с колоссальным отрывом. А генерит так же безлимитно и даже быстрей.
>>1467247 >раздеть Даун, чтобы раздеть твою мамку достаточно sd 1.5 инпейнт модели
Правильно анон выше сказал, все эти квены хуены нахер не нужны, когда банана есть, только если для абсолютных дебилов которые локально генерят кривую мыльную пластиковую сиську и дрочат на такое
На рефорж можно накотить как-то плюшку из аутоматика, чтобы лоры было удобно через выпадающие менюшки подключать и веса настраивать, а не вставлять это по одной из отдельной вкладки в промпт (как по дефолту сделано)?
>>1467366 Я до сих пор там, ибо есть одна нужная мне лора для сд1.5, которой нету для других моделей. Ну и пощупать чето новенькое захотелось типо xl. По этому не кривляйтесь
>>1467398 >грандиозно улучшает результат И где же ваши охренеть грандиозные результаты? Пока я вижу в шапке лишь этот позор от z-кала который не смог в простой портретный пик И так на протяжении уже двух лет, только один пиздёж безкартиночный
>>1467378 Похоже то расширение лишилось поддержки в новых версиях аутоматика, а для рефоржа его вообще не делали. Мда. Это же так удобно было. А теперь как прогромизд какой-то циферки вручную вводи и клики лишние делай.
>>1467378 >чтобы лоры было удобно через выпадающие менюшки подключать и веса настраивать комфи >есть одна нужная мне лора для сд1.5 на комфи также будет работать
>>1467361 Так промптом вроде удобнее, нет? На подключении лоры у тебя и галерея с картинками (размер которых настраивается в опциях), и поиск удобный, и по папкам смотреть можно. Авто-ввод нужных тэгов при подключении тоже поддерживается, если пропишешь их для лоры. Если же вес поменять надо - имхо в промте проще циферку переключить, чем в отдельную менюху мотать, и там ползунок крутить, или ту же цифру печатать.
>>1467442 Ужас какой. Вдвойне ужас, что это комфи-сектант преподносит как преимущество.
>>1467468 >преподносит как преимущество. челу нужен определённый функционал. я нашёл похожее в комфи и показал ему. не всю жизнь же грызть форджекактус, когда-нибудь придётся перейти на базу - комфи. не любят его только рукожопые неосиляторы.
Сейчас уже нет популярных моделей которые позволяют Graphic контент пилить? MidJourney делает, но через пару дней любой аккаунт с подпиской улетает в бан
>>1467697 что, правда?) охуеть, спасибо чел тут интересовался подобным и пробовал писать код - не вышло у него. и сам я про сохранение в webp не знал до определённого момента. к этому времени у меня уже всё подзасралось, хули там, где-то 2 года генерирования. вот переношу все пнгшки в webp иногда лучше не вякать попусту, не зная подробностей
>>1467816 Я этим пользуюсь, рекомендую. + встроенный органейзер лор с возможностью скачивания с цивита. Хожу по цивиту с большим черным мешком и скачиваю все лоры, а потом из органейзера накидываю в ноду.
решает проблему поиска подходящих лор из других стопицот лор + в в каталоге на лору можно записать инструкцию и ключевые слова для активации и уже из ноды вытаскивать нужные параметры для лоры.
>>1467361 Тут анон уже отметил, что промптом удобнее и быстрее, чем нажимать кнопочки. Но есть и вариант с кнопочками - просто создавай стили с нужными лорами и быстро их включай из выпадающего меню.
>>1467705 Тебе анон справедливо написал про троллинг тупостью, потому что картинка вырисовывается такая, что ты два года тупо выпучив глаза жал кнопку генерации, даже не попробовав скосить глаза на другие опции, которые не так уж и глубоко зарыты.
>>1463284 >напиши пишу, я их специально пригасил (freckles:0.2), веснушки цепляют за собой дохуя ненужного мусора и артефактов, и при апскейле вносят разъёб. Но тебе, пидарасу токсичному, об этом знать не нужно, пожалей себя - побереги силы, они тебе ещё понадобятся для обсёра.
>>1467883 ещё один бесполезный высер. в отличие от вас я хоть что-то сделал и не пожадничал, выложил, вспомнив что тут тоже кому-то надо было такой скрипт. не все такие вумные как ты и сразу находят webp ноду.
>>1467883 >не так уж и глубоко зарыты Так и не нашёл как сохарнять в webp в штатной ноде. Собственно похуй, кастомки ставятся в два клика. мимо_считаю_дефолтные_ноды_калом
>>1467925 вот кстати заметил что тут таких дохуя умных чето все больше и больше становится. лезут с гнилыми поучениями не зная всех подробностей. один вообще отчебучивал детектируя пластиковые соски, не те пальцы и тд. в его голову никак не могло прийти что генерации могут делаться на отъебись, чисто поржать. такое ощущение что челики недавно вкатились в генерацию и их теперь распирает от гордости что смогли оседлать питухон+гит. смотри мамочка, мне череп жмёт! пойду на двощ раздавать всем советы!
>>1468071 немного костыльно конечно. и постоянно сохраняет в папку в отличие от preview image, но в целом норм. тот же preview все равно засирает папку tmp пнгшками, в отличие от.
>>1468131 и трусы снимает, я не стал сюда выкладывать. При раздевании надо еще уточнять что полностью надо все раздевать, чтобы все видно было, иначе оставляет купальник, да.
еще можно наконец нормально за руль сажать тянок.
Думаю, рабочий процесс мб будет выглядеть так - сначала комбинируем 2-3 рефа, а потом уже рефайнить в других более быстрых моделях
>>1468156 бля если турба диффикульт ту траин считается разрабами (ну да, сисик писик сложно втюнить, а такто вообще не сложно), то я в ахуе че там будет на изи
Бля, можно ли вообще хоть в какой-то локалке получить норм реалистичное ебало? Чтобы без оверсмуфа, без этой ебаной нейродрочной резкости, чтобы вот прям как на реальном фото было? Я уже и флакс 2 пробовал, и квены ваши обоссанные, пиздец какой-то. Я нахуя 5090 блять покупал, если за эти деньги мог бы годовые аккаунты на все хиггсфилды купить??
>>1468160 Ну по факту, даже две лоры не совместить. Лучше на другие параметры посмотри. >>1468152 >edit >steps: 50 Бляяяяяяяяяяя. Я думал она будет такая же быстрая, такая же невариативная, а поэтому с ебейшей точностью повторять референс. Рип, юзлес кал. До этого у них Base вообще был подписан как Visual Quality - Bad. Короче, только для создания лор можно ожидать и надеяться, что станет чуть лучше. Похоже, даже на файнтюны можно не надеяться. Челы попробуют, получат хуйню и дропнут. Если бы они показали файнтюнерам как потом превращать модель в такую же годную Turbo. А то опять, если и обучат, то вместо хорошей дистилляции будет подобие Chroma-Flash, которая каким-то чудом ещё хуже чем Base.
Оказывается у rgthree есть api для вытаскивания с цивита инфы для лор. Сделал простой Powershell скрипт (.ps1) для апдейта инфы всех лор в папке. https://pastebin.com/raw/cMW7U3Lv
>>1468247 Да до пизды, хоть 15. Это значит, что не 8 и cfg 1, а значит половина результатов будет говняк, который ещё и генерится значительно дольше. Причем они сразу пишут, что качество хуйня даже по сравнению с Turbo. Юзлес.
> я пока бабы не увидел, пластиковое говно с жёсткими тенями и примитивной текстурой, свет ебанутый, будто киловатной лампой со всей дури светят, ноль иммерсива, хуита короче, всё это можно описывать безо всякой ебанутой llm-ки как: 1girl, casual spacesuit. и нихуя не поменяется, ровным счётом, даже лучше станет. всё то что тебе насрала твоя поридж-ллм это просто шизойдная каша из случайных слов, в итоге модель выхватывает лишь работающие токены, которых всего 3 из 33-х, в лучшем случае, а остальное игнорит. да, она может всосать в себя хоть "войну и мир" но толку с этого никакого, пиши сразу по сути с рабочими токенами.
и чето пукаешь про токсичность когда тебе деликатно намекают что ты обосрался в своих попытках что-то доказать) порофлил с агродауна-плаксы и его семёна >>1468082
>>1468351 еще и скорость увеличится за счет того что можно просто скачать уже кем-то сгенеренную пикчу по похожему промпту, смысл изобретать велосипед если то же самое выйдет. профит! с качеством пока правда все хуево, но это нюансы
>>1468351 Ладно бы дело только в ролле сидов было. Зетурба на совершенно разных генеренных промтпах схлопывает одни и те же объекты в одни и те же композиции.
>>1468455 >Зетурба на совершенно разных генеренных промтпах схлопывает одни и те же объекты в одни и те же композиции. Так все ускорялки с cfg=1 работают, просто ты видимо в сдохле сидел и не пользовался ими. Они собственно сами сказали что у турбо модели diversity = low. Поэтому и ждем базовую модель, а не из-за сраных лор.
>>1468455 >>1468460 >в одни и те же композиции чел, эта "композиция" мне знакома ещё с полторашки, с анимешных моделей: бегущая смеющаяся девочка. Но ты продолжай бухтеть о "новизне" зетки, о том какая она оригинальная и неповторимая)
F на мобильных андроид устройствах есть приложения генерировать изображения, чтобы как на компьютере только проще? Какое устройство нужно для этого по мощности?
Как установить этот ебаный комфи? Гайды на гитхабе написаны индусом-долбоебом. Установил инстал-версию, она какого-то хуя начала мне папки раскидывать по всему диску: эти блять - вот тут будут лежать, а эта хуйня - вот здесь. Снес все к хуям. Повторно уже не устанавливает - пишет ошибку. Окей, скачал портабл версию, запустилось, генерация картинок - а вот хуй тебе скачай модель нахуй. Скачал - а вот хуй тебе CUDA kernel errors. Зашел на гитхаб почитать - одно пук сереньк.
>>1468657 >CUDA kernel errors Разберись какая у тебя видимикарта. Я сначала скачал для 5060 не то что надо и оно работало, но часто вылетало. Подошла версия куды 12.8 что соответствует аппаратной версии 5060. Нигде это блять не пишется. Тоже выебся пока понял. И драйвера ставь студио, а не гейм-реди. Сначала тоже по советы еблана с ютуба поставил гейм и иногда ловил перезагрузку драйвера. Студио драйвера - времень.
>>1468698 Спасибо, попробую завтра уже. У меня 1070ti. Сначало написало, обновите драйвера, обновил через Нвидиа центр автоматом, вообще не вдавался. Фокус - работает. С этой залупой весь день бьюсь. Поставил плагин для фотошопа от комфи, горит что не подключена Автомата1111. Это просто пиздец какой-то.
>>1468776 >У меня 1070ti. Сначало написало, обновите драйвера, обновил через Нвидиа центр автоматом, вообще не вдавался. Фокус - работает. С этой залупой весь день бьюсь Может меня поправят сейчас те, кто на винде, но вообще-то 12-ая куда и соответствующий торч уже не очень их (Pascal) поддерживают. На пингвине нужно на базе куда 11 ставить, чтобы точно на паскале завелось (если нет желания из исходников пересобирать торч). Минимальная серия карт для 12-той куды чтобы без проблем все встало - 30xx, Ampere.
>>1468648 https://github.com/xororz/local-dream там только sd 1.5 но зато можно в инпеинт. на snapdragon 8 gen 3 рендерит 512x512 за 30 секунд с обычной моделью и ускорением с помощью GPU и 4 секунды если скачать модель сконвертированную под NPU. если подрубить turbo\LCM лору то будет примерно в 2 раза быстрее. в целом тут требуемый минимум где-то 6 гб озу (модельки весят по гигабайту) и более-менее шустрый GPU по Гфлопсам. если нужно использовать NPU то требуется snapdragon 8 gen 1\2\3\elite
>>1468657 >CUDA kernel errors. >>1468776 >У меня 1070ti. лучше качать более старые портабл сборки. у комфи приоритеты на скорость, а не обратную совместимость.
>>1468657 ты какойто криворучка ебать у меня стоят 2 системных питона 3.10.6 и 3.11.9 (активный), куда 12.8, старющие дрова 572.70 для 3060 никогда никаких проблем не было с портаблкомфи, которому и питон не нужон т.к. енв уже в комплекте
>>1468841 а так у тя некроговно тебе надо поставить последнюю актуальную куду на твое некроговно (не помню, вроде 11.8) и обновить в самом питон енв комфи зависимости, и может оно запустится тогда ну или найти некроверсию комфи для старой куды и сосать некромодели
>>1468841 чел, астанавись... 1070ti не умеет в быстрые расчеты fp16 и не имеет тензорных ядер. твой максимум это SDXL с тормозами. так что вместо ебли с комфи попробуй это приложение для начала https://jellybox.com потыкай генерацию, вкатишься и скорость устроит то можно и комфи попробовать. там никакого питона и прочей хуйни, а также модели скачиваются прямо из проги.
>>1468657 >>1468841 У меня долго время были проблемы с драйверами и cuda, не было сил разобраться, потом в один момент решил, что надо перебороть, открыл чат, написал "гопота помоги" (правда плюс тариф), тупо копировал ей тексты ошибок, а она что мне делать. В итоге так не особо напрягая мозг всё починил. Там и не очень подходящие драйвера были и ещё что-то.