>>1345120 → Порог вхождения заключается в том, что эта хуйня тупо не работает. Просто сыпет безконечные ошибки, которые никак не гуглятся.
Благо я вроде вдуплил, как в пинокио использовать этот лайтнинг просто в лоры его запихиваешь, и всё. Но надо тестить еще как оно с другими лорами будет работать.
Так что пока нахуй шизомакароны. Сидим дальше на wan2gp
>>1345155 1. Порог вхождения заключается в том что отсеивает таких криворуких как. Которые даже по гайдам не могут все нормально поставить и настроить. 2. Ставишь стендэлоун комфи и все прекрасно работает и не сыпит никакими ошибками. То что ты начал накатывать поверх ускорители и оптимизаторы совсем не разбираясь в теме это только твои проблемы. 3. Уже даже сделали гайд для даунов https://github.com/loscrossos/helper_comfyUI_accel как установить всю сажу с торчами и прочим буквально одной командой. Но нет это же надо базовую теорию знать, "Нахуй оно надо! Буду тыкать рандомные кнопки и обвинять комфи в том что я на нее не могу установить ускоритель своими кривыми пуками."
>>1345167 Да, мне слава богу снова пофигу на твои пидорчи, сам дрочи свои шизо инструкции. Сижу в веб интерфейсе, как белый человек, со всеми новыми лорами.
Уважаемые новички треда, выше вы наблюдаете перепалку, основной идеей которой является:
1. Вы можете мучаться сутки, пытаясь настроить кривое говно, а потом учиться пользоваться макаронами, генерируя видео за 1-2 минуты в отличном качестве с кучей лор. 2. Вы можете пользоваться программой, у которой совершенно нет никаких проблем и наслаждаться генерацией сразу из коробки за 20-30 минут на видео в дефолтном качестве без лор и без нихуя.
Выбор за вами, нервы ваши, интерфейс или говно макароны, получасовая генерация хуйни или минутная генерация того, что вам нужно.
У нас тут правильного ответа нет. У нас тут только боль.
>>1345177 Только вот оказалось что wan2gp поддерживает новые лоры для 2.2. Там просто нужно в параметрах поставить какой-то говношифр типа 1.0 0.1 и т.д. что бы оно понимало что в первой фазе грузить, что в другой. Случайно на реддите объяснение нашел. Так что макаронники со своей лапшой соснули опять.
>>1345183 Как там на wan2gp с созданием 20 секундных роликов с подключением каждые 5 секунд новой лоры? Как там с цветокоррекцией после каждого перехода?
Как там с созданием роликов когда надо взять из загруженного видео 78 кадр и продолжить генерацию с него? Как там с бесшовными склейками видео когда надо брать не 81 а 80 кадр чтобы кадры не повторялись?
Как там с созданием 100 роликов из 100 изображений, ручками каждое вставлять будешь и кнопочку жать?
Как там с использованием торча для 30хх моделей карт в ван 2.2?
Как там с использованием infinite talk вместе с лорами? Как там с s2v дела обстоят? Как там с tts моделями?
Это уже не говоря про дополнительный функционал в виде генерации картинок, редактирования и склейки видео, генерации множества лиц и эмоций из одного изображения для тренировки лор, генерации текстового описания изображения. И это только первое что в голову пришло. А функционала там до жопы и все это можно комбинировать.
Разобравшись в лапше можно настроить все под себя и потом прогонять видео 1 нажатием кнопки, получая именно то что тебе нужно, а не жрать что дают. Разобравшись в лапше ты будешь иметь доступ с передовым новинкам индустрии, а не клянчить и ждать когда это запилят в wan2gp.
>>1345241 Ах да, вот еще пикрелейтед, как там дела с организацией лор? Я например могу в каждую зайти посмотреть примеры, триггерные слова, быстро обновить если появилось обновление лоры на цивите, перейти на автора и прочее.
>>1345177 Давайте сделаем неболь просто и все. Боль потому что и те, и те - ждуны когда им зделоют. Те кто ставил сажу, написали бы словами общий рецепт, по типу "надо чтобы торч совпадал с саже и надо брать тритон из <ссылка>". Те кто сделал лоры, взяли бы и скинули скриншот из воркфлоу. У кого работает недавний сетап из коробки, скинули бы откуда ставили. И все решилось бы.
Вот я по ссылке выше вижу какой-то словесный понос неанглика, который можно свести к простым предложениям:
=== ЗДЕЛОЙТЕ МНЕ САЖУ В КОМФИ (попытка 1) === У тебя питон 3.12 и торч 2.8.0+cu129 --- как у всех(?), кто скачал комфи на днях. Скачай файл: https://github.com/loscrossos/crossOS_acceleritor/raw/refs/heads/main/acceleritor_python312torch280cu129.txt Положи его в папку ComfyUI, там же запусти cmd/powershell (shift + правая кнопка по пустому месту в папке). .venv\Scripts\activate pip3 show torch (выведет Version: 2.8.0+cu129, иначе отбой) pip3 install -r acceleritor_python312torch280cu129.txt === вроде зделолось ===
Боль ушла. Все проблемы треда не в сложности области, а в шизоидности методик и мискоммуникации. Я заебись шарю, но и у меня полчаса ушло, чтобы размотать эти простыни галиматьи, которые этот идиот раскидал по трем репам. Идиот потому что нафаршировал своей шизой простой рецепт. Кстати не факт, что с этим его самосборным тритоном/етц на пекарне не начнется самосбор.
>>1345331 Господи, слава тебе господи что у меня ван2гп, и мне не надо ни знать какой там питон, тритон, ультрон и человек факел, и не нужно вводить не единой команды в пердоль. Просто нажимаешь на кнопочку и радуешься видосику. Как же хорошо.
>>1345343 Так это только для ускорения через sage attention. Ей надо тритон, а на винде его официально нет. Если не надо - можно не делать. Мне просто стремно ждать дольше. Вот как раз бенч заканчивается:
640х640, 6 шагов, 65 кадров, 2 видео с холода Без сажи, сек: 355, 288 С сажей, сек: 304, 236
х0.85, х0.82 времени. Было 4.8 минут, стало 3.9. Ну ощутимо. Но ебала, да.
>>1345361 Ясно.. Ну приду домой попробую обычный воркфлоу запустить из враппера. Но если у он ошибку выдаст, то я больше никогда лапшу в жизни не запущу.
>>1345431 У меня эта пидарасина не запускается, если я делаю в папке моделей линки через "mklink" команду вместо папок. При чем пока не перезагрузишь, она прекрасно видит модели из другой папки. Но стоит перезагрузить и всё. Программа тупо не стартует. Какого хуя ей надо непонятно.
>>1345436 Я щас вынес diffusion_models и loras в корень того же диска, сделал: cd ComfyUI\models mklink /J loras F:\loras mklink /J diffusion_models F:\diffusion_models Все запустилось, пошла генерация. Причем у меня outputs уже тоже /J линком было, на другой диск. Пробовать переносить модели уж не буду, другие диски не нвме.
Если так: mklink loras F:\loras You do not have sufficient privilege to perform this operation. Надо права админа. Возможно когда создаешь линк под ним, то он наследует права, которых у комфи нет.
>>1345462 На схеме все верно. В логах чо-то может быть. Памяти в системе хватает? ComfyUI\user\comfyui_8000.log ComfyUI\user\comfyui_8000.prev.log ComfyUI\user\comfyui_8000.prev2.log
>>1345250 И как твой wan2gp прилепить к этой пинокии ебаной? А то охуенно выходит в мануалах. В один клик шоб установить и используйте Пиноккио. Все. Конец.
>>1345487 Ну увеличь подкачку. У меня 12 врам, 64 рам, более менее дефолтные воркфлоу жрут 40-50гб рамы включая винду. Но диск может ебаться записью, если переживаешь за такое, то мониторь. Ну и думаю будет медленнее, конечно.
>>1345533 64 честной рамы. Но я еще фреймпак гонял, вот он уходил в подкачку, тотал в районе 96 показывает. Надо было 128 брать, хуле пожалел копеек. Щас все только растет и требования и цены.
>>1345120 → >Изначально этой лоры не будет в элементе выбора, т.к. уи даунский. Так что придется открыть сайдбар Models, нажать кнопку обновить, зайти в loras, найти и перетащить нужную лору на две новые ноды. При следующем старте комфи ее уже можно будет менять/выбирать нормально. Блин, а почему мне достаточно просто нажать на клавиатуре R после того, как я новую лору в папку закинул, и все появляется доступным для выбора? Никакой перезагрузки не нужно. Там же специально эта функция есть чтоб новое увидеть...
Вообще - я не понимаю претензий к comfy в данном треде. Если вам нужен однокнопочный инструмент - так и пользуйтесь таковым. Чего агриться на comfy, который изначально писался для того, чтобы иметь доступ в самые потроха SD генерации и все собирать вручную. Это, блин, самые прямые слова его автора - он изначально делал крайне специализированный инструмент под свой вкус и желания (а хотел он глубоко вникнуть в SD генерацию и разобраться - что там и для чего), а не для широкой публики. Просто оказалось, что таких - не он один. В общем - история как с пингвином. :)
Ныть на комфи за сложность - все равно, что открыть фотошоп, и ныть - что там всего так много, а тебе нужно только фото обрезать. Так для "только обрезать" - куча просмотрщиков с однокнопочным интерфейсом есть. Нахрен тебе фотошоп для этого?
В прочем, я и вертящих нос от других инструментов не понимаю. Вон, кому-то не нужны "макароны" - так это их личное дело. Есть у них другие инструменты, которые им подходят - и хорошо же. Разве нет?
>>1345596 Так я не за сложность ною, мне вся эта сложность понятна. Я на шестом редхате сидел (нет, не рхел). Просто обновление через R или драг дроп это не сложность, а тупняк. Достаточно поставить монитор на папки моделей/нод/инпутов и вызывать код хандлера R самому, это буквально три строки питона на весь проект-миллионник. Мне не надо, чтобы он мне зделол. У меня просто горит от такой тупой херни в 2к25. В однокнопочных тоже это все есть.
Может кто объективно ответить на вопрос, насколько сильно медленнее будет генерить, если вместо 96Гб ОЗУ использовать 32Гб плюс дешевый М.2 на 250 со стогиговой подкачкой на нем? проебал перекат
Ух бля нашел как прикрутить торч к 30хх. За одно и ремейк на ксеноблейд сделал.
Вангую что через пару лет сделают нечто подобное - графон в старых играх будет обрабатываться нейросеткой на лету делая ремастер из любой старой игры. Нвидия и так уже кадры обрабатывает и генерирует на лету, чуток еще осталось.
>>1345343 Блядь, да как вы устанавливаете это говно то? Выбираю этот ебучий ван в этом ебучем Пинокио, постоянно стопарится на 9/13 шагов с этим ебучим py...
Я хз, я раньше делал в две команды, но если ща завезли venv в комфи — не шарю, я просто обновляю старую сборку и все окэй работает.
Просто люди же никогда не читают треды, сразу влетают с вопросом и срут на всех, кто им отвечает. Это база подобных тредов.
>>1345361 > Ей надо тритон, а на винде его официально нет. Т.е., triton-windows — это не triton на windows, а jaba на linux, или как? Ладно, я не шарю, как ты скажешь.
>>1345487 Ну сделай файл подкачки 96 гигов. Но звучит как будто проще оперативу купить.
>>1345494 Нет, все что ты убавляешь влияет на твой «контекст» — разрешение и количество кадров. Оно всегда в видяхе, там от 4-6 гигов до 16. По сути-то видяхи даже на 6 гигов хватит для маленьких роликов. А вот сама модель весит дохуя. Ну можешь убавить — качни gguf. Но там чем хуже квантизация, тем хуже качество, сам понимаешь.
>>1345533 У меня 128 чистыми и потребление до 70-80 доходит.
>>1345626 Как хочешь. Хоть въеби прямо в воркфлоу, хоть апскейл отдельным. Я в прошлых тредах кидал где-то, поищи.
>>1345677 Вот честно — проверять такое вообще не хочется. Но когда я генерил на 32 гигах, там замедление было больше похоже на разницу между видеокарт. Так что, вероятно, не очень сильно скорость упадет. Но хрен знает.
>>1345715 Майнкрафт такой уже сделали же. Oasis 2.
>>1345773 Зато само работает, из коробки, никаких макарон, видишь как легко и приятно, без багов!..
>>1345822 Первый прогон или повторные? Первый долго модель может грузить. Повторные могут быть быстрее.
>>1345934 >Майнкрафт такой уже сделали же. Oasis 2. Нет же, этот оазис это полностью генерируемый видеоролик в нем нет основы. Это отдельная модель тренированная на видеороликах по манкрафту и им же подобным. А лол не следил они мод для майнкрафта сделали
Я говорю про иной менее затратный подход - Ты запускаешь на компе любую старую игру, открываешь панель нвидия, ставишь галочку AI.Remaster и она начинает на выход давать тебе уже обработанные нейросеткой кадры вместо настоящих. Можно там же в панели будет настроить стили: реалистичный мультяшный, хорор и прочее.
>>1345934 >triton-windows — это не triton на windows, а jaba на linux, или как Это отдельный чел сам собрал его, потому что его тоже заебала эта мышиная возня политик кто куда что официально собирает. Которой в питонокультуре, и особенно в мл, очень много. Мы по сути доверяем какому-то васяну, пусть он и популярен на реддите. А не самому оригинальному тритону или его версии в оф.репах. Все строки https://github.com, которые ты видишь в requirements.txt - это пакеты васянов.
>>1346641 Я вчера в ван2гп тестил эту лору вместе с general-nsfw лорой для 2.2. И вроде норм получается. На 6 степов без лоры получается каша, и рандомное дерганье, а с ней движения очень четкие, даже не смотря на то, что картинку я закинул очень специфического харатера, и лора нсфв явно не на таких видосах тренилась. Но всё равно оно идею круто подхватывает.
Имею флоу пик1. Это попытка подмены лица в видеоклипе, пользуюсь reactor. В итоге оно падает на этапе Masking Helper - пик2/пик3. Цель - без маскхелпера оно хуево накладывает видео, всё мигает. Тот же флоу, но на изображениях работает нормально, так же флоу работает если не прикручивать этап Masking Helper. 4090-24. Что приделать или где прикрутить, чтобы оно типа выгружало в оперативку или ещё какимто образом?
Вопросы навеяны >>1346879 Как именно "пакетные" ребра передают инпуты в ноду? Создается куча параллельных задач по ноде, или нода изначально работает с мульти-инпутами? Если первое, то как их ограничить или заставить выгружать результаты из врама? Если второе, то почему нода внутри не учитывает, что ей может не хватить врама, и сама не выгружает один за другим? Где такие настройки?
Судя по коду маск-ноды на гх, она принимает ровно одну пикчу, а в конце чистит куда кеш, то есть работает как положено. В комфи есть batch и rebatch ноды. Это оно? Типа в них можно сунуть выхлоп экстрактора и они будут по одной пикче кормить реактор-пайплайн? Где вот это читать? В доках хуй с нихуем, просто какие-то общие концепции для хомяков. Аи вообще нихрена не рубит, во втором посте скатывается. Откуда вот вы это все узнали, что мы якобы ленимся просто прочитать?
The RebatchImages node is designed to reorganize a batch of images into a new batch configuration, adjusting the batch size as specified. This process is essential for managing and optimizing the processing of image data in batch operations, ensuring that images are grouped according to the desired batch size for efficient handling.
Ну ок, очень похоже на оно. А как на это выйти? Не перебором же нод. Есть какой-то дизайн овервью документ по такой херне в комфи?
>>1347115 Конкретного порядка выполнения нод нет. Как попало выполняются ноды, кэшируют свои аутпуты, потом они передаются следующим нодам. > заставить выгружать результаты из врама Есть ноды для выгрузки моделей в определённый момент воркфлоу, например перед/после семплера. > нода внутри не учитывает, что ей может не хватить врама, и сама не выгружает один за другим Выгружает, но через жопу. Выгрузит только если для весов не хватает памяти. А для выполнения модели он не умеет нормально рассчитывать необходимую память и падает в ООМ. > Это оно? Тебе надо "батч в лист", тогда список пикч будет по одной проходиться, но всё от ноды зависит. В худшем случае сохраняй кадры на диск, а потом бери ноду для загрузки циклом по одному пику из папки.
Подскажите дауну, как собственно генерить эти ваши видео с минетами? Накатил ComfyUI, поставил WAN 2.2, что дальше? Где брать воркфлоу и какую лору накатить? Несколько часов тыкаюсь, пока нихера не работает. Вообще нормальные гайды есть по этой теме?
Господа, а кто выжирает RAM? Балуюсь с последовательным сабграфовым воркфлоу wan 2.2, под конец генерации под 60 гб рама может быть забито. При этом вообще непонятно, нахуя, ибо у меня 3090 и все работает в видеопамяти. Торч.компайл не использую. Вообще загрузка максимально простая: два ггуфа для хай и лоу, вае и клип. Причем держать их в памяти смысла вроде нет, я не против, если каждый раз на карту/рам напрямую с ссд ехали, а потом очищались. Так-то бы похуй, но я хочу генерить другие видева параллельно на остальных 3090, если вторую система еще осиливает, то третья уходит в своп и все повисает намертво. Щас вот поглядел, нашел какую-то ноду Garbage Collector, может поможет.
Еще вопрос, сколько у вас на 3090 генерятся видосики? Я использую Q8 ггуфы, на 30 секунд уходит в среднем 28 минут на паверлимитной до 290 Вт. (44 секунды на первый шаг и по 24 с на остальные с лайтнинг лорами)
>Как быстро сделоть порно как у вас не разбираясь Поставь https://www.comfy.org/download Добейся, что хоть как-то заработал шаблон Video / WAN 2.2 14B Image to Video. Поставь плагин: File - Manage Extensions - ComfyUI-VideoHelperSuite. Скачай видео и кинь его мышкой в центр комфи - откроется воркфлоу (вф) из видео. Внутри найдешь подключенные лоры, типа wan_cumshot_i2v.safetensors, промпты. 99% лор тут https://civitai.com/search/models?baseModel=Wan%20Video&sortBy=models_v9 Положи их в comfyui\models\loras, в комфи нажми слева Models - кнопка обновить. По примеру вф из видео добавь лоры в свой вф, добавь ключевые фразы в промпт. Каждую лору надо два раза, в разрыв перед нодами ModelSamplingSD3, для хай и для лоу этапов. В твоих видео тоже будет вшит вф.
>>1347570 У тебя названия буквально вшиты в видео. Просто перетащи в комфи или ctrl+o. Если ты именно про ссылки, тогда сорян. >>1347668 >Поставь >Добейся, что хоть как-то заработал Проиграл с этого гайда. >99% лор тут >цивитопараша с которой удаляют что-либо сексуальное Гайд уровня нарисуйте круг - дорисуйте сову, только ещё и затянутый. Кто ДОБИЛСЯ, у того итак работает, у кого не работает, это никак не поможет. Ну, чтобы законтроллить наплыв хуесосов и кончеглотов, реально можно сделать один пастебинчик или даже markdown со скринами голой установки. >ComfyUI-VideoHelperSuite Без него рили не читает вф из видео? Странная хуйня, видосы, сохраненные через create-save video не палят метадату даже через сайты экстракторы, но комфи находит в них вф. VHS нода тупо в Comments хранит мету.
Загрузите селеболоры на ван, которые у вас завалялись. Я проебал, только на майерс случайно оказалась. https://huggingface.co/ApacheOne/WAN_loRAs Ля, что нашёл. Что-то есть на civitaiarchive.com. Знаете ещё ссылки куда новое заливают?
>>1347596 > у меня 3090 и все работает в видеопамяти > wan 2.2 2 модели по 13 гигов в 8 кванте или по 26 в fp16. Контекст еще вытесняет, если высокое разрешение. В оперативе лежат обе, чтобы быстро грузить в видяху, а не каждый раз с диска.
>>1347773 Я пишу гайд исходя из пререквизитов. Что комфи установился, что юзер догадался скачать предложенное, что хватает железа. Шаг запуска базового шаблона - воспроизводимый, приводи он к ошибке или успеху. Нет смысла траблшутить его в гайде "как обкончать еотову". Мне лично гайды полезны для снятия чувства, что что-то не так делаешь. Потому что без этого вектора я как раз таки могу копать до рассвета, хотя проблема была в "у тя не стоит расширение".
Без плагина не читало, как ни пробовал. Так можно вынуть без комфи: ffprobe -v quiet -show_format -show_streams video.mp4 > video.txt ... [FORMAT] ... TAG:comment=<вот это> [/FORMAT] Вот нахуй мне это знание >цивитопараша с которой удаляют что-либо сексуальное Скинь где не удаляют.
>>1347596 >сколько у вас на 3090 генерятся видосики сильно зависит от разрешения и воркфлоу, когда вф на длительные ролики то дольше - где то 2 минуты на 3 шага, когда вф на 5 секунд - 1 минута на 3 шага.
Почему когда я сохраняю новый файл в ComfyUI\custom_nodes\my-new-node.py и жму R, нода не появляется в списке, пока не перезапустишь комфи? Кнопка обновить список тоже не работает.
>>1348233 >>1348244 Потому что R - это для обновления списка моделей, а ноды грузятся только раз, при старте. Это же, блин, код - который нужно проверить, и связать с остальным кодом.
Иногда добавляю лор или заменяю на повер ргсри как там его. fp16 = 4 степа хорошего качества. При желании сэкономить оперативу, можно установить ComfyUI-GGUF и грузить Q8_0 модели с помощью Unet Loader (GGUF). Ну вроде все чики-пуки, я хз.
>>1348366 Первое это модуль, превращающий текст, который ты водишь, в понятный для модели форма. 2 и 3 это, грубо говоря, движок все этого. 4 и 5 это моды на движок, которые ускоряют генерацию. Тут вопрос в том, какая у тебя видеокарта, и если там не 24+гб врам, то тебе нужны иного формата движки.
>>1348386 Зачем ему другие-то? Он даже fp16 может качать, в видео-нейронках размер видеопамяти на запуск моделей влияет лишь немного по скорости. От размера зависит только разрешение и количество кадров.
>>1348399 Как я писал выше — лучше или fp16, или Q8_0 GGUF. fp8_scaled по качеству так себе от Комфи.
У тебя оперативы мало — это немного проблема. А вот 10 врама только большое разрешение не поставишь и все. На остальное пофиг, не парься и не слушай людей, кто говорит иначе.
>>1348434 Да модели вообще можно в оперативе держать. =) Тебе вообще не надо, чтобы модель лезла в видяху, кроме как ради некоторой дополнительной скорости. =)
>>1348564 > или Q8_0 GGUF. fp8_scaled по качеству так себе от Комфи В чём проблема юзать киджаевский? Зачем отдавать половину производительности на гуфы, которые даже хуже fp8?
Какой хайп был на запуске ван 2.2 и как же китайцы обосрались. Без лоры генерация 20 минут С лорой невозможный слоумо кал убивающий весь смысл апгрейда Хоть опять на 2.1 откатывайся
>>1348626 > процентов 10-15 С фастом fp8 быстрее в два раза. > fp8=Q4(KM) Нет, с fp8 только q8 может сравниться, q6 уже дико сосёт, q4 совсем поломаные. >>1348646 Значит у тебя переключение на лоуноиз-модель слишком поздно или 4-шаговые лоры со слишком низким весом. Либо промпты говно. Наоборот часто приходится бороться со слишком быстрой скоростью и тряской.
>>1348270 Сравниваешь время файла, выкидываешь старую ноду из списка, importlib.reloadишь новую. Модули нод и воркфлоу устроены так, что проблемы нет. Просто тупо не сделано, и все нодописатели ебутся перезагружают комфи каждый раз. >нужно проверить, и связать Хендвейвинг несуществующей проблемы. Питон парсит файл, запускает, возвращает объект модуля, как с любым другим импортом. Нет никакой разницы между импортом одного, импортом другого и импортом первого повторно, при условии что модуль не пишет в глобалы/етц. В наихудшем случае можно просто грузить как "имямод_N". Алсо, хули харкач недоступен
>>1348856 Че быкуешь, бля? Себе глаза протри от чо там у тебя налипло. >По мне так первая строка самое норм >>1348881 >Да-да, как же ОХУЕННО он летит на q6 >Плот одним сидом С тебя вопросы сняты
как считаете, 360 секунд на 5 сек ролик 4 шага 16 фреймрейт 1280*720 с лайтнинг лорой на L40 48 гб норм или можно еще ускориться? vram не полностью загружается, 65% примерно
>>1348960 Я объясню, чисто ради других анонов. Плот с единичным роллом на разных квантах/файнтюнах почти ни о чем не говорит. Если бы это была заведомая avg выжимка из большего плота с разными сидами и небольшим ходом по весам лор и кфг, то можно было бы делать выводы, даже не проверяя источник. Без этого это просто одноразовый высер. Он может отражать действительность, а может не отражать, особенно сложно это сказать на таких схожих результатах. И также без опыта сложно сказать, на что именно смотреть, потому что у просеров моделей/квантов (vs просто бэд ролов и недотяга параметров) в разных областях бывает свой выраженный профиль. Отсюда и вопрос. Я может новый в i2v, но у меня два года своих лор в t/i2i, и твои клюелесс вихляния выдают непонимание темы. >Хули еще там тебе надо увидеть? Стоит ли доверять словам/имплаингам, или списать это в маняанализ.
Собираю комп для лайтовой локальной дрочки нейросетей, ну и в игры поиграть, мб кто шарит, насколько 4080/4080 супер под это дело подойдет? Ща гоняю на ноутбуке с 3070, заебался от квантирования и ограничений. Понятно, что это тоже ограничения, 16гб это не много для нейронок, но все же, ощутимо больше, а там в будущем уже поменяю, пока по бюджету не проходит больше. Или есть варианты лучше? Пятая серия в бюджет только с 12гб попадает или 5060 ti.
>>1349033 Я бы подождал до релиза 5070ТиСупер, который будет с 24гб врам. Ориентировочная дата выхода - январь февраль. 12гб это очень мало, честно говоря. А у 5060ти чип слабенький.
>>1349033 В любом случае будешь страдать. На 16 гигах будешь страдать от нехватки памяти и квантов, на 3090 будешь страдать от низкой скорости и тоже нехватки памяти, т.к. на 24 гигах в q8/fp8 всё ещё надо свапаться. Сто раз уже говорили, в Ване жизнь начинается только на 5090. Всё остальное сорта компромиссов и ты выбираешь от чего будешь страдать.
>>1348776 Тут скорее всего использовался один и тот же сид + включены детерминисткие алгоритмы, чтобы протестировать одну и ту же генерацию на разных квантах. Поэтому эталон тут фп16 и надо сравнивать, насколько аутентично другие кванты ему соответствуют. Конкретно тут центральный самый крутой, за ним Q8. e5m2 что-то говнецо, но из fp8 квантов только он доступен для 3090 бомжей, т.к. e4 вычисления только с 4090 работают. С другой стороны, есть какие-то e5m2 v2, см https://huggingface.co/Kijai/WanVideo_comfy_fp8_scaled Я сейчас качнул их вместо восьмого кванта, въебал fp16 accumulation и получил 44->31 s/it, 24->17 s/it для шагов без и с лайтнинг лорой соответственно. Без fp16 accumulation 44->37 s/it, 24->20 s/it. Мне кажется, что аккумуляция как-то проебывает точность промта, но еще попробую погонять, конечно. По итогу с аккумуляцией и отключенным кешем видосик генерится 190 секунд (отключаю кеш т.к. на нескольких картах сразу запускаю). Еще можно компилировать модель, но чет это мне прироста нихуя не дает, кроме затрат на ожидание компиляции, собственно
>>1349313 > e4 вычисления только с 4090 работают Это с fast. Без него всё работает на старых, потому что fp8 кастится в fp16. > fp16 accumulation На блэквеле это говно мало того что качество роняет, так ещё и медленнее чем без него. Оно наверное актуально только на старых картах, максимум на Амперах. > компилировать Оно снижает нагрузку на ЦП, если в ЦП не долбится, то ничего и не получишь. Это для XL актуально, где модель мелкая.
>>1349323 >Это с fast. Без него всё работает на старых, потому что fp8 кастится в fp16. Попробую, спасибо. В общем, сейчас потестил - аккумуляция пидорит мелкие детали вроде рук и глаз, особенно в быстрых движениях. e5 тоже немного пидорит. Так что из всего этого восьмой квант самый хороший. Попробую скачать е4 потом и потестить по сравнению с 8-м.
>>1349664 Да там ничего особо сложного. Просто генеришь два фрагмента. Первый - простой i2v, второй - меняешь обычную ноду encode на ноду с поддержкой first to last frame, и скармливаешь ей на frist frame - последнюю картинку от первого этапа, а на last frame - оригинальную, которая была исходником для i2v. Потом эти половинки склеиваешь. и итоговый batch отправляешь в ноду для сборки видео. Все делается прямо в workflow, через batch ноды.
>>1345115 (OP) А ваще кто-нить ПОНИМАЕТ, как надо работать нормально в 2.2, чтобы любые хотелки нормально работали или все просто тыкают ползунки и чекбоксы, пока че-то там не высрется нормально? Есть какой-нить ботан, может, который это все расписывает понятно для карликов?
Проконсультируйте кому не лень по поводу 4060. На данный момент использую этот урезанный gguf на пару с lighting lorA. у меня сейчас стоит q3_k_s но вроде бы где-то читал, что до q5 тянет. Можно где-нибудь посмотреть что там народ нагенерировал именно на этой карточке? Чтобы хотя бы примерно понимать, стоит ли оно того. А так балуюсь в основном 3-5 секундными "оживлениями" статичных картинок.
>>1350184 Самая хреновая из хх60 для сеток. У 3060 - хотя бы 12GB vram. (Этого хватает даже для FP8 в WAN) У 5060 - поддержка свежих фич с реальным бустом. А у 5060Ti - еще и 16GB vram. А 4060 - огрызок, у которого нифига нет, ни памяти, ни фич. Если же учитывать и текстовые LLM - так все еще печальнее...
>>1350217 да, стоит. Покупал ее реально как затычку, чтобы иногда вечерами в фулхд игоры гонять. Ну так че, можно из нее че то выжать? У меня пока что получается корявая хуита, удивиться этому можно было бы лет 5 назад, но не сейчас
>>1350184 >по поводу 4060 Результат получить можно просто будет работать сильно не быстро
>>1350222 >получается корявая хуита Очень много переменных параметров. У меня генерация сильно зависит от качества изначальной картинки, насколько хорошо написан промпт, плюс как с сидом повезет.
>сейчас стоит q3_k_s Скачай несколько моделей бОльшего размера и пробуй на одной и той же связки картинка/промпт/сид/настройки семплера. В процессе смотри по загрузке VRAM, RAM, SSD. Ищи вариант, который устроит тебя по скорости и качеству.
>>1350210 Если перепробуешь все варианты и ни один тебя не устроит - тут вариант менять видеокарту или забить хуй. Есть еще вариант - аренда сервака, но я хз, что ты собираешься генерировать и что там по цензуре.
>>1349699 >Да там ничего особо сложного >и дальше какой-то обоссаный текст вместо одного видео Сука, я петуха теореточника спрашивал? Говоришь не сложно - показывай. Теорию я получше очередного безвидосного петуха знаю. Всё-таки прочёл твой высер, так это ещё оказался тупорылый петух, который предлагает делать нубовскую дерганную хуиту вместо VACE или loop параметров. Неудивительно, что чмо видео-залупу не приложило, иначе бы весь тред от смеха приложился. Склеивать ff-lf видосы даже не для лупов это удел нищих тупых бомжей, у которых есть доступ только к онлайн генераторам. Сорян, заебали уже подпёздыши, которые разбираются в разы хуже, но лезут с тем, что не просили.
>>1350393 Хули мне разбираться, даун. Я хочу увидеть что у других получается, чтобы сравнить. Вот если ты запостишь свой луп и я увижу, что это лучше моих попыток, и ты не покажешь настройки, тогда мне будет обидно. А то, что теоретик нихуя не умеет на практике меня не удивляет.
Дорогие друзья, сделайте пожалуйста с ней миньет, это подруга с детства, всегда была недоступная, хочу хоть так насладится, СПАСИБО ВАМ ОГРОМНОЕ, Всего Вам самого наилучшего) обнял)
>>1350775 Ну это смотря сколько ты лор подключишь. Чем больше лор подключено, тем медленнее будет генериться на гуфе. Если 1-2 лоры юзать, замедление мало заметно.
>>1350932 У меня со стабильным результатом получилось так (все лоры найдешь в гугле):
lightx2v_I2V_14B_480p_cfg_step_distill_rank128_bf16.safetensors хай и лоунойз 2
Wan22_PusaV1_lora_HIGH_resized_dynamic_avg_rank_98_bf16.safetensors хай и лоунойз 1.5
Модели ггуф Q6, euler, шедулер beta, хай cfg 1.1, лоу 1, 4 шага всего
Также в позитивном промпте всегда присутствует строка
natural body micro‑motion only, photorealistic 4K details, natural color, crisp textures, clean edges, no watercolor, detailed eyes, fine surface detail, high microcontrast, realistic shading, accurate tone mapping, smooth gradients, realistic highlights, detailed fabric and hair, sharp but natural, not talking
ай билят комфи сломался!! обновил и всё пиздец, ошибка. KSamplerAdvanced modified_wan_self_attention_forward() got an unexpected keyword argument 'transformer_options'
попробовал на облачном серваке с тем же воркфлоу - та же хуета
>>1351243 отбой, починил. обновил еще раз через комфи манагера. >>1351257 с этим воркфлоу у меня на 3070 ти 8гб за 270-280 сек генерит 832*480 вполне приличного качества
>>1351225 gguf - это универсальный формат моделей ИИ, в который можно запихать все сопутствующие файлы как в архив и не разбиратся с подключеием десятка файлов, которые обычно представляют из себя несжатые модели. fp8 - это степень точности моделей в основном формате обычно safetensors. есть ещё f16, f32 - сымое высокое качество. gguf обычно используется для очень сжатых моделей, в которых чем меньше размер модели (квантизация q2-q8), тем она дает менее точный результат работы, больше галлюцинаций и неточностей, но она быстрее работает.
>>1351243 А у меня vfce отвалился после обновления, при начала загрузки хватаю ERROR: Could not detect model type of: D:\ComfyUI_windows_portable\ComfyUI\models\diffusion_models\wan2.1_vace_14B_bf16.safetensors
аноны посоветуйте, как лучше организовать очередь в комфи? хотелось бы закинуть папку или список с исходными картинками, и пусть себе генерит. совсем заебись было бы чтобы можно было поподробнее настроить, типа как в фордже xyz plot
>>1351665 имеет смысл q6 накатить? У меня сейчас q5_k_s, работает хорошо, пока что ни разу не зависло, ошибок никаких не вылазило, но хотелось бы качество чутка получше. Видюха 4060
бля, после накатывания определенных порнушных лор, процесс останавливается в самом конце. В программе пишет красным переподключение, в консоли типа пауза, нажмите любую кнопку, чтобы продолжить, нажимаю и консоль нахуй закрывается. Иногда помогает снизить силу с единички до 0.9, но это не панацея. Че за ебала знает кто?
>>1351943 да нихуя в консольке. Написано все гуд, в потом просто как будто я сам принудительно поставил на паузу. Я в этом особо не шарю. А это че dmesg?
>>1352013 >ван22 фестфрейм ластфрейм + нанабанана Что ты нахуй несёшь. Этот чел генерил ещё до появления локальных моделей. Уже обсасывали это в треде. Это что-то малопопулярное в этом треде, вроде Runway.
>>1352042 >Уже обсасывали Не обсасывали, а посасывали. Тогда разговор был про обезьяну в раковине. И вот я несколькими постами выше сделал это в vace, без особого пердолинга, также можно было сделать и на момент выхода того ролика. Так и тут, надо просто продумать воркфлоу, на основе чего такое можно сделать. Тем более в 3 видны явные артефакты, где голова кота изначально уже полумандарин.
Оказалось разные ускорялки тоже конкретно влияют на результат. Первая на лайтинге 2.2 в хай и лоу, вторая на старых дистиллах 64 и 32. Я бы сказал лайтинг лучше для анимирования фото, а старье лучше сохраняет стиль на артах
>>1351603 s — small m — medium l — large Различные веса квантуются по-разному, какие-от могут быть на квант выше. Следовательно l лучше m, лучше s. Насколько — смотри сам.
>>1352382 Бля, челище, у тебя то же говнище, что и у всех получилось, тупо версия "но у нас есть fullwarp дома. fullwarp дома:". Ты этим похож на дмддаунов, которые влезают в обсуждение реализма, говоря что хл так тоже может, и кидают ебанного пластмассового монстра. Ещё раз тебе повторяю, раз у тебя с чтением проблемы: это видео сделано ещё до появления нормальных локальных моделей. И оно выглядит точно так же как и все его предыдущие и большинство новых видео. Очевидно, он делает это в одной-двух сетках.
>>1353248 Ясно понятно говнище, по тому что не из оригинального видео делал, а с уже изуродованного в низком разрешении и буквально 5 раз сгенерил, подкидывая рандомные фоточки. Когда он делал ван 2.1 уже был и я на 2.1 делал. И не все одинаковые, на видео с котом видно что он уже с самого начала мандарин и баба вся в артефактах. Но это не суть вопроса. Вопрос в том можно ли такое сделать локально и у кого какие идеи есть по пайаплайну для такого как с собакой?
Подскажите играть ли роль порядок подключения нескольких лор? Я вот например использую 4-6 шаговый воркфлоу с соответствующей lingting лорой. Но иногда если нужно добавить какую-то еще одну, обычно пользовался power lora loader. А сейчас попробовал просто последовательно их подтянуть, причем рабочая lighting шла последней, и результат вроде как получше стал. Это просто так получилось, или есть какой то порядок?
В общем всем вановцам, особенно с 4090, советую переходить на модель без лайтнинг лоры и поставить длительность 3 секунды. Видео генерится за терпимую скорость и без слоумо, вы получаете больше движения чем на 5 секунд с лорой
>>1353956 > В общем всем вановцам, особенно с 4090, советую переходить на модель без лайтнинг лоры и поставить длительность 3 секунды. > Видео генерится за терпимую скорость и без слоумо, вы получаете больше движения чем на 5 секунд с лорой Братан, просто сделай 3 семплера, первый с цфг 3.5 без лоры на 1 шаг, два других с лорами, по 2 и 3 шага каждый, и будет тебе моушен нормальный и 5 сек видео. И юзай старый лайт на хай нойз с весом 2-2.5, или новый лайт с весом 0.65, но с ним цфг на 1 семплер тогда 1.6
>>1353959 Объяснил так объяснил. 1) Новый лайт - это хай и лоу который? То есть ты предлагаешь сделать веса хай 0.65, лоу 1, а на семплер без лайта поставить 1.6? 2) Старый лайт - это который с ебанутым названием StepDistill-CfgDistill-YourmomDistill? И тут получается без лайта цфг 3.5, ставим лору на хай, вес 2-2.5, а на лоу что?
Лично я юзаю хай и лоу лоры с единичным весом, с тремя семплерами как у тебя. Только ебанул шагов побольше с перекосом на лоу, т.к. вычитал на реддите, что хай шаги влияют на скорость - чем их меньше, тем быстрее видос. В результате у меня 9 шагов, 1 на безлоре, 2 на хае и 6 на лоу (1-2-6, давайте писать так). Вроде +- норм. Можно еще конфиг попробовать 1-1-4, но как-то меня настораживает на хай один шаг всего выделять. В конфиге 1-2-3, увы, слоумо появляется.
Анончик, подскажи куда влететь чтобы сгенерировать семплы для вставок в видеоролик о газовой промышленности? Желательно подешевле, так как промпт пока не подобран. Нужно собрать ролик длиной 4-5 минут.
>>1354497 >Последний кадр менял во flux kontext. А последний кадр ты прям такой делал? Или просто её лицо менял на землю с червями? Я через qwen image edit пробовал он фигню делает и дефолтная собака на месте остается, через nana banana он дефолтную оставил но еще одну сгенерировал.
>промпт описывающий действие. Как ты вообще заставил собаку укусить её? Дай пожалуйста промт посмотреть.
>>1354730 Маску можно какую угодно сделать там маска вообще попиксельная, но работать нормально оно не будет. Модель тренилась только на крайних. Для контроля есть Fun-модели.
>>1354429 я думаю тебе лучше на сайты идти и генерить сразу быстро и в норм качестве за бабос. ну если это коммерческий проект конечно. а локально это ван, желательно 2.2, других вариантов нет.
>>1354429 >>1355751 проебал что ты изначально про платно пишешь. я бы kling или wan (на официальном сайте) траил, но и там и там оплата только банковской картой, то есть из рф не работает.
>>1354730 такая тема только в vace моделях есть. по идее в fun vace который недавно релизнулся это должно работать. там че угодно можно пихать между первым и последним фреймом, главное спец маску сделать для этого чтобы модель понимала что есть готовый фрейм а что контроль, тк все одним инпутом идет.
Аноны, есть гайды по торчу и саже? Имеет ли смысл накатывать? Сильно сокращает время? Влияет ли на качество? Можно использовать вместе или ток по отдельности? Сорян за тупорылые вопросы, вкатился недавно, получается довольно неплохо, но очень долго
>>1356111 торч и сажа мастхев, без них совсем грустно. сейчас уже кучу вариантов запилили с автоматической установкой всего необходимого. есть шанс что придется малеха поебаться если чето пойдет не так, типа криво вставших системных переменных винды, но это больше портабельной версии комфи касается
>>1356180 >у меня просто torch версии 2.8.0 Норм, последнее колесо сажи 2.2 поставится. У меня работает, но с сажей памяти не хватает в большинстве попыток. Жду новую карточку, пока отключил саженоду. Тритон главное тоже не забудь поставить перед этим.
>>1356187 бля, пиздец какой-то, никакие команды в питоне не работают. Даже не могу тритон старый удалить или хотя б посмотреть свою версию. Мб я че не так делаю? В какой консоли всю эту хуиту прописывать?
>>1356281 если у тебя локальная хуйня то тебя надо зайти в папку с питоном в комфи, нажать shift+пкм, нажать "открыть окно powershell" и туда все команды ебашить. если ты пытаешься делать это через сам пайтон.ехе, то это так не делается (независимо от того локальная комфи или нет). пайтон это исполнительная среда к которой ты обращаешься через виндовые cmd/powershell
>>1356327 Да ну этот павершелл. Просто в папке комфи, которая python embeded или .venv (в зависимости от портабл или десктоп версии конфи) в адресе набираешь cmd Открывается комм строка для этой папки, там все команды вбиваешь. Ведь это надо делать кокретно в папке питонного окружения комфи, а не на рабочем столе грубо говоря.
>>1355753 Спасибо, посмотрю. Карта есть. Нужно просто чтобы выглядело не совсем всрато, в большинстве по сути оживить изображения. Сложных вещей типа работающих людей, резкой смены света, мелких частиц и прочего не будет.
>>1357141 Видел вариант на 3 семплера: первый - один степ хая без лайтинга, второй - остальные хая с лайтингом, третий - все лоу с лайтингом. Насколько это замедлит генерацию и навалит качества?
Только вкатился в генерацию, вчера попробовал погонять воркфлоу пикрилейтед отсюда https://huggingface.co/bullerwins/Wan2.2-I2V-A14B-GGUF И все бы вроде ничего, но КАКОЕ ЖЕ ОНО МЕДЛЕННОЕ... В воркфлоу есть два блока KSampler (один 10 шагов на хай нойз, второй 10 шагов на лоу нойз), так вот каждый из них работал по 40 минут! Видос 1280х720 на 5 секунд генерило в общей сложности полтора часа!
При этом качество, ну... Не сказать, что поражает воображение. Пальцы смазало, движения не очень естественные. Если бы вышло прям ВАУ - я бы еще понял, но результат не впечатлил вообще.
У меня 3090 и 64 Гб RAM. Гонял фреймпак на этом же железе, у него соотношение примерно 1 секунда видео : 1 минута времени и результат чуть ли даже не лучше, а тут такая жесть...
Я даже было думал, что оно видюху не задействует - нет, загрузка 100%, вся видеопамять забита.
Что я делаю не так? Комфи абсолютно чистый, накатил только те ноды, которые нужны были для этого воркфлоу и пакеты к ним.
>>1357497 Так, блин, такие настройки были по умолчанию в воркфлоу. И тот же фреймпак на хуйняне почему-то справляется с этим разрешением за разумное время. Я не говорю, что мне нужна такая же скорость один-в-один, но хотя бы вдвое, втрое медленнее - при лучшем качестве, естественно. Но не в двадцать же раз при таком же!
Явно что-то где-то пошло не так, такого быть не должно. Вот я и спрашиваю, в чем может быть проблема.
>>1357475 Ти ипанути, нахуя тебе ггуф с 3090? Ггуф для людей с 6 врам и 16 рам. Тебе просто брать комфи обычный и генерить им. ДЕФОЛТНОЕ ВОРКФЛОУ буквально. В треде куча челиков выкладывала видосы с ним. >>1334306 → Возьми мой базовый, например.
У тебя вообще проблем быть не должно.
Вот я тебе сгенерил.
На 4070ti: Prompt executed in 154.40 seconds
Извини, что 57 кадров, выставь 81, у меня 12 гигов с виндой хватает только на 57~61 кадр в 720p, чтобы в оперативу контекст не выливался. =)
У тебя должно быть ~180-200 секунд.
Учти, 1 запуск, когда модели читаются с диска — долгий! Второй и далее гораздо быстрее. Ну и там добавляешь степов на каждом этапе (вместо 4/2 делаешь 5/3, 6/3 и выше) — будет лучше. А уже потом закидываешь старую лору t2i_lightx2v для вкуса, разберешься.
>>1357475 Давай поясню за лору-ускорялку и ггуф. Позволяет генерировать от 4 шагов (2+2) и выше. Чем больше шагов — тем лучше качество движения, реже слоумо появляется. Ггуф нужен для очень малых объемов памяти. Он дольше, но экономит память, что важно для тех, у кого прям жестко ограничено. ComfyUI по умолчанию умеет выгружать модель в оперативу, с 24 видео и 64 оперативы проблемы быть не должно, все нативно, само будет. Я юзаю fp16 модели потому что ну так получилось. Но можешь попробовать fp8_scaled, правда зачем тебе это — не ясно, памяти хватает. Для начала попробуй погонять так, а уже потом будешь познавать всякие хитрости, типа киджаевских нод, каскадов сэмплеров, апскейлеров и все прочее. Будешь искать свое соотношение скорость/качество.
>>1357720 >>1357721 Спасибо, друзья! Просто я почему-то думал, что квантованная модель будет существенно быстрее (для текстовых нейронок это так и есть). Буду ковыряться.
>>1357141 Очень мерзко, остановил на первых секундах оба видео, редко такое делаю. Не страдаю клиповым вниманием или как там называют, просто физически неприятно смотреть, ублюдочно убогий интерполейт испортил, возможно, не плохое видео. Нет желания открывать опять и всматриваться в качество апскейла. Другие видосы без fi намного лучше. Челы правильно написали, возьми воркфлоу горлового анона, это толковый чел.
>>1357720 Хех, взял твой воркфлоу, заменил загрузчики на GGUF (оригинальные модели больно жирные, места на SSD и так нет) и все полетело. Минута на 5 секунд видео! Шик.
>>1357762 это 300iq кстати совет. я буквально недавно узнал что в vace можно сколько угодно встраивать кадров между первым и последним фреймом, думаю стоит попробовать интерполировать таким образом
>>1357778 Почти понял, спасибо. Только я, похоже, совсем тупой. Что за нода такая "Топаза"?) И "поверх" - это уже как постпроцесс после декодировки vae?
>>1357776 Ты угораешь? Какой нахуй воркфлоу? На апскейл и fi? Знал бы ты сколько я всего нагенерил и в каком качестве. А не это вырвиглазное эпилептическое растянутое мыло. Мыло как было, это ещё нормально, но фи прям убил видео. Каждый раз плююсь, если натыкаюсь на подобных шлак на цивите, например. Это новый маркер слепых как было с face restore на заре автоматика. >>1357762 Не понимаю к чему ты эту хуйню написал. Как будто не разобрался с базой. В kjnodes есть ImageBatchRepeatInterleaving, кажется он упрощает создание инпута и маски для этой задачи.
>>1357923 Потому-что лучше еще не предоставили. Если есть более качественное - милости просим. Если нет, то к чему такую желчь разводить что тебе не понравились видео?
>>1357730 Кто мы-то? Я один здесь нахуй! На здоровье. =)
Для текстовых там и выгрузка в оперативу (очень!) существенно влияет. А тут влияние гораздо слабее. Плюс, дело не столько в кванте, сколько в самой квантизации. ГГУФы чуть медленнее в комфи работают. Но не критично, опять же.
>>1357756 Отлично! =) Можно и добавить где-то качества, например степов, да. Поздравляшки. =3
>>1357720 >Ти ипанути, нахуя тебе ггуф с 3090? Мне восьмой квант зашел больше, чем любые варианты fp8. Подозреваю, что там данных больше сохраняется. Но я, к сожалению, не шарю в квантизации настолько, тут надо бы мнение технически подкованных анонов. Я когда искал сравнение Q8 и fp8e4m3, то находил только статьи вида "ну я погенерил пук-мням, тут так, а тут вот так, нихуя не понятно", а в мире ллм сравниваются перплексити, например, подобных сравнений я не нашел. В общем, мой тейк, базирующийся чисто на ощущениях по генерациям, что алгоритмы квантизации эффективнее fp8e4m3_scaled. Буду рад, если опровергните конкретными техническими деталями (только не присылайте ту шебм со сравнениями, я ее тыщу раз видел) Плюс нам холопам с 3090 можно потерпеть, у нас нет нативных fp8. Да, он все равно работает побыстрее, но у меня разница всего 4 сек на итерацию.
>>1358696 С вот этого vace в голос, в comp3 сильно лучше получилось. Жаль, что сравнения со всякой залупой, а не с другими Wan штуками вроде UniAnimate. Выглядит хорошо, надо пробовать, когда киджай зальёт. Пробовали Humo, MTVCrafter и кучу других штук с https://huggingface.co/Kijai/WanVideo_comfy/tree/main? Экспериментов бы побольше в тред
>>1358724 > Экскрементов бы побольше в тред Но зачем? Там надо киджаевскими говнонодами пользоваться, которые жрут память дико и качество говно из-за того что нет семплеров нормальных. Тот же Humo надо свапать дико и генерить по 10 минут, из-за того что киджай нихуя не оптимизировал.
>>1358738 1. Там качество выше Комфи. 2. Там сэмплеров больше. 3. Они уступают по скорости пару секунд, все еще быстрее ггуфа будет. У Киджая ноды так-то топовые, лучше качество ценой пары секунд норм, единственный их минус — это необходимость выставлять блоксвап вручную, против автомата у комфи. Мне лень, поэтому я перешел на комфи с обычными видосами.
>>1358767 > Там сэмплеров больше. Даже базированных RES 2S или ER нет. О каком вообще качестве речь с сортами Euler и DPM. И распидорашивание анатомии я только в нодах киджая встречал, в нативе такого пиздеца даже специально не добиться. > Они уступают по скорости пару секунд Зато память в fp8 жрут на треть больше. Если на нативе можно без свапа генерить, то на киджай-говне надо пол модели свапать и получать генерации в два раза дольше при худшем качестве.
Как на нативном калфи вф подцепить vace блок? Там даже такая минимальная база недоступна, о чём можно говорить. Ван на нативе это для тех, кто только пару блоуджобов погенерить и забросить это дело.
>>1356347 >>1356301 >>1356182 >>1356355 >>1357686 ебать братцы с вашей помощью все поставил, по крайней мере через консольку пишет все работает, версии друг с другом совместимы. Теперь надо чекнуть все это в комфи, куда ноды с торчем и сажей ебашить? После лор насколько я понял и хай и лоу?
Здесь можно редактировать видосики https://platform.decart.ai работает на Ван2.2, цензуры нет, но качество такое себе, чисто ради прикола можно потыкать
ЗЫ: в качестве примера видос новой модели Luma Ray3
>>1359098 > рамцел проблемы Покажешь свою H100? Потому что на 5090 то что в 100 кадров можно генерить на нативе, в таком же разрешении у говнокиджая лезет только 65.
>>1359109 так а зачем дрочить этот блок если есть модель сразу со встроенным vace?
Я и там и там генерю, но KJ все таки не оптимизированная параша но за счет фишек приходится терпеть, то бывает в oom вываливается при повторной генерации, то в шаред мемори залазит, то эти блоксвапы на глазок мерить постоянно + свапы эти висят в памяти и только перезагрузкой комфи можно почистить
>>1358767 Анон, у тебя есть проблема с заloopингом?
Пробовал сгенерировать видосы длиннее 5 секунд и почти всегда получается одно и то же - первые 5 секунд на видео происходит то, что описано в промте, а потом... снова то же самое.
Условно, если я пишу "девушка протягивает руку к собаке и улыбается" и дальше еще несколько действий, то на видео первые 5 секунд девушка действительно улыбнется и протянет руку к собаке, но потом она ее уберет и затем снова сделает то же самое (не на 100% идентично) вместо того, чтобы продолжать выполнять действия.
В длинных видосах (секунд 20-30) такое может повторяться по нескольку раз.
В чем проблема, не знаешь? Воркфлоу твой полностью, только лоунойз модель на GGUF заменена, как выше писал.
>>1359243 По тому что ван тренирован на 5 секундных видео, он тупо не знает что дальше делать и начинает заново прокручивать промт. Есть различные обходные пути, но все они сталкиваются с проблемой склейки так как после 5 секунд он может не понять куда продолжать движение и либо подтупить либо вообще не то делать начать.
>>1359248 Хм. Мне в голову приходит только такой вариант: рубить сцену на куски по 5 секунд, каждый кусок описывать по отдельности и в качестве входных данных для N+1-ого прогона брать последний кадр N-ого.
>>1359206 ЛЛМ щас запускают на оперативе — МоЕ модели, типа GLM-Air или Qwen3-235B-A22B. И чем быстрее оператива — тем лучше. =)
>>1359243 6-7 секунд часто норм, 8 иногда, 9 секунд редко получаются нормальными, выше — почти никогда. Это связано с тем, что модель обучалась на 5-секундных роликах.
Для победы используется повторная генерация из последнего кадра предыдущего отрезка. ВФ выше (в прошлом треде?) кидали, ща времени нет, сорян.
>>1359371 Лол, вот это уже что-то, хотя бы юмор спасает странную 3дшность бабы. Может даже расфорсится по дваче, если озвучить как-то популярно по типу "мой мужчина должен зарабатывать...", открывается дверца, а там (((интересный персонаж в шляпке))).
В общем, как-то так. Пока просто вручную выдирал последний кадр и выставлял как новый для последующей генерации, правил промпт и перезапускал. В целом, по-моему, даже не очень позорно... Цвет глаз только у нее изменился, лол. Заметил уже после склейки.
>>1359659 >Цвет глаз только у нее изменился, лол Для старого Wan был ещё модуль Stand In, чтобы по картинке сохранять схожесть персонажа. Не знаю, может быть как-то можно присобачить для этой цели, чтобы пошагово генерить отрезки с одним персом. Там одну фотку вроде можно вставлять и давать подробноее описание текстом, но хорошо бы, чтобы ещё можно было с разных ракурсов давать несколько фото, чтобы ещё лучше получалась схожесть при повороте головы и мимика сохранялась. Не знаю, есть ли такой способ. Всё таки когда одна фотка в фас это не то, чуть голова поворачивается, сразу "зловещая долина" появляется. https://github.com/WeChatCV/Stand-In
а как обстоят дела с ван 2.2 и озвучкой? На ван 2.1 был фантази толк, и круто липсинк мутил. есть подобное на ван2.2? Не обязательно речь, а вообще звуковые эффекты
>>1359707 Я маленький clip использую, есть ощущение, что он не переваривает все. Вот с бормотанием вообще ничего сделать не получается, негатив уже на три листа А4, а воз и ныне там.
>>1359714 Спасибо, потыкаю. Но художники редко рисуют серию картинок персонажа в одном стиле, масштабе и сеттинге, но с разных сторон. Если кадры из фильма / аниме брать, разве что...
Перетащил wanvideo2_2_I2V_A14B_example_WIP из папкочки ванвидеовраппер, как научили. Нажал запустить. Выдало трехэтажную ошибку. И посветило красным ноды. И чё дальше? Почему оно не скачивает недостающие элементы?
>>1359843 вы долбаёбы ебаные заебали нахуй. вы реально спрашиваете такую хуйню на дваче и ждёте пол дня, вместо того чтобы у ии спросить или блять загуглить? вы серьезно нахуй?
>>1359855 >надо качать руками, они же не официальные. А почему в wan2gp они сами скачиваются. При чем тут официальность? >>1359860 >Модели скачай и пути до них укажи правильные. Тоесть мне нужно развить экстрасенсорные способности, и самому угадать из какой скам ссылки в гугли нужно всё это скачать? Плюс из нод название модели не копируется, мне еще это всё руками перепечатывать? Всю эту шизу krpt_super_fp8_mega_super_puper_vasyan_SCALED_ultra_edition руками набирать каждое из 25 названий?
>>1359138 Судя по отсутствию ответов, ты нихуя не разобрался, что и как работает, и наехал на топовые ноды чисто по своей глупости.
Киджаевские ноды выгружается руками. Комфи выгружаются автоматически. Размер моделей и контекста одинаков в обоих нодах.
Просто кидай в оперативу энкодер и часть модели, и получишь ровно тот же результат, что и на нативе: тот же объем памяти, скорость чу-у-у-уть ниже, качество немного выше, и куча плюшек различных.
>>1359869 Это та программа, на которой фанаты гордо генерят по 40 минут видосы, вместо 30 секунд и всерьез этим гордятся? Ниипу, я не люблю жрать говно, поэтому не разбираюсь.
>>1359931 >поэтому не разбираюсь. В чем именно ты не разбираешься? В том, почему лапша не скачивает недостающие элементы? Ты попытался объяснить это какой-то официальностью, после того, как тебе указали на то, что другой интерфейс без проблема всё скачивает, ты вдруг заявил что ничего не про что не знаешь. Получается, аргумент про официальность ты просто выдумал из головы?
Потому что нет никакой разумной причины, почему нельзя автоматизировать процесс скачивания недостающих элементов.
>>1359931 > Комфи выгружаются автоматически. Только если одна карта или lowvram врублен. На нескольких картах он перестаёт что-либо выгружать и падает в ООМ, даже модель старую выгрузить не может при смене на другую, т.к. вторая карта напрочь ломает его расчёт доступной VRAM. Это ты видимо не разобрался. Да и похуй что там куда выгружает, ты вообще понимаешь буквы - в нодах киджая потребление VRAM сильно выше. > и получишь ровно тот же результат Не получу. Натив без свапов в два раза быстрее чем киджаеговно с выгрузкой. > качество немного выше Показать ты его конечно же не сможешь.
Поскольку из этого блока по какой-то необъеснимой причине нельзя скопировать название той хуйни, которую нужно еще самому где-то найти. Я перепечатывал его вручную где-то минут 5. И скопировал в гугл.
Результат... на лицо. Я реально все эти буковки сидел перепечатывал сейчас, ошибся где-то 5 раз, 5 раз перепроверял. И в результате нихуя. А ведь там еще 10 таких блоков, где файлы совсем с другими названиями.
Комфи ругается на всякие ресайзеры и прочее, скачал с гита через консоль, все равно не видит. Если кто пользуется лоу врам, воркфлоу можете поделиться?
>>1359999 Ты можешь объяснить, вот у тебя на скрине запрос в гугл, ты все это сам руками набирал? И так каждый кто качает этот воркфлоу сам этот текст названия каждой ноды набирает? Ты можешь объяснить, почему это название скопировать нельзя из самой ноды? Тебе не кажется что это немного... НЕУДОБНО. Я бы даже сказал НЕКОМФОРТНО.
Сразу в догонку, допустим я нагенерил 30 секунд склейками, как улучшить качество и фпс? Видос - 5-10 снимков собирающейся лего йобы с одного ракурса, между ними хочу ваном бахнуть переход, типа само собирается. Была какая то нейронка которая 60фпс делала в видосах.
>>1360031 Посмотрел, да модель и не скопируешь, но все лорки можно копирнуть нажав view lora info. Ну вообще модели итак лежат в 1 месте, смысла нет копировать.
>15 тред >дауны до сих пытаются установить калфи, этим засран весь тред >один анон кое-как завел базовый функционал вейса >особо отъявленные лоускиллы гонят на киджая >проебан даже тот уровень качества и разнообразия, что был 5 тредов назад Новый учебный год.
>>1360085 Ну вот просто пример в папке комфи нет папки .venv. Вот выше инструкция, там написано, что нужно выполнить команду .venv\Scripts\activate Команда не выполняется, т.к. нет вообще такого каталога.
Я спросил уже у перплексити, она говорит, что нужно выполнить команду python -m venv venv Я выполняю, пишет "Python was not found"
Тоесть с этими инструкциями, что в треде, что от нейронок, ничего не работает. Буквально каждый шаг ошибка.
>>1360006 нет никаких волшебных "лоу врам" воркфлоу, все нормальные люди один хуй грузят модели в оперативу, а врам оставляют полностью пустым чисто под генерацию. ну и в целом качать воркфлоу от рандомных долбоебов это выстрел себе в член.
>>1360061 >>1360134 >>1360156 Итого, я попытался исправить проблему с помощью инструкций от двух разных людей в треде, и от третьего чела с гит хаба. Получил 3 разных ошибки, попробовав 3 разных способа. Что делать по прежнему не понимаю.
Путь красноглазый - пытаешься понять в чем причина, и почему у тебя такие ошибки, гуглишь, общаешься с ии который тебя водит кругами и не может дать нормального ответа, страдаешь, переустанавливаешь зависимости, куришь форумы 4 летней давности, ждешь, в очередной раз сносишь всё делаешь чистую установку питона и комфи, проклинаешь все что тебе дорого, повторяешь все по адскому кругу параллельно немного вникая в базу и что для чего нужно.
>>1360172 Так я конкретные вопросы вроде задавал... А ссылка эта выше была. Толку от неё? Если там на каждом этапе ошибка. А на ошибки никто ответить не может. Ну и ты буквально себе противоречишь. В комфи портабл питон 313. А ты даешь ссылку в самой теме которой написано python312 installer. Тут мало того, что уже несоответсвие версий, так и вообще непонятно, нафига нужен питон инсталлер, если в комфи питон уже есть.
>>1360189 хуиворечишь блять ЧИТАТЬ НЕ ПРОБОВАЛ? Не нужен тебе 312 питон - не ставь, блять русским языком написал >куришь что тебе надо тут там по мимо исталлера питона вроде как еще батники есть, да?
И на второй картиночке вроде тоже что то написано да? Давай почитаем что же там написано?
>>1360085 Тредов 5 назад ни у кого проблем с вейсом не было, все накатывали кучи разных фич. Куда делись эти аноны? Как с ЛЛМ — разобрался и выпал из жизни на месяц? :)
>>1360134 Поясняю: Комфи ебал в рот твои хотелки тритона и сажи, у него свой комфи-внимание, ему нахуй не всралась твоя обратная совметимость. Он гонит версии куды и торча вперед, забивая и на твою древнюю видяху, и на твой софт.
Что делаю я? Скачав какой-то старый комфи, где был торч 2.8 + куда 12.8 просто обновляю его и все, торч и куда от этого не апдейтятся. У меня все работает. Те кто ставит с нуля — ну я вам искренне сочувствую, качните версию постарше из гита, поищите, где там была куда 12.8, а не 12.9.
Я понимаю, что для школьников, которые видят командную строку в первый раз, самому сбилдить нужную сажу — очень сложно. Можно попытаться переустановить торч под нужную куду:
Вроде должен 2.8 поставится. Но я не гарантирую, что там не будет багов обратной совместимости.
Не хотите? Ну есть там всякие ван2гп и прочие форджи, или что еще. Их нахваливают пиздец, но сможете ли вы повторить видосяны из треда — хуй его знает, комфи пусть и ебейшее говно по интерфейсу, но все еще дает максимальную свободу, в шаге от «писать самому питоновские скрипты».
>>1360189 Потому что какой-то дегенерат выебал всем тредовичкам мозг, и никому уже нахуй не нужно отвечать. Мы разобрались, а за любой ответ по сути на нас серут. Нахуй надо напрягаться. Ничего личного, но оффенс, просто пойми людей.
>>1360219 По сравнению с тем, что было полгода назад — стало ебейше просто, я так понимаю. =)
>>1360219 >Не нужен тебе 312 питон - не ставь Откуда я знаю, что мне нужно а что нет? Я хочу просто что бы у меня видосики рендерились. Вот на втором скрине то что ты подчеркнул я пытался ставить мне выдало вот эту ошибку. >>1360156
Потом я поставил 313, но первоначальная ошибка осталась, эта которая про динамо+.
По первой ссылке типа просто подряд запускать бездумно все эти бат ники? Сомнительная какая-то затея. И что все кто настраивал ван, через это проходили, всё это запускали из этого репозитория?
>>1360233 Это навык работы с питоном и его зависимостями. И, иногда, сборкой библиотек. Ты его получаешь один раз, а потом решаешь все эти проблема легко и не напрягаясь, потому что уже знаешь.
Это как готовить яичницу. Я ударил яйцо, а оно разбилось и растеклось по столу. Неужели все это проходили?! Ну, кто хочет — тот учится, и потом не испытывает проблем.
Так что, в общем, ответ на твой вопрос: да. Просто ошибки могут меняться со временем, и зависят от железа.
>>1360226 Нахуй вы усложняете, если есть портабл комфи, который ставится по нажатию на батник, а на соседний батник накатывается сразу тритон и сажа. Бонусом куча кастомных нод. Блять на ложечке уже принесли, вы всё мусолите эту хуйню. https://github.com/Tavris1/ComfyUI-Easy-Install
>>1360497 Я спрашивал в треде есть ли комфиуи, в который автоматом всё ставится. Ну и где ты был когда это спрашивал. Я сутки ебусь с этими тритонами и нихуя. Вот щас вроде все ошибки победил. Но не понимаю генерится что-то или нет. Стоит 3 степа 0% уже час. И нихуя не происходит. Ошибок нет, генерации тоже нет. Даже понять не могу делает оно что-то или нет. Видюха вроде загружена.
>>1360506 >Стоит 3 степа 0% уже час. У тебя врам переполнен, вероятно. Ставь расширение crystools, оно показывает потребление рам и врам. Если 99% нагрузка, то свапай блоки в оперативу если она есть конечно
>>1360547 я запустил дефолтный воркфлоу из папки ванвидеовраппера. память заполнена, да. 12 гигов. Что значит свапать блоки не знаю, а есть воркфлоу для 12 гигов к примеру?
Короче в качестве стартового изображения может быть не единичный кадр а несколько. В итоге с первой генерации несколько последних кадров и втыкаю на следующий шаг. чтобы движения не проёбывались но они проёбываются... Это вроде как недокументированная функция. Покадрово если смотреть то входные кадры реально используются но плывут к хуям. 8 входных кадров, потом ван ещё 4 кадра проёбывает с мылом. Но бесшовная анимация вот почти почти. Есть идеи чо ещё подркутить? Юзаю 3х проходный, 1 шаг без ускорителя на хаях, потом 2 хай и 2 лоу на ускорялке. ВФ в видосе.
Вот этот аналог Comfyui пробовал кто-нибудь? Есть версии независимые от cuda и поддерживает Wan 2.2. >Full CUDA, Metal, Vulkan, OpenCL and SYCL backend for GPU acceleration. https://github.com/FizzleDorf/AniStudio
Как в Stable Diffusion, во вкладке Deforum, работать с фото? У меня стоит всё по стандарту, выдало рандом фотки, и сгенерировало это видео. Как с фото работать и оживлять? Как генерировать нормальные видео с рандом фото? По моему, на этом видео - каша какая-то. Может, нужно нормальное видео загрузить и настройки настроить? Скажу сразу... Нейронка запущена на сервере. Не на моём железе.
>>1360551 WanVideoWrapper — это не дефолтный воркфлоу, а Киджаевский на Киджаевских нодах, там блоксвап надо вручную делать. Дефолтный я вверху кидал.
>>1360497 Да ну мне откуда знать, мне такая хуйня и нахуй не нужна, у меня все и так прекрасно уже полгода работает. Я не слежу за новинками того, что у меня есть. А люди спрашивают-спрашивают-спрашивают.
Такие ссылка надо в шапку закреплять.
>>1360416 Ну, если тебя ссылка выше не устроит для изи инсталла, то возьми 2.7.1+128, какая разница, на нее сажа есть сбилженная у woct0rdho. =) Вряд ли там сильно что-то замедляется, скорости сопоставимые, вероятно.
>>1360677 Внимательно читали? Я запускаю на сервере, который дает графический процессор. Мне вообще пофиг. Я попробовал этот Deforum, мне не понравилось. Пытаюсь теперь добавить в Stable Diffusion вкладку AnimateDiff. Я думаю, вряд ли бы на серверах, которые выдают мощности, сгорела бы видюха. Бред.
>>1360820 Да оно вроде уже и без этой ссылки заработало. По всей видимости оказалось, что помимо этого ебучего тритона еще надо было какие-то дополнительные библиотеки скачивать. Что я обнаружил абсолютно случайно открыв старую инструкцию вообще для хуниана. Где как раз была ссылка на woct0rdho. При чем на эту репу за 2 треда никто ссылку не кинул, а все кидали какую-то другую шляпу с которой ничего не работало.
>>1360876 Это вообще проблема данного треда. Здесь сидит полтора знающих анона, из них 1.4142135624... - ЧСВшные мудаки, ни на один вопрос нормально ответить не способные. Иногда появляется какой-то доброжелательный анончик, который готов помочь, но поймать его - большая удача.
>>1360950 >Это вообще проблема данного треда Проблема в твоей тупостей скорей, мало того что миллионы гайдов на ютабе, любую ошибку можно в нейронку закинуть и решить, дак ты весь тред засрал своими тупыми вопросами, с чего ты вообще решил, что тебе тут помогать обязаны?
>>1360979 На ютубе это вообще пиздец. Там просто хуй такой вот скачиваем портативный комфи, качаем мой воркфлоу и всё работает. И естественно нихуя не работает.
>>1360950 Не правда. Учитывая, что я очень подробно пишу ответы на вопросы, я вижу, что есть еще люди, которые тоже подробно отвечают. Доброжелательных минимум 2, а может и 3. Просто мы иногда дергаемся, когда на нас в очередной раз токсят. =)
>>1360876 Вот тут, к примеру, я не знал про твою ссылку, сорян. Видимо тогда меня она обошла стороной и забылась. Все настраивается слишком на автомате уже, не помним, че там где.
>ПК говно с ксеоном. Пикча как раз для тебя В доске NF есть треды с тензором, там поищи что конкретно тебе надо. В этом чатике только элита с 3090+, мы подобный недоразумениями не увлекаемся
>>1360830 > Я думаю, вряд ли бы на серверах, которые выдают мощности, сгорела бы видюха. Бред. Ты соглашение пользовательское читал, додстер? Сожжешь им видюху, считай можешь сразу идти себе почку вырезать.
>>1357100 Работать можно, но точно нужен апскейлер как минимум >>1357141 вот это уже годно. дай, пожалуйста, апскейлер, если не трудно >>1357163 на 5070ти ругается на видеопамять(16). сейчас подкорректирую и отпишсь >>1357232 вот это уже годно. но надо обновлять, ибо старая версия киджай нодов. (у кого не работает, но нужен этот воркфлоу, откатите версию нодов) >>1361332 https://2ch.su/nf/res/36595.html