>>1345120 → Порог вхождения заключается в том, что эта хуйня тупо не работает. Просто сыпет безконечные ошибки, которые никак не гуглятся.
Благо я вроде вдуплил, как в пинокио использовать этот лайтнинг просто в лоры его запихиваешь, и всё. Но надо тестить еще как оно с другими лорами будет работать.
Так что пока нахуй шизомакароны. Сидим дальше на wan2gp
>>1345155 1. Порог вхождения заключается в том что отсеивает таких криворуких как. Которые даже по гайдам не могут все нормально поставить и настроить. 2. Ставишь стендэлоун комфи и все прекрасно работает и не сыпит никакими ошибками. То что ты начал накатывать поверх ускорители и оптимизаторы совсем не разбираясь в теме это только твои проблемы. 3. Уже даже сделали гайд для даунов https://github.com/loscrossos/helper_comfyUI_accel как установить всю сажу с торчами и прочим буквально одной командой. Но нет это же надо базовую теорию знать, "Нахуй оно надо! Буду тыкать рандомные кнопки и обвинять комфи в том что я на нее не могу установить ускоритель своими кривыми пуками."
>>1345167 Да, мне слава богу снова пофигу на твои пидорчи, сам дрочи свои шизо инструкции. Сижу в веб интерфейсе, как белый человек, со всеми новыми лорами.
Уважаемые новички треда, выше вы наблюдаете перепалку, основной идеей которой является:
1. Вы можете мучаться сутки, пытаясь настроить кривое говно, а потом учиться пользоваться макаронами, генерируя видео за 1-2 минуты в отличном качестве с кучей лор. 2. Вы можете пользоваться программой, у которой совершенно нет никаких проблем и наслаждаться генерацией сразу из коробки за 20-30 минут на видео в дефолтном качестве без лор и без нихуя.
Выбор за вами, нервы ваши, интерфейс или говно макароны, получасовая генерация хуйни или минутная генерация того, что вам нужно.
У нас тут правильного ответа нет. У нас тут только боль.
>>1345177 Только вот оказалось что wan2gp поддерживает новые лоры для 2.2. Там просто нужно в параметрах поставить какой-то говношифр типа 1.0 0.1 и т.д. что бы оно понимало что в первой фазе грузить, что в другой. Случайно на реддите объяснение нашел. Так что макаронники со своей лапшой соснули опять.
>>1345183 Как там на wan2gp с созданием 20 секундных роликов с подключением каждые 5 секунд новой лоры? Как там с цветокоррекцией после каждого перехода?
Как там с созданием роликов когда надо взять из загруженного видео 78 кадр и продолжить генерацию с него? Как там с бесшовными склейками видео когда надо брать не 81 а 80 кадр чтобы кадры не повторялись?
Как там с созданием 100 роликов из 100 изображений, ручками каждое вставлять будешь и кнопочку жать?
Как там с использованием торча для 30хх моделей карт в ван 2.2?
Как там с использованием infinite talk вместе с лорами? Как там с s2v дела обстоят? Как там с tts моделями?
Это уже не говоря про дополнительный функционал в виде генерации картинок, редактирования и склейки видео, генерации множества лиц и эмоций из одного изображения для тренировки лор, генерации текстового описания изображения. И это только первое что в голову пришло. А функционала там до жопы и все это можно комбинировать.
Разобравшись в лапше можно настроить все под себя и потом прогонять видео 1 нажатием кнопки, получая именно то что тебе нужно, а не жрать что дают. Разобравшись в лапше ты будешь иметь доступ с передовым новинкам индустрии, а не клянчить и ждать когда это запилят в wan2gp.
>>1345241 Ах да, вот еще пикрелейтед, как там дела с организацией лор? Я например могу в каждую зайти посмотреть примеры, триггерные слова, быстро обновить если появилось обновление лоры на цивите, перейти на автора и прочее.
>>1345177 Давайте сделаем неболь просто и все. Боль потому что и те, и те - ждуны когда им зделоют. Те кто ставил сажу, написали бы словами общий рецепт, по типу "надо чтобы торч совпадал с саже и надо брать тритон из <ссылка>". Те кто сделал лоры, взяли бы и скинули скриншот из воркфлоу. У кого работает недавний сетап из коробки, скинули бы откуда ставили. И все решилось бы.
Вот я по ссылке выше вижу какой-то словесный понос неанглика, который можно свести к простым предложениям:
=== ЗДЕЛОЙТЕ МНЕ САЖУ В КОМФИ (попытка 1) === У тебя питон 3.12 и торч 2.8.0+cu129 --- как у всех(?), кто скачал комфи на днях. Скачай файл: https://github.com/loscrossos/crossOS_acceleritor/raw/refs/heads/main/acceleritor_python312torch280cu129.txt Положи его в папку ComfyUI, там же запусти cmd/powershell (shift + правая кнопка по пустому месту в папке). .venv\Scripts\activate pip3 show torch (выведет Version: 2.8.0+cu129, иначе отбой) pip3 install -r acceleritor_python312torch280cu129.txt === вроде зделолось ===
Боль ушла. Все проблемы треда не в сложности области, а в шизоидности методик и мискоммуникации. Я заебись шарю, но и у меня полчаса ушло, чтобы размотать эти простыни галиматьи, которые этот идиот раскидал по трем репам. Идиот потому что нафаршировал своей шизой простой рецепт. Кстати не факт, что с этим его самосборным тритоном/етц на пекарне не начнется самосбор.
>>1345331 Господи, слава тебе господи что у меня ван2гп, и мне не надо ни знать какой там питон, тритон, ультрон и человек факел, и не нужно вводить не единой команды в пердоль. Просто нажимаешь на кнопочку и радуешься видосику. Как же хорошо.
>>1345343 Так это только для ускорения через sage attention. Ей надо тритон, а на винде его официально нет. Если не надо - можно не делать. Мне просто стремно ждать дольше. Вот как раз бенч заканчивается:
640х640, 6 шагов, 65 кадров, 2 видео с холода Без сажи, сек: 355, 288 С сажей, сек: 304, 236
х0.85, х0.82 времени. Было 4.8 минут, стало 3.9. Ну ощутимо. Но ебала, да.
>>1345361 Ясно.. Ну приду домой попробую обычный воркфлоу запустить из враппера. Но если у он ошибку выдаст, то я больше никогда лапшу в жизни не запущу.
>>1345431 У меня эта пидарасина не запускается, если я делаю в папке моделей линки через "mklink" команду вместо папок. При чем пока не перезагрузишь, она прекрасно видит модели из другой папки. Но стоит перезагрузить и всё. Программа тупо не стартует. Какого хуя ей надо непонятно.
>>1345436 Я щас вынес diffusion_models и loras в корень того же диска, сделал: cd ComfyUI\models mklink /J loras F:\loras mklink /J diffusion_models F:\diffusion_models Все запустилось, пошла генерация. Причем у меня outputs уже тоже /J линком было, на другой диск. Пробовать переносить модели уж не буду, другие диски не нвме.
Если так: mklink loras F:\loras You do not have sufficient privilege to perform this operation. Надо права админа. Возможно когда создаешь линк под ним, то он наследует права, которых у комфи нет.
>>1345462 На схеме все верно. В логах чо-то может быть. Памяти в системе хватает? ComfyUI\user\comfyui_8000.log ComfyUI\user\comfyui_8000.prev.log ComfyUI\user\comfyui_8000.prev2.log
>>1345250 И как твой wan2gp прилепить к этой пинокии ебаной? А то охуенно выходит в мануалах. В один клик шоб установить и используйте Пиноккио. Все. Конец.
>>1345487 Ну увеличь подкачку. У меня 12 врам, 64 рам, более менее дефолтные воркфлоу жрут 40-50гб рамы включая винду. Но диск может ебаться записью, если переживаешь за такое, то мониторь. Ну и думаю будет медленнее, конечно.
>>1345533 64 честной рамы. Но я еще фреймпак гонял, вот он уходил в подкачку, тотал в районе 96 показывает. Надо было 128 брать, хуле пожалел копеек. Щас все только растет и требования и цены.
>>1345120 → >Изначально этой лоры не будет в элементе выбора, т.к. уи даунский. Так что придется открыть сайдбар Models, нажать кнопку обновить, зайти в loras, найти и перетащить нужную лору на две новые ноды. При следующем старте комфи ее уже можно будет менять/выбирать нормально. Блин, а почему мне достаточно просто нажать на клавиатуре R после того, как я новую лору в папку закинул, и все появляется доступным для выбора? Никакой перезагрузки не нужно. Там же специально эта функция есть чтоб новое увидеть...
Вообще - я не понимаю претензий к comfy в данном треде. Если вам нужен однокнопочный инструмент - так и пользуйтесь таковым. Чего агриться на comfy, который изначально писался для того, чтобы иметь доступ в самые потроха SD генерации и все собирать вручную. Это, блин, самые прямые слова его автора - он изначально делал крайне специализированный инструмент под свой вкус и желания (а хотел он глубоко вникнуть в SD генерацию и разобраться - что там и для чего), а не для широкой публики. Просто оказалось, что таких - не он один. В общем - история как с пингвином. :)
Ныть на комфи за сложность - все равно, что открыть фотошоп, и ныть - что там всего так много, а тебе нужно только фото обрезать. Так для "только обрезать" - куча просмотрщиков с однокнопочным интерфейсом есть. Нахрен тебе фотошоп для этого?
В прочем, я и вертящих нос от других инструментов не понимаю. Вон, кому-то не нужны "макароны" - так это их личное дело. Есть у них другие инструменты, которые им подходят - и хорошо же. Разве нет?
>>1345596 Так я не за сложность ною, мне вся эта сложность понятна. Я на шестом редхате сидел (нет, не рхел). Просто обновление через R или драг дроп это не сложность, а тупняк. Достаточно поставить монитор на папки моделей/нод/инпутов и вызывать код хандлера R самому, это буквально три строки питона на весь проект-миллионник. Мне не надо, чтобы он мне зделол. У меня просто горит от такой тупой херни в 2к25. В однокнопочных тоже это все есть.
Может кто объективно ответить на вопрос, насколько сильно медленнее будет генерить, если вместо 96Гб ОЗУ использовать 32Гб плюс дешевый М.2 на 250 со стогиговой подкачкой на нем? проебал перекат
Ух бля нашел как прикрутить торч к 30хх. За одно и ремейк на ксеноблейд сделал.
Вангую что через пару лет сделают нечто подобное - графон в старых играх будет обрабатываться нейросеткой на лету делая ремастер из любой старой игры. Нвидия и так уже кадры обрабатывает и генерирует на лету, чуток еще осталось.
>>1345343 Блядь, да как вы устанавливаете это говно то? Выбираю этот ебучий ван в этом ебучем Пинокио, постоянно стопарится на 9/13 шагов с этим ебучим py...
Я хз, я раньше делал в две команды, но если ща завезли venv в комфи — не шарю, я просто обновляю старую сборку и все окэй работает.
Просто люди же никогда не читают треды, сразу влетают с вопросом и срут на всех, кто им отвечает. Это база подобных тредов.
>>1345361 > Ей надо тритон, а на винде его официально нет. Т.е., triton-windows — это не triton на windows, а jaba на linux, или как? Ладно, я не шарю, как ты скажешь.
>>1345487 Ну сделай файл подкачки 96 гигов. Но звучит как будто проще оперативу купить.
>>1345494 Нет, все что ты убавляешь влияет на твой «контекст» — разрешение и количество кадров. Оно всегда в видяхе, там от 4-6 гигов до 16. По сути-то видяхи даже на 6 гигов хватит для маленьких роликов. А вот сама модель весит дохуя. Ну можешь убавить — качни gguf. Но там чем хуже квантизация, тем хуже качество, сам понимаешь.
>>1345533 У меня 128 чистыми и потребление до 70-80 доходит.
>>1345626 Как хочешь. Хоть въеби прямо в воркфлоу, хоть апскейл отдельным. Я в прошлых тредах кидал где-то, поищи.
>>1345677 Вот честно — проверять такое вообще не хочется. Но когда я генерил на 32 гигах, там замедление было больше похоже на разницу между видеокарт. Так что, вероятно, не очень сильно скорость упадет. Но хрен знает.
>>1345715 Майнкрафт такой уже сделали же. Oasis 2.
>>1345773 Зато само работает, из коробки, никаких макарон, видишь как легко и приятно, без багов!..
>>1345822 Первый прогон или повторные? Первый долго модель может грузить. Повторные могут быть быстрее.
>>1345934 >Майнкрафт такой уже сделали же. Oasis 2. Нет же, этот оазис это полностью генерируемый видеоролик в нем нет основы. Это отдельная модель тренированная на видеороликах по манкрафту и им же подобным. А лол не следил они мод для майнкрафта сделали
Я говорю про иной менее затратный подход - Ты запускаешь на компе любую старую игру, открываешь панель нвидия, ставишь галочку AI.Remaster и она начинает на выход давать тебе уже обработанные нейросеткой кадры вместо настоящих. Можно там же в панели будет настроить стили: реалистичный мультяшный, хорор и прочее.
>>1345934 >triton-windows — это не triton на windows, а jaba на linux, или как Это отдельный чел сам собрал его, потому что его тоже заебала эта мышиная возня политик кто куда что официально собирает. Которой в питонокультуре, и особенно в мл, очень много. Мы по сути доверяем какому-то васяну, пусть он и популярен на реддите. А не самому оригинальному тритону или его версии в оф.репах. Все строки https://github.com, которые ты видишь в requirements.txt - это пакеты васянов.
>>1346641 Я вчера в ван2гп тестил эту лору вместе с general-nsfw лорой для 2.2. И вроде норм получается. На 6 степов без лоры получается каша, и рандомное дерганье, а с ней движения очень четкие, даже не смотря на то, что картинку я закинул очень специфического харатера, и лора нсфв явно не на таких видосах тренилась. Но всё равно оно идею круто подхватывает.
Имею флоу пик1. Это попытка подмены лица в видеоклипе, пользуюсь reactor. В итоге оно падает на этапе Masking Helper - пик2/пик3. Цель - без маскхелпера оно хуево накладывает видео, всё мигает. Тот же флоу, но на изображениях работает нормально, так же флоу работает если не прикручивать этап Masking Helper. 4090-24. Что приделать или где прикрутить, чтобы оно типа выгружало в оперативку или ещё какимто образом?
Вопросы навеяны >>1346879 Как именно "пакетные" ребра передают инпуты в ноду? Создается куча параллельных задач по ноде, или нода изначально работает с мульти-инпутами? Если первое, то как их ограничить или заставить выгружать результаты из врама? Если второе, то почему нода внутри не учитывает, что ей может не хватить врама, и сама не выгружает один за другим? Где такие настройки?
Судя по коду маск-ноды на гх, она принимает ровно одну пикчу, а в конце чистит куда кеш, то есть работает как положено. В комфи есть batch и rebatch ноды. Это оно? Типа в них можно сунуть выхлоп экстрактора и они будут по одной пикче кормить реактор-пайплайн? Где вот это читать? В доках хуй с нихуем, просто какие-то общие концепции для хомяков. Аи вообще нихрена не рубит, во втором посте скатывается. Откуда вот вы это все узнали, что мы якобы ленимся просто прочитать?
The RebatchImages node is designed to reorganize a batch of images into a new batch configuration, adjusting the batch size as specified. This process is essential for managing and optimizing the processing of image data in batch operations, ensuring that images are grouped according to the desired batch size for efficient handling.
Ну ок, очень похоже на оно. А как на это выйти? Не перебором же нод. Есть какой-то дизайн овервью документ по такой херне в комфи?
>>1347115 Конкретного порядка выполнения нод нет. Как попало выполняются ноды, кэшируют свои аутпуты, потом они передаются следующим нодам. > заставить выгружать результаты из врама Есть ноды для выгрузки моделей в определённый момент воркфлоу, например перед/после семплера. > нода внутри не учитывает, что ей может не хватить врама, и сама не выгружает один за другим Выгружает, но через жопу. Выгрузит только если для весов не хватает памяти. А для выполнения модели он не умеет нормально рассчитывать необходимую память и падает в ООМ. > Это оно? Тебе надо "батч в лист", тогда список пикч будет по одной проходиться, но всё от ноды зависит. В худшем случае сохраняй кадры на диск, а потом бери ноду для загрузки циклом по одному пику из папки.
Подскажите дауну, как собственно генерить эти ваши видео с минетами? Накатил ComfyUI, поставил WAN 2.2, что дальше? Где брать воркфлоу и какую лору накатить? Несколько часов тыкаюсь, пока нихера не работает. Вообще нормальные гайды есть по этой теме?
Господа, а кто выжирает RAM? Балуюсь с последовательным сабграфовым воркфлоу wan 2.2, под конец генерации под 60 гб рама может быть забито. При этом вообще непонятно, нахуя, ибо у меня 3090 и все работает в видеопамяти. Торч.компайл не использую. Вообще загрузка максимально простая: два ггуфа для хай и лоу, вае и клип. Причем держать их в памяти смысла вроде нет, я не против, если каждый раз на карту/рам напрямую с ссд ехали, а потом очищались. Так-то бы похуй, но я хочу генерить другие видева параллельно на остальных 3090, если вторую система еще осиливает, то третья уходит в своп и все повисает намертво. Щас вот поглядел, нашел какую-то ноду Garbage Collector, может поможет.
Еще вопрос, сколько у вас на 3090 генерятся видосики? Я использую Q8 ггуфы, на 30 секунд уходит в среднем 28 минут на паверлимитной до 290 Вт. (44 секунды на первый шаг и по 24 с на остальные с лайтнинг лорами)
>Как быстро сделоть порно как у вас не разбираясь Поставь https://www.comfy.org/download Добейся, что хоть как-то заработал шаблон Video / WAN 2.2 14B Image to Video. Поставь плагин: File - Manage Extensions - ComfyUI-VideoHelperSuite. Скачай видео и кинь его мышкой в центр комфи - откроется воркфлоу (вф) из видео. Внутри найдешь подключенные лоры, типа wan_cumshot_i2v.safetensors, промпты. 99% лор тут https://civitai.com/search/models?baseModel=Wan%20Video&sortBy=models_v9 Положи их в comfyui\models\loras, в комфи нажми слева Models - кнопка обновить. По примеру вф из видео добавь лоры в свой вф, добавь ключевые фразы в промпт. Каждую лору надо два раза, в разрыв перед нодами ModelSamplingSD3, для хай и для лоу этапов. В твоих видео тоже будет вшит вф.
>>1347570 У тебя названия буквально вшиты в видео. Просто перетащи в комфи или ctrl+o. Если ты именно про ссылки, тогда сорян. >>1347668 >Поставь >Добейся, что хоть как-то заработал Проиграл с этого гайда. >99% лор тут >цивитопараша с которой удаляют что-либо сексуальное Гайд уровня нарисуйте круг - дорисуйте сову, только ещё и затянутый. Кто ДОБИЛСЯ, у того итак работает, у кого не работает, это никак не поможет. Ну, чтобы законтроллить наплыв хуесосов и кончеглотов, реально можно сделать один пастебинчик или даже markdown со скринами голой установки. >ComfyUI-VideoHelperSuite Без него рили не читает вф из видео? Странная хуйня, видосы, сохраненные через create-save video не палят метадату даже через сайты экстракторы, но комфи находит в них вф. VHS нода тупо в Comments хранит мету.
Загрузите селеболоры на ван, которые у вас завалялись. Я проебал, только на майерс случайно оказалась. https://huggingface.co/ApacheOne/WAN_loRAs Ля, что нашёл. Что-то есть на civitaiarchive.com. Знаете ещё ссылки куда новое заливают?
>>1347596 > у меня 3090 и все работает в видеопамяти > wan 2.2 2 модели по 13 гигов в 8 кванте или по 26 в fp16. Контекст еще вытесняет, если высокое разрешение. В оперативе лежат обе, чтобы быстро грузить в видяху, а не каждый раз с диска.
>>1347773 Я пишу гайд исходя из пререквизитов. Что комфи установился, что юзер догадался скачать предложенное, что хватает железа. Шаг запуска базового шаблона - воспроизводимый, приводи он к ошибке или успеху. Нет смысла траблшутить его в гайде "как обкончать еотову". Мне лично гайды полезны для снятия чувства, что что-то не так делаешь. Потому что без этого вектора я как раз таки могу копать до рассвета, хотя проблема была в "у тя не стоит расширение".
Без плагина не читало, как ни пробовал. Так можно вынуть без комфи: ffprobe -v quiet -show_format -show_streams video.mp4 > video.txt ... [FORMAT] ... TAG:comment=<вот это> [/FORMAT] Вот нахуй мне это знание >цивитопараша с которой удаляют что-либо сексуальное Скинь где не удаляют.
>>1347596 >сколько у вас на 3090 генерятся видосики сильно зависит от разрешения и воркфлоу, когда вф на длительные ролики то дольше - где то 2 минуты на 3 шага, когда вф на 5 секунд - 1 минута на 3 шага.
Почему когда я сохраняю новый файл в ComfyUI\custom_nodes\my-new-node.py и жму R, нода не появляется в списке, пока не перезапустишь комфи? Кнопка обновить список тоже не работает.
>>1348233 >>1348244 Потому что R - это для обновления списка моделей, а ноды грузятся только раз, при старте. Это же, блин, код - который нужно проверить, и связать с остальным кодом.
Иногда добавляю лор или заменяю на повер ргсри как там его. fp16 = 4 степа хорошего качества. При желании сэкономить оперативу, можно установить ComfyUI-GGUF и грузить Q8_0 модели с помощью Unet Loader (GGUF). Ну вроде все чики-пуки, я хз.
>>1348366 Первое это модуль, превращающий текст, который ты водишь, в понятный для модели форма. 2 и 3 это, грубо говоря, движок все этого. 4 и 5 это моды на движок, которые ускоряют генерацию. Тут вопрос в том, какая у тебя видеокарта, и если там не 24+гб врам, то тебе нужны иного формата движки.
>>1348386 Зачем ему другие-то? Он даже fp16 может качать, в видео-нейронках размер видеопамяти на запуск моделей влияет лишь немного по скорости. От размера зависит только разрешение и количество кадров.
>>1348399 Как я писал выше — лучше или fp16, или Q8_0 GGUF. fp8_scaled по качеству так себе от Комфи.
У тебя оперативы мало — это немного проблема. А вот 10 врама только большое разрешение не поставишь и все. На остальное пофиг, не парься и не слушай людей, кто говорит иначе.
>>1348434 Да модели вообще можно в оперативе держать. =) Тебе вообще не надо, чтобы модель лезла в видяху, кроме как ради некоторой дополнительной скорости. =)
>>1348564 > или Q8_0 GGUF. fp8_scaled по качеству так себе от Комфи В чём проблема юзать киджаевский? Зачем отдавать половину производительности на гуфы, которые даже хуже fp8?
Какой хайп был на запуске ван 2.2 и как же китайцы обосрались. Без лоры генерация 20 минут С лорой невозможный слоумо кал убивающий весь смысл апгрейда Хоть опять на 2.1 откатывайся
>>1348626 > процентов 10-15 С фастом fp8 быстрее в два раза. > fp8=Q4(KM) Нет, с fp8 только q8 может сравниться, q6 уже дико сосёт, q4 совсем поломаные. >>1348646 Значит у тебя переключение на лоуноиз-модель слишком поздно или 4-шаговые лоры со слишком низким весом. Либо промпты говно. Наоборот часто приходится бороться со слишком быстрой скоростью и тряской.
>>1348270 Сравниваешь время файла, выкидываешь старую ноду из списка, importlib.reloadишь новую. Модули нод и воркфлоу устроены так, что проблемы нет. Просто тупо не сделано, и все нодописатели ебутся перезагружают комфи каждый раз. >нужно проверить, и связать Хендвейвинг несуществующей проблемы. Питон парсит файл, запускает, возвращает объект модуля, как с любым другим импортом. Нет никакой разницы между импортом одного, импортом другого и импортом первого повторно, при условии что модуль не пишет в глобалы/етц. В наихудшем случае можно просто грузить как "имямод_N". Алсо, хули харкач недоступен
>>1348856 Че быкуешь, бля? Себе глаза протри от чо там у тебя налипло. >По мне так первая строка самое норм >>1348881 >Да-да, как же ОХУЕННО он летит на q6 >Плот одним сидом С тебя вопросы сняты
как считаете, 360 секунд на 5 сек ролик 4 шага 16 фреймрейт 1280*720 с лайтнинг лорой на L40 48 гб норм или можно еще ускориться? vram не полностью загружается, 65% примерно
>>1348960 Я объясню, чисто ради других анонов. Плот с единичным роллом на разных квантах/файнтюнах почти ни о чем не говорит. Если бы это была заведомая avg выжимка из большего плота с разными сидами и небольшим ходом по весам лор и кфг, то можно было бы делать выводы, даже не проверяя источник. Без этого это просто одноразовый высер. Он может отражать действительность, а может не отражать, особенно сложно это сказать на таких схожих результатах. И также без опыта сложно сказать, на что именно смотреть, потому что у просеров моделей/квантов (vs просто бэд ролов и недотяга параметров) в разных областях бывает свой выраженный профиль. Отсюда и вопрос. Я может новый в i2v, но у меня два года своих лор в t/i2i, и твои клюелесс вихляния выдают непонимание темы. >Хули еще там тебе надо увидеть? Стоит ли доверять словам/имплаингам, или списать это в маняанализ.
Собираю комп для лайтовой локальной дрочки нейросетей, ну и в игры поиграть, мб кто шарит, насколько 4080/4080 супер под это дело подойдет? Ща гоняю на ноутбуке с 3070, заебался от квантирования и ограничений. Понятно, что это тоже ограничения, 16гб это не много для нейронок, но все же, ощутимо больше, а там в будущем уже поменяю, пока по бюджету не проходит больше. Или есть варианты лучше? Пятая серия в бюджет только с 12гб попадает или 5060 ti.
>>1349033 Я бы подождал до релиза 5070ТиСупер, который будет с 24гб врам. Ориентировочная дата выхода - январь февраль. 12гб это очень мало, честно говоря. А у 5060ти чип слабенький.
>>1349033 В любом случае будешь страдать. На 16 гигах будешь страдать от нехватки памяти и квантов, на 3090 будешь страдать от низкой скорости и тоже нехватки памяти, т.к. на 24 гигах в q8/fp8 всё ещё надо свапаться. Сто раз уже говорили, в Ване жизнь начинается только на 5090. Всё остальное сорта компромиссов и ты выбираешь от чего будешь страдать.
>>1348776 Тут скорее всего использовался один и тот же сид + включены детерминисткие алгоритмы, чтобы протестировать одну и ту же генерацию на разных квантах. Поэтому эталон тут фп16 и надо сравнивать, насколько аутентично другие кванты ему соответствуют. Конкретно тут центральный самый крутой, за ним Q8. e5m2 что-то говнецо, но из fp8 квантов только он доступен для 3090 бомжей, т.к. e4 вычисления только с 4090 работают. С другой стороны, есть какие-то e5m2 v2, см https://huggingface.co/Kijai/WanVideo_comfy_fp8_scaled Я сейчас качнул их вместо восьмого кванта, въебал fp16 accumulation и получил 44->31 s/it, 24->17 s/it для шагов без и с лайтнинг лорой соответственно. Без fp16 accumulation 44->37 s/it, 24->20 s/it. Мне кажется, что аккумуляция как-то проебывает точность промта, но еще попробую погонять, конечно. По итогу с аккумуляцией и отключенным кешем видосик генерится 190 секунд (отключаю кеш т.к. на нескольких картах сразу запускаю). Еще можно компилировать модель, но чет это мне прироста нихуя не дает, кроме затрат на ожидание компиляции, собственно
>>1349313 > e4 вычисления только с 4090 работают Это с fast. Без него всё работает на старых, потому что fp8 кастится в fp16. > fp16 accumulation На блэквеле это говно мало того что качество роняет, так ещё и медленнее чем без него. Оно наверное актуально только на старых картах, максимум на Амперах. > компилировать Оно снижает нагрузку на ЦП, если в ЦП не долбится, то ничего и не получишь. Это для XL актуально, где модель мелкая.
>>1349323 >Это с fast. Без него всё работает на старых, потому что fp8 кастится в fp16. Попробую, спасибо. В общем, сейчас потестил - аккумуляция пидорит мелкие детали вроде рук и глаз, особенно в быстрых движениях. e5 тоже немного пидорит. Так что из всего этого восьмой квант самый хороший. Попробую скачать е4 потом и потестить по сравнению с 8-м.