>>1362311 Так тут одно говно постят, чтобы в шапку что-то взять нужно буквально зарыться по локоть в дриснявом поносе. Самый слабый тред в /аи именно по контенту.
>>1362542 >>1362542 S2V как по мне мертворожденный кал. И при чем тут музыка, а тем более танцы. Это в первую очередь голоса и липсинк, а он кал. Инфинитток за щеку наваливает.
>>1362836 Братан, ты о чем? Это Magref, а не Wan2.1. =) Ты ж читай, что я пишу: из коробки. Не файнтьюны, криво реализованные в комфи, а оригинальная модель сразу. Чтобы я не склеивал три изображение в одно с белым фоном, а подавал на вход три отдельных изображения, и обрабатывал он его нормально. Я тогда магрефом еще до тебя баловался же. =) Но хочется чего-то получше уже, вишь скок прошло.
>вход три отдельных изображения Ну это уже не так страшно, в вф 1 раз настроил чтобы нормально скейлилось и хоть 6 загружай. Также можно делать с одеждой - персонажа подгружаешь и картинку одежды, он его одевает в неё, но это 100 лет назад было я не помню что за модель была. Не очень удобно на работает же.
Но это простенький запрос. Вот бы в ван 2.3 прикрутили озвучку как в вео 3, вот это было бы топ.
Или бы подняли возможность генерирования до 30 секунд хотябы + сделали 2 версии, чтоб одна полная, а во второй уже были бы встроены ускорители из коробки чтоб с этими лайтами не возиться на глазок. А то высрали какой то ван22 5б, вот реально кому он нахер нужен.
>>1362955 Ну я не очень верю в озвучку, у Алибабы вышел TTS, конечно, но качество там так себе, да и S2V модель не лучшая… А вот простенький запрос они могут и реализовать. =) Я скромен в своих желаниях на сегодня.
> ван22 5б Он крутой, но ВАЕ там ебейший, генерит дольше, чем с ускорялками 14б. =(
>>1362955 > А то высрали какой то ван22 5б, вот реально кому он нахер нужен.
5b топ для i2v типа той же порнухи, где нет слишком сложного промпта. Делает ультрабыстро, сразу в гигантском разрешении, памяти хавает мало, лоры тренить тоже супер быстро и просто. Два минуса это долгий декодинг и характерые артефакты которые бывает иногда вылезают
>>1363046 >лоры тренить тоже супер быстро и просто О, а пробовал тренить людей еот для t2i? На 2.1 light творил чудеса и лора получалась лучше чем на хл или флакс. Как дела на 5Б?
>>1363046 5b топ для i2v Так а в чем топ если из за декодинга получается как на 14б? И про какое гигантское разрешение ты говоришь? 1280х720, такое и на ван 2.2 можно сделать, а вот как 5б будет в 1980?
>>1363181 лору тренил, получилось хорошо, но 5b для t2i/t2v хз стоит ли. Плюшки видеомоделей в виде реалистичной картинки, понимания промпта и т.д. на месте, но качество картинки как будто не дотягивает.
>>1363371 > из за декодинга получается как на 14б декодинг долгий относительно времени генерации, очевидно что весь процесс в разы быстрее 14б > 1280х720, такое и на ван 2.2 можно сделать на сколько фреймов тебе хватит условных 16гб врама при таком разрешении? И сколько времени это займет? А для 5b это дефолтное разрешение.
>>1363473 >весь процесс в разы быстрее 14б можно в граммах фактическом времени генерации 1280х720х81? У меня это 5-6 минут, значит на 5б будет 2.5-3 минуты максимум?
>сколько фреймов на 81 точно хватит, с выгрузкой в оперативу но у меня 24 гига
>>1363489 Как же китайцы ебут буржуев из голливуда с их говном соевым несмотрибельным. Где-то год назад рассказывали, что через несколько лет обычного кина не будет, всё заменит ИИ. Но уже в этом году люди делали короткометражные мультфильмы по качеству неотличимые от творчества настоящих студий.
>>1363543 китайцы ебут и буржуев-нейронщиков. кроме китайских моделей есть два стула, на одном veo3 дорогой зацензуренный, на другом ltxv говно неюзабельное
Кто-нибудь в курсе про существование аналогов модели Starlight mini, которая доступна в приложении Topaz Viedo AI? Или может быть проверенный WF для Comfy? Для задач апскейла и улучшения качества видео, рипнутого с VHS.
>>1363543 С точки зрения черни без вкуса - безусловно. Оно-то может так и будет когда-нибудь, когда гуманитарии знающие своё дело перестанут крутить носом, сейчас у нас из энджоеров аи по большей части работяги у которых виснет челюсть от любых живых картинок.
>>1362886 Заработал воркфлоу. 3080 10гб, минут 20 генерило в 32фпс (сначала 16 и какая то йоба улучшила). Теперь следующий этап, как настроить воркфлоу. Я правильно понял, что нужно просто лоры заменить?
>>1364085 Во первых, она ещё сырая. Нужно ждать улучшений, не просто так она 2.5 а не 3.0 Во вторых, она 1 день назад вышла только, а Реддит и соя уже начали ныть и дайкать как зелебоба.
Релизнут, суток не прошло. имейте хоть какое то уважение, что то от гугла они не требуеют что бы те veo 3 в попен соурс выпустили
Реальной ОЗУ 32Гб. Поставил файл подкачки 96Гб на маленький дешевый м.2 в пустующий слот. Он каждую генерацию будет типа по 100 гигов перезаписывать? Поставил мин-макс размер 96гб. Стоит выставить минимальный размер гигов 16 или без разницы?
Я короче новичек решил тоже впервые попробовать вкатиться в ваше нейросетевое генеративное говно, тестовая первая проба, ниче в этом не понимаю, скачал я приблуду Cum fy, выбрал шаблон для 5b из текста в видео, написал промт по мануалу, ебанул 10 сек 1280 на 720 и уже идет почти час и где-то 90. У меня 4070 и 64 озу. Чем вообще базовички пользуются для фаст генерации локально и бесплатно чтобы было? Используют вот эту лору я так понял? Че лучше еще такого замутить и сделать и как лучше и с чего начать? Хочу короче нейропорно для себя генерить, но мейби поделюсь если че выйдет.
>>1364218 Причём тут это? я говорю, что модель ещё сырая, чего вы за неё жопу рвёте? вот допилят когда, а сейчас визг поднимают. А во вторых, модель релизнулась в статусе preview меньше суток назад. Дайте им сливки собрать. Они вам вообще ничего не должны, вообще то что то они в опен соурс публиковали(да понятно что, это часть борьбы за рынок ) но все равно, это решения достойны уважения.
Меня просто удивили, как люди на реддите и твиторе начали истерить и орать, дай, дай, в опен соурс, иначе ваше китайское говно никому не нужно! VEO 3 лучше!
Х Почему они от гугла не требует тогда релизнуть в опен соурс? То что Китайцы до этого что то опубликовали, это отдельная тема и так или иначе достойная респекта, но сделано это исключительно на добровольное основе, они не должны ничего.
меня вот этот факт порвал, челы и так дали многое, хотя и понимаю что отчасти это их политика борьбы за рынок метод привлечения внимания, но также осознаю что подобный шаг нужно уважать. По сути у нас и есть модель 2.1 и 2.2 в открытом доступе, пожалуйста может брать кто угодно и перепиливать во что угодно.
>>1357141 → решил тоже потестить на этой пикче разные модели и настройки и конечно генерить на 3 сек в 8 кадров потом растягивать на 6 сек и интерполировать в 38 хуево смотрится при хоть немного резких движениях лучше подождать честные 5 сек в 16 и потом в 32 апнуть на видосе генерация с 4 шаговыми лорами >>1357232 → цветокоррекция проебывается полностью когда в кадре другие цвета появляются но с нодой WanFirstLastFrameToVideo без последнего кадра с цветом все норм без коррекции
1. 5 сек максимум для модели (ну 7, дальше совсем мура и лупы). 2. 5б имеет тупейшиай вае, забей, 14б твой выбор. 3. 5 сек 720p не влезет в 12 гигов, ставь 3,5 сек (ну, 57~61 кадр). 4. Лайтнинг лоры, выкладываем каждый второй день, возьми любой из этих видосов >>1357720 →>>1334306 → перетащи в комфи, окроется как надо. Базовый вф, дальше будешь экспериментировать. Там все ссылки на скачивание есть.
>>1364288 Стандартными значениями стандартных шаблонов. Открой шаблон video / wan2.2 14b i2v (скачай 14б модели, твое железо ок, может своп увеличишь). Нижняя половина отключена, она не нужна. В верхней уже стоят лоры для генерации за 4 шага, сами шаги, разрешение, колво кадров. Ничего не меняй, это твоя база. Сгенери в ней пару видео, чтобы убедиться, что ты можешь их делать за приемлемое время (порядок 10 минут твоя цель). Дальше скачешь лору хуев с цивитая и подключишь ее в разрыв перед ModelSamplingSD3, два раза для каждой цепочки high/low. Тип ноды будет такой же как у лоры перед ModelSamplingSD3. Не надо сразу кидаться в другие разрешения, длительности, ноды и модели, и тем более воркфлоу из итт. Начнешь это когда суть уляжется. >>1364646 >Базовый вф >Some Nodes Are Missing >When loading the graph, the following node types were not found. >This may also happen if your installed version is lower and that node type can’t be found. >INTConstant >PathchSageAttentionKJ >TorchCompileModelWanVideoV2 >ImageResizeKJv2 Базовый вф базового треда блять, просто
>>1364678 Если удалить красные ноды и перевыбрать модели, этот вф и правда запускается. >Ну не нравится — ок, не юзай, разрешаю, сидите на 100-часовой генерации 5б модельки Но дело в том, что стандартный шаблон уже генерит видео за 3 минуты на 14б. И то, что твоя помошь искренняя, не отменяет того, что в ней зашит абсолютно ненужный аксидентал комплексити. Это абсолютли анвелкоминг для ньюкумеров.
>>1364870 >аксидентал комплексити. Это абсолютли анвелкоминг для ньюкумеров. @ >Я в школе английский учил, мне какой нужно было учить, чтоб вас понимать? Ублюдский?
>>1364870 > Но дело в том, что стандартный шаблон уже генерит видео за 3 минуты на 14б. Но почему вопрошающий его не юзает, а, почему у него: > уже идет почти час и где-то 90 =D
Никто же не мешал тебе ответить ему «нажми туда и туда в интерфейсе комфи, откроется дефолтный вф, скачай модели и радуйся». Вместо этого чуваку либо никто не ответил, либо я скинул с пояснениями. Ну, вроде как я не сделал ничего, за что бы стоило поливать говном, но уж как принято в треде, да-а-а…
Извиняюсь, больше помогать не буду. =)
>>1365040 Это албанский английский в восточно-европейской записи. Такому тоже в школе учат, но соседи по парте, а не преподы. х)
>>1364870 Ладно, извини братан, я опять токсю лишнее. Отучаюсь от этой привычки. Я понимаю, о чем ты, да, если говорю, что попроще — то и делать надо попроще для новичков, согласен.
>>1365162 Да норм. Я вот жаст йет чекнул батч из трех видевов с TorchCompileModelWanVideoV2: 134 68 64, секунд с ним 137 87 87, секунд без Спасибо за наводку!
>>1364646 >>1364665 Спасибо анон, вообщем я попробовал генерить wan2.2 14b i2v, и вроде быстро генерит, не менял не длительности, ни разрешения. Но почему то часто видео больше похоже на гостинг, а если количество шагов увеличить то вообще все в мыле каком-то, хотя бы более менее четко не могу добиться чего хочу, ну или хотя бы не то чего хочу, но анимации были бы почетче, хз как добиться, мейби дело в самом промте, он тоже влияет на это? Я просто пробовал короткими тестовыми фразами не особо расписывая в основном. Это самое "четкое" что у меня получилось.
>>1365205 >Flux Kontext Полная шляпа. Не понимает ни пропорций тела, ни качества картинки, просто уровень даже не фотошопа а паинта. При чем такое ощущение что за паинтом 10 летний ребенок.
>>1365213 А какие у тебя модели? Я использую fp16, кто-то использует Q8_0, на них качество лучше, чем на fp8, но один анон говорил, что у него на fp8 тоже норм. Возможно дело в модели, хз.
>>1365367 Расчет простой: я тыкаю и смотрю, когда выливается в оперативу и генерация становится ебически долгой. =D Но вообще, скорее всего 11гб/57=193 мб, 200*81=15,6 Ну, плюс-минус 16 врама должно хватить на 81 кадр в 1280х720. Поиграйся в том районе, от 73 до 81.
>>1365358 Неть, не правильно. В принципе, модель можно держать в оперативе, это околовдвое замедляет инференс, не критично. Но вот если у тебя мало оперативы и ты не хочешь использовать файл подкачки и мучать ссд — то кванты тебе помогут.
Но я пробовал запускать fp16 (который у меня жрет 74~92 оперативы в сумме) на 32 гигах оперативы — и ниче, норм, ехало. Только файл подкачки в 96 гигов ткнул. =) На всякий случай.
А кто-то игрался с типом семплеров? Чо получалось? На реддите ритуалят res_multistep/sgm_uniform, без объяснений. Я пробовал дпмы разные, с виду одинаковые, время тоже+-. Унипц блекнет и шизит. Дпм фаст и адаптив выдают кислоту. Также как и карась с любым семплером (думаю ясно почему).
Ананасы, помогите вкатиться. Я уже давно знаком с генерацией текста и картинок (через web-ui). Там по сути все очень просто. Скачал базовую модель, сказал какие LoRA хочешь использовать, поменял параметры и вперед. Здесь же, как я понял, нужно использовать ComfyUI. На первый взгляд какая-то адская софтина. На civitai самые красивые письки были сгенерированы с помощью GGUF версии Wan 2.2 (Wan2.2 I2V A14B GGUF) + LoRA. Вопрос: как собственно мне самому сгенерировать письку? На данный момент я вообще не нашел никакого workflow, который бы позволял хотя бы вообще что-то сгенерировать с WAN 2.2 GGUF + LoRA. Или тут принято использовать только .safetensors формат? Я вообще нихуя не понимаю что мне делать. Помогите плиз, куда вообще копать. Или можем быть у кого-то есть под это готовый .json workflow и вы им можете поделиться? Пока что ощущение такое, что непонятно примерно нихуя что делать
>>1365488 fp16 Чето я попробовал. Но наверное тяжелая хуйня для моего железа наверное. Я так понимаю для неё мало 64 озу и 12 видеопамяти, ну или надо файл подкачки пробовать. Высвечивает пустое окно после запуска и все.
>>1365747 >На первый взгляд какая-то адская софтина Ну глобально в ней надо тоже просто >Скачал базовую модель, сказал какие LoRA хочешь использовать, поменял параметры и вперед Только лоры качать надо так же как модель
Тут анон писал в 2 словах, как первый раз че-то путнее сгенерить, а дальше уже разбирайся там сам, пробуй разные воркфлоу то-се. https://2ch.su/ai/res/1345115.html#1347668
Можешь позапрошлый и прошлый треды полистать - все уже обсасывалось по 10 раз. Мож даже тебе больше подойдет, какая-то другая хуйня, которую тут один шиз юзает - в начале прошлого треда он агитирует.
>>1365747 Главное подбери видос или тут, или в нейрофапе, или на civitai, на котором сгенерено то, что тебе нужно и понравилось, закинь его по гайду, и если там есть вшитый воркфлоу, тебе останется только докачать недостающие ноды, модели и лоры, а потом запустить. Ну а там в процессе если памяти не хватит, то надо будет на другие модели переходить, еще че-нить. Но ты хотя бы первой ошибки добейся.
>>1365820 > Ну а там в процессе если памяти не хватит Не, с эти проблем нет. 5090. Проблема больше в том, что флоу описанный там, похоже, под .safetensors. Я качал этот workflow, но он вообще не подходит под .gguf. А на civitai массово видосы охуенные постят именно с .gguf базы, прикладывая лоры, которые тоже под .gguf
>>1365843 вопрос что тебе надо ты собираешься видос с нуля генерить по только промту то открывай темплейт в комфи wan 2.2 t2v если из картинки + промпт то i2v ноды гуфа надо буде скачать отдельно вроде их нет в базовой лапше хз
>>1365843 Судя по комментам - там кал какой-то, а не воркфлоу. Ну это ладно.
Ты можешь, сука, КОНКРЕТНО сказать, ЧТО У ТЕБЯ НЕ РАБОТАЕТ? Какие-то ошибки пишет? Или результат хуевый или че нахуй? Сидеть твое НУПРОСТА НИЧЕ НЕ ПОЛУЧАЕТСЯ расшифровывать - да в рот его ебать
>>1365843 Там еще и 20 шагов без лайтнинг лоры - ебанешься нахуй столько это генерить. Короче, вот тебе воркфлоу одного анона для начала - там и твои гуфы и ускорялки.
Только протыкай везде модельки мышкой, проставь те, что у тебя скачаны, ели ты вдруг этого не делаешь, хуй его знает, че у тебя там не получается.
>>1365847 > ты собираешься видос с нуля генерить по только промту то открывай темплейт в комфи wan 2.2 t2v Какой? Вижу только i2v
> если из картинки + промпт то i2v Да мне бы любой уже сгенерить, хоть из чего-то. i2v предпочтительнее
>>1365855 > Ты можешь, сука, КОНКРЕТНО сказать, ЧТО У ТЕБЯ НЕ РАБОТАЕТ? Шаблон что я скинул под .safetensors. На civitait самые охуенные письки сгенерированы на том же WAN 2.2, но .gguf, а не .safetenzors. Все те лоры что там использовались - под WAN 2.2 GGUF, а не .safetensors. Поэтому я и спрашиваю: под .gguf где пайплайн готовый? Я на 100% уверен что они тупо берут какой-то готовый и херачат, а не сами что-то там ищут
>>1365873 > Там еще и 20 шагов без лайтнинг лоры WAN 2.2 без LoRA мне письку нормальную не сгенерирует. Надо специально LoRA под это. Она есть. Как завести это в ебучем ComfyUI я хз. В шаблоне LoRA вообще нет который я прислал как самый популярный на civitai
> откуда у тебя такого 5090 ебанарот Купил в магазине
>>1365894 Тебе выше написали, что лоре похуй гуф там или не гуф. Сука, установи ноду gguf loader, как тебе, опять же, выше писали, и замени нахуй загрузку модели safetensors на gguf если тебе так надо этот gguf ебучий. Рассказывать про то, что gguf это кал для бичей и в общем случае лучше юзать safetensors я уж тебе не буду - иди ты в изду.
>Купил в магазине Охуеть пенсии по отсталости нынче...
>>1365894 в воркфлоу который ты скину поменяй желтые ноды на гуф загрузчики подцепи на лапшу отмеченную красным лора лоадеры и в них грузи уже нужные лоры главное не путай лору для хай модели и для лоу всякие апскейлеры и интерполяции пока можешь нахуй отключить чтоб не мешали
>>1365894 Вот скажи честно, ты же даже не понял, что видос, который я прикрепил, содержит воркфлоу? Там же, сука, и гуфф загрузчик и нода для того, чтобы лоры загрузить есть...
>>1365947 >Поставь плагин: File - Manage Extensions - ComfyUI-VideoHelperSuite. >Скачай видео и кинь его мышкой в центр комфи - откроется воркфлоу (вф) из видео.
>Главное подбери видос или тут, или в нейрофапе, или на civitai, на котором сгенерено то, что тебе нужно и понравилось, закинь его по гайду
>Короче, вот тебе воркфлоу одного анона для начала(прикрепляю видос)
>Ну так скинь воркфлоу...
>я знаю как и и умею, но ты иди нахуй, делиться не буду, кайф Давай тоньше, а))))
>>1365948 > надеюсь ты не троллишь тупостью Блять, нет, не троллю. Я просто немного затупок
> >>1365951 > Давай тоньше, а)))) Я нихуя не троллю. Я просто впервые в жизни столкнулся с ComfyUI, которая никак не обходится тупо скриптом на питоне как остальноное что я пробовал. Скрипт на питоне пил конечно же ChatGPT. Но именно тут ChatGPT отбрехивается мол юзай ComfyUI. А я не ебу как чтобы в два клика
>>1365956 >Я просто впервые в жизни столкнулся с ComfyUI Ты просто долбоеб, который читать не умеет.
>Но именно тут ChatGPT отбрехивается мол юзай ComfyUI. А я не ебу как чтобы в два клика Смотри на ютубе, если читать не умеешь. За одно посмотри там про safetensors и gguf.
Кароче, я довольно новый, но меня заебала эта мотня, и я сделал нормально себе. И новым анонам тоже нормально сделал, вф без лапши и говняков. Кто юзал каломатик, тому возможно зайдет.
Воркфлоу в видео, ссылки там же. Скачай его и кинь в центр комфи. Если не грузится, то поставь плагин: File - Manage Extensions - ComfyUI-VideoHelperSuite. У меня так было.
Минимум, чтобы все завелось, такой: - Надо зайти в базовый шаблон WAN2.2 14B I2V и согласиться скачать модели, чтобы скачались. - Скачать три ноды. - Ну и лору какую-нибудь. Дальше все одной кнопкой.
>>1365967 Можно, просто больше лапши и говняков будет спрятано в группах. Руки дойдут сделаю и это. Только доки больше писать не буду, ебала та еще.
Еще мне надо чтобы кто-то сказал, как делать ифы, но не просто выбор пути, а чтобы мертвая ветка не грузила модели например. Я хотел флаг сделать для апскейла, понял как по нему роутить через лоджик ноды, но модель апскейла все равно грузится, и чекается что она есть. И еще как байпассить ноды по иф условию. Возможно это примерно одно и то же.
Привнесем нормальное программирование в ваши заросли соплей. Стыд нахуй, чо ни откроешь, как будто собака глистами насрала. Уволил бы на второй день.
>>1365977 Могу сделать, но для этого надо, чтобы комфи запилил сортировку слотов группы. Я ебал заново это все подключать, новые слоты подключаются только вниз. Мне пока срочно не надо, кому срочно надо - опенсорсьте наздоровье. Мне станет надо так быстро, как это пойму, а пойму я так быстро, как расскажет тред.
>>1365966 Нахуй сабграфы, я с ними такого говна поел в том вф для генерации длинных видео. Буквально разваливались на ходу. Например, скопировал сабграфы, генерю. 15 сек нормально, дальше мыло ебаное. Долго думал, курил, ходил по сабграфам, пока не увидел, что в одном из них с нихуя отвалились значения блендинга последнего кадра. Т.е. в нем все идентично подключено было, только значения блять не показывались и он наверное по умолчанию хуярил максимум. И еще какая-то залупа была. В общем, я к этому дерьму палкой больше не притронусь, пока они не перестанут быть настолько хрустальными
>>1365979 В продолжение поста ярости про сабграфы отвечу и тебе. Есть и то, и то. 1. Crystools, нода switch any. Подобных нод в разных паках жопой жуй, так что смотри в реализацию, мб и не надо будет ставить. Суть в том, что у ней на инпутах стоит lazy: True параметр, благодаря которому один из инпутов вычисляться не будет 2. Execution-Inversion-Demo-ComfyUI, нода Execution Blocker, все, что после нее, будет байпасится.
Откуда я это знаю - я исследовал сабжи и накрутил ебейший вф, где ваны 2.1 и 2.2, а также режимы t2v, i2v и картинки. Т.е. булевыми переменными мог просто выставить и уже вместо 2.2 на 2.1 генерю. Почему это говно - потому что я генерю в несколько карт и ебаный комфи, несмотря ни на что описанное выше, начинает просто по уебански выжирать оперативу даже в режиме без кеша. НО ВНЕЗАПНО, когда я разделил эти макароны на разные вф (т.е. в одном вф, например только ван 2.2 и2в), то все исправилось блять! Память стала девственно чиста. Очень подлый, нехороший комфи.
По поводу лор - используется power lora loader от rgtree, она в разы удобнее текущего решения, а если посмотрите их PR, то там уже запили еба автоактивации по кейвордам в промте, сверхкастомный интерфейс и прочее. Забудьте про лапшу. Единственное, что меня кумарит - это вход и выход CLIP. Я так и не понял, надо ли его подсоединять или нет, в обычных вф мы же не подсоединяем (используя lora loader model only, где этого входа/выхода то и нет)? Кто нибудь в курсе? Я стал подсоединять на всякий
Еще очень удобный пак cg use everywhere. Чтобы не таскать макароны через весь вф, он автоматически по регекспам законнектит. Для тех же промптов маст хев.
>>1366035 >а если посмотрите их PR, то там уже запили еба автоактивации по кейвордам в промте, сверхкастомный интерфейс и прочее Разраб че-то там артачится
>>1366026 У меня такое было, лол, он значения в слотах перетасовал, я ваще не въехал поначалу чзх. >>1366035 Спасибо за советы! Попробую. Клип вроде нет смысла соединять, если выход не юзаешь. Датафлоу только вперед. А юзать его невозможно, потому что их два выхода, а входы есть только в позитив и негатив одиночные - не бьется. Но и не вредит, лоры быстро мержатся же. Из минусов повер лоадера вижу что их все равно надо два на хай лоу, но это хотя бы 95% ебли убирает, да. >уже запили еба автоактивации по кейвордам в промте, сверхкастомный интерфейс и прочее Так нельзя же, получится каломатик удобный, а так нельзя /s Комфи идеологи наверное от семплеров как от god-нод три месяца отходили, а тут еще это.
А вот эти видео с котом, который свиней жарит, это тоже ван? Или другие модели? Они же прям чоткие, это их каждый отрезок часами жарят в облаке, или чо?
>>1365956 Зачем ты жопу мучаешь и анонам кровину заворачиваешь? Для одноклеточных уже давно придумали WAN2GP ставишь его для тех кто боится командной строки можно поставить через прокладку в виде pinokio и радуешься ибо интерфейс там будет как в твоем любимом webui, ни нод ни лапши, окошечки пощелкал, картинку загрузил и радуешься.
>>1334306 → Анона, я генерил по этому вф, и у меня появились вопросы. 1. Видео 48072081 кадр генерится 2-3 минуты максимум, видео 720128081 генерилось 100+ минут, и там был ебейший шум и сказанные движения (исходник png 10241024) 2. 7201280*81 генерится так долго из-за маленького 16гб врама? 3. Если картинка по длинному краю меньше чем я выставляю разрешение на видео, видео будет хуйней, верно? Тогда какой брать исходник, чем больше тем лучше или точно под размер видео? 4. Формат пикч имеет значение?
>>1366114 1. Выпал в шаред мемори = нехватает памяти 2. Маленкого рам+врам 3+4. Идеально брать по размеру желаемого видео, нормальная практика если видео горизонтально то и исходник горизонтальный и также с вертикальным. Он обрезает/увеличивает исходник под нужный размер через Resize Image v2.
>>1366114 возьми пикрил нод скейла он сохраняет пропорции но меняет размер картинки вытащи и ресайзнутой картинки высоту и ширину и пеппредай в нод вана так можешь закидывать любую пикчу в лоадер и не ебать мозг просто корректируй значение пикселей от .4 до 1 у меня не видно поле так как другой нод подключен для его контроля
>>1365519 > Унипц блекнет и шизит. Дпм фаст и адаптив выдают кислоту. Также как и карась с любым семплером (думаю ясно почему).
Вот это вот все подтверждаю, у меня так же фигня.
В итоге у меня Эйлеры, я че-то забил.
>>1365747 > какая-то адская софтина Да, именно так.
> Или тут принято использовать только .safetensors формат? Бери дефолтный, убирай загрузку моделей safetensors, ставь ComfyUI-GGUF, подрубай Load GGUF Unet или как-то так и все. В остальном — пофиг. Кстати, ггуф чуть медленнее, процентов на 10, так что смысла в нем не сильно много. В видео-генерации от выгрузки в оперативу теряется немного скорости, можно и на сейфтензорс сидеть. Но тут пофиг, как хочешь.
Ах да, еще нужен плагин Video Helper Suite — сможешь mp4 видосяны перетаскивать в браузер, чтобы смотреть их воркфлоу.
>>1365826 Разницы нет, грузи любые модели и будет работать, если речь о нативных нодах.
>>1366114 >Если картинка по длинному краю меньше чем я выставляю разрешение на видео, видео будет хуйней, верно? Да не думаю. Например когда я пишу 3d / smooth skin в начале промпта, то жпежные пикчи в течение первых 0.5 секунд видео часто становятся четче, чем оригинал. Это же по сути как и2и работает, просто во времени вместо на плоскости. За масштабирование не парься, если у тебя там не литерали 64х64. Но вообще да, чем четче, тем лучше, очевидно.
Не заходил сюда и не юзал вована после 2.1 потому что заебался реролить кал. Что там по 2.5 слышно? Каков шанс что в октябре его сольют для челяди или он будет платным пока они 3.0 не высрут что произойдет хуй знает когда? Комбекнуть хочу, но сидеть ждать по 5 минут генерацию кривого говна очень не хочу, need повышение качества. Что кстати по озвучке в 2.5? Англюсик давит приличный? Менять тон и издавать звуки умеет?
>>1366194 >Каков шанс что в октябре его сольют для челяди или он будет платным пока они 3.0 не высрут что произойдет хуй знает когда? Ну вот какого ты ответа ждешь, когда такие вопросы задаешь? Кто тебе тут какие шансы, нахуй, назовет? И какая разница, какие шансы, если выборка всего из одного события состоит?
>>1366200 >Ну вот какого ты ответа ждешь, когда такие вопросы задаешь? Может разрабы говорили об этом где-то а я не знаю, а может на сосаче кто-то тайными знаниями обладает, я то по чем ебу.
>>1366194 Ничего не говорили. Qwen-TTS так себе, вряд ли в Wan 2.5 речь крутая. Звуки по черрипикам ну как в MMAudio. Неплохо, но не вершина мечтаний. Просто более консистентный результат из-за объединения всех технологий, не более.
>>1366179 >Ну, видимо 16 гигов все-таки не хватает для 81 кадра HD. =) Я писал выше, начинать стоит с 73 для проверки. Они должны бы влазить в теории. 77 тоже много, попробую 73.
Так а чем вы создаете именно порно, что бы цензуры не было. Я заметил стандартные шаблоны генерят в основном в одежде все ровно, или вместо гениталий мыльная хуета. А лоры с заранее заготовленным сценарием тоже такой себе вариант, если я хочу создать что-то свое именно.
>>1365843 Я не оставил ссылок потому что это не вф, а стандартный шаблон вф в комфи. Его не надо скачивать, он уже сразу есть в свежем комфи. Слева сайдбар, пятая иконка Templates -> Video -> WAN 2.2 14B Image to Video. >>1365948 Ну так поставьте мету треда в шапку, капсболдом. Из треда в тред одни и те же затупы, нытье про тупых, нытье про токсиков, но в шапке будет 99% клауд дрисни и 0% пользы. Ну и кто тут тупой? После западных площадок хуею с вас просто. Это просто логично - добавить в шапку то, что спрашивают/непонимают, тем более если тебя это раздражает. Коллективы, которые это не делают - сами пиздец блять тупые. У нубов хотя бы оправдание есть. У вас что.
>>1366407 >Ну так поставьте мету треда в шапку Так поставь. >После западных площадок хуею с вас просто. С себя похуей. Ты же тут не делаешь сам, как ШВЯТОЙ ЗАПАДНЫЙ ДЖОН. >У нубов хотя бы оправдание есть Какое? То, что они долбоебы, который читать не умеют, или что им впадлу на ютубе пару видосов почекать с базой?
>>1366491 Правда оказалась куда страшнее, он по ходу все латенты упаковывает в какую то четырехмерную структуру из которой хер че вытащишь. В пределах 17 кадров из 65 загруженных можно вытащить, а дальше не дает
>>1366508 Блин а гуфа не так просто заставить генерить. >>1365488 А как использовать Q8 она нихуя так просто не встает я загрузил какой-то деф и скачал ноды хай и лоу, как то я так понимаю нужно их сюда подставить вместо сайфетензора и можно ли?
продолжаю тестить модели пока лучшее что получилось без апскейлов и интерполяций с 24fps движение неестественно быстрое получается 20 пока кажется оптимальным q6 квант fp8 какое то говно генерит по качеству q8 чуть лучше если присмотреться чем q6 но забиват все 64 оперативы и 12 видео, хотя работает примерно так же по скорости как q6 видрил q6K 20fps
>>1366512 >четырехмерную Для справочки - стейблдифужн обрабатывая твой промпт представляет его как вектор в 768 измерениях, а генеря картинку 512*512 работает в 16384 измерений, которые потом "схлопывает" в 2 измерения, чтобы получить картинку.
>>1366648 Это из другой оперы, у меня тут латентное пространство, а не генерация. Тут есть параметры ширины и высоты, а также каналов и фреймов на этих каналах. Я вижу это как стопку из 17 сжатых блинов размером 110х90 наложенных друг на друга в разное время и благодаря особенности наложения на выходе мы получаем 65 полноценных блинов.
Чтобы взять конкретных блин надо знать из совмещения каких блинов он состоит в определенный момент времени.
>>1366491 >>1366512 Я пару месяцев назад ноду для такого пилил. Оно не работает. Во-первых, латент там temporal, т.е. декодинг/энкодинг работает только если декодишь весь видос. Если вставляешь отдельные кадры, то там каша. Во-вторых, модель тренилась только на крайних кадрах, всё остальное работает как будто в пол силы, т.е. оно вроде видит эти кадры, но получается хуйня из-за того что он пытается их частично перерисовать. Алсо, в i2i кондишенинг не через входной латент, что ты закинешь во входной латент не важно, референс прибит к condition инпуту.
А слушайте, тоесть мы же можем по логике брать последний кадр сгенерированной нейровидео и потом продолжать на основе этого кадра следующие видео. И таким образом сделать более длинное видео избегая генерации большого по длительности видео сразу. А потом просто объединив все эти нарезки. А можно же создать наверное встроенный обработкик который это делает автоматически, но я не настолько у мамы програмист, я бы попробовал вручную наделать видосов, а потом просто эти видео склеять в видеоредакторе, интересно че получится. Наверное кал шизофренический. Вряд ли они будут совпадать по скорости и другим параметрам, это только если обработчик как то создать такой что бы учитывал наверное как то это в одном промте.
>>1366759 куча уже таких воркфлоу где последний кадр передается в новые семплеры и потом все видео собираются там для каждого отрезка обычно свой промпт пишется часто движения в видео резко менют вектор и скорость и это заметно хз придумал ли кто уже решение для этого я с такими ковейерами пару раз поигрался и особо не тестил
>>1366631 >без апскейлов и интерполяций >с 24fps движение неестественно быстрое получается >20 пока кажется оптимальным Wan рассчитан на 16fps (тренили на таких видео), это константа. В ноде сборки видео, изменение FPS - это прямое изменение скорости движений (и времени воспроизведения). Если ставишь больше - ускоряешь, видео будет короче. Если меньше - замедляешь в slow-mo. Если хочешь ~30FPS с неизменной скоростью - нужно прогонять через 2х интерполяцию и собирать видео на 32 FPS.
Почему 20 кажется оптимальным - лоры-ускорялки имеют тенденцию немного slow-mo сами по себе из движений делать. Так что это их компенсирует.
>>1366819 в ноде сборки я ставлю то же значение что и для генерации видео тоесть видео было сгенерено 20*5+1 фрейм с интерполяцией тут уже в 40 надо делать
>>1366819 >>1366839 хотя если ты имеешь виду что ван сколько бы ты не генерил фреймов на 5 сек видео (на которое как я понимаю ван тренился) все равно делает по умолчанию 16, то тогда все ясно
>>1366759 Один шизоид по кличке kijai запилил охренительную ноду WanVideo Long I2V Multi/InfiniteTalk, она позволяет бить на чанки общее количество кадров которое ты задал, с помощью чего можно генерить продолжительные видео на одном промпте при чем между чанками присутсвует практически бесшовная склейка. Но эта ноде требует чтобы ты подгружал аудио и она под ван 2.1.
Какого хуя он не делает такую ноду просто для генераций обычных?! Контекст не так хорошо работает он базует и каждый чанк возвращает к референсному изображению что кал.
>>1366416 Пусть ставит анон перекатывающий тред, я не дейли, и легитимно себя не чувствую. В прошлом давал шаблон, но ему поебать. От треда тоже поддержки нет. Ну ок, поебать, так проехали. Могу на днях собрать минигайд по базе последних трех тредов на макабе, если надо, и найти видосы без говняка. Работать в ведро не вижу смысла.
>>1366819 >>1366839 >>1366863 Еще подробнее: принцип работы модели - она генерит не видео, а последовательность отдельных картинок (потом их видео нода сшивает в видео). По сути - на выходе мы имеем раскадровку анимации - так мультфильмы раньше делали, рисуя отдельные кадры, где персонажи смещались по чуть-чуть, и собирали картинки потом вместе. Модель работает как мультипликатор мультфильм рисующий. Обучали ее так, что она двигает на следующей картинке все объекты настолько, чтобы они двигались с правильной скоростью при 16fps (т.е. демонстрации 16 картинок в секунду). Это никак и ничем не меняется напрямую. Если сшить картинки и показывать их больше в секунду - движения на видео будут быстрее (ведь в секунду уложится уже не 16 а больше картинок, и движение на них уйдет дальше за это же время) - это один из принципов мультипликации. Лоры на ускорение рендера вмешиваются в механизм модели и сбивают ей "мозги" - она начинает двигать объекты меньше чем нужно (по задумке авторов модели). Соответственно при сборке такого видео получается slow-motion эффект. (Его так раньше в кино и делали - снимали на пленку с большей скоростью - например 60 кадров в секунду, а воспроизводили 24).
Короче, пятый меня только что уверял, что раз все видеомодели базированы на сдхл+темпоралка, то значит лоры сдхла будут подходить к вану. Я его припер, говорю че лепечешь, иди проверяй. Он вроде дал заднюю. Но щас вот я скачал лору сдхл с цивика, и она технически участвует в генерации, просто неясно как именно. Пробовал в и2в, результат с виду идентичный. Возможно она что-то дает в т2в? Или просто дает незначимый мусор, как вариант.
Парни, хай. Киньте линк на торрент, или хуй знает куда. Нужна программка, чтобы я ткнул exe, и получил рабочую хуйню чтобы менять лица в видео, локально, на компе, меня эти сайты с триалами в 20 секнуд уже доебали. Карта rtx 5070ti.
>>1367058 Я (другой) на реддите читал репорты, не знаю где, что скорость и новые типы данных важны для видео. Это ллмы надо тупо заваливать врамом, а карта хоть п40. Но у нас нюансы вроде есть, не?
А ведь работает! И даже хорошо работает! голос генерил через это - https://github.com/Enemyx-net/VibeVoice-ComfyUI Для установки надо пожижить уровень секьюра в конфиге комфи манагера ..user/default/ComfyUI-Manager/config.ini security_level = weak
>>1367066 Ну да, можно и так сказать. Однако - за счет длинны (тайминга). Не 5 секунд будет, а меньше. Потому и стараются комбинацией лор этот эффект убрать - чтобы секунды ролика на него не тратить. На самом деле - 16fps - это не страшно, и прогонять его через интерполяцию для 32 кадров - тоже нормально.
Вся советская мультпликация - это оно самое. Классические аниме - вообще 12 или даже 8 FPS с интерполяцией до 24. Проверено временем, так сказать. Честные кадры - нужны и критичны в играх, а в анимации - интерполяция всю жизнь справлялась.
>>1367112 Ну все, щас будем писюнами меряться. Я самый главный говноед итт мистер крутой, год играл в доту с 10 фпс на керри и смог апнуть 3 тыщи на старом два ядра два гига ноуте. Ну и игры типа 2 ведьмака тоже в 10-15 фпс проходил. Пиздец как будто повод гордиться. Соревнования кто больший говноед объявляются открытыми.
>>1364646 Ну кстати то тестовая 5б была и без лоры она почему то у меня долго пердолила. Другие модели, а в частности гуф к8 даже 10 секунд, 650~на 650~ в 16 кадров где то генерит 560~ секунд.единственное что она нихуя наверное на такое время не расчитана, часто после 5 секунд видна некоторая зацикленность как будо анимация хочет повторится из начальной точки.
>>1366928 > От треда тоже поддержки нет. I know that feel, bro!
>>1367058 Да заебали со своим ггуфом, он нахуй не нужен, объем видеопамяти никак не влияет. Контекст, ебать! КОНТЕКСТ! Количество кадров и их разрешение.
>>1367148 Ради лишних 10 кадров в 720p. =) Ну а вообще, соглашусь, можно и пережить ради буста к скорости. Но мне показалось, то была ирония про 3090. Ирония же?..
>>1367149 >>1367142 ебать обиженки тут сидят, вахуе просто, пашли нахуй опездлы, нормисы уже дали советов, ахуряки, вахуепросто с вас. Вместо того чтобы лолей генерить, лучше бы на работу устроились, долбаёбы.
>>1367201 >30 тыщ переплатил. Вообще занести на охлад имеет смысл, у меня гейрок до 73 в пике грелась при генерации видоса, при том что она,блядь, в открытом стенде стоит. Авг 65-70, всяко лучше гейминг s\v1 параши, там наверное все 80 градусов будут. Сам за 90к брал в начале июня, была возможность за 80 купить но я провафлил.
>>1367148 На 3 секунды дольше на интерацию чем у 5070ti, щас проверил На 18 секунд дольше генерация при 6 шагах, ты жертвуешь разрешением и длинной ради этого, ну ок
>>1367201 Нищий, даю урок бесплатный, впитывай, как губка. Зайди на лохите посмотри сколько сейчас стоят 4070, в марте они были по 50. Где переплата ? Я работаю и зарабатываю в играх, за 2 месяца я уже окупил фул эту карту. Нахуй я с тобой вообще общаюсь, хтьфу тебе в ебало. Обтекай.
>>1367208 Проще тупо понизить PL и сидеть с тихой холодной картой. На удивление это не особо на скорость генерации влияет. Я 3090 душу до 200 ватт и получаю всего на 5-10% ниже производительность в инференсе.
>>1367221 >Нахуй я с тобой вообще общаюсь Комплексы у тебя какие-то. Хочешь кому-то что-то доказать на анонимном форуме. Мать не любила, отец бил, вероятно.
>>1367284 Ну была бы у меня 5090 я бы пытался разобраться и что-то высрать в нативном воркфлоу, а так просто нет мотивации когда знаешь что с лайтнинг лорой выйдет слоумо кал
Бля а может кто лору подсказать которая локально доабучает твою сеть пока генерит, что бы еще фича была по типу текстового ИИ, где у тебя когда на выходе сеть генерит различные варианты ты ставишь ей оценки или рейтенг предпочтительный который бы ты хотел видеть и она и за заготовленных вариантов делает тебе предпочтительный который бы ты хотел видеть. Может скрипт аждон или варкфлоу или гайд какой то на подобное может подсказать?
>>1367210 Ну я хотел новую и в игры играть помимо нейро. Отработать все фотки Фой Маккензи и Жени Котовой мне уж точно хватит. Но спасибо за беспокойство) Думал тоже о покупке 3090 за 60 тыщ. Но взял 5070ti за 70 тыщ и таки доволен как слон.
>>1367399 > Ну я хотел новую и в игры играть помимо нейро. Кто нибудь скажите ему что 5 уринокал жрет больше 16 врам и 3090 буквально 1:1 уровень 5070ti по производительности в играх
>>1367429 Мне этого недостаточно, я хочу тебя и попустить. Вот тебе картинка, ВФ в видео и моё время генерации на старье. промпт: Man sings intensely into a vintage microphone on a smoky stage with swirling volumetric mist under soft side lighting and low contrast, camera orbits slowly around him; middle-angle shot emphasizes vulnerability, dramatic chiaroscuro with green-tinted fog and lens flare, wide-angle lens for immersive depth, noir style, 5-second video in 720x880 portrait resolution.
сид: 280953569868691
Выложи время генерации и результат со второй генерациидабы уже все погрузилось и мы считали непосредственно скорость генерации, и мы посмотрим твоё ускорение в 2 раза.
>>1367489 Ну вы сударь конечно хитрец, сравнивать по вф под 3090, в котором даже сажи через 12ю cuda++ нет, которую карточка пятилетней давности не поддерживает. Но как всякое докачается, конечно прогоню генерацию, интересно че выйдет.
>>1367515 >в котором даже сажи через 12ю cuda++ нет Чего бы её нет? В батнике запуска комфи пропиши --use-sage-attention, по моему это по умолчанию надо прописывать. Мне самому интересно, никаких реальных сравнений не делали, все чисто гипотетическое без фактов. Но я очень уверен что ни о каких в 2 раза речи и быть не может, максимум 10%.
>>1367527 float32, у тебя видеокарта до 30хх?! Либо вообще тритон не установлен?
>>1367535 >В батнике запуска комфи пропиши --use-sage-attention, по моему это по умолчанию надо прописывать. Если картинки в qwen/qwen-edit не делаешь - можешь прописывать. А qwen с ним не дружит. Так что я через ноду предпочитаю...
Капец вы наркоманы, так уж и быть, поясню. Сажи есть 4 вида, их можно найти в киджаевской ноде. Когда вы там выбираете auto или не используете ноду, а используете ключ --use-sage-attention, то выбирается оптимальный алгоритм под архитектуру вашей карты. Для амперов (30ХХ) последние два fp8 варианта не поддерживаются, потому что она не умеет нативно в fp8 вычисления. Они даже не компилируются при установке сажи, там отдельные кернелы для компьют капабилити выше 8.6. Из двух оставшихся вариантов самый оптимальный для 3090 - это тритоновский, он и выбирается как оптимальный по умолчанию, по крайней мере на моей системе так. Уж не знаю почему он куде проигрывает. Но квен с тритоновской реализацией не работает - генерит малевича. А вот с куда вариантом - работает, и это, по идее, все еще быстрее, чем без сажи. Поэтому если генеришь в квене, то надо во всех вф использовать ноды, а не ключ. Пакетов с сажей вообще 3 штуки, для 3090 сажа1 и сажа2 по перформансу не отличаются. Сажа3 пока еще в закрытом доступе и наверняка там оптимизации только для новых архитектур. Умельцы портировали сажу на тюринги (20ХХ), но у меня на них с сажей выходит дольше, чем без нее, лол. Есть еще спаржа, это надстройка над сажей, но в чистом виде ее не используют, потому что там нужно неделю чистого времени генерить видосики для создания файла с гиперпараметрами или типа того, чтобы она хорошо работала. Вроде на ее основе сделали радиал аттеншен и ее можно использовать as is, но у меня она не завелась на амперах, ругалась на несоответствие размеров каких-то тензоров. Хз, берут сомнения меня, что она что-то ускорит на амперах даже если заведется, так что тут нужны аноны с новыми картами для тестов. fp16 аккумуляция, которую включает анон выше - хуета, когда персонаж более активно двигается, то вместо глаз и пальцев становится каша. А вы что думали, -4 сек на итерацию из воздуха возьмутся?
>>1367430 Прикольно. Только, если эти оладья не бесплатные, нельзя локально и без цензуры, то не лучшая. Этой ИИ не существует. И под цензурой разумеется имеется ввиду не просто сисик писек генерировать
>>1367665 >fp16 аккумуляция, которую включает анон выше - хуета, когда персонаж более активно двигается Про fp8_fast тоже самое говорили, как итог - никакой разницы.
>>1367744 На ВБ выловил. Как то в течение дня смотрел пока работал и поймал момент, когда подешевело до 76, а позже и до 71. Тогда то все позиции и раскупили за 20 минут, успел. Бывают периоды когда там дешевеет.
>>1367741 Что ты имеешь в виду не просто? Насилие? Попытался повторить видос из Вео3 в Клинге 2.5 (звук подставил из Вео3). На мой взгляд Клинг всё больше и больше затачивается под кинематографичность.
И, вообще, лично я делал эти видосы бесплатно на Виви через Фал (15 видосов на один гугл акк там можно в месяц, а месяц кончается, надо использовать). Цензура есть, но слабая как можно заметить из видосов, на других сервисах именно для Клинг 2.5 цензура намного сильнее.
>>1367489 Ладно, ты выйграл короче. В 2 раза быстрее у меня генерит только на q6_k, на Q8 быстрее только процентов на 15. Попробовал твой ВФ, он минут 10 качал мне какую то залупу и видимо криво, часть функций не работает и выдает ошибки. MATMUL мне надо нодами делать, потому что без них при новом запуске скидывается всегда на False, хоть в переменных средах все прописано как надо, хз в чем залупа, еще не разобрался. Но прописывать вручную каждый раз не хочется. На моем стандартном ВФ сделал, всё заебись и без каких либо error. Первый видос q6, второй q8.
>>1367489 Забавно что вот это на том же q8 шагает аж в три раза быстрее. Мб дело в разрешении? Но сама генерация в целом все равно 200 с копейками секунд
>>1367926 Спасибо анон, хоть какая то ясность есть теперь.
А что с вф не так - непонятно, он практически дефолтный, только FP16 аккумуляция с торчем подключены.
Ну и тесты не совсем верны, я делал на fp8_sacaled модели, она быстрее чем q8.
Ради интереса сделал по твоему ВФ на Q8.
>>1367939 Конечно в разрешении, на 360 пикселей меньше по стороне! Там ничего в оперативку не выгружается практически, от того и такой прирост по скорости.
>>1367954 Понятия не имею что не так. Но вот ты чуть отредачил мой вФ в видео с Любой, я повторяю на др фотке и у меня опять предупреждения выдает и тормозит. Хз в чем дело, бесит эта штука на самом деле уже. Как то работает, а как непонятно... Я тоже вижу что твой ВФ практически дефолтный и ломаться там нечему, но тем не менее. Даже какое то предупреждение насчет того что у меня не линукс выдает, вообще офигеть. Видимо из за пака нод, к которым resize image относится.
>>1367954 вот опять дичь выдает, замедляя генерацию капец как. У вас почему то всё четко работает, первые три шага, зстем вторые. А у меня между ними вот такая тягомотная залупа.
Может у меня батник какой то неправильный? .\python_embeded\python.exe -s ComfyUI\main.py --windows-standalone-build --use-sage-attention pause Это же всё что там должно быть прописано?
>>1368226 >пикрил на 4070 ti даунвольтнутой до 200 вт. Тогда у анона с 5070ti что то не так работает либо кeртка дал поесть говна с 5й серией
Надо тоже попробовать в fp16, на сколько я знаю 3090 все равно разворачивает в fp16, так как с fp8 не дружит.
>>1368240 >чуть отредачил мой вФ в видео с Любой Я ноду для патча саги убрал, по тому что она у меня через --use-sage-attention включена. Загрузчик ггуф поменял. И последовательность нод поменял, по тому что мне кажется так правильно типа: модель->лоры->fp16 аккумуляция->торч хотя может последовательность и не на что не влияет
>>1368516 >котят и арбузики В том то и дело, что у меня планы куда грандиознее. Я творческая личность, мне для реализации некоторых проектов нужны концепты, к сожалению, судьба наградила меня руками из жопы, по сему, реализация мыслеобразов возможна только с помощью ИИ.
>>1368520 Я не понял сути твоей драмы, у тебя есть доступ к ИИ, но пишешь "ах если бы была возможность". Так выкладывай не порно, тут такое тоже нормально заходит. Просто мы хуемрази и спермобаки, гормоны взяли верх над нашим разумом и эти земли давно прокляты... Хотя я хуй знать, что там у тебя за концепты, может дичь хуже порнухи.
Ещё один вариант сравнения Вео3 и Клинг 2.5. Хорошая текстура кожи и физика у Клинга (но конкретно на лицах всё ещё осталась типичная клинговская текстура).
Ебучий мерж из бульдога с носорогом, сразу с VACE+NSFW и лайтинг лорой, без ебатни с двухтактным перекатом, не теряется время на дроч с выгрузкой загрузкой. Как понимаю в ближайшие день два будет Megav4 готова. https://huggingface.co/Phr00t/WAN2.2-14B-Rapid-AllInOne Нищета без видеопамяти к сожалению сосёт хуй. скорость на rtx3090 - 32.30s/it Склепал таки бесконечное видео с сохранением движа, по 4е кадре. Можно конечно больше, ну да похуй. Работает и заебись. Надоб наверно один шаг без лайтинга добавить, на кфг-1 уже больно нейронке похуй на промпт.
>>1368593 там чекпоинт под 24 VRAM расчитан. сделал кто нить квантования яхз. У меня под самую крышечку схавало память. При том что это не основая видяха.
Как лору тренировать, бляди, какой раз спрашиваю, свою, на основе фоток, для генерации видео, только умеете письками своими маленькими меряться, ментше 12 см, задолбали, лору как тренить, чтобы подцеплять её потом, гайд какой-нибудь или инфа, или может ворфлоу какие есть для этого. Только для фотогенерации гайды есть, а как для той же Q8 видосов тренировать лоры хуй найдешь чего новичку.
>>1368647 Слоумоушен там потому что этот мердж проебывает все фишки 2.2, вес лоры не снизить, а она сама по себе замедляет движения, да и в все видео с 1 cfg.
>>1368500 Нет. Были бы у тебя реальные идеи — ты бы нашел человека с видяхой и расписал все ему. Но знаешь сколько людей пишут с идеями? 0. А сколько людей их реализовывает? Считанные единицы, кроме нейрослопа годных видосянов по пальцам пересчитать. Не льсти себе, йуный аффтар. =)
>Some nodes require a newer version of ComfyUI (current: 0.3.60). >Please update to use all nodes. >Requires ComfyUI 0.3.45: >LoadImage
Че этому дебилу надо? Да, читать умею, да гуглил. Перезапуск не помогает. Вф работал как положено дохуя раз. Тупо базовый LoadImage с нисхуя начал требовать комфи более старой версии. Что за еблан бля. В промежутке я сам ничего не ставил. инб4 оБнОвИ кОмФи
----- Разобрался сам, перемещал папку инпутов в другое место. Архитектура комфидрисни не смотрит на содержимое эксепшена, а предполагает что любая ошибка загрузки ноды это всегда несоответствие версий. Ну, другого ожидать и не стоило. Оставлю этот экспириенс здесь, может кому пригодится.
>>1368516 Я в поисках красивых няшных тяночек зарегался на сяхоньшу, а в итоге просто лайкаю их там, и ничего с ними не генерю. Скипну детали, просто скажу, что это европейская культура нас так задрачивает. Как только я повернул ебало в другую сторону, у меня сразу появился анхорни компонент, какой никакой. Полностью меня это конечно же не изменило, но говорят изменение это долгий процесс. А вестерн шлюхам и русским подражалкам только в рот навалить и охота.
>>1368500 Щас как грибы плодятся команды аи-контента с нувокабанчиками во главе, тебе надо просто найти такую и примкнуть за миску риса. Там за тебя порешают вопросики с картонками за 300 тыщ и оплатой зарубежных сервисов - знай только твори.
У кого-то получалось на Wan2.2 5B сделать порно хорошего качества I2V? Тут выше в треде вещал один анон, якобы для этих целей его более чем достаточно. Но у меня на выходе получается полная хуйня. Мыло, блюр, лицо меняется\не похоже на оригинал, и т.д.
Это он пиздел, или это я дебил и что-то делаю не так?
>>1368915 очевидно ты что-то делаешь не так. скорее всего проблема в семплере, я использовал euler simple или unipc beta, не помню точно. то что лица шифтятся это распространенная хуйня на любой модели, особенно если лорами обмазать.
>>1368915 Ну, как-то так. вф в видосе В 720 наверно будет получше, но бесит распердеж вае, который занимает x3-x4 времени от самой генерации. 480p ещё терпимо.
>>1369205 30-40 пикч, персонаж, можно было бы и меньше. датасеты которые я еще под sdxl делал, поэтому описывал тегами, ничего не менял. в самом острисе датасет делать неудобно, он для этого не предназначен, использую taggui.
кто-нибудь пробовал генерить видео кратно больше 5 сек путем склейки нескольких видосов где последний кадр является основой для генерации следующих 5 сек? возможно даже с другим промптом и лорами. не вручную, а в одном процессе. вручную вполне можно замомрочится, но муторно.
>>1369333 если на ласт фрейме отчетливо видно лицо и все остальное что нужно сохранять, то юзабельно, но склейки один хер будет видно из-за смены скорости и направления движений. иногда можно их сгладить вырезав несколько кадров до и после склейки и интерполировать их, либо на монтаже плавный переход сделать.
яесли по уму, то я думаю стоит делать через контроль видео на всю длину + ключевые фреймы сделанные через qwen image/kontext под этот контроль и все это подается в vace. я сделал несколько видосов таким методом, но там до 5 секунд, одним прогоном.
>>1369333 По разному. Очень ситуационная штука. Основная проблема - деградирует качество и удержание облика персонажа/объекта. Т.к. последний кадр редко оптимален и сохраняет все детали. А контекст предыдущих отрезается.
>>1368648 Фармишь баззы на цивит @ тренишь Получается очень хорошо для фото, для видео хуже чем i2v, поэтому не вижу смысла целиться в t2v. Лучше генерить хайрез t2i, даунскейлить и пихать результат в i2v. На локалке впадлу узнавать сколько времени оно будет обучаться, раз даже на цивите эта хуйня 6 часов пыхтела.
>>1369400 Wan 2.2 s2v умеет наращивать длину подобным продлением с учетом всего предыдущего контекста. Основное назначение - делать видео под готовый звук (речь). Но можно без звука, чисто на текстовом промпте - тоже работает. Качество рендера похуже чем у простого wan 2.2 правда.
>>1369399 >Фармишь баззы на цивит @ тренишь Можно описать подробнее что это значит. На цивите типо есть уже такая функция с тренировкой прям на сайте? >раз даже на цивите эта хуйня 6 часов пыхтела. Так это нормально я бы поставил на ночь как раз пообучал попробовал, это интересно еще.
>>1369449 >На цивите типо есть уже такая функция с тренировкой прям на сайте? Да, давным-давно, заливаешь медиа, ставишь параметры, оно крутится. Писал тут про ван >>1364291 →
>>1369461 А он там что-то про цену сказал. Я начал с локального обучения вообще, на своей 4070 попробовать, чего можно добиться, так то я видел толкит аи гайды всякие, что там можно хоть тесла поставить и крутить за бабосы, это понятно, не интересно. Мне интересно с точки зрения че можно простому юзеру делать локально.
>>1369468 если ты про ostris ai toolkit , то там он наоборот показывает что можно еще и на сайтах генерить, а не только локально, ну и свою пекарню для видоса ему нет смысла нагружать
>>1369473 А тоесть в толкит можно и локально генерить получается? Просто я посмотрел там мне только цены предлагают. Думал там только арендовать железо можно и только через него обучать.
>>1369064 А как зайти к этому буржую. Я захожу а у меня даже выбора карт нет для генерации, надо обязательно зарубежную карту иметь и все ровно её привязать туда чтобы генерить чтоли?
Ну я пытался.. Загрузил датасет, тыкнул начать тренировку и получил вот это:
/usr/local/lib/python3.9/dist-packages/huggingface_hub/utils/_experimental.py:60: UserWarning: 'HfApi.run_uv_job' is experimental and might be subject to breaking changes in the future without prior notice. You can disable this warning by setting `HF_HUB_DISABLE_EXPERIMENTAL_WARNING=1` as environment variable. warnings.warn( Creating repository: lora-training-frenzi/hf-cli-jobs-uv-run-scripts Traceback (most recent call last): File "/usr/local/lib/python3.9/dist-packages/huggingface_hub/utils/_http.py", line 409, in hf_raise_for_status response.raise_for_status() File "/usr/local/lib/python3.9/dist-packages/requests/models.py", line 1026, in raise_for_status raise HTTPError(http_error_msg, response=self) requests.exceptions.HTTPError: 404 Client Error: Not Found for url: https://huggingface.co/api/datasets/lora-training-frenzi/hf-cli-jobs-uv-run-scripts The above exception was the direct cause of the following exception: Traceback (most recent call last): File "/usr/local/lib/python3.9/dist-packages/huggingface_hub/hf_api.py", line 10815, in _create_uv_command_env_and_secrets self.repo_info(repo_id, repo_type="dataset") File "/usr/local/lib/python3.9/dist-packages/huggingface_hub/utils/_validators.py", line 114, in _inner_fn return fn(args, kwargs) File "/usr/local/lib/python3.9/dist-packages/huggingface_hub/hf_api.py", line 2864, in repo_info return method( File "/usr/local/lib/python3.9/dist-packages/huggingface_hub/utils/_validators.py", line 114, in _inner_fn return fn(args, kwargs) File "/usr/local/lib/python3.9/dist-packages/huggingface_hub/hf_api.py", line 2722, in dataset_info hf_raise_for_status(r) File "/usr/local/lib/python3.9/dist-packages/huggingface_hub/utils/_http.py", line 459, in hf_raise_for_status raise _format(RepositoryNotFoundError, message, response) from e huggingface_hub.errors.RepositoryNotFoundError: 404 Client Error. (Request ID: Root=1-68db0563-64979a185f00b1c26a5d8156;67e2898b-28d1-492b-b2a1-58b74172e6c4) Repository Not Found for url: https://huggingface.co/api/datasets/lora-training-frenzi/hf-cli-jobs-uv-run-scripts. Please make sure you specified the correct `repo_id` and `repo_type`. If you are trying to access a private or gated repo, make sure you are authenticated. For more details, see https://huggingface.co/docs/huggingface_hub/authentication During handling of the above exception, another exception occurred: Traceback (most recent call last): File "/usr/local/lib/python3.9/dist-packages/huggingface_hub/utils/_http.py", line 409, in hf_raise_for_status response.raise_for_status() File "/usr/local/lib/python3.9/dist-packages/requests/models.py", line 1026, in raise_for_status raise HTTPError(http_error_msg, response=self) requests.exceptions.HTTPError: 403 Client Error: Forbidden for url: https://huggingface.co/api/repos/create The above exception was the direct cause of the following exception: Traceback (most recent call last): File "/usr/local/bin/hf", line 8, in <module> sys.exit(main()) File "/usr/local/lib/python3.9/dist-packages/huggingface_hub/cli/hf.py", line 59, in main service.run() File "/usr/local/lib/python3.9/dist-packages/huggingface_hub/cli/jobs.py", line 521, in run job = api.run_uv_job( File "/usr/local/lib/python3.9/dist-packages/huggingface_hub/utils/_experimental.py", line 66, in _inner_fn return fn(args, kwargs) File "/usr/local/lib/python3.9/dist-packages/huggingface_hub/hf_api.py", line 10346, in run_uv_job command, env, secrets = self._create_uv_command_env_and_secrets( File "/usr/local/lib/python3.9/dist-packages/huggingface_hub/hf_api.py", line 10819, in _create_uv_command_env_and_secrets create_repo(repo_id, repo_type="dataset", private=True, exist_ok=True) File "/usr/local/lib/python3.9/dist-packages/huggingface_hub/utils/_validators.py", line 114, in _inner_fn return fn(args, kwargs) File "/usr/local/lib/python3.9/dist-packages/huggingface_hub/hf_api.py", line 3779, in create_repo raise err File "/usr/local/lib/python3.9/dist-packages/huggingface_hub/hf_api.py", line 3766, in create_repo hf_raise_for_status(r) File "/usr/local/lib/python3.9/dist-packages/huggingface_hub/utils/_http.py", line 473, in hf_raise_for_status raise _format(HfHubHTTPError, message, response) from e huggingface_hub.errors.HfHubHTTPError: (Request ID: Root=1-68db0563-1106504a33ec999537ef9d16;4937cb4c-a14e-413e-9809-1a2b2aa3eaa9) 403 Forbidden: You don't have the rights to create a dataset under the namespace "lora-training-frenzi". Cannot access content at: https://huggingface.co/api/repos/create. Make sure your token has the correct permissions.
>>1369446 Что именно меняет лица: лора лайт, лора орал, низкий квант или 8гб карта? Вроде все видео в треде лица довольно реалистичные и сходные с оригиналом. Чтобы лицо перекосило нужно реально очень резкий поворот головы там или что-то такое.
>>1369353 >деградирует качество и удержание облика персонажа/объекта Я думаю что это решается добавлением памяти к промту или базы, вот типо как у текстовых ИИ есть же чат боты которые содержат память о своей личности. Так и тут нужно добавить например фичу, с добавлением фоток лиц персонажей которые хранятся в памяти и новой видео по сути генерировалось соблюдая четко эти характеры из фоток для действующих лиц, как то так. Какой то китаец наверняка уже чето такое пилит.
>>1369577 текстовые ии точно так же забывают все что уже не влезает в контекстное окно. для вана есть context options для длинной генерации, но это все долго и не особо качественно
>>1369577 Должна быть лора, которая бы могла по нескольким добавленным фоткам иметь представление об образе. Типа такой 3D каркас, который можно подключать без файнтюнинга модели. Как в дипфейк моделях типа inswapper или deepfacelab. Больше разных фоток запихаешь - лучшее представление о портрете имеет модель.
>>1369665 по своему небольшому опыту заметил что с 1750 до 3к начинаются странные качели, а на 3к оседает как будто вот как надо, хз. Мб это просто рандом и на другом сиде будет хуже/лучше.
>>1368786 Попробовал, в чем имба-то? Дроп-иню ее в обычный пайплайн -- стартовую пикчу вообще игнорирует, выдает говно уровня 5б. Скорость примерно та же, что у обычного 2.2 вф. Шляпа полная.
>>1369277 И как успехи? У меня на 1024 вылетело через 5 часов на 2200 шаге. Сделал на 512 для i2v wan 22 с хай и лоу нозом. Загрузил базовый ВФ. Подрубил лору с лоу и хай. Поставил картинку где баба отвернута лицом от экрана. прописал в промте триггерворд на лору что поворачивается Поворачивается совсем другая баба, вообще не похожая, самое что интересное её консистентность сохраняется, я перегенерировал раз 10 на разных сидах и все время поворачивается именно эта баба, но она не похожа на ту что в лоре тренировал... пиздец.
Мож знает кто гайд какие параметры выставлять в тренировке лоры на лицо?
>>1369696 у меня с флюксом все норм, а вановские лоры отказывается сохранять уже после тренировки, ругаясь на название которое он же сам и генерит, бред какой-то. по поводу вылета там походу есть ограничение на максимум 6 часов тренировки одной лоры.
ты на всякий случай перепроверь тот ли ты датасет закинул вообще на тренировку, мб попутал папку. у меня все лоры на лицо тренировались идеально, по простенькому описанию типа
> she is sitting in chair, looking at viewer, pink lipstick, long dark brown hair, white blouse, serious face expression, amateur photo ну и плюс ключевое слово, хотя не факт что оно вообще нужно.
>>1369701 С флюксом и у меня проблем не было. А тут вот какая херня, датасет точно тот и с капшенами для каждой фотки. Может конечно пережарил на 5к шагов поставил раз барин платит. Но подрубал лору с 3200 шага вообще ничего не меняется.
>>1369705 Вот такие: Close-up photograph of wirbo with light skin, brown hair, brown eyes, and a playful expression, against a blue background.
Photograph of wirbo, a slim, light-skinned woman, wearing a polka dot bikini, standing on the beach.
Спасибо - натолкнул на мысль, ща зашел в датасет и понял что капшены не соответсвуют пикчам хоть и называются одинаково, что то joy_caption нахуевертил по ходу. Не критично конечно, по тому что большинство фоток клоузап, но возможно в этом проблема.
>>1369711 wirbo это типа триггер? его стоит писать отдельно от остального промпта. запятых наставил так, что у тебя промпт делится там, где должно быть одно предложение. вряд ли это причина того что лора зафейлилась, но все же.
>>1369572 1 пик исходное изображение. 2 воркфлоу. Лицо прям сильно поменялось как в ipadapter, стиль сохраняет, но лицо меняет. Орал лору по совету в civitai ставил на 0.5
>>1369748 модель q6k + сажа и шифты на 5 стоят кстати смысл их отключать? и шагов 6, семплер uni pc использую ну и лору сейчас поменял на новую t2v в треде ссылку кидали выше, хотя это ничего визуально не поменяло орал лора на .8
>>1369755 Шифты отключал и включал разницы вроде не какой не заметил. Ну лицо сохранило здорово. Засочковал на своём железе ставить q6k. У меня прям вообще слабо, 8gb 4060 которая при генерации на 75 градусов греется и 16 ОЗУ. По совету увеличил pagefile до 100гб но разницы не заметил.
>>1369759 но вообще дел не в модели, сейчас посмотрел у меня есть старые генерации где я как раз q5 использовал там лицо тоже в порядке либо чето с настройками вф или с железом
Использую Wan 2.2, скорость генерации стандартной 768х768 пикчи не устраивает - около 8 минут. Скачал лоры Wan2.2-Lightning_I2V-A14B-4steps-lora_HIGH_fp16.safetensors (и лоу тоже), но прибавка в скорости мизерная.
Во всех гайдах по ним пишут что это 4 STEPS LORA, т.е. речь про какие-то четыре шага на хай, и 4 шага на лоу. Но если я в сэмплере ставлю 4 шага, у меня получается просто набор пикселей.
Что я блядь делаю не так? Куда эти четыре шага, чтобы реально какое-то ускорение было?
И лору надо ставить до "выборки модели SD3", или после?
>>1369790 Охуеть, спасибо, ускорилось в 6 раз, потери качества есть, но не до уровня несмотрибельного. Как ты к этим цифрам пришел? Гайд какой-то есть?
>>1369800 можешь поиграть с шагами, например сделать 6 с 0-3 3-6 соотв или 8 так же это стандартные настройки 4шаговой лоры они стоят в темплейте вана в комфи да и в любом гайдйде про ван с данной лорой можешь найти я у себя оставил 6 шагов
>>1369953 На входе картинка с сд15 штоле? Эта полоса между сиськами, когда модель не может определиться, рисовать лифак или нет, была вылечена еще при царе Горохе.
>>1369940 >Тут remacri_original, но я не уверен что он хорошо подходит для видео. Уж сколько раз твердили миру - не генерирует модель видео. Она генерирует отдельные картинки (последовательность), которые потом отдельная нода собирает в видео. Соответственно - этот вопрос лишен смысла, через апскейлер проходят просто картинки. Выбирай такой, чтобы не вносил больших случайных искажений, и все. (Если будут искажения - изображение будет "дрожать", это сразу видно).
>>1369755 Всё равно лицо меняет. В чём проблема? Использую Q6_K low и hight, 8 шагов на каждый сэмлер 4 шага и uni_pc + simple Лора 4 шага Wan2.2-Lightning_I2V-A14B-4steps-lora_HIGH_fp16 Wan2.2-Lightning_I2V-A14B-4steps-lora_LOW_fp16 Потом Лору на минеты low и hight https://civitai.com/models/1874153/oral-insertion-wan-22
>>1369999 > этот вопрос лишен смысла > Выбирай такой, чтобы не вносил больших случайных искажений то есть смысл все-таки имеется, псевдоинтеллектуальный ты долбоеб
>>1370130 да это новая лора 4шаговая, разницы особой нет со старой попробуй поставить ноды автовыгрузки модели между семплерами и декодером может тебе поможет так как памяти у тебя маловато совсем
Ананасы, первый день в комфи, куда прописать low vram в настольную версию? Скачал 5b модель на 12gb, хочу попробовать, но у меня всего 8gb (3050) видеопамяти, но оперативки 32gb.
Аноны, у меня после 5-6 генераций в портабл версии засирается рам на 100%, и не чистится после нажатия на пылесос, приходится полностью перезапускать комфи, какие варианты?
>>1370115 >то есть смысл все-таки имеется, псевдоинтеллектуальный ты долбоеб Не, я всего лишь такое же быдло как и вы, не уважаемый сэр. Весь смысл строго в одном: явная дрожь - значит не подходит. В остальном - не в чем здесь быть уверенным или не уверенным. Неподходящий - просто сразу видно.
>>1370080 Не трогал вана месяца 2, пользуясь случаем решил комбекнуть в 2.2 и спиздить вф мимо другой анон Я в прошлый раз когда вкатывался в 2.1 не осилил и ливнул, терпя постоянные краши и тыщу лет ожидания на 5070ти. Вроде бы и неплохо но какая-то слоумошен залупа, там вроде выше в треде чета про фреймы писали и про их влияние на скоростб, щас почитаю. Бтв пробовал на 16\32гб сетапе q6_k Запустить на втором кейсемлпере оом выбило, на q4 k m уже пошло. И да, что за ноды с резайсом залоченным говняные? с разной пикчи скейлит мне разрешение по разному каждый раз, не пон как работает, я бабуин. Там еще вроде какой-то ван анимейтед вышел, знать бы лучше он для хентыча или говно.
>>1370290 ноды скейлят пикчу на 0.5 (можно выбирать в поле) мегапикселя а потом ресайзят кратно 16 но можно кратно 8 сделать разрешение разное потому что пропорции пикчи сохраняются
лайтнинг лора иногда делает такую хуйню попробуй поставить 0.5 силу лоры или нагенерить больше фреймов и собрать в 20-24 фпс количество фреймов для 5сек 20фпс - 20*5+1
>>1370290 >Там еще вроде какой-то ван анимейтед вышел, знать бы лучше он для хентыча или говно. Это модель с контролем фигуры персонажа. Два режима. Первый перенос движений с рефернс-видео на картинку персонажа. Второй - замена и мерж персонажа видео на другого. Оно под свою задачу, а не конкурент обычного Wan.
Поясните принципиальные отличия t2v от i2v. Ну вот беру я картинку, в промпте пишу, что в кадр входит высокий мужик в плаще и шляпе, с волевым подбородком и трубкой в зубах. Так вот i2v модель прекрасно этот промпт обрабатывает и изнихуя выдумывает этого персонажа и вводит его в сцену к уже имеющимся на фотке персонажам.
>>1370412 t2v - текст в видео (без каких либо исходных изображений. модель придумывает всё сама) i2v - изображение в видео (берётся исходное изображнение как первый кадр ролика, которое додумывает модель по промту) ti2v - это всё вместе в одной модели. Такой режим есть только у малой модели Wan 5b
>>1370044 >325Кб, 640x578 Наверное из-за низкого разрешения и меняло лицо. Надо брать портрет с самой высокой детализацией чем больше мегапикселей, те лучше и не сжимать никак перед загрузкой в проект. ComfyUI автоматически обрежет кадр и сделает нужное выходное разрешение. Когда картинка мыльная, она начинает от себя додумывать.
>>1370324 Решил поставить 0.7 мп и 20 фпс снова оом вылетел, кек. Походу надо экстренно докупать в свое ведро еще 2х16. Видрил сделал в 24 фпс, теперь выглядит наоборот как залупа дерганная, а может я в шары ебусь и все ок просто сид плохой попался надо сролить еще раз посмотреть че как. Кстати на 24 фпс уже не комфортно, на 80 сек больше ждать пришлось а это почти 5 минут, умереть можно с такими реролами. >попробуй поставить 0.5 силу лоры Уже стояла 0.5 на хай 0.9 на лоу. А нельзя просто генерить в родных 16 фпс потом нести в интрополяцию с апскейлом х2 или тут как в картиночной нейронке от х2 уже разъебет? 32 фпс уже по идее нормально для глаза если речь идет о просто анимации, или интрополяция все равно делает хуевые фпсы с которыми так же будет насрано?
>>1370599 интерполяция не ускоряет и не замедляет а просто добавляет промежуточные кадры а вот сборка меняет скорость если лора не замедляет видео то в 16 фпс будет нормальная скорость при сборке с таким же фпс если замедляет то нужно добавлять кадры в зависимости от силы замедления
>>1370499 Если вставить однотонный фон, i2v можно юзать как t2v, только просрутся первые несколько кадров. Вот видос на i2v из белого фона и рандом промпта с цивитая. Всрало где-то около 10 первых кадров.
>>1370463 Сам комфи подгонит разрешение под видео? Если фото будет 720х1280, а в ване настроено 480х720 видео не будет обрезано на одном лице? Я вроде бы пробовал в самом начале до того как начал вручную их уменьшать, у меня было только одно лицо и едва видно было что позади, как вообще они член сосут.
>>1370044 У тебя воркфлоу корявый, во второй семплер надо не из клипа кидать лапшу, а так же как и в первый из wanimagetovideo. из клипа должен идти только в ванимагетувидео
>>1370870 Там нода лоад видео, в него грузишь свое видео сгенеренное, если хочешь встроить в вф, то просто лапшу от ваедекоде после семплера протяни туда куда она тянется от этой ноды.
>>1370508 Я, блин, уже какой пост пытаюсь донести - любой бери. Их дофига, чтобы перечислять все, а живьем эту проблему я видел только два раза. Когда вместо обычного апскейлера попытался прогнать это все еще и через SD 1.5 в i2i с малым денойсом - типа, для попытки добавить выразительности. И когда на морде нашел и взял взял какой-то особо навороченный апскейлер - он над каждой отдельной картинкой почти как та же самая sd 1.5 думал, и детали явно дорисовывал от себя. Вот там оно моментом вылезло. Уж прости - выкинул и не запоминал название. А простые апскейлеры - ну, чисто теоретически тоже могут что-то такое устроить. Но живьем не видел. И у тебя там в видео все прекрасно было, чего сомневаться то?
>>1367106 спасибо папаша за охуительные аналогии с советской мультипликацией, но мы тут в основном порнуху генерим и в 16 фпс быстрые движения часто смазываются, на ускорялках или гуфах так вообще пиздец.
>>1371068 Сынку, ты живые ролики с того же порн-хаба да ютуба попробуй на паузе рассмотреть покадрово. Охуеешь с "четкости" во время таких движений. У тебя смазанные руки (и остальное) при резких движениях не потому, что интерполяция. А потому, что у модели при тренировке ЭТО на вход попадало. Ни апскейлер, ни интерполяция тут чуда тебе не сделают - принцип GIGO. А вот сгладить плавность - это интерполяция может, и хорошо делает.
Ваши советы что бы текст не пидорасило с 1 кадра? Может есть какие-то маски для отключения генерации на части кадра? Ладно тут статичный объект, а если он двигается вообще каша.
>>1371190 причем тут интерполяция, когда на движение тупо не хватает кадров для качественной отрисовки, из-за больших разрывов в расстоянии модель может генерить мыло которое кинематографичному моушн блюру и не снилось. 16фпс ван после 24фпс хуньяня ощущался как лютый даунгрейд в этом плане. Иногда делал костыли чтобы конечности не пидорасило - генерил видео, потом интерполировал его до 24/32 фпс и прогонял по нему генерацию еще раз через энкод или контроль в вейсе и о чудо мыло по большей части уходило.
>>1370080 Помогло, теперь не меняет лицо. Да нужно было клипы от ванимейджаидео протянуть к обоим семплерам. И вф >>1370153 анона помогло, что выгрузка между моделям есть, до этого на втором семплере он зависал. Но пока не существенный минус это зерно на видео видно, но с моим железом ладно. Докупил +16 гб оперативки себе посмотрим результаты.
>>1371067 >используй film vfi ноду Это ведь ею можно сразу превратить 16фпс в 30? Можешь пожалуйста научить как ею пользоваться правильно? Раза три уже спрашивал по поводу этого, аноны игнорят. Неужто такой глупый запрос?
>>1371347 хз что здесь объяснять нода проще некуда слева добавь ноду загрузки справа сборки 2 это множитель фреймов в ноде загрузке 16 фреймов значит в сборке 32 ставишь все
>>1371441 ггуф режет размер модели (вместе с качеством) чтобы она влезала в оперативу. любой ггуф медленнее fp8/fp16, на 10-30 %. объем врам определяет насколько большое разрешение и количество фреймов ты сможешь себе позволить. я не помню сколько конкретно весит ван 2.2 со всеми приблудами, но я думаю что в твоем случае нет смысла использовать ггуф если у тебя не меньше 32 гб оперы. разница между 8 и 6 заметна, движения могут быть не такие естественные и понимание промпта начинает страдать.
>>1371294 euler/beta попробуй, с ним меньше зерна и пластика, в отличии от unipc/simple. >>1371044 т2в наверно будет качественнее. надо сравнения на разных промптах и сидах делать. я этим вообще не интересовался. Вот микросравнение на одном промпте и одном сиде. i2v с пустым латентом получилось хуже всего. t2v кажется больше деталей. i2v с пустой пикчей получилось что-то среднее. Вообще сомнительная фигня юзать i2v для t2v, если первый будет скорее всего хуже. Единственный плюс этого, если охота сгенерить т2в и увеличить длительность видоса без загрузки лишних моделей.
Сколько нужно памяти что бы генерить 720 1280 5 сек? В q8 или хотя бы q6. У вана есть что-то типо офлоуда слоев модели как llm если не лезет или ну его нахуй будет тыщу лет делать?
>>1364275 Бля, спасибо тебе за идею анонче, сейчас я убью нахуй свой м2 поставил тоже 96гб подкачки на второй ссд, до этого был 12гб на статашном старом кингстоне который я еще в шкиле покупал, когда ван подсасывал с него память он грелся до 60 и винда фризить начинала, щас поставил на м2 на котором собственно стоит сам ван и все нейро приколы с играми и все заебись, можно даже модель пожирнее\не сжатый энкодер воткнуть будет. Правда у этого фокуса есть один минус, если я не поспешу с покупкой озу диск сдохнет через пару лет такого интенсивного использования.
>>1371767 > если я не поспешу с покупкой озу диск сдохнет через пару лет такого интенсивного использования. Таки да, вот как он показывает состояние сегодня. Но в этом и суть дешевого костыля за 2.5 тыщи а не за 25тыщ за 96гб ОЗУ.
>>1371789 Камон лесгооооо Только у меня костыль пожирнее и подороже, ну первому диску стало совсем хуево а покупать огрызок за пару тыщ ну чет совсем в падлу. Хотя у меня где-то ноутбучный хдд на 500 валялся... Кстати, а если я хочу фп8 вана с umt5 в бф16 мне че в 96-128гб озу сразу метить? Еще слышал в треде локалками что лучше не юзать 4 слота в 2 канальной доске, придется походу не докидывать а менять а хотя похуй
>>1371805 Я думаю когда нибудь позже заменить свои 2х16 6000 сl 32 на такие же 2х48 Гб. 128 пожалуй перебор, если только денег куры не клюют. >не юзать 4 слота в 2 канальной доске Верно, если заведется скорость будет максимум 4800, забудь про XMP. Хочешь низкий тайминг и высокую частоту - придется ограничиться двумя плашками, а старые скинуть на Авито.
>>1367489 Кажется нашел свой идеальный ВФ. Решил как у тебя на fp8 KJ перейти, т.к. там в ноде можно торч и сажу сразу выставить, раз уж в 16 гиг влезает. И не надо ебаться с обрезкой фоток каждый раз. 20 сек на степ плюс апскейл до 30фпс. И вроде никакой лажи больше не вылезает в процессе.
>>1371805 У меня в двух пекарнях по 128 оперативы и не явижу смысла иметь меньше. DDR4 еще и дешевая и в четыре слота. А DDR5 да, дорогая, конечно, если двумя плашками. Но иметь 64 и лезть в нейронки вот-сейчас — это крайне странно, если можешь собрать больше.
Цензура как обычно у Соры жёсткая. Качество пока такое себе, но зато бесплатно для всех. И логотипов накидали в разные стороны (чё 3, а не 10). Промта слушается лучше Клинга2.5 (но в некоторых моментах Клинг впереди).
И у тебя модель стоит e5m2 для старых видюх, а потом ты тип веса прописываешь fp8e4f3fn. Может лучше сразу скачать модель в fp8e4f3fn, должен быть буст и качество получше.
А то что то ты уже в минус играешь, не может 3090 обгонять 5070
>>1372225 Да, ничего лучше не придумали. По идее на новых видюхах есть формат nf4 что должно работать еще быстрее на бумаге, но по факту скорее всего это 4й квант что засрёт картинку.
>>1372296 Блять, у меня веса слетели с e4m3fn fast на дефолт в нодах, но это по идее ни на что не влияет, один хуй перепрогнал с ними стало хуже на погрешность.