Терминология моделей prune — удаляем ненужные веса, уменьшаем размер distill — берем модель побольше, обучаем на ее результатах модель поменьше, итоговый размер меньше quant — уменьшаем точность весов, уменьшаем размер scale — квантуем чуть толще, чем обычный fp8, чтобы качество было чуть лучше, уменьшение чуть меньше, чем у обычного квантования, но качество лучше merge — смешиваем несколько моделей или лор в одну, как краски на палитре.
lightning/fast/turbo — а вот это уже просто название конкретных лор или моделей, которые обучены генерировать видео на малом количестве шагов, они от разных авторов и называться могут как угодно, хоть sonic, хоть sapogi skorohody, главное, что они позволяют не за 20 шагов генерить, а за 2-3-4-6-8.
>>1488387 → На что хуй быстрее, выше, сильнее встал — та и подходит. Да, перебором, грузишь одну пару, смотришь на результат, грузишь другую, третью… В итоге фаворитов прогоняешь еще по несколько раз, проверяешь, не показалось ли.
>>1488800 Бедные, прикиньте, сколько им пришлось сделать черрипиков, чтобы ван так хуево сгенерил. Небось и промптили, и шаги зануляли, и че тока не делали… Надеюсь, их труды не пройдут напрасно, и Ван РЕЛИЗНУТ 2.5!!! Пидры. =с Хде мой опенсорс.
>>1488853 "На днях на конференции представители Wan упомянули, что они не сделали Wan 2.5/2.6 открытым исходным кодом, потому что он слишком большой для сообщества. Судя по комментариям о проблемах с LTX, я думаю, они были правы. Ребята из Wan сказали, что, возможно, когда-нибудь выпустят более облегченную версию. "
В воркфлоу пакеты moondream. Не ставились пока не поменял уровень безопасности в комфи. Поменял, теперь просит авторизоваться в гитхабе. Че за прикол? С каких пор нужно зайти в гитхаб чтобы скачать пакеты?
Сколько не пытаюсь на лтх2 сделать что-то нормальное, одна хуйня выходит. Либо просто картинка с зумом, либо очень слабое движение. Как бы я ни писал промпт, даже через флоренс описывал инпут имаджи, все равно хуйня какая-то. Промпт вообще нахуй идет, генерит вообще не то, что я прошу. Качество тоже по пизде. ЛТХ2 это наеб просто какой-то глобальный?
>>1488921 В сообществе и RTX Pro 6000 встречаются, так что они немного лукавят. Я верю в Wan-2.6 с его персонами и временем инференса, но вот Wan-2.5 вполне возможно запустить люди могли. Надо помнить, что ЛТХ-то сам по себе плохая модель от не самых умелых авторов. И размер — не показатель качества, в данном случае. Дома люди все равно генерят не 1920*1080 (хотя я вчера ради интереса на лтхе делал такой ролик, без апскейла, вышло неплохо). Так что, они просто взвесили пользу от хайпа и заработок и решили, что на апи и подписках заработают больше, чем поднимут репутации.
>>1489167 Не настолько, что-то не так у тебя. Она в деталях следует промпту хуже вана, и знает меньше, но в общем понимает и делает, что от нее требуют. Выглядит как какой-то технический баг, по твоему описанию.
Оцените ворк плиз. А именно самое начало, где модели и клип лоадер. Как к этому прикрутить новые nvfp4 модели и есть ли смысл 5070ti у меня ? А если оставить как есть, стоит что-либо заменить? Вдруг я генерю на том что вообще плохо сочетается.
Там оказывается Nvidia завезла в новый драйвер супер оптимизон, все ведь в курсе? У меня ltx и всякие квены/флаксы дали +30% к скорости, с сажей где то 40-50 вообще. Rtx 4070s. Интересно как будет на wan, про него чет не писали, но т.к это касается fp8 в целом то и там наверно будет ускорение
>>1489532 Так нужно только драйвер обновить или еще Комфи? У меня последний разваливается почти каждый раз когда я его апдейчу, приходится заново все собирать. Ради 30% перфоманса можно бы и да, конечно
Драйвер студио я обновлял. Насчет гейреди обычного не в курсе. Комфи обновил без зависимостей, но насколько я понял, туда коммиты были уже как неделю добавлены с этими фишками
>>1489661 Комфи обновлял? Прибавка сразу в глаза бросилась. LTX было 5-6 секунд за итерацию на дефолт воркфлоу, стало 3.4-3.7 ( с сажей). У меня если че винда и драйвер студио версия.
В Qwen edit 2511 генерация была раньше 30-35 секунд, сейчас делается за 19
>>1489666 А еще у меня оперы забыл сказать 96 гигов, может у тебя на диск офлоадит, а тут как раз оптимизон на эти дела, Если на диск сбрасывает то понятно тогда почему не работает
>>1489666 У меня Квен Едит на 4090 и 128рам работает 2 минуты. Не подскажешь почему у тебя так быстро? У меня правда ddr4, у тебя может ddr5? В оперативу выгружает что-то когда работает, да. Но мб какие флаги нужны, чтобы только туда? Юзаю fp8 квант
Что-то у меня после обновления драйверов ускорения не получилось. =( Но я обновил игровой. Возможно реально нужен студио?
А может это все тут не причем? Асинк энд пинд давно включили, пишут — возможно, я как раз видяху менял с 4070 ти на 5070 ти в декабре. А нвфп4 ускорялся на глазах в комфи — от «медленнее фп8» до «чутка быстрее», но качество в лтх было говенным в фп4.
Короче, не до конца понял, когда будут ускорения… Если кто убедится, что дело в студио драйверах— отпишитесь, плиз.
А че сору Наебнули чтоли? Попытался сейчас старый промт сгенерить и если раньше все диалоги умещались теперь либо молчат либо одну фразу успевают сказать.
А, все, fp4 норм работает (умеренно), но она есть только для dev-версии, и из-за cfg 4.0 работает все равно дольше, чем дистилка. fp4 не спасают. Если бы дистил была, но то ли я дурак, то ли ее не выпустили. Там бы ускорение помогло бы.
>>1489398 Какое апи 2.5 когда у них самих уже есть лучший 2.6, не говоря уже о конкурентах? Нет ни одной причины не дропать веса, но они выбирают быть пидорасами. 2.1-2.2 нам дали ибо они тестовые, как и 2.5 тест версии со звуком
>>1490159 Кстати вообще не понял этого мува. Ван тем и ценился, что не имел цензуры и был локальным. 2.6 я потестил, но это какая-то артефачная хуйня, которую на голову ебут и сора и вео и клинг и все остальные большие конкуренты. Какой смысл вообще покупать на это говно подписку теперь?
>>1490354 На данный момент ничего лучше 2.2 так не понимает промпт, консистентность и поддержку нсфв. Он даже лица воспроизводит почти точно, даже не зная персонажа и его мимику с эмоциями. LTX даже рядом не стоит с этими возможностями в ван. Если выпустят 2.5 это будет чудом конечно
>>1490360 Да если бы мельтешение пикселей можно было поправить -- вообще цены бы ему не было. А так постоянно апскейлить надо, иначе лицо разваливается, глаза, а если на одежде узор сложный -- вообще пизда.
>>1490396 Зависит от задач. Если T2V, то лтх быстрее, сразу ролики по 20 сек можно делать, встроенный звук, можно больше нейрослопа нагенерить и засрать интернет. Лтх не знает про сисик и писик. I2V лучший пока что Ван 2.2 по качеству, следованию промпту, сохранению персонажа, но долгий.
Хай и лоу стадии проходят быстро для одного видео в 5 секунд (в районе пары минут на саму генерацию), но вот свич между хай и лоу моделями происходит долго. Получается так, что ждешь загрузку хай модели -> генерация хай части прошла (примерно минута) -> ждешь загрузку лоу модели -> генерация лоу части прошла (примерно минута) -> ждешь вае -> ласт фрейм пошел к следующему видео в цепочке.
Можно как-то ускорить свич между моделями? Может как-то генерить сначала весь хай нойз в цепочке, потом весь лоу нойз в цепочке, а потом объединять? Может есть какое решение.
>>1490396 Готов без звука и 16 фпс — Wan2.2 без конкуренции.
Хочешь 24 фпс с озвучкой сразу — LTX-2.
Все.
Я вот ща чекаю, что лтх может делать — иногда реально хорошие ролики и можно кидать в прод, но 1 из 5, у остальных какие-то косяки — то пальцы не туда, то промпту не следует. Зато быстро.
Но если мне придется в ближайшее время делать анимацию — я ее буду делать в ване.
Аноны месяц где то не запускал генерацию, пришлось все переустановить и на старом воркфлоу где раньше все ставилось и работало без проблем через кустом нод инсталл, вот тут на скрине пропали лоры для загрузки, как пофиксить? Обновление и установка кустом нод не помогла.
>>1490850 Заменил старый сэмплер на ltxvnormalizingsampler и мало того, что в i2v скорость генерации упала наверно раза в 2, так еще и качества не прибавилось. Все также артефакты лезут при движениях, пердолятся глаза, пальцы.
Вчера попробовал q3 ltx + fp4 gemma, заняло 42 гига (из 32 на ноуте), но сгенерило норм. Деградация заметна была, но не совсем распидорасило. Так-то, неплохой вариант для бомжей. Но лучше иметь 64 гига, конечно.
Аноны, в вашу тему можно вкатиться со следующим конфигом?
RTX 3060@12, p104@8, 42 RAM DDR4. Нюанс вот в чем: p104 сможет ли работать в связке с 3060? По опыту LLM — да, но зависит от бэка и прочего, так как это майнмнговая GTX 1070 и с некоторыми технологиями она может сделать хуже, где-то наоборот лучше.
Также прошу подсказать бэк + фронт и актуальные модели. Шапку читал, но если судить по своему опыту, там всегда престарелое говно, неточности и прочее, поэтому хочется просто взять то, что нужно для:
1. Модель для генерации максимально качественных видосов, чтоб прям УААЭЭХЩЩ.
2. Модель для генерации аниме-порно. Возможно, через img2video или что-то подобное.
Звук в видосах меня не интересует вообще.
Надеюсь, можно не использовать для генерации макаронного монстра.
Тоже интересует производительность. Когда последний раз интересовался темой - локалки генерили в 5 фпс и наматывали видеокарту часа два. Что то изменилось с тех времен?
>>1492250 Ну на 5060ти ван 5б или лтх2 генерят 8 секундный видос в 1280х720 минут за 5, там еще от квантов/лор/количества и скорости оперативки зависит скорость генерации.
>>1492391 Хуйня какая-то. У меня 5070ti и WAN 14B делает 8 секундный ролик такого же примерно качества секунд за 120-130 примерно, а глючная лтх2 вообще намертво систему зависает, а у тебя убогая 5б делает ПЯТЬ МИНУТ, учитывая еще что 5б в принципе ничего сделать не может нормальное, и при этом у тебя еще и эта уебищная лтх2 работает так же как уебищная 5б.
>>1492400 Ну показывай свой форкфлоу, я хз как у тебя 24-50 Гб говно (или какой квант ты юзаешь) может работать быстрее чем 12 Гб ван 5б и тем более не запускаться резвый лтх2.
Алсо что по твоему 5б не может сделать из того что может 14б?
>>1492130 О, это ты полгода назад в ллм-треде п104 по моим рекомендациям взял? :)
Смотри, ты можешь на отдельную видяху выгружать отдельную модель. Например видео модель на 3060, а текстовый энкодер на п104.
Так что, имеет смысл!
Но это не даст тебе больше памяти для контекста (разрешение x количество кадров), и не даст серьезного буста по скорости. Лишь сэкономит память и время на загрузку моделей (с одной видяхой в начале из оперативы в видяху грузится одна модель (текстовый энкодер), потом отрабатывает и выгружается, и грузится основная модель, у тебя этих промежутков не будет).
Максимально качественные видосы — завези себе 96 оперативы хотя бы, чтобы не убивать диск. Это Wan2.2, но 16 фпс , 5-7 секунд и без звука. Ущербные видосы — LTX-2, зато 24 фпс, 5-10-20-40… секунд и со звуком.
Аниме-порно залетает в обе модели, тащемта, img2video, да.
Можно не использовать комфи, но юзеры ван2гп постоянно ноют и агрятся, потому что у них никогда ничего не работают, они спрашивают как починить, а на них смотрят как на дебилов, которые жрут говно. Т.е., мы-то тоже на комфи жрем говно, но оно хотя бы не пахнет, а альтернативы попросту фонят радиацией и не работают постоянно.
Хотя, именно Wan2.2 там вроде работает норм. Но я все же рекомендую постигать ComfyUI.
>>1492444 Самый базовый вф из шаблонов. Кванты, вроде как, не использую для вана, базовые модели стоят, которые комфи подгружает, хай и лоу по 15гб каждая которая.
95% видео что я делал на 5б выдавало мне какое-то всратое светопредставление и дерганную картинку, один раз только с лорой тверк получилось сделать, и то выглядит всрато. С 14б таких проблем не было никогда, он может не сделать то что просишь, но выглядеть это будет нормально хотя бы в любом случае.
Насчет лтх2 вашего я хз, я буквально вчера пробовал его запустить тоже через базовый вф с шаблоном комфи и при попытке генерации у меня все нахуй зависло намертво, что в принципе очевидно, модель весит 40гб, а у меня 16гб врам только и 32гб озу
кто нибудь знает как справиться с дрифтингом в ван и2в при создании сегментов с использованием ласт фрейма (5+5+5...)? на фиде имею два имг апскейлера, в принципе рабочая тема. но есть ли способ по лучше?
Анон, пожалуйста, поделись секретами i2v для wan2.2
Я уже головой поехал просто. Как мне делать видео-кумы из портретных фото? Ну вот, условно говоря, есть картинка с персонажем портрет по грудь, я, например гипотетически, хочу что бы она потверкала там, или что бы на хуй села, чтоб сзади другая со страпоном подошла и вставила, ну ты понял. Но в итоге получается невразумительная хуйня. Если без спец лор делать то чаще всего она просто что-то говорит на камеру и мимикой играет, иногда делает фрикции, но картинка сама не меняется. Должен же быть какой-то способ адекватный
>>1492797 Жопочтец, я про лоры тоже писал, это убогий костыль, а не способ. Если твоя пикча изначально не в той позе, в которую лора спосонба, то хуй она в нее встанет, а если делать через затемнение экрана то персонаж полностью меняется
>>1492750 Лоры + промпт Если инпут имг просто фронт портрет без задницы, то для тверка, я думаю, нужно для начала описать движение камеры, например: camera zooming out, her ass visible и тп. Я обычно использую лору типа all in one как главную с большой силой (strength) плюс дополнительные в зависимости от того что хочу сгенерить. Также использую связку euler + simple, в ней мне кажется больше вариативности. Если у тебя на выходе байда, то проверь есть ли в wf лайт 4step лоры. На крайняк скинь wf сюда.
>>1493018 Лоры помогают сохранять консистентность персонажа с твоей пикчи. Хорошо работает на длинных видео, когда даже не обязательно, чтоб был персонаж на ласт фрейме, чтобы воспроизвести его в следующем видео. Подрубаются как обычные лоры с весом 1.
>>1493094 А что тебя удивляет, генерация, особенно видео, это сильная стресс-нагрузка на карточку. У меня 5070ti в любой игре на любых настройках максимально тихая, а при генерации на ван2.2 взлетать в космос начинает пока генерирует
>>1492520 Возможно, что по твоему совету, хотя кажется, я не отписывался о том, что купил. Ну если ты не из РФ, то, наверное, по твоему, так как ты цену называл на карту смешную, а в РФ она стоит дороже 20 долларов. Я благодаря этому совету наконец гемму поставил и с SWA смог нормально её юзать на 32к контексте с 9 тс. А вот на всякие глэмы памяти уже не хватило и сейчас не купить.
А что насчёт гайдов? В шапке инфы мало, в отличие от треда с рисованием. Хоть у меня есть опыт с рисовалками очень большой, с видео наверняка иначе. Никто не постил талмуд, в котором всё рассказывается? С другой стороны, у меня складывается такое впечатление, что с видео полегче будет, учитывая мои простые запросы, по крайней мере поначалу.
У меня ж почему такое отторжение к комфи: когда я генерировал картинки, у меня было особое колдунство виде генерации 2к картинок за ночь в 4к с промптом на 400 слов, где чётко размечены позы, наборы одежд, система рандома, фонов, ебанутые настройки типа расписания и вот это всего. Очень привык и никак не мог перенести эти же результаты в комфи, делать там так же, плевался и забросил через пару часов, а документация в комфи мне ничего толком не говорила. Плюс многие кнопки или функции были спрятаны. В итоге от картинок уже устал и просто забил.
Ну и хочется понять ещё насчёт моделей. Как я понимаю, нужно качать модели именно на цивитай (и, возможно, какие-то лоры), где уже из коробки есть половина нужных тегов для генерации? А то как же генерировать канни девочек из блю архива. Если там такого нет, я этого не переживу.
И что ты можешь посоветовать, зная мой сетап, в плане кванта и модели?
> А что насчёт гайдов? Я давно не пишу. В интернете, думаю, дофига, на самом деле, не знаю хороших. Меня просили видео записать, если запишу — скину. Но я не подскажу.
Но в общем, можно начать с загрузки дефолтных воркфлоу, а потом заглядывать внутрь сабграфа по стрелочке справа вверху сабграфа, и там менять что-то.
> Как я понимаю, нужно качать модели именно на цивитай (и, возможно, какие-то лоры), где уже из коробки есть половина нужных тегов для генерации? Забудь про теги, в 2к26 живем, описываешь все обычной речью (можно по-русски). Основные модели берешь с Huggingface (комфи, киджай, оригинальные репозитарии — смотря какую модель предпочтешь), а лоры — с цивитаи, да. НО! Ван и без лор хорош и бесцензурен, а лтх … ну там лор пока не так много.
Твои запросы решаются img2video, где ты генеришь первый кадр сам, а потом подставляешь в воркфлоу и вводишь промпт. Если все пойдет ок — картинка анимируется.
> И что ты можешь посоветовать, зная мой сетап, в плане кванта и модели? 42 GB DDR4? Ты верно написал? Вообще, обе модели требуют в среднем 70-80, а лучше больше оперативы. Все, что не поместится в оперативу — пойдет в файл подкачки. И частые генерации будут расходовать ресурс ссд. Так что у тебя два пути: либо брать условный q3 GGUF квант (например тут: https://huggingface.co/vantagewithai/LTX-2-GGUF/tree/main/distilled) и fp4 gemma (https://huggingface.co/Comfy-Org/ltx-2/tree/main/split_files/text_encoders), это у меня на ноуте как раз влезло в 42 гига (правда там 32, и 10 вылилось в файл подкачки… но не будем о грустном!), либо выделять файлу подкачки 100 гигов и крутить нормальные полноценные модели (fp16 или fp8). Ну, или докупить оператос, сам понимаешь. Учти, это тебе не ллм, тут не память главное, а рассчеты, q3 GGUF не ускорит генерацию видео, а скорее даже замедлит чуть-чуть. Все только ради экономии объема делается.
Но надо сесть и разобраться. В начале определись со свободным местом на диске, размером моделей, поставь комфи, https://github.com/city96/ComfyUI-GGUF по надобности, а потом уже ищи свое воркфлоу. Ну или мы подкинем. Ах да, spatial-upscaler как будто и не всегда нужен, можно в обход кидать эту часть.
Господа, вопрос касательно лор, а в комфи есть какой-то функционал чтоб их как-то систематизировать понятнее? Очевидно что в папке loras я делаю подпапки, типа там это ван22 это зит это еще что-то, но в итоге когда в самом воркфлоу открываешь список лор, то приходится крутить очень долго мышкой чтоб найти нужный раздел, нет ли возможности как-то сделать чтоб если у меня стоит модель ван22 сейчас то он только эти лоры мне и показывал?
Есть ли возможность сделать картинку-превью для лоры, как это было когда-то в форже?
И главное - есть ли способ заставить как-то в промпт добавлять ключевики от лор автоматически? Дегенераты с civitai чаще всего придумывают уебанские ключи к лорам со спец символами, эту хуйню в голове невозможно держать, в форже опять-таки был такой функционал что при добавлении лоры в промпт автоматом ставились ключевики, которые ты сам добавлял, не верю что в таком навороченном комфи нет похожего функционала
>>1494184 >то приходится крутить очень долго мышкой Клавиатурой быстрее. У меня лоры от Вана лежат в папке "14B", если набрать в поиске, то только эти лоры и будет показывать. Кроме того, эта папка и так сортируется в верх списка, понятно почему. В чужих воркфлоу самое продвинутое, что видел - это нода с большим списком лор, где нужную включаешь, когда надо. форжеюзер-вкатился-в-лапшу-только-для-видео-не-эксперт-по-макаронам
>>1494390 Там с Lora-Manager будет специальная нода для лор, в нее можно будет лоры отправлять прям из менеджера этой кнопкой. Вообще загугли на ютубе видео, там очень много всякого полезного функционала.
Если вы хотите сделать липсинк (вместо генерации голоса самой моделью), используйте эти четыре ноды. На входе, очевидно: аудио, audio vae, ширина и высота картинки (?), закидываем в аудио-латент перед генерацией (если апскейлите — наверное и туда тоже, хз, не помню как там чо). Хотел сделать себе воркфлоу с липсинком, чтобы не париться потом, к счастью тут не сложно.
В итогое видео прокидывайте оригинальное аудио, потому что для липсинка приходится добавлять шума сверху, да.
Анончики, помогите, в чем может быть ошибка? Я не понимаю. И дайте кто то хорошо собранное воркфлоу на лтх-2 пожалуйста, я уже заебался. ЧТо не настраиваю, то всё по пизде и какие то ошибки вылазят, хотя делаю вроде бы всё правильно по гайдам и туторам
Анон, есть 5070ti и 32 гб рам. Хочу добить рам до 64 гб, юзаю ФП8 модели от Киджая. Насколько это сильно ускорит генерацию на ван 2.2? Подразумеваю генерацию от нажатия кнопки до получения результата стандартных 5 сек.
>>1495348 Это MoE неожиданно, и оба эксперта работают, или как-то так. =D В начале хайноиз пробегается половину шагов, потом лоуноиз. Каждая отвечает за свое.
>>1495428 У меня такое было, когда я на цифровом блоке в русской раскладке поставил запятую (а надо было точку=) и вес лоры вместо 0.5 стал 5.0.
В чем может быть проблема? Очень быстро комп уходит в черный экран и шум вентиляторов на 100% при генерации
потребление мощности лимит ставил 90% для видео, перестал сразу уходить, но потом все равно уходит, может где-то разрешение на минимальное поставить для скорости, чтобы не успевал
>>1495560 > вес лоры вместо 0.5 стал 5.0. Так это я старый РАБОЧИЙ воркфлоу загрузил для тестов, пиздец. Мог ли комфи сам по себе обновиться и что-то поломать?
>>1496646 >Отзыв: V6 Делает женщину обнаженной, даже когда ее просят надеть одежду. ОНО создает киску и сосок одеждой поверх одежды, это очень смешно XD Очень заебись, ага. Как же хочется простой генератор всего без цензуры, со звуком, в 24фпс и в минуту. Разве я многое прошу?
Умеет ли WAN мутировать одну картинку в другую? Например, есть два почти идентичных изображения с одним и тем же персонажем, но в разных нарядах, и нужно несколько кадров "превращения" первого наряда во второй. Похуй как он это сделает, глаавное чтобы выглядело динамично. Умеет такое?
эксперименты на длинну, воркфлоу взял у фрукта, чутка почистил его от ереси.
Промпт ниже, NSFW вариант слегка потряхивает певичку. поп музыка, Женщина стоит возле микрофона, она поёт. "Тридцать лет, как под наркозом, я работал говновозом Не курьером, не таксистом, а весёлым говночистом. Как шахтёр в говнозабое, бился сутки- через трое В Городском Водоканале бился с тоннами фекалий. Говновоз, говновоз, говновоз Не очистить говна от колёс Даже если солярой обдать Запашок никуда не убрать Говночист, говночист, говночист Должен быть закалён и плечист Говночист- ликвидатор говна Нужен людям во все времена !" железо: GPU24/3090+CPU128, рам улетал под крышечку. Prompt executed in 245.44 seconds
>>1497588 всё что не имеет звуковой дорожки стало резко не нужно. Глянул по времени инференса на NVIDIA H100, что выложено на гитхабе. нахуй нахуй, даже на 3090 это будет мучительно долго. Кумюнити не будет за это браться.
>>1497588 Попробовал только что. Чё то генерит. На стадии декодинга латента оно жрет с загруженным только одним автоенкодером 20 ГБ и надежно вытекает из моих 8ГБ врам. ГПУ свайпает в память как не в себя, в результате процесс займет по-видимому пару часов. Каких-то таесд чтобы ускорить этот процесс в комплекте нет, тайловый декодинг тоже бесполезен потому что латент в любом случае весь в ОЗУ. То есть развлекуха только для успешных пацанов с 24 ГБ врама как минимум, только им нахрен не сдалась эта лайт модель. Для остальных может сгодиться как стресс-тест контроллера памяти видимокарты.
Почему не делают отдельную нейрону на озвучку видео без звука. Выглядит идея хорошо- не надо просчитывать звук если видео говно. А потом можно что угодно приощзвучить с липсинком даже.
>>1499420 >>1496811 Дошли руки посмотреть встроенный ВФ и оказалось, что там не совсем то, что было в примере. Буду пытаться сделать через flf2v, ибо нужен конкретный "финальный результат", а не то, на что хватит воображения у нейросетки. Но, думаю, должна справиться, раз i2v трансформацию отрисовывать умеет. Всё равно спасибо.
>>1499756 Хули всё так сложно то? Воркфлоу в видео не видится. Окей, вижу, в конце файла джейсон, копирую в текстовый файл и гружу отдельно, похуй. Вижу, не хватает 9000 нод. Ставлю, похуй. Вижу, что используются хуй проссышь какие модели. Ищу, вставляю. Охуеваю от того, что видео вае ищется в вае, а аудио вае ищется в чекаутах. Похуй. Лень искать/качать этот ваш ггуф. Вставляю свою модель в FP8, похуй, прожевал. Какие-то блядь патчи, сажаатеншены не найдены, вообще нихуя не понял, сижу с лицом чела из самолёта. Вырубаю, похуй, видимо не нужны.
И наконец, оно мне высрало видосик. На фоне звучат цикады. Ну в общем моё отношение к этому уже понятно.
Сап, почему хуй дрыгается? Это надо лору другую искать или в проптах что-то лучше написать? У промтов в ване вообще можно веса задавать? А то несколько раз приходится теже самые пропты писать чтоб вес увеличить, а то оно игнорирует написанное.
Кум-братья, у вас есть список господ, гдевсе ссылки на лоры с любыми позами и действиями и промпты для них, а может даже видосики чтоб воркфлоу с них подрезать? В шапке не нашел. Мне как ирл, так и 2д надо бы, а на циве вручную чет лень лазить и настраивать. Ван 2.1
>>1500670 >на циве вручную чет лень лазить и настраивать Так и делаю, хожу с мешком и собираю оттуда все говно, в папки с разными моделями/ видами/действиями. А потом ложусь в ванну и обмазываюсь этими сокровищами
>>1500709 На циве просто много чего еще нет, что приходится по другим сайтам помойкам шарить. Например для 2д и аниме крайне мало лор, а самому жарить охуеешь.
Привет, как мне перевод в таверне настроить, чтоб работало в обе стороны? Я хочу писать по-русски, чтоб это на английски переводло, мне бы по-английски печатало и перводило бы на русек. Если как пикрил настройку поставить, то персонажи охуевают что я с ними по-русски заговорил, то есть им мой ответ непонятный кидается.
А что если в LTX-2 отключить этот ебанутый апскейл и генерить сразу в норм разрешении. Для чего его сделали вообще? По времени все равно так же наверное занимает, в чем смысл генерации low -> High-res, если всратую хуйню мыльную он не фиксит все равно?
>>1501667 > А что если в LTX-2 отключить этот ебанутый апскейл и генерить сразу в норм разрешении. Для чего его сделали вообще? По времени все равно так же наверное занимает, в чем смысл генерации low -> High-res, если всратую хуйню мыльную он не фиксит все равно? Смысл в том что модель тренилась под лоу рез, и если генерить сразу в хай резе то будет страдать моушен. Для чего так сделали? Чтобы можно было фактически (с учетом их апскейла) быстро генерить длинные ролики в высоком разрешении. Почему кал? Ну идея хорошая, а реализация хромает. Впрочем, первый лтикс был калом несусветным, а этот просто кал - чувствуется прогресс. Такими темпами глядишь лтикс 3.0 будет уже не калом, а 4.0 - конфеткой.
>>1501670 >чтобы можно было фактически (с учетом их апскейла) быстро генерить длинные ролики в высоком разрешении. На апскейл уходит столько же времени сколько было бы в нормальном разрешении генерации, хотя может у меня нищая затычка вместо видеокарты и в фулл врам все по другому. Но ван 2.2 делает по времени так же и лучше намного по качеству, ели не учитывать все эти липсинки и фпсы
>>1501667 >Для чего его сделали вообще? Потому что шарашка израильская, и у них задача не сделать нормальную модель а уесть ван 2.2 за счет помойных фокусов типа такого
Короче, идите на хуй с вашим ваном. Просто на хуй мелкими шажками. LTX-2 даёт то о чём мечтали - продолженное видео. Собрать минутный ролик - теперь совсем не проблема. Из приличного только на эту демку время потратил.
>>1502499 Никогда не пользовался, но знаю что есть Wan2GP. Но советую всё же осилить комфи, ничего там особенного нет: есть чекпоинт, есть вае, есть клип с промптами, есть латент, есть семплер. Семплер семплирует, декодишь получившийся латент с помощью вае и всё. Если это поймёшь, то во всём остальном легко разберёшься.
>>1501677 >Но ван 2.2 В котором вообще 2 больших модели, лол. >>1501723 >LTX-2 даёт то о чём мечтали - продолженное видео. Покажи воркфлоу, а то у меня не выходит.
>>1502920 Если не думать головой, а просто потыкать - вот: https://huggingface.co/Phr00t/LTX2-Rapid-Merges Скачиваешь JSON, кидаешь в папку с Workflow, пытаешься запустить. Докачиваешь сначала недостающие ноды (git clone https://github.com/Кек/Пук в папку custom_nodes), потом недостающие модели из этого же репозитория и интернета. Все.
Комфи - уебанский говнокомбайн, но ничего лучше не придумали, увы.
>>1503224 Уебанский говнокомбайн это питон, его экосистема и мозг того, кто его придумал. А комфи охуенен и очень здорово абстрагирует процесс производства контента от этого ебучего зоопарка полоумных ебанатов.
>>1503272 На самом деле "зоопарк полоумных ебанатов" самим комфи и порожден. Сотни модулей, каждый из которых тянет десятки зависимостей, зачастую несовместимых между собой по версиям. Воркфлоу, тянущие модуль с тысячей операторов ради одного оператора "FloatToInt", как вот это >>1503224 вот.
Даже руками на питоне написать скрипт, загружающий и использующий необходимые модели, проще, чем в этой куче кала разбираться. И версии библиотек неожиданно оказываются совместимы, и всякая левая хуйня не нужна.
>>1503279 >На самом деле "зоопарк полоумных ебанатов" самим комфи и порожден. Да нихуя, он был всегда, ещё до того, как появился комфи, просто в комфи столкнуться с ним проще, чем в других интерфейсах, которые все рабочие процессы скрывают в чёрную коробку. Но при этом он даёт практически такой же уровень гибкости, как и написаниие скриптов самому, при этом не опускаясь до нааписания скриптов и позволяя делать абстрагированные и переносимые решения, так что его недостатки простительны. Конечно можно было бы сделать, чтобы ради одной кастомной ноды не нужно было устанавливать весь пак, но у тех, кто плотно работает с нейросетями всё равно терабайтные SSD, можно пережить и без этогоо.
Всё, заебался. По серьёзному не вывозит, максимум на что хватает - 2-3 итерации продления всякой порнухи со вздохами. С диалогами жидкие обосратушки. Ну исходник так то тоже полное дно. Ждёмс ltx2++
>>1504033 у пиздоглазых есть одно маленькое преимущество, они могу хуй класть на коперайты и аффторское право как гиганты вроде опенай. Середняк самостоятельный уже ебут, как udio например. из-за этого имеем LTX с индусски датасетом, блядь. >>1504098 это не для вас молодой человек кожаный мешок, это для юрлиц которые могут позволить себе личный кусочек дата-центра. Для приватности и корпоративной тайны. Просто альтернатива - подарить свой анус билли гейтсу по подписке, люто бесит корпоратов. Так что нам остаётся сидеть у консумерской параши и жрать что дают - LTX или подписка и танцы с цензурой, внезапными банами и мурриканской пропогандой.
>>1504033 >>1504130 Посмотрел демки, это просто посмешище. Для 2к26. Я так понимаю никто кроме вана не может делать нормальные видео модели в попенсурсе до сих пор
Геноны, дайте воркфлоу чтобы из видео сделать видео, только заменить в нем пингвина на медведя с картинки. Да того самого, что идет к горе. Я так понял что для этого ван2.2 аним лучше всего, но все воркфлоу что я с ним нашел, это были имж2вид, промт2вид, старт кадр2вид. Само видео у меня уже есть, мне в нем как можно меньше надо изменить, по сути вырезать пингвина, сделать из 2д - 3д медведя и вставить. Один воркфлоу дал 5с ролика, и он просто покрасил пингвина, а мне надо 30с сделать. Возможно ли это вообще, или надо уже h200? И я что-то не вижу чтобы даже ноды под это были, мне вообще не ясен процесс как ван работает, объясните.
>>1505462 По идее тебе нужен VACE (есть только для Wan 2.1), но я не уверен, что он нормально справится. Ещё слышал про инпеинт для видео на Wan 2.2 (https://github.com/scraed/LanPaint), но не тестил (не хватает оперативки для 2.2).
>>1505479 Ну та воркфлоу что есть уже в комфи, для wan2.1 нихуя не справляется, даже на 14б, она просто красит мне картинку и идет нахуй. Те что ты скинул, я там нашел запустил, по их промту оно рисует, а вот по моему сделал 0 изменений.
Почему ван всегда норовит снимать одежду через голову? Вот допустим пикрил - это футболка. Я пишу pulls down cleavage of her shirt, а она берет и через голову начинает тянуть.
Ебаный рот этого вана. Мне нужно чтобы дракон сел в позу лотоса. Грок со второй крутки сделал что-то похожее, от вана я 10 крутку подряд получаю одно и тоже движение на разных промтах. Эта хуета только баб раздевать может или я настроил что-то не так, или с 12 гигами врама лучше не лезть нахуй?
Выдернул системный промпт для ллмки на промпт енчансер из ltxv шаблонов. Любопытные могут посмотреть вф в файле, нужно иметь на борту ollama с готовыми llm, время жизни ставим в 0 чтобы врам очищалась до запуска ktx и прочего. Настроено на tex-to-video.
>>1507043 убрать лору для модели T2V и поставить I2V лору. убедиться, что модель для генерации из картинки, а не из текста и наоборот. Увеличить разрешение и степы, как вариант.
Сап аноны, вкатываюсь в нейро, поэтому не особо шарю, есть 5090 и 128 памяти. Какими локальными моделями сделать полную замену перса на видео? По типу как индусы на видосах заменяют себя на тянку
Есть ли у кого-нибудь информация о том, как этот тип создаёт анимацию движений для ИИ-персонажей? Меня интересует, в частности, техника выполнения простых движений тела. Хотелось бы освоить этот навык. https://www.youtube.com/@SylphietAnim/shorts
>>1510679 Это вообще не AI, просто разделение базовой картинки на слои и последующая анимация путём морфов. Делается в софте вроде Live2D, AnimeEffects, Moho и т.д. Если упороться, то сделать можно в чём угодно, от графических и видеоредакторов до Unity.
У меня сейчас все работает и в комфи питорч 2.8.0 + cu129 Есть большой смысл это дело обновлять или всё заглючит кхерам потому что под новую куду еще недооптимизировано? Карточка 5070Ti
>>1511196 Могу только подкинуть свои версии на которых более-менее всё стабильно работает на 40XX Python 3.12.9 flash-attn==2.8.3 sageattention==1.0.6 torch==2.9.1+cu130 triton-windows==3.5.1.post24
>>1511196 Тоже 5070ти. Несколько дней назад переставлял себе ку128 с не помню каким, старым торчем на ку130 торч 2.10, в итоге у меня в одном из .py сломалась строчка с malloc которую я просто задизейблил закомментировав а потом узнал что у меня сага отвалилась, несколько часов искал колесо (опытный пользователь гугла бтв) и как поставил его malloc вернул на место и все работает. Отличное приключение на 10 минут, делай делай.
>>1511650 Я сам не ебу че творю, услышал звон, не ебу где он. Что там гойвидия сделала какую то хуйню что в калфи теперь гены быстрее будут идти, лишь позже я узнал что это для конкретных nvfp4 сжатых моделей, я думал что это всеобщее ускорение, надо только сборку до 130 обновить и калфи с дровами в придачу (последее кстати дало минус в производительности но там разница в замерах буквально 10с мб погрешность) но походу оно реально мне забассбустило скорость или я реально чего то не выкупил, не смотри что в логах реквест вован 21, там лора от него стояла а сам он у меня 2.2. Я сделал замер гена до и после, 5 сек 16 фпс 928х640 на одной и той же пикче с одним и тем же промптом на холодную, с еще на загруженной моделью, разница вышла ощутимая, либо я еблан чего то не понял либо оно реально чета дает без модели с nvfp4 весами
>>1511612 >>1511799 Сам такой хернёй вчера занимался, производительность нисколько не прибавилось на rtx3090. Но это не суть, на торч 2.9.1+ку12.8 была проблема с vae - в рандомный момент начинало висеть на декодинге буквально х2 от скорости генерации всего ролика и видеопамять полностью сжиралась. Читал что это как раз баг сборки 2.9.1+ку12.8. Пока с ку130 торч 2.10 такая херня не случается, но я еще недостаточно много нагенерировал чтобы это утверждать.
Юзать версию киджая LTX2 distill неправильно? Нужно dev+distill lora? Почему так? Почему у меня может быть параша на I2V, а если не добавить camera lora то генерация вообще превращается в T2V?
Добрался до кандинского и внезапно он генерит на порядок лучше дефолтного вана 2.2, особенно на I2V заметно, вполне на уровне хороших генераций ltx2, но похоже не слушает промпт на I2V. Ещё и генерит пиздецки долго, это мне совсем не понятно. Вроде Lite версия это 2B, а 5 секунд генерит по 24 минуты. Попробовал 19B distill - на 1CFG/8 steps сделало за 11 минут, I2V довольно натуральный. NSFW из коробки. Ну столько времени нереально генерить, к тому же нет поддержки сообщества. Жаль, может модель охуенно тренилась бы, а время генерации сократили бы. Особенно учитывая лоры ltx2 на civit, которые явно тренятся хуже ван. >>1511204 Пиздец ты животное
>>1513096 Залётное подвида порванное, это дефолтный промпт, зашквар не знать. NSFW и I2V в карман, дефолт хуйню сюда. Оказалось есть ещё lite nocfg модель, генерит за 180с, результат значительно хуже, где-то между hy1 и wan21, даже не близко к другим вариантам.
>>1503224 >Если не думать головой, а просто потыкать - вот: >https://huggingface.co/Phr00t/LTX2-Rapid-Merges Ты сам себе противоречишь, давая ссылку на потенциальную головную боль, тогда как стандартного воркфлоу из комфи как раз достаточно, чтобы просто потыкать и ни о чем для начала не думать.
>>1514047 Если цензура только мешает, то кому и зачем она нужна? Получается, что меньшинство угнетает большинство.
Где проходит грань между общественностью и просто массой? Сотня возмущённых визгунов в твиторе это уже ОБЩЕСТВЕННОСТЬ, само ОБЩЕСТВО ВОЗМУЩЕНО и требует разобраться, непущать и запретить...
> но этот мизерный процент составляет около 800 000 человек
...А тут 800к это не общество, а хуйня из под коня. Неправильное общество (ваше общество не общество), чисто больные зависимые люди, бла-бла-бла, и их всех надо перевоспитывать.
>>1515321 Я не фанат маняме, поэтому не пробовал. Вообще, это I2V, какую картинку на вход подкинешь, такое видео и пойдёт. А для песенки опенинга какой-нибудь аудиофайл тоже скормить. Будет рот открывать (наверно).
>>1488357 (OP) Анонасы, поясните нубу, что лушче для генерации обычных видеороликов, которые скуфы смотрят на тик токе? Sora платный или другие есть инструменты?
>>1515791 Ты сейчас фактически сказал что-то вроде: "вода несовместима с морем. Либо вода либо море." :) Чел, этика - она, сцуко, разная бывает. Есть, например, такая этика: "свобода одного заканчивается там, где начинается свобода другого". И чем она не совместима? По простому, этика - это объяснение: как всем жить так, чтобы не было желания друг другу морду разбить. Это, блядь, дегенераты с культурой отмены пытаются словам новый смысл выдать. Давай не будем им помогать? :)
>>1516330 Какая смерть? SVI2 просто вторую жизнь в ван вдохнул, бесшовные переходы, склейка сколько хочешь роликов подряд с разными лорами и промптами, это все еще и комбинировать можно с fflf. Новый CacheDiT который с каждым прогоном работает всё быстрее и быстрее.
Сейчас как раз ренессанс идет, когда траханье охладили база есть и теперь наконец то можно остепениться и сидеть продумывать воркфлоу с нормально работающими инструментами.
>>1516349 >бесшовные переходы, склейка сколько хочешь роликов подряд с разными лорами и промптами, это все еще и комбинировать можно с fflf. Сходить на работу чтобы подрочить, нет спасибо.
>>1516349 А cachedit работает на 6 степах с лайт лорой? У меня всегда с большим шумом выходит, какие настройки не поставлю (пробовал вормап 2, скип 2, а также, 2/0, 2/1).
>>1516712 Не работает, хрен знает кому его высрали, все делают на лайт лорах. Лайт понижает качество, а кэш эдит будет понижать вариативность так что тут теорема эскобара.
Сталкивался кто? После обновления комфи ИНОГДА вылезает.
torch.AcceleratorError: CUDA error: invalid argument CUDA kernel errors might be asynchronously reported at some other API call, so the stacktrace below might be incorrect. For debugging consider passing CUDA_LAUNCH_BLOCKING=1 Compile with `TORCH_USE_CUDA_DSA` to enable device-side assertions.
>>1518409 ОС - осознанный сон. Ты типа спишь, но всё осознаешь во сне и можешь над любыми вопросами работать и даже материализовать ComfyUI чтоб попердолиться с ошибками. Твой мозг как видеонейронка в этот момент работает и генерит модель мира на основе твоего датасета в зависимости от намерения (промпта).
Покуда ананасы с жопами в мыле пилят NSFW лоры для LTX-2, Ван походу нанёс ответный удар. SVI версия с неограниченной по времени генерацией.. Кто нибудь уже щупал? На какой итерации начинается дергадация видео? Лёху кстати каким место присирают к Ване? Конвертер латентного видео от киджая поди?
>>1518851 > Покуда ананасы с жопами в мыле пилят NSFW лоры для LTX-2, Ван походу нанёс ответный удар. SVI версия с неограниченной по времени генерацией.. > Кто нибудь уже щупал? На какой итерации начинается дергадация видео? Новое что-то или все та же старая svi lora? С ней 25 сек делал, больше просто не пробовал, деградации не замечал. Но ебало хуево держит само по себе, в идеале character лору добавлять
>>1518851 Я уже второй месяц пользуюсь только им, дошел пока что до 7 последовательных генераций, деградации которая была раньше вообще нет, иногда к концу лицо слегка изменяется, но это можно фиксить подстановкой в промежутке fflf, фф берешь из конечного кадра а lf придется сгенерировать самому, да. Ну и время генераций конечно же складывается тут никуда не денешься, 7 роликов с VFI в зависимости от разрешения от 30 до 55 минут генерятся.
Переходов вообще нет, можно к каждой итерации подрубать свои лоры. В целом SVI просто отвал жопы, именно этого не хватало ване.
Еще квик тип - для старта тоже использовать fflf и пихать уже последний кадр с латентами в SVI. Минус SVI только в том что он со старта достаточно часто альтерит лицо, с этим способом все нормально работает.
>>1518971 Я имел в виду в середину из связки последовательных роликов, восьмым роликом например, чтобы восстановить на энд фрейме лицо. А с него уже в 9 SVI передаешь латент чтобы мувмент сохранился.
типа FFLF>SVI>SVI>SVI>SVI>SVI>SVI>FFLF>SVI>SVI>SVI>SVI>SVI>SVI
>>1519056 >SVI>FFLF Я наверное тупой, но не понимаю. Вот кидаю первую фотку в SVI, вторую и третью в FFLF, но тогда SVI не видит конечного кадра, и выйдет фигня. Или кидать вывод SVI в первый кадр FFLF, но тогда всё равно возможен шов на стыке, ибо FFLF не учитывает предыдущие движения.
>>1518948 >>1519056 >>1519080 похоже нахуй этот ваш SVI. Те же 30 сек без геморроя лабаются на лёхе. а FFLF можно и на LTX зебенить, мало того киджаевская нода позволяет накидать картинок чуть не в каждый выдранный кадр.
>>1519080 Из SVI берешь последний кадр, суешь его в первый кадр для FFLF, в последний кадр FFLF суёшь сгенерированный тобой ранее кадр (qwen/flux etc) его же делаешь как anchor_samples для следующего SVI
>>1511292 >>1511612 >>1511270 Решил таки обновить, была не была. Поставил питорч 2.10+cu130, тритон обновил на последний. Сажа конечно отвалилась, но не пробовал еще адаптированную версию. Вроде и без нее норм, потом еще поковыряю >>1511196 кун
>>1519182 >киджаевская нода позволяет накидать картинок чуть не в каждый выдранный кадр Только не работает нихуя. У меня только 2 кадра пашет, первый и последний. >>1519241 Ага. Но с FFLF склейка видна, увы. Надо чтобы SVI пофиксили, в ноде есть последний кадр.
>>1519503 Чел, пока ты не подкрепил свои слова видео, твоё мнение никому не интересно. Можешь дальше пукать в лужу, а я буду наслаждаться длинными видео без склеек.
>Без звука по качеству картинки хорош Wan 2.2. Со звуком LTX-2, но качество хуже. По сути прямой аналог Sora2 локально это LTX-2. Скачал Кончи юай. Куда нажимать чтобы генерировать с использованием LTX-2? Есть гайд?
>>1521203 ComfyUI, надеюсь, ты portable скачал. Открывай workflow (хотя бы тот, что сверху-слева на твоём скрине), смотри что в нём написано. Докачивай нужные модели и раскладывай по папкам. Нажимай Run.
Когда разберёшься, качай видео >>1515319 и открывай в ComfyUI, там будет ещё другой workflow с возможностью lipsync.
Я давно так не орал. Носатые из лтх заявляют что скоро опенсорснут обнову которая побьёт модель которая побила сору, при том что их кал 2 не смог даже до ван 2.1 дотянуться
Божественную Сору Сиденс не заменит. В ваш ЛТХ я бы вкатился, но я не знаю подойдёт ли ноут или лучше гугл колаб пользоваться? Она мне ещё и музяку прикрутила (хотя я не очень люблю ИИ музыку, пока Суно ещё расти и расти)
>>1524192 Почему эмоции не ломают узнаваемость? Тут лора на Эмму юзалась, было несколько кейфреймов или просто повезло? Вф нет в файле 😭 зачем вы их нарочно вырезаете
Хочу делать сериал про свою жизнь в всж с помощью ии, но получается такая хуйня что пиздец Больше всего напрягает что когда генерируешь несколько людей, то они говорят одновременно. Полный бред Посоветуйте что нибудь чтобы было хотя бы более менее
>>1524510 Делай два дубля - один где все молчат и один где все разговаривают, потом вырезай и накладывай одно на другое по мере необходимости. Либо генерируй один дубль где все молчат и липсинк накатывай отдельно.
>>1525206 Считай, что её не существует. Алсо, единственный пример: >Speech-driven base clips generated by Seedance 2.0. All editing powered by CAPYBARA Ебальик этих мразей представил? Это скам-проект очередной.
>>1524207 >Лоры на целеб можно тут найти: >https://huggingface.co/spaces/malcolmrey/browser Я так понял, эти лоры под ван 2.1 ? Их только в лоу пихать получается или все равно и там и там? А то результаты экспериментов неоднозначны A girl. Nude Lindsay Lohan comes from right and kisses her passionately.
>>1519414 >FFLF склейка видна Чтоб была не видна поверь этот параметр в сабграфе куда подрубаешь выход с FFLF и естественно латент всего ролика передай с vae decode из FFLF в SVI
Есть ли тут звукокоёбы? Мне надо б локалку для звуков, чтоб как миксер, кидаешь куда лору например для хлопков, а оно теб генерит хлопки и т.п. И свои лоры делать, например нарезав звуков одного типа. По-любому ж локалка есть, раз корпы генерят в своих гроках, элевенс лабах. Но у них привязка к видео, а мне ток звуки по описанию для экономии времени. И я ненавижу онлайн сервис, ибо куколдство, венчо запреты вводят и каждый новый день отваливается халява и меняются правила.
>>1532273 Звук в нейронках лютое говно. Сильно хуже генерации видосов. Даже в TTS кал сплошной с трупозными голосами, хотя каждую неделю по 3 модели высерают.
>>1533121 Это proof of concept. И он оказался очень многообещающим. Скороее всего это будет добавлено во все нейронки генерирующие видео. Некоторое модели возможно уже содержат ризонинг, потому что это естественная эволюция нейронок. Но дело в другом, это уже похоже не просто на видео генерацию а на Genie 3. Представь мышкой крутить тянку, тыкать, и стягивать что угодно.
>>1533365 Нет никакого "ризонинга" в этой хуйне. Ризонинг это написание детального промпта для видео модели. А эту фичу заюзают для создания датасетов, чтобы будущие нейросети лучше генерили. Так "сингулярность" и работает.
>>1533667 >Ризонинг это написание детального промпта для видео модели. Лол, с чего бы? Вот если бы оно во время генерации думало над тем, что делает, это был бы ризонинг.
Это нормально, что на 2060 супер генерится за 15 минут? У меня раньше вроде по 300 секунд было, но я ставил все заново и не помню какие там модели были, да и вф я сам заново собирал. Сагеатенш у меня подключена. Вот lightv2x у меня разные: Wan21_I2V_14B_lightx2v_cfg_step_distill_lora_rank64.safetensors wan2.2_i2v_lightx2v_4steps_lora_v1_low_noise.safetensors Они обе только портят картинку, но скорости генерации не добавляют. Первая с разными весами 1 и 2 для хай и лоу меньше портит картинку и дает более интересное (реалистичное) движение, но на скорость также не влияет. Кстати, можете объяснить почему так происходит?
Не могу решиться на удаление, но и не вижу существенного смысла оставлять эту модель, поэтому напишу сюда что кандинский 5 про дистил I2V генерит лучше ванила ван, хуже ltx2, только пиздец долго даже на 8 шагах. Тяжело найти чужие примеры, сравнения. Ожидал, что будет полный треш.
>>1534934 Лоры-ускорители убивают качество картинки, интенсивность движений, наваливают артефактов, но без них ты заебёшься по 5-10 минут генерить, поэтому ищи приемлемый компромисс. Помимо этого, с лорами отъёбывает негативный промпт и чтобы он вновь заработал, нужно использовать NAG (и тогда ёбаные персонажи наконец заткнутся, если в негатив добавить speaking, talking). Также интенсивность движухи можно контролировать shift'ом, на высоком шифте у тебя будут максимум трепаться кончики волос и одежды, на низком пойдут движенния конечностей и развороты тела но может вообще всё распидорасить, а ещё степень влияния шифта зависит от разрешения латента. Вперёд, экспериментируй. Мне бы кто вот это всё рассказал в самом начале
ПОЧЕМУ НЕ КОНЧАЕТ СУКА вроде ж нормально теги пишу 2d, (cumshot on anime girl:1.6), masturbation, (cum on breasts:2), cum on belly, bouncing breasts, и модель кумерская wan2.2-i2v-rapid-aio-v10-nsfw-Q4_K.gguf Как заставить КОНЧИТЬ? Там даже хуй на картинке из-за угла торчит. ОН ЕГО НЕ ВИДИТ?
Ищу подкованного в анимациях анона. Нужно будет генерить по картинкам видео для одной маняме инди игрушки, не порн. Пиши @mit4an, по оплате договоримся.
Иногда ван будто работает не на полную мощность. Обычно видюха начинает гудеть как промышленный кондиционер, а иногда греется всего на 60 градусов и график загруженности не постоянно в сотке, а скачками идет. От чего это зависит?
Подскажите а как пользоваться поиском на циве? Мне надо воркфлоу для вана своровать, но не интересно дедовское порно, я не могу найти там анимации с хентаем, чтоб с видео взять воркфлоу.
Подскажите, с 6 гигами видеопамяти имеет ли смысл ваще пытаться вкатиться в локальную генерацию видосиков? неважно если долго генерить будет, будет ли ваще работать?
>>1539107 Тут люди WAN 2.2 в оперативке гоняют. Я в начале прошлого года купил видюху с 24 ГБ памяти под видео и картинки и есть ощущение что наебался и надо было брать больше оперативки, потому что самые современные модели даже не пытаются влезть в VRAM, а на скорость генерации все по-видимому забили хуй (хотя ещё в 2024 году базой было по-максимуму засунуть всё в VRAM и дрочить скорость, чтобы получить больше попыток за меньшее время).
>>1539123 Разве оно так работает, чтоб оперативу превратить в память видюхи? А какой смысл тогда переплачивать за память винюхи если так можно было? Ты что-то напутал.
>>1539131 >А какой смысл тогда переплачивать за память винюхи если так можно было? Потому что RAM и VRAM поо скорости это примерно как запорожец и ламборгини
>>1539123 Да с чего бы они не пытались? Если мы по ван22 говорим то сперва грузится 1 модель в видюху, после генерации она перегружается в оперативку и грузится уже вторая модель ну и контекст конечно же в видеопамяти постоянно хранится. 24 гига тебе позволяют все это комфортно проворачивать, попутно скроля двачик или просматривая видосики. Самое лучшее приобретение, если конечно оперативки хотя бы 64 гига.
>>1539134 Ты не в ЛЛМ треде, максимум 2х разница по скорости. Думаю, ламба сильно быстрее. =)
>>1539131 > А какой смысл тогда переплачивать за память винюхи если так можно было? Чтобы влезло больше контекста (разрешение и количество кадров). Так-то, он только в видеопамяти, смысл есть.
>>1539256 Сочувствую, минимум 96 надо, так-то, без подкачки чтобы. А лучше больше.
Планирую вкатиться в локальный нейрослопинг, до этого только с текстовыми llmками баловался и своего бота писал через ллмки со своей системой памяти. Короче что посоветуете ставить по соотношению качество \ производительность по таким спекам i5-12400f rtx 5060ti 16gb ram 32 gb ddr4 3200 ssdm2 офкос
Цель делать видеожабы из фоток, желательно без кринжецензуры, типо чтобы чел мог упасть по промпту, там обосраться в штаны и так далее
>>1539494 Советуем оперативу. А из моделей варианта-то всего два: Wan 2.2 и LTX-2, все равно обе попробуешь, и выберешь для своих целей. Но оперативы до 64 минимум дотяни с авито, а лучше 96-128 накопай по возможности.
>>1539549 Вчера попердолился, накатил через comfui 5b wan2.2 вкинул фотку, написал промпт без негативки (она там вообще со стока на китайском шото набахала, лол) - короче минут через 15 ожидания сгенерило какой-то артефачный кал который даже приблизительно не похож на ориг фотки и заданный промпт, куда копать?
>>1539852 Варианты? Взять вдвое дороже в днс? Найс. =) На алике? Те же цены, если не выше. Нигде не хорошо, пора смириться с реальностью.
>>1539898 Ну или ссд под файл подкачки выделить и убивать его методично. =) Вроде дешевле. Работать-то будет все равно. Чуточку медленнее.
>>1539884 Закапывать 5b. Он заточен на реализм, при этом LTX-2 будет быстрее, генерить в большем разрешении, и тот же реализм, но чуть получше. Но если у тебя один диск, 16 гигов оперативы и ты не можешь себе позволить ЛТХ, а только ван2.2 5б — то хуй его знает куда копать, мы же не видим твое воркфлоу, у меня ван норм генерит, у кого-то даже хорошо! Хотя модель все еще крайне сомнительная в нынешних реалиях. У нее ебанутый вае, а тае квадратит заметно.
В чем может быть причина вылетов без ошибок вообще в консоли? Ван 2.2, 96гб ddr4 и файл подкачки. После примерно 10 генераций сервер просто вылетает и в comfy клиенте пишет try connect. Когда OOM то понятно сразу, там хотя бы написано, а тут просто процесс будто сдох и все и каждый раз перезапускать приходится
>>1540046 Comfy + Wan 2.2 склонны к утечке памяти. Не всегда, но на некоторых workflow у меня оно начинает ее жрать с каждой генерацией. Никак не могу отловить причину-закономерность. Делаю новое workflow - нормально. Потом начинаю усложнять, и какого-то момента оно "скисает" - начинает память течь. И потом уже обратно не откатывается, хоть все ноды пересоздай заново или оставь только базовую последовательность. Только если опять с нуля новое делать. Бред на грани фантастики, но как есть.
Я хз нахер теперь нужны локальные модели после того как грок зделол продление видео. Сиськи оно тоже может при определенной смекалочке. Но бледж, зарабатывать в ютубах на этом нейрослопе говномультиками и шортсами можно и без сисек. Уже с месяц не грузил комфи, держу в курсе.
>>1541610 Только вот в версии 0.3.62, которую я забекапил еще в начале декабря прошлого года - никаких утечек и вылетов не было. Даже специально распаковал и погонял wan 2.2 те же wf. Эта версия конечно медленнее т.к нет оптимизации для нвидии и прочего, но она хотя бы не вылетает. Че они там там навайбкодили эти макаки. Зато дизайн нод переделывают по несколько раз, больше же нечем занятся да
Какое-то расширение или юзерскрипт вроде был, который мог к постам с изображениям показывать метадату и есть ли там воркфлоу. Гуглил - не нашел. Может знает кто?
Как в клинг получить доступ? ПОчему я не могу залогиниться через гугел акк? Есть какая то система рефералок, как в суно, что если я залогинюсь по чьей то ссылке и нагенерю, то мне дадут кучку генераций?
>>1541721 >>1541723 Нет, это точно не сюда. Я эту хрень активно еще с лета наблюдаю, а фактически - наверное с самого выхода Wan 2.2. Дело осложняется как раз тем, что не на всех workflow проявляется. Это не только на свежих версиях с новым интерфейсом, на старых тоже.
>>1543019 Ну да, LTX всегда хвалили за говно, ну вот. Вопросы? WAN2.2 по анимации и качеству лучше, это никогда не подвергалось сомнению. Просто лтх быстрее и со звуком.
Аноны, возможно спрашивали уже но я не нашел, подскажите как для LTX2 делать акцент на ударении чтобы она правильно шпрехала? В некоторых ии например в udio используются буквы с акутом что прям экстремально удобно, в ммаудио вроде акцент ставился после буквы значком ', в какой то ещё нейронке можно было стрелкой вверх акцентировать. В LTX2 перепробовал вообще всё и не пашет ни один из методов, а гайде по апи у них просто ноль инфы. Есть какой то значок служебный для проставления ударения который там работает?
>>1543395 1 видос сгенерил орнул что анимации и лицо всё так же плывут в кашу и забил. Неисправимая дристота, что было понятно ещё по их заявлениям, чуваки просто к кормушке хотят и из подвала клипают кал пока не прокнет
>>1543657 О, деда не разъебало с первой же секунды, это интересно. Хотя он у киджая со старта весь разъебанный и зажаренный, но это не должно менять ситуацию. А где скачать дедов I2V воркфлоу?
>>1545271 Грок не для куколдских разговорных видео сделан и к сожалению в сиськожопотрясках альтернатив ему нет. Лишь самый откровенный секс пока только на ван. Главный вопрос, 23 ебёт 20? Можно смело стирать и заменять на новый. Я тот почти не заюзал, несколько липсинков, попробовал, не дошёл до экстенда и до генерации по кейфреймам и маскам (ну, литературно как в VACE хотел). 23 это умеет?
>>1545579 Кстати, 470 сек на бф16/фп8 и 355 сек на фп4. Почти 30-секундное видео в HD за 6 минут — это нихуя себе, на самом деле. Сажа и 16 гигов врама, если что. Тайлинг вае по 128 кадров с оверлапом на 16.
Аноны, чому в лтх 2.3 и2в мало того, что меняется видео после апскейла (как будто вообще другое видео), так еще и артефакты по всему видео появляются в итоге? Юзаю ВФ от этого чела https://huggingface.co/RuneXX/LTX-2.3-Workflows/tree/main
Модель киджаевкая, дистил. Никакие лоры не используются.
>Модель киджаевкая, дистил Можете пояснить за эту хуйню? Нахуя он опять расхуярил модель и заставляет юзать его ебучие ноды, почему он не может делать их совместимыми с нативными лоадерами? Ебался с его хуйней на 2.0, пока не увидел, что все юзают натив с дистил лорой. А теперь как будто наоборот.
>>1545770 Так там нет разницы. Я грузил видео вае отдельно, а нативную модель для всего остального. Это литературно одна и та же хуйя, и ты можешь использовать как тебе угодно: ггуф, натив, киджай, все это вперемешку, подтягивая из разных нод. Так что, не парься и юзай как захочешь сам. Никто не заставляет.
Я использую киджаевский потому что… Потому что мне так удобнее, не более. fp4, fp8, bf16 для основной модели по ситуации, все остальное bf16, и все. Меня устраивает.
>>1545579 > при этом качество не сильно хуже, только зубы и пальцы шумят сильно По сравнению с fp8mixed качество просто днище. Особенно на дистиле. Проще разрешение меньше поставить, и то не так сильно качество проёбываться будет.
>>1545838 Ну как, в быстрые движения умеет, в отличии от вана. Качество получше, быстрее. Но вот звук как будто бы стал сильно хуже 2.0, странная хуйня.
Аноны, кто серъёзно увлекается long video с SVI ? Есть проблема: даже если всё не своим вф делать, а по тем что в видосах с демками SVI, никак не могу победить видимые резкие транзисты (переходы между частями) они всё равно не являются плавными, там либо новая анимация начинается резко либо какой то флэшбэнг на секунду), причём это не всегда происходит но каждые 2-3 ролика хотя разрабы как бы делаи эту лору именно с расчётом на то чтобы не было таких артефактов. Я вроде добился уже того что даже на восьмом куске и персонаж в целом сохраняется и палитра, но никак не могу победить эти резкие переходы :( А так конечно технология склеек стала в разы лучше чем полгода назад, уже в целом можно по полторы-две минуты генерить спокойно с сохранением цветов и персонажей. Если победить косяки с переходами для меня лично это будет вообще круть.
>>1546047 Ну хз у меня переходы нормальные ничего из того что ты описал, единственное что заметил если в промпте используешь "быстро" типа "быстро встает" или "быстро раздевается" то происходит быстрая смена кадра типа сидит, тупит, а потом резкая смена кадра и уже стоит.
А и кстати вот это проверь >>1529997 , что бы моушен латент каунт был >0 для второго и последующего SVI pro, только в первом он 0.
>>1546100 > хм, спасибо за наводку с промптом, вроде как у меня эти резкие переходы как раз именно на этих моментах где меняется концепт сцены, т.е. персонаж встаёт или начинает идти, поменял вместо "встаёт" или "уходит налево" на "плавно встаёт" и "плавно начинает идти влево" и действительно меньше кривых транзистов стало, видимо svi надо больше кадров на "осознание" правильности перехода
>>1546692 вот как раз именно это сейчас и проверяю, на ване, ну минуту у меня хорошо получается тем более как решил косяки с транзистами благодаря более точному промптингу и сегодня ночью буду склеивать до 2-3 минут. Мне в любом случае пока ван больше нравится по качеству, чем ltx2, он такой средне скажем так мне лично не взлетело, хотя когда вышла предыдущая версия неделю с ним дома весело фанился, сейчас его держу чисто для передубляжа, вместо комбинированного с ваном ммаудио. А так даже самые топовые примеры на ютубе не слишком впечатлили, но это в любом случае хорошо что какая-никакая конкуренция появилась
>>1546715 Промптить самое сложное. Лень. Я понимаю, что если раскидать по таймингам, то модели это хорошо понимают, но это надо голову включать, а я хочу, чтобы одной строкой описал, а он там под капотом наризонил (но, так как у меня гемма целиком в норм кванте не лезет, пусть ризонит с бюджетом в 1 токен) и целый сюжет ебанул. Хотя, по идее, это пайплайном решается со встроенной сторонней ллм, но мне тупо лень.
>>1547110 ну оно может просто слишком дофига в vram пихать, я так с ltx2 изначально сталкивался, посмотри куда ллм грузится, если авто стоит в ноде (если нода для загрузки имеет возможность выбора места) , то в ней нужно вручную выбрать cpu, также и с остальными у киджаевских нод обычно почти везде есть возможность выбора что позволяет гибко размазывать всё это гавно по ram/vram
>>1548530 Ты всё проспал? Алибаба какую-то хуйню начала мутить и из Квена ушли литералли все специалисты, там остались только уборщики туалетов. И на фоне этого пошли слухи что алибаба бюджеты резанула всем побочным моделям - поэтому нет Вана 3, поэтому Квен Имага пол года уже заброшена и только с мелкими фиксами, поэтому Зет-Омни существует только на картинках презентации.
>>1549745 Ну там 90% и есть вф от комфи, если что. Тока загрузка от Киджая, все остальное просто можешь распихать как удобно или вырубить.
>>1550342 По голосу уже, анимацию бы подтянуть, да. Шо там, 2.5 нам обещали еще в опенсорсе. Есть надежда. Если бы они еще персоны завезли, было бы охуенно.
>>1550764 Там не под размер, а под задачу. Для простой генерации бери Basic воркфлоу (i2v или t2v). А если понадобится что-то еще — то выберешь другие.
>>1550805 Не нашел сурса, кто-то писал, что они обещали LTX2=>2.2=>2.5 обновить в опенсорсе. Ну, 2.3 мы получили в итоге. Причем получили в марте, как и обещано. В теории на май-июль можно и на 2.5 рассчитывать. А что? А вдруг!
>>1549138 >там и лор новых в 2026 не выходило видать Ну не скажи. Каждую неделю что то появляется, например от playtime_ai_. Если обновлять цивит и смотреть
>>1550815 спасибо, скачал всё, сажусь генерить, получается хуйня, смотрю а там этот гений вот что делает, мне эту хуйню ещё самому джелбрейкать сидеть что-ли сидеть, это вообще что за хуйня, кто вообще локальные видео модели юзает для чего-то другого, кроме прона, автор wf еблан или кто, не мог нормально прописать что-ли?
>>1551198 > Prompt Enhancer выруби, если хочешь. Ну а чо я это писал, как думаешь? ) Нажми левой кнопкой и там Обход или Bypass. И все, промпт будет твой. Я вообще удалил всю группу попросту и все.
>>1551242 А вот хз, я не пробовал. Я просто не люблю энханс на постоянке, мне проще когда надо кинуть промпт в гемму, запущенную через llama.cpp с промптом, нежели держать в воркфлоу.
По идее, промпт он улучшит как надо, но только там качество само по себе от аблитерации страдает, модель чутка глупеет. Но вот на саму генерацию видео аблитерированная гемма влияет не так сильно, как хотелось бы, ИМХО. =/