>>1253463 → В ЛЛМ принято считать, что вытекание в оперативу убивает инференс (на самом деле, для 1-2 лишних слоев некритично, а дальше — да). Многие могли притащить эту мысль сюда. Лишь предполагаю.
Хотя на деле влияние в видео-нейронках слабое, всего-то в два раза по скорости.
Господа, знает кто-нибудь нормальные "сайты", который предоставляют облачные гпу-серваки, с оплатой из России без геммора, почасовой арендой, с нормальным выбором видях (кастомизацией железа)? Юзер френдли. В линухе не шарю. Что-то типа иммерса... Селектел в топку.
Есть у кого 100% рабочий промпт для вана, чтобы из картинки вне фокуса, он сделал её резкой и "чёткой". Или как вариант перекинул фокус с переднего плана на задний или наоборот.? Для статичного изображения.
Возможно ли создавать видосы дольше 5 секунд с light2x в комфи за вменяемое время? Я как ставлю количество кадров 121 (8 сек) так он генерит час, а 5 секунд за 5 минут генерятся, это какие-то особенности алгоритмов?
>>1253641 у тебя не хватает памяти для 121 кадра, либо снижай разрешение, либо видяху с большим объемом vram бери (хз, даст ли буст относительно часа добавление простой озу)
>>1253641 Методом последовательной генерации. Картинку из конца первого отрезка как стартовую для второго, а потом соединить результаты. На том же сиде и промпте - движение обычно боле-менее корректно продолжается. Разумеется - если не вручную ковырять, а как единый воркфлоу оформить. Для второго отрезка, в прочем, промпт можно и специально менять. Простор для экспериментов.
>>1253768 Спасибо. Чет охуел с промптинга - на каждую картинку надо свой отдельный промпт писать описывая окружение и тд. как тут это делается все знают англюсик на с1?
>>1253782 >на каждую картинку надо свой отдельный промпт писать описывая окружение далеко не всегда. В отношении оживления картинки вообще достаточно описывать только то, что должно двигаться. Модель сама понимает контекст картинки, поэтому от того, что ты опишешь ей ее толку не будет.
>>1253641 Эту модель обучали на коротких видео максимальным отрезком в 5 секунд, если требуется больше, то как уже писали использовать последний кадр прошлой генерации. Скорее всего следующая генерация поменяется в цвете появится так называемый color drift. Дело в том, что после окончания 5 секунд модель начинает забывать, что же там было ранее. По этому наверное стоит даже взять несколько отрезков по 3 секунды, вместо двух по 5. Или же применять технологии пост обработки типа color match.
>>1253815 Разумеется можно и автоматизировать, если речь про комфи, по сути два раза или более раз повторить весь воркфлоу (не считая лодеров), но при второй итерации на инпут впихнуть последнее изображение из batch от прошлой итерации предварительно прогнав через color match. Просто руками - тоже можно, ничего от этого не поменяется.
>>1253862 На то он и воркфлоу анона, если не понимаешь че там ноды делают,может он каждый кадр 4х апскейлит, хрен его знает, пока сам не пересоберешь - не узнаешь...
>>1253872 У него база вроде киджаевская, честно я не знаю чего он там добавил "от себя", но аноны в треде писали, что киджаевский базовый воркфлоу по умолчанию жрет больше памяти в сравнении с нативом.
>>1253878 length 81 Ты можешь в length просто писать 165 и он сам запердолит 81 В любом числовом поле комфи работает математика. Нужно будет 4 секунды просто напиши 164 итд
>>1253884 FIX: Ты можешь в length просто писать 16 (знак умножения) 5 и он сам запердолит 81 В любом числовом поле комфи работает математика. Нужно будет 4 секунды просто напиши 16 (знак умножения) 4 итд
Так много насрали этих wan моделей может кто по человечески рассказать? С чем все понятно t2v, i2v
Далее пошло: (VACE хз типа доступны контролнеты? Fun-InP ваще хуй пойми что... FLF2V типа модель которая позволяет работать фиче first - last frame, но вроде как и Fun это тоже держит, как и VACE. Fun даже не выложили в офф репу wan-AI)
Короче помогите пожалуйста упорядочить эту кашу. FusionX и прочие модели просто с запечными лорами можно не рассматривать, интересуют только офф. релизы.
Так с этим ваней заеблись, что не заметили что HunyuanVideo-I2V уже как 4е месяца вышел. На цивитае нихуя вобще нет про него. https://huggingface.co/city96/HunyuanVideo-I2V-gguf/tree/main сразу с гуффом. Чесно гря даже с каустиком ваня просирает ханю в скорости генерации. А если въебать турбо версию ханю, то просто пезда.
Аноны встал вопрос - а есть ли какая нибудь приблуда чтобы применение лоры начало происходить с определенного кадра? Может можно в промпте какие нибудь тайм штампы прописать или ноду какую добавить?
>>1253910 Так его тестили, он вроде в сухую отсосал по пониманию промпта, сохранению (лиц, вайба, итд) и его собственно с тех пор и не обсуждают толком.
>>1253916 а к хую кстати пытались привязать каустик? Так бы скорость была бы уже на уровне LTXV, кстати, почему ещё ни одной порнолоры по него не сделали? Основная проблема то в СКОРОСТИ генерации. Из-за роста времени генерации по экспоненте локальная генерация это балавство ебаное пока что.
>>1253926 А ты мб скипнул инфу тут lightx2v разъебал в пух и прах все прошлые ускорялки по этому они уже и не нужны, просто подключаешь лору и меняешь настройки семплера и кайфуешь, что теперь видосы можно штамповать как на заводе.
>>1253912 да, надо просто использовать два Ksampler Advanced, первый который без лоры генерит первый определенное количество шагов, после чего латента от него идет к следующему Ksampler, к которому подключена лора
>>1253947 Я про это думал, но это не то. Ксэмплер же генерирует все кадры одновременно. И просто на начальном этапе лора не наложится, а на 2 семплере наложится на все кадры.
А у меня задача начать применять лору скажем с 73 кадра и дальше. Но чтоб до 73 кадра лора не применялась.
Надо както разделить латенты чтобы во второй семплер - который лорой попали только нужные кадры, а потом их склеить в декодере. Но боюсь тогда будет жесткий переход в месте склейки. Либо дважды обрабатывать видео тпа сперва i2v потом v2v или типа того.
>>1253974 Мне кажется ты в правильном направлении мыслишь, сначала делаешь 3 секунды без лоры, потом берешь последний кадр и делаешь прогон далее, но уже с лорой, объединяешь.
Вообще ситуация с локалочками тут даже лучше чем в картинках и уж тем более лмм - имея одну карту 24гб врам ты можешь запустить топ модель на текущий момент, в ллм для этого нужно 4 карты по 24 врам
>>1254253 Я тут на реддитах услышал про некие VIP лоры, кто их делает и где их взять хз, но на всякий случай скаченные лоры уже не удаляю как раньше...
>>1254255 О, я одну такую купил за 200 баксов. Отвал башки просто. Вот что тут дрочат на каузвид - это смешно. Да блабла х2 скорость. С этой вип-лорой х100, и туда сразу вшиты хуи, письки-сиськи, минеты, ебля в 12 позах (автор обещает завезти еще 10 через месяц). Весит правда 10гиг, но это хуйня.
F:\Anaconda\envs\Wan2GP\lib\site-packages\sageattention\attn_qk_int8_block_varlen.py:41:0: error: Failures have been detected while processing an MLIR pass pipeline F:\Anaconda\envs\Wan2GP\lib\site-packages\sageattention\attn_qk_int8_block_varlen.py:41:0: note: Pipeline failed while executing [`TritonGPUAccelerateMatmul` on 'builtin.module' operation]: reproducer generated at `std::errs, please share the reproducer above with Triton project.`
приметил для себя один мааааленький минус lightx2v, при просмотре превьюшки на первом шагу, если всё устраивает, то на втором может всё существенно поменяться, анимации и т.д.. Для тех у кого 10-20 секунд итерация не так критично. Но кто ждёт по минуте и выше, когда увидев превью и уйдя пить чай, в конце получит чуть отдаленный результат. Не трагедия, но мелочь.
Какую программу лучше всего использовать для объединения разных видеофайлов в один? По сути только этот функционал и нужен, так то понятно что всякие вегасы это могут
>>1254423 я пару лет назад юзал Wondershare Filmora, не тяжелая, лёгкая (по крайней мере тогда 2021г). Минимальный фунционал типа переходы, титры есть. Сейчас с приходом ии я хз каккая она.
>>1254394 Вернул обратно и откатил сейдж до 1 версии, вторая на 30 серии нихуя не делает а жрёт как сука, теперь и веса каждую пикчу не грузит и клип фуловый
>>1254329 Брат, там буквально написано, что нужно делать, там нужно единственное мониторить версию python, pytorch и для какой он куды-туды. Вот пот этим 3м вводным можно работать.
Условия для тритона: Triton 3.3 works with PyTorch >= 2.7 . Triton 3.2 works with PyTorch >= 2.6 . Triton 3.1 works with PyTorch >= 2.4 . PyTorch 2.3 and older are not supported.
А сажа тупо качаете whl файл и ставите в среду окружения (На пике) Слева направо версия сажы, версия установленной куды от pytorch, версия python cp312 = python 3.12.* итд
>>1254337 Если сажа не ставится, посмотрите через pip list мб она у вас уже установлена через "pip install сажа", это устанавливает первую версию - удаляйте через pip uninstall и ставьте по новой.
Если вы хотите, чтобы сажа работала глобально, а не только с киджаевскими нодами нужно добавить аргумент запуска в стиле "python main.py --use-sage-attention"
>>1254423 Скачиваешь ffmpeg в папку, создаешь bat файл, в него вписываешь это, скидываешь 2 файла которые надо объединить в папку и запускаешь bat файл
@echo off set "file1=1.mp4" set "file2=2.mp4" set "output=output.mp4"
>>1254423 Если это ролики от генерации - то в самом ComfyUI через ноды для работы с видео. Лучше всего, т.к. в процессе можно в workflow оптимизировать склейку движения между кусками, добавить интерполяцию для фреймрейта, и подчистить цветовую гамму. А в другом случае - программ уже накидали.
>>1254615 Он нормально работает Я не ебу что писать я не машина к сожалению, описал подробно как смог что хочу увидеть и там промпт короче этого раза в 3 вышел
>>1254626 Ебать у тебя шиза, а на каком языке с роботом разговаривать тем более с китайским? Это тебе не литературное произведение, а команды аи. А самое главное что они работают. Я пробовал сделать литературно и результаты были хуже.
У вас есть такое что вай скипает первый кадр и начинает вообще не с того что на картинке? Типа на картинке женщина а у ваи у неё уже хуй во рту на 1 же итерации
>>1254654 Такое может быть с магрефом, особенно если промпт сильно отходит, потому что он юзает пикчу как референс. Ставь дефолт и2в модель если не хочешь чтобы так было
>>1254652 В негативы допиши missing cum, vanishing sperm, vanishing cum
Больше всего со всеми этими ускорялками мне не нравится то что они альтерят лицо и чем оно меньше на исходном изображении тем сильнее изменения и первые несколько кадров смазанные получаются. Вот как пример. 1 видео с детальным описанием персонажа флоренс, 2 - просто с тем что ему надо сделать. 3 видео с метадатой.
>>1254653 Взял флоу другого человека хотя по сути я там особой разницы не заметил, да лор поменьше навалил, а промпт взял от чела который белобрысой постоянно в рот дает и немного переделал.
>>1254659 >Такое может быть с магрефом ааа теперь понятно кто виноват
>>1254678 Цвет менял, но давно на обычном ване без ускорителей прозрачность тоже скорее всего можно менять. Как с ускорялками дела обстоят не знаю, не проверял.
>>1254677 >Зато я не задумываюсь сколько у меня там поинтов для дневной нормы генерации осталось Я с пяти акков (даже не гугл) себе за джве недели сгенерил около 2к видосов. Время генерации одного видоса ночью - 30сек. Мне даже столько не надо, я просто тупо перегоняю все что за джва года инпейнтил/генерил в видео. И потом еще раз перегоню, когда смогут делать больше 6 секунд стабильно. Так же как я 3к калтента с 1,5 через сидиэксель до 6к штук перегнал. Просто как хобби.
>>1254685 Разные сетки, у них разная степень цензуры, у некоторых её вообще нет, как у пики, например по апи. Какие то понимают про хуи и еблю, в каких-то можно имитировать маняврами. Ты же помнишь как в клинге с крестами было. И таких дырок много даже сейчас.
>>1254688 Короче я понял, нихуя нет, максимум высеры уровня тензора, иначе ты бы уже приложил свои шедевры, из 2к видосов уже хоть что-нибудь можно было черрипикнуть
>>1254693 >иначе ты бы уже приложил свои шедевры, из 2к видосов уже хоть что-нибудь можно было черрипикнуть Но зачем? Чтобы получить бан? Ты щас рассуждаешь как чел, кторый не может сгенерить сиську стреляющую молоком. Даже в картинках. Я просто читаю тред и говорю своё мнение. Когда перекроют онлайн халяву, вкачусь на уже всё готовое без вот этой вот ебли.
>>1254699 >Но зачем? Чтобы получить бан? Смешно, тут уже который по счету тред весь в минетах, ничего не удалено и никто не забанен. Просто хотел посмотреть уровень того что там можно сгенерить, ну уже не интересно энивей
У меня с этими ускорялками котик не бежит, а с fusionx вообще в тигра трансформируется. А раньше бегал, но все равно в пределе кадра 3,4.
А вообще есть какой нибудь воркфлоу который довольно динамичный и можно было бы сгенерировать как котик бежит на камеру и мужик следом за ним, а по боками прилавки и камера отдаляется от них?
>>1254715 Это первая версия получается у тебя установлена, которая куда ядра не использует получается. можешь через pip list чекнуть. Мб они конечно в репозиторий положили вторую версию, но чет сомневаюсь.
>>1253489 Вынос мозга. Но интересно. Продолжай, получается всё лучше. Однако середина сильно затянута, почти три минуты ничем не разбавленного песдежа. Вообще самая лучшая стратегия это сделать видео, отложить его дня на четыре, потом посмотреть его посвежевшим взглядом, внести правки и снова отложить. Три таких подхода, и будет очень близко к идеалу. И косяков по монтажу и сюжету будет в разы меньше.
>>1254866 >Подскажите пожалуйста как к дефолтному воркфлоу на вай 2.1 прикрутить сейдж и тритон Вот тебе нативный воркфлоу со всеми бустами, можешь оттуда забрать, бонусом промпт для ценителей прекрасного https://files.catbox.moe/o82gng.json
>>1254729 если честно я с этим питоном на винде не разобрался на линупсе все просто и понятно, а винда это какой-то бесконечный костыль есть смысл перенести все на WSL2? будет работать вообще?
>>1254975 да и вообще, по-хорошему, надо отдельно поставить чтото, а то в игори не поиграть пока генерится - а на сервачке точно линупс. сто лет не ебаался с дровами на видемокарточки на прыщах, как там сейчас с 4090?
>>1254976 Хз как на дебиане и убунте с производными (вроде минта), хотя по отзывам вроде бы тоже неплохо. А меня - манжаро, проблем с поддержкой железа нет вообще. Даже проброс vfio-pci в виртуалку легко настраивается и работает. Динамически, с отключением-подключением карты без перезагрузки, тоже.
>>1254647 Бля как я ору с твоей многократно невыстреливающей спермы. Экспериментатор-кун, это реально проблема lightx2v или конкретно его настройки? Очень скоренько потестил без лор, как будто тоже показалось, что все остальные ускорялки отжили своё.
>>1255137 >Экспериментатор-кун, это реально проблема lightx2v или конкретно его настройки? У меня та же хуйня, сперма не долетает, лол. На flowmatch_distill семплере вроде получше, но там хардкод на 4 степа и качество картинки в целом хуже, еще не подобрал оптимальных настроек (надоело пока)
>>1250359 → Аноны поясните, где взять этот воркфлоу? Почему в треде пишут просто перетянуть видос в comfy, откуда в mp4 возьмется json со всеми данными?
Какое же говно просто. Мало того что для нас все заблокировано и надо через костыли, так ещё и наши кабанчики только и мечтают как придушить весь западный интернет.
По итогу, без вложения пары сотен баксов, что-то нормально сделать не возможно. Veo в принципе отказывается генерировать видео, если там лицо актёра, а есть единственный лайфхак, для нормальной наследственности лица во всех изображения, во всех остальных случаях, с одним промтом лицо отличается, нет индвидуальности.
LДа и вообще, цензруа, анальная цензура. я просто не могу сгенерировать чувака в лесу с факелом. Это пиздец.
Что вообще есть? Kling хуевое качество видео даёт беслпатно, wan может вообще такие приколы выдать, в гугловские хуйни хер пробьешься, так ещё жестко не хочет брать мои пикчи
>>1255225 Да я просто не могу даже попробовать нигде на нормальном качестве, что бы понять, вообще уровень и стоит туда тратить время и деньги, Везде генерации платные сразу, особенно на платформах где можно попробовать разные модели
может нейронка не сможет в мои запросы? например sora и image fx, сильно отличаются по моим запросам. sora конечно картинку высокого разрешения выдает, но без деталей и постоянный перезум,
Kling вообще тупо не умеет в историчность или что не современное, он этого не понимает, image fx тут конечно то же не идеал. Например создать поселение в стиле в древней Руси 111 века, он не может, там либо деревни викингов, либо вообще японские замки сёгуна
>>1255222 >для нормальной наследственности лица во всех изображения По результатам моих эспериментов, в этом отношении лучше всех показал себя Pixverse. Правда это было полгода тому назад, когда я перепробовал всё, то есть действительно всё что только было. Только в pixverse консистентность лица в рамках пяти секунд и при сравнении между собой разных пятисекундных роликов с лицом более или менее отвечала моим, возможно завышенным требованиям.
Вся индустрия сейчас скатилась к высасыванию денег за каждую фичу. хочешь одно лицо, без изменение в разных кадрах? Внезапно рынок может предложить не так много вариантов, я бы даже сказал их нет от корпораций, только flux модели платные на tensor есть хороша одна. HHM FLUX с подпиской про.
Но все остальные, хоть на sd с ip adapterom там не тот уровень.
Как трекать вот такую ебанину, чтобы видео-маску создать? SAM2 параша может или одежду, или мелкие детали трекать, при попытке затрекать обе вещи, оно выделяет всего человека. Или для каждого объекта нужно обязательно делать свой AddPoint? Есть что-то лучше SAM2, с большим контроллем, эти точки какая-то лажа, не знаешь как они сгенерят маску.
>>1255315 Там сейчас драчка смертельная, с весны началась. Сначала китайцы выкатили wan 2.1 и kling с 1.6 дали пососать американцам, были лидерами.
параллельно это Трамп в начале срока начал выделять бабки на ии. и вот недавно гугл выкатил Veo3 и уже дал пососать Китайцам. Подняв планку ещё выше, да может в отдельных анимациях ван лучше, перспективнее даже. но совокупность звука и анимации, дало результат, плюс космический ценник.
С тех Китайцы пока ответа не дали, планку никто не поднимал.
а вот рост закупок железа, мощностей и т.д просто ниебический. даже если сравниить с тем что было года 2 назад( а там был космический отрыв от 19-20 года) То сейчас там совсем аут.
Ну и самое главное полетели уже просто огромные бабки в ии, триллионы баксов. вот Пентагон контракт заключил с open ai.
К сожалению нас там вообще не видно, хоть изначально на эпохи коммерческого зарождения нейронок (2016 +-) наши были во многом лидеры.
например распознавание по лицу нейронкой, готовый коммерческий продукт. findface был у нас и ещё парочка.
но сейчас от наших вообще ничего не видно и не слышно, не удивительно конечно, мощностей нет, для своего развития. если только локальные open source модели модифировать, в принципе можно успешно паразитировать на этом, но пока громких явлений нет.
а сейчас между штатами и Китаем заруба даже не за триллионы, там уже триллионы вложены. Слить их в пустую никто не хочет, а хотят окуп уже сейчас.
нет глобального 3 игрока. Забавно что у Европки что то есть в плане на бумаге, вложение денег и т.д но от России не далеко ушли, а в некоторых сферах даже далеко позади. По хорошему все гейропе надо было совместно с РФ работать, что занять свою 3 часть рынка, встав между Китаем и США Но по отдельности шансов нет, У европейцев даже ещё хуже дела, не смотря на вложения в целом. Это не говорю просто инфраструктурное/энергетическую часть У нас хотя бы есть надежда на паразитирование на локальных open source моделях, которые могут быть значительно переработаны. Буквально вся it индустрия так живёт 30 лет. А у вот европейцев такого опыта нет. Они плотно сидят на американских возможностях.
Я правильно понимаю надо устанавливать какие-то спец лоры на анимешные лица, танцульки и ещё что-то раз стандартная модель у пинокио не тянет? Но я нище настройки выставил - 3 секунды, 24 шага, может в этом дело.
>>1255831 >Походу на винде у меня файл подкачки решал и не крашило а тут его нет Ну так и сам себе злобный буратино. Подкачка - необходимый элемент чтобы такого избежать на пингвине. Файл/раздел подкачки здесь создавать надо всегда. Даже когда кажется, что памяти хоть залейся, и исчерпать ее невозможно. Особенности работы с памятью. Там в двух словах не расскажешь, проще запомнить. А видеогенерация - еще и прожорлива. У меня 64GB рамы. и подкачки стоит еще 32GB - видел до 30GB используемых, на длинных и сложных видео workflow. (Тоже пингвин, да.)
>>1254862 Нахуй ты провоцируешь его выкладывать этот кал? В этом поделии нет ни одного достоинства. Напомнило советские мультики которые делали душевнобольные номенклатурщики, которыми затем пытали бедных детей. Пускай хуи к лицам дорисовывает.
>>1255726 1 магреф с одной лорой Lightx2v с весом 1 2 fusionx с одной лорой Lightx2v с весом 1 Они я так понимаю одновременно и t2v и i2v. В обоих случаях статика, я по 4 прогона делал.
>>1255929 Если только свап не на nvme - это наоборот хорошо. Потому, что редко используемое вытесняется туда заранее, до того как проблема станет критичной. Иначе, когда память закончится - система колом встанет на несколько минут, пока будет свопится. А так - оно конечно фоном свопит, но интерфейс все равно остается живым.
>>1255985 да я хз, галочка стоит, только в превьюшках сохраняет, но у меня там примитив, на 2060 6gb как никак. хотя тут с галкой проебался. со второго видео пнг. Тут я флоуматч тестил. А в первом видео был подключен обычный ксамплер на lcm\beta\4 step + допом к лайту fusionx i2v лора на 0.8. И кажется движа больше.
>>1256029 Ага флоу есть, спасибо. Но ноды flowmatch sigmas нет, и даже хз откуда её взять.
>>1256042 >то самое воркфлоу Не это от другого китайца. А твое не запускается, там проблемы с математикой, не понимаю какого размера надо исходные изображения грузить. У этого китайца автоматические обрезалки под нужный размер и грузить можно квадраты 640х640 вполне подходят.
>>1256220 >flowmatch sigmas я даже честно без понятия, есть ли от нее толк, просто добавлял для проверки. А так можешь обычный бейсик шедулер бету или симпл юзать.
>>1256283 >>flowmatch sigmas >я даже честно без понятия, есть ли от нее толк, Таки есть. У меня тут сейчас workflow на 15 секунд с закольцовкой, из трех частей перетекающих из одной в другую. С этим переходы гораздо лучше получаются без дополнительной мороки с интерполяцией. Т.е. с ним оно точнее следует референсной картинке. Ну и общее качество, субъективно, несколько выше получается.
Вероятно будет лучше с лорами работать чем дефолтный lightx2v, но мне лень тестить
>Yes as I mentioned, that LoRA is Rank 32 and affects more structures (embedding, head etc) inside the model so it tends to play less well with other models and also not be compatible with certain software(e.g. my own for instance). If you use Comfy, your main reason you might try it is it should be more compatible with other LoRA. It's also saved in full precision to maximize it's accuracy per rank(hence it's size) whereas the other is in float16. But it's extracted from the same base model as the "self forcing" one linked. Feel free to use whatever works best for you!
>For Comfy, it's basically the same thing you need an LCM sampler, guidance/cfg = 1.0, flow_shift=8.0 and just load the LoRA like any other! I tested it in Kijai's WanVideoWrapper and it works beautifully!
>>1256361 Вроде и правда лучше лоры работают и качество получше (но возможно мне кажется) 4 шага, семплер lcm, шедулер beta, вес лоры 1. Скорость генерации вроде такая же, как с lightx2v
>>1255928 А тебе жалко что ли? Пусть будет. Или ты тут у нас за всех отвечаешь? Совесть треда.
При том, странным образом, видосы именно того чела - объективно самые сложные в производстве - подвергаются наибольшему облаиванию с твоей стороны. Синдром Герострата или тупо вредность и фрондёрство.
>>1256361 >>1256432 >>1256478 С i2v работает. Проверил. С flow2 (натив старт и стоп картинки) тоже. Юзал lcm + flowmatch sigmas в качестве шедулера. Вес ставил 0.8 т.к. игрался с тюном FusionX, для него рекомендуют уменьшить. Качество такое-же, может чуть лучше чем с lightx2v. Скорость та же. А вот дополнительная лора, вроде бы, лучше цепляется, действительно. И кажется - лучше на промпт реагирует. С lightx2v получалось довольно статично, перс игнорил часть запрошенного. В этой - динамика образовалась, и сделано было все заказное.
Тестилось на 3060 12GB, ~15 секунд закольцованного видео в результате, workflow выполнялся ~16 минут (при этом там интерполяция до 32FPS почти две минуты жрет). Это успех, я считаю.
>>1255836 Про Сиденс уже давно все в курсе. Странно, что его в шапке до сих пор нет. На Дримине, кстати, цензура в нём слабая, в примере первый видос t2v, второй i2v.
>>1256539 Не, не, не. У меня обратная задача. Чтобы три части стыковались и закольцовывались вот без этого всего. Чтоб прямо незаметно было, что оно из кусочков собрано, а не изначально единое видео. Оно конечно на 100% идеально не будет, но тем не менее.
>>1256524 >~15 секунд закольцованного видео в результате, workflow выполнялся ~16 минут..... у тебя это всё одним проходом? если да, поделись.. мне на 2060 потыкать интересно было бы) Но если там киджаевский враппер, то мимо, с ним на 6 гигах на тюринге попаболь.
>>1256220 Ну блин, буквально одно и тоже воркфлоу с разницей в том, как обрезаются картинки.
Фича проста: картинки должны быть одного размера и все. Самостоятельно выбрать размер не так сложно, уже 16+16 сложить можно. Клип вижн энкодер не воспринимает картинки разных размеров, вот и все. =) Такое вот у него забавное свойство. А сами картинки можешь брать любых размеров, лишь бы итоговые (без фона + белая окантовочка) были одинаковые на входе image 1 и image 2 в клип вижн энкодер.
НО! Я все еще жду, чтобы Киджай реализовал реальных механизм формирования контекста для MegRef, как это делается у них. Хочется максимального качества. Все же, просто тыкать картинки это очень грубый подход.
>>1256797 Смотря что считать одним проходом. Если сам процесс рендеринга - то нет конечно, wan в принципе не способен на такую длину, независимо от карты. Просто в одном workflow на основе одного промпта и картинки полностью автоматически рендерится три части по 81 кадр и собирается в единое видео. Плюс финальный кусочек из интерполяции между последним и первым кадрами, т.к. финальная картинка в третьем рендере не совсем идеально повторяет стартовую первую, и чтобы закольцовка получалась плавной - нужны дополнительные меры. Пока еще допиливаю нюансы, закончу - можно и поделиться будет.
>>1256886 Какой-то из оптимизаторов не встал, видимо. Вот скажем, sageattention есть двух видов - первый ставится очень легко но он не дает такого буста как второй. Еще от карты зависит, какой набор ускорялок будет быстрее. У кого-то xformers, у кого-то sdp. Еще от версий cuda и питона с торчем скорость может зависеть.
Для ван рекомендуется cuda 12.8 и torch 2.7.1, вот только они могут ломать другие вещи. У меня на 12.4 и 2.6.0 работает (сам питон venv - 3.10, т.к. на 3.11 и далее FramePack нормально не завелся) - ломать не хочу, т.к. с ними все работает, а не только ван. И скорость вроде бы приемлема для моей карты, выжимать секунды пока не тянет. (С пингвина пишу.)
>>1256922 Я вообще не понимаю этот комфи. У меня с каждой генерацией если они в очереди уменьшается подкачка и рам, т.е на первой генерации 20 рам, съело 15 на обработку а вернуло только 10 и тд.
>>1256906 > sage А второй как ставится? Я поставил как написано на гитхабе, через venv вроде даже загрузка была долгая но до сих пор не уверен что у меня просто не первая версия встала
>>1256922 Пингвин? Если да - сколько раз уже всюду объяснялось: пингвин старается эффективно использовать всю память которую имеет. Если остается что-то свободное после программ - то используется под кеши файловых операций и прочего. Это позволяет не грузить, скажем, модель каждый раз с диска, а вытаскивать ее из кеша в ram - сильно приятнее, когда много раз перезапускаешь прогу подбирая параметры, или делаешь что-то подобное. Своп тоже занимается заранее - это штатное поведение, чтоб не тратить время, когда память действительно понадобится (чтоб система колом не становилась в такой момент). Все это не всегда видно "в лоб", но чем больше памяти - тем работать приятнее. И все это фоном управляется, если программам нужно больше - кеши сокращаются. Занятая память и задействованный своп - это не признак утечки памяти сам по себе. Признак утечки - если оно явно тормозить начинает при этом.
>>1256934 Комфи модели после рабочего цикла не выгружает, пока памяти достаточно. Часть моделей хранится в ram, а не только в vram. Правда не все можно этим объяснить - там еще какие-то плагины/ноды явно сами текут периодически.
>>1256942 Ну так у меня только один воркфлоу, под видосы, 64 рамы и 24 врам должно хватить на всё вообще, хули он сначала такой да всё заебись а потом возьму ка я ещё 5гб рам, и ещё, и ещё, хотя просто луп генераций происходит и нового ничего нет
Короче, это конечно на грани оффтопа, но тем кому реально интересно что у пингвинов с памятью происходит - боле-менее простым языком читайте здесь: https://habr.com/ru/articles/540104/ А то официальные доки на эту тему - это нечто зубодробительное, пополам с вывихом мозга. Разумеется, мало кто в курсе дела.
>>1256906 А проблема теперь на линуксе? На винде в одну строчку ставится, а на лине куда-то удалили билды, или что? Вроде ж раньше наоборот с сажей было.
>>1256999 >А проблема теперь на линуксе? А хрен его знает, где там проблема. Я же не телепат, а конкретики не написано. Просто сказал возможные места.
>>1257024 >Почему не попросил чачгпт объяснить как умственно отсталому клоуну? А мне то зачем? Мне и оригинал понятен. Но не все в теме, а гопота - хреновый ментор. Одно дело - использовать как продвинутый поисковик с последующей фильтрацией и обдумыванием найденного, а другое - простить научить чему-то. Уж LLM научит, да... Вот когда оно научится четко и безошибочно разделять свои фантазии/галлюцинации и реальные факты, и сообщать пользователю где из этого что - вот тогда, может быть. А пока - в реальной работе у него место строго ведомого и под контролем.
>>1256999 Я расскажу тебе до конца дня ответила Жасмин Сначала я должна убедиться что с тобой вс е в порядке А ещё скажу по большому секрету она ждёт ребёнка
>>1256029 Ну вот, котик побежал, на фьюжене даже быстрее. Но у тебя тут сильный лимит, я свои 24 гига почти забил, а выгрузки в оперативу нет. За то флоу без киджаивских нод, я давно такой искал.
>>1257211 братишка не стоит…. вообще не стоит ему доверять это гигабутовый король, он лишь тешит свое чсв закидывая нам воркфлоу который вызывает у нас нехватку памяти…😢
>>1257218 >>1257217 >>1257212 ДЫ пофиг. Как сделать анончики. Ноду добавить в комфи? Добавить папку в библетеку с заменой? А потом просто видос перетащить
Так как 2 сажу на убунту поставить? Я ставил compile from source: и вот эти 3 команды на пике, но напрягло что cd sageattention хотя там надо cd SageAttention может гайд устарел Еще увидел что куда 12.8 это типа тока для блеквелов хорошо, может на 12.4 правда 30хх серия быстрее
>>1257146 > Но у тебя тут сильный лимит, а выгрузки в оперативу нет. я хз, тут всё по дефолту, у меня 6 врама и 32гб рамы, всё забивает. Киджая я еще на старте пробовал, но у него расчет на видяхи из более свежих поколений с сажей и прочей фигней, для меня бесполезной. Как-то так. А котика там можно и лучше заставить бежать, нужно просто промпт пердолить. Ну и молиться на удачный сид.
>>1257197 >обосрался с промптом во, об чем и речь) Не нужно гопоту недооценивать, нужно правильно просить промпт) Ну и за него косяки доделать, ибо там много грфомании и прочей дрисни, бестолковой для модельки.
>>1257768 Магия Comfy. Нет. Просто последовательно грузит - encoder во время самой генерации не нужен. Он только готовит данные до нее. Часть неиспользуемой модели идет нафиг из vram.
>>1257219 Ты не понимаешь. Разница в скорости поистине колоссальна. Если у меня 24-ядерный проц генерил в 100 раз медленнее не самой топовой видяхи, то у тебя старый ноут и в тыщу раз медленнее, а если не повезет с поддержкой технологий, то и больше. 3 секунды видео будешь генерить сутки, а то и неделю. С шансом в любой момент вылететь.
>>1257891 Ну, вообще да. Хотя возможность есть всегда, просто не хочется, чтобы он куда-то копал две недели, чтобы таки запустить и неделю ждать (и вылететь на decode VAE).
Гиперреалистичная, волшебная фотография. Глубокий разрез богатой, чёрной украинской почвы — чернозёма. Видны слои земли. Но в центре, вместо камня или ядра, находится огромное, анатомически совершенное человеческое сердце, светящееся мягким, тёплым светом. Из этого сердца вверх растут крепкие золотые колосья пшеницы и синие васильки, пробиваясь на поверхность к солнечному свету.
потому что мудаки дистрописатели до сих пор по дефолту выставляют vm.swappiness в 60, что означает "по-максимуму ебать своп и вообще забыть о существовании оперативы". решение: >>1255941 >>1256006
>>1257238 > Я ставил compile from source: и вот эти 3 команды на пике так и надо. при запуске комфи смотри в сосноль, если там будет строчка "Using sage attention" - всё ок, если строчки нет - ты что-то делаешь не так. тыж добавил "--use-sage-attention" в строку запуска комфи?
Всё, онлайн генерация официально мертва. Бесплатно пощупать уже нельзя практически нигде, убрали кредиты без подписки почти все. Wan пока оставил одну генерацию в день. но и это ненадолго, дальше видимо будут резать подписки, повышать их стоимость.
Самое плохое в этом, что нельзя теперь физически даже в демо попробовать пару генерации, для сравнения генераций. Ведь все модели, очень сильно по разному справляются с разными задачами, некоторые тупо не могут в определённые стили и т.д
>>1258651 >потому что мудаки дистрописатели до сих пор по дефолту выставляют vm.swappiness в 60, что означает "по-максимуму ебать своп и вообще забыть о существовании оперативы". Угу, один ты - д'Артаньян. Не допускаешь мысли, что раз все это делают - возможно в этом есть какой-то смысл? Выше по треду - линк на то, как пингвин с памятью работает. Это, блин, не сообщающиеся сосуды с переливающимися данными, чтобы от свопа бегать. Натвикают себе подобного - а потом жалуются, что система тормозит и колом становится на несколько минут, или приложения с oom прибиваются, хотя память вроде как еще есть.
хабр в своём репертуаре. там сидят люди, нихуя не шарящие, и пишут статьи с фейк ньюс. для хлебушков поясню: swappiness=0 НЕ выключает своп. читайте нормальную документацию, а не нейровысеры с хабра.
>>1258768 >хабр в своём репертуаре. там сидят люди, нихуя не шарящие, и пишут статьи с фейк ньюс. >для хлебушков поясню: swappiness=0 НЕ выключает своп. У автора там, конечно, формулировки страдают (потому я сам вторую часть и не кидал сюда), но если удосужитесь прочитать полностью, не бросая на первых строчках - будет видно, что имелось в виду. Он там сначала проверял что будет если просто задавить механизм свопинга. А потом - и с настоящим отключением, через swapoff.
>>1258768 >читайте нормальную документацию, а не нейровысеры с хабра. Дату публикации гляньте. "Нейровысеры", блин. В прочем, про документацию - согласен. Если есть способность ее осилить, первоисточник лучше. А это вроде научпопа, хоть общее представление о вопросе даст.
на подавляющем большинстве моих серверов уже много лет $ free -m|grep wap Swap: 0 0 0 и не используется zram, потому что > > 2 фев 2021 в 22:29 даже тогда оператива стоила ссаные копейки и никакой своп был не нужен. сейчас из-за хайпа DDR4 она внезапно подорожала, но всё равно не настолько дорогая, чтобы терпеть тормоза из-за свопа. использование свопа оправдано тогда и только тогда, когда > у вас бюджетная система с 8 … 16ГБ оперативной памяти (не говоря уж об ультрабюджетных ноутбуках с распаянными и нерасширяемыми 4GB
>>1258854 >В общем эти простыни вместо промпта пиздец костыль буду ждать какую нибудь боору где соберут миллион видосов и простые теги под них Ты больной?
>>1259002 Исследования показывают, что активное использование матерной лексики является ранним маркером дегенеративных изменений в лобной доле головного мозга, отвечающей за самоконтроль и социальное поведение. Неспособность подобрать адекватные литературные выражения и замена их матерными конструкциями свидетельствует о начинающемся когнитивном упадке и сужении активного словарного запаса, что характерно для первой стадии деменции. При этом парадоксально, что чем чаще человек использует нецензурную лексику в повседневной речи, тем быстрее прогрессирует атрофия участков мозга, ответственных за речевые функции и социальный интеллект, создавая порочный круг ускоренной деградации.
Почитал статью с чатгпт, и че, эта ускорялка MagCache - просто хуйнюшка которая пропускает шаги и вместо них вычитает шум с предыдущего шага? Причем по заранее рассчитанному планировщику для конкретной модели, вообще без сложного кода.
>>1259053 Пиздец, вот это прорыв в науке, да? Тупо берут и пропускают шаги диффузии, как последние мрази. Типа похуй на всю математику, давайте просто возьмем шум из прошлого шага и сделаем вид что так и надо. И самое мерзкое что эта хуета реально работает. Все эти годы исследований, оптимизаций, улучшений - можно было просто забить и пропускать шаги по заранее прописанному плану. Они даже не пытаются это скрыть, типа "да, мы просто берем и пропускаем вычисления где можно". Никакого стыда. Никакого уважения к науке. Просто тупой костыль для нищебродов которым лень писать нормальный код.
Пощадите меня. Просто дайте комбинацию. Хули всего так много. Я вот сейчас юзаю lightx и изначальный causvid на 0.5, когда лайт не справляется. А accvid? Попробовал на вашей комбинации, да и посмотрел видео, у вас там конча не выстреливает немного. Нахуя он тогда? А как юзать causvid v1.5 и v2 и нужен ли он? >>1259053 Чем это отличается от TeaCache и какой-то второй хуйни, что-то про first block? И че каво вообще кеширование сейчас, если во всю юзается дистилляция?
>>1259118 >Чем это отличается от TeaCache Как я понял, там кривую для планировщика пытались построить анализируя сходства временных эмбедингов, типа если они сильно похожи для двух шагов, то один из них можно пропустить. А так суть та же. >И че каво вообще кеширование сейчас, если во всю юзается дистилляция? Так тут модель не меняется, а дистиллят это другая модель, зачастую всратая.
>>1256797 >>1256864 >>1256884 Ловите. Закольцовка получается, в основном, не полностью идеальная, зато автоматическая. Длина финального видео получается ~15 секунд, рендерится на 3060 12GB примерно за 14-20 минут у меня - зависит от размера исходной картинки и были ли уже загружены модели (т.е. это первый или повторный рендер). Там внутри заметки - часть моих, а часть еще автора исходного workflow (брал его за основу т.к. там была показана нода компиляции, что, по идее - дает еще немного буста). Не добавлял апскейл, т.к. на такой длине это будет довольно долго. Но в принципе - ничего сложного, можно добавить.
>>1259713 Ебанутый. Если вылазит за намеченные пределы, останавливай нахуй генерацию. У тебя не видеокарта медленная, ты настроил неправильно или рама не хватает.
>>1259647 хули ты псина разгавкалась? Очеидно, что за такими девайсами будущее, никто не будет делать видяхи с 32-я гигами интегрированными в чиплет. Амуда уже пыталась в такое, и стоило такое как самолёт. Я не думаю, что эта хуета стоит копейки, но наверняка гораздо девевле монстрюг за полляма, к тому-же легко масштабируется покупкой нескольких штук, шина вего: 8х Другого пути просто нет. И да, иди нахуй, пидар
Анонасы, если кто знает подскажите, где можно арендовать раб. станцию, чтобы локально поиграться с локальными моделями и не только? если ли какие варианты с анонимностью и безопасностью, чтобы мою анальную генерацию не слили?
>>1260419 Я в целом камбекнул обратно на каусвид + акквид если надо кол-во спермы увеличить, не нравится мне как он с лорами работает, в целом иногда за 5 шагов можно получить хороший результат но слишком уж дохуя черрипикать нужно. Лучше уж 8-9 шагов но стабильно
>>1260844 Там охуеешь сколько настроек, комбинаций и возможностей как можно словить ошибку. Ну, блоксвап въеби в 40, везде offload device и force offload, разрешение какое-то мелкое вроде 64x64, 5 кадров, 1 шаг. И посмотри, если влезет, то повышай. Если нет, то покупай рам хотя бы. На 480p 16 врам и 64 рам может не хватать, а ты про 32 спрашиваешь. Но в то же время можно запустить и на более слабых устройствах через гуфы и прочие штуки, в которые не приходилось вникать.
>>1260761 Ебучий рот, это мощней чем сальто в воду на wan... Оно забавно так скатывает их с последних ступенек, так плавно, будто это велосипед. В реальности, ни одного подобного видео не видел. Скорей всего, ты сразу полетишь ебалом вниз, если зацепишься хотя бы за одну ступеньку. >>1260805 >Это не нейронка, дебс. Там чел фликает кик, а борд улетает в какой-то непонятный прешур дабл хилфлип. Если оно прям трюками промтится, это ебейший разъеб. Очень стильно выглядит. Скорей всего черрипики с сотен результатов.
>>1260866 >корей всего черрипики с сотен результатов. Это не нейронка, потому что смотри не на кики, а на бэкграунд. К тому же фейкер специально шума кинул, в первых же кадрах, чтоб "не палиться" и спалился с этой же тупизны.
>>1260810 >Сейчас походу Походу даже близко не сейчас. Нейронки только игроделы юзают, так как там в коде и тексте сложно что-то доказать. Помнишь акульи фильмы с сайфая? Погугли, некоторые из них снимали за 1 день, то есть просто поехали с телочками на яхте покататься и в перерывах между еблей сняли фильмец, вставив по фильму 20 секунд цыгая с акулами (буквально). 5 секунд акулы/чудища - нейронка уже может выдержать. То есть, если бы кто-то не срался их юзать (а это строго визуал, тут уже не отвертишься, и договор с тебя тряхнут, всё по взрослому) - они бы уже за год (!) почти прошедший высрали 100 таких фильмов, а холмарк бы дристал вместо валентинов контактами третьего урода. Но ты их видишь? И я их не вижу. Это потому что их нихуя нет. Так как в правовом плане нейронки использовать в открытую - это полнейший зашквар, никаких норм нет, и пока они не появятся - никто их из мелюзги использовать не будет. А этот говнодел уж точно не юпитер, а ебаный в жопу бык.
Подключился Есть ли шансы вкатиться с 3060ti на 8 гб и 32 оперативы ddr5? 480р на 3 сек тоже пойдет. Какие шансы? Интересует время генерации со всеми возможными ускорителями +- сохраняя качество
>>1261177 >>1261185 Если еще посмотреть на людей идущих по улице впереди то видно как их шаги не соотносятся со скоростью их перемещения, они как будто-бы плывут или изображают обратного Майкла Джексона.
>>1261043 кароче с лайтом на 40060881 в среднем 5-6 минут на 4 шага, плюс-минус 60-70 секунд итерация, плюс загрузки и tiled vae.. t2v.. Если i2v то там тоже можно уложиться в 5-6 минут на 4 шага, но зависит от того как картинку порежешь. Модельки либо кванты 4км или 8_0, в скорости нет разницы, разница только во времени загрузки-выгрузке. Всё это или обычная стоковая или фьюжн с поверх подрубленным лайтом.
>>1261194 Очень плохо. В Контекст макс с сайта, кстати, я тоже вчера полдня дрочился, там залочено физическое взаимодействие между персонажами. Осьминог отдлельно, тянка отдельно. Хотя в той же дерьмине восьминог мог тянку в бараний рог скрутить. И даже у жопочата она может верхом на щупальце сидеть. Так что с этими препромптами и анальщиной копро-моделей сложносказать это косяк модели или подсирают костыли. Ван, например, с промпта даже старшную, но пизду рисует.
Анонче, решил юзнуть FusionX + lightx2v, как выше написали. Взял gguf модель, в воркфлоу ничо не менял (юзаю gguf модель wan 2.1). Т.е. просто изменил модель. И чет всратое качество получается. Какие-то спец настройки нужны для этой модели или ноды?
>>1262483 >>1262544 >Пофиксить как понял нельзя. Подключи вот эти лоры, они вместе дают такой же эффект как и фюжн, только без изменения лица. На самом деле фюжн и есть тупо микс вот этих лор с другими лорами (среди которых и лора на стиль, которая и проебывает все лица).
>>1262985 В треде были, чо-то там по 2 или 4 минуты генерация, что ли. Вроде можно попробовать.
>>1263010 Если тебе idle анимация, то фреймпак 2 минуты делает консистентно. Но обучался на глянцевых видосах, шумы сразу уберет. И анимация небогатая. Зато в меру быстро и долго.
Итак, что лучше подойдет для первого освоения темы генерацией образного камшота на 3сек в 480? Хунян или Ван курить лучше? Модели с цензурой явно на попозже можно отложить как огрызки. Пробовал онлайн, интересно насколько долго домашняя печка будет запекать
>>1263140 Так о стоимости речи нет, хоть чему то научусь в свободное время генерации камшотов мда разберусь в терминах. Это интереснее чем болванов по экрану гонять 24/7
>>1263010 пока что технические ограничения, да и чисто киношно больше не нужно, открой любой фильм или сериал, посчитай сколько секунд длится каждая сцена, за исключением моментов, когда морда лица крупным планом двигает губами https://youtu.be/DjUi-P4gm6k из этого же фильма за противоположный пример можно взять одну из самых известных непрерывных сцен, вот к такому должны стремиться модели генерации https://youtu.be/pfJx04mWMMY
а продлять однотипные движения ебли проще простого, для кума лучше добавить звука
>>1262395 Кстати, он инсценировал свою смерть. Потому что его пригласили в Шамбалу, которая находится в бункерах где-то в толще Тибетских гор. Сейчас ему дали вечную молодость и наложниц. Иногда он тайно приезжает на личном бронепоезде в Россию, чтобы навестить родственников в обстановке повышенной секретности.