Анон, давай обсудим генерацию видео не по промпту или изображению, а по видео образцу. Будем честны, движения персонажей в обычном АИ-видео часто очень далеки от совершенства. Даже генерации с начальным + конечным кадром не особо помогают, так как смысл движения лежит где-то посредине между ними.
Так почему бы не брать готовые видео из фильмов/вебм + видео или изображения персонажей и просто вписывать новых персонажей в старое видео? Многие последние модели это умеют. Точно знаю что WAN 2.6 может. Только вот, хули это так неудобно делать? Надо накатывать ComfyUI у себя на компе и потом через их API блять еще платить за доступ к их модели. Это не только дорого, но и совершенно неудобно. Ну нахуя мне ComfyUI на ноутбуке без видеокарты?