如何复现百度飞桨PaddlePaddle的Fewshot Video to Video Synthesis论文中的视频到视频合成技术?
- 内容介绍
- 文章标签
- 相关推荐
本文共计216个文字,预计阅读时间需要1分钟。
论文链接:https://aistudio.baidu.com/aistudio/education/group/info/1340主要工作:与先前vid2vid相比,vid2vid针对视+文复现课程链接进行了优化。
论文复现课程链接:aistudio.baidu.com/aistudio/education/group/info/1340主要工作
和之前vid2vid比较,vid2vid对于视频的合成需要对应比较人物的训练数据,同时一个目标人物的生成就需要单独训练一个模型,而few shot vid2vid 只需要少量样本,甚至是一张图片就可以使用一个模型生成为未见过的目标人物视频。如图像1所示:图1 vid2vid(左) 和 few-shot vid2vid(右) 比较效果
引言
现有vid2vid不足:
1、需要大量的数据进行训练2、泛化性能弱:一般一个模型只能对应的合成一个目标数据的视频
Few-shot vid2vid
本文共计216个文字,预计阅读时间需要1分钟。
论文链接:https://aistudio.baidu.com/aistudio/education/group/info/1340主要工作:与先前vid2vid相比,vid2vid针对视+文复现课程链接进行了优化。
论文复现课程链接:aistudio.baidu.com/aistudio/education/group/info/1340主要工作
和之前vid2vid比较,vid2vid对于视频的合成需要对应比较人物的训练数据,同时一个目标人物的生成就需要单独训练一个模型,而few shot vid2vid 只需要少量样本,甚至是一张图片就可以使用一个模型生成为未见过的目标人物视频。如图像1所示:图1 vid2vid(左) 和 few-shot vid2vid(右) 比较效果
引言
现有vid2vid不足:
1、需要大量的数据进行训练2、泛化性能弱:一般一个模型只能对应的合成一个目标数据的视频

