deepfakes/faceswap gui详细使用教程(Convert/转换篇)

in Archives with 0 comment

前面,我们已经介绍了deepfakes/faceswap Extract模块和Train模块的使用,下面就让我们来进行最终的Convert/转换吧!

Convert准备工作

在进行Convert之前,请确保我们已经有了以下所有的素材:

原始图片/视频素材及其对齐文件:

如果需要转换的素材A和用于训练的素材A相同,那么我们可以直接使用用于训练的素材A的对齐文件,如果需要转换一个新的素材,那么需要按照Extract/提取教程进行提取,得到对齐文件。

输出目录:

我们可以新建一个名为“output”的文件夹用于存储转换结果

Convert参数设置

faceswap convert模块参数设置.jpg

主要参数设置

Input Dir:这里选择需要转换的视频或者图片文件夹;

Output Dir:这里选择刚刚我们新建的“output”文件夹;

Alignments:这里选择由“Input Dir”里的素材源进行Extract得到的对齐文件(非必须,但很重要);

Model Dir:这里选择我们之前通过Train模块训练好的模型文件夹;

Mask Type:这里选择我们之前在Extract教程中推荐过的“Vgg-Obstructed”;

其他参数按照默认即可,或者根据需要进行调整。

其他参数说明

Reference Video:把图片转换为视频时的参考视频,一般用不到;

Input Aligned Dir、NFilter、Filter、Ref Threshold:一些过滤条件,一般用不到;

Color Adjustment:默认的Avg-Color可以取得不错的效果,有特殊需求可以尝试其他选项;

Scaling:可以选择将转换结果锐化处理,可以在顶部菜单的Convert模块参数设置中进一步配置;

Writer:Opencv的效率较高,但支持的格式和可配置性不及Ffmpeg,如果是转换视频还是选择Ffmpeg吧;

Jobs:线程数限制,0为不限制,使用最大线程;

Gpus:GPU用户才会显示,faceswap支持sli,但一般我们用不到;

Trainer:当使用旧版faceswap训练的模型时,这里可以选择训练使用的插件,用于解决兼容性问题,新版无需进行设置;

Allow Growth:前面已经介绍过多次,tensorflow的一个节省显存的配置参数,当显存不足导致cndNN无法正常启动时需要开启它;

On The Fly:前面我们介绍过对齐文件不是必须的,如果我们不设置“Alignments”对齐文件,则需要开启“On The Fly”;

Swap Model:faceswap默认将B的脸转换到A上,开启“Swap Model”后,则反过来,将A的脸转换到B上,效果一般,有些训练插件甚至不支持这么做,不建议使用;

SingleProcess:开启后,禁用多线程,降低CPU和内存资源消耗,但效率也更低;

Output Scale:输出的像素尺寸缩放,100%代表保持源素材的像素尺寸;

Frame Ranges、Keep Unchanged:通过帧ID范围来过滤不进行转换的视频帧或图片(图片文件名要以帧ID作为后缀),当开启Keep Unchanged后,上述不进行转换的视频帧或图片将得以保留,否则将被丢弃;

执行Convert/转换

配置完上述参数以后,点击最下方的“Convert”按钮,faceswap将开始人脸转换。

下图为训练模型Loss值为0.04时的单张图片转换效果演示:

trump原图.jpeg
faceswap convert效果演示.jpg

更多相关教程:

deepfakes/faceswap gui详细使用教程(Extract/提取篇)

deepfakes/faceswap gui详细使用教程(Training/训练篇)

Comments are closed.