比如改变人的发型时把背景弄乱,
加胡子时影响到头发,甚至整张脸都不太像是同一个人了:
这个有了注意力机制的新模型,修改图像时清清爽爽,完全不会对目标区域之外产生任何影响。
具体怎么实现。
引入注意力图
此模型名叫 FEAT,它是在 StyleGAN 生成器的基础上,引入注意力机制。
为了只对目标区域进行修改,FEAT 在此引入了注意图,将源潜码获得的特征与移位潜码的特征进行融合。
首先,给定一张具有 n 个特征的图像如上图所示,浅蓝色代表特征,黄色部分标记通道数量然后在文字提示的指导下,为所有能预测相应偏置的样式代码生成映射器
其中,注意力模块的架构如下:左侧是用于特征提取的 StyleGAN2 生成器,右为用于制作注意图的 Attention Network。
不修改目标区域之外的图像
在实验对比环节中,研究人员首先将 FEAT 与最近提出的两种基于文本的操作模型进行比较:TediGAN 和 StyleCLIP其中 TediGAN 将图像和文本都编码到 StyleGAN 潜空间中,StyleCLIP 则实现了三种将 CLIP 与 StyleGAN 相结合的技术
可以看到,FEAT 实现了对面部的精确控制,没有对目标区域以外的地方产生任何影响而 TediGAN 不仅没有对发型改变成功,还把肤色变暗了在第二组对表情的改变中,又把性别给改了
StyleCLIP 整体效果比 TediGAN 好很多,但代价是变得凌乱的背景接着将 FEAT 与 InterFaceGAN 和 StyleFlow 进行比较
一作侯贤旭来自深圳大学。
他本科和硕士毕业于中国矿业大学地理学和地质学专业,博士毕业于诺丁汉大学计算机科学专业,主要研究方向为计算机视觉和深度学习。
论文地址:
。声明:本网转发此文章,旨在为读者提供更多信息资讯,所涉内容不构成投资、消费建议。文章事实如有疑问,请与有关方核实,文章观点非本网观点,仅供读者参考。