给定内容图像和风格图像作为输入,风格迁移模型会自动地将内容图像的风格、纹理特征变换为风格图像的类型,同时保证图像的内容特征不变 本模型将视觉注意力与图像风格迁移任务结合,通过在编解码器网络中增加自注意力模块、多笔触融合模块和风格交换模块,实现了多笔触渲染控制,保证了风格迁移前后的注意力一致性 使用方式: 使用范围: 目标场景: 本模型基于tesorflow进行训练和推理,在ModelScope框架上,提供输入的内容图片和相应风格图片,即可以通过简单的Pipelie调用来使用风格迁移模型 无需进行预处理。 模型在自建风格迁移测试数据集上(150张图)测试并进行用户调研,与AdaIN,WCT,Avatar-Net算法相比,本算法在风格化效果和内容保真度两个维度上均第一。 如果你觉得这个该模型对有所帮助,请考虑引用下面的相关的论文:风格迁移介绍
项目主页
模型描述
期望模型使用方式以及适用范围
如何使用
代码范例
import cv2
from modelscope.pipelies import pipelie
from modelscope.utils.costat import Tasks
from modelscope.outputs import OutputKeys
cotet_img = 'https://modelscope.oss-c-beijig.aliyucs.com/demo/image-style-trasfer/style_trasfer_cotet.jpg'
style_img = 'https://modelscope.oss-c-beijig.aliyucs.com/demo/image-style-trasfer/style_trasfer_style.jpg'
style_trasfer = pipelie(Tasks.image_style_trasfer, model_id='damo/cv_aams_style-trasfer_damo')
result = style_trasfer(dict(cotet = cotet_img, style = style_img))
cv2.imwrite('result.pg', result[OutputKeys.OUTPUT_IMG])
模型局限性以及可能的偏差
训练数据介绍
模型训练流程
预处理
数据评估及结果
Method
Stylizatio Effects
Faithful to Cotet
AdaIN
0.17
0.29
WCT
0.29
0.2
Avatar-Net
0.2
0.08
Ours
引用
@iproceedigs{yao2019attetio,
title={Attetio-aware multi-stroke style trasfer},
author={Yao, Yua ad Re, Jiaqiag ad Xie, Xuasog ad Liu, Weidog ad Liu, Yog-Ji ad Wag, Ju},
booktitle={Proceedigs of the IEEE/CVF Coferece o Computer Visio ad Patter Recogitio},
pages={1467--1475},
year={2019}
}
点击空白处退出提示
评论