并使用那么些模型来拓展图纸风格转换,腾讯AI实验室授权转发

1. 前言

  图片风格转换最早进入人们的视野,臆想就是Prisma那款来自俄联邦的网红App。他利用神经网络(多层卷积神经网络)将图纸转换成为一定风格艺术照片。利用图片风格转换算法,我们得以将一个图片放入以及练习好的神经网络模型举行前瞻结果获得风格迥异,独具特色的图形。随着iOS11苹果推出了CoreML,大家得以很自在将陶冶好的这个风格转换模型转换成为苹果的CoreML
Model,并拔取那个模型来开展图纸风格转换。

图片风格转换 @Prisma

本次作者主要对基于tensorflow框架的代码举行精晓分析:
《A Neural Algorithm of Artistic
Style》

《Perceptual Losses for Real-Time Style Transfer and
Super-Resolution》

《Texture Networks: Feed-forward Synthesis of Textures and Stylized
Images》

2. 图形风格转换算法介绍

  二〇一五年,德意志数学家 Gatys等人公布一篇名为《A Neural Algorithm of
Artistic
Style》的舆论,打开了神经互连网在图像艺术创作的大门。小编选用VGG16模子对一张原图(Content
Image)和一张风格图(Style
Image)分别开展图像特征提取。通过动用对二种特色构造损失函数,对一张伊始化图片举行损失值总括并报告重绘图像获得生成图(Generated
Image)。不过这一个算法每趟生成一张图片都急需举办五遍网络练习,必要消耗的年华相比较长。德克萨斯香槟分校高校的Johnson[6]等人提议了飞速风格转移算法,磨练一个互联网,对于自由一张图纸都可以变换成为互连网对应的风格。快速转换算法包蕴五个网络。一个为图片转换网络(Image
Transform Network),一个为损失互连网(Loss
Network)。在教练阶段接纳大批量图纸用三个网络展开磨练取得模型,在出口阶段套用模型将结果开展输出获得生成图。他们查获的互连网相对Gatys的模子拿到生成图的进度快上三个数据级。我们在诺基亚上开展图片风格转换的时候可以应用Johnson的法门急迅的生成风格图片,当然使用Gatys的章程也是可以的,不过在生成图片的时候会费用更加多的时候。

连忙风格迁移算法

  上图即是飞速风格迁移算法的共同体布局图,该算法包罗图片转换网络和损失总计互连网。其中图片转换网络是一个多层卷积神经网络,它将一张输入的原来图片转换成为一张生成图片。损失总括互联网是一个VGG-16网络,用于统计图片转换互联网生成图片对于我们输入的风格图和原图之间的损失大小。通过测算生成图与原图的始末损失以及生成图与风格图的风格损失大小来判断生成图的质料。通过不停一个钱打二十四个结来压缩损失,反向传播到图片转换网络并对其展开优化,最后收获合格的图纸风格转换模型。而这一个模型就可以被我们不住用来进展图纸到具体某一风格的转换。

图片 1

==================读书笔记=======================
作风转移,输出的图片C = A(content) +
B(style),就是将图片B的作风转移到图片C中,同时保留图片A的始末。那看起来像是PS就能完结的意义,直接将七个图层叠加融合即可。但其实不然,保留图片A的情节是颇具CNN网络都足以兑现的,但style是尤为抽象的特性(直观上来看),是不是足以经过更深层的卷积互联网就能得到style的feature,那是一个值得商量的题材。(当然,小编曾经帮大家证实了这些答案,TUT)
从而说,那是一项非常有趣的办事,应该跟以前红极一时的prisma软件的劳作规律大约。

3. CoreML介绍

  CoreML 是 Apple 今年 WWDC
新生产面向开发者的机械学习框架。假设我们有一个MLModel我们可以简单的使用Model举办结果的推断,所有的MLModel都会有以下结构。

MLModel结构

  一般一个MLModel文件会包罗MLInput,MLModel,MLOutput三局地,我们将数据封装成为Input并交付给MLModel,模型会进展结果臆度并出口预测结果Output,大家再将估摸的结果转换成为大家须要的数据类型。

腾讯AI Lab微信公众号明天发表了其首先条音信,揭橥腾讯AI
Lab多篇诗歌入选即将开幕的CVPR、ACL及ICML等一级会议。

作风转移的三种格局

  1. 依照图片迭代的描述性神经网络
    这一方法会从随机噪声起初,通过反向传播迭代创新(尚未清楚的)风格化图像。图像迭代的目的是最小化总损失,那样风格化后的图像就能而且将内容图像的内容与作风图像的风骨匹配起来。
    内需指定输入图片与风格图片,然后进行丰富多的迭代才能有比较好的成效,每两遍运行都是重新训练一个模子,且不得复用。
    诗歌中还提及,现有的描述性神经互连网首要基于最大均值差(MMD)和基于Marco夫随机场(MRF)二种方法来做。作者数学不太好,对那三种办法并不是很领会,但个人感觉应该是用来描写输出图片与内容图片、风格图片之间分布差别的章程
  2. 基于模型迭代的生成式神经互联网
    那种方法更像是为了化解“基于图片迭代的描述性神经网络”在作风转移中效能过低而存在的,也被成为“火速”神经风格迁移,首要解决了前者的测算速度和测算本金难点。
    骨干是先陶冶保存一些用户常用的“风格”参数。用户输入须求更换风格的图样A到网络中,再指定互连网调用B风格的参数,输出的图片C其实只是网络最终一层的出口,中间不会涉及过多的参数调整及优化。
    与第一种艺术比较,基于模型迭代的生成式神经互连网更像是一个互联网的“test”部分,其只是出口结果,做一些参数的调整,但优劣性不予保障;基于图片迭代的描述性神经互连网就是一个互连网的“train”部分,其急需展开数次的权重调整及优化,才能使得伊始化的噪声图片有比较好的输出。

两种办法各有优劣,应用场景也是不一致的:
先是种格局根据随便风格图片转换任意图片,甚至可以举办各种品格的长短不一(只要输入多张图片作为风格list);但速度是个硬伤,实验室Tesla
K80
的GPU,居然花了40min才成就一张图片1000次的迭代。适用于用户愿意等待,且服务器有很强的乘除能力能应付七个用户的现身操作。
其次种格局则是考虑了频率,输出一张效果不错的图样,只花了不到10s;但却失去了灵活性,用户只可以从现有的“滤镜”(模型)中改换自己的图纸。这更适用于客户端离线转换。


4. 代码完毕

  CoreML对图片的拍卖都需求将图片转换成为CVPixelBufferRef多少,那里提供一段UIImageCVPixelBufferRef的代码。

CVPixelBufferRef转换代码

  将图纸转换成为CVPixelBufferRef以后放入模型进行拍卖生成Output并收获结果,结果也是一个CVPixelBufferRef的数据。

Output

  所以那里咱们还须求将CVPixelBufferRef转回去UIImage,具体的落成代码如下:

image.png

愈来愈多具体的代码见项目。

在AI科学技术大本营公众号会话中输入“腾讯”,打包下载腾讯AI
Lab入选CVPR、ACL及ICML的舆论。

依照图片迭代的源码解析code

5. 细节优化

腾讯AI实验室授权转载

总体思路

图片 2

源码架构.png

  1. 共用一个卷积互连网(VGG-19),但上边示意图呈现的是对作风图片的“style”特征举办领取,下方示意图突显的是对情节图片的“content”进行提取;那里有一个很有趣的题材,同一个互联网,为何能促成对作风图片的“style”特征提取,又能领取内容图片的“content”特征?
    答案是差别的layer。CNN网络的优势在于差距的layer有例外的含义,使用更高层的layer在理论上得以表明更抽象的表征,具体选择哪一层的性状表明,前面会再开展辨析。
  2. 轻易开头化一张噪声图片x,与内容图片p和品格图片a三者同时输入互连网中陶冶,定义总的损失函数是有关x的非线性函数。目的是使x在内容上与p相近,在风格上与a相近。怎么落实?
    概念总的损失函数是关于x的,Total_loss = centent_loss + style_loss
    ;将那一个loss最小化,利用梯度下跌的艺术,就能促成这么些指标。
5.1 合成图生效能应转换

奇迹大家会认为合成图片的职能并不如意,如上面的示范图1跟2,大家得以看到2一度跟1差别万分的大了,一定水平上我会觉得风格过度了。这一个时候我们得以由此调整合成图的出力来换取全部构图的完整性,比如说图3的风骨唯有50%。大家得以阅览图3成像会越加切实而又有新鲜风味。其它还足以由此调整相比度,颜色饱和度来调动构图,那里就需求依照图片消耗更加多的光阴了。

示例图 @Fzliu

1. CVPR

IEEE Conference on Computer Vision and Pattern Recognition

IEEE国际总结机视觉与情势识别会议

一月21日 – 26日 | 美利坚联邦合众国斯里兰卡

CVPR是近十年来统计机视觉领域全世界最有影响力、内容最健全的头号学术会议,由全球最大的非营利性专业技巧学会IEEE(电气和电子工程师协会)主办。2017谷歌(Google)学术目标(谷歌(Google)Scholar)按诗歌引用率排行,
CVPR位列总结机视觉领域非凡。今年CVPR审核了2620篇小说,最后选定783篇,录取率29%,口头报告录取率仅2.65%。

腾讯AI
Lab计算机视觉首席营业官刘威硕士介绍到,“CVPR的口头报告一般是当年超越的啄磨课题,在科学界和工业界都震慑很大,每年都集齐如佐治亚教堂山分校高校和谷歌(谷歌(Google))等天下最盛名大学和科学技术集团。”

腾讯AI Lab六篇随想入选CVPR

论文一:Real Time Neural Style Transfer for Videos

正文用深度前向卷积神经互连网探索摄像艺术风格的飞跃迁移,提议了一种全新两帧协同陶冶体制,能保持视频时域一致性并消除闪烁跳动瑕疵,确保视频风格迁移实时、高质、高效达成。

* 此小说后附详细解析

论文二:WSISA: Making Survival Prediction from Whole Slide
Histopathological Images

舆论首次提出一种全尺寸、无标注、基于病理图片的患者生存有效预测方法WSISA,在肺癌和脑癌两类癌症的七个不等数据库上品质均高于基于小块图像形式,有力接济大数量时代的精准个性化诊疗。

论文三:SCA-CNN: Spatial and Channel-wise Attention in Convolutional
Networks for Image Captioning

针对图像描述生成任务,SCA-CNN基于卷积互联网的多层特征来动态变化文书描述,进而建模文本生成进度中空间及通道上的注意力模型。

论文四:Deep Self-Taught Learning for Weakly Supervised Object
Localization

本文提议依靠检测器自身不断创新训练样本质量,不断拉长检测器品质的一种崭新方法,破解弱监督对象检测难点中练习样本质量低的瓶颈。

论文五:Diverse Image Annotation

本文提出了一种新的自行图像标注目的,即用少量种种性标签表达尽量多的图像音信,该目的丰裕利用标签之间的语义关系,使得自动标注结果与人类标注越发类似。

论文六:Exploiting Symmetry and/or Manhattan Properties for 3D Object
Structure Estimation from Single and Multiple Images

据悉曼哈顿结构与对称音讯,文中提出了单张图像三维重建及多张图像Structure
from Motion三维重建的新章程。

CVPR重点诗歌解析

CVPR选中的六篇小说,大家将重点分析《视频的实时神经风格迁移》(Real-提姆e
Neural Style Transfer for Videos)[1]那篇颇具创新的文章。

在过去很长一段时间内,业界流行的图像滤镜寻常只是对全局颜色属性的调动,比如亮度、色相、饱和度等。在2016年的CVPR,Gatys等人[2]首创性地提议将深度神经互联网应用于图像的艺术风格迁移,使得输入图像可以模拟如梵高的星空、莫奈的日出印象等其他项目标艺术风格,效果惊艳。

Gatys等人工作尽管获得了老大好的意义,但是缺点是基于优化,极度耗时;到2016
ECCV时,Johnson等人[3]提出了利用深度前向神经网络替代优化进程,落成了实时的图像风格迁移,修图工具Prisma随之风靡一时。但直接将图像风格迁移的方法运用到摄像上,却会使得本来连贯的摄像内容在差距帧中转化为不雷同的风骨,造成视频的闪耀跳动,严重影响观感体验。为驾驭决闪烁难题,Ruder等人[4]加盟了对时域一致性的设想,提议了一种基于优化的摄像艺术滤镜方法,但速度极慢远远达不到实时。

图片 3

腾讯AI
Lab物理学家使用深度前向卷积神经网络,探索摄像艺术风格快捷迁移的恐怕,提议了一种崭新的两帧协同陶冶体制,保持了摄像时域一致性,消除了闪烁跳动瑕疵,同时保险视频风格迁移可以实时完结,兼顾了视频风格转换的高质量与高效用。

摄像艺术滤镜模型如下图所示。通过损失互联网(Loss
Network)统计一连多个输入摄像帧之间的损失来陶冶作风变换网络(Stylizing
Network)。其中空间损失(Spatial
Loss)同时描述了图像的始末损失以及风格损失;时间损失(Temporal
Loss)描述了八个作风变换后的录像帧之间的小时一致性。

图片 4

小说相关诗歌

[1] Haozhi Huang, Hao Wang, Wenhan Luo, Lin Ma, Wenhao Jiang, Xiaolong
Zhu, Zhifeng Li, and Wei Liu. Real-Time Neural Style Transfer for
Videos. CVPR, 2017.

[2] L. A. Gatys, A. S. Ecker, and M. Bethge. Image style transfer
using convolutional neural networks. CVPR, 2016.

[3] J. Johnson, A. Alahi, and L. Fei-Fei. Perceptual losses for
real-time style transfer and super-resolution. ECCV, 2016.

[4] M. Ruder, A. Dosovitskiy, and T. Brox. Artistic style transfer for
videos. German Conference on Pattern Recognition, 2016.

Centent Loss

图片 5

content loss 总括公式

Fijl:第l层第i个filter上地点j处的激活值
Fl:随机噪声x在第l层的响应值
Pl:内容图片p在第l层的响应值
Lcontent :两者的误差平方和

利用CONTENT_LAYERS(‘relu4_2′,’relu5_2’)作为“content”的layer表达

g = tf.Graph()
with g.as_default(), g.device('/cpu:0'), tf.Session() as sess:
    image = tf.placeholder('float', shape=shape)
    net = vgg.net_preloaded(vgg_weights, image, pooling)
    content_pre = np.array([vgg.preprocess(content, vgg_mean_pixel)])
    for layer in CONTENT_LAYERS:
        content_features[layer] = net[layer].eval(feed_dict={image: content_pre})

content loss 计算

    content_loss = 0
    content_losses = []
    for content_layer in CONTENT_LAYERS:
        content_losses.append(content_layers_weights[content_layer] * content_weight * (2 * tf.nn.l2_loss(
                net[content_layer] - content_features[content_layer]) /
                content_features[content_layer].size))
    content_loss += reduce(tf.add, content_losses)
5.2 合成图颜色转换

图形风格转换在我看来有少数是相当可是也是沉重的,那就是颜色的搬迁。我么可以观望在示例图2中,合成图是应用梵高的星空转换出来的图纸,全部图片纹理以及颜色进行了变动。那一个时候若是大家意在保留原图的颜料而未知合成图的纹路,就足以使用YUV颜色空间拓展转换。

示例图2

YUV是图形的一种多少格式,YUV中的“Y”表示图片的通晓程度;“U”代表色度,也称之为饱和度;“V”代表浓度。从YUV的示例图我们能够很清楚的来看他俩的有血有肉意思。

YUV示例

在那边大家得以看看其中U以及V可以很好代表图片的颜色,而Y代表了图片的绝半数以上内容。因而我们可以移植原图的U以及V到合成图上,就足以得到示例图2中的颜色转换合成图了。

2. ACL

Meetings of the Association for Computational Linguistics

国际计算机语言社团年会

十一月30日 – 四月4日|加拿大柏林

ACL是测算语言学里最重大的国际会议,二〇一九年是第55届。会议涵盖生物农学、认知建模与思维语言学、交互式对话系统、机器翻译等各样领域,二零一九年有194
篇长随想、107 篇短散文、21 个软件演示及 21
篇主题演说。在2017谷歌学术目标(谷歌(Google) Scholar)按随想引用率排行,
ACL是总结机语言学和自然语言处理领域最高级别国际学术年会。

腾讯AI
Lab副监护人俞栋认为,「自然语言的精晓、表明、生成和转换一向是自然语言处理的主干难题。近年来有无数新的解决思路和措施。今年的ACL涉及自然语言处理的各方面,尤其在语义分析、语义角色标注、基于语义和语法的自然语言生成、机器翻译和问答系统方向上都有部分妙不可言的做事。」

腾讯AI
Lab老董张潼介绍到,「ACL早期选取语法和规则分析自然语言,90年份后,随着以LDC(Linguistic
Data
Consortium)为代表的自然语言数据集建立增加,计算自然语言方法在盘算语言学里成效越发大并成为主流。2000年后随着互连网飞速发展及以自然语言为主导的人机交互情势兴起,自然语言研讨被予以极高应用价值。」

腾讯AI Lab三篇文章入选ACL

论文一:Modeling Source Syntax for Neural Machine Translation

正文提出将句法树转化为句法标签种类的轻量级方法,有效将源端句法信息引入神经互联网翻译系统,被注解能明确增强翻译效果。

论文二:Chunk-Based Bi-Scale Decoder for Neural Machine Translation

本文引入一个极度组块神经互联网层,从组块到词的层系变化译文,帮忙已毕神经互连网翻译系统短语级其余建模,实验注脚该形式在三种语言上都能明了拉长翻译效果。*
本文作者亦致谢前任职单位

论文三:Deep Pyramid Convolutional Neural Networks for Text
Categorization

文章提出了一种能卓有功用发挥文本长距离关系的复杂度词粒度CNN。本文研商了什么样强化词粒度CNN对文件举行全局表达,并找到了一种简单网络结构,通过扩大网络深度升高准确度,但唯独多增添总括量。实验注脚15层的DPCNN在四个情感和主旨分类任务上达标了眼前最佳结果。

Style Loss

图片 6

图片 7

Gijl:随机噪声x在第l层的响应值
Al:风格图片a在第l层的响应值
El:单层的“style”损失
Lstyle :所有层的“style”损失和

利用STYLE_LAYERS(‘relu1_1′,’relu2_1′,’relu3_1′,’relu4_1′,’relu5_1’)作为“style”的layer表达。
可以见见,“Style”使用到的layer其实是要比“content”更低的。
可能可以如此解释,正如小编上方强调的那样,“Style”从直观上来看应该是进一步抽象的特性,应该使用更高的layer才能很好刻画出来;但实质上“Style”在某种程度上的话其实是纹理信息,采取较为浅的layer才能保留那个一蹴而就的底细音信,从而忽视全体新闻。(那里还有待考虑,代码浮现出来的应用更浅的layer,但”style”应该属于更抽象的特性才对)

for i in range(len(styles)):
    g = tf.Graph()
    with g.as_default(), g.device('/cpu:0'), tf.Session() as sess:
        image = tf.placeholder('float', shape=style_shapes[i])
        net = vgg.net_preloaded(vgg_weights, image, pooling)
        style_pre = np.array([vgg.preprocess(styles[i], vgg_mean_pixel)])
        for layer in STYLE_LAYERS:
            features = net[layer].eval(feed_dict={image: style_pre})
            features = np.reshape(features, (-1, features.shape[3]))
            gram = np.matmul(features.T, features) / features.size
            style_features[i][layer] = gram

style loss 计算

    style_loss = 0
    for i in range(len(styles)):
        style_losses = []
        for style_layer in STYLE_LAYERS:
            layer = net[style_layer]
            _, height, width, number = map(lambda i: i.value, layer.get_shape())
            size = height * width * number
            feats = tf.reshape(layer, (-1, number))
            gram = tf.matmul(tf.transpose(feats), feats) / size
            style_gram = style_features[i][style_layer]
            style_losses.append(style_layers_weights[style_layer] * 2 * tf.nn.l2_loss(gram - style_gram) / style_gram.size)
        style_loss += style_weight * style_blend_weights[i] * reduce(tf.add, style_losses)

6. 运行环境

  • Mac OS 10.12.6
  • Xcode 9 beta 6
  • Python 3.1
  • Tensorflow 1.0
  • Keras 2
  • Coremltools 0.4.0

3. ICML

International Conference on Machine Learning

国际机器学习大会

七月6日 – 11日|澳大科钦圣保罗

机械学习是人工智能的主旨技术,而ICML是机器学习最关键的四个会议之一(另一个是NIPS)。ICML源于1980年在Carnegie梅隆高校设置的机器学习商讨会,现由国际机器学习学会(IMLS)主办。2017谷歌(谷歌(Google))学术目的以「机器学习」关键词排行,ICML位列第一。

腾讯AI
Lab高管张潼硕士介绍到,「很多经典杂文和算法,如CRF,都是在ICML上首次指出的,这一个会议涉及机械学习有关的具有探究,包涵近年相当看好的深度学习、优化算法、计算模型和图模型等。在早期,ICML更讲究实验和动用,而NIPS更看得起模型和算法,但近来多少个议会有些趋同。」

腾讯AI Lab四篇小说入选ICML

论文一:Scaling Up Sparse Support Vector Machines by Simultaneous
Feature and Sample Reduction

正文提出了第四个能在模型操练起首前,同时检测和去除稀疏帮助向量机中不活跃样本和特点的筛选算法,并从理论和试验中验证其能不损失任何精度地把模型陶冶功效升高数个量级。

论文二:GSOS: Gauss-Seidel Operator Splitting Algorithm for Multi-Term
Nonsmooth Convex Composite Optimization

正文提出了求解多块非光滑复合凸优化难点的算子差距新算法,该算法选拔Gauss-Seidel迭代以及算子差距的技巧处理不可分的非光滑正则项,并以实验求证了该算法的管事。

论文三:Efficient Distributed Learning with Sparsity

本文提议了一个高维大数据中能更实用学习稀疏线性模型的分布式算法。在单个机器训练样本丰富多时,该算法只需一轮通信就能上学出计算最优误差模型;尽管单个机器样本不足,学习总计最优误差模型的通讯代价只随机器数量对数曲线上涨,而不借助于任何标准化数。

论文四:Projection-free Distributed Online Learning in Networks

本文提出了去中央化的分布式在线条件梯度算法。该算法将标准化梯度的免投影特性推广到分布式在线场景,解决了观念算法须求复杂的阴影操作难点,能疾速处理去焦点化的流式数据。

腾讯AI
Lab于二〇一六年十二月树立,专注于机器学习、总括机视觉、语音识别和自然语言了然八个世界「基础切磋」,及内容、游戏、社交和平台工具型四大AI「应用探索」。腾讯AI
Lab主管及第一集团主是机器学习和大数据大家张潼大学生(详情可点链接),副管事人及丹佛实验室负责人是语音识别及深度学习专家俞栋大学生。近期集体有50余位AI物理学家及200多位应用工程师。

图片 8

图片 9

基于模型迭代的源码解析code

直白实施代码下的eval.py
文件,指定调用的风格,就可以生成风格转换后的图形,那就没怎么要分析的必需了。不过按照模型迭代其实也是可以陶冶自己的作风网络的,主要在train.py文件中。具体的代码讲解再持续更新,作者磨炼自己的风骨互联网的时候报错了。
唯独大约的构思应该是这么的:

图片 10

据悉模型迭代的生成式神经互联网示意图

  1. 行使VGG-16的互连网,网络架构以及总损失函数与基于图片迭代的描述性神经网络相似
  2. 不再基于噪声生成新图片,而是直接基于输入的内容图片直接转换成特定的纹理风格
  3. loss network
    的参数不再更新,只是根据图片做一个前馈计算,小编的解释是“Image
    Classification的pretrained的卷积模型已经很好的读书了perceptual和semantic
    information(场景和语义音信)”,有点“迁移学习”的意趣

7. Demo

那边自己将长存的作风转换模型集合在同步写了一个作风转换Demo,具体可以见截图:

shoot1.jpeg

shoot2.jpeg

shoot3.jpeg

shoot4.jpeg

shoot5.jpeg

shoot6.jpeg

Demo地址:https://github.com/kingandyoga/StyleTransfer-iOS

效果图

图片 11

原图

图片 12

wave.jpg

图片 13

Oil painting

8. 参考文献

  • [1]. Ethan Chan and Rishabh Bhargava. Show, Divide and Neural:
    Weighted Style Transfer[D]. Stanford University,2016
  • [2]. Leon A. Gatys, Alexander S. Ecker,Matthias Bethge. A Neural
    Algorithm of Artistic Style[D]. Germany,2015
  • [3]. Justin Johnson, Alexandre Alahi, Li Fei-Fei. Perceptual
    Losses for Real-Time Style Transfer and Super-Resolution[D].
    Stanford University,2016
  • [4]. Leon A.Gatys, Matthias Bethge, Aaron Hertzmann, Eli
    Shechtman.Preserving Color in Neural Artistic Style
    Transfer[D].Germany,2016
  • [5]. Apple Core ML documentation
    (https://developer.apple.com/documentation/coreml)
  • [6]. Style Transfer
    Sample(https://github.com/fzliu/style-transfer)
  • [7]. MLModelZoo

后记

相对来说那是篇相比较匆忙的笔记,不难调试了下代码就开头动笔写了,可能某些细节难题绝非在意到,后续有时光会到处创新。不得不说,有诸如此类的idea,并且落成了出来,真的要命巨大。
但通过地点的几张测试图片,大家也得以发现,那样的拍卖措施确实能够本着图片展开作风转换,但那转化的是“画”,并非图片,这样说的案由是转账进度中冒出“局地扭曲”的风貌万分分明,没有人会以为那是一张真实的相片,而且根本是不可能做到对一定部位的变换。

References

《Neural Style Transfer: A
Review》

神经风格迁移商讨概述:从如今商讨到将来方向
TensorFlow之深深精晓法斯特 Neural
Style

相关文章