用白痴的视角带你了解AI+艺术文章
Prisma如何让你的照片变名画?
前段时间 Prisma推出的一款滤镜引爆社交圈——让你的照片变成名画。阿扑在惊讶其神奇效果之余,向学霸小哥哥了解了一下背后的原理和相关问题。(最重要的问题就是艺术家会被替代吗?)
Prisma是如何做到的呢?
Prisma名画滤镜背后的算法是一种风格转移算法(Style Transfer)的深度学习算法。这种算法最早源自15年论文《A Neural Algorithm of Artistic Style》(下载地址https://arxiv.org/pdf/1508.06576.pdf)。像阿扑这样的人工智能小白可以大概地这么理解:
合成的新照片是一个副本任务,完成这个任务需要物资和剧情线索:
物资就是你上传的原图,专业的说法是内容图(content image);
线索就是你选择想要模仿的名画,专业的说法是风格图(style image);
玩家需要分析线索——npc的要求(eg:请你帮npc抓一个桶状的像素怪兽),然后用匹配的物质(桶状的像素怪兽)来交给线索npc,合成新的怪兽(目标图)。
模型会逐层分析(卷积操作)名画里面的纹理(为什么是纹理,不是颜色或笔触?请点击原文阅读深度学习算法是如何取出一张图片的风格),再匹配到你上传的图片里和抓取的纹理相似的地方。
比如梵高《星空》的例子中,星空中的三角形黑色纹理就被匹配到照片中的三角形建筑圆顶;星空中的黄色月亮就被匹配到了照片里的黄色墙面里。
基于这篇文章,衍生出了众多项目。
比如2015年夏天,Google Research发起了一项叫DeepDream的项目。它的主要目的是将神经网络在图像识别时学习到的信息进行可视化。
(图片来自google research)
这种算法可以参考做梦来理解。我们常会在梦中重现和事实稍有偏差的场景,经常是潜意思里的小九九跑出来了。比如,白天阿扑被老板骂了,心里难过的阿扑夜里做梦也梦到老板骂我。但是更糟的是,骂我的老板的脸替换成阿扑意识深处爱慕的男神陈道明。(当然阿扑的老板从来不骂人,嘻嘻)
原图是一张柴犬的照片(著名的doge表情包). 在图像的不同区域,深度网络都“看到了”狗的脸,DeepDream算法将其放大了。(图片来自google research)
康奈尔大学和 Adobe 的工程师也合作推出项目——Deep Photo Style Transfer,这个项目解决了图像转化过程中的“畸变”问题(https://arxiv.org/abs/1703.07511)。
观看更多风格转移的例子:http://genekogan.com/works/style-transfer/强烈推荐一定要看!