1、Microsoft VS code 开发集成环境,优于VS
2、Floydhub 深度学习云平台
3、神经网络P图http://new.qq.com/omn/20180413/20180413A0TPBJ.html
用VGG搭建twopass算法
- 预处理 剪切粘贴
- one-pass 大致调整外来元素的色彩和质地,和画中语义相似的部分对应。要在神经网络的每一层,分别找到相邻最近的神经补丁,和粘贴部分的神经元响应匹配起来; 用Gram矩阵来计算风格重建损失
- two-pass 高品质细化 (多尺度) 在负责捕捉质地属性的中间层集中火力,生成一个对应关系图 (correspondence map) ,来剔除空间异常值 (spatial outliers)。对拥有空间一致性的对应图进行上采样 (upsample) ,进入神经网络更加精细的层次里
- post-perocess 1 面对高频失真的现象,主要作用在色度通道,对亮度并没有太大影响。转换为CIlab,,用lab做向导,滤波ab通道。
- post-process 2 PatchMatch给每一个补丁找到相似的补丁。再为所有画风重叠的补丁取平均值???
以此重构output,就可以保证画面里不要生出新的内容。不过,这里的副作用是会柔化细节,于是又要请出Guided Filter把图像分成底层 (Base Layer) 和细节层 (Detail Layer) ,来削弱柔化效果
4神经网络上色 https://baijia.baidu.com/s?id=158274693984968373
alpha版本(一个常规的网络,只是做了颜色通道的变化)(没有泛化能力)
- 用算法来改变颜色通道,从 RGB 到 Lab目的是从f(gray)=g(RGB) 一个输入三个输出 转换到 f(gray)=g(AB) 以灰度图作为亮度信息,一个输入两个输出
- 我们需要在相同的区间将预测值和真实值建立映射,从而将值进行比较。区间的范围在-1 到 1 之间。为了映射预测值,我们使用了 tanh 激活函数。tanh 函数的任意输入的输出值都在-1 到 1 之间。
真实的颜色值分布在-128 到 128 的区间内。这是 Lab 色彩空间的默认区间。用 128 除这些值就能获得-1 到 1 的区间分布。这种「标准化」操作使我们能比较预测的误差。
我们对所有的位于-1 到 1 范围内输出乘上 128,从而得到 Lab 色彩空间的真实颜色。再加上会度层,可得到预测结果
beta版本(增加以上Alpha版本) 没看懂!!!
感知器K近邻 K聚类算法 https://mp.weixin.qq.com/s/UltBigoduH76vs_pmLUOVQ