校招公司;神经网络P图上色;K近邻;K聚类;

1、Microsoft VS code 开发集成环境,优于VS

2、Floydhub 深度学习云平台

3、神经网络P图http://new.qq.com/omn/20180413/20180413A0TPBJ.html

用VGG搭建twopass算法

  1. 预处理 剪切粘贴
  2. one-pass 大致调整外来元素的色彩和质地,和画中语义相似的部分对应。要在神经网络的每一层,分别找到相邻最近的神经补丁,和粘贴部分的神经元响应匹配起来; 用Gram矩阵来计算风格重建损失
  3. two-pass  高品质细化 (多尺度)  在负责捕捉质地属性的中间层集中火力,生成一个对应关系图 (correspondence map) ,来剔除空间异常值 (spatial outliers)。对拥有空间一致性的对应图进行上采样 (upsample) ,进入神经网络更加精细的层次里
  4. post-perocess 1 面对高频失真的现象,主要作用在色度通道,对亮度并没有太大影响。转换为CIlab,,用lab做向导,滤波ab通道。
  5. post-process  2 PatchMatch给每一个补丁找到相似的补丁。再为所有画风重叠的补丁取平均值???

    以此重构output,就可以保证画面里不要生出新的内容。不过,这里的副作用是会柔化细节,于是又要请出Guided Filter把图像分成底层 (Base Layer) 和细节层 (Detail Layer) ,来削弱柔化效果

4神经网络上色 https://baijia.baidu.com/s?id=158274693984968373

alpha版本(一个常规的网络,只是做了颜色通道的变化)(没有泛化能力)

  1. 用算法来改变颜色通道,从 RGB 到 Lab目的是从f(gray)=g(RGB) 一个输入三个输出   转换到 f(gray)=g(AB)   以灰度图作为亮度信息,一个输入两个输出
  2. 我们需要在相同的区间将预测值和真实值建立映射,从而将值进行比较。区间的范围在-1 到 1 之间。为了映射预测值,我们使用了 tanh 激活函数。tanh 函数的任意输入的输出值都在-1 到 1 之间。
  3. 真实的颜色值分布在-128 到 128 的区间内。这是 Lab 色彩空间的默认区间。用 128 除这些值就能获得-1 到 1 的区间分布。这种「标准化」操作使我们能比较预测的误差。

  4. 我们对所有的位于-1 到 1 范围内输出乘上 128,从而得到 Lab 色彩空间的真实颜色。再加上会度层,可得到预测结果

beta版本(增加以上Alpha版本)  没看懂!!!

感知器K近邻 K聚类算法   https://mp.weixin.qq.com/s/UltBigoduH76vs_pmLUOVQ

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值