深度学习
文章平均质量分 97
yywxl
怎么会有这么菜的人呢?
展开
-
视频降噪
一直没有接触过视频图像处理,一来这个问题太南了,二来也确实没有想过要接触这方面的东西,借着这个机会看一下传说中的视频图像处理,和单帧图像处理又什么区别,他是如何利用多帧信息更好处理图像,又是如何解决帧间(时间序列)一致性这样一个问题。文章目录Supervised Raw Video Denoising with a Benchmark Dataset on Dynamic ScenesSupervised Raw Video Denoising with a Benchmark Dataset on原创 2021-01-12 18:37:33 · 2083 阅读 · 0 评论 -
Denoising/图像恢复
去噪是图像恢复/增强领域的一个经典问题,现在来关注一下,其实我更想关注unpaired real data 的去噪问题由于去噪的文章属实又多又杂,所以我在paperwithcode 网站上搜索关键字 ‘denoising gan’, 选择感兴趣的题目粗略看下,有意思和有用的文章我会在标题后加’*’, 之后再仔细研读文章目录DCGANs for image super-resolution, denoising and debluringDCGANs for image super-resolut原创 2020-08-04 09:02:07 · 1683 阅读 · 0 评论 -
开始训练GAN
好像针对实际问题没有训练出一个好的网络,菜的扣脚, 这次从cycleGAN开始训练GAN的网络文章目录Unpaired Image-to-Image Translation using Cycle-Consistent Adversarial NetworksUnpaired Image-to-Image Translation using Cycle-Consistent Adversarial NetworksIn this paper, we present a method that c原创 2020-07-02 16:13:58 · 800 阅读 · 0 评论 -
reflection removal
拍照,监控等场景,由于玻璃的反射和折射,滤光膜等因素,图像质量大大降低,那么我们可以通过什么手段去除,降低这种影响,从而提升图像质量以获取更多场景本身的信息?文章目录Single image reflection removal beyonf linearitySingle image reflection removal beyonf linearity章博推的cvpr2019的文章开篇题图就告诉我们,以前做反射消除严重依赖线性仿真数据,文章提出基于非线性的仿真的反射消除摘要摘要老生.原创 2020-05-22 09:09:45 · 1800 阅读 · 0 评论 -
my torch voyage
随便记录一下torch的使用原创 2020-04-10 09:00:22 · 129 阅读 · 0 评论 -
论文-matting
背景虚化,主要技术可能是语义分割或者matting,最终定位在matting上原创 2020-03-09 10:21:57 · 1410 阅读 · 0 评论 -
image signal processing ISP相关
NN for ISPend-to-end vs two-stage原创 2020-02-11 17:34:16 · 615 阅读 · 5 评论 -
多曝光融合
在实际应用中,如果有至少两张图像,而这几张曝光都不好,那么怎样将他们融合在一起从而得到一张曝光较好的图像呢?HDR(high dynamic range)或者叫WDR(wide dynamic range)是一个方向,2007年Mertens提出了从多曝光融合方向解决这个问题,下图解释两者区别opencv提供了这个算法的接口import cv2mergeMertens = cv2....原创 2020-01-19 09:51:02 · 7431 阅读 · 4 评论 -
pytorch-loss
文章目录KL散度PIKDKL散度先简单介绍下KL散度,一直都只知道KL散度是衡量两个分布之间的距离度量,但是没有什么涉猎,前段时间为了在知识蒸馏过程中衡量学生和教师网络中间的特征层之间的分布,直接使用torch.nn.KLDivLoss,kl(feature_s, feature_t)是负值,即使两个相同的特征层之间KL散度也是-1.这令我非常困惑。当时采用了论文1的方法代替,暂且称之为pi...原创 2020-01-16 11:52:31 · 1387 阅读 · 0 评论 -
论文-SISR
前前段时间看了三篇使用真实数据做超分的文章zoomtolearn,CameraSR, realSR,有实际数据应用需求可以详细看看看到知识蒸馏做SISR的文章说到ProSR,想到这样共享权重的网络能不能提高学习的效率?后面看看ProSR看有没有什么说法...原创 2020-01-09 10:02:21 · 529 阅读 · 0 评论 -
深度学习-norm
有关集中几种norm的分类,暂且看下面几张图,有空可以参考这个博客具体看看原创 2020-01-07 16:06:35 · 671 阅读 · 0 评论 -
论文-知识蒸馏
今天看一篇沈老师他们的工作,是知识蒸馏(knowledge distillation)相关github传送Structured Knowledge Distillation for Dense PredictionPrevious knowledge distillation strategies used for dense prediction tasks often direct...原创 2020-01-06 16:01:37 · 2289 阅读 · 1 评论 -
论文-小网络设计
小网络到底应该怎样设计和搜索?原创 2019-12-12 11:49:56 · 251 阅读 · 0 评论 -
pytorch-学习率调整-torch.optim.lr_scheduler
文章目录`torch.optim.lr_scheduler`torch.optim.lr_schedulerpytorch提供了以下学习率调整的方式,转自pytorch官网Prior to PyTorch 1.1.0, the learning rate scheduler was expected to be called before the optimizer’s update; 1...原创 2019-12-02 16:28:15 · 7533 阅读 · 4 评论 -
论文分享-深度学习低精度推断和训练
文章目录Lower Numerical Precision Deep Learning Inference and Training由于在实际应用中需要兼顾模型性能和速度,所以低精度的推断和训练是非常有必要的Lower Numerical Precision Deep Learning Inference and Training18年 intel文章我先去网上搜索了下,看到这个...原创 2019-11-27 10:54:20 · 222 阅读 · 0 评论 -
深度学习-2333
这个翻译自 AlexNet 伊始,基于 ImageNet 的深度学习算法(或模型)改进都和模型大小相关。在如上的由 Google 研究人员给出的 图一 中,垂直方向是网络在给定任务上的效果,横向是网络的大小。通过对比图中 AlexNet,GoogleNet 和 VGG 的趋势不难看出,当模型变大时网络的准确度(accuracy)可能更高。 虽然精心设计的 MobileNet 能在保持较小的...原创 2020-04-30 14:47:24 · 120 阅读 · 0 评论