自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(22)
  • 收藏
  • 关注

原创 Windows FTP 服务器实现只能上传不能下载或删除

Window 设置 FTP 服务器,学生只能上传不能下载或删除

2022-06-03 10:35:46 7226 1

原创 Image-Based PM2.5 Prediction 论文两篇(20/21)

目录2021:PM2.5 Monitoring: Use Information Abundance Measurement and Wide and Deep Learning2020:FEATURE ENHANCEMENT AND FUSION FOR IMAGE-BASED PARTICLE MATTER ESTIMATION WITH F-MSE LOSS2021:PM2.5 Monitoring: Use Information Abundance Measurement and Wide an

2022-02-14 11:20:35 1653

原创 PyTorch 自定义卷积模板,backward 报错 RuntimeError: one of the variables needed for gradient computation has b

PyTorch 自定义卷积模板,backward 报错 RuntimeError: one of the variables needed for gradient computation has been modified by an inplace operation问题,如题目所述原代码更正方案一更正方案二问题,如题目所述主要原因是 Tensor 变量有 “就地更改” 的,比如 ReLU(inplace=True),或者有 +=, -= 操作符,需要声明新的变量并赋值。自己的问题主要是在 slic

2021-09-30 10:44:28 719

原创 AttributeError: ‘Conv2d‘ object has no attribute ‘padding_mode‘ 报错

问题描述类似的问题还有 ‘ConvTranspose2d’ object has no attribute ‘padding_mode’ 等,主要原因是 PyTorch 版本不匹配,相比之前的版本如 PyTorch 1.0 后面的版本可能新增了 ‘padding_mode’ 属性。解决方案直接退回到pytorch1.0版本改相应函数(如conv2d)内部的 forward() if not hasattr(self, 'padding_mode'): self.padding_mod

2021-01-21 13:34:16 4010 1

原创 论文笔记:去雾、超分和 Makeup(Cycle GAN 相关 4 篇)

目录1. Domain Adaptation for Image Dehazing (Yuanjie Shao, 2020)2. Cycle-Dehaze: Enhanced CycleGAN for Single Image Dehazing (Deniz Engin, 2018)3. Closed-loop Matters: Dual Regression Networks for Single Image Super-Resolution (Yong Guo, 2020)4. PairedCycleG

2020-07-19 10:49:09 2298

原创 论文笔记:Domain Adaptation for Image Dehazing

目录摘要1. Introduction2. Related work2.1. Single Image Dehazing2.2. Domain Adaptation3. Proposed Method3.2. Image Translation Module The3.4. Training Losses论文信息:Domain Adaptation for Image Dehazing arXiv:2005.04668v1摘要目前大多数 learning-based 方法在合成雾图上训练去雾模型,很难

2020-07-16 09:55:31 1367

原创 论文笔记:Dark Channel Prior - Kaiming He(2)

目录Haze Removal Using Dark Channel Prior4.2. Soft Matting前一篇博客介绍了论文的摘要、引言、背景以及暗通道先验部分,接下来继续介绍文章中余下的部分。Haze Removal Using Dark Channel Prior4.2. Soft Matting注意到公式(1)与图像抠图方程(image matting equation)有着相似的形式,所以我们采用了一个 soft matting 算法来改善透射(transmission)。sof

2020-06-28 18:28:03 1121 1

原创 论文笔记:Dark Channel Prior - Kaiming He(1)

目录摘要1. Introduction2. Background3. Dark Channel Prior4. Haze Removal Using Dark Channel Prior4.1. Estimating the Transmission4.2. Soft Matting论文标题:Single Image Haze Removal Using Dark Channel Prior,一作:何凯明。摘要提出暗通道先验(dark channel prior)去除单一输入图像中的雾霾,该理论基于一

2020-06-28 11:36:45 3633

原创 《MATLAB Deep Learning》Ch4 & Ch5 学习笔记

目录Ch4 - Neural Network and ClassificationBinary ClassificationMulticlass ClassificationCh5 - Deep LearningCh4 - Neural Network and ClassificationBinary Classification二分类问题只需要一个输出层结点,因为我们只需指定一个阈值 threshold 就可以把结果分为两类。当我们使用 Sigmoid 激活函数 + 交叉熵损失函数时,输出层误差有

2020-06-05 17:14:15 281

原创 《MATLAB Deep Learning》Ch3 - Training of Multi-Layer Neural Network 学习笔记

目录Back-propagation algorithmMomentumCost Function and Learning RuleBack-propagation algorithm由于隐藏层的误差项没有被很好地定义(不像输出层有真实值 did_idi​),多层神经网络的发展停滞了许久。1986年,后向传播算法 Back-propagation algorithm 的引入解决了这个问题。考虑一个三层网络(输入—隐藏—输出),下面是隐藏层到输出层的转换:由前面的章节,我们已经知道对于隐藏层—输出

2020-06-03 17:42:21 323

原创 《MATLAB Deep Learning》Ch1 & Ch2 学习笔记

我是目录前言Ch1 - Machine LearningCh2 - Neural Networkdelta 法则SGD, Batch, and Mini BatchCh3 - Training of Multi-Layer Neural Network前言《MATLAB Deep Learning》,Phil Kim. 这本书实在太适合入门了,作者用平实易懂的语言由浅入深地介绍了深度学习的各个方面。书中并没有太多的公式,配套代码也很简洁。不过,若是想进一步深究背后的数学原理,还得参考其他书籍、文献。

2020-06-03 11:11:04 615

原创 李航:统计学习方法 学习笔记 6 logistic回归与最大熵模型

目录1. logistic分布函数1. logistic分布函数

2020-05-29 23:38:42 303 2

原创 李航:统计学习方法 学习笔记 5 决策树三问

我是一个目录1. 随机变量X的信息熵的上界2. 决策树中的信息增益特征选择法能否运用到其他模型?3. CART树剪枝1. 随机变量X的信息熵的上界参考:关于信息熵最大值的讨论。2. 决策树中的信息增益特征选择法能否运用到其他模型?个人感觉不可以,因为决策树中分类是基于if-then集合规则或条件概率的,不同模型的分类评价方法可能不一样。例如,利用信息增益筛选出来的特征对感知机不一定适用,也即if-then规则和决策超平面不一定相容。3. CART树剪枝先占个坑。...

2020-05-25 11:53:34 314

原创 李航:统计学习方法 学习笔记 4 朴素贝叶斯法三问

李航:统计学习方法 学习笔记 4 朴素贝叶斯法三问1. 贝叶斯定理2. 条件数学期望3. 极大似然估计法1. 贝叶斯定理2. 条件数学期望参考:https://wenku.baidu.com/view/cda1980e52ea551810a687c5.html3. 极大似然估计法参见概率论教材。...

2020-05-23 17:41:40 270

原创 李航:统计学习方法 学习笔记 3 K近邻法两问

李航:统计学习方法 学习笔记 3 K近邻法两问1. LpL_{p}Lp​距离p趋向无穷时...2. KD树的搜索1. LpL_{p}Lp​距离p趋向无穷时…2. KD树的搜索书上只是给了KD树的最近邻搜索算法,并未说明如何扩展到K近邻。暂时也未查到相关资料,先记一下。...

2020-05-22 22:04:32 248

原创 李航:统计学习方法 学习笔记 2 感知机三问

李航:统计学习方法 学习笔记 2 感知机三问1. 空间中任意一点x0到超平面S的距离公式推导2. Novikoff 定理中为何可以直接令 ∣∣w^opt∣∣=1||\hat w_{opt}||=1∣∣w^opt​∣∣=1 ?1. 空间中任意一点x0到超平面S的距离公式推导参考 空间中任意一点到超平面距离的公式推导。2. Novikoff 定理中为何可以直接令 ∣∣w^opt∣∣=1||\hat w_{opt}||=1∣∣w^opt​∣∣=1 ?将偏置b并入权重向量w,则有 w^=(wT,b)T\

2020-05-19 19:55:53 263

原创 李航:统计学习方法 学习笔记 1 统计学习方法概论

李航:统计学习方法 学习笔记 1 统计学习方法概论前言1.1 统计学习1.2 监督学习1.3 统计学习三要素1.3.1 损失函数和风险函数1.3.2 经验风险最小化和结构风险最小化1.4 模型评估与模型选择1.5 其他...前言考研终于告一段落,接下来是安心等待入学。想利用这段时间系统学习一下机器学习基础,简单记录一下自己的学习过程,也算是对自己的一种监督。1.1 统计学习统计学习(statistics learning)关注概率统计模型,也称为统计机器学习(statistics machine

2020-05-18 15:40:56 708

原创 求给定数组的最长递增子序列(记录子序列的值)

动态规划(dp)求最长递增子序列的长度L,参照模板即可,这里给一下记录并输出该子序列值的方法:开一个pre[]数组记录下标即可,然后用递归形式输出。#include <iostream>#include <cstdio>#include <vector>#include <cstring>using namespace std;con...

2020-03-07 00:07:06 411 1

原创 维特比算法实现 李航《统计学习方法》

% 维特比算法实现% 参考:李航《统计学习方法》 P208% Author: xueqing, 2019-08-19%% 输入% A: 盒子状态转移矩阵% B: 观测概率矩阵;% pi:初始概率分布% Ou: 观测序列A = [0.5, 0.2, 0.3; 0.3, 0.5, 0.2; 0.2, 0.3, 0.5];B = [0.5, 0.5; 0.4, ...

2019-08-19 10:36:07 446

原创 《剑指offer》面试题14:剪绳子 贪婪算法 证明

题目: 给你一根长度为n绳子,请把绳子剪成m段(m、n都是整数,n&amp;gt;1并且m&amp;gt;1)。每段的绳子的长度记为k[0]、k[1]、……、k[m]。k[0] * k[1]*…*k[m]可能的最大乘积是多少?例如当绳子的长度是8时,我们把它剪成长度分别为2、3、3的三段,此时得到最大的乘积18。贪婪解法: 当n大于等于5时,我们尽可能多的剪长度为3的绳子;当剩下的绳子长度为4时,把绳子剪成两段...

2019-02-24 11:42:53 1805 3

原创 js 批量下载页面文件

js 批量下载页面文件问题描述实现方法代码浏览器设置问题描述去知网下载统计年鉴的数据,发现只能一个文件一个文件的下载(尚未找到其他接口),如下图所示:一个一个地点击太麻烦,于是想到用js代码实现批量下载。实现方法用的是谷歌浏览器,鼠标右键 -&amp;amp;amp;gt; 检查,查看 html 页面的元素的层级结构,找到对应的超链接即可。代码var lists = new Array(); //创建一个...

2019-01-01 23:43:12 3068 2

转载 Dijkstra算法 学习笔记

Dijkstra算法用于求最短路径,原理的话可以去网上搜搜,有一些讲得还是比较清楚的。笔者是在学openCV的时候接触到的,不过代码写出来似乎跟C++关系比较大,无妨,会用就好。感谢 http://blog.csdn.net/yake827/article/details/50759977(转| 最短路径—Dijkstra算法和Floyd算法)和 http://blog.csdn.net/zjq20

2017-01-15 00:36:47 365

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除