![](https://img-blog.csdnimg.cn/20191209145137247.jpg?x-oss-process=image/resize,m_fixed,h_224,w_224)
DL学习笔记
DL学习笔记
业余狙击手19
图像算法菜鸟,点滴积累成就硕果累累。
展开
-
DBNet论文阅读笔记(附论文和源码地址)
DBNet论文阅读笔记(附论文和源码地址)转载 2020-11-27 08:00:15 · 908 阅读 · 0 评论 -
图像分割算法概述(附论文地址)
图像分割算法概述(附论文地址)转载 2020-11-27 07:58:43 · 235 阅读 · 0 评论 -
文字识别/文本检测数据集
https://zhuanlan.zhihu.com/p/386553691、Chinese Text in Wild (CTW)32285张图像,1018402个中文字符(来自于腾讯街景);包含平面文本,凸起文本,城市文本,农村文本,低亮度文本,远处文本,部分遮挡文本。图像大小2048*2048,数据集大小为31GB。(8:1:1)比例训练集(25887张图像,812...原创 2020-03-09 17:38:19 · 2167 阅读 · 0 评论 -
深度学习相关资源链接-1
目录1,教程2,视频资源3,公开数据集4,项目5,论文1,教程Topal的深度学习教程,从感知机到深度神经网络:http://www.toptal.com/machine-learning/an-introduction-to-deep-learning-from-perceptrons-to-deep-networksUFLDL教程:主要介绍了介绍无监督...原创 2020-04-17 14:08:55 · 384 阅读 · 0 评论 -
系列文章汇总
目录目标检测算法源码解析:MaskRCNN源码解析:MaskRCNN源码解析1:整体结构概述MaskRCNN源码解析2:特征图与anchors生成MaskRCNN源码解析3:RPN、ProposalLayer、DetectionTargetLayerMaskRCNN源码解析4-0:ROI Pooling 与 ROI Align理论MaskRCNN源码解析4:头网络(Ne...原创 2020-06-16 20:38:50 · 1714 阅读 · 4 评论 -
深度学习笔记-16.梯度消失、爆炸、过拟合欠拟合、泛化能力
目录1. 为什么会有梯度消失、爆炸?1.1原因1.2 梯度消失、爆炸的解决方案2. overfitting怎么解决?2.1 什么是overfitting2.2 降低过拟合的办法,为什么L1 regularization可以使参数优化到0?3. 模型欠拟合的解决方法?4. 泛化能力4.1 何为泛化能力?4.2 如何提高模型泛化能力?1. 为什么会有梯度...原创 2020-01-06 20:14:37 · 813 阅读 · 0 评论 -
深度学习笔记-15.CNN中常见的问题
目录1.卷积核有什么类型?2. 为什么现在倾向于用小尺寸的卷积核?3. 有哪些池化方法?4. 怎样才能减少卷积层参数量?5. CNN做卷积的运算时间复杂度、空间复杂度?5.1 复杂度对模型的影响5.2 时间复杂度5.3 空间复杂度6. 解释下卷积神经网络中感受野Receptive field (RF)的概念?6.1 感受野Receptive field ...原创 2020-01-06 20:14:21 · 949 阅读 · 0 评论 -
深度学习笔记-14.各种优化器Optimizer的总结与比较
转载自:机器学习:各种优化器Optimizer的总结与比较,我觉得单纯的看印象可能不太深,所以采用边看边手动记录一遍的方式以加深印象!里面的公式自己又手动敲了一遍。目录一、优化器的作用:二、各种优化器介绍2.1 梯度下降法(Gradient Descent)2.1.1标准梯度下降法(GD)2.1.2.批量梯度下降法(BGD)2.1.3随机梯度下降法(SGD)...原创 2019-12-27 19:19:31 · 1871 阅读 · 0 评论 -
深度学习笔记-13.损失函数、代价函数、目标函数
参考文章:https://blog.csdn.net/zhangdongren/article/details/83377272https://blog.csdn.net/yukinoai/article/details/84197930https://www.jianshu.com/p/b3dbf913b421https://www.jiqizhixin.com/article...原创 2019-12-26 09:29:31 · 2213 阅读 · 2 评论 -
深度学习笔记-12.BP算法再理解
参照知乎上的文章,自己又手动推理了一遍,加深理解实际操作代码,下面是参照原文自己又手动敲了一遍,对里面做了一些改动,并添加了一些注释:import numpy as npdef nonlin(x,deriv=False): if(deriv==True): return x*(1-x) # 如果deriv为true,求导数 return 1/(1+np.exp...原创 2019-12-23 19:51:31 · 551 阅读 · 2 评论 -
深度学习笔记-11.Normalization[规范化]方法总结
目录0-0、参考链接0-1、论文链接0-2、 介绍1、Batch Normalization2、Layer Normalizaiton3、Instance Normalization4、Group Normalization5、Switchable Normalization6、结果比较0-0、参考链接https://blog.csdn.net/l...原创 2019-12-14 19:54:27 · 1258 阅读 · 2 评论 -
深度学习笔记-10.几种权重初始化方法
深度学习中神经网络的几种权重初始化方法https://zhuanlan.zhihu.com/p/25110150https://blog.csdn.net/attitude_yu/article/details/81458172https://www.cnblogs.com/hutao722/p/9796884.html目录梯度爆炸和梯度消失的原因一、常数初始化(...原创 2019-12-14 19:52:08 · 5692 阅读 · 4 评论 -
深度学习笔记-9.各种激活函数的总结与比较
问:什么是激活函数?在多层神经网络中,上层节点的输出和下层节点的输入之间具有一个函数关系,这个函数称为激活函数。问:激活函数有什么用?增强模型的拟合能力,理论上只要有足够的神经元,一层隐藏层就可以表达任意函数。如果没有激励函数,在这种情况下你每一层节点的输入都是上层输出的线性函数,无论你神经网络有多少层,输出都是输入的线性组合,相当于没有隐藏层,网络的学习能力有限。深度学习最主要的...原创 2019-12-14 19:55:28 · 2143 阅读 · 2 评论 -
深度学习笔记-8.Focal Loss理解
目录1. Introduction2. Focal Loss3. Conclusion4. 实际使用中的代码1. Introduction object detection按其流程来说,一般分为两大类。一类是two stage detector(如非常经典的Faster R-CNN),另一类则是one stage detector(如SSD、YOLO系列)。...原创 2019-12-14 19:53:38 · 2596 阅读 · 1 评论 -
深度学习笔记-7.GIOU理解
目录CVPR2019: 使用GIoU作为检测任务的LossGIoUGIoU作为BBox回归的损失实际运行https://zhuanlan.zhihu.com/p/57992040CVPR2019: 使用GIoU作为检测任务的Loss本文是对CVPR2019论文Generalized Intersection over Union: A Metric and ...转载 2019-12-14 19:55:06 · 1735 阅读 · 0 评论 -
深度学习笔记-6.seq2seq学习笔记
为了节约时间,直接将手写稿图片贴上,恐怕只有自己看懂了(捂脸),必要时复习复习。原创 2019-08-24 10:28:28 · 849 阅读 · 0 评论 -
深度学习笔记-5.GRU神经网络
先占坑,以后补成自己的理解。其实我觉得,只要理解了LSTM,GRU很好理解,只是变了一下内部结构。 下面这篇文章是写GRU的,写的很好 https://blog.csdn.net/wangyangzhizhou/article/details/77332582...原创 2018-09-14 15:20:39 · 3074 阅读 · 0 评论 -
深度学习笔记-4.循环神经网络(RNN)及长短时记忆网络(LSTM)
表示目前还是懵的,智商不够,看不懂,-_-||。 博主写的很好,转载过来,慢慢消化吧,原文地址:https://zybuluo.com/hanbingtao/note/581764原创 2018-09-06 10:44:15 · 3575 阅读 · 0 评论 -
深度学习笔记-3.Faster RCNN复现
Faster RCNN复现Faster RCNN源码解读1-整体流程和各个子流程梳理Faster RCNN源码解读2-_anchor_component()为图像建立anchors(核心和关键1)Faster RCNN源码解读3.1-_region_proposal() 筛选anchors-_proposal_layer()(核心和关键2)Faster RCNN源码解读3.2...原创 2019-09-19 18:52:24 · 1833 阅读 · 1 评论 -
深度学习笔记-2.迁移学习(Transfer Learning)
一,迁移学习是什么? 别处学得的知识,迁移到新场景的能力,就是“迁移学习”。具体在实践中体现为:将 A任务上 预训练好的模型 放在B任务上,加上少量B任务训练数据,进行微调 。二,与传统学习的比较 传统学习中,我们会给不同任务均提供足够的数据,以分别训练出不同的模型: 但是如果 新任务和旧任务类似,同时新任务 缺乏足够数据去从头...原创 2019-01-16 21:03:50 · 2368 阅读 · 0 评论 -
深度学习笔记-1.使用ANN分类animal实例
主要为了理解ANN使用方法,源码不是我写的,感觉代码并不是很合理,因为测试结果正确率总有为0 的import cv2import numpy as npfrom random import randint# ANN网络初始化animals_net = cv2.ml.ANN_MLP_create()animals_net.setTrainMethod(cv2.ml.ANN_MLP_...原创 2018-07-26 16:47:47 · 2965 阅读 · 0 评论 -
深度学习基础课程2笔记-手写字体识别源码(MNIST)提高版3 CNN实现识别MNIST
一,expand_mnist.pyfrom __future__ import print_functionimport pickleimport gzipimport os.pathimport randomimport numpy as npprint("Expanding the MNIST training set")if os.path.exists(&amp原创 2018-07-23 11:22:22 · 2429 阅读 · 0 评论 -
深度学习基础课程2笔记-手写字体识别源码(MNIST)提高版2
此代码参照教学视频编写,调了将近一天才调通,写这篇文章,主要是为了保存调好的源码。日后使用,可以免去调试的过程。一,Network2.pyimport jsonimport random #产生随机数import sysimport numpy as npclass QuadraticCost(object): def fn(a,y): return...原创 2018-07-16 17:29:56 · 2149 阅读 · 0 评论 -
深度学习基础课程2笔记-手写字体识别源码(MNIST)
一,network.pyimport random #产生随机数import numpy as np# 神经网络类class Network(object): # 构造函数 def __init__(self,sizes): self.num_layers=len(sizes) #神经网络层数 self.sizes=sizes ...原创 2018-07-13 10:24:31 · 2483 阅读 · 0 评论 -
深度学习基础课程2笔记-卷积神经网络算法(CNN)
一,卷积神经网络的层级结构 • 1,数据输入层/ Input layer • 2,卷积计算层/ CONV layer • 3,ReLU激励层 / ReLU layer • 4,池化层 / Pooling layer • 5,全连接层 / FC layer1,数据输入层 传入图片2,卷积的计算 3,激励层 把卷积层输出结果做非线性映射。 ...原创 2018-07-11 15:39:43 · 3397 阅读 · 0 评论 -
深度学习基础课程1笔记-神经网络算法(ANN)
1)前向计算(由输入层向前传输) 2)根据误差(error)反向传送 3)终止条件 a)权重的更新低于某个阈值 b)预测的错误率低于某个阈值 c)达到预设的循环次数4)Backpropagation算法举例 a)前向计算 b)反向传送 5)非线性转化方程(Sigmoid函数) 6) 代码#神经网络算法import numpy...原创 2018-07-01 16:05:37 · 2674 阅读 · 0 评论 -
深度学习基础课程1笔记-支持向量机(SVM)
本篇内容是xxxx深度学习基础课程视频上的,如有侵权,请与我联系,谢谢!一,理论知识 上图中有红绿蓝三条线,那条线分类效果最好呢?明显是红色的线,为什么红线比蓝线效果好呢? 1)SVM寻找分两类的超平面(hyper plane),使边际(magrin)最大 下图解释一下边际最大: 2)总共可以有多少个可能的超平面?答案是有无数条 如何选取使边际(...原创 2018-07-01 12:49:44 · 2586 阅读 · 0 评论 -
深度学习基础课程1笔记-最近邻规则分类(KNN)
本篇内容是xxxx深度学习基础课程视频上的,如有侵权,请与我联系,谢谢!一,理论知识 1)算法描述: A)为了判断未知实例的类别,以所有已知类别的实例作为参照 B)选择参数K C)计算未知实例与所有已知实例的距离 D)选择最近k个已知实例 E)根据少数服从多数的投票法则,让未知实例归类为K个最近邻样本中最多数的类别 2)距离的定义...原创 2018-07-01 11:44:30 · 2425 阅读 · 0 评论 -
深度学习基础课程1笔记-决策树(Desision Tree)
本篇内容是麦子学院深度学习基础课程视频上的,如有侵权,请与我联系,谢谢!一,理论知识 1)熵(entropy)的概念: 变量的不确定性越大,熵越大。 2)决策树归纳算法(ID3)-用于选择属性判断结点。 信息获取量(Information Gain):=Gain(A)=Info(D)-Info_A(D) (就是没有A时的信息增益,减去有A时的信息增益)。得到的数据表示通过A...原创 2018-06-29 09:07:18 · 2461 阅读 · 0 评论 -
深度学习基础课程1笔记-Kmeans算法(聚类)
一,理论知识 K-means算法是聚类中的经典算法,数据挖掘十大经典算法之一。 算法接受参数k,然后将事先输入的n个数据对象划分k个聚类;同一聚类中的对象相似度较高;不同聚类中的对象相似度较小。 算法思想: 以空间中k个点为中心点进行聚类,对最靠近他们的对象归类。通过迭代的方法,逐次更新各聚类中心的值,直至得到最好的聚类结果 算法描述: ...原创 2018-07-02 09:58:35 · 2988 阅读 · 0 评论 -
人工智能,机器学习, 深度学习框架图
1、深度学习框架图: 2、神经网络要解决的问题2.1、基于网络功能函数的定义(网络模型的选择,激励函数的选择,优化方法的选择)–>网络模型好坏的评估(损失函数的定义)–>选出一原创 2018-09-14 15:36:14 · 6364 阅读 · 1 评论 -
局部响应归一化LRN (Local Response Normalization)
一、LRN技术介绍:LRN(Local Response Normalization) 是一种提高深度学习准确度的技术方法。 LRN 一般是在激活、 池化函数后的一种方法。在 ALexNet 中, 提出了 LRN 层, 对局部神经元的活动创建竞争机制, 使其中响应比较大对值变得相对更大, 并抑制其他反馈较小的神经元, 增强了模型的泛化能力。AlexNet将LeNet的思想发扬光大,把CN...原创 2019-06-12 17:31:11 · 7875 阅读 · 1 评论 -
感动!有人将吴恩达的视频课程做成了文字版
转载自AI科技大本营,原文地址:https://blog.csdn.net/dQCFKyQDXYm3F8rB0/article/details/80054762机器学习和深度学习如何入门?相信很多人都会推荐吴恩达的在线课程。不过,这种视频在线课程也有其弊端,就跟很多人不喜欢微信语音一样,想要在视频中查找和回顾相关的知识点并不方便。于是,以黄海广博士为首的一群机器学习爱...转载 2019-03-22 07:55:43 · 2022 阅读 · 0 评论 -
Python、机器学习、深度学习、人工智能、OpenCV在线学习网站推荐
恕我out,最近刚发现一个超好的在线学习网站:哔哩哔哩。里面有好多免费的在线视频,推荐大家去学习 下面是XX深度学习基础课程: https://www.bilibili.com/video/av15200856/你也可以搜索你想学习的课程。如果你想将网页上的视频下载下来,可以用“硕鼠”进行下载,具体怎么用,可以百度,很简单。以下是我的下载截图: 希望和大家在计算机视觉领域一起...原创 2018-06-06 17:22:14 · 2661 阅读 · 0 评论 -
循环神经网络(Recurrent Neural Network, RNN)和递归神经网络(Recursive Neural Network, RNN),你搞清楚了吗?
一,循环神经网络: 原文:https://zybuluo.com/hanbingtao/note/541458语言模型 RNN是在自然语言处理领域中最先被用起来的,比如,RNN可以为语言模型来建模。那么,什么是语言模型呢?我们可以和电脑玩一个游戏,我们写出一个句子前面的一些词,然后,让电脑帮我们写下接下来的一个词。比如下面这句:我昨天上学迟到了,老师批评了____。我们给电脑展...转载 2018-09-05 13:56:23 · 24289 阅读 · 0 评论