![](https://img-blog.csdnimg.cn/20201014180756780.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
阅读笔记
clover_my
这个作者很懒,什么都没留下…
展开
-
阅读:操作系统 59 个核心概念详解
阅读:操作系统 59 个核心概念详解操作系统 59 个核心概念详解作者 |cxuan来源 | Java建设者(ID:javajianshe)1.块设备(block devices):块设备是一个能存储固定大小块信息的设备,它支持以固定大小的块,扇区或群集读取和(可选)写入数据。每个块都有自己的物理地址。通常块的大小在 512 - 65536 之间。所有传输的信息都会以连续的块为...转载 2020-04-27 23:25:01 · 331 阅读 · 0 评论 -
机器学习项目模板:6个基本步骤
机器学习项目模板:6个基本步骤机器学习项目模板:ML项目的6个基本步骤每个机器学习项目都有自己独特的形式。对于每个项目,都可以遵循一组预定义的步骤。尽管没有严格的流程,但是可以提出一个通用模板。1、准备问题不仅是机器学习,任何项目的第一步都是简单地定义当前的问题。您首先需要了解背景和需要解决的问题。然后设计机器学习算法来有效地解决这一问题。一旦清楚地了解了问题,就可以解决它。加载库...转载 2020-04-14 22:06:43 · 1165 阅读 · 0 评论 -
阅读:B+ 树的数据结构
B+ 树的数据结构拜托,别再问我什么是 B+ 树了每当我们执行某个 SQL 发现很慢时,都会下意识地反应是否加了索引,那么大家是否有想过加了索引为啥会使数据查找更快呢,索引的底层一般又是用什么结构存储的呢,相信大家看了标题已经有答案了,没错!B+树!那么它相对于一般的链表,哈希等有何不同,为何多数存储引擎都选择使用它呢,今天我就来揭开 B+ 树的面纱,相信看了此文,B+ 树不再神秘,对你理解以...转载 2020-04-14 21:53:27 · 1514 阅读 · 0 评论 -
卷积核:分组卷积、可分离卷积、空洞卷积、可变形卷积
卷积核:分组卷积、可分离卷积、空洞卷积、可变形卷积CNN从2012年的AlexNet发展至今,科学家们发明出各种各样的CNN模型,一个比一个深,一个比一个准确,一个比一个轻量。我下面会对近几年一些具有变革性的工作进行简单盘点,从这些充满革新性的工作中探讨日后的CNN变革方向。注:水平所限,下面的见解或许有偏差,望大牛指正。另外只介绍其中具有代表性的模型,一些著名的模型由于原理相同将不作介绍,若有...转载 2020-04-14 20:06:28 · 2419 阅读 · 0 评论 -
深度学习基础:机器学习中的基函数与函数空间
【机器学习中的数学】基函数与函数空间引言在学习线性回归模型的时候就会遇到基函数,可能我们会遇到多项式基函数、高斯基函数、sigmoid基函数,当然在高等数学和信号系统中还经常会碰到傅里叶基。有时候,不禁要问,这些基函数为什么这么设计?这些基函数的作用是什么?后来发现基函数是核方法和字典训练的基础,于是乎,我逐渐有了一些例如特征转换和映射、字典元素的概念。不过还是对基函数与函数空间的关系、基函数...转载 2020-03-27 14:55:13 · 2193 阅读 · 0 评论 -
深度学习基础:误差、方差、偏差
深度学习基础:误差、方差、偏差误差 = 方差 + 偏差^2+ 噪音。1、偏差、方差偏差(bias):偏差衡量了模型的预测值与实际值之间的偏离关系,也就是输出预测结果的期望与样本真实结果的差距。方差(variance):方差描述的是训练数据在不同迭代阶段的训练模型中,预测值的变化波动情况(或称之为离散情况,或是输出稳定性)。从数学角度看,可以理解为每个预测值与预测均值差的平方和的再...原创 2020-03-27 14:06:50 · 4059 阅读 · 1 评论 -
深度学习评价标准:TP、FN、FP、TN、AP、MAP
深度学习评价标准:TP、FN、FP、TN、AP、MAP1、TP、FN、FP、TNTP:实际正类预测为正类的数量;FN:实际正类预测为负类的数量FP:实际负类预测为正类的数量;TN:实际负类预测为负类的数量T=True,F=False,表示是否预测正确;P=Positive,N=Negative,表示预测结果是正类还是负类。精确率: ;召回率: ;准确率:...原创 2020-02-21 16:21:33 · 8745 阅读 · 0 评论 -
阅读:CNN感受野计算和可视化
阅读:CNN感受野计算和可视化感受野:输入空间中一个特定CNN特征的范围区域(The receptive field is defined as the region in the input space that a particular CNN’s feature is looking at),一个特征的感受野可以采用区域的中心位置和特征大小进行描述。即,在卷积神经网络CNN中,决定...原创 2020-01-10 11:41:57 · 1455 阅读 · 1 评论 -
阅读:图解10大CNN网络架构
阅读:图解10大CNN网络架构译文:通俗易懂:图解10大CNN网络架构原文:Illustrated: 10 CNN Architectures目录阅读:图解10大CNN网络架构1、LeNet-5 (1998)2、AlexNet (2012)3、VGG-16 (2014)4、Inception-v1 (2014)5、Inception-v3 (2...原创 2019-10-30 20:32:28 · 494 阅读 · 1 评论 -
阅读:CycleGAN,StarGAN,UntracebleGAN
阅读:CycleGAN,StarGAN,UntracebleGAN1、CycleGAN:使用非成对的图像数据集,实现两个图像域之间的转换(风格迁移)。对于含有C个领域转换而言,需要学习C*(C-1)个模型。详解GAN代码之简单搭建并详细解析CycleGANCycleGAN论文理解与TensorFlow实现2、StarGAN解决多领域间的转换问题,对于含有C个领域...原创 2019-10-09 11:37:18 · 379 阅读 · 0 评论 -
阅读:深度学习目标检测几种Anchor-free方法比较
深度学习目标检测几种Anchor-free方法比较主要介绍了自动驾驶中的深度学习目标检测的基本概念和方法,并对几个主要 Anchor free 方法进行了比较。深度学习目标检测法进化史,看这一篇就够了...原创 2019-08-30 17:32:43 · 848 阅读 · 0 评论 -
阅读:神经网络结构搜索(NAS)的原理和3种方法
神经网络结构搜索(NAS)的原理和3种方法只靠神经网络架构搜索出的网络,不训练,不调参,就能直接执行任务。这样的网络叫做WANN,权重不可知神经网络。而“ 使用神经网络设计神经网络 ” 的方法被称为神经结构搜索(NAS),通常使用强化学习或进化算法来设计新的神经网络结构。NAS系统能够自动化架构工程,只需要提供数据集,NAS能够自动得出最佳架构。入门必备 | 一文读懂神经架构搜索...原创 2019-08-30 15:40:31 · 4274 阅读 · 0 评论 -
分类损失函数:Log loss,KL-divergence,cross entropy,logistic loss,Focal loss,Hinge loss,Exponential loss
分类损失函数:Log loss,KL-divergence,cross entropy,logistic loss,Focal loss,Hinge loss,Exponential loss在分类算法中,损失函数通常可以表示成损失项和正则项的和,损失项的表达方式有如下等:1、Log loss其中 N 是输入的样本数或者实例的数量,i 是某一个样本或者实例;M 表示样本...原创 2019-07-19 19:41:25 · 7166 阅读 · 2 评论 -
CNN网络学习(1):Lenet,Alexnet,NIN,GooLeNet,VGGNet,ResNet
CNN网络学习(1):Lenet,Alexnet,NIN,GooLeNet,VGGNet,ResNet目录CNN网络学习(1):Lenet,Alexnet,NIN,GooLeNet,VGGNet,ResNet1、Lenet(1986):2、Alexnet(2012):3、NIN(2013):4、GooLeNet:(1)2014.09 --Inception v1(...原创 2019-05-10 11:18:15 · 1081 阅读 · 0 评论 -
CNN网络学习(2):ZFNet,OverFeat,FCN,FPN
CNN网络学习(2):ZFNet,OverFeat,FCN,FPN目录CNN网络学习(2):ZFNet,FCN,OverFeat1、ZFNet(2013):2、OverFeat(2014):3、FCN(2015):3、FPN(2017):1、ZFNet(2013):ZFNet论文学习详解深度学习之经典网络架构(三):ZFNet贡献:①在AlexNe...原创 2019-05-13 19:23:06 · 522 阅读 · 0 评论 -
神经网络学习(1):cells +layers
神经网络学习(1):cells +layersNEURAL NETWORK ZOO PREQUEL: CELLS AND LAYERS一、 神经元(cells)神经网络图表展示了不同类型的 神经元(cell) 和不同的 层(layer) 连接样式,但它并没有深入研究每个神经元的工作方式。最初给不同类型的神经元设置不同的颜色来更清晰地区分网络,但后来发现这些神经元的工作方式或多或少是相同的,...原创 2019-05-14 11:37:43 · 2887 阅读 · 0 评论 -
神经网络学习(2):FFNN,P,RNN,LSTM,GRU……
神经网络学习(2):P,FF,RBF,DFF,RNN,LSTM,CNN……THE NEURAL NETWORK ZOO其中大多数是神经网络,但也有些完全不同。此列表并不全面,仍需不断更新。将它们绘制为节点映射的一个问题是:它并没有真正显示它们是如何被使用的。例如,变分自动编码机(VAE)可能看起来就像自动编码机(AE),但训练过程实际上是完全不同的。受过训练的网络的用例差别更大,因为VA...原创 2019-05-14 17:52:32 · 14645 阅读 · 1 评论 -
池化方法(1):General / Mean / Max / Stochastic / Overlapping / Global Pooling
池化方法(1):General / Mean / Max / Stochastic/ Overlapping / Global PoolingCNN网络中常见结构是:卷积、池化和激活。卷积层是CNN网络的核心,激活函数帮助网络获得非线性特征,而池化的作用则体现在降采样:保留显著特征、降低特征维度,增大kernel的感受野。深度网络越往后面越能捕捉到物体的语义信息,这种语义信息是建立在较...原创 2019-05-29 11:42:38 · 2873 阅读 · 1 评论 -
池化方法(2):GAP,SPP,RoIPooling,RoIAlign
池化方法(2):GAP,SPP,RoIPooling,RoIAlign1、全局平均池化(Global Average Pooling,GAP)CNN网络中一般在全连接后会有激活函数来做分类,假设这个激活函数是一个多分类softmax,那么全连接网络的作用就是将最后一层卷积得到的 feature map 展开成向量,对这个向量做乘法,最终降低其维度;然后输入到softmax层中得到...原创 2019-05-29 17:35:29 · 1981 阅读 · 0 评论 -
激活函数:Sigmoid,Tanh,Softmax,Swish,Relu系列,GLU+GTU
激活函数:Sigmoid,Tanh,Softmax,Swish,Relu系列,GLU+GTU激活函数又称“非线性映射函数”,是深度卷积神经网络中不可或缺的模块。可以说,深度网络模型强大的表示能力大部分便是由激活函数的非线性单元带来的。激活函数是网络中非线性的来源,去除了该部分之后网络就只剩下线性运算部分,而且线性运算的组合叠加也是线性的,最后得到的结果模型等价于单层的线性模型。为了能够适用于复...原创 2019-06-03 11:34:44 · 8499 阅读 · 0 评论 -
回归损失函数:L1,L2,Huber,Log-Cosh,Quantile Loss
回归损失函数:L1,L2,Huber,Log-Cosh,Quantile Loss机器学习中所有的算法都需要最大化或最小化一个函数,这个函数被称为“目标函数”。其中,我们一般把最小化的一类函数,称为“损失函数”。它能根据预测结果,衡量出模型预测能力的好坏。在实际应用中,选取损失函数会受到诸多因素的制约,比如是否有异常值、机器学习算法的选择、梯度下降的时间复杂度、求导的难易程度以及预测值的置...原创 2019-06-04 20:09:34 · 13297 阅读 · 2 评论 -
阅读:十大深度学习CTR模型演化图谱
十大深度学习CTR模型演化图谱谷歌、阿里、微软等10大深度学习CTR模型最全演化图谱【推荐、广告、搜索领域】谷歌、阿里们的杀手锏:三大领域,十大深度学习CTR模型演化图谱CTR(Click-Through-Rate)即点击通过率,指网络广告(图片广告/文字广告/关键词广告/排名广告/视频广告等)的点击到达率,即该广告的实际点击次数(严格的来说,可以是到达目标页面的数量)除以广告的展现量...原创 2019-08-22 11:22:11 · 457 阅读 · 0 评论