神经网络
_123杨子江
这个作者很懒,什么都没留下…
展开
-
最全的损失函数汇总
1 L1范数损失 L1Loss计算 output 和 target 之差的绝对值。torch.nn.L1Loss(reduction=‘mean’)参数:reduction-三个值,none: 不使用约简;mean:返回loss和的平均值;sum:返回loss的和。默认:mean。2 均方误差损失 MSELoss计算 output 和 target 之差的均方差。torch.nn.MSELoss(reduction=‘mean’)参数:reduction-三个值,none: 不使用约简;转载 2020-07-09 21:47:09 · 1197 阅读 · 0 评论 -
多层感知器MLP
一、多层感知机(MLP)原理简介多层感知机(MLP,Multilayer Perceptron)也叫人工神经网络(ANN,Artificial Neural Network),除了输入输出层,它中间可以有多个隐层,最简单的MLP只含一个隐层,即三层的结构,如下图:从上图可以看到,多层感知机层与层之间是全连接的(全连接的意思就是:上一层的任何一个神经元与下一层的所有神经元都有连接)。多层感知机...转载 2019-11-08 09:27:02 · 2109 阅读 · 0 评论 -
生成对抗网络(GAN)
转载的文章▌前言GAN网络是近两年深度学习领域的新秀,火的不行,本文旨在浅显理解传统GAN,分享学习心得。现有GAN网络大多数代码实现使用Python、torch等语言,这里,后面用matlab搭建一个简单的GAN网络,便于理解GAN原理。GAN的鼻祖之作是2014年NIPS一篇文章:Generative Adversarial Net(https://arxiv.org/abs/1406....转载 2019-11-06 15:25:52 · 314 阅读 · 0 评论 -
pytorch可以直接调用的网络
最近才发现pytorch原来内部写好了一些网络,我们可以直接调用,并不需要从原论文处复制粘贴!还是挺好的,免去了一些麻烦!网址:https://github.com/pytorch/vision/tree/master/torchvision/models...原创 2019-10-31 17:03:41 · 1671 阅读 · 0 评论 -
getattr,setattr,hasattr详解
1,hasattr(object, name)  判断一个对象里面是否有name属性或者name方法,返回BOOL值,有name特性返回True, 否则返回False。需要注意的是name要用括号括起来实例:2,getattr(object, name[,default])&n...转载 2019-10-29 14:27:41 · 153 阅读 · 0 评论 -
RPN(Region Proposal Network)
RPN全称是Region Proposal Network,Region Proposal的中文意思是“区域选取”,也就是“提取候选框”的意思,所以RPN就是用来提取候选框的网络; 1. RPN的意义 RPN第一次出现在世人眼中是在Faster RCNN这个结构中,专门用来提取候选框,在RCNN和...转载 2019-10-24 19:04:46 · 1580 阅读 · 0 评论 -
Depthwise卷积与Pointwise卷积
Depthwise(DW)卷积与Pointwise(PW)卷积,合起来被称作Depthwise Separable Convolution(参见Google的Xception),该结构和常规卷积操作类似,可用来提取特征,但相比于常规卷积操作,其参数量和运算成本较低。所以在一些轻量级网络中会碰到这种结构如MobileNet。常规卷积操作对于一张5×5像素、三通道彩色输入图片(shape为5×5×...转载 2019-10-24 18:55:07 · 565 阅读 · 0 评论 -
训练集、验证集、测试集以及交验验证的理解
https://blog.csdn.net/kieven2008/article/details/81582591原创 2019-10-17 14:57:15 · 157 阅读 · 0 评论 -
Fully Convolutional Networks
没啥图片,将就着看吧转载 2019-10-17 09:03:44 · 142 阅读 · 0 评论 -
神经网络笔记
原文地址:https://blog.csdn.net/u011311291/article/details/78088480原创 2019-10-17 08:52:48 · 116 阅读 · 0 评论 -
图像中的掩膜(Mask)是什么
在图像处理中,经常会碰到掩膜(Mask)这个词。那么这个词到底是什么意思呢?下面来简单解释一下。1.什么是掩膜首先我们从物理的角度来看看mask到底是什么过程。在半导体制造中,许多芯片工艺步骤采用光刻技术,用于这些步骤的图形“底片”称为掩膜(也称作“掩模”),其作用是:在硅片上选定的区域中对一个不透明的图形模板遮盖,继而下面的腐蚀或扩散将只影响选定的区域以外的区域。图像掩膜与其类似,用选定...转载 2019-10-14 10:10:24 · 968 阅读 · 0 评论 -
处理方法:pytorch0.3.0和pytorch1.1.0(0.4.1)的区别
1、官方文档介绍2、PyTorch 0.4新版本 升级指南 no_grad3、pytorch0.3和0.4对比总结4、pytorch0.4使用注意5、pytorch 0.3到0.4迁移6、PyTorch | 0.3到0.4不完整迁移手册7 、Pytorch 0.3加载0.4模型及其之间版本的变化8、Pytorch常见问题、PyTorch 0.4新版本升级指南no_grad、cuda(...原创 2019-10-09 14:29:50 · 2724 阅读 · 0 评论 -
2017-2018我这两年的目标检测
从17年开始接触object detection,到现在也差不多两年,算是做一个总结吧,纯属个人观点. 先Overview一下我认为较为重要的论文及其所代表的思想.然后大致按时间脉络理一下不同时期的思想与理解,这个日后可能再加了.最后稍微讨论一下一些细节性问题.Overview一张图按时间顺序梳理一下如下:红线连接的一行算是一个思路. 虽然还有很多论文,但是于我自己看来比较有代表性的如上了...转载 2019-09-19 16:34:07 · 260 阅读 · 0 评论 -
详解计算机视觉五大技术:图像分类、对象检测、目标跟踪、语义分割和实例分割...
转自https://blog.csdn.net/dQCFKyQDXYm3F8rB0/article/details/80016353结语上述这 5 种主要的计算机视觉技术可以协助计算机从单个或一系列图像中提取、分析和理解有用的信息。你还可以通过我的 GitHub 存储库(https://github.com/khanhnamle1994/co...转载 2019-09-18 10:46:49 · 379 阅读 · 0 评论 -
一文入门卷积神经网络:CNN通俗解析
原文地址:https://yq.aliyun.com/articles/637953转载 2019-06-23 21:05:28 · 328 阅读 · 0 评论 -
梯度下降算法的简单学习
https://baijiahao.baidu.com/s?id=1613121229156499765&wfr=spider&for=pchttps://www.jianshu.com/p/c7e642877b0e转载 2019-06-26 22:03:25 · 1193 阅读 · 0 评论 -
逻辑回归(Logistic Regression, LR)
参考博客1:逻辑回归简介(通俗)参考博客2:吴恩达的视频(有趣)参考博客3:机器学习算法(一):逻辑回归模型(Logistic Regression, LR)(比较详细)最近看了一点吴恩达的视频,觉得挺有意思的。来个通俗的介绍逻辑回归概念:首先我们给出逻辑回归的公式:其中,Y为决策值,x为特征值,e为自然对数。Y(x)的图形如下:该函数是一条S形的曲线,并且曲线在中心点附近的增...转载 2019-08-30 10:02:00 · 293 阅读 · 0 评论 -
一文看尽26种神经网络激活函数(从ReLU到Sinc)
在神经网络中,激活函数决定来自给定输入集的节点的输出,其中非线性激活函数允许网络复制复杂的非线性行为。正如绝大多数神经网络借助某种形式的梯度下降进行优化,激活函数需要是可微分(或者至少是几乎完全可微分的)。此外,复杂的激活函数也许产生一些梯度消失或爆炸的问题。因此,神经网络倾向于部署若干个特定的激活函数(identity、sigmoid、ReLU 及其变体)。下面是 26 个激活函数的图示及其一...转载 2019-08-30 10:05:54 · 227 阅读 · 0 评论 -
机器学习的向量化
在学习机器学习的时候,我们总是会听到向量化(vectorized)这个词,为什么呢?其实一个主要的原因是为了提升代码的运行效率。假设现在我们有这么个函数:如果没有向量化,那么在直接计算这个求和公式的话,需要的代码量是如下这么多行:p = 0;for i = 1:n+1, p = p + theta(i)*x(i);end;但是如果将其中一个参数集合向量化了,使其两个...转载 2019-08-30 21:19:07 · 791 阅读 · 0 评论 -
BP神经网络
BP神经网络翻译 2019-08-31 15:18:02 · 736 阅读 · 0 评论 -
softmax详解
https://blog.csdn.net/bitcarmanlee/article/details/82320853转载 2019-08-31 16:05:33 · 29934 阅读 · 2 评论 -
TSN算法的PyTorch代码解读
https://blog.csdn.net/u014380165/article/details/79058147原创 2019-09-04 16:02:33 · 1298 阅读 · 0 评论 -
Pytorch遇到的问题及解决方案 - 更新ing
感谢大佬分享经验!!!1、安装完成后,不能import torch,提示 ImportError: dlopen: cannot load any more object with static TLS解决办法:有很多答案都说是将import torch放在import cv2之前,但我试了之后还是不能解决,最后是通过在jupyter notebook中可以直接import torch。我是通...转载 2019-09-05 10:46:49 · 2575 阅读 · 0 评论 -
DataLoader worker (pid ****) is killed by signal: Killed. 解决方法
1、因为pytorch过程太费内存了,导致服务器内存不够,触发OS的保护机制,直接杀死了进程2、用free查看内存3、增加虚拟内存sudo dd if=/dev/zero of=/swapfile bs=1M count=1024 oflag=append conv=notrunc//count=1024是增加1G的虚拟内存4、在free查看内存...原创 2019-09-05 19:34:54 · 17898 阅读 · 6 评论 -
卷积神经网络CNN总结
卷积神经网络CNN总结从神经网络到卷积神经网络(CNN)我们知道神经网络的结构是这样的:那卷积神经网络跟它是什么关系呢?其实卷积神经网络依旧是层级网络,只是层的功能和形式做了变化,可以说是传统神经网络的一个改进。比如下图中就多了许多传统神经网络没有的层次。卷积神经网络的层级结构• 数据输入层/ Input layer • 卷积计算层/ CONV layer • ReLU激励层 ...转载 2019-03-01 17:26:59 · 291 阅读 · 0 评论