深度学习基础
主要收藏一些关于深度学习相关算法的资料,以及关于深度学习相关的常用名词等
RNG_uzi_
人生苦短,我用Python
展开
-
常用坐标系简介(正在完善~)
坐标简介(有待完善)正则坐标:引入正则坐标主要还是为了处理约束问题的,也就是用直角坐标描述问题可能会有多余的自由度,比如一个粒子在一个圆环上运动,用直角坐标需要两个坐标,实际上只有角度一个坐标起作用。正则坐标和正则动量本质上还是应该从拉式量出发而不是哈密顿量出发,并不是所有的体系都可以用哈密顿量描述。首先引入拉氏量L=T-V,T是动能,V是势能,T和V只含某个广义坐标q和q对时间的一阶导数,然后一步步照着教材上正则动量,正则变换做就是了,这个该怎么做其实主要具体问题具体分析,主要还是靠经验。不过首先你原创 2020-06-18 09:24:43 · 1463 阅读 · 0 评论 -
markdown数学公式(常用版介绍)
markdown数学公式(常用版介绍)行内$$ f(x)=x $$f(x)=x f(x)=x f(x)=x段落$$s=\sum_1^n{n_i}$$s=∑1nnis=\sum_1^n{n_i}s=1∑nni上标$$ x^2 $$x2 x^2 x2下标$$ x_i $$xi x_i xi括号小括号与方括号直接输入就行,例如:小括号(1234)方括号[1234]大括号大括号已经有特殊的含义了,公式中的大括号需要用代码表示$$ \lbrace a+x \原创 2020-10-07 10:05:10 · 9569 阅读 · 3 评论 -
特征值和特征向量的实际意义
特征值和特征向量的实际意义从定义出发,Ax=cx:A为矩阵,c为特征值,x为特征向量。矩阵A乘以x表示,对向量x进行一次转换(旋转或拉伸)(是一种线性转换),而该转换的效果为常数c乘以向量x(即只进行拉伸)。我们通常求特征值和特征向量即为求出该矩阵能使哪些向量(当然是特征向量)只发生拉伸,使其发生拉伸的程度如何(特征值大小)。这样做的意义在于,看清一个矩阵在那些方面能产生最大的效果(powe...转载 2019-10-10 19:56:37 · 3723 阅读 · 0 评论 -
3D点云数据显示
3D点云数据显示效果:代码:import numpy as np import matplotlib.pyplot as plt from mpl_toolkits.mplot3d import Axes3D#打开点云数据文件f=open('RawXYZ.xyz','r')point=f.read()f.close()#数据预处理l1=point.replace('\n',...原创 2019-06-02 15:31:58 · 4653 阅读 · 5 评论 -
pointnet训练文件train.py注释
pointnet训练文件train.py注释原文如下:原创 2019-02-15 17:50:23 · 2122 阅读 · 5 评论 -
Multi-View 3D Object Detection Network for Autonomous Driving(MV3D模型)
Multi-View 3D Object Detection Network for Autonomous Driving(MV3D模型)转载 2019-08-16 10:54:51 · 505 阅读 · 0 评论 -
深度学习算法评价标准AP bbox bev 3d
深度学习算法的检测指标深度学习算法测试的数据集一般采用公开的数据集进行训练和测试,比如常用的KITTI数据集。深度学习算法的检测指标通常由bbox、bev、3d、aos四个检测指标上述四个检测指标的含义:bbox:2D检测框的准确率bev:BEV视图下检测框的准确率3d:3D检测框的准确率aos:检测目标旋转角度的准确率这篇博客介绍了SA-SSD算法的3D框指标计算的代码上面图中给出car AP @0.7 0.7 0.7 和car AP @0.7 0.5 0.5。car AP @0.7原创 2020-09-07 10:23:08 · 6691 阅读 · 0 评论 -
深度学习 | 三个概念:Epoch, Batch, Iteration
Epoch, Batch, Iteration概念Epoch(时期):当一个完整的数据集通过了神经网络一次并且返回了一次,这个过程称为一次>epoch。(也就是说,所有训练样本在神经网络中都 进行了一次正向传播 和一次反向传播 )再通俗一点,一个Epoch就是将所有训练样本训练一次的过程。然而,当一个Epoch的样本(也就是所有的训练样本)数量可能太过庞大(对于计算机而言),就需要把它分成多个小块,也就是就是分成多个Batch 来进行训练。**Batch(批 / 一批样本):将整个训练样转载 2020-06-17 15:21:00 · 1015 阅读 · 0 评论 -
CNN卷积层、池化层、全连接层
卷积神经网络是通过神经网络反向传播自动学习的手段,来得到各种有用的卷积核的过程。卷积神经网络通过卷积和池化操作,自动学习图像在各个层次上的特征,这符合我们理解图像的常识。人在认知图像时是分层抽象的,首先理解的是颜色和亮度,然后是边缘、角点、直线等局部细节特征,接下来是纹理、几何形状等更复杂的信息和结构,最后形成整个物体的概念。典型的卷积神经网络通常由以下三种层结构共同组成:卷积层(Convo...转载 2019-12-08 00:02:31 · 3641 阅读 · 0 评论 -
R-FCN:基于区域的全卷积网络来检测物体
后面主要内容为原文随便的翻译或概括。必有不紧贴原文原意之处,曲解请指出,否则求放过~1. 简介物体检测的深度网络按感兴趣区域 (RoI) 池化层分为两大主流:共享计算的全卷积子网络 (每个子网络与 RoI 无关) 和 不共享计算的作用于各自 RoI 的子网络。工程分类结构 (如 Alexnet 和 VGG Nets) 造成这样的分流。而工程上的图像分类结构被设计为两个子网络——1个后缀1...转载 2019-12-09 21:50:51 · 368 阅读 · 0 评论 -
神经网络中 参数权重W,偏置b的作用(入门教程)
可视图讲解神经元W,b参数的作用在我们接触神经网络过程中,很容易看到就是这样一个式子,g(Wx+b),其中W,x均为向量.比如下图所示:加入激活函数为g(x),我们就可以用下面公式来表示神经元的输出。(对letex不熟,用图片代替一下吧!汗)其中b为神经元的偏置.那么W,b这些参数的作用有没有最直观的感受呢?如果没有请接着往下看,每个神经元为什么要加上偏置b,不加又有什么后果呢?那就来...转载 2020-03-25 18:24:05 · 4676 阅读 · 1 评论 -
深度学习名词 解释(正在扩展~)
一.IOU(Intersection over Union)定义一.IOU(Intersection over Union)定义IOU是一种测量在特定数据集中检测相应物体准确度的一个标准。在PASCAL VOC challenge中经常使用该标准。一般在 HOG + Linear SVM object detectors 和 Convolutional Neural Network de...原创 2020-04-09 22:32:21 · 1013 阅读 · 0 评论