自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(14)
  • 收藏
  • 关注

原创 anaconda装好后,cmd不能使用conda,Anaconda安装啥也没有,等命令的解决

最新版本的Anaconda安装包有毒,2019.7那版。我换了5.3.1版本,顺利安成功。

2019-10-10 20:45:35 1971

原创 Scan2BIM(1):文献阅读笔记(1):《将3D点云数据自动转换为建筑信息模型的研究》、《自动构建模型的研究现状》

《将3D点云数据自动转换为建筑信息模型的研究》阅读笔记本文提出了一种算法框架将点云数据处理为AB-BIM。该算法的输入应该是彩色的点云数据(从Leica BLK 360获取)或没有颜色信息的点云数据(从Zebrevo获取)。【已有算法的使用,先走通再说】软件:Autodesk Recap处理获取的点云、Autodesk Revit 2018用于建模,算法用C++、Point C...

2019-10-03 08:56:28 2449 5

原创 3D机器学习(12):Open3D学习笔记:RGBD图像转化为点云、点云的体素化

Open3D学习笔记:将4通道RGBD图像转换为双通道的灰度深度图,并将其用照相机转化为点云。点云的体素化1、将4通道RGBD图像转换为双通道的灰度深度图Redwood格式=深度图+RGB图,其中深度信息存储在16-bit的单通道图像中。整数值表示以毫米为单位的深度测量值。 print("Read Redwood dataset") color_raw = o3d....

2019-09-26 18:51:29 7310 3

原创 3D机器学习(12):AlexNet、VGG、GoogNet、Resnet、Densenet、nn.Module、数据增强

从2010年开始,深度学习开始进入人们视野,2012年的Alexnet是第一个真真意义上的深度网络,尽管只有8层,但其错误率只有16.4%,2015年微软亚洲研究院的何凯明同学的Resnet使得错误率降低至3.57。AlexNet 人工分配两块GPU,因此上图会有两条路线,但现在都是框架自己主动分配了。使用了11*11的卷积核。7层隐藏层,共8层,60M的参数,训练了1周。现在不会用这...

2019-09-23 08:50:57 1938

原创 3D机器学习(11):滤镜、卷积、池化、批量标准化

额外话:Pytorch中,小写是函数,大写是类。滤镜卷积运算 =∑同尺寸的2个矩阵中同一位置元素相乘,输出为一个数。在图片处理里面,给图片加上不同的效果,就是使用的卷积核运算。比如下面的 “锐化图像”,使用的锐化卷积核,周围的-1和核中间的5可以降低某个像素周边的颜色强度但增加其本身的颜色强度,因此显得很突出。但是在模糊处理这个滤镜下,就可以使用另一个周边与核心都等于1的模...

2019-09-19 15:36:52 1149

原创 3D机器学习(10):动量、Learning rate decay、Early stop、Dropout、Stochastic grandient descent随机梯度下降

动量:在经典迭代公式中,学习后的参数仅仅考虑当前梯度方向,却没有考虑历史梯度方向。使用动量就是加入历史梯度方向,就像人在运动时,除了自己主动想变向,还有一个惯性力,这就可以使得方向的改变是两个力的叠加,方向改变变得更平滑。看公式,引入递推公式代替原本的单纯的梯度项,这样子就可以保留上次一梯度的信息。最终效果如图所示,前一张图没有加入动量项,后一张图有,会发现方向改变的更平滑。此外,...

2019-09-18 12:44:51 369

原创 3D机器学习(9):过拟合、Train-Val-Test-交叉验证、防止过拟合、正则化regularization

欠拟合:模型复杂度不够。比如二次方的函数只用一次方拟合。过拟合:模型复杂度太高,因此没有放过每一个点包括噪声点。因此会导时训练时效果很好,但是试验集时效果很差。现实中一般都是overfitted的。因为,计算机太强了。如何检测overfitted?目标函数:训练集表现好,测试集表现差。Train_loader用于储存训练数据Test_loader或者validatio...

2019-09-18 11:34:38 716

原创 3D机器学习(8):GPU加速、计算正确率、训练监测可视化tensorboardX和visdom

GPU加速:把计算过程从CPU切换到GPU上。首先,把设备定义为使用cuda,然后把我们建立好的网络MLP搬到设备上去,还需要把交叉熵损失函数也搬上去,最后需要把data搬上去。,即完成了数据上传至cuda进行加速运算的前期准备。网络刚开始训练时,loss会下降,准确性会上升,这时的网络参数在学一些本质的特征,但随着学习的次数增加,会发现尽管准确率上升,但有效性却不再上升,并且损...

2019-09-16 14:46:42 577

原创 3D机器学习(7):MInst数据集实战:一种自己从头开始写,一种利用封装好的代码

《MInst数据集实战》1、自己从头开始写1.1原理解读:内容:输入28*28=784的数字图片向量,第一个隐藏层将784用矩阵运算压缩到200,第二层不压缩,仍保持200个参数。最后一层提取出10个参数,作为10分类,到底是哪个数字的问题。第一步:创建网络,创建三个线性层,每个线性层都有参数w和b,注意w和b的矩阵维度,和申明需要梯度计算。因为最后是10分类,所以最后w和b都...

2019-09-16 12:55:26 431

原创 3D机器学习(6):交叉熵(cross entropy loss),一种收敛更快的损失函数

1、交叉熵(cross entropy loss)简介熵=entropy=不确定性=惊讶的度量。越高的熵越低的信息度,因此不确定性或者混乱性越高,熵越高。数学定义,把所有事情的概率通过下式计算。比如概率分比为:0.001、0.001、0.001、0.999,则其熵=0.0313,非常小,说明稳定性较大,基本上事实仅由概率为0.999的事情给主宰。但当概率均为0.25时,说明不确...

2019-09-16 09:37:54 2152 2

原创 3D机器学习(5):6种激活函数、基于均方差的梯度下降法

1.三种激活函数torch.sigmoi=F.sigmoidtorch.tannh=F.tanhtorch.relu=Frelu2.典型的loss函数:mean squire errorMSE=mean squire error=均方差:∑(y-y预测 )^2,这里norm会开根号,所以需要平方回去。F.mse_loss(y,y预测)函数可建立此类loss函数。当需要求导...

2019-09-15 14:07:30 698 1

原创 3D机器学习(4):pytorch入门3:张量的拼接与拆分、张量的运算、张量的统计

Broadcast 功能=自动插入扩展=unsqueeze+expand=扩张+复制填充Cat=concat拼接,两个班的人合并成4+5=9人。其中dim负责控制拼接的维度,这里dim=0就只拼接第一个维度:4+5=9Stack=另一种拼接,会创建一个新的维度,类似于平行的单元。比如:两个班合并,形成了班级的这个维度:班级1和班级2。Split=拆分,Cat的反义词。 Chun...

2019-09-14 21:34:56 996

原创 3D机器学习(3):pytorch入门2:MNist数据集、ReLU函数、张量的概念与建立

1.MNist数据集手写0-9,每个数字有7000张,一共70K张,其中60k用作训练,10k用作验证。每张照片采用灰度图,28*28的矩阵,矩阵的每个数字0or1,表示黑或白。也可以表示成1*784的一维向量。这里的y可以采用独热编码(One-Hot),即一个1*10的向量。比如如果有三层嵌套,则y=H3,当H3=[0,1, 0,8 ,0,1 ,0 ,0 ,0 ,0 ,0 ,0...

2019-09-14 15:21:05 646

原创 3D机器学习(2):pytorch入门:pytorch优点,梯度下降法初步

1、pyTorch的好处:1、 方便的使用GPU加速生成a,b随机矩阵,进行矩阵乘法matmul。记录:结束时刻减去开始时刻,得到并打印使用时间,并说明是设备:CPU计算的,并说明结果矩阵的大小。这一次,将设备改成cuda,进行GPU加速,同样记录时间,并且运行两次,因为第一次的计算时间包括初始化,第二次才是真正计算时间。结果:cuda可用,且使用cuda后,速度从0.23秒变成了0...

2019-09-14 08:57:33 902

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除