- 博客(14)
- 资源 (30)
- 收藏
- 关注
原创 PyTorch——(8) 正则化、动量、学习率、Dropout、BatchNorm
文章目录正则化L-1正则化实现L-2正则化动量学习率衰减当loss不在下降时的学习率衰减固定循环的学习率衰减DropoutBatch Norm正则化L-1正则化实现PyTorch没有L-1正则化,所以用下面的方法自己实现L-2正则化一般用L-2正则化weight_decay 表示λ\lambdaλ动量moment参数设置上式中的β\betaβ,表式上一时刻梯度所占的比例0~1之间学习率衰减当loss不在下降时的学习率衰减固定循环的学习率衰减DropoutDropout
2021-04-28 18:47:32 477
原创 PyTorch——(7) MNIST手写数字识别实例
网络结构代码import torchimport torch.nn as nnimport torch.nn.functional as Fimport torch.optim as optimfrom torchvision import datasets, transformsbatch_size=200learning_rate=0.01epochs=10# 下载数据train_loader = torch.utils.data.DataLoader( datas
2021-04-26 22:01:04 136
原创 PyTorch——(6)2D函数优化实例
最小值点有4个import numpy as npfrom mpl_toolkits.mplot3d import Axes3Dfrom matplotlib import pyplot as pltimport torchdef himmelblau(x): return (x[0] ** 2 + x[1] - 11) ** 2 + (x[0] + x[1] ** 2 - 7) ** 2# x = np.arange(-6, 6, 0.1)# y = np.arange(
2021-04-25 22:12:20 128
原创 PyTorch——(5)自动梯度计算
文章目录声明需要进行自动梯度进行自动梯度声明需要进行自动梯度未申明的变量将无法进行自动梯度申明方法有两种# 在创建完成后,申明自动梯度x = torch.ones(1)x.requires_grad()# 在创建时,就申明自动梯度w = torch.full([1],2,requires_grad=True)进行自动梯度也有两种方法其中loss必须是一个标量每次自动梯度后。图会被销毁,导致下次调用自动梯度失效,可以设置retain_graph= True保持图不被销毁...
2021-04-25 21:24:43 166
原创 PyTorch——(4)where条件判断、gather查表
where() 条件判断gather()查表input :待查的表dim : 在input的哪个维度上查表index: 待查表的索引值
2021-04-25 21:00:44 326
原创 PyTorch——(3) tensor基本运算
文章目录矩阵乘法tensor的幂exp()/log()近似运算clamp() 截断norm() 范数max()/min() 最大最小值mean() 均值sun() 累加prod() 累乘argmax()/argmin() 最大最小值所在的索引topk() 取最大的n个kthvalue() 第k个小的值比较运算矩阵乘法只对2d矩阵有效,因为矩阵乘法是定义在2d矩阵上的torch.mm(a,b)torch.matmul(a,b)a@btensor的幂对tensor中的每一个元素都进行幂运算
2021-04-25 20:31:18 1148
原创 PyTorch——(2) tensor基本操作
文章目录维度变换view()/reshape() 改变形状unsqueeze()增加维度squeeze()压缩维度expand()广播repeat() 复制transpose() 交换指定的两个维度的位置permute() 将维度顺序改变成指定的顺序合并和分割cat() 将tensor在指定维度上合并stack()将tensor堆叠,会增加新的维度split()根据指定维度的长度拆分chunk()根据数量拆分维度变换view()/reshape() 改变形状view()/reshape()等价,参数为
2021-04-25 20:01:35 1019
原创 pyTorch——(1)基本数据类型
文章目录torch.tensor()torch.FloatTensor()torch.empty()torch.zeros()torch.ones()torch.eye()torch.randn()torch.rand()torch.randint()torch.full()torch.normal()torch.arange()torch.linspace()torch.randperm()torch.from_numpy()x.item()isinstance数据类型检验torch.tensor()
2021-04-25 16:59:53 172 1
转载 已知sim3相似变换矩阵,如何求解出R, s, t ,从sim3相似变换矩阵中恢复和获得尺度、旋转、平移
如果已知如下这种sim3相似变换矩阵,如何求解出R, s, t ?首先我们知道sim3变换的矩阵具有形式如下:相似变换矩阵只是在旋转矩阵前面乘了一个常数 s要从一个 4 × 4 的相似变换矩阵中分离 t很容易,直接取出矩阵对应位置的值即可。但是要分离 s , R 需要做一些非常简单的矩阵运算:...
2021-04-21 23:56:38 378
原创 ORBSLAM2`/usr/bin/ld: CMakeFiles/RGBD.dir/src/ros_rgbd.cc.o: undefined reference to symbol ‘_ZN5boos
可以直接在ORBSLAM2/Examples/ROS/ORBSLAM2下的Cmakelists.txt中添加一行,-lboost_system set(LIBS ${OpenCV_LIBS} ${EIGEN3_LIBS} ${Pangolin_LIBRARIES} ${PROJECT_SOURCE_DIR}/../../../Thirdparty/DBoW2/lib/libDBoW2.so ${PROJECT_SOURCE_DIR}/../../../Thir
2021-04-19 16:29:41 454
原创 dynamic_cast用法总结
https://blog.csdn.net/weixin_44212574/article/details/89043854
2021-04-16 22:09:00 195
原创 奇异值分解(SVD)与线性最小二乘问题
文章目录一、奇异值分解(SVD)原理1.1 回顾特征值和特征向量1.2 SVD的定义1.3 求出SVD分解后的U,Σ,V矩阵1.4 SVD计算举例1.5 SVD的一些性质1.6 SVD用于PCA二、线性最小二乘问题2.1 最小二乘问题复习2.2 广义逆矩阵2.2 奇异值分解与线性最小二乘问题参考链接打赏一、奇异值分解(SVD)原理1.1 回顾特征值和特征向量我们首先回顾下特征值和特征向量的定义如下:Ax=λxAx=λxAx=λx其中A是一个n×n的实对称矩阵,x是一个n维向量,则我们说λ是矩阵A
2021-04-11 18:08:42 1666
原创 ORB_SLAM3原理源码解读系列(4)——视觉词袋模型
文章目录一、词袋模型的引出二、原理三、实现步骤3.1 生成词袋3.2 用词表示图像四、vocabulary tree(字典)4.1 生成字典4.2 使用字典一、词袋模型的引出最初的Bag of words,也叫做“词袋”,在信息检索中,Bag of words model假定对于一个文本,忽略其词序和语法,句法,将其仅仅看做是一个词集合,或者说是词的一个组合,文本中每个词的出现都是独立的,不依赖于其他词 是否出现.也就是说,文档中任意一个位置出现的任何单词,都不受该文档语意影响而独立选择的。例如有如下两
2021-04-09 21:39:52 554
原创 主流卡尔曼滤波推导——KF、EKF、IKF、UKF、ESKF
文章目录一、高斯分布1.1 高斯概率密度函数1.2 联合高斯概率密度函数1.3 高斯随机变量的线性变换二、滤波器基本原理2.1 贝叶斯滤波三、卡尔曼滤波3.1 普通卡尔曼滤波器 (KF)3.2 扩展卡尔曼滤波(EKF)一、高斯分布1.1 高斯概率密度函数一维情况下, 高斯概率密度函数表示为:其中μ\muμ为均值, σ2\sigma^2σ2为方差。多维情况下, 高斯概率密度函数表示为其中μ\muμ为均值, 方差为Σ\SigmaΣ 。1.2 联合高斯概率密度函数1.3 高斯随机变量的线性
2021-04-07 10:42:35 2764
预积分总结与公式推导20180827.pdf
2020-09-26
matplotlib颜色参数.docx
2020-06-19
fake.mnist.gan.py
2020-05-26
unet_semantic_segmentation.py
2020-05-26
res50完整源代码
2020-05-25
trafic-signs-recognition.tar.gz
2020-05-21
图像理解image_caption.tar.gz
2020-05-19
ROS与navigation教程.pdf
2019-10-05
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人