- 博客(9)
- 资源 (1)
- 收藏
- 关注
原创 浅谈Shared MLP与MLP
通过两者对比,就能比较容易理解Shared MLP中shared的意思了。即在点云网络中,强调每个点云都共享同一组参数。这也是为什么要用卷积来进行MLP实现的原因,因为CNN很大的一个特点是在CNN中,卷积层的滤波器参数是共享的,即它们在整个输入上使用相同的权重和偏置。这种参数共享的机制大大减少了模型的参数量,使得CNN具有更好的泛化能力,并能够有效地处理大规模数据这样的特性使得模型能能适应点云的特性。
2024-01-08 14:23:36 1206
原创 dataloader各项参数详解
在学习某一神经网络框架时,数据流总是能帮助大家更好地理解整个模型的运行逻辑/顺序,而其中Dataloader的作用在某些时候更是至关重要的。笔者将自己的学习到的关于dataloader的创建,作用尽可能详细地记录下来以方便日后回顾,也欢迎各位匹配指正。
2023-04-20 21:53:42 11296 4
原创 Nvidia Jetson AGX Orin使用CAN通信 |收发器&CAN分析仪双版本
测试AGX提供的can功能,从而通过can控制底盘
2023-02-16 11:37:24 4966 1
原创 树莓派4B使用PCA9685控制舵机
一.IIC通信在raspi-config中的interface选项打开IIC通信二.下载Adafruit_PCA9685包pip3 install Adafruit_PCA9685也可以去github或者gitee搜索adafruit_pca9685查看源码和demo注:这里还可以选用SERVO DRIVER HAT这一控制舵机的板子可参考(17条消息) 树莓派4B通过16路PWM输出的PCA9685模块控制舵机(机械臂)附完整代码_袁六加.的博客-CSDN博...
2021-10-17 11:10:54 7508 2
原创 深度学习笔记(二) 浅层神经网络详细实现(含代码)
简单的引入简单的神经网络示意图如下:其中的每个节点都做着和logistic回归类似的工作,只不过仅输出层计算成本每一层其实就是把前一层输入的特征向量进行预测,并把这些每个节点的预测值作为新的特征向量来传给下一层。简单来说就是把原本可以”具体”反应数据的最原始的特征向量抽象化,而每个节点都有自己的参数最后通过不断迭代,得到满意的参数正向传播首先对于单个样本,在隐藏层:当隐藏层节点数很多时,这样就显得不高效了,因此要将这几步计算向量化,即:可以帮助记忆的特点是..
2021-08-16 12:33:37 950
原创 深度学习笔记(一)二分分类 | logistic regression(详细的损失函数理解)
基于https://www.bilibili.com/video/BV164411m79z?p=24观后笔记相关函数定义介绍代价/成本函数和损失函数损失函数(Loss/error function)是定义在单个训练样本上的,即一个样本的误差。代价函数(Cost function)是定义在整个训练集上面的,对所有样本的误差的总和求平均值。但由于实质相同,都是事先定义一个假设函数,通过训练集由算法找出一个最优拟合,即使得函数值最小(如通过梯度下降法),从而估计出假设函数的参数。所以往往我所看到的.
2021-08-13 20:50:55 1697
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人