自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(8)
  • 资源 (1)
  • 收藏
  • 关注

原创 Arm Linux配置DHCP

随着物联网技术的普及,越来越多的设备需要联网。其中,在嵌入式领域中,ARM Linux系统是最常见的操作系统之一。在使用ARM Linux系统时,经常需要实现自动获取IP地址的功能,以便使设备能够连接到网络。那么,在ARM Linux系统中如何实现自动获取IP呢?本文将介绍一些相关的知识和实现方法。一、IP地址的分配在了解如何实现自动获取IP之前,首先需要了解一下IP地址的分配。通常,IP地址有两种分配方式:静态IP和动态IP。静态IP是指IP地址由系统管理员手动分配,通常适用于网络规模较小的情况。

2023-11-15 10:57:36 286

原创 arm-linux—SNMP简单网络管理协议的交叉编译和测试

ARM:ZLG EPC-M6G2C 工控主板涉及工具:SecureCRT(串口终端)、SugarNMSTool 智和网管软件交叉工具链:arm-linux-gnueabihf-gcc (gcc-linaro-arm-linux-gnueabihf-4.9-2014.09_linux)SNMP源码版本:net-snmp-5.7.3SNMP:“简单网络管理协议”,用于网络管理的协议。SNMP用于网络设备的管理。SNMP的工作方式:管理员需要向设备获取数据,所以SNMP提供了“读”操作;

2023-06-16 10:16:39 807 2

原创 pytorch中epoch,batch概念

该方法根据每一个样本的情况更新一次权值,开销小速度快,但收到单个样本的巨大随机性,全局来看优化性能较差,收敛速度很慢,产生局部震荡,有限迭代次数内很可能无法收敛。,小批的梯度下降,这种方法把数据分为若干个批,按批来更新参数,这样,一个批中的一组数据共同决定了本次梯度的方向,下降起来就不容易跑偏,减少了随机性。就是说我们选定一个batch的大小后,将会以batch的大小将数据输入深度学习的网络中,然后计算这个batch的所有样本的平均损失,即代价函数是所有样本的平均。如果数据集比较小,我们就采用全数据集。

2023-05-11 09:56:09 1006

原创 卷积 - 用pytorch计算

通道和输出深度是两个概念。比如彩色图,RGB共3个通道,进行卷积后,生成的通道数也就是深度,与卷积核的个数有关。参数个数:3x3(卷积核大小)x2x3(输出深度*输入通道数)+2(偏置)=456,这里的3是通道数,6是滤波器个数,再加上偏置,所以参数为456。比如,上图绿色框中的3的计算过程就是每行的红框和对应的蓝框做卷积得到3个数,分别是1,1,0. 然后加上下面的Bias,结果就是3.对于一张图片,每个卷积核的通道数都和图片通道数一样,用n个卷积核进行卷积得到的结果就是一个n通道的特征图。

2023-05-05 11:24:15 244

原创 Adam那么棒,为什么还对SGD念念不忘?一个框架看懂深度学习优化算法

机器学习界有一群炼丹师,他们每天的日常是:拿来药材(数据),架起八卦炉(模型),点着六味真火(优化算法),就摇着蒲扇等着丹药出炉了。不过,当过厨子的都知道,同样的食材,同样的菜谱,但火候不一样了,这出来的口味可是千差万别。火小了夹生,火大了易糊,火不匀则半生半糊。机器学习也是一样,模型优化算法的选择直接关系到最终模型的性能。有时候效果不好,未必是特征的问题或者模型设计的问题,很可能就是优化算法的问题。

2023-04-19 17:15:14 153 1

原创 PSO优化BP神经网络初探

return o。

2023-04-19 15:31:31 608 2

原创 回归分析详解:一文说清回归、线性回归、非线性回归、Logistic回归

假如我们希望预测某商家的销售额,我们可以使用非线性回归分析,并通过分析广告费用、宣传渠道、季节等因素与销售额之间的关系,从而预测出销售额的变化趋势。回归分析通过建立模型来预测因变量(被预测变量)与自变量(预测变量)之间的关系,从而预测因变量的值。:是回归分析的一种,假设因变量与自变量之间不存在线性关系,即因变量与自变量的关系不能用一条直线来描述,需要用更复杂的函数模型来描述。:是回归分析的一种,假设因变量与自变量之间存在线性关系,即因变量与自变量的关系可以用一条直线来描述。

2023-04-10 11:50:45 1112

原创 CACHE 写透式与回写式

直写式WT(Write Through)与回写式WB(Write Back)指的是缓冲内存的工作方式直写式缓存方式: 当CPU要将数据写入内存时,除了更新缓冲内存上的数据外,也将数据写在SDRAM中以维持主存与缓冲内存的一致性,当要写入内存的数据多起来的话,速度自然就慢了下来.回写式缓存方式: 当CPU要将数据写入内存时,只会先更新缓冲内存上的数据,随后再让缓冲内存在总线不塞车的时候才把数据写回SDRAM,所以速度自然快得多白皮书规定:===============================

2022-02-24 17:08:37 1295

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除