- 博客(9)
- 收藏
- 关注
原创 神经网络基础
它通过随机地将一部分神经元的输出设置为0来减少神经元之间的依赖关系,从而提高模型的泛化能力。在训练过程中,每个神经元都有一定的概率被丢弃,这个概率通常称为丢弃率(dropout rate)。因为Dropout 对神经元的抑制是按照p的概率随机发生的,所以使用了Dropout 的神经网络在每次训练中,学习的几乎都是一个新的网络。另外的一种解释是Dropout 在训练一个共享部分参数的集成模型。为了模拟集成模型的方法,使用了Dropout 的网络需要使用到所有的神经元。
2024-03-31 16:14:58 591 1
原创 神经网络基础
由图可知,纵坐标的范围在0~1的区间内,随着横坐标值从左往右增大,曲线的纵坐标值从0无限趋近于1,表示Sigmoid函数的输出范围是0到1,即对每个神经元的输出进行了归一化。线性整流函数(Rectified Linear Unit,ReLU),又称修正线性单元,是一种人工神经网络中常用的激活函数,通常指代以斜坡函数及其变种为代表的非线性函数。使得误差反向传播的关键在于利用求偏导的链式法则。由于求偏导需要激活函数是连续的,而符号函数不满足连续的要求,因此通常使用连续可微的函数,如sigmoid作为激活函数。
2024-03-31 15:38:01 561 1
原创 Logistic回归
Logistic回归是处理分类问题的一种常用机器学习算法,尤其适用于二分类问题,即结果只有两个类别,例如“是”或“否”。它可以估计某个事件发生的概率,比如用户是否会购买商品、病人是否患有某种疾病、广告是否会被点击等。Logistic回归模型的输出是一个介于0和1之间的概率值,这个值表示某个事件(通常是感兴趣的正类)发生的概率。
2024-03-24 17:09:29 344 3
原创 深度学习基础
torch包含的数据类型和普遍编程语言的数据类型类似,包含浮点型、有符号整型和无符号整型。这些类型既可以定义在CPU上,也可以定义在GPU上。在使用Tensor 数据类型时,可以通过dtype属性指定它的数据类型,device 指定它的设备(CPU或者GPU)。通过device在GPU上定义变量后,可以在终端上通过nvidia-smi命令查看显存(显卡内存)占用。torch 还支持在 CPU和GPU之间复制变量。对Tensor执行算数运算符的运算,是两个矩阵对应元素的运算。
2024-03-24 15:22:11 862
原创 机器学习基础知识
聚类是将相似的数据点分组在一起的过程,而降维则是减少数据复杂性的同时尽量保留其重要特征的过程。潜在的统计机制是检查真实和虚假数据是否相同的测试,它是无监督学习的另一个重要而令人兴奋的领域。这种学习方法可以揭示数据中的关系和组织方式,这对于理解数据的分布和特征是非常有用的。:监督学习适用于各种场景,如图像识别、语音识别、文本分类、医疗诊断等,只要有足够多的标记数据,就可以训练出一个有效的模型。我们可以收集到该城市过去几年的房价数据,以及一些相关的因素,比如房屋的面积、房龄、所处区域、楼层等。
2024-03-08 16:50:34 1016 1
原创 深度学习框架
Caffe是一种对新手非常友好的深度学习框架,它的相应优化都是以文本形式而非代码形式给出。Caffe中的网络都是有向无环图的集合,可以直接定义。Caffe网络的定义如下图TensorFlow 是一个采用数据流图(data flow graph)进行数值计算的开源软件库。节点(node)在数据流图中表示数学操作,线(edge)则表示在节点间相互联系的多维数据数组,即张量(tensor)。
2024-03-07 21:10:56 1254
原创 【深度学习简介】
介绍了深度学习的应用领域。卷积神经网络可以模拟人类处理视觉信息的方式提取图像特征,极大地推动了计算机视觉领域的发展。自然语言处理是典型的时序信息分析问题,其主要应用包括句法分析、情感分类、机器翻译等。强化学习强调智能体与环境的交互与决策,具有广泛的应用价值。
2024-03-03 19:12:24 919 1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人