机器学习
文章平均质量分 56
仲夏夜之梦xz
这个作者很懒,什么都没留下…
展开
-
Chinese MNIST数据集(Kaggle)的pytorch实现
一、Chinese MNIST数据集 本数据集来自Kaggle网站https://www.kaggle.com/gpreda/chinese-mnist主要包括15000张64*64的手写中文数字图片,和一份内容文件。二、神经网络结构 三层全连通网络:4096*300*80*15三、传播过程 BP算法的计算过程可参考之前的文章,有详细说明,不再赘述。四、本项目重点:数据集的载入 这里主要采用通...原创 2021-11-14 16:45:58 · 3171 阅读 · 0 评论 -
基于pytorch的MNIST手写数字识别
一、MNIST数据集MNIST数据集包括: 60000张训练集28*28的灰度图像及标签 10000张测试集28*28的灰度图像及标签二、神经网络结构两层全连通神经网络: 输入层:784 隐藏层:80(自定) 输出层:10三、传播过程 四、交叉熵损失函数BP算法数学推导五、程序(pytorch)...原创 2021-11-14 16:14:42 · 1366 阅读 · 0 评论 -
BP算法数学推导
BP算法是根据链式求导法则推导得出的,在此我们以2层神经网络结构演示反向推导过程。一、2层神经网络结构(不含输入层)二、BP算法数学推导1.正向计算过程输入层:第一层: 第二层: 代价函数:2.反向推导过程对W2求偏导:对W1求偏导:对其进行步骤拆分:对于W2: 对于W1: ...原创 2021-10-18 21:46:08 · 1056 阅读 · 0 评论 -
基于二层神经网络的手写数字识别(Matlab)
该程序是根据二层神经网络实现的手写数字0-9的识别。一、手写数字0-9训练集为5000幅像素为20*20的手写数字0-9,如图所示为100个样本展示图像:二、神经网络结构二层的神经网络结构如下图所示:输入层神经元401个(含1个偏执单元),隐藏层神经元26个(含偏执单元),输出层神经元10个系数矩阵的阶数为25401,的阶数为1026。三、数学推导数学推导与《简单的二层BP神经网络-实现逻辑与门(Matlab和Python)》一文中的推导过程类似,在此不再赘述,文章链原创 2021-10-16 14:30:06 · 776 阅读 · 0 评论 -
简单的二层BP神经网络-实现逻辑与门(Matlab和Python)
该程序主要是设计一个2层的神经网络,通过BP算法实现与门逻辑。一、逻辑与门二、二层的神经网络三、数学推导根据真值表可知,输入输出的对应逻辑关系。故设输入X,输出Y为 权值W1为2*2矩阵,W2为2*1矩阵(1).前向计算过程第1个神经元输出为:第2个神经元输出为:其中:(2).反向传播过程第2个神经元误差为:第1个神经元误差为:其中:权值W2的偏导数为:权值W1的偏导数为:(3)....原创 2021-10-15 17:26:39 · 5207 阅读 · 2 评论 -
《吴恩达机器学习》内容总结Week2
课程网址:Machine Learning | Coursera第二周的主要内容有两个部分:多元线性回归和Octave教程。一、多元线性回归1.基本模型2.多元梯度下降3.特征缩放 将每个特征的范围大约控制在[-1,1] 均值归一化:4.学习率 如果太小,梯度下降将很慢。 如果太大,代价函数有可能不会随每次迭代减小,可能不能收敛。 以三倍的增加进行尝试,...,0.001,0.003,0.01, 0.03...原创 2021-10-10 11:26:18 · 123 阅读 · 0 评论 -
《吴恩达机器学习》内容总结Week1
课程网址:Machine Learning | Coursera 第一周的主要内容分为三个部分:机器学习基础概念的介绍、一元线性回归和线性代数基础知识的回顾。一、机器学习基础概念的介绍1.机器学习的定义 第二个定义更为细化,要分清其中涉及的几个概念。 经验E:学习过程 任务T:设计目的 性能P:训练精度2.机器学习的分类 监督学习:给算法的数据集,其中包含...原创 2021-10-10 10:17:48 · 149 阅读 · 0 评论