机器学习
文章平均质量分 74
ScrapingBoy
这个作者很懒,什么都没留下…
展开
-
多分类 - 手写识别体-3层
神经网实现 手写识别体的多分类上篇博文,忽略偏置(b),且代价(损失)函数直接就是差的平方和,本篇文章增加了对偏置的讨论,本文是本人的学习笔记,如果出现问题,欢迎大家批评指正。需具备知识:二元函数的偏导数的求解和意义链式法则求导数据集的下载使用以下git命令克隆:git clone https://github.com/mnielsen/neural-networks-and-deep-learning.git该数据集分为:60000 幅训练图像10000 幅测试图像原创 2022-05-13 18:11:27 · 542 阅读 · 0 评论 -
多分类-手写识别体
1.分析数据集数据集:mnist_train.csv 数据集一共 (60000, 785) 行列 数据。 已知 28 * 28 = 784第一列的值为标签值。范围(0, 9), 我们希望神经网络能够预测得到正确的标签值。剩下的 784 = 28*28 列数据 是手写识别体的数字的像素值。因此 我们可以把第一列作为标签值,剩下的 28*28 列 作为 变量。import pandas as pdimport numpy as nppath = r'data\mnist_train.csv原创 2022-05-08 16:19:21 · 3797 阅读 · 1 评论 -
pyplot.plot() 画图
画图pyplot.plot() 的官方文档解释:链接1.1 画二维平面图import pandas as pdimport numpy as npimport matplotlib.pyplot as pltx = np.arange(0, 10, 3)y = np.arange(0, 10, 3)print(x)plt.plot(x, y, '*g--')plt.show()以上代码是画 二维平面图,python plt.plot(x, y, '*g--')这里的x 表示横坐标原创 2022-04-05 11:07:49 · 3745 阅读 · 0 评论 -
逻辑回归的简单应用
1.获取数据import pandas as pdimport numpy as npfrom sklearn.model_selection import train_test_splitfrom sklearn.preprocessing import StandardScalerfrom sklearn.linear_model import LogisticRegressiondata = pd.read_csv(r'data\distance.csv')data.head()原创 2022-03-30 21:22:18 · 564 阅读 · 0 评论 -
数据归一化
数据归一化归一化(Normalization):将一列数据变化到某个固定区间(范围)中,通常,这个区间是[0, 1],广义的讲,可以是各种区间,比如映射到[0,1]一样可以继续映射到其他范围,图像中可能会映射到[0,255],其他情况可能映射到[-1,1]。1. 公式Xnormalization=Xi−XminXmax−XminX_{normalization} = \frac{X_i-X_{min}}{X_{max}-X{min}}Xnormalization=Xmax−XminXi−Xm原创 2022-03-20 12:44:28 · 754 阅读 · 0 评论 -
线性回归的简单实现
1.1 线性回归中的预测模型1. 预测模型其中, = 1,如果我们把...表示为向量形式: 表示为 。一维向量表示为 列向量,表示权重,表示偏置。故上式中的公式可以向量化表示:2. 预测模型向量化表示:这里 是要求解的未知数,X是实例的特征向量。3.线性回归模型的MSE成本函数:由最小二乘法可以推导出 标准方程为:由标准方程可以求出使得成本函数最小的的值。举例:假如 X 向量只有 x0 和 x1 两列值,如下图所示:特征向...原创 2021-07-08 16:55:32 · 450 阅读 · 0 评论