机器学习
文章平均质量分 97
君子不怨
硕博连读,研究自动驾驶相关领域。每天做梦登上science封面,时常起草“图不灵奖”获奖感言。
展开
-
minist手写数据集识别(没用神经网络)(附源码,训练准确率94%,测试准确率91%)
一、说一下我想水一篇博客,然后就水一篇minist手写数据集的识别。这个模型就两层,输入层和输出层,输入层400个特征(吴恩达提供的minist数据集,5000个样本,每个样本是20*20的灰度图),输出层十个逻辑回归单元,因为是十分类嘛。然后,激活函数用了softmax,正则化方法用了L2,因为dropout有点麻烦也没必要,毕竟这也不是个神经网路。数据集三七分,70%作为训练集,30%作为测试集。经过试验,模型对手写数字识别的训练准确率达到94%,测试准确率达到91%。二、参数设置1.学习率原创 2020-11-03 20:23:31 · 1866 阅读 · 2 评论 -
非线性逻辑回归(2维至28维特征映射+正则化)及Python源码
一、问题引入在上次的博文中说了二分类中的线性逻辑回归问题,我门可以将两类数据通过一条简单的直线进行“分割”。但实际上,逻辑回归中的数据并不一定是那么“规矩”的排列,也就是很多情况下两类数据的边界并不那么规整,我们无法通过一条简单的直线对数据进行分类,这类问题即为“非线性逻辑回归问题”。接下来,我将通过吴恩达课后题的例子为大家提供自己解决“非线性回归问题”的思路及源代码。其中包括特征映射、正则化、决策边界划分的概述。题目要求如图1.1所示。图1.1 问题描述二、特征映射基于上..原创 2020-10-02 11:27:06 · 1278 阅读 · 2 评论 -
逻辑回归算法分析及python源码
说明:本博客中的分析思路、举例、部分插图等均来源于吴恩达教授在斯坦福大学公开课《机器学习》中的讲解内容!一、概述我们可以简单的把逻辑回归所要解决的问题理解为“分类”问题,在分类问题中最为简单的为二分类,即我们只需要把一组数据分为两类即可。而在二分类问题中,最为简单的又属“线性分类”,即我们只需要用一条直线即可将两类数据分开。本博文就以最简单的线性二分类为例讲一下逻辑回归的思想。二、从一个例子引入在斯坦福公开课中,吴恩达教授通过一个“判断肿瘤是否是良性”的问题引入逻辑回归问题。即我们要..原创 2020-09-21 22:29:47 · 743 阅读 · 0 评论 -
单变量线性回归算法分析及python源码
说明:本博客中的分析思路、举例、部分插图等均来源于吴恩达教授在斯坦福大学公开课《机器学习》中的讲解内容!一、概述单变量线性回归算法属于监督学习的一类,所谓回归是指我们根据之前的数据预测一个较为准确的输出值。即我们给算法一定的训练集,训练集中的每一个训练样本均为“正确答案”,算法通过对训练集的学习而建立起合适的模型用以预测新的输入值对应的输出值。二、从一个例子说起在斯坦福公开课中,通过这么一个例子引入单变量线性回归算法的问题,即“根据房子面积预测房子售价”。如图2.1所示,我们已知...原创 2020-09-12 12:08:57 · 1844 阅读 · 0 评论