![](https://img-blog.csdnimg.cn/20201014180756757.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
传统机器学习
Hao-qiang
这个作者很懒,什么都没留下…
展开
-
1.1 图像分类:数据驱动的方法,k-近邻,划分训练集/验证集/测试集
1.1 图像分类:数据驱动的方法,k-近邻,划分训练集/验证集/测试集本文是对斯坦福大学“CS231n:用于视觉识别的卷积神经网络”课程笔记的翻译。模块1:神经网络 第1部分:图像分类:数据驱动的方法,k-近邻,划分训练集 / 验证集 / 测试集 原文链接这篇介绍性教程目的是向非机器视觉专业的人介绍图像分类问题,以及数据驱动的方法。目录 介绍图像分类,数据驱动的方法,流程 最近邻分类器 k-最翻译 2017-12-12 14:04:53 · 7584 阅读 · 0 评论 -
逻辑回归
1. Sigmoid 函数 g(z)=11+e−zg(z)=\frac{1}{1+e^{-z}}g′(z)=g(z)(1−g(z))g\prime(z)=g(z)(1-g(z))2. 假设函数 hθ(x)=g(θTx)=11+e−θTx h_\theta(x)=g(\theta^{T}x)=\frac{1}{1+e^{-\theta^{T}x}} 逻辑回归将线性回归的预测值转换成范围是(0,1)原创 2018-01-02 21:25:23 · 234 阅读 · 0 评论 -
线性回归
1. 假设函数 h(x)=∑i=0nθixi=θTx h(x)=\sum_{i=0}^{n}{\theta_{i}x_{i}}=\theta^{T}x 其中,θ\theta为权重,xx为样本,xix_{i}为特征,x0=1x_{0}=1。 2. 最小二乘损失函数 J(θ)=12∑i=1m(hθ(x(i))−y(i))2J(\theta)=\frac{1}{2}\sum_{i=1}^{原创 2018-01-02 21:19:15 · 210 阅读 · 0 评论