机器学习
Jsoooo
这个作者很懒,什么都没留下…
展开
-
SVM-拉格朗日乘子法
学习:b站白板推导公式来源:https://www.yuque.com/bystander-wg876/yc5f72/pdv5rySVM hard margin 思想是间隔最大化,即将样本点都投影到另一个平面,使得投影点之间的间隔最大。那么怎么找到这个平面呢,就是有无数个平面,样本点投影到平面,那么这其中肯定有距离最短的点,每一个平面面取一个最短距离点,这些点做为一个集合,再在这个集...原创 2020-03-10 10:46:12 · 591 阅读 · 1 评论 -
Coursera-MachineLearning-NeuralNetwork(2)
Coursera机器学习-吴恩达上一篇神经网络只有正向传播,这次加入反向传播。背景:同样是识别手写体。% 1.加载并可视化数据%% 初始化clear ; close all; clc%% 设置参数input_layer_size = 400; % 20x20 Input Images of Digitshidden_layer_size = 25; % 25 hidde...原创 2019-10-21 14:36:16 · 117 阅读 · 0 评论 -
Coursera-MachineLearning-NeuralNetwork
Coursera机器学习-吴恩达背景:判别手写体数字,分别实现逻辑回归和神经网络,并对比正确率% 1.读取训练集,并随机打印一下clear ; close all; clcinput_layer_size = 400; % 20x20 Input Images of Digitsnum_labels = 10; % 10 labels, from 1 to...原创 2019-10-12 17:15:21 · 126 阅读 · 0 评论 -
MachineLearning-Neural Network与Logistic Regression关系
神经网络与逻辑回归的关系: 逻辑回归就是没有隐含层的神经网络。 两个的假设函数都是 h(x) = sigmoid(theta * x)1.神经网络:1.1 为什么需要神经网络 当一个非线性分类,特征数很大时,使用逻辑回归会导致 theta 出现很多高阶项, 计算效率下降,才能对训练集完成拟合。 这时逻辑回归分类器就不适用了。1.2 神经网络 图解:第一列为输入层,第二列...原创 2019-10-12 15:50:49 · 336 阅读 · 0 评论 -
Coursera-MachineLearning-LogisticRegression-Regularization
Coursera机器学习-吴恩达线性回归和逻辑回归解决过拟合:1.减少特征数量: 1.手动选择要保留的特征,剔除一些特征 2.使用模型选择算法2.正则化(Regularization): 1.保留所有特征,但减少参数 theta 的大小; 2.有许多稍微有用的特征时,正则化很有效。% 1.读取训练集,并打印正负样本data = load('ex2data2.txt');X =...原创 2019-10-12 11:02:17 · 143 阅读 · 0 评论 -
机器学习-逻辑回归
逻辑回归的原理:就是在一个平面里,找到一条直线将两个不同的类分开。直线函数(直线也称为超平面): Wx+b = 0逻辑回归中,将这条直线(超平面)通过样本训练出来,即找出这条直线。 如何将样本事先分好类进行训练? 使用阈值函数分类,通常使用Sigmoid函数:Sigmoid函数判断分类: 对于输入向量X,它属于正例的概率: 对于输入向量X,它是负例的概率:这...原创 2019-07-15 17:29:18 · 187 阅读 · 0 评论 -
Coursera-MachineLearning-LinearRegression
Octave 代码% 1.用图表展示数据:data = load('ex1data1.txt'); % 读取训练集数据X = data(:, 1); % 第一列是城市人口y = data(:, 2); % 第二列是收入m = length(y); % 训练集数目plot(X, y, 'rx', 'MarkerSize', 10);ylabel('Prof...原创 2019-10-10 17:00:58 · 119 阅读 · 0 评论 -
Coursera-MachineLearning-LinearRegression-MultipleVariables
% 1.对特征进行特征缩放:%首先读取训练集数据,有两列特征data = load('ex1data2.txt');X = data(:, 1:2);y = data(:, 3);m = length(y);%进行特征缩放[X mu sigma] = featureNormalize(X);% 函数featureNormalize:function [X_norm, mu,...原创 2019-10-11 10:41:55 · 94 阅读 · 0 评论 -
Coursera-MachineLearning-LogisticRegression
Octave 代码背景:使用逻辑回归预测学生是否会被大学录取。% 1.读取训练集,并打印正负样本:data = load('ex2data1.txt');X = data(:, [1, 2]); y = data(:, 3);plotData(X, y);% 函数plotData:function plotData(X, y)figure; hold on;% 打印正样...原创 2019-10-11 15:13:15 · 116 阅读 · 0 评论