机器学习
koqural
在ai的边缘试探
展开
-
线性回归
线性回归 优点:结果易于理解,计算上不复杂。适用数据类型:数值型和标称型数据。回归过程就是求回归系数的过程。一般有两种方法:1、直接利用正规方程求解 2、梯度下降迭代训练 (涉及学习率)正规方程方法原理 回归方程:(回归系数存放在中)...原创 2018-10-25 17:51:29 · 222 阅读 · 0 评论 -
数据降维方法之PCA
降维的概述降维属于对数据的预处理,通过降低维度,降低数据的复杂性,识别最重要的多个特征。常见的降维方法有:主成分分析法(PCA)因子分析(FA)独立成分分析(ICA)本文主要对PCA方法进行展开。知识基础均值、方差、协方差的定义:PS:样本方差的期望并不是无偏的,要无偏估计,应该再乘上一个系数。N-1既为自由度,就是说,在一个容量为N的样本里,当确定了N-1个变量以后,第N...原创 2019-09-10 15:04:40 · 581 阅读 · 0 评论 -
利用奇异值分解(SVD)来简化数据
SVD的概述优点:简化数据、去除噪声、提高算法的结果。缺点:数据的转换可能难以理解。适用数据类型:数值型数据。应用场景:1、隐性语义索引(信息检索);2、推荐系统基础知识矩阵分解可以将原始矩阵表示成新的易于处理的形式,这种新的形式是两个或多个矩阵的乘积。最常见的一种矩阵分解技术就是SVD,可以表示为如下过程:中间的矩阵只有对角元素,其他元素均为0。其中的对角元素按从大到小排列,这...原创 2019-09-10 18:44:54 · 210 阅读 · 0 评论 -
keras搭建神经网络完成数字识别
利用keras完成数字识别主要结构:1、model=squential()初始化模型2、model.add(dense(input= ,units= ,activition= ))第一层3、model.add(dense(units= ,activition= ))隐藏层,输出层4、model.compile(loss= ,optimizer= ,metrics= )评估优化方法5、m...原创 2019-09-12 20:12:34 · 256 阅读 · 0 评论