![](https://img-blog.csdnimg.cn/20201014180756919.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习
文章平均质量分 89
charlesAI770
这个作者很懒,什么都没留下…
展开
-
机器学习基础 - 数据降维,数据的划分
数据降维减少特征数量特征选择定义从提取到的所有特征中选择部分特征作为训练集特征,特征在选择前和选择后可以改变值、也不改变值。原因冗余:部分特征的相关度高,容易消耗计算性能噪声:部分特征对预测结果有负影响过滤式VarianceThreshold过滤方差:方差为0或者很小,数据不具有代表性(1) 语法VarianceThreshold(threshold = 0.0)删除所有低方差特征Variance.fit_transform(X,y)返回值:训练集差异低于t原创 2021-08-18 11:51:28 · 266 阅读 · 0 评论 -
基础机器学习与特征工程,特征预处理
概述机器学习是从数据中自动分析获得规律(模型),并利用规律对未知数据进行预测。(总结规律用来预测)用途替代重复劳动解决需要经验的专业问题数据集的组成数据以文件形式存储(.csv等)读取工具:pandas,numpy(释放GIL,多线程并行)可用数据集kaggleScikit-learn:数据量小,易学结构组成特征值+目标值(注:有些数据集没有目标值)![[ML数据集结构组成.png]]机器学习有重复值不需要去重,数据一样对学习结果没有影响特征工程定义数原创 2021-08-18 07:40:28 · 125 阅读 · 0 评论 -
机器学习应用数学基础-概率统计
全概率公式和贝叶斯定理全概率公式定理1.2(全概率公式)设事件A1,A2,…,An是试验E的一个完备事件组,且P(Ai)>0,(i=1,2,…,n),则对任意事件B,有:P(B)=∑i=1nP(Ai)P(B∣Ai)P(B)=\sum_{i=1}^n P(A_i)P(B|A_i)P(B)=i=1∑nP(Ai)P(B∣Ai)事件A出现的概率*事件A出现的前提下B发生的概率贝叶斯公式知道结果,想要知道原因导致的可能性定理1.3(贝叶斯公式)事件A1,A2,…,An是试验E的原创 2021-07-26 18:02:49 · 489 阅读 · 0 评论 -
机器学习应用数学基础-线性代数
向量,矩阵,张量标量: x举例:点向量:(x1,x2,x3,...,xn)∈Rn(x_1,x_2,x_3,...,x_n)\in R^n(x1,x2,x3,...,xn)∈Rn举例:线(时间序列)或者n维空间里的一个方向矩阵(二维下标Ai,jA_{i,j}Ai,j)举例:面(黑白照片的灰度像素点)张量Tensor(多维下标,Ai,j,k,l...A_{i,j,k,l...}Ai,j,k,l...)举例:立体(魔方)或者 彩色照片(三维张量,三种RGB像素点的叠加)或者 视频(四原创 2021-07-23 10:20:12 · 262 阅读 · 0 评论 -
机器学习应用数学基础-微分下
多元函数y=f(x1,x2,...,xn)y=f(x_1,x_2,...,x_n)y=f(x1,x2,...,xn)n维空间下的两点距离:d=(x1−z1)2+(x2−z2)2+...+(xn−zn)2d=\sqrt{(x_1-z_1)^2+(x_2-z_2)^2+...+(x_n-z_n)^2}d=(x1−z1)2+(x2−z2)2+...+(xn−zn)2极限:A=limx−>x0f(x)A=\lim_{x->x_0}f(x)A=limx−>x0f(x原创 2021-07-19 11:24:30 · 149 阅读 · 0 评论 -
机器学习应用数学基础-微分上
O(n)和 o(n)O(n)f(x)=O(g(x))f(x)=O(g(x))f(x)=O(g(x))order 阶,多项式阶数学表述:∃X0,M,f(x)≤Mg(x)\exists X_0,M,f(x)\leq Mg(x)∃X0,M,f(x)≤Mg(x)举例:M=2,2x2=O(x2),x0任意M=2,2x^2=O(x^2),x_0任意M=2,2x2=O(x2),x0任意o(n)数学表述:∀ε,∃X0,f(x)≤εg(x)\forall\varepsilon,\exists X_0,原创 2021-07-16 16:14:58 · 76 阅读 · 0 评论