![](https://img-blog.csdnimg.cn/20200304152118411.jpg?x-oss-process=image/resize,m_fixed,h_224,w_224)
ML
文章平均质量分 66
机器学习
DamonDT
人工智能
展开
-
【ML】_00_基础知识
【一】P-R 曲线定义 ( Y轴 P:Precision 准确率,X轴 R:Recall 召回率 )F1-score =(2 * P * R)/(P + R)受 正负样本比例 影响大,当正负样本发生变化时,P-R曲线的形状容易发生剧烈变化,与 ROC 相反【二】ROC 曲线Y轴:真阳性率 =(真阳性的数量)/(真阳性的数量 + 伪阴性的数量)X轴:伪阳性率 =(伪阳性的数量)...原创 2019-07-21 21:59:55 · 292 阅读 · 0 评论 -
【ML】_00_01_防止过拟合
文章目录【零】 出现过拟合的原因【一】 降低模型复杂度【二】 Data Augmentation(数据增强)【三】 L1-Norm(L1 正则化)【四】 L2-Norm(L2 正则化)【五】 L1-Norm + L2-Norm(Elasting Net)【六】 Decision Tree Pruning(决策树剪枝)【七】 SVM松弛变量 (个别点线性不可分)【八】 Dropout(随机丢弃神经元...原创 2020-03-07 12:09:02 · 230 阅读 · 0 评论 -
【ML】_00_02_降维算法
文章目录【一】 PCA(Principal Component Analysis,主要成分分析)【1.1】 斜方差公式(Cov\bm {Cov}Cov)【1.2】 构建斜方差矩阵 C\bm CC【1.3】 构建斜方差矩阵 D\bm DD【1.4】 推导过程(S\bm SS → P\bm PP)【二】 LDA(Linear Discriminant Analysis,线性差异分析)【2.1】 基本定...原创 2020-03-10 15:23:02 · 193 阅读 · 0 评论 -
【ML】_00_03_梯度下降
【一】Momentum - 动量梯度下降初始化速度变量 V 和比例 β V = β * V + (1-β) * J_prime(W) # 速度W = W -lr * V【二】一般梯度下降初始化速度变量 V 和比例 βV = β * V + (1-β) * J_prime...原创 2019-07-05 12:27:25 · 161 阅读 · 0 评论 -
【ML】_01_KNN(K邻近)
文章目录【一】 KNN(K邻近算法)【二】 投票机制(多数决)【三】 如何选取 K【四】 交叉验证(K-Fold)【五】 Disadvantage(缺点) 【一】 KNN(K邻近算法) 【有监督】最基础的分类算法,简单易懂 【二】 投票机制(多数决) 【三】 如何选取 K ...原创 2020-03-04 12:27:28 · 169 阅读 · 0 评论 -
【ML】_02_LR(逻辑回归)
文章目录【一】 LR(Logistic Regression,逻辑回归)【二】 Softmax 回归(多个 LR 的组合,多分类)【三】 Sigmoid (激活函数)【四】 Cross Entropy Loss(交叉熵损失函数):【五】 应用场景 【一】 LR(Logistic Regression,逻辑回归) 【有监督】常用的二分类算法,功能强大,逻...原创 2020-03-04 13:48:30 · 190 阅读 · 0 评论 -
【ML】_03_SVM(支持向量机)
文章目录【一】 SVM(Support Vector Machine,支持向量机)【二】 手撕 SVM(必须掌握)【三】 拉格朗日对偶性【四】 SVM 的 Dual Problem(对偶问题)【五】 Kernel Trick(核函数) 【一】 SVM(Support Vector Machine,支持向量机) 【有监督】拥有核函数的分类算法,数学理论基...原创 2020-03-04 14:12:55 · 135 阅读 · 0 评论 -
【ML】_04_DT(决策树)
文章目录【一】 Decision Tree(决策树)【二】 Entropy(信息熵)【三】 Information Gain(信息增益,越大越好):ID3 算法【四】 Information Gain Ratio(信息增益率,越大越好):C4.5 算法【五】 Gini Index(Gini系数,越小越好):CART 算法 【一】 Decision Tree(决策树)...原创 2020-03-04 14:24:11 · 208 阅读 · 0 评论 -
【ML】_05_Naive Bayes(朴素贝叶斯)
文章目录【一】 Naive Bayes(朴素贝叶斯)【二】 Conditional Independent(条件独立)【三】 公式(可用于 文本分类,垃圾邮件分类) 【一】 Naive Bayes(朴素贝叶斯) 【有监督】简单的,基于概率的,分类算法 【二】 Conditional Independent(条件独立)...原创 2020-03-04 14:40:50 · 88 阅读 · 0 评论 -
【ML】_06_EM(隐变量)
文章目录【一】 Latent Variable Model(隐变量模型)【二】 Expectation Maximization(EM算法)【三】 手推 EM 算法 【一】 Latent Variable Model(隐变量模型) 举个例子:比如说一个人的观测值为【公益活动,运动,执行力强】,但其对应的未观测值为【善良,坚持,博学】,也就是说这是一种因...原创 2020-03-04 14:32:40 · 312 阅读 · 0 评论 -
【ML】_07_BP(反向传播)
文章目录【一】 Back Propagation(BP算法,反向传播)【二】 正向传播(Forward)【三】 BP 求导流程【四】 Gradient Checking(梯度检测) 【一】 Back Propagation(BP算法,反向传播) 非常重要的,反向传播更新参数的算法,必须掌握 【二】 正向传播(Forw...原创 2020-03-04 14:45:11 · 108 阅读 · 0 评论 -
【ML】_08_Bagging(集成学习分支1)
文章目录【一】 Bagging(算法的一个流派,自助聚合)【二】 Random Forest(随机森林) 【一】 Bagging(算法的一个流派,自助聚合)提出背景:为了减少 bias,我们可以学习一棵很大很深的 决策树,但是决策树很容易 过拟合;而随机划分数据来训练模型,过拟合的决策树产生不一样的预测结果,variance 很大特点:各个弱学习器之间 没有 依...原创 2020-03-04 14:50:09 · 267 阅读 · 0 评论 -
【ML】_09_Boosting(集成学习分支2)
文章目录【一】 Boosting(近年来很流行的一个流派)【二】 AdaBoost(自适应)【三】 GBDT(梯度下降树)【四】 XGBoost(待补充) 【一】 Boosting(近年来很流行的一个流派) 【有监督】现在最常用的,也最需要掌握的,分类算法 特点:各个弱学习器之间 有 依赖关系,将一些变现一般的模型,通过特定的方法组合...原创 2020-03-04 14:53:59 · 189 阅读 · 0 评论 -
【AI】_06_番外篇_神经风格迁移
【一】CNN 如何理解图像卷积 and 反卷积 图像纹理 - 可以是底层网络的一组特征图像内容 - 可以是深层网络的一组特征【二】CNN 风格迁移CNN视角:内容 and 风格 是可以被 独立实现 的【损失函数】内容:用距离表示【损失函数】风格:Gram Matrices (通道)...原创 2019-07-30 19:48:46 · 88 阅读 · 0 评论 -
【AI】_08_时间序列分析
【一】时间序列预处理指的是序列的 平稳性检验 和 纯随机性检验每个统计学问题都需要进行一定的 假设,同样时间序列预测也是一条时间序列里长期 稳定不变 的规律,是基本模型平稳的基本思想:时间序列的行为并不随时间改变平稳性检验【不常见】严平稳:这是一种比较严格的定义,认为只有当序列所有的统计性质都不会随着时间的推移而发生变化时,该序列才能平稳。而在实践中要获得严平稳序列很难,...原创 2019-07-31 20:15:39 · 286 阅读 · 0 评论