![](https://img-blog.csdnimg.cn/20201014180756928.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
人工智能
文章平均质量分 85
CV_William
这个作者很懒,什么都没留下…
展开
-
openvino 3D人姿模型转换教程 human-pose-estimation-3d-0001.xml下载
openvino 3D人姿模型转换 human-pose-estimation-3d-0001.xml进入目录cd /opt/intel/openvino_2020.2.117/deployment_tools/open_model_zoo/tools/downloader查看所有模型sudo python downloader.py --print_all选择下载模型sudo python downloader.py --name human-pose-estimation-3d-0001原创 2020-07-15 19:35:43 · 1187 阅读 · 8 评论 -
【降维PCA算法】 机器学习公式推导计算+详细过程 (入门必备)
PCA算法PCA算法:主成分分析是一种非监督的降维方法,降维可以做特征筛选,降低训练复杂度。在信号学里,信噪比越大,说明数据质量越好。其中信号有较大的方差,噪声有较小的方差。PCA正好可以借鉴信噪比这一理论,让数据在主轴上的投影方差最大。方差公式V(x)=1m∑i=1m(xi−x‾)2 V(x) = \frac{1}{m} \sum_{i=1} ^ m (x_i - \overline{x})^2 V(x)=m1i=1∑m(xi−x)2PCA推导求方差最大化,可以令x原创 2020-07-05 23:11:41 · 1206 阅读 · 0 评论 -
【K-Means聚类算法 + agglomerative层次聚类算法】 机器学习公式推导计算+详细过程
K-Means算法K-Means聚类算法是非监督学习方法。对于样本数据,按样本之间的距离大小,将样本划分为K个簇。让簇内的点之间距离尽可能的小,同时让簇之间的距离尽可能的大。簇划分为(C1,C2,C3,…,Ck)(C_1, C_2, C_3, …, C_k)(C1,C2,C3,…,Ck)目标函数,最小化平方误差E=∑i=1k∑x∈Ci∣∣x−μi∣∣22 E = \sum_{i=1} ^ k \sum_{x \in C_i} ||x - \mu_i||^{2}_2 \quad原创 2020-07-05 23:07:21 · 948 阅读 · 0 评论 -
前向分步算法+提升树算法+GBDT算法+AdaBoost算法 机器学习公式推导计算+详细过程 (入门必备)
boosting:是一种集成学习的方法。通过串行的方式将多个基学习器组合成一个强学习器。stacking:是一种集成学习的方法。对原始数据使用多种不同算法训练出基学习器,然后将这几个基学习器的预测结果作为新的训练集“喂给”新的学习器去预测。GDBT算法:梯度提升决策树。每一棵树学习到的是之前所有树的残差。AdaBoost算法:在模型学习的过程中,每个模型的预测结果存在正确和错误。该学习器更加关注靠前的基学习器预测存在错误的样本。加法模型公式f(x)=∑i=1mβib(x;γi)..原创 2020-07-05 22:58:00 · 282 阅读 · 0 评论 -
【决策树ID3算法/C4.5算法/CART算法+随机森林算法】 机器学习公式推导计算+详细过程 (入门必备)
决策树可用于分类和预测。常见的决策树算法有ID3、C4.5和CART。信息熵:不确定性的度量,事物越混乱就越不确定,信息熵越小越事物越确定。信息增益:信息增益越大,事物的不确定性下降的越快,也就是说事物越趋近于确定,信息增益越大不确定性下降越快。信息增益率:信息增益率越大,事物越确定。基尼系数:不确定性的度量,事物越混乱就越不确定,基尼系数越小越事物越确定。信息熵公式Entropy(D)=−∑i=1mpilog2pi Entropy(D) = -\sum_{i=1} ^ m p_i log_.原创 2020-07-05 22:30:58 · 2065 阅读 · 2 评论 -
【 SVM支持向量机算法】 机器学习公式推导计算+详细过程
SVM支持向量机又称最大间距分类器。可以解决“线性可分”和“线性不可分”问题SVM的“三宝”:最大间距、对偶性和核函数。算法推导:入上图所示图中红线为决策边界。两条平行黑线共同组成最大间距。*“支撑向量”*为两条平行黑线上的点。决策边界公式θTx+b=0 \theta^Tx + b = 0θTx+b=0**“支撑向量”到决策边界的距离公式 **d=∣yi∣∣∣θ∣∣ d = \frac{|y_{i}|}{||\theta||}d=∣∣θ∣∣∣yi∣假设决策边界$ \theta.原创 2020-07-05 22:25:00 · 1261 阅读 · 0 评论 -
【分类评价指标】机器学习公式
分类评价指标精确率(查准率)precision=TPTP+FP precision = \frac{TP}{TP + FP} precision=TP+FPTP召回率(查全率)recall=TPTP+FN recall = \frac{TP}{TP + FN} recall=TP+FNTPfscore F1分值F1=2∗precision∗recallprecision+recall F1 = \frac{2 * precision * recall}{precision +..原创 2020-07-05 22:12:33 · 270 阅读 · 0 评论 -
【逻辑回归LR算法】 机器学习公式推导计算+详细过程
Logistic回归是”广义线性模型“,用于解决分类问题。是在线性回归的基础上加入了非线性映射sigmoid函数线性回归公式hθ(x)=θ0x0+θ1x1+θ2x2+...+θnxn h_\theta(x) = \theta_0x_0 + \theta_1x_1 + \theta_2x_2 + ... + \theta_nx_n hθ(x)=θ0x0+θ1x1+θ2x2+...+θnxn线性回归向量形式hθ(x)=θTx h_\theta(x) = \theta^Tx .原创 2020-07-05 22:10:46 · 297 阅读 · 0 评论 -
【LR线性回归算法+梯度下降算法】机器学习公式推导计算+详细过程 (入门必备)
线性回归算法寻找一条直线,最大程度的”拟合“样本特征和样本标签的关系。公式hθ(x)=θ0x0+θ1x1+θ2x2+...+θnxn h_\theta(x) = \theta_0x_0 + \theta_1x_1 + \theta_2x_2 + ... + \theta_nx_n hθ(x)=θ0x0+θ1x1+θ2x2+...+θnxn上式为基本形式。hθ(x)=θTx h_\theta(x) = \theta^Tx hθ(x)=θTx上式为向量形式。损失函数原创 2020-07-05 18:37:43 · 808 阅读 · 0 评论 -
KNN算法 机器学习入门算法 流程总结
机器学习【KNN】(入门必备)KNN的全称是K Nearest Neighbors。顾名思义,k个最接近的邻居。可以用于分类,也可以用于回归。如上图所示。中心点为测试数据,其他五边形和五角星为训练数据。k=3,测试数据属于五边形;k=5,测试数据属于五角星。距离公式欧式距离d(x,y)=(x1−y1)2+(x2−y2)2+⋅⋅⋅+(xn−yn)2=∑i=1n(xi−yi)2(2.1) d(x, y) = \sqrt[]{(x_1 - y_1)^2 + (x_2 - y_2)^2 + ···原创 2020-07-05 18:22:52 · 458 阅读 · 0 评论 -
ISL第三章习题
1.描表3-4中的p值所对应的零假设。说明基于这些p值可得出什么结论。请用sales,TV,radio和newspaper等变量描述结论,而不仅仅给出线性模型的系数。(1)原表如下:主要看p值![avatar](/Users/wanghuiyong/Desktop/第三章习题/第二章习题图片/屏幕快照 2019-06-13 上午12.12.27.png)(2)零假设概念:![ava...原创 2020-07-06 12:39:29 · 819 阅读 · 0 评论 -
【 GBDT算法】 机器学习实例推导计算+公式详细过程 (入门必备)
机器学习 【 GBDT算法】知识准备:arg 是变元(即自变量argument)的英文缩写。arg min 就是使后面这个式子达到最小值时的变量的取值arg max 就是使后面这个式子达到最大值时的变量的取值例如 函数F(x,y):arg min F(x,y)就是指当F(x,y)取得最小值时,变量x,y的取值arg max F(x,y)就是指当F(x,y)取...原创 2018-12-17 00:12:52 · 11563 阅读 · 9 评论 -
【 Adaboost算法】 机器学习实例推导计算+公式详细过程 (入门必备)
##一.基本原理:Adaboost算法基本原理就是将多个弱分类器(弱分类器一般选用单层决策树)进行合理的结合,使其成为一个强分类器。##二.弱分类器(单层决策树)Adaboost一般使用单层决策树作为其弱分类器。单层决策树是决策树的最简化版本,只有一个决策点,也就是说,如果训练数据有多维特征,单层决策树也只能选择其中一维特征来做决策,并且还有一个关键点,决策的阈值也需要考虑。##三.关...原创 2018-12-15 15:33:48 · 6198 阅读 · 11 评论