人工智能
文章平均质量分 82
❤️
phdsky
这个作者很懒,什么都没留下…
展开
-
【端侧推理】高通SNPE之神坑警告
首先贴出高通SNPE SDK最新版的下载地址:https://developer.qualcomm.com/software/qualcomm-neural-processing-sdk以下吐槽全部基于当前时间段(2019.07 ~ 2019.08)下载的SNPE-1.27.1.382版本为基准,对后续已经修正BUG和方案改进的版本不做牵涉。1. ubuntu版本文档中告诉你要装 Ubu...原创 2019-10-11 11:07:53 · 2264 阅读 · 7 评论 -
【深度学习】打造深度学习炼丹炉
深度学习炼丹炉打造方法多种多样,这里总结一下比较常用的打造方法;有些是别人的好方子,同样也借鉴过来作为参考。原创 2019-04-17 19:51:18 · 1167 阅读 · 0 评论 -
【深度学习】语义分割相关评价指标
IoU (Intersection over Union) 从字面意义上来说就是交并比,顾名思义就是两个集合的交集与两个集合的并集之比,可表示图如下:IoU=A∩BA∪BIoU = \frac{A \cap B}{A \cup B}IoU=A∪BA∩B在语义分割任务中,通常使用预测(predict label)与真值(ground truth)之间的交并比作为评价标准,例如在PASCAL、...原创 2019-12-22 15:43:05 · 1385 阅读 · 0 评论 -
【机器学习】机器学习算法代码实现
文章目录感知机k近邻法朴素贝叶斯法决策树逻辑斯谛回归与最大熵模型支持向量机提升方法EM算法及其推广隐马尔可夫模型条件随机场感知机k近邻法朴素贝叶斯法决策树逻辑斯谛回归与最大熵模型支持向量机提升方法EM算法及其推广隐马尔可夫模型条件随机场...原创 2019-06-28 19:59:15 · 837 阅读 · 0 评论 -
【机器学习】逻辑斯谛回归模型实现
文章目录数据准备逻辑斯谛回归数据准备本文实现的是二项逻辑斯谛回归模型,因此使用的是处理过后的两类别数据 mnist_binary.csv,表中对原手写数据0~4取作负类 -1,将5~9取作正类 +1。根据逻辑斯谛回归模型的条件概率分布定义:P(Y=1∣x)=exp(w∗x)1+exp(w∗x)P(Y=1|x)=\frac{exp(w*x)}{1 + exp(w*x)}P(Y=1∣x)=1...原创 2019-08-26 07:19:39 · 1406 阅读 · 0 评论 -
【机器学习】决策树算法实现
文章目录数据准备ID3算法C4.5算法总结参考数据准备决策树是一种基本的分类与回归算法,因此使用的仍是原版十类的手写识别数据集;然而在算法中需要计算条件概率和相应的条件经验熵,为了简化条件概率形式且减少计算量(主要还是防止条件概率过小,导致后面连乘的时候出错),对输入特征进行二值化。这部分还是在代码中完成,就不提前做成新的数据集了。这里主要实现决策树生成算法,包含:使用信息增益作为...原创 2019-08-22 23:34:43 · 425 阅读 · 0 评论 -
【机器学习】k近邻算法实现
文章目录数据准备k近邻算法基于kd树的最近邻算法数据准备由于knn可以进行多类别的判别,因此直接使用原mnist的十分类手写数字数据集;即 https://github.com/phdsky/ML/tree/master/data 中的 mnist.csv。k近邻算法k近邻的思想很简单,针对每一个输入 xxx,遍历计算样本空间中的样本点到 xxx 的距离,选择其中距离最短的k个样本点,...原创 2019-07-07 13:43:43 · 770 阅读 · 1 评论 -
【机器学习】朴素贝叶斯算法实现
文章目录数据准备朴素贝叶斯算法总结数据准备朴素贝叶斯算法可以进行多分类,因此使用的还是原版手写识别数据集;但是在实现过程中发现,对于朴素贝叶斯算法来说:数据维度或取值范围过大(mnist每行数据有784维,每维数据取值0~255 共256个值),都会引起概率计算过小甚至为零的问题,尤其是在做了拉普拉斯平滑的步骤之后。因此在使用过程中,对图像数据进行二值化操作,把数据取值范围从256维压缩到...原创 2019-07-13 18:53:48 · 3595 阅读 · 2 评论 -
【机器学习】感知机模型实现
文章目录数据准备原始形式对偶形式总结参考数据准备这里采用minst手写数字数据集作为对象数据,源数据取自 Dight Recognizer | Kaggle;该数据集包含了42k张从0~9的手写数字,每一行数据代表了28 x 28的图片和它相应的标注类别。由于感知机是一个二分类的线性判别分类器,因此需要对10个类别的原数据进行处理成两个类别;为了保持数据的平衡,这里简单将0~4取作负类 -...原创 2019-06-29 17:11:45 · 1360 阅读 · 1 评论 -
【机器学习】支持向量机模型实现
文章目录数据准备支持向量机三部曲线性可分支持向量机线性支持向量机非线性支持向量机SVM模型实现总结数据准备为了验证SVM模型实现和sklearn的正确性,文中使用的是随机生成的100组数据,便于画图进行对比,数据在SVM文件夹当中:https://github.com/phdsky/ML/blob/master/svm/dataset.txt本文主要实现的是带有软间隔的线性支持向量机,因此...原创 2019-11-17 15:55:52 · 2632 阅读 · 7 评论 -
【机器学习】EM算法实现
数据准备本文实现的是利用EM算法学习高斯混合模型,为了简化过程采用对离散点进行聚类判定,离散点通过sklearn生成。EM算法EM算法的推导证明和收敛分析暂时留坑。EM算法中对隐变量和观测变量的交替估计,给我的第一感觉是有点像SLAM里对landmark和pose的联合优化。原创 2019-11-23 23:13:27 · 556 阅读 · 1 评论 -
【机器学习】最大熵模型实现
文章目录数据准备最大熵模型数据准备最大熵模型可以应用于多类别分类,因此这里直接使用原手写识别mnist十类的数据;即 https://github.com/phdsky/ML/tree/master/data 中的 mnist.csv。最大熵模型...原创 2019-09-03 23:01:26 · 1057 阅读 · 2 评论 -
【机器学习】提升方法模型实现
数据准备本文将要实现的是二分类的AdaBoost算法,使用的数据是两类别数据[mnist_binary.csv](https://github.com/phdsky/ML/blob/master/data/mnist_binary.csv);由于原数据特征值在0-255之间,这样会使得AdaBoost中的基本分类器阈值分布较广;因此还将数据进行二值化到0-1,使阈值在[-0.5, 0.5, 1.5]三个值当中进行选择。二值化步骤在代码中完成,不另外生成相应的数据集了。----# AdaBoost算原创 2019-11-21 00:55:24 · 336 阅读 · 1 评论