机器学习
文章平均质量分 73
erdaidai
这个作者很懒,什么都没留下…
展开
-
逆合成项目训练及部署需要的环境
(没有GPU的机器上部署)原创 2022-10-18 11:04:04 · 185 阅读 · 0 评论 -
mindspore_transformer
用mindspore 实现transformer的步骤记录原创 2022-09-13 20:12:33 · 382 阅读 · 0 评论 -
分类算法评价指标
分类算法评价指标评价指标1.准确率(Accuracy)2.精准率(Presicion)3.召回率(Recall)4.F1 Score评价指标混淆矩阵1.准确率(Accuracy)预测正确得样本数量占总量的百分比,具体的公式如下:Accuracy=TP+TNTP+FN+FP+TNAccuracy = \frac{TP +TN}{TP+FN+FP+TN}Accuracy=TP+FN+FP+TNTP+TN在不均衡数据上不能很好的评价。2.精准率(Presicion)又称为查准率,是针对预测结果原创 2021-04-25 21:50:12 · 222 阅读 · 1 评论 -
自定义函数使用GridSearchCV参数寻优
自定义函数使用GridSearchCV参数寻优GirdSearchCV and RandomizedSearchCV自定义函数中使用GirdSearchCVGridSearchCV参数说明GridSearchCV常用方法GridSearchCV属性说明自定义函数使用GridSearchCVGirdSearchCV and RandomizedSearchCV1). GirdSearchCV是sklearn中的一个参数寻优的方法,存在的意义是自动调参,使用的人只需要把想调的参数输入进去,GirdSearc原创 2021-01-07 14:31:48 · 5478 阅读 · 0 评论 -
numpy 相关函数使用
np.where首先强调一下,where()函数对于不同的输入,返回的只是不同的。1、当数组是一维数组时,返回的值是一维的索引,所以只有一组索引数组2、当数组是二维数组时,满足条件的数组值返回的是值的位置索引,因此会有两组索引数组来表示值的位置,下面举例说明:import numpy as npa=np.reshape(np.arange(20),(4,5))aarray([[ 0, 1, 2, 3, 4], [ 5, 6, 7, 8, 9], [10原创 2021-01-06 21:27:50 · 187 阅读 · 10 评论 -
【论文详读】Density weighted support vector data description
Density weighted support vector data description算法思想初始SVDDDW-SVDD代码实现算法思想初始SVDD目标函数:minR2+C∑i=1lξis.t. ∣∣xi−a∣∣≤R2+ξi,ξi≥0 ∀i\min R^2 + C\sum_{i = 1}^l\xi_{i} \\\\s.t.\ \ || \boldsymbol{x}_{i} - \boldsymbol{a}|| \leq R^2 + \原创 2021-01-06 21:26:27 · 337 阅读 · 2 评论 -
python—二次规划求解
python—二次规划求解一般步骤引例SVDD求解代码分析一般步骤将一般形式的待求解目标函数化成标准形式。标准形式如下:{minx=12xTPx+qTxs.t. Gx≤hAx=b\begin{cases}\min \limits_{x} = \frac{1}{2}x^{T}Px + q^{T}x \\s.t. \ \ \ \ Gx \leq h \\Ax = b\end{cases}⎩⎪⎨⎪⎧xmin=21xTPx+qTxs.t.&n原创 2020-12-26 21:21:55 · 3550 阅读 · 1 评论 -
Distance Metric Learning for Large Margin Nearest Neighbor Classification
Distance Metric Learning for Large MarginNearest Neighbor Classification假设Large margin nearest neighbor classification (LMNN)凸优化问题能量分类器(energy-based classifier)Nearest Neighbor Classification)假设首先作者基于了以下的假设:对于输入的任意样本xix_ixi 对于其相邻的K个样本,应该让与其相同类别的样本尽量靠近原创 2020-11-09 11:46:00 · 592 阅读 · 1 评论 -
【论文详读】A Fast Adaptive k-means with No Bounds
A Fast Adaptive k-means with No Bounds算法目的具体算法k-meansball k-means相关概念具体实现算法目的该算法是一种改进k-means聚类的算法,其减少了算法中距离计算的次数并提高了算法运行速度。具体算法k-means分配步骤:设置K个初始中心点,把每个点分配到距离最近的中心点所在簇。更新步骤:用簇中所有的点更新中心点,再把每个点分配到距离最近的中心点所在簇。直到更新前后的中心点差别不大时,整个算法结束。ball k-means相关概念原创 2020-08-19 21:53:14 · 885 阅读 · 3 评论 -
自步学习-Self-paced Learning
自步学习和其他方法区别机器学习方法中也存在相关方法用于选择样本,例如:主动学习(active learning)和协同训练(co-training)。自步学习与二者的区别在于自步学习中所有样本的标签是完全存在的,在每次迭代过程中,我们可以通过计算预测值和标签的差别来选择置信度高的样本。而主动学习和协同训练往往应用于半监督学习框架,其中主动学习倾向于选择当前模型下确定性或置信度低的样本,而协同训练则是从无标签数据中选择分类器认为置信度可能高的样本,选择的样本并没有标签,无法断定估计结果是否准确。相比之下,自原创 2020-07-27 17:14:12 · 3416 阅读 · 0 评论 -
第三章-模型性能评估
模型性能评估留出法模型性能评估主要是对模型泛化误差进行评估,需要用测试集来测试模型对新样本的判别能力,然后推测误差作为泛化误差的近似。验证集:验证集一般用于进一步确定模型中的超参数(例如正则项系数、神经网络中隐层的节点个数,k值等)验证集与测试集有什么区别?交叉验证法将数据集分成k个大小相等的互斥子集,取k-1个子集并集作为训练集,1个作为测试集。如图是十次十折交叉验证,每次的训练集...原创 2020-03-29 13:05:49 · 2222 阅读 · 0 评论 -
第二章-机器学习基本概念
文章目录机器学习基本概念假设空间学习方法三要素训练误差和测试误差过拟合和模型选择泛化能力生成模型和判别模型机器学习基本概念假设空间所有模型的集合称为假设空间与训练集一致的假设集合,我们称为版本空间学习方法三要素损失函数是模型一次预测的好坏。风险函数是平均意义上模型预测的好坏。训练误差和测试误差当损失函数是0-1损失时,测试误差+测试准确率=1过拟合和模型选...原创 2020-03-26 19:10:59 · 379 阅读 · 0 评论