- 博客(27)
- 资源 (2)
- 问答 (1)
- 收藏
- 关注
原创 深入理解SVM---从头到尾详细推导(软硬间隔、KKT条件、核技巧)
深入理解SVM---从头到尾详细推导(软硬间隔、KKT条件、核技巧)
2020-07-27 22:31:29 94955 2
原创 决策树与随机森林(从入门到精通)
决策树(decision tree)是一种基本的分类与回归方法,本文主要讨论用于分类的决策树。决策树学习通常包括三个步骤:特征选择,决策树的生成和决策树的修剪。而随机森林则是由多个决策树所构成的一种分类器,更准确的说,随机森林是由多个弱分类器组合形成的强分类器。............
2020-07-06 22:54:44 146072 7
原创 使用KNN识别MNIST手写数据集(手写,不使用KNeighborsClassifier)
KNN识别MNIST手写数据集(32*32维),根据KNN原理一步步实现。
2020-07-31 23:05:07 100901 1
原创 降维基础知识(样本均值、样本方差、中心矩阵)与PCA(最大投影方差,最小重构代价,SVD分解)
降维分为三种:特征选择、线性降维和非线性降维。本文主要介绍一些关于降维的基本知识以及线性降维的典例PCA(主成分分析法)
2020-07-30 21:05:03 105278 2
原创 利用AdaBoost对马疝病数据集(horseColic)进行分类预测
利用AdaBoost对马疝病数据集(horseColic)进行分类预测
2020-07-29 11:41:55 101798
原创 使用决策树(decision-tree)预测隐形眼镜类型(标签二值化(LabelBinarizer)复原输出)
使用决策树(decision-tree)预测隐形眼镜类型(标签二值化(LabelBinarizer)复原输出)
2020-07-28 23:11:07 99824
原创 安装xgboost后仍报错:cannot import name ‘XGBRegressor‘ from ‘xgboost‘
报错如下:原因:我的py文件名也叫xgboost,Python在编译时把xgboost.py当成了一个module,自然在这个"module"里是找不到XGBRegressor的。解决方案:重命名py文件。
2020-07-28 21:01:13 89464 4
原创 利用朴素贝叶斯(Naive Bayes)原理进行垃圾邮件过滤(编程实现)
利用朴素贝叶斯(Naive Bayes)原理对垃圾邮件进行过滤。
2020-07-26 22:26:43 101303 10
原创 Python读取有空行的txt文件+将内容分割保存到列表中
Python处理有空行的txt文件,将每一个单词(单词不包含空格)切割并存进列表当中。
2020-07-26 22:03:52 89324
原创 机器学习之贝叶斯网络(概率流动的影响性、有效迹(active--trail)、网络的构建)
前面学习了朴素贝叶斯的原理,并且利用朴素贝叶斯原理对西瓜数据集3.0进行了分类:[朴素贝叶斯(Naive Bayes)原理+编程实现拉普拉斯修正的朴素贝叶斯分类器],今天我们更进一步,来探讨一下贝叶斯网络的原理以及应用。
2020-07-26 20:51:44 105055 3
原创 2019年第十届蓝桥杯【省赛C/C++ A组】做题记录(附详细思路)
2019年第十届蓝桥杯【省赛C/C++ A组】做题记录,文章到处都充斥着“暴力求解”、“暴力就够了”、“暴力可能能拿下一半分数”等字眼。最后感想:自身实力真的还很弱。
2020-07-25 22:39:12 82703 1
原创 【RSA解密】 蓝桥杯第十届省赛A组 扩展欧几里得算法(求逆元)+快速乘+快速幂
【RSA解密】 蓝桥杯第十届省赛A组 扩展欧几里得算法(求逆元)+快速乘+快速幂,很综合的一道题。
2020-07-23 19:40:00 17163 1
原创 朴素贝叶斯(Naive Bayes)原理+编程实现拉普拉斯修正的朴素贝叶斯分类器
朴素贝叶斯(Naive Bayes)原理+编程实现拉普拉斯修正的朴素贝叶斯分类器,以西瓜数据集3.0为训练集,对“测1”样本进行判别。
2020-07-22 20:39:16 133291 14
原创 2017年第八届蓝桥杯【省赛C/C++ A组】做题记录(附详细思路)
2017年蓝桥杯第八届【省赛C/C++ A组】做题记录,保持手感,专注备赛。
2020-07-21 21:56:37 81867
原创 【分巧克力】2017年第八届蓝桥杯【C/C++省赛A组】
儿童节那天有K位小朋友到小明家做客。小明拿出了珍藏的巧克力招待小朋友们。小明一共有N块巧克力,其中第i块是Hi x Wi的方格组成的长方形。
2020-07-21 21:01:48 82550
原创 【跳蚱蜢】2017年第八届蓝桥杯【C/C++省赛A组】
如下图所示:有9只盘子,排成1个圆圈。其中8只盘子内装着8只蚱蜢,有一个是空盘。我们把这些蚱蜢顺时针编号为 1~8,每只蚱蜢都可以跳到相邻的空盘中,也可以再用点力,越过一个相邻的蚱蜢跳到空盘中。请你计算一下,如果要使得蚱蜢们的队形改为按照逆时针排列,并且保持空盘的位置不变(也就是1-8换位,2-7换位,…),至少要经过多少次跳跃?
2020-07-21 12:15:24 11517 1
原创 机器学习及深度学习基础---7.20课堂笔记
本文主要回忆上课所讲的一些关于机器学习与深度学习的基本概念,以此来达到强化记忆与深度理解的目的。
2020-07-20 22:31:04 82188 1
原创 建模过程中,怎么把LINGO的结果导出到Excel文件?
建模过程中,由于lingo不能可视化,而我们又需要一些可视化的东西来充实论文,那么我们就需要将解出的结果保存到excel中。本文主要介绍怎么将lingo求解的结果保存到excel文件里。
2020-07-19 13:45:40 25675 8
原创 【航班时间】2018第九届蓝桥杯【C/C++省赛A组】
【问题背景】小h前往美国参加了蓝桥杯国际赛。小h的女朋友发现小h上午十点出发,上午十二点到达美国,于是感叹到“现在飞机飞得真快,两小时就能到美国了”。小h对超音速飞行感到十分恐惧。仔细观察后发现飞机的起降时间都是当地时间。由于北京和美国东部有12小时时差,故飞机总共需要14小时的飞行时间。不久后小h的女朋友去中东交换。小h并不知道中东与北京的时差。但是小h得到了女朋友来回航班的起降时间。小h想知道女朋友的航班飞行时间是多少。
2020-07-16 09:46:09 83851
原创 Unable to resolve dependency for xxx (导入步骤以及一些常见错误的解决)
安卓由于极其狗血且让人难以理解的gradle,使得我们在导入别人的项目时总是出现各种各样的错误。本文就自己经历过的一些错误,给出一些有用的改进措施。
2020-07-13 22:33:47 71273
原创 最简单的分类算法之一:KNN(原理解析+代码实现)
KNN(K- Nearest Neighbor),即K最邻近算法,是数据挖掘分类技术中最简单的方法之一。简单来说,它是根据“邻近”这一特征来对样本进行分类。
2020-07-12 19:22:27 132001 20
原创 Deep Learning中的一些Tips详解(RELU+Maxout+Adam+Dropout)
本文主要讲如果我们的Deep Learning出现了一些不好的结果,我们该怎么去解决。学习前请先参考:反向传播算法(Backpropagation)----Gradient Descent的推导过程。
2020-07-11 17:49:47 81652 2
原创 机器学习之Ensemble(Bagging、AdaBoost、GBDT、Stacking)
本文借助了李宏毅机器学习笔记,主要是想用通俗易懂的语言来解释相关概念,并且使自己掌握得更加牢靠!!集成学习主要分为串行的Boosting和并行的Bagging,以及Stacking,下面将依次介绍。
2020-07-08 18:44:03 103701 4
原创 机器学习之K_means(附简单手写代码)
聚类是一个将数据集中在某些方面相似的数据成员进行分类组织的过程,聚类就是一种发现这种内在结构的技术,聚类技术经常被称为无监督学习。k均值聚类是最著名的划分聚类算法,由于简洁和效率使得他成为所有聚类算法中最广泛使用的。给定一个数据点集合和需要的聚类数目k,k由用户指定,k均值算法根据某个距离函数反复把数据分入k个聚类中。......
2020-07-05 21:14:20 101647
原创 机器学习之SVM(Hinge Loss+Kernel Trick)原理推导与解析
支持向量机(Support Vector Machine, SVM)是一类按监督学习方式对数据进行二元分类的广义线性分类器(generalized linear classifier),其决策边界是对学习样本求解的最大边距超平面。本文借助了李宏毅机器学习笔记,主要是用通俗易懂的语言来推导出hinge loss和kernel trick。......
2020-07-04 19:15:29 109467
DynamicSorting.zip
2020-05-07
CSDN付费资源抽成问题
2022-07-08
TA创建的收藏夹 TA关注的收藏夹
TA关注的人