![](https://img-blog.csdnimg.cn/20191025093530258.jpg?x-oss-process=image/resize,m_fixed,h_224,w_224)
机器学习
文章平均质量分 55
本分类将总结一些机器学习的知识概念和算法
你若盛开,清风自来!
一路IT深似海,从此学习无绝期!
展开
-
卷积神经网络
在深度学习中,深度学习,深度学习,用更深的网络去提取原始数据当中的特征,是这么理解的吧,那应该是层数越多越好吧,是这样的一个事儿吗。因为在实验当中发现一个事儿,这个事儿挺奇怪的,就是16层的网络要比30层网络,继续堆叠就是重复的加这些卷积和池化,16层的时候比30效果好。边缘填充(padding):越往边界的点,能够计算的次数越少,越接近中间的点,计算次数越多,为了使得边界的点计算次数多,引入padding,弥补边界信息缺失的问题(边界提取特征不充分问题),使得网络能够更加公平的对待边界特征。原创 2024-01-18 11:28:47 · 889 阅读 · 0 评论 -
机器学习——主成成分分析PCA
如上图所示,一共有4个属性,身高( m为单位),身高(cm),时速(每小时公里),时速(每小时里),身高的两个属性是相关的,时速的两个属性也是相关的,我们把四组具有相关性的变量转换成了两组不相关的变量,我们把转换后的这2组变量称为它的主成分。说白了,就是这两组变量能够代表这个人的身高特征和骑自行车的特征。在实际的数据中,用肉眼可能看不出这些数字的相关性,所以 要通过算法找出哪些特征和哪些特征是线性相关的,这就是主成分要做的事儿。换一种说法,找到一条直线,使得所有点到直线的距离的平方和最短。原创 2024-01-15 14:46:05 · 533 阅读 · 0 评论 -
过拟合和欠拟合
训练误差会随着模型容量增加,训练误差开始下降;泛化误差会下降,降低到某一个点的时候,开始上升。模型足够复杂,通过各种手段控制模型容量,使得最后泛化误差往下降。通过控制这两个属性来控制模型的复杂度。第一个模型过于简单,第二个过于拟合。我们更多的关注泛化误差。原创 2024-01-12 14:45:00 · 419 阅读 · 0 评论 -
感知机、多层感知机、激活函数sigmoid
和做内积加上一个偏置常熟b,让其做一个函数,以前回归输出的是实数,softmax回归输出的是概率。原创 2024-01-11 16:19:00 · 373 阅读 · 0 评论 -
最小二乘法,极大似然估计,交叉熵
我们在训练神经网络的时候,其实就是用神经网络中的各种模型去和人脑中的这个模型去匹配,匹配的方式就是调整图像尽量和它重合。我们想用神经网络的模型去逼近人脑中的概率模型,和这个极大似然估计的过程就非常像。左边是人脑模型,右边是神经网络模型,人脑模型我们对猫有一个明显的识别边界,神经网络中总会有些偏差,我们想让神经网络的模型和我们人脑中的模型尽量一致。极大似然估计,本质上就是在计算神经网络里面的概率模型的似然值,找到那个极大似然值,这个就应该是最接近现实情况的那个概率模型。比较两种概率模型的差距的方法。原创 2024-01-11 15:26:02 · 438 阅读 · 0 评论 -
机器学习计算题——朴素贝叶斯
例题1例题2例题3原创 2023-12-30 10:51:23 · 570 阅读 · 0 评论 -
机器学习计算题——svm支持向量机
引入一点高中的线性规划,我在接下来的题目确实可以用这种思想计算,并且非常快得到答案。原创 2023-12-30 10:39:50 · 1196 阅读 · 0 评论 -
五分钟学完朴素贝叶斯算法
个人感觉如下链接讲的比较好。原创 2023-12-29 14:24:48 · 404 阅读 · 0 评论 -
五分钟学完决策树ID3算法
由于涉及到数学符号不好打字,放几张基础概念图。如果你是小白,你不要被下面的公式迷惑。这其实很简单,你看不懂可以先略过,结合后面的实例来理解这个公式,等看完实例你就懂了。不过下面关于这个公式的描述可以说非常具体了,阅读体验还是不错的。原创 2023-12-22 15:41:19 · 910 阅读 · 0 评论 -
五分钟学完k-means
聚类算法有很多种,是聚类算法中的最常用的一种,算法最大的特点是简单,好理解,运算速度快,但是只能应用于连续型的数据,并且一定要在聚类前需要手工指定要分成几类。原创 2023-12-21 16:54:36 · 1485 阅读 · 0 评论 -
五分钟学完DBSCAN算法
如果P为核心点,Q在P的R邻域内,那么称P到Q密度直达。任何核心点到其自身密度直达,密度直达不具有对称性,如果P到Q密度直达,那么Q到P不一定密度直达。密度可达:如果存在核心点P2,P3,……,Pn,且P1到P2密度直达,P2到P3密度直达,……,P(n-1)到Pn密度直达,Pn到Q密度直达,则P1到Q密度可达。密度可达也不具有对称性。其中Q为非核心点。解释:p1密度直达p2,p2直达p(n),红色点都是核心点,但是Q是非核心点,所以p1密度直达Q。原创 2023-12-21 16:54:01 · 814 阅读 · 0 评论 -
线性回归中的似然函数、最大似然估计、最小二乘法怎么来的(让你彻底懂原理)收官之篇
如图4,最小二乘法是我们通过误差表达式化简得到的,化简后的表达式一共分为两部分,一个是常数,另一个就是去掉系数后的最小二乘法表达式,规定这个表达式即为最小二乘法。当我们进行求解的时候,对于机器来说,加法比较容易求解,对于乘法求解比较复杂,所以引入对数似然。参数要和所有的数据进行组合,不能仅满足一些样本,要满足所有的样本,要进行整体的一个考虑,要看所有的样本能不能进行一个满足。有些复杂的损失函数,我们很难用数学的方法,求出损失函数的全局最小值以及对应的参数值,这就是为什么需要梯度下降算法的原因。原创 2023-12-20 19:51:19 · 731 阅读 · 0 评论 -
FP-Tree算法原理总结
FP Tree算法原理总结 </h1> <div class="clear"></div> <div class="postBody"> 在Apriori算法原理总结中,我们对Apriori算法的原理做了...转载 2019-10-25 09:38:57 · 690 阅读 · 0 评论