- 博客(8)
- 收藏
- 关注
原创 U-NET:图像语义分割
卷积:用卷积核去“卷”图像,即为提取图像的特征。卷积后会出现三种结果:结果图像比原图小(valid卷积),结果图像与原图大小相同(same卷积),结果图像比原图大(full卷积)。在卷积后需要激活,就是用激励层(激活函数Relu)把卷积层输出结果做非线性映射。激活函数是用来加入非线性因素的,因为线性模型的表达能力不够。池化层:夹在连续的卷积层中间, 用于压缩数据和参数的量,减小过拟合。简而言之,如果输入是图像的话,那么池化层的最主要作用就是压缩图像。一般有最大池化(Max Pooling)和平均池化。
2022-12-27 21:44:31 745 1
原创 LSTM初探
LSTM(长短时记忆网络,long short term memory)是一种时间递归神经网络,属于循环神经网络,适合用于处理和预测时间序列的事件,特点在于解决长依赖问题。LSTM能够解决长期依赖问题是因为引入了“门”机制(在训练过程中会去学习该保存或遗忘哪些信息,主要是一个sigmoid层和一个点乘操作的组合)来控制特征的流通和损失。
2022-12-23 16:28:46 450
原创 数据集分布
在学术中,使用的大部分数据集都是平衡的。也就是在监督学习中,每一类别通常有数据相同的样本。同样,在学术中,数据集中每一类别的分类错误的成本通常事一样的。但实际中完全不是这样的。不平衡的数据集会导致错分成本上升。如何解决数据集分布不平衡的问题?
2022-12-14 06:45:00 439
原创 分类算法之决策树
决策树(Decision Tree)是一种常见的机器学习方法,它既可以用来做分类,也可以做回归分析。在本文中主要从分类的角度学习决策树。
2022-12-12 06:30:00 301
原创 一文读懂梯度下降
梯度下降法是一种常用的一阶(first-order)优化方法,该算法从任一点开始,沿该点梯度的反方向运动一段距离,再沿新位置的梯度反方向运行一段距离 ...... 如此迭代。(对多元函数的参数求∂偏导数,把求得的各个参数的偏导数以向量的形式写出来),向量有方向,梯度的方向就指出了函数在给定点的上升最快的方向。梯度的方向是函数在给定点上升最快的方向,那么。在求解机器学习算法的模型参数(可以理解为求解一个无约束优化问题)时,求解最小损失函数最常采用梯度下降的方法,另一种常用的方法是最小二乘法。
2022-12-10 21:46:27 265
原创 K-近邻(KNN)算法
目录前言1、kNN算法总结2、三要素2.1. 距离度量:描述最邻近2.2. k的大小2.3. 分类规则3 场外:kNN最重要的特征工程——特征归一化假设如下图,有两类不同的样本数据,分别用蓝色的小正方形和红色的小三角形表示,而图正中间的那个绿色的圆所标示的数据则是待分类的数据。如上图:输入:输出:从kNN的算法描述中可以发现,在KNN算法中有三个要素很重要,分别是距离度量,k的大小和分类规则。距离度量有很多种方式,要根据具体情况选择合适的距离度量方式。常用的是闵可夫斯基距离:如果k值较小,就相当于用较小邻域
2022-12-09 10:39:59 1087
原创 K-Means算法解析
K-means 是常用的基于欧式距离的聚类算法,其认为两个目标的距离越近,相似度越大,属于无监督学习方法。在K-Means算法中,簇的个数K是一个超参数,需要人为输入来确定。K-Means的核心任务就是根据设定好的K,找出K个最优的质心,并将离这些质心最近的数据分别分配到这些质心代表的簇中去。 从K-Means的算法流程中可以发现,k值的选择、初始质心点、中止条件对分类结果的影响较大。 K 值的选取对 K-means 影响很大,这也是 K-means 算法调优的重点,常见的选取 K 值的方法有:手肘
2022-12-08 10:03:52 1143 1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人