- 博客(30)
- 收藏
- 关注
原创 语义分割——全卷积网络FCN
3.第三种,就是把特征图上采样到原图的16分之一,再加上原始图像在卷积过程中得到的原图16分之一的特征图,然后再上采样2倍,回复到原图的8分之一,此时再加上原始图像在卷积过程中得到的原图8分之一的特征图,最后再恢复成原始图像的大小,得到结果,称为FCN-8s;FCN模型比较简单,它的核心原理就是用卷积神经网络提取图像的特征,并在舍弃了图像分类网络中的最后一层分类层,替换成了一个1X1卷积,得到要分类的特征图,之后通过上采样恢复成原始图像的大小,从而实现每个像素点的分类,得到分割的结果。
2024-11-01 14:17:14 620
原创 MIOU的计算
MIOU,即平均交并比(Mean Intersection over Union),是评价语义分割模型性能的一个重要指标,本文介绍了MIOU的计算方法
2024-08-29 16:46:47 978
原创 VBA读取不带后缀名文本文件的方法(解决Unix文本文件在Windows下变成一行的读取)
Unix/Mac系统下的文件在Windows里打开的话,所有文字会变成一行,本文主要说明了这种文件的读取方法
2024-07-29 15:21:10 465
原创 深度学习中权重初始化的重要性
本文主要讨论了深度学习模型中的权重初始化问题,并比较了高斯分布和Xavier以及kaiming初始化的具体区别。
2024-04-30 16:13:47 1020 1
原创 卷积神经网络五:GoogleNet
在2014年的ImageNet图像识别大赛中,一个名叫GoogleNet的网络架构大放异彩。GoogleNet使用了一种叫作Inception的结构。其实GoogleNet本质上就是一种Inception网络,而一个Inception网络又是由多个Inception模块和少量的汇聚层堆叠而成。
2024-03-19 17:11:38 2178
原创 卷积神经网络四:VGG
本文介绍了VGG的原理以及代码实现,并在cifar-10和猫狗分类数据集上进行了测试,特别提到了批量归一化层对于训练效果的提升。
2024-03-13 16:13:12 2099
原创 卷积神经网络三:AlexNet
本文介绍了AlexNet网络模型的结构,并进行了代码实现,在cifar-10数据集上进行了训练,最后简单介绍了一下模型的预训练和微调。
2024-03-06 10:39:22 992
原创 神经网络Pytorch实现
不过现在主流的深度学习都是采用框架来进行开发的,最主流的是:Tensorflow,Keras(对Tensorflow做了封装,本质上还是Tensorflow),Mxnet,Pytorch,以及国内百度的PaddlePaddle。下面我们构建了一个训练函数,采用了预训练的VGG16模型,因为VGG是在Imagenet上做的预训练,最后输出是1000类的,而我们这里是两类的,所以需要改造一下最后一层。我们有两种图片,一种是猫的图片,一种是狗的图片,希望训练一个模型,使得它可以对输入的猫狗图片区分。
2024-02-02 15:15:09 885
原创 PCA算法和SVD算法简介
例如,如果在一个1*1的正方形中随机选择一个点,那么这个点距离边界小于0.001的概率只有约0.4%,但是,在一个10000维的单位超立方体中,这个概率大于99.99999%,在高维超立方体中,大多数点都非常接近边界。Ax = λx,其中λ就叫作矩阵A的一个特征值,n维向量x就叫作矩阵A的特征值λ对应的特征向量。要计算特征值和特征向量有一个问题,就是矩阵A必须要是一个n*n的方阵,当遇到A是一个m*n矩阵(m不等于n时),就无法使用特征值进行分解了,当遇到非方阵矩阵的时候就需要使用SVD算法了。
2023-12-21 14:46:20 1136
原创 KMeans聚类算法简介
所谓无监督就是指训练样本的标记信息是未知的,目标是通过对无标记训练样本的学习来揭示数据的内在性质及规律,为进一步的数据分析提供基础。在给定的数据情况下,聚类算法通过度量数据间的“距离”或者特征相似度,自动将这些数据分为若干个类别。4)判断是否达到要求或者已经迭代到了最大次数,如果是就停止,输出聚类结果,如果不是的话,则继续到第2)步,把每个数据进行聚类;可以看到,聚类的效果还是不错的,并且各自的质心对其簇内的数据而言,基本都处在“中心”位置。我们根据聚类后的四个类标签设置颜色,和我自己编写的程序结果一样。
2023-12-18 14:58:52 1024
原创 集成方法与随机森林简介
梯度提升和AdaBoosting的区别在于,梯度提升法的分类器是拟合前一个分类器的预测结果和真实结果的误差,通过不断地拟合这个误差来提升模型的训练精度,使得模型越来越好。不过也确实说明了投票分类器的结果是几个分类器投票集成的结果。集成方法的思想其实很好理解,简单来说就是构建很多个分类器,然后每个分类器分别预测,聚合每个分类器的预测结果,然后投票,将得票最多的结果作为预测类别。可以看到,在卫星数据集上,投票分类器和SVM分类器的结果是非常接近的,因为几个分类器的结果都有了提升,因此集成在一起的精度也有提升。
2023-12-06 16:11:54 393
原创 决策树简介
拿属性天气的基尼指数来举例,Gini_index(天气) = 5/14(2/5(1-2/5)+3/5(1-3/5)) + 9/14(7/9(1-7/9)+2/9(1-2/9))=0.46,意思就是,一共14条记录,有5条记录天气是晴的,有9条记录天气时非晴的。同样的,9天非晴的记录中,7天去打高尔夫球了,2天没去。同样的,我们得到属性“温度”的信息增益0.03,属性“湿度”的信息增益0.15,属性“是否有风”的信息增益0.05,所以,天气的信息增益最高,应该按照“天气”属性进行划分。
2023-12-04 09:42:04 789
原创 支持向量机简介
这里我用了一个多项式回归特征,degree=3代表了生成的是三次多项式,最后通过线性SVC来进行训练,C是一个惩罚变量,如果C越大,分类会越精确但是可能存在过拟合的情况,C越小相当于允许犯错,泛化能力较强。这里我们使用鸢尾花的长度和宽度特征来训练,标签值为是否是第二种类型的鸢尾花,1代表是,0代表否。可见,模拟了100个数据,X的维度是(100,2),100行2列,我们把一列作为纵坐标,一列作为横坐标,y作为颜色值区分类型,画出了图形,可以看到有很明显的非线性特征,无法用一条直线将两个数据集分开。
2023-11-22 16:37:25 434
原创 逻辑回归简介
虽然也叫“回归”,逻辑回归却是一种分类模型。与线性回归模型一样,逻辑回归模型也是计算输入特征的加权和(加上偏置项),但是不同于线性回归模型直接输出结果,它输出的是一个概率值用来判断输出为哪一种类型。
2023-11-10 11:08:58 728
原创 线性回归简介
线性回归算法是机器学习中一类基础算法,原理非常简单,但是应用却非常广泛。本质上,线性回归模型就是对输入特征加权求和,再加上一个我们称为偏置项(也称为截距项)的常数,以此进行预测。
2023-11-06 10:46:20 84
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人