自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(21)
  • 收藏
  • 关注

原创 图像分割入门-Unet++理论与实践

U-net++ 架构源自于 U-net,后者由欧洲核子研究组织(CERN)的研究人员于2015年提出。U-net 最初被用于生物医学图像分割,其结构类似于自编码器,具有对称的编码器和解码器部分,并通过跳跃连接将编码器和解码器层级相连接。U-net++ 在 U-net 的基础上进行了改进,主要集中在增强了特征融合的能力,通过引入多层级的特征融合模块,使得网络能够更好地捕获不同尺度下的特征信息,从而提升了图像分割的精度和鲁棒性.

2024-05-06 15:06:47 685

原创 医学图像分割入门-FCN理论与实践

本文介绍了全卷积网络(FCN)在图像分割任务中的应用。相较于传统方法,FCN能够直接从图像到像素级别标签的映射,提高了分割效率和准确性。文章简要回顾了传统图像分割方法的局限性。FCN将传统的卷积神经网络扩展为全卷积结构,接受任意尺寸的输入图像并输出相同尺寸的像素级别标签,其关键组成部分包括卷积层、池化层和全卷积层,通过特征提取和像素级别分类实现图像分割。

2024-04-21 21:58:01 903

原创 医学图像分割入门-UNet理论与实践

U-Net 是一种针对图像分割任务的深度学习架构,在其设计中融入了跳跃连接、对称的 U 形结构和特征信息合并等关键机制。跳跃连接允许低级特征直接传递至解码器,增加了信息传递路径,有效地缓解了信息丢失问题,有助于网络更准确地还原图像细节。对称的 U 形结构确保编码器和解码器之间的紧密联系,提高了信息传递的效率,有助于网络更好地学习图像特征。而特征信息的合并使解码器能够利用多层级特征,有效地提高了图像分割的准确性和鲁棒性。综合这些机制的运用,U-Net 在图像分割领域展现出色,为图像处理任务带来了新的突破和提升

2024-04-15 16:24:15 804

原创 计算机视觉初探--LeNet原理与实践

这篇博客文章详细解释了LeNet模型的数学原理,包括卷积操作、池化操作、全连接层和激活函数等方面。在讲解卷积操作时,提到了卷积核与输入数据的逐元素相乘和相加过程;而池化操作则是对特征图进行下采样以降低数据维度。此外,全连接层通过权重矩阵和偏置向量实现线性变换,并使用tanh函数进行非线性变换。前向传播过程中涉及卷积、池化、全连接和softmax分类,反向传播用于更新模型参数以最小化损失函数。LeNet模型通过各种操作提取图像特征并实现分类任务。

2024-02-21 15:33:05 830

原创 机器学习入门--双向长短期记忆神经网络(BiLSTM)原理与实践

本文介绍了双向长短期记忆网络(BiLSTM)的数学原理。首先解释了LSTM作为递归神经网络的变体,通过引入门控机制解决了传统RNN中的梯度问题。随后详细描述了LSTM的关键组成部分,包括遗忘门、输入门、更新单元状态、细胞状态更新、输出门和隐状态更新的计算过程。接着对BiLSTM进行介绍,指出其在时间序列上同时运行两个LSTM,一个前向处理,一个后向处理,最终将两者的隐藏状态连接形成最终的双向隐藏状态。本文阐述了BiLSTM的原理及其在序列建模中的重要性。

2024-02-18 16:20:41 4487

原创 机器学习入门--LSTM原理与实践

这篇博客详细介绍了LSTM(Long Short-Term Memory)模型的数学原理。首先,文章解释了LSTM中的关键组成部分,包括遗忘门、输入门、更新单元、细胞状态更新、输出门和隐藏状态更新。遗忘门负责决定前一时间步的细胞状态中哪些信息需要被遗忘,输入门确定要将哪些新信息加入到细胞状态中,而更新单元计算出候选的细胞状态用于更新当前时间步的细胞状态。通过这些步骤,LSTM模型能够有效地处理序列数据并保持长期记忆。

2024-02-17 14:59:06 1238

原创 机器学习入门--门控循环单元(GRU)原理与实践

本文介绍了门控循环单元(GRU)模型的数学原理、代码实现和应用实例。首先,文章详细解释了GRU模型中的重置门和更新门的作用,以及如何使用这些门来控制隐藏状态的更新。接着,通过pytorch和sklearn的房价数据集,展示了如何使用GRU模型进行训练和预测。在实验中,我们发现GRU模型能够有效地捕捉数据集中的模式,并取得了良好的预测效果。

2024-02-16 17:03:03 2159 4

原创 机器学习入门--循环神经网络原理与实践

该文章介绍了如何使用Python代码实现一个简单的循环神经网络(RNN)模型来预测波士顿房价,并可视化训练过程中损失的变化。在代码中,首先加载并标准化了数据集,然后定义了一个包含RNN层和全连接层的SimpleRNN模型进行训练,最后使用matplotlib库可视化损失曲线并对新数据进行预测。这篇文章提供了一个实现RNN模型的示例,并通过可视化损失曲线来帮助读者更好地理解模型性能。

2024-02-15 16:58:33 1057

原创 机器学习入门--简单卷积神经网络原理与实践

本文详细介绍了卷积神经网络(CNN)中的两个核心概念:卷积操作和池化操作。卷积操作通过应用滤波器提取输入数据的特征,涉及步长和填充来控制特征图的尺寸。池化操作则通过最大池化或平均池化降低特征图的维度,保留重要信息。这些操作共同使CNN能有效处理图像和其他高维数据,是深度学习领域的基石之一。

2024-02-08 17:25:46 709

原创 机器学习入门--BP神经网络原理与实践

本文介绍了BP神经网络,一种用于训练多层前馈神经网络的监督学习算法。文章首先阐述了BP算法的核心原理:通过计算损失函数对网络参数的梯度并更新权重和偏置来最小化误差。接着,详细解释了其数学原理,包括前向传播、损失计算、反向传播及参数更新。此外,提供了使用PyTorch和sklearn的iris数据集实现BP神经网络的示例代码,涵盖数据处理、模型定义、训练与测试。文章旨在全面介绍BP神经网络的工作机制和实现方法,助力读者掌握这一重要的机器学习算法。

2024-02-07 15:08:45 954

原创 机器学习入门--多层感知机原理与实践

本文详细介绍了多层感知机(Multilayer Perceptron, MLP)的核心数学原理,包括前向传播算法、激活函数、损失函数和反向传播算法。前向传播是多层感知机处理信息的过程,从输入层开始,经过隐藏层,最后到达输出层;激活函数用于增加神经网络的非线性;损失函数用于衡量模型预测值与真实值之间的差异;反向传播算法用于计算损失函数对每个权重的梯度,然后更新权重以最小化损失函数。此外,本文还给出了一个使用PyTorch实现多层感知机的示例代码,并可视化了损失曲线。

2024-02-06 16:03:22 1186

原创 机器学习入门--奇异值分解原理与实践

本文介绍了奇异值分解(Singular Value Decomposition,SVD)的原理和实现方法。SVD是一种矩阵分解技术,可以将一个矩阵分解为三个部分的乘积。具体来说,对于一个m行n列的实数矩阵A,它的SVD分解为A = UΣV^T,其中U是m行m列的正交矩阵,Σ是m行n列的对角矩阵,V是n行n列的正交矩阵。文章详细介绍了SVD的数学原理,并提供了使用Python进行奇异值分解的示例代码。

2024-02-04 17:01:19 593

原创 机器学习入门--朴素贝叶斯原理与实践

贝叶斯定理是一种重要的概率论定理,可用于计算在给定观察数据的情况下某个事件的概率。朴素贝叶斯算法是基于贝叶斯定理的分类算法,假设特征之间相互独立并具有相同重要性。朴素贝叶斯算法的优点包括简单、易实现、处理小规模数据快速、对大量特征仍有效。代码实现使用了GaussianNB类进行iris数据集的分类,并通过可视化展示了分类结果。

2024-02-03 17:04:34 1120

原创 机器学习入门--主成分分析原理与实践

PCA(Principal Component Analysis)是一种常用的降维方法,其基本原理是通过找到数据投影后具有最大方差的新坐标系来实现降维。具体步骤包括:去中心化数据、计算协方差矩阵、特征值分解、选择主成分和投影。数学推导部分给出了每个步骤的详细公式和解释。代码实现部分展示了如何使用Python中的sklearn库进行PCA降维,并通过可视化结果展示了降维效果。

2024-02-02 12:49:01 1051

原创 机器学习入门--聚类算法之K-Means算法原理与实践

本文介绍了K-Means算法的原理和代码实现。K-Means算法是一种常见的聚类算法,目标是将样本集划分为k个簇,使得每个簇内部的样本之间距离尽可能接近,而不同簇之间的距离尽可能远。文章详细讲解了K-Means算法的数学原理和迭代步骤,并给出了Python代码实现。此外,还使用Iris数据集进行了聚类示例,最终给出可视化的聚类结果。

2024-02-01 17:18:46 614

原创 机器学习入门--K-近邻算法原理与实践

K-近邻算法(KNN)是机器学习中最常用的算法之一,其核心思想是根据样本的特征相似度来进行分类或回归预测。该算法包含计算待分类样本与训练集中每个样本之间的距离、选取与待分类样本距离最近的k个训练样本以及根据这k个样本所属的类别来确定待分类样本的类别等步骤。KNN算法适用范围广泛,包括语音识别、图像识别、推荐系统等。

2024-01-29 17:08:11 809

原创 机器学习入门--随机森林原理与实践

随机森林是一种集成学习方法,通过构建多个决策树并将它们集成起来来提高模型的性能。随机森林引入了两种随机性:随机抽样和随机特征选择。对于分类问题,随机森林使用投票法进行预测,对于回归问题,使用平均值作为预测结果。代码实现部分展示了如何使用Scikit-learn库训练一个随机森林分类器,并在测试集上进行预测和评估。

2024-01-28 12:48:51 393

原创 机器学习入门--决策树基本原理与实践

决策树是一种常用的机器学习算法,它通过构建一棵树状结构来进行决策,用于解决分类和回归问题。决策树的构建过程是一个递归的过程,包括特征选择、节点划分和停止条件。常用的特征选择方法有信息增益和基尼系数,而CART算法是决策树中常用的一种算法。代码实现部分展示了如何使用sklearn库进行决策树分类器的训练和预测,并计算准确率。

2024-01-27 16:49:15 747

原创 机器学习入门--支持向量机原理与实践

支持向量机(SVM)是一种常用的监督学习算法,适用于分类和回归问题。它通过找到一个最优的超平面,将不同类别的数据分离,并最大化边际。文章介绍了SVM的原理、数学表达式和代码实现示例,以及对乳腺癌数据集进行二分类的结果可视化。本文简单介绍了SVM的基本概念和应用。

2024-01-26 15:57:03 1066

原创 机器学习入门--逻辑回归与简单二分类数据实战

逻辑回归是一种用于分类问题的机器学习算法,可以处理二分类和多分类问题。它的原理简单易懂,通过将输入特征映射到概率值来进行分类预测。本文提供了逻辑回归的基本原理和实现方式,包括代码演示和结果展示。在代码实现中,我们使用了scikit-learn提供的iris数据集进行演示,并通过训练好的模型将分类结果绘制成了图像。总的来说,本文介绍了逻辑回归在分类问题中的应用原理和实现方法。通过阅读本文,读者可以对逻辑回归算法有一个基本的了解,并且可以根据代码演示进行实际操作。希望本文对于想要了解分类算法的读者有所帮助。

2024-01-25 17:06:26 1191

原创 机器学习入门--线性回归与简单优化算法(基础部分)

本文介绍了线性回归模型及其相关概念。首先,讲解了线性回归模型的定义和表示方法,然后介绍了损失函数的定义和最小二乘法的应用,接着详细解释了参数更新的过程和梯度下降算法的原理。此外,还介绍了正则化的概念和L2正则化的具体应用。最后,给出了一个使用Python实现的简单线性回归算法的代码,并通过可视化展示了模型拟合的效果。

2024-01-24 17:07:17 887 3

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除