自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

政安晨——致力于AI人工智能数字互动领域

分享人工智能感知交互技术的研究成果与产品经验,助力人工智能数字产业生态。

  • 博客(179)
  • 资源 (1)
  • 收藏
  • 关注

原创 政安晨:【Keras机器学习示例演绎】(十八)—— 图像字幕

本文目标:使用 CNN 和 Transformer 实现图像字幕模型。本文将使用 Flickr8K 数据集。该数据集包含 8000 多张图片,每张图片都配以五个不同的标题。

2024-04-27 06:00:00 327 1

原创 政安晨:【Keras机器学习示例演绎】(十九)—— 可视化网络学习内容

本文目标:显示 convnet 过滤器响应的视觉模式。在本示例中,我们将研究图像分类模型能学习到哪些视觉模式。我们将使用在 ImageNet 数据集上训练的 ResNet50V2 模型。我们的过程很简单:我们将创建输入图像,最大限度地激活目标层。(选在模型中间的某个位置:层 conv3_block4_out)中的特定滤波器。这些图像代表了过滤器响应模式的可视化。

2024-04-27 06:00:00 159 1

原创 政安晨:【深度学习神经网络基础】(十四)—— 神经网络剪枝和模型选择

人工智能神经网络剪枝是一种优化神经网络模型的方法,通过删除网络中的一些神经元或连接来减小网络的复杂度。剪枝的目的是提高模型的效率和性能,并减少其在计算和存储方面的需求。神经网络剪枝的基本方法是根据一定的剪枝准则来选择要删除的神经元或连接。常见的剪枝准则包括权重剪枝、结构剪枝和一些启发式方法。权重剪枝通过将权重接近于零的连接删除,来减少模型的参数个数。结构剪枝则是通过删除整个神经元或神经元组来减小模型的大小。启发式方法是基于一些规则或经验,根据网络的特定性质进行剪枝。

2024-04-27 05:45:00 891

原创 政安晨:【Keras机器学习示例演绎】(十七)—— 用于图像分类的 RandAugment 可提高鲁棒性

本文目标:用于训练图像分类模型的 RandAugment,具有更强的鲁棒性。数据增强是一种非常有用的技术,有助于提高卷积神经网络(CNN)的平移不变性。RandAugment 是一种用于视觉数据的随机数据增强程序,在 RandAugment 中提出:RandAugment: Practical automated data augmentation with a reduced search space》一书中提出的。它由色彩抖动、高斯模糊、饱和度等强增强变换和随机作物等更传统的增强变换组成。

2024-04-26 06:00:00 804 1

原创 政安晨:【Keras机器学习示例演绎】(十六)—— 用于图像分类的混合增强

本文目标:利用混合技术对图像分类进行数据扩增。mixup 是由 Zhang 等人在 mixup.Beyond Empirical Risk Minimization 一书中提出的一种与领域无关的数据增强技术。这项技术的名称相当系统。从字面上看,我们是在混合特征及其相应的标签。实施起来很简单。神经网络很容易记住错误的标签。mixup 通过将不同的特征相互组合(标签也是如此)来放松这一点,这样网络就不会对特征及其标签之间的关系过于自信。

2024-04-26 05:45:00 288 1

原创 政安晨:【深度学习神经网络基础】(十三)—— 卷积神经网络

卷积神经网络(Convolutional Neural Network,CNN)是一种常用于处理具有网格结构数据的神经网络模型。它在人工智能机器学习中被广泛应用于计算机视觉和图像识别任务。CNN的核心思想是通过卷积层和池化层来提取图像特征,然后通过全连接层和输出层进行分类或回归。具体而言,CNN通过使用多个卷积核来对输入图像进行卷积操作,这样可以从原始图像中提取出不同的特征。卷积操作可以捕捉到图像中的空间局部关系,例如边缘、纹理等信息。

2024-04-25 06:15:00 653

原创 政安晨:【Keras机器学习示例演绎】(十五)—— 用于图像分类的 CutMix 数据增强技术

本文目标:利用 CutMix 对 CIFAR-10 上的图像分类进行数据扩增。CutMix 是一种数据增强技术,可解决区域剔除策略中存在的信息丢失和效率低下问题。该技术不是删除像素并用黑色或灰色像素或高斯噪声填充,而是用另一幅图像的补丁替换被删除的区域,同时根据合并图像的像素数量按比例混合地面实况标签。CutMix 是在 CutMix 中提出的:利用可定位特征训练强分类器的正则化策略》(Yun et al.)

2024-04-25 06:00:00 741 1

原创 政安晨:【Keras机器学习示例演绎】(十四)—— 用于弱光图像增强的零 DCE

本文目标:实施零参考深度曲线估算,实现低-高。零参考深度曲线估算(Zero-Reference Deep Curve Estimation 或 Zero-DCE)将低照度图像增强定义为利用深度神经网络估算图像特定色调曲线的任务。在本示例中,我们训练一个轻量级深度网络 DCE-Net,以估计像素级和高阶色调曲线,从而调整给定图像的动态范围。

2024-04-25 05:45:00 324 1

原创 政安晨:【Keras机器学习示例演绎】(十三)—— 利用高效子像素 CNN 实现图像超分辨率

本文目标:在 BSDS500 上使用高效子像素模型实现超分辨率。ESPCN (Efficient Sub-Pixel CNN)由 Shi 于 2016 年提出,是一种在低分辨率版本图像的基础上重建高分辨率版本图像的模型。它利用高效的 "子像素卷积 "层,学习一系列图像升级滤波器。在本代码示例中,我们将实现论文中的模型,并在一个小型数据集 BSDS500 上对其进行训练。

2024-04-24 06:00:00 201 1

原创 政安晨:【Keras机器学习示例演绎】(十二)—— 用利用 MIRNet 增强弱光图像效果

本文目标:实现用于弱光图像增强的 MIRNet 架构。图像复原的目标是从劣质版本中恢复出高质量的图像内容,因此在摄影、安防、医疗成像和遥感等领域应用广泛。在本示例中,我们实现了用于弱光图像增强的 MIRNet 模型,这是一种全卷积架构,可学习一组丰富的特征,结合来自多个尺度的上下文信息,同时保留高分辨率的空间细节。

2024-04-24 05:45:00 127 1

原创 政安晨:【Keras机器学习示例演绎】(十一)—— 用于图像去噪的卷积自动编码器

本文目标:如何训练用于图像去噪的深度卷积自动编码器。本示例演示了如何实现用于图像去噪的深度卷积自动编码器,将 MNIST 数据集中的嘈杂数字图像映射为干净的数字图像。该实现基于 François Chollet 发表的题为《在 Keras 中构建自动编码器》的原创博文。

2024-04-23 07:36:15 418

原创 政安晨:【Keras机器学习示例演绎】(十)—— 用于读取验证码的 OCR 模型

本文目标:如何使用 CNN、RNN 和 CTC loss 实现 OCR 模型。本示例演示了使用功能 API 构建的一个简单 OCR 模型。除了结合 CNN 和 RNN 外,它还说明了如何实例化一个新层,并将其用作实现 CTC 损失的 "端点层"。有关层子类化的详细指南,请查看开发人员指南中的此页面。

2024-04-23 06:00:00 786 1

原创 政安晨:【Keras机器学习示例演绎】(九)—— 利用 PointNet 进行点云分类

本文目标:用于 ModelNet10 分类的 PointNet 实现。无序三维点集(即点云)的分类、检测和分割是计算机视觉领域的核心问题。

2024-04-22 22:34:02 667 1

原创 政安晨:【Keras机器学习示例演绎】(八)—— 利用 PointNet 进行点云分割

本文目标:实现基于点网的点云分割模型。点云 "是存储几何形状数据的一种重要数据结构类型。由于其格式不规则,在用于深度学习应用之前,通常要将其转换为规则的三维体素网格或图像集合,这一步骤会使数据变得不必要的庞大。PointNet 系列模型通过直接消耗点云解决了这一问题,同时尊重点数据的包络不变性属性。PointNet 系列模型提供了一个简单、统一的架构,适用于从物体分类、部件分割到场景语义解析等各种应用。在本示例中,我们演示了用于形状分割的 PointNet 架构的实施。

2024-04-22 05:45:00 915 1

原创 政安晨:【Keras机器学习示例演绎】(七)—— 利用 NeRF 进行 3D 体积渲染

本文目标:NeRF 中显示的体积渲染的最小实现。在本示例中,我们将介绍 Ben Mildenhall 等人的研究论文 NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis 的最小实现。作者提出了一种巧妙的方法,即通过神经网络对体积场景函数进行建模,从而合成场景的新颖视图。

2024-04-21 14:08:52 799 1

原创 政安晨:【Keras机器学习示例演绎】(六)—— 通过 CT 扫描进行 3D 图像分类

本文目标:训练三维卷积神经网络,预测是否存在肺炎。本示例将展示构建三维卷积神经网络(CNN)所需的步骤,以预测计算机断层扫描(CT)中是否存在病毒性肺炎。二维卷积神经网络通常用于处理 RGB 图像(3 个通道)。三维卷积神经网络与三维卷积神经网络完全相同:它的输入是三维体积或二维帧序列(如 CT 扫描中的切片),三维卷积神经网络是学习体积数据表示的强大模型。

2024-04-21 06:15:00 710 1

原创 政安晨:【深度学习神经网络基础】(十二)—— 深度学习概要

深度学习是人工智能领域的一个重要分支,它主要通过神经网络模型来实现复杂的学习任务。在深度学习中,神经网络通常由多个层次组成,每一层都包含多个神经元,这些神经元通过改变权重和偏差值来学习输入数据的特征。深度学习的一个重要特点是它能够自动地从大量的数据中学习和提取特征,无需手工设计特征提取器。它利用了反向传播算法来计算误差梯度,进而通过梯度下降来优化神经网络的权重和偏差值,从而使得网络能够更好地逼近目标函数。

2024-04-21 05:45:00 680

原创 政安晨:【Keras机器学习示例演绎】(五)—— 利用视觉变换器进行物体检测

本文目标:使用视觉变换器进行物体检测的简单 Keras 实现。Alexey Dosovitskiy 等人撰写的文章 Vision Transformer (ViT) 架构表明,直接应用于图像片段序列的纯变换器可以很好地完成物体检测任务。在本 Keras 示例中,我们实现了对象检测 ViT,并在 Caltech 101 数据集上对其进行训练,以检测给定图像中的飞机。

2024-04-21 05:45:00 576 1

原创 政安晨:【Keras机器学习示例演绎】(四)—— 利用迁移学习进行关键点检测

本文目标:利用数据增强和迁移学习训练关键点检测器。关键点检测包括对物体关键部位的定位。例如,人脸的关键部位包括鼻尖、眉毛、眼角等。这些部分有助于以特征丰富的方式表示底层对象。关键点检测的应用包括姿势估计、人脸检测等。在本例中,我们将使用斯坦福 Extra 数据集,利用迁移学习建立一个关键点检测器。

2024-04-20 06:00:00 981 1

原创 政安晨:【Keras机器学习示例演绎】(三)—— 利用可组合全卷积网络进行图像分割

本文目标:使用全卷积网络进行图像分割。下面的示例介绍了在牛津国际理工学院宠物数据集上实现用于图像分割的全卷积网络的步骤。该模型是 Long 等人在论文《用于语义分割的全卷积网络》(Fully Convolutional Networks for Semantic Segmentation)(2014 年)中提出的。图像分割是计算机视觉领域最常见、最入门的任务之一,我们将图像分类问题从每张图像一个标签扩展到像素分类问题。在本示例中,我们将组装上述能够执行图像分割的全卷积分割架构。

2024-04-20 05:45:00 863 1

原创 政安晨:【Keras机器学习示例演绎】(二)—— 使用 DeepLabV3+ 进行多类语义分割

本文目标:为多类语义分割实现 DeepLabV3+ 架构。语义分割的目标是为图像中的每个像素分配语义标签,这是计算机视觉的一项重要任务。在本示例中,我们实现了用于多类语义分割的 DeepLabV3+ 模型,这是一种全卷积架构,在语义分割基准测试中表现出色。

2024-04-19 06:00:00 1130 1

原创 政安晨:【Keras机器学习示例演绎】(一)—— 利用类 U-Net 架构进行图像分割

本文目标:在宠物数据集上从头开始训练的图像分割模型。

2024-04-19 05:45:00 863

原创 政安晨:【Keras机器学习实践要点】(三十二)—— 使用 BigTransfer (BiT) 进行图像分类

本文目标:BigTransfer (BiT) 最先进的图像分类迁移学习。BigTransfer(又称 BiT)是用于图像分类的最先进的迁移学习方法。在训练视觉深度神经网络时,预训练表征的转移提高了样本效率,简化了超参数调整。BiT 重新审视了在大型监督数据集上进行预训练并在目标任务上对模型进行微调的模式。随着预训练数据量的增加,适当选择归一化层和扩展架构容量的重要性。

2024-04-18 06:15:00 820 1

原创 政安晨:【深度学习神经网络基础】(十一)—— 激活函数的导数以及在反向传播中的应用

反向传播过程需要激活函数的导数,它们通常确定反向传播过程将如何执行。大多数现代深度神经网络都使用线性、Softmax和ReLU激活函数。我们还会探讨S型和双曲正切激活函数的导数,以便理解ReLU激活函数为何表现如此出色。

2024-04-18 05:45:00 870

原创 政安晨:【深度学习神经网络基础】(十)—— 反向传播网络中计算输出节点增量与计算剩余节点增量

为神经网络中的每个节点(神经元)计算一个常数值。我们将从输出节点开始,然后逐步通过神经网络反向传播。“反向传播”一词就来自这个过程。我们最初计算输出神经元的误差,然后通过神经网络向后传播这些误差。节点增量是我们将为每个节点计算的值。层增量也描述了该值,因为我们可以一次计算一层的增量。在计算输出节点或内部节点时,确定节点增量的方法可能会有所不同。首先计算输出节点,并考虑神经网络的误差函数。

2024-04-17 09:58:42 925

原创 政安晨:【深度学习神经网络基础】(九)—— 在深度学习神经网络反向传播训练中理解梯度

在深度学习神经网络中,反向传播是一种用来训练神经网络的常用方法。它通过计算损失函数对于网络参数的梯度,然后使用梯度下降算法更新参数,以降低损失函数的值。梯度表示了函数在某一点上的变化率和方向,对于神经网络而言,梯度表示了损失函数对于网络参数的变化率和方向。在反向传播过程中,首先通过前向传播计算出网络的输出和损失函数的值,然后利用链式法则逐层计算参数的梯度。具体来说,反向传播的过程可以分为两个步骤:反向传播和参数更新。

2024-04-16 18:25:04 880

原创 政安晨:【深度学习神经网络基础】(八)—— 神经网络评估回归与模拟退火训练

深度学习神经网络的评估回归是一种用于评估网络性能的方法。在回归问题中,神经网络被用于将输入数据映射到连续的输出。模拟退火是一种用于训练深度学习神经网络的优化算法。

2024-04-16 08:04:43 1329 1

原创 政安晨:【深度学习神经网络基础】(七)—— 神经网络评估分类

到目前为止,我们已经看到了如何根据权重来计算神经网络的输出,但是,我们还没有看到这些权重的实际来源。训练是调整神经网络权重以产生所需输出的过程。训练利用了评估,即根据预期输出评估神经网络输出的过程。由于神经网络可以通过许多不同的方式进行训练与评估,因此我们需要一种一致的方法来对它们进行判断。目标函数评估神经网络并返回得分,训练会根据得分调整神经网络,以便取得更好的结果。通常,目标函数希望得分较低,其试图获得较低得分的过程称为最小化。你可能会设定最大化的问题,此时目标函数需要较高的得分。

2024-04-15 08:54:55 1162

原创 政安晨:【Keras机器学习实践要点】(三十一)—— 使用全局上下文视觉变换器进行图像分类

本文目标:用于图像分类的全局上下文视觉变换器的实现和微调。在本文中,我们将利用多后端 Keras 3.0 来实现 A Hatamizadeh 等人在 ICML 2023 上发表的 GCViT:Global Context Vision Transformer 论文,并利用官方 ImageNet 预训练的权重在 Flower 数据集上对模型进行微调,以完成图像分类任务。本文的一大亮点是与多个后端兼容:TensorFlow、PyTorch 和 JAX,展示了多后端 Keras 的真正潜力。

2024-04-15 08:16:48 953 1

原创 政安晨:【Keras机器学习实践要点】(二十九)—— 半监督图像分类使用具有SimCLR对比性预训练的方法

本文目标:使用SimCLR的对比预训练方法进行STL-10数据集的半监督图像分类。半监督学习是一种处理部分标记数据集的机器学习范式。在实际应用深度学习时,通常需要收集大量数据集以使其良好运行。然而,标记成本与数据集大小成线性关系(标记每个示例的时间是恒定的),而模型性能只与数据集大小成亚线性关系。这意味着标记越来越多的样本成本效益越来越低,而收集未标记的数据通常便宜,因为通常有大量可获得的未标记数据。

2024-04-14 06:00:00 840 1

原创 政安晨:【Keras机器学习实践要点】(三十)—— 使用斯温变换器进行图像分类

本文目标:使用 Swin Transformers(计算机视觉的通用骨干)进行图像分类。本示例实现了用于图像分类的 Swin 变换器:使用移位窗口的分层视觉变换器,并在 CIFAR-100 数据集上进行了演示。Swin Transformer(移位窗口变换器)可作为计算机视觉的通用骨干。Swin 变换器是一种分层变换器,其表示是通过移位窗口计算的。移位窗口方案将自我关注计算限制在非重叠局部窗口,同时允许跨窗口连接,从而提高了效率。

2024-04-14 05:45:00 921 1

原创 政安晨:【Keras机器学习实践要点】(二十八)—— 使用Reptile进行小样本学习

本文目标:使用 Reptile 对 Omniglot 数据集进行少量分类。Reptile算法是由OpenAI开发的,用于执行与模型无关的元学习。具体而言,该算法旨在通过最小的训练量(少样本学习)迅速学习执行新任务。该算法通过使用在一个小批量的从未见过的数据上训练得到的权重与训练前的模型权重之间的差别进行随机梯度下降,经过一定数量的元迭代来工作。

2024-04-13 06:15:00 656

原创 政安晨:【Keras机器学习实践要点】(二十七)—— 使用感知器进行图像分类

本文目标:实施用于图像分类的感知器模型。Perceiver 模型利用非对称注意力机制,将输入信息迭代提炼成一个紧密的潜在瓶颈,使其能够扩展以处理非常大的输入信息。换句话说:假设你的输入数据数组(如图像)有 M 个元素(即补丁),其中 M 很庞大。在标准变换器模型中,会对 M 个元素执行自注意操作。

2024-04-13 05:45:00 968 1

原创 政安晨:【Keras机器学习实践要点】(二十六)—— 内卷神经网络

本文目标:深入研究特定位置和渠道无关的“内卷”核函数。卷积是大多数现代计算机视觉神经网络的基础。卷积核具有空间无关性和通道特定性。因此,它无法适应不同空间位置的不同视觉模式。除了与位置相关的问题,卷积的作用范围也给捕捉远距离空间相互作用带来了挑战。

2024-04-12 06:15:00 1096 1

原创 政安晨:【Keras机器学习实践要点】(二十五)—— 使用 EANet(外部注意力转换器)进行图像分类

本文目标:利用外部注意力的变形器进行图像分类。本例实现了用于图像分类的 EANet 模型,并在 CIFAR-100 数据集上进行了演示。EANet 引入了一种名为 "外部注意 "的新型注意机制,它基于两个外部、小型、可学习和共享的记忆,只需使用两个级联线性层和两个归一化层即可轻松实现。它可以方便地取代现有架构中使用的自我注意。外部注意力具有线性复杂性,因为它只隐含地考虑了所有样本之间的相关性。

2024-04-12 05:45:00 1515 1

原创 政安晨:【深度学习神经网络基础】(六)—— 前馈神经网络

由于其用途广泛,前馈神经网络架构非常受欢迎。因此,我们将探索如何训练它,以及它如何处理模式。“前馈”一词描述了该神经网络如何处理和记忆模式。在前馈神经网络中,神经网络的每一层都包含到下一层的连接。如这些连接从输入向前延伸到隐藏层,但是没有向后的连接。后面,我们也将分析前馈神经网络的结构及其记忆模式的方式。我们可以使用多种反向传播算法中的各种技术来训练前馈神经网络,这是一种有监督的训练形式。本文重点介绍应用优化算法来训练神经网络的权重。

2024-04-11 06:15:00 679

原创 政安晨:【Keras机器学习实践要点】(二十四)—— 使用 ConvMixer 进行图像分类

视觉变换器(ViT;Dosovitskiy 等人)从输入图像中提取小块图像,对其进行线性投影,然后应用变换器(Vaswani 等人)块。将 ViTs 应用于图像识别任务正迅速成为一个前景广阔的研究领域,因为 ViTs 无需使用强大的归纳偏差(如卷积)来模拟局部性。因此,ViTs 是一种通用的计算基元,能够仅从训练数据中学习,并尽可能减少归纳先验。当使用适当的正则化、数据增强和相对较大的数据集进行训练时,ViTs 会产生很好的下游性能。

2024-04-11 05:45:00 1630 1

原创 政安晨:【深度学习神经网络基础】(五)—— 霍普菲尔德神经网络和玻尔兹曼机

这两种经典神经网络虽然都没有在现代AI应用程序中广泛使用,但两者都是现代算法的基础。玻尔兹曼机构成了深度信念神经网络(Deep Belief Neural Network,DBNN)的基础,它是深度学习的基本算法之一。霍普菲尔德神经网络是一种非常简单的神经网络,它具备许多特性,这些特性也是更复杂的前馈神经网络所具有的。玻尔兹曼机是一种神经网络架构,它与霍普菲尔德神经网络有许多共同的特征。但是,与霍普菲尔德神经网络不同,你可以利用玻尔兹曼机堆叠深度信念神经网络。

2024-04-10 06:15:00 1543

原创 政安晨:【Keras机器学习实践要点】(二十三)—— 紧凑型卷积变换器

本文目标:用于高效图像分类的紧凑型卷积变换器正如视觉变换器(ViT)论文中所讨论的,基于变换器的视觉架构通常需要比通常更大的数据集,以及更长的预训练时间。对于 ViT 而言,ImageNet-1k(拥有约一百万张图像)被认为属于中等数据规模。这主要是因为,与 CNN 不同,ViT(或典型的基于 Transformer 的架构)不具备信息充分的归纳偏差(如处理图像的卷积)。这就引出了一个问题:难道我们不能在单一网络架构中结合卷积的优势和变形器的优势吗?

2024-04-10 06:00:00 1067 1

原创 政安晨:【Keras机器学习实践要点】(二十二)—— 基于 TPU 的肺炎分类

本文目标:基于 TPU 的医学图像分类。Keras是一个高级神经网络库,可以用于实现医学图像分类任务。医学图像分类是指将医学图像分为不同的类别,例如正常和异常,不同病种等。在Keras中,可以使用卷积神经网络(CNN)来进行医学图像分类。CNN是一种特别适用于图像分类任务的神经网络架构,它能够有效地提取图像中的特征。

2024-04-09 06:00:00 1027 1

政安晨:快速学会~机器学习的Pandas数据技能(三)(重命名与合并)

政安晨:快速学会~机器学习的Pandas数据技能(三)(重命名与合并)的示例数据文件

2024-02-08

政安晨:机器学习快速入门(一){基于Python与Pandas}的示例数据包

政安晨:机器学习快速入门(一){基于Python与Pandas}的示例数据包,用于在文章:政安晨:机器学习快速入门(一){基于Python与Pandas}中给读者下载处理的示例数据

2024-02-05

哈工大《手机设计基本知识》

哈工大 系统讲述手机设计原理的知识。 偏重硬件原理,设计概要等。

2009-08-29

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除