自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(20)
  • 收藏
  • 关注

原创 Inception_V2_V3_pytorch

在上一节我们已经精度了这篇论文,本篇我们将用pyorch复现论文中的网络结构!接下来我们将在Layers.py中定义Separable_Conv2d,Concat_Separable_Conv2d,Conv2d,Flatten,Squeeze这些类。

2024-06-24 17:09:17 473

原创 Inception_V2_V3

卷积神经网络在计算机领域大放异彩,但是在加深加宽网络的同时也要考虑计算效率。引出下文通过可分离卷积和正则化去提升计算效率好的分类模型可以迁移应用到其他计算机视觉任务上,共同特点:都需要CNN提取到的高质量视觉特征(visual features)GoogLeNet在参数量上取得了很好的优势(AlexNet:6000w, GoogLeNet:500w, VGG16:1.3e)一味的叠加Inception模块会导致参数量过大换来的精度提升,得不偿失。

2024-06-23 17:35:22 885

原创 GoogLeNet

我们提出了一个代号为Inception的深度卷积神经网络架构,它用于ImageNet挑战赛上的分类和检测任务。该架构的主要特点是在增加网络深度和宽度的同时减少参数量和计算量,为了优化质量架构决策是基于赫布理论和多尺度信息处理。在我们提交的ILSVRC14中使用的一个特定化身称为GoogLeNet,这是一个22层的深度网络,关于该网络的分类和检测在网络中有提到。分类:输入一张图片输出它为每一类的概率。检测:有可能一张图片上有好几种物体,需要用画框把物体框出来。

2024-06-09 17:28:56 1014

原创 VGGNet

本文研究了在大型图像识别设置中,卷积网络深度对准确性的影响。我们的主要贡献是通过对具有非常小的(3×3)卷积滤波器的架构进行彻底的深度评估,深度增加到16-19个权重层,这表明通过将深度推向16-19个权重层,可以获得对先前的配置的显着改进。这些发现是我们在2014年ImageNet挑战赛中的主要贡献,我们的团队在本地化和分类轨道上分别获得了第一名和第二名。我们还展示了我们的表示在其它数据集上具有良好的泛化性,在那里它们获得了最先进的结果。

2024-06-02 22:13:51 706

原创 ZFNet论文详解

大型卷积网络模型最近展示了令人印象深刻的经典在ImageNet实验台上的操作性能(Krizhevsky et al., 2012)。然而卷积神经网路在当时就像一个黑箱子,我们并不知道它为什么能够工作以及它为什么能表现的那么好。我们介绍了一种新颖的可视化技术这让我们能够可视化模型的中间特征层以及分类器的操作。这种可视化技术可以用来解释为什么Krizhevsky等人在ImageNet上分类的模型为什么效果那么好。我们还会通过对比来探究模型敏感度,相关性。

2024-05-25 01:37:30 1073

原创 AlexNet

本篇文章将基于AlexNet实现cifiar_10分类,并可视化卷积层。AlexNet的出现打破了传统的机器学习和特征提取方法限制。

2024-05-16 22:32:24 1106

原创 基于LeNet5实现手写数字识别,可视化卷积层。

本文章将基于LeNet5实现手写数字识别,并增加卷积层,探索卷积层多与少的区别,通过可视化卷积层,是大家更理解CNN这个抽象的概念!

2024-05-14 00:09:35 953

原创 CNN笔记详解

卷积:对图像(不同的数据窗口数据)和滤波矩阵(一组固定的权重:因为每个神经元的多个权重固定,所以又可以看做一个恒定的滤波器filter)做内积(逐个元素相乘再求和)的操作就是所谓的『卷积』操作,也是卷积神经网络的名字来源。这里的滤波矩阵称为卷积核卷积核通过在输入图像上不断的移动,每一次移动都进行一次乘积求和,作为此位置的值。上图形象的展示了卷积核的移动过程,通过不断的移动我们可以得到图片每个区域的特征。浅蓝色的部分为输入的原图像,深色为卷积核,不动的绿色为输出的特征值。

2024-05-06 22:31:37 1012 2

原创 C3_W2_Collaborative_RecSys_Assignment_吴恩达_中英_Pytorch

Practice lab: Collaborative Filtering Recommender Systems(实践实验室:协同过滤推荐系统)In this exercise, you will implement collaborative filtering to build a recommender system for movies.在本次实验中,你将实现协同过滤来构建一个电影推荐系统。 Outline 1 - Notation(注释) 2 - Recommender Syst

2024-03-02 16:42:45 1273

原创 C2_W4_Decision_Tree_with_Markdown_吴恩达_中英

在这个练习中,您将从头开始实现一个决策树,并将其应用于分类任务,确定蘑菇是否可食用或有毒。

2024-02-29 16:43:09 912

原创 C2_W3_Assignment_吴恩达_中英_Pytorch

In this lab, you will explore techniques to evaluate and improve your machine learning models.(应用机器学习的建议)在本次实验中,您将探索评估和改善机器学习模型的技术。

2024-02-28 21:35:10 2232

原创 C2_W2_Assignment_吴恩达_中英_Pytorch

在本次练习中,您将使用神经网络来识别0-9的手写数字。

2024-02-27 00:44:08 1193

原创 C2_W2_SoftMax_吴恩达_中英_Pytorch_Tensorflow_Numpy

在本次实验中,我们将探讨softmax函数。该函数在Softmax回归和解决多类分类问题时都使用了。∑i0N−1​∑i1N​:通常,在本课程中,笔记本使用计数从0开始,以N-1结束的惯例,∑i0N−1​,而讲座从1开始,以N结束,∑i1N​。这是因为代码通常从0开始迭代,而在课堂上,从1数到N会得到更清晰、更简洁的方程。这个笔记本有更多的方程,而不是典型的实验室,因此将打破惯例,将从1到N计数。

2024-02-26 00:26:09 1614 1

原创 C2_W2_Multiclass_TF吴恩达_中英_Pytorch

nn.ReLU(),return x#定义训练设备#创建训练数据集#导入模型# 定义损失函数# 定义学习率# 定义优化器# 定义总训练步数#训练轮数epoch = 20print("--------------------------------第{}轮训练开始了---------------------------------".format(i+1))print("训练次数:{},loss:{}".format(total_train_step,loss.item()))

2024-02-25 01:13:08 752

原创 C2_W2_Relu吴恩达_中英

相比之下,逻辑函数在输入为0时达到 0.5,即已经是半饱和的稳定状态,不够符合实际生物学对模拟神经网络的期望。不过需要指出的是,一般情况下,在一个使用ReLU的神经网络中大概有50%的神经元处于激活态。在这个例子中,“意识”功能不是二进制的,而是有一个范围,从0到更大的值。在这个例子中,派生的“意识”特征不是二元的,而是具有连续范围的值。在过渡点处,添加一个新的线性函数,当添加到现有函数时,将产生新的斜率。下面的这些例子都是用relu函数使模型将线性函数拼接在一起,完成复杂的非线性函数的实现。

2024-02-24 21:48:48 798

原创 C2_W1_Assignment吴恩达_中英_Pytorch

在本次练习中,您将使用神经网络来识别手写数字零和一。

2024-02-24 02:05:24 1552 1

原创 C2_W1_Lab03_CoffeeRoasting_Numpy吴恩达_中英

在本次实验中,我们将使用Numpy构建一个小型的神经网络。它将和你之前在Tensorflow中实现的“咖啡烘焙”网络相同。

2024-02-22 22:47:33 997 1

原创 C2_W1_Lab02_CoffeeRoasting_TF吴恩达_中英_pytorch

它的输入是第一层的结果。当持续时间过短时,单元1的值就较大,而单元2的值则在时间/温度组合不良时较大。不同的训练运行可能会产生略有不同的结果,下面讨论的内容适用于特定的解决方案。让我们考察每个单元的函数功能,以确定它们在咖啡烘焙决策中的作用。在这种情况下,我们有两个特征,因此矩阵将是(m,2),其中m是示例的数量。这是您在课程1中使用的相同过程,其中数据的特征被标准化,以具有相似的范围。pytorch中的summary函数需要在cuda(gpu)上运行,所以我们需要设置我们的模型在cuda上运行。

2024-02-22 03:52:15 893 1

原创 C2_W1_Lab01_Neurons_and_Layers吴恩达中英 pytorch版

在这次实验中,我们将探讨神经元和层的内部工作原理。特别是,该实验将把模型与你在课程1中掌握的模型进行类比,回归/线性模型和逻辑回归模型。该实验将介绍Tensorflow,并演示如何在该框架中实现这些模型。

2024-02-20 19:04:54 829

原创 module ‘tensorflow.keras.layers‘ has no attribute ‘Normalization‘

tensorflow版本与keras版本不匹配造成的。tensorflow2.6.0对应keras2.6.0,只需。在吴恩达C2_W1_Lab02_CoffeeRoasting_TF中运行报错。

2024-02-20 00:07:46 509

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除