图像分类
文章平均质量分 60
计算机视觉从零学
我只是借助CSDN博客这个平台来记录学习过程(相当于将其当作笔记本),难免会转载一些大牛的文章,如有侵权请见谅!
展开
-
Tensorflow官网——迁移学习和微调部分解读
import matplotlib.pyplot as pltimport numpy as npimport osimport tensorflow as tf#数据预处理#数据下载from tensorflow.keras.preprocessing import image_dataset_from_directory_URL = 'https://storage.googleapis.com/mledu-datasets/cats_and_dogs_filtered.zip'pat原创 2021-12-17 19:04:01 · 359 阅读 · 0 评论 -
Tensorflow图像分类代码理解
import matplotlib.pyplot as pltimport numpy as npimport osimport PIL #Python Imaging Library,已经是Python平台事实上的图像处理标准库了import tensorflow as tfimport matplotlib.pyplot as pltfrom tensorflow import kerasfrom tensorflow.keras import layersfrom tensorfl原创 2021-12-17 09:49:24 · 483 阅读 · 1 评论 -
卷积层的参数学习
以LeNet-5网络结构来举例: LenNet-5共有7层(不包括输入层),每层都包含不同数量的训练参数,如下图所示。 LeNet-5中主要有2个卷积层、2个下抽样层(池化层)、3个全连接层3种连接方式。卷积层 卷积层采用的都是5x5大小的卷积核/过滤器(kernel/filter),且卷积核每次滑动一个像素(stride=1),一个特征映射使用同一个卷积核。 补充一下特征图谱的概念:一幅图像或其他特征映射在经过卷积提取得到的特征,每个特征映射可以作为一类抽取的图像特征。比如6个卷积核经过转载 2021-09-20 21:01:15 · 1041 阅读 · 0 评论 -
目标检测数据集
目录1.2.3.1.2.3.转载 2021-08-17 19:38:11 · 4954 阅读 · 0 评论 -
pytorch实现GoogLeNet
这里写目录标题一级目录二级目录三级目录一级目录二级目录三级目录转载 2021-08-15 19:13:05 · 608 阅读 · 0 评论 -
Tensorflow官网教程笔记(1)
目录前言1.从python中学到的新知识1.1 figure函数1.2 imshow函数——cmap参数1.3 format函数2.Tensorflow学习笔记前言由于自己只是学会了python的基础语法,而对于python的内置函数的学习还不够,因此会将在学习tensorflow过程中不明白的python新知识点给列举出来。1.从python中学到的新知识1.1 figure函数plt.figure(figsize=(10,10))figure语法说明figure(num=None, fi原创 2021-08-06 11:05:32 · 521 阅读 · 1 评论 -
学习Tensorflow2官方Demo——Lenet,以及遇到的问题
目录前言1.官方Demo的项目目录2.模型3.训练4.遇到的问题前言 TensorFlow是一个面向所有开发人员的开源机器学习框架。 它用于实现机器学习和深度学习应用程序。为了开发和研究有关人工智能,Google团队创建了TensorFlow。 TensorFlow是使用Python编程语言设计的,因此它是一个易于理解的框架。 Tensorflow Tensor的通道排序:[batch, height, width, channel]1.官方Demo的项目目录2.模型代码:from te原创 2021-08-04 16:52:02 · 661 阅读 · 2 评论 -
卷积神经网络基础补充
目录1.误差的计算2.误差的反向传播3.权重的更新1.误差的计算图1Softmax:激活函数图2Cross Entropy Loss 交叉熵损失图3如图2,损失函数 Loss = - (o1* log(o1) + o2 *log(o2) )2.误差的反向传播3.权重的更新w11(2)(new)= w112(old) - learningrate * gradient其中gradient = ∂Loss/∂w112 为了使网络更快的收敛,我们可使用优化器Optimazer转载 2021-08-04 10:36:01 · 125 阅读 · 0 评论