哈工大深度学习体系结构课程 | 实验4:基于脉动阵列的CNN加速

点击蓝字关注我们

关注、星标公众号,精彩内容每日送达
来源:网络素材

文档为哈尔滨工业大学(深圳)《深度学习体系结构》2021年秋季课程的实验指导材料。 

原文档地址 :

https://hitsz-cslab.gitee.io/dla

示例工程地址 :

https://gitee.com/hitsz-cslab/dla

实验4:基于脉动阵列的CNN加速

实验目的

  1. 了解脉动阵列的基本原理,熟悉脉动阵列的基本结构;

  2. 掌握脉动阵列的HLS实现方法,掌握如何利用脉动阵列加速矩阵乘法和卷积运算;

  3. 进一步熟悉使用HLS搭建硬件加速系统的方法和流程。

实验内容

  本实验要求利用HLS实现脉动阵列IP核,并使用该IP核加速矩阵乘法、卷积运算和CNN的前向推导,具体包括:

  1. 使用HLS编写脉动阵列,并对编写的代码进行CSim、综合并打包成IP核;

  2. 利用脉动阵列IP核搭建Block Design,进行综合、实现、生成比特流并导出Overlay;

  3. 编写Jupyter程序对矩阵乘法、卷积运算和CNN进行测试;

  4. 使用HLS Directives对脉动阵列进行优化。

实验原理

1. 脉动阵列概述

1.1 背景简介

  脉动阵列最初提出是为了解决VLSI(Very Large Scale Integration,超大规模集成电路)片上通信存在的性能瓶颈问题,属于面向特定领域而专门设计的特殊架构。脉动阵列的设计者H. T. Kung提出了3点设计专用系统时需要考虑的因素:

  • (1)简单性和规律性

  Kung认为在设计专用系统时,首先应当考虑的是系统的成本或代价。换言之,在满足应用需求的前提下,应当尽可能将系统的成本控制到最低。一般而言,系统的成本包括设计成本和器件成本,而其中又以设计成本为主。我们在数字逻辑设计课程中讲授过系统的模块化设计。试想如果一个系统可以被划分成若干个功能几乎完全相同的子模块,那么这个系统就可以使用一个简单的、有规律的硬件架构来实现。得益于简单性和规律性,系统将具有较低的设计成本——对于使用HDL开发电路而言,重复的模块只需要不断实例化同一个module即可。

记笔记 

  除了降低设计成本外,简单性和规律性还有利于提高系统的可扩展性。

  • (2)并行和通信

  由Amdahl定律的延伸可知,不管是通用系统还是专用系统,只要系统中具有可并行处理的任务,那么只要使用流水线、多处理器等并行技术来加速这些任务,系统的总体性能总能够得到相应程度的提升。另外,当系统中存在大量同时工作的子模块时,子模块之间的协作和通信效率将对系统的性能造成不可忽视的影响。为了避免通信成为性能瓶颈,Kung提出的解决思路是使得子模块的通信和控制尽可能简单和规律。

  • (3)平衡计算与I/O

  数据需要通过特定的物理接口输入到系统进行处理;处理所得结果也需要通过相应的物理接口进行输出。当I/O速率跟不上处理单元的数据运算速率时,I/O便成为了系统的性能瓶颈。一般而言,消除I/O瓶颈的方法是优化I/O通道所采用的通信协议,或改用支持更高带宽的I/O接口。这两种方法行之有效的前提条件是I/O接口所支持的最大物理带宽不小于处理单元的吞吐率。针对这个问题,Kung的方案是增加处理单元的数量,让数据在系统中多停留一段时间,从而在I/O带宽维持不变的前提下增加系统在单位时间内的数据处理能力,如图1-1所示。

053f286ba63b93b03f790b4d7d77b3f9.png图1-1 平衡计算与I/O的基本原理

  假设在图1-1中,数据在存储器和PE之间传输需要耗费100ns,PE的运算延迟忽略不计。在架构1中,每200ns才能完成一次数据运算,因而其运算能力是5MOPS(Million Operations Per Second)。在架构2中,数据传输时延不变,但每次传输可以完成6次数据运算,因而其运算能力相比架构1提高到30MOPS。

小提示 

  图1-2所示的平衡计算与I/O的方法同时也体现了系统设计的简单性和规律性。

  需要注意的是,虽然理论上架构2的PE数量越多,其运算能力越强,但不论如何,数据传输时延都需要200ns。这意味着这种类型的架构只适合那些对传输带宽要求较低的计算密集型应用。

1.2 拓扑结构

  脉动阵列的定义有很多版本,但一般指的是一种按照特定规律连接起来的流水式同构多处理器架构。脉动阵列由若干个完全相同的PE(Processing Element,处理单元)构成,并且一般每一个PE都仅与其相邻的PE进行连接。如图1-2所示。

5b98c2da3bbc2260e4e3eef7e994a066.png图1-2 脉动阵列的几种拓扑结构

  在图1-2中,不管采用哪一种连接方式,数据都按照一定的规律有节奏地在阵列中传播。当数据传播到一定次数之后,脉动阵列完成计算并产生所需的结果。

  脉动阵列的结构具有良好的简单性和规律性,其基本特点是各个PE完全相同,并且PE只与其相邻的PE进行数据通信。与数据广播所需的总线连接方式相比,脉动阵列采取的连接方式具有更短的物理线路,更低的扇出,不仅有利于降低PE间的通信延迟,还降低了电路布局布线的难度,从而提高了电路的工作频率。但是,脉动阵列的结构同时也限制了它只适合用于带宽要求较低且运算具有较大规律性的应用场合,比如矩阵乘法、卷积、排序、多项式计算等。

1.3 工作原理

  脉动阵列本质是结构简单的流水线,其工作过程可看作是数据在时钟的驱动下像脉搏一般在阵列中向前跳动,如图1-3所示。

1a790ee2e33e7f79f56455b622f0d04b.png图1-3 脉动阵列工作原理

2. GEMM的脉动阵列实现

  GEMM(GEneral Matrix Multiply,通用矩阵乘法)中存在大量的MAC(Multiply and ACcumulate, 乘累加)运算,具有运算量较大、运算种类单一的特点,因而非常适合使用脉动阵列来实现GEMM。

  设有矩阵AA3×3��3×3、BB3×4��3×4:

AA=⎡⎢⎣a00a01a02a10a11a12a20a21a22⎤⎥⎦,BB=⎡⎢⎣b00b01b02b03b10b11b12b13b20b21b22b23⎤⎥⎦.��=[�00�01�02�10�11�12�20�21�22],��=[�00�01�02�03�10�11�12�13�20�21�22�23].

  使用脉动阵列计算矩阵CC=AA⋅BB��=��⋅��时,需要将AA��、BB��的数据分多次输入阵列,如图1-4所示。

047197b92cbebfa334d2334166677f4f.png图1-4 脉动阵列计算矩阵乘法的初始状态

  第1拍时,左侧和上方缓存内的矩阵数据开始流入脉动阵列,并开始计算c00�00,如图1-5所示。

6f11b5c3366dfb412f9e8cd65e5bb8af.png图1-5 脉动阵列计算矩阵乘法的第1个时钟

  同样的,第2拍时,缓存内的数据继续流入脉动阵列,并开始计算c01�01和c10�10、继续计算c00�00,如图1-6所示。

29c28d92536d3357460732a5c6530a7e.png图1-6 脉动阵列计算矩阵乘法的第2个时钟

  第3拍时,开始计算c02�02、c11�11和c20�20,继续计算c01�01和c10�10,而此时c00�00计算完毕,如图1-7所示。

118a8131cc050387f2517f2a83f8996b.png图1-7 第3个时钟时 c00�00计算完毕

  依此类推,第4拍时c01�01和c10�10计算完成;第5拍时c02�02、c11�11和c20�20计算完成,等等。直到第8拍时,矩阵CC��的最后一个元素c23�23计算完成。

3. 卷积的脉动阵列实现

  卷积与矩阵乘法类似,也含有大量的MAC运算,同样具有运算量较大、运算种类单一的特点,因而也适合使用脉动阵列来实现。

  一维卷积可以通过递推公式yn+1=yn+wn+1⋅xn+1��+1=��+��+1⋅��+1很容易地得出相应的一维脉动阵列架构的实现。因此,此处仅讨论如何使用脉动阵列实现三维卷积。

3.1 im2col操作

  为了方便处理,在使用脉动阵列实现三维卷积时,需要先对卷积的输入特征图进行im2col处理。卷积时,卷积核相当于一个滑动窗口,不停地在输入特征图上从左到右、从上到下滑动。所谓im2col处理,就是将当前滑动窗口下的特征图数据进行展开和重排,如图1-8所示。

7a75063d15609e52b8e87c53a8c8a6da.png图1-8 im2col原理

  类似地,卷积核也需要进行相应的展开操作。需要注意的是,输入特征图滑动窗口内的数据被展开成列向量,而卷积核则被展开成行向量。

  设有3通道的输入特征图(RR,GG,BB)(��,��,��),以及2个卷积核ff0��0和ff1��1,分别对它们进行im2col操作之后,得到相应的展开后的矩阵数据,如图1-9所示。

543a2b808098458adda483b5e2138656.png

注:右下角的矩阵YY��对应于卷积运算的结果(输出特征图的尺寸是2××2、2通道)。

图1-9 im2col处理前后的特征图和卷积核

3.2 方法1:固定卷积核

  展开完成后,一种方法是将卷积核的权值数据存储在脉动阵列的PE当中,然后令特征图数据从左侧输入脉动阵列并向右传播、令卷积中间结果从上往下传播。此时,脉动阵列的初始状态如图1-10所示。

91cf35eda4796765edcc4c6b88890fd2.png图1-10 脉动阵列计算三维卷积的初始状态

  第1拍时,特征图数据从左侧的缓存流入脉动阵列,开始计算y00�00,如图1-11所示。

a6be525036dc3157e98be833f344f162.png图1-11 脉动阵列计算三维卷积的第1个时钟

  第2拍时,开始计算y01�01和y′00�00′,而y00�00则向下传播,如图1-12所示。

ec8f9b9e3fd79b985fbe8cbc3c3b32da.png图1-12 脉动阵列计算三维卷积的第2个时钟

  依此类推,一直到第12拍时,y00�00计算完成并从脉动阵列下方流出,如图1-13所示。

d6d4d043a5cc6609ff4f5450a0a3ced2.png图1-13 脉动阵列计算三维卷积的第12个时钟

  接下来,从第13拍到第15拍,每一拍都流出2个矩阵YY��的元素。最后一个元素将在第16拍流出,此时计算结束。

注意 

  矩阵YY��的尺寸和形状与输出特征图的形状不同。因此,在真正输出结果之前,需要对矩阵YY��的元素进行重新排布,从而将其还原成输出特征图应有的尺寸和形状。

3.2 方法2:矩阵乘法

  显然,要想用脉动阵列实现三维卷积,除了上述方法之外,还可以在im2col操作之后,直接将其当成普通的矩阵乘法处理。

动动脑筋 

  请对比上述两种方法的优缺点。

3. 基于CNN识别MNIST手写数字

3.1 CNN的搭建、训练与测试

  本实验使用一个四层的CNN网络来实现手写数字0-9的识别。相关代码在虚拟机~/tensorflow/MNIST的目录下,训练代码为mnist_int16_test.pyinput_data.py

  在终端中输入如下命令,即可开始网络训练:

$> cd /home/cs/tensorflow/MNIST
$> python mnist_int16_test.py

  本实验所使用的CNN,其网络结构如图1-14所示。

Convolutional Layer1 + ReLU + MAX Pooling
Convolutional Layer2 + ReLU + MAX Pooling
Fully Connected Layer1 + ReLU + Dropout
Fully Connected Layer2 To Prediction
图1-14 本实验的CNN网络结构

  接下来,逐一介绍CNN权重初始化以及各网络层的实现方法。

♣ 权重初始化

  建立模型时,需要对网络权值和偏置进行初始化。初始化权值时,应加入少量噪声来打破对称性和避免零梯度。由于我们使用了ReLU神经元,因此比较好的做法是用一个较小的正数来初始化网络偏置,以避免神经元节点输出恒为0的问题(Dead Neurons)。

  为了避免建立模型时的反复初始化,定义两个初始化函数,如图1-15所示。

62767b2625fdc5d6857d9b520fc111db.png图1-15 初始化函数
♣ 卷积和池化

  TensorFlow在卷积和池化上有很强的灵活性。卷积使用1步长(Stride)、0边距(Padding)的模板,保证输出的维度和输入相同。池化则使用传统的2×2模板做最大池化。为了代码更简洁,这部分被定义成函数,如图1-16所示。

c781ec479721422b6c1bfbe487287ec0.png图1-16 卷积和池化的配置函数
♣ 卷积层搭建

  第一层由一个卷积接一个最大池化完成。卷积在每个3×3的Patch中算出16个特征。卷积的权重张量形状是[3, 3, 1, 16],前两个维度是Patch的大小,接着分别是输入和输出的通道数。每个输出通道都有一个与之对应的偏置量。接下来将卷积核与输入的x_image进行卷积,并通过ReLU激活函数,再做最大池化处理,如图1-17所示。

cde6ccdee1149737661e8b95a2345b26.png图1-17 第1层卷积实现

  第二层构建一个更深的网络,每个3×3的Patch会得到32个特征。卷积核大小3×3×16,数量为32个,构造过程类似上一层,如图1-18所示。

e5dea85f1e9cfb923fe579d9ec4dbe87.png图1-18 第2层卷积实现
♣ 全连接层搭建

  原始图片尺寸是28×28,经过两次2×2的池化后,长宽尺寸降低到7×7。现在加入一个128个神经元的全连接层,将上一层输出的结果Vector化,变成一个向量,将其与权重W_fc1相乘,加上偏置b_fc1,对其使用ReLU,如图1-19所示。

c5052f33544315b7283fe64de65b0b7e.png图1-19 全连接层实现

  为了减少过拟合,我们在输出层之前加入dropout。我们用一个placeholder来代表一个神经元的输出在dropout中保持不变的概率。这样我们可以在训练过程中启用dropout,在测试过程中关闭dropout,如图1-20所示。

a7f16304820f8ef6d19888de43c0953c.png图1-20 添加dropout

  TensorFlow的tf.nn.dropout操作除了可以屏蔽神经元的输出外,还会自动处理神经元输出值的scale。所以用dropout的时候可以不用考虑scale。

♣ 输出层搭建

  最后一层使用全连接层,并通过Softmax回归来输出预测结果。

  Softmax模型可以用来给不同的对象分配概率,如图1-21所示。对于输入的x_i加权求和,再分别加上一个偏置量,最后再输入到Softmax函数中。

533bef9e7d67a02d6525d82acc70baff.png图1-21 Softmax模型示意图

  Softmax函数的计算公式为:

9eba488e2c77041bd7f6eb25f3230ca5.png

(1-4)�������(�)�=���⁡(��)∑����⁡(��)

  Softmax层的实现如图1-22所示。

bc14876d888d0a1434b446ea0f762b30.png图1-22 Softmax层实现

3.2 训练和评估模型

  训练模型前,首先定义损失函数(Loss Function),并在训练过程中尽量最小化这个指标。这里使用的损失函数是"交叉熵"(Cross-Entropy)。交叉熵产生于信息论里面的信息压缩编码技术,但是它后来演变成为从博弈论到机器学习等其他领域里的重要技术手段。它的定义如下:

c31b469403dc23b99fee43e1dd60b46d.png

(1-5)��′=−∑��′����(��)

  计算交叉熵后,就可以使用梯度下降来优化参数。由于前面已经部署好网络结构,所以TensorFlow可以使用反向传播算法计算梯度,自动地优化参数,直到交叉熵最小。TensorFlow提供了多种优化器,这里选择更加复杂的Adam优化器来做梯度最速下降,学习率0.0001,如图1-23所示。

ca9b773cef6daee3b1d9c12195478f00.png图1-23 利用Adam优化器实现梯度最速下降

  每次训练随机选择50个样本,加快训练速度,每轮训练结束后,计算预测准确度,如图1-24所示。

392a7c4d59bee7b931901e241cba7586.png图1-24 随机选取50个样本加速训练

  在CNN网络训练过程中,通过TensorFlow中的可视化工具Tensorboard,可以跟踪网络的整个训练过程中的信息,比如每次循环过程中的参数变化、损失变化等。输入如下命令,即可打开Tensorboard工具:

$> tensorboard –logdir=logs

  运行上述命令后,可在浏览器中访问http://cs-virtual-machine:6006/。此时,点击Graph选项卡,可查看网络结构等信息,如图1-25所示。

19e8848f8b783af1bbaeb0ee33a21895.png图1-25 查看网络结构

3.3 保存并测试网络

  网络训练完成后,需要将网络权值和偏置保存起来。首先基于numpy包实现网络参数的保存函数,如图1-26所示。

def Record_Tensor(tensor, name):
    print ("Recording tensor " + name + " ...")
    f = open('./record/' + name + '.dat', 'w')
    array=tensor.eval()
    #print("The range: [" + str(np.min(array)) + ":" + str(np.max(array)) + "]")
    if(np.size(np.shape(array)) == 1):
        Record_Array1D(array, name, f)
    else:
        if (np.size(np.shape(array)) == 2):
            Record_Array2D(array, name, f)
        else:
            if (np.size(np.shape(array)) == 3):
                Record_Array3D(array, name, f)
            else:
                Record_Array4D(array, name, f)
    f.close()
图1-26 定义用于保存网络参数的
Record_Tensor函数

  训练完毕后,使用验证集测试CNN的预测准确度,并通过控制台打印结果。然后调用Record_Tensor将各层的参数保存成.dat格式的文件,如图1-27所示。

937258d07e68a6e2446fbf5a2d96d1e1.png图1-27 测试网络预测准确度

  由图1-27可知,总迭代次数为3000次,最终的预测准确度是95.13%。

3.4 网络的前向推导

  本实验在Ubuntu虚拟机上进行CNN网络训练,并在PYNQ-Z2的异构平台上进行推导测试。网络推导的源文件是实验包的systolic_app/mnist_cnn.ipynb

♠ 网络参数的提取

  训练时,CNN的网络参数以.dat格式保存。推导时,首先需要使用虚拟机中的~/tensorflow/dat2bin工具,将其转换为.bin格式。

  mnist_cnn.ipynb中定义了readbinfile函数以读取.bin格式的网络权值和偏置文件,如图1-28所示。

def readbinfile(filename,size):
    f = open(filename, "rb")
    z=[]
    for j in range(size):
        data = f.read(4)
        data_float = struct.unpack("f", data)[0]
        z.append(data_float)
    f.close()
    z = np.array(z)
    return z

图1-28 读取.bin文件

  调用readbinfile函数读取CNN的网络权值和偏置,如图1-29所示。

# Read weights and bias from pre-tranined file
print("Conv1:\tloading weight... ", end = "")


w_conv1 = readbinfile("./data/W_conv1.bin", KERNEL_W1*KERNEL_W1*IN_CH1*OUT_CH1)
w_conv1 = w_conv1.reshape((KERNEL_W1, KERNEL_W1, IN_CH1, OUT_CH1))
for r in range(KERNEL_W1):
    for c in range(KERNEL_W1):
        for ch_i in range(IN_CH1):
            for ch_o in range(OUT_CH1):
                W_conv1[ch_o][ch_i][r][c] = w_conv1[r][c][ch_i][ch_o]


print("done")
print("\tloading bias... ", end = "")


B_conv1 = readbinfile("./data/b_conv1.bin",OUT_CH1)
for i in range(OUT_CH1):
    b_conv1[i] = B_conv1[i]


print("done")


......
图1-29 读取网络的权值和偏置参数
♠ IP核的驱动/调用

  读取网络参数后,需要根据CNN的网络结构,在主程序中调用脉动阵列IP核与池化IP核,以完成CNN的前向推导过程。

  mnist_cnn.ipynb还定义了脉动阵列IP核的驱动函数。该函数将IP核所需的各个参数通过特定的接口,经由AXI总线写入IP核当中,并通过特定接口读取IP核输出的数据,如图1-30所示。

# 脉动阵列驱动函数
def RunSystolic(array, din_a, din_b, bias, out):
    array.write(0x10, din_a.shape[0])
    array.write(0x18, din_a.shape[1])
    array.write(0x20, din_b.shape[1])
    array.write(0x28, din_a.physical_address)
    array.write(0x30, din_b.physical_address)
    array.write(0x38, bias.physical_address)
    array.write(0x40, out.physical_address)
    array.write(0, (array.read(0) & 0x80) | 0x01)
    tp = array.read(0)
    while not ((tp >> 1) & 0x1):
        tp = array.read(0)
图1-30 脉动阵列IP核的驱动函数

  池化IP核的驱动函数与RunSystolic函数类似,此处不再赘述。

补充说明 

  脉动阵列IP核默认仅支持GEMM运算,所以如果想使用该IP核计算卷积,还需要另外实现卷积函数hwConv。这个函数负责完成特征图和卷积核的im2col操作,然后调用脉动阵列IP核,最后调整运算结果的尺寸和形状。

实验步骤

1. 编写脉动阵列IP核

  首先,利用实验包systolic_hls目录下的源文件,自行建立脉动阵列的Vivado HLS工程。

  在理解脉动阵列结构及其工作机制的前提下,根据代码注释提示,完成systolic_array.cpp

请注意 

  实验包的systolic_array.cpp包含有 2个版本 的脉动阵列,一个是Size-Limited version,另一个则是Size-Free version。前者最大只能支持2个180×180180×180矩阵的相乘,后者则通过矩阵分块实现了任意大小矩阵的相乘。

  实验时,应当尽可能完成Size-Free version的脉动阵列。如果只完成了Size-Limited version,则仅能得到基础的一小部分分数。

友情提醒 

  在systolic_array.cpp中,函数gemm_kernel仅实现了通用矩阵乘法。为了支持卷积操作,需要在输出结果(即copy_result函数)时,为乘法结果加上偏置(bias)。

  请同学们在理解脉动阵列实现卷积的原理的基础上,结合实验2-实验原理-2.3 Tiny YOLOv2算法和网络模型中的三维卷积伪代码,自行实现copy_result函数。

  代码编写完成后,参考实验1-实验步骤-1.利用HLS生成IP核,对脉动阵列进行CSim仿真。确认代码功能正确后,进行综合、导出RTL,最终得到脉动阵列IP核。

2. 构建Overlay

  参考实验1-实验步骤-2.创建Block Design,利用自己生成的脉动阵列IP核,以及实验包的池化IP核,自行搭建Block Design、生成比特流,并导出Overlay。

  将导出的Overlay重命名为mnist_systolic,并拷贝到实验包的systolic_app目录中。

  将实验包的systolic_app目录拷贝到PYNQ-Z2的~\jupyter_notebooks目录下。

3. GEMM测试

  将实验包中的systolic_app.zip上传到Jupyter并解压。

  点击进入systolic_app文件夹,运行systolic_gemm.ipynb以测试脉动阵列IP核的性能,记录下此时获得的加速比。

请注意 

  如果仅实现了Size-Limited version的脉动阵列,则测试时需要修改测试矩阵的行数和列数,使其不超过180。

4. HLS Directive优化

  回到脉动阵列的Vivado HLS工程,参照实验2-实验原理-4.HLS优化,使用HLS Directive对脉动阵列进行优化。

  优化后继续进行综合、导出RTL,得到新的脉动阵列IP核。然后将IP核更新到所构建的Block Design中,重新生成比特流,然后导出新的Overlay。

  用新的Overlay再次运行GEMM测试,记录下次数获得的加速比,并与优化前进行对比。

5. 运行卷积测试

  优化完成后,补全systolic_conv.ipynb中关于im2col操作的部分,然后运行卷积测试。

6. 运行CNN

  通过了GEMM测试和卷积测试后,补全mnist_cnn.ipynb中的相关代码,并运行测试。

  将systolic_app.zipdata目录中的1.jpg拷贝出来,使用“画图”软件打开,如图2-1所示。

c494c67d44c0d26f5f3ee237c1734324.png图2-1 打开并绘制数字

  使用橡皮擦工具擦除原来的数字,并使用刷子绘制任意数字,保存1.jpg文件。

  将新的1.jpg上传到systilic_app/data目录,并再次运行推导部分的代码。此时,程序将对刚刚绘制的数字进行识别,如图2-2所示。

16cdffda3057abdca962f22929b6fcf3.png图2-2 加速比与识别结果

35c63ff5b367e9c45c38e96e9911f1c9.jpeg

想要了解FPGA吗?这里有实例分享,ZYNQ设计,关注我们的公众号,探索

基于深度学习的计算机视觉综合应用是一种利用深度学习算法,如卷积神经网络(CNN)和生成对抗网络(GAN),对自选图像或视频数据进行处理和分析的方法。 首先,我们可以利用深度学习算法CNN对图像进行分类。通过训练一个CNN模型,可以用它来对图像中的物体进行自动检测和分类。例如,可以训练一个CNN模型来识别猫和狗的图像,然后用这个模型来对输入图像进行分类,判断图像中是否出现了猫或狗。 其次,利用深度学习算法GAN,我们可以生成逼真的图像。GAN模型由一个生成器和一个判别器组成。生成器模型接收随机噪声输入,并尝试生成逼真的图像,而判别器模型则评估生成的图像与真实图像的区别。通过对两个模型进行对抗训练,生成器模型可以生成越来越逼真的图像。这个应用可以用于生成虚拟的人脸、场景等图像数据,用于电影特效、游戏设计等领域。 此外,深度学习算法还可以用于图像分割。图像分割是将图像划分为具有语义信息的各个部分或对象的过程。通过训练一个CNN模型,可以将其应用于图像分割任务,将图像中不同的目标分割开。这个应用可以应用于医学影像分析、自动驾驶等领域。 对于视频数据,我们可以利用深度学习算法对视频进行目标跟踪。通过训练一个CNN模型,我们可以跟踪视频中的特定目标,在视频中的连续帧中定位和追踪目标的位置。这个应用可以用于视频监控、智能交通等领域。 综上所述,基于深度学习的计算机视觉综合应用可以通过利用CNN和GAN等深度学习算法对自选图像或视频数据进行处理和分析,实现图像分类、图像生成、图像分割和目标跟踪等功能,应用于许多领域,如医学、娱乐、智能交通等。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值