--------------------------------------------------------------------------------------------------------------------------------
目录
1.软件版本
vivado2019.2
2.ReLu激活层理论介绍
ReLU(Rectified Linear Unit)激活函数是卷积神经网络(CNN)中常用的一种非线性激活函数。它的作用是将输入值在0点以上的部分设为该部分的值,将输入值在0点以下的设为0,从而增加网络的非线性表达能力。在硬件实现中,ReLU函数因其简单性和低计算复杂度而被广泛