- 博客(4)
- 收藏
- 关注
原创 卷积神经网络中多通道参数个数计算的理解
文章目录一、例子1.代码2.运行的summary二、解释一、例子1.代码这里是一个我写的简单的例子,代码如下:import numpy as npimport tensorflow as tffrom tensorflow.keras import Modelfrom tensorflow.keras.layers import Conv2D,BatchNormalization,Activation,MaxPool2D,Dropout,Flatten,Densepath=r'C:.
2021-12-04 09:56:13 978 1
原创 2021-11-15 cv2.erode()和cv2.dilate()的原理理解
文章目录一、cv2.erode()和cv2.dilate()的运行原理一、cv2.erode()和cv2.dilate()的运行原理cv2.erode()是进行腐蚀用的,具体原理就是通过和卷积核进行操作,以0和1为例 ,如果卷积核范围内有一个不是1,那么这点就为0,全是1的话这个点才为1。而且他进行活动后的这个像素并不会影响下一个像素的改变,就是说这个值原本是0,经过操作后变为了1,但是相邻像素进行判断时还是把它当0。示例代码如下:import numpy as npimport m..
2021-11-15 18:51:19 7404
原创 OpenCV轮廓的一些函数
文章目录前言一、cv2.candy(image, threshold1, threshold2[, edges[, apertureSize[, L2gradient ]]])二、CV2.threshold(src, thresh, maxval, type[, dst])三、cv2.getStructuringElement(, )四、CV2.dilate()和CV2.erode()五、cv2.findContours()六、cv2.drawContours()七、cv2.boundingRect(c..
2021-11-12 22:03:24 3436
原创 如何理解RELU激活函数可以模拟非线性
文章目录一、Relu是什么?二、为什么relu可以实现非线性1.直接上代码2.结果总结一、Relu是什么?Relu是神经网络中的一种激活函数,具体为max(x,0)。二、为什么relu可以实现非线性1.直接上代码代码如下(示例):import matplotlib.pyplot as pltimport numpy as npdef relu(y): a=[] for i in y: if i>=0: x=i .
2021-11-02 19:30:28 965
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人