- 博客(3)
- 资源 (5)
- 收藏
- 关注
原创 1*1卷积层
Network in Network 这篇论文中 提出了 11卷积层,那么问题来了,为什么可以用11卷积层来代替全连接层假设当前输入张量维度为6×6×32,卷积核维度为1×1×32,取输入张量的某一个位置(如图黄色区域)与卷积核进行运算。实际上可以看到,如果把1×1×32卷积核看成是32个权重W,输入张量运算的1×1×32部分为输入x,那么每一个卷积操作相当于一个Wx过程,多个卷积核就是多个神经...
2020-01-29 20:48:12 3908
原创 PyTorch中nn.ReLU() 和 nn.ReLU(inplace=True)区别
nn.ReLU() 中默认的 inplace=False, 这个inplace意思:是否将计算得到的值直接覆盖之前的值如果,inplace=True,那么就是会对原变量覆盖,没有通过中间变量,直接覆盖原变量的值比如:x=x+1如果,inplace=False,通过中间变量,没用覆盖之前变量的值比如:y=x+1x=y这样就可以节省内(显)存,同时还可以省去反复申请和释放内存的时间...
2020-01-23 22:10:13 4655
原创 机器学习 Linear Regression——线性回归实验
完整的数据和代码已经更新至GitHub,欢迎fork~GitHub链接This first exercise will give you practice with linear regression实验内容一、下载提供的数据,读入数据,画出相应的坐标点二、使用数据,拟合出一条直线来,使用机器学习所讲的线性回归的方法来拟合出一条直线三、理解损失函数,通过数据来画出损失函数的图像,进行可视...
2020-01-17 12:52:20 769
2020年1月山东大学计算机视觉期末考试试题(计算机学院人工智能班).docx
2020-01-05
基于opencv的BackgroundSubtractorMOG2和BackgroundSubtractorKNN的 原视频 和结果视频
2019-11-03
objdata.zip
2019-06-06
数组描述线性表
2018-11-15
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人