自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(8)
  • 收藏
  • 关注

转载 计算机视觉中的注意力机制

计算机视觉中的注意力机制transformer自注意力机制self-attention软注意力机制通道空间注意力机制混合non-local位置注意力pixel-wise attention强注意力

2021-07-09 16:03:00 473

原创 深度学习--GAN

GAN生成式对抗网络LR_D=0.001LR_G=0.001batch_size=64art_components=15 #生成的15个线段N_IDEAS=5 #随机灵感paint_points=np.vstack([np.linspace(-1,1,art_components) for _ in range(batch_size)]) #在-1到1的线段中有15个点def artist_works(): #产生数据--著名画家 a=np.random.uniform(1,2,s.

2021-06-14 17:49:58 79

原创 神经网络--ResNet复现解析

ResNet50复现解析从头开始写ResNet注意网络结构中的逻辑关系相关性→模块卷积(kaiming初始化)→BN归一化(均值为0方差为1)→Relu非线性变化(在相加前一层不进行激活函数操作)

2021-06-14 16:25:07 130

原创 深度学习--Pytorch(三)模型保存加载+visdom可视化

PyTorch深度学习实践保存提取def save_net(): #保存 torch.save(模型名称, 'net.pkl') #保存整个神经网络 #或者只保留节点 参数 torch.save(模型名称.state_dict(), 'net_params.pkl')def restore_net(): #提取 net=torch.load('net.pkl')def restore_params(): #首先定义一个和save_net相同定义代码的net3,接着加载保存的参数文.

2021-06-11 19:54:30 122

原创 深度学习--Pytorch(二)

PyTorch深度学习实践CNN

2021-06-11 19:24:14 55

原创 深度学习--Pytorch(一)

PyTorch深度学习实践python基础知识##设置变量范围numpy.arrange(0.0,4.0,1.0) # 表示0,1,2,3##2D画图import matplotlib.pyplot as pltplt.plot(x,y)plt.xlabel('x轴名称')plt.ylabel('y轴名称')plt.show()##3D画图https://blog.csdn.net/guduruyu/article/details/78050268##训练过程中实时绘图,Vis.

2021-06-09 21:27:41 182

原创 深度学习--Tensorflow笔记(二)

B站【北京大学】Tensorflow2.0进阶版:搭建网络八股用Tensorflow API: tf.kerasimporttrain,test 告知训练集和测试集,特征和标签model = tf.keras.models.Sequential 网络结构model.compile 配置训练方法(优化器、损失函数、评测指标)model.fit 告知测试集特征和标签、batch、epochsmodel.summary 打印网络结构和参数统计tf.keras.models.Sequent.

2021-06-09 18:46:02 72

原创 深度学习--Tensorflow笔记(一)

B站【北京大学】Tensorflow2.0初学者:六步法搭建神经网络因为随机初始化结果不同,可能每次训练的结果不同神经网络实现分类1. 准备数据2. 搭建网络+参数优化该网络的输入为4,输出为3类。w1和b1的维度必须满足x*w1+b。3. acc/loss可视化学习率学习率过小:收敛慢学习率过大:无法收敛到最优解除了设置合理的学习率外,可以使用指数衰减学习率激活函数sigmoid函数:容易梯度消失,因为求导范围在[0,0.25]之间,经过多次相乘后趋于0。relu函.

2021-06-09 16:57:38 106

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除