![](https://img-blog.csdnimg.cn/20201014180756928.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
学习笔记
小帅321
欢迎大家批评指正,可以没有打赏,但一定要留下您的金玉良言呀~~~
展开
-
2021-06-23
安装GPU版本pytorch过程:发现网上各种安装以及配置cuda环境,总结一种简单方法:1、安装anaconda(注意安装的时候添加path路径打上对号)2、打开anaconda Prompt,进入自己的环境,添加中科大镜像源:conda config --add channels https://mirrors.ustc.edu.cn/anaconda/pkgs/main/conda config --add channels https://mirrors.ustc.edu.cn/anaco原创 2021-06-23 08:23:20 · 128 阅读 · 0 评论 -
删除文件家里面的所有文件(只限于单一类型文件夹)
python 的小程序编写path_0=r'I:\GAN'childList = os.listdir(path_0)for child in childList: path_file=os.path.join(path_0,child) child_list=os.listdir(path_file) for i in child_list: path_data_file = os.path.join(path_file,i) os.remove(path_data.原创 2021-04-26 20:29:22 · 117 阅读 · 0 评论 -
ResNet选择冻结任意层不进行参数更新
mymodel=models.resnet50(pretrained=True)#print(mymodel)for name, value in mymodel.named_parameters(): #print(name) #print(value.requires_grad) #print(value) if name == 'conv1.weight': #confient value.requires_grad= False原创 2020-12-18 14:31:56 · 1928 阅读 · 1 评论 -
transforms的二十二个方法
转载笔记转载 2020-12-11 10:11:57 · 159 阅读 · 0 评论 -
Pycharm调用resnet网络
from torchvision import modelsnet = models.resnet101(pretrained=False)print(net)a= list(net.parameters())print(a[0])#打印出来第一层的参数当pretrained=True时,调用网络并调用训练好的参数,当为False时,只调用网络,而参数为随机赋值。...原创 2020-12-11 08:27:58 · 1265 阅读 · 0 评论 -
长短时记忆网络(LSTM)
https://zybuluo.com/hanbingtao/note/581764见过最好的LSTM讲解转载 2020-11-25 20:11:16 · 240 阅读 · 0 评论 -
pycharm中_,predicted和predicted的使用区别
仅作为转载添加链接描述转载 2020-11-18 08:14:10 · 1185 阅读 · 0 评论 -
Pytcharm中怎样互相调用不同的File中的程序模块
上面的导入VggNet数据加载模块所有的,下面的只导入net原创 2020-11-17 21:59:28 · 109 阅读 · 0 评论 -
pytorch中num_workers详解
为什么默认为0就可以运行,改为1或者2就不能运行?转载来源转载 2020-11-17 09:47:18 · 2400 阅读 · 0 评论 -
以字典查询的方式搭建网络结构并用到nn.Sequential(*a)
import torch.nn as nna=[]cfgs = { 'vgg11': [64, 'M', 128, 'M', 256, 256, 'M', 512, 512, 'M', 512, 512, 'M'], }in_channels=3for key,value in cfgs.items(): print("\nkey:"+key) print("value"+str(value)) for v in value: if v=="M原创 2020-11-16 17:21:01 · 165 阅读 · 0 评论 -
Python返回键值对
cfgs = { 'vgg11': [64, 'M', 128, 'M', 256, 256, 'M', 512, 512, 'M', 512, 512, 'M'], 'vgg13': [64, 64, 'M', 128, 128, 'M', 256, 256, 'M', 512, 512, 'M', 512, 512, 'M'], 'vgg16': [64, 64, 'M', 128, 128, 'M', 256, 256, 256, 'M', 512, 512, 512, 'M'原创 2020-11-16 16:19:26 · 1430 阅读 · 0 评论 -
批量归一化 Batch normalization
[标准化出炉后的数据当作第一层的输入,标准化处理为均值为0,方差为1的特征数据]现在我们加入批量归一化的操作,就是将乘完权重 W 后的数据 s 1 s_{1}s1 先减掉这一批量数据的均值和方差,得到 s 2 s_{2}s2 后再去进行缩放(乘以 γ \gammaγ) 和平移(加上 β \betaβ)。得到 s 3 s_{3}s3 后再经过一个 ReLU 函数,再得到 h 1 h_{1}h1 作为下一层(隐藏层第一层)的输入。...原创 2020-11-16 11:17:15 · 196 阅读 · 1 评论