pytorch
文章平均质量分 73
不会程序的++猫
致力于python,机器学习,人工智能,人机交互
展开
-
PyTorch激活函数
1.什么是激活函数作用就是:增加模型非线性,使之更好的进行分类与回归问题在所有的隐层和输出层加一个激活函数,这里激活函数我们就用Sigmoid函数,如图6所示。这样y输出的就是一个非线性函数了,y的输出更复杂,有了这样的非线性激活函数以后,神经网络的表达能力更加强大了。总结:激活函数是用来加入非线性因素的,提高神经网络对模型的表达能力,解决线性模型所不能解决的问题。要知道大部分问题是非线性问题,因此激活函数是必不可少的。2.常见的激活函数2.1 sigmoid激活函数代码:def sig原创 2021-05-15 12:01:19 · 347 阅读 · 0 评论 -
卷积神经网络
卷积神经网络是一种前馈型神经网络, 受生物自然视觉认知机制启发而来的. 现在, CNN 已经成为众多科学领域的研究热点之一, 可应用于图像分类, 目标识别, 目标检测, 语义分割等等。在要检测的图像上,从左到右,从上到下遍历这一幅图像,从上到下计算模板与重叠子图像的像素匹配度,如果匹配的程度越大,这说明相同的可能性越大。这种从上到下从左到右的遍历过程被称为“卷”卷积的操作过程跟图像滤波原理相似,都是通过一个小的卷积核(或者叫滤波器)在图像上滑动,利用图像局部信息进行计算:在卷积过程中,我们可以认为:一原创 2021-05-15 11:47:19 · 307 阅读 · 0 评论 -
ResNet残差网络
残差网络顾名思义,相当于走过了一条捷径,将前面的层直接输入到后面的层,放在后面层的线性激活之后,非线性激活之前,然后与后面层一起经过非线性计算,在计算的时候作为一个小尾巴,共同和当前层一起组成所谓的残差块。计算的时候跟随下一层的非线性激活函数进行计算,作为relu()中的一项。残差网络实现的关键在于拥有很多相同的卷积,这就使输入的维度和输出的维度可以保持一致,从而可以让残差网络进行跳远连接,构建多个残差块,优化网络性能,在现在许多网络中,比如inception network,VGG-16,Googl原创 2021-05-15 11:40:33 · 148 阅读 · 0 评论 -
openpose的配置和使用
环境使用的是vs2015,cuda10.1首先安装好cuda和cudnn,这里不再过多叙述下载openpose源码https://github.com/CMU-Perceptual-Computing-Lab/openpose然后,运行…/openpose-master/models/中的getModels.bat 下载所需的模型运行…/openpose-master/3rdparty/windows中的getCaffe.bat,getCaffe3rdparty.bat和getOpenCV.b原创 2021-05-15 11:38:06 · 2557 阅读 · 3 评论 -
PyTorch利用GPU加速
1.配置cuda版pytorch登录PyTorch官网(https://PyTorch.org/),登录后选择对应项然后将复制到命令行,进行安装。安装之后启动python,执行如下命令,如果没有报错,说明安装成功。2.pytorch使用GPU计算查看GPU加速是否可用:import torchfrom torch import nnprint(torch.duda.is_available()) # true 查看GPU是否可用print(torch.cuda.device_co原创 2021-04-19 10:58:00 · 1752 阅读 · 1 评论 -
PyTorch基础学习
1.tensortensor中最常使用的就是FloatTensor和LongTensor,分别代表了浮点数和整型注意:定义一个张量tensor时,T可以大写可以小写,代表的是同样的意思,但定义整型和浮点数的时候F和T一类的必须要大写Tensor是类,是FloatTensor的别名。tensor是函数,可根据 detype指定类别。两者在生成0维变量时有区别。一般情况下用tensor即可。1.1tensor的分类张量tensor分为0维张量1维张量二维张量和多维张量0维张量就是标量a =原创 2021-04-19 10:49:45 · 1801 阅读 · 1 评论