pytorch
文章平均质量分 85
拉轰小郑郑
这个作者很懒,什么都没留下…
展开
-
pytorch 数据处理(复数处理)记录
因为无信通信中经常用到复数的乘法,pytorch中又没有现成的处理方式,自己懒得写,就在网上搜了下好心人分享的资料。确实是正确的。但是作者采用循环的方式,在处理大批量数据的时候非常慢,我对几十万复数的数据集执行操作时花了好几分钟才完成,故进行改动。改为矩阵处理后,瞬间就可以出结果。并不是什么有难度的操作,只是记录下以后方便使用。代码如下:H1 = torch.randn(3,2) // 3代表数据的数量,选取小的数易于观察,2代表复数,分别是实部和虚部H2 = torch.randn(3,2)..原创 2020-10-21 20:00:55 · 3317 阅读 · 0 评论 -
GPU版pytorch的环境安装记录
1.安装GPU版本pytorch教程(避坑)https://blog.csdn.net/weixin_40431584/article/details/105119633我是直接从后面链接的download的网站下载的torch-1.5.0-cp38-cp38-win_amd64.whl ,再pip install xx。感觉这样更快。下载安装的1.5.0的torch,直接下载的whl文件。2.torch的cuda版本选择是10.2,电脑上cuda版本可以高于torch的版本,我的.原创 2020-10-19 14:01:30 · 225 阅读 · 1 评论 -
神经网络参数初始化及训练过程loss出现NAN的解决方法
一、最近在修改代码后,训练过程loss出现NAN,而且概率很大,于是查找原因,在此记录。在给信号按照相应信噪比加噪声的过程中,增加了部分代码,且增加了batch norm,但是训练过程中大概率loss会出现NAN。增加噪声的代码如下:1 def wgn(x, snr):2 P_signal = np.sum(abs(x)**2)/len(x)3 P_noise = P_signal/10**(snr/10.0)4 return np....原创 2020-10-14 15:29:18 · 1719 阅读 · 1 评论 -
torch.nn.Conv1d及一维卷积举例说明
一维卷积不代表卷积核只有一维,也不代表被卷积的feature也是一维。一维的意思是说卷积的方向是一维的。class torch.nn.Conv1d(in_channels, out_channels, kernel_size, stride=1, padding=0, dilation=1, groups=1, bias=True)in_channels(int) – 输入信号的通道。在文本分类中,即为词向量的维度 out_channels(int) – 卷积产生的通道。有多少个out_chann原创 2020-10-03 16:30:25 · 8469 阅读 · 6 评论 -
pytorch用法记录(torch.Storage与detach)
1.torch.Storage类使用storage()函数把Tensor数据转换为float类型的Storage数据,再使用tolist() 返回一个包含此存储中元素的列表。2.detach 计算图截断detach 的意思是,这个数据和生成它的计算图“脱钩”了,即detach就是截断反向传播的梯度流。GAN中,Train D on fake,G生成的数据会传入D,然...原创 2020-03-23 17:44:29 · 529 阅读 · 0 评论 -
pytorch用法记录(GAN算法阅读)
1.交叉熵损失函数 BCELoss用法例子如下,先定义loss = nn.BCELoss(),然后通过loss(lossinput, target)输入所需计算的数据:m = nn.Sigmoid()loss = nn.BCELoss(size_average=False, reduce=False)input = torch.randn(3, requires_grad=True)...转载 2020-03-22 22:34:31 · 688 阅读 · 0 评论