自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(68)
  • 收藏
  • 关注

原创 通信及信号处理领域期刊影响因子、分区及期刊推荐-2024版

通信及信号处理领域期刊影响因子、分区及期刊推荐-2024版。

2024-01-03 11:01:18 1102

原创 计算机、通信及信号处理领域各单位的期刊与会议分级

清华大学计算机学科群推荐学术会议和期刊列表(TH-CPL-2019)中国通信学会《信息通信领域高质量科技期刊分级目录》-2021。中国计算机学会推荐国际学术会议和期刊目录-2022。北京大学高能效计算与应用中心A类论文源-2016。西安电子科技大学高水平期刊目录(2023年)同济大学(内部使用)核心学术刊物基本目录。

2023-11-15 18:39:21 418

原创 通信及信号处理领域期刊影响因子、分区及期刊推荐

通信及信号处理领域期刊影响因子、分区及期刊推荐。

2023-05-30 15:06:48 4371 2

原创 Windows彻底删除指定的驱动-PnPUtil操作指南

Windows彻底删除指定的驱动-PnPUtil操作指南

2022-10-26 21:51:21 1043 1

原创 各种nvidia显卡nvlink之后深度学习效率对比、各种显卡功耗、温度对比

https://www.servethehome.com/dual-nvidia-geforce-rtx-3090-nvlink-performance-review-asus-zotac/5/

2021-03-21 17:18:51 6233

原创 好用的工具-网址

sci论文下载https://sci-hub.se/外文书籍下载网址http://gen.lib.rus.ec/scimag/查到一个期刊是不是SCIhttp://science.thomsonreuters.com/cgi-bin/jrnlst/jlsearch.cgi?PC=DJCR期刊分区数据在线平台http://www.fenqubiao.com/?AspxAutoDetectCookieSupport=1 这个里面有一堆科研工具https://mp.weixin.qq.c

2020-08-06 18:39:57 250

原创 开始mxnet

安装https://mxnet.apache.org/versions/1.6/查找APIhttps://mxnet.apache.org/versions/1.6/api/python/docs/api/autograd/index.html(暂时用这个,后面有个更方便的)

2020-08-06 17:40:38 134

原创 开始pytorch

Tag:Just for lihui基础内容,有些帮助官网https://pytorch.org/安装方法https://pytorch.org/get-started/locally/OS选择对,之后基本都是linuxCUDA版本用nvcc -V查看好,别选错教程https://pytorch.org/docs/stable/index.html有函数不知道不会用不用百度这能搜索api 方法还能搜文档...

2020-08-06 15:55:05 106

原创 python pip安装包库过慢的解决办法

Tag:Just for lihui之后用python避免不了装一些包库有些安的很慢还总失败只要换pip的源就好了,就是像下面这样执行命令  好用的源:  阿里云 http://mirrors.aliyun.com/pypi/simple/  豆瓣(douban) http://pypi.douban.com/simple/  清华大学 https://pypi.tuna.tsinghua.edu.cn/simple/  中国科学技术大学 http://pypi.mirrors.ustc.e

2020-08-06 15:39:10 164

原创 Ubuntu apt apt-get 装东西慢的解决办法

Tag:Just for lihui装上ubuntu肯定要安装东西安装东西(驱动、软件等等)就会用到apt apt-get命令安东西就会发现好慢呀主要是下载慢点击然后点击然后把从哪下载的源换成阿里的就好啦

2020-08-06 15:35:13 564

原创 学习资料清单+学习计划

Tag:Just for lihuiThanks for Professor Bai基础知识:仔细学习每一部分内容,熟练掌握原理与思想,推导公式,(1~2个月)机器学习资料:斯坦福机器学习网易公开课机器学习 周志华 清华大学出版社Pattern Recognition and Machine LearningLinux:没必要花大量时间看这方面的书或者视频,日常熟练使用即可(1周)鸟哥的Linux私房菜Python学习资料:可与机器学习同时学习,建议在linux下学习(一个月)《Head

2020-08-06 15:24:58 283

原创 colab使用方法

Tag:Just for lihui你肯定想问,如果没装Linux系统是不是就无法学习之后内容了呢?当然不是为什么要用Colab免费工作站在线Ubuntu可用免费GPU资源(P100、P4、K80)挂载谷歌云盘后可同步到云盘(就相当于这工作站就是你的了)如何用在云端硬盘里新建文件夹点击colab来到下面这个界面点一下就登陆了Enjoy your coding time!...

2020-08-06 15:17:48 723

原创 Ubuntu18安装教程

Tag:Just for lihui写在前面Linux 有几个比较常用的发行版:Ubuntu 、CentOS 、Debian 等等这些是发行版,都是linux参考书籍:《鸟哥的linux私房菜》B站有一些教程,链接(linux操作还是要了解的,后面工作站要会用以及一些日常的管理)未完待续...

2020-07-28 22:49:56 964

原创 AttributeError: ‘NoneType‘ object has no attribute ‘set_cursor‘问题解决

环境ubuntu18.04python3错误信息Traceback (most recent call last): File "/home/w/.local/lib/python3.6/site-packages/matplotlib/backend_bases.py", line 2973, in _wait_cursor_for_draw_cm self.set_cursor(cursors.WAIT) File "/home/w/.local/lib/python3.6/si

2020-07-25 12:24:05 2681

原创 MXNet快速开始之自动微分

Basic usagefrom mxnet import ndfrom mxnet import autograd示例f(x) = 2 x^2x = nd.array([[1, 2], [3, 4]])x告知NDArray我们计划记录计算过程以计算梯度x.attach_grad()定义y=f(x),用autograd.record()便于之后计算梯度with autograd.record(): y = 2 * x * xx.grad输出:[[ 4. 8.] [1

2020-06-12 22:40:02 155

原创 MXNet快速开始之创建网络

from mxnet import ndfrom mxnet.gluon import nnCreate your neural network’s first layer创建一个dense layer with 2 output units.layer = nn.Dense(2)layer输出:Dense(None -> 2, linear)使用默认方式初始化层的权重, 即从 [−0.7,0.7] 均匀采样layer.initialize()用随机生成的数据演示前向传播x

2020-06-12 20:29:35 289

原创 MXNet快速开始之Manipulate data with ndarray

mxnet的NDArray类似于NumPy的多维数组Get started首先,import ndarray package (nd is a shorter alias) from MXNet.# If you haven't installed MXNet yet, you can uncomment the following line to# install the latest stable release# !pip install -U mxnetfrom mxnet impor

2020-06-12 19:25:43 144

原创 UCF101动作识别数据集

UCF101是从YouTube收集的具有101个动作类别的真实动作视频的动作识别数据集。UCF101拥有来自101个动作类别的13320个视频,在动作方面具有最大的多样性,并且在摄像机运动,物体外观和姿势,物体比例,视点,杂乱的背景,照明条件等方面存在很大的差异。迄今具有挑战性的数据集。由于大多数可用的动作识别数据集都是不现实的,并且是由参与者分阶段进行的,因此UCF101旨在通过学习和探索新的现实动作类别,鼓励对动作识别进行进一步的研究。101个动作类别的视频分为25组,每组可以包含4-7个动作的视频

2020-06-12 16:18:33 12360 5

原创 多人在线文档(excel)手写签名方法

简介无论是高校、政府、企业及其他个人团体,都会产生多人对同一文件签名的需求,本文章提供了一种解决方案软件钉钉方法负责人注册钉钉创建团队配置好对应的群设置将文件传至群内(可开启保密模式,不能下载转发文件)邀请团队成员进群在线编辑文件即可插入手写签名签名大小位置均可调整...

2020-06-07 13:49:08 8184

原创 pytorch系列文档之Non-linear activations详解(ReLU、Sigmoid、Tanh)

ReLUtorch.nn.ReLU(inplace=False)参数inplace –(可以选择性地原地操作) can optionally do the operation in-place. Default: Falseshape:示例 >>> m = nn.ReLU() >>> input = torch.randn(2) >>> output = m(input)An implementation of CRe

2020-06-05 11:50:29 1177

原创 pytorch系列文档之Pooling layers详解(MaxPool1d、MaxPool2d、MaxPool3d)

MaxPool1dtorch.nn.MaxPool1d(kernel_size, stride=None, padding=0, dilation=1, return_indices=False, ceil_mode=False)输入size为(N,C,L),在L维进行池化参数:kernel_size – 池化窗口大小stride – 步长. Default value is kernel_sizepadding – padding的值,默认就是不paddingdilation – 控制扩

2020-06-05 11:16:17 11385 1

原创 pytorch系列文档之API:Containers中的ModuleDict

将子模块放到一个字典里torch.nn.ModuleDict(modules=None)ModuleDict 可以像regular Python dictionary一样进行索引ModuleDict 是一个有序的字典.Note that update() with other unordered mapping types (e.g., Python’s plain dict) does not preserve the order of the merged mapping.参数:modul

2020-06-04 19:20:36 666

原创 pytorch系列文档之API:Containers中的ModuleList

一个包含子模块的listModuleList 可以像 Python list一样被索引torch.nn.ModuleList(modules=None)参数:modules (iterable, optional) – an iterable of modules to add示例:class MyModule(nn.Module): def __init__(self): super(MyModule, self).__init__() self.l

2020-06-04 18:00:02 145

原创 pytorch系列文档之API:Containers中的Sequential

将模型各个层整合成一个序列torch.nn.Sequential(*args)示例# Example of using Sequentialmodel = nn.Sequential( nn.Conv2d(1,20,5), nn.ReLU(), nn.Conv2d(20,64,5), nn.ReLU() )# Example of using Sequential with OrderedDict

2020-06-04 17:45:47 108

原创 pytorch系列文档之Normalization layers详解(BatchNorm1d、BatchNorm2d、BatchNorm3d)

BatchNorm1dtorch.nn.BatchNorm1d(num_features, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True)使用Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift方法,对2D或者 3D 输入 (a mini-batch of 1D inputs with opt

2020-06-04 17:36:51 2137

原创 ubuntu18 扩展根目录以及其他挂载分区的空间方法(亲测好用)

问题背景ubuntu和win双系统时,在分区不合理或者特定需求时,难免会导致ubuntu的某些分区不够用。该方法可以扩展指定分区准备工具ubuntu iso (尽量与要更改的ubuntu版本一致)U盘一枚, 用来制作ubuntu启动盘方法先制作Ubuntu启动盘,之后在磁盘上 要扩容的分区附近压缩出来一些空间(可以用win的磁盘管理压缩出来)。之后从U盘启动(不从U盘启动,直接进入要扩容的Ubuntu的话是不能扩容的,因为那些分区正在使用)进入试用Ubuntu执行:sudo apt-g

2020-05-31 18:13:12 1198 1

原创 pytorch系列文档之API:torch.optim.lr_scheduler详解

常用的学习率衰减方法1· torch.optim.lr_scheduler.LambdaLR()torch.optim.lr_scheduler.LambdaLR(optimizer, lr_lambda, last_epoch=-1)参数:optimizer (Optimizer) – optimizer.lr_lambda (function or list) – A function which computes a multiplicative factor given an int

2020-05-30 20:25:43 1016

原创 Python匿名函数lambda

python 使用 lambda 来创建匿名函数。特点:lambda只是一个表达式,函数体比def简单很多。lambda的主体是一个表达式,而不是一个代码块。仅仅能在lambda表达式中封装有限的逻辑进去。lambda函数拥有自己的命名空间,且不能访问自有参数列表之外或全局命名空间里的参数。虽然lambda函数看起来只能写一行,却不等同于C或C++的内联函数,后者的目的是调用小函数时不占用栈内存从而增加运行效率。示例:lambda [arg1 [,arg2,.....argn]]:expres

2020-05-30 19:49:31 249

原创 pytorch系列文档之How to adjust learning rate(调整学习率)

torch.optim.lr_scheduler提供了几种根据epoch调整学习率的方法。torch.optim.lr_scheduler.ReduceLROnPlateau使得可以根据 validation的值动态的减小学习率的值。减小学习率也就是scheduler.step()应该在参数更新之后注意:在PyTorch 1.1.0版本以前,scheduler.step()应该在参数更新之前。那么在1.1.0版本之后,如果还是在参数更新之前减小了学习率就使得,学习率的初始值将被跳过。示例:&gt

2020-05-30 17:08:53 1067

原创 pytorch系列文档之How to use an optimizer(用optimizer更新模型参数)

torch.optim是实现各种优化算法的包。已经支持最常用的方法,并且接口足够通用,因此将来也可以轻松集成更复杂的方法。

2020-05-30 16:45:05 1161

原创 pytorch系列文档之API:torch:Creation Ops详解

torch.tensor(data, dtype=None, device=None, requires_grad=False, pin_memory=False) → Tensor#注意这个经常是复制data。如果要避免复制,并且,如果data是一个tensor,使用torch.Tensor.requires_grad_()或者torch.Tensor.detach(). 如果data是NumPy ndarray 用torch.as_tensor()#注意当 data 是 tensor

2020-05-21 17:23:40 580

原创 pytorch常用数据类型所占字节数对照表

2020-05-21 13:21:08 1165

原创 pytorch系列文档之API:torch:Tensors详解

torch.is_tensor(obj)#是pytorch tensor时返回truetorch.is_storage(obj)#是pytorch 存储对象时返回truetorch.is_complex(input) -> (bool)#是复杂数据类型时返回true,例如,torch.complex64, and torch.complex128torch.is_floating_point(input) -> (bool)#是否浮点数数据类型,torch.float64, torch.f

2020-05-14 21:14:42 514

原创 PyTorch Geometric(PyG) Pooling Layers(TopKPooling)简介

class TopKPooling(in_channels, ratio=0.5, min_score=None, multiplier=1, nonlinearity=<built-in method tanh of type object>)参数: in_channels (int) – 输入通道数,也就是x的shape[1].ratio (float) – 池化比率,用来计算 k=⌈ratio⋅N⌉. 如果 min_score 不是 None那么这个值将被忽略. (比率默认: 0

2020-05-14 17:39:38 3480

原创 PyTorch Geometric(PyG) Normalization Layers(BatchNorm)源码详解

继承自pytorch的BatchNorm1d,基本没啥变化from torch.nn import BatchNorm1dclass BatchNorm(BatchNorm1d): r"""Applies batch normalization over a batch of node features as described in the `"Batch Normalization: Accelerating Deep Network Training by Reduci

2020-05-14 13:41:57 651

原创 PyTorch Geometric(PyG) torch_geometric.nn.conv.gcn_conv源码详解

这个类继承自MessagePassing也就是Convolutional Layersimport torchfrom torch.nn import Parameterfrom torch_scatter import scatter_addfrom torch_geometric.nn.conv import MessagePassingfrom torch_geometric.utils import add_remaining_self_loopsfrom ..inits import

2020-05-14 13:20:20 4075 1

原创 RuntimeError: Trying to backward through the graph a second time, but the buffers have already been

loss.backward(retain_graph=True)#retain_graph设置为True

2020-05-14 12:44:31 950

原创 查看python包的安装位置及相关信息

windows 和linux均可使用,例如查看numpy的安装位置及版本等信息pip show numpy结果:C:\Users\Administrator>pip show numpyName: numpyVersion: 1.16.2Summary: NumPy is the fundamental package for array computing with Python.Home-page: https://www.numpy.orgAuthor: Travis E. O

2020-05-14 12:12:09 769

原创 PyTorch Geometric(PyG) Normalization Layers(BatchNorm)简介

class BatchNorm(in_channels, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True)参数: in_channels (int) – 输入通道大小.eps (float, optional) – 为分母增加数值的稳定性. (default: 1e-5)momentum (float, optional) – 用于运行平均值和运行方差计算的值. (default: 0.1)affine (bool

2020-05-13 16:38:55 478

原创 PyTorch Geometric(PyG) Convolutional Layers(MessagePassing)简介

class MessagePassing(aggr='add', flow='source_to_target', node_dim=0)用于生成message passing层的基类,□表示可微的排列不变性函数,例如 sum,mean或max,以及γΘ 和 ϕΘ表示可区分的功能,例如MLP。参数: aggr (string, optional) – 所用的聚合方法 (“add”, “mean”, “max” or None). (default: “add”)flow (string, op

2020-05-13 16:31:03 561

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除