pytorch
Leri_X
这个作者很懒,什么都没留下…
展开
-
简单易懂的 pytorch 使用 DistributedDataParallel 进行 单机多卡训练
pytorch 使用 DistributedDataParallel 进行 单机多卡加速原创 2022-11-19 13:41:16 · 792 阅读 · 0 评论 -
BertTokenizer 使用方法
BertTokenizer 使用方法,BertTokenizer 函数详解,tokenizer使用方法原创 2022-08-25 13:33:00 · 11236 阅读 · 3 评论 -
pytorch 使用gpu
1. pytorch查看设备信息# 查看gpu设备是否可用torch.cuda.is_available() # 返回gpu数量;torch.cuda.device_count()# 返回gpu名字,设备索引默认从0开始;torch.cuda.get_device_name(0)# 返回当前设备索引;torch.cuda.current_device()2. 设置de...原创 2020-03-12 16:27:23 · 362 阅读 · 0 评论 -
必能读懂的 交叉熵详解,pytorch中交叉熵的使用
目录1. 交叉熵详解1.1信息量1.2 熵1.3 相对熵(KL散度)1.4交叉熵1.5 小结2. 交叉熵的应用(pytorch中)2.1交叉熵在分类任务中的计算过程2.2 log_softmax()函数2.3nll_loss()函数2.4cross_entropy()函数2.5 函数的其他调用方式1. 交叉熵详解1.1...原创 2020-03-12 00:38:56 · 2046 阅读 · 1 评论 -
pytorch 基本数学运算
pytorch中的运算遵循其Broadcasting规则,这里不详细解释。 目录1. 矩阵对应位置加减乘除2. 矩阵相乘3. 幂运算3. 指数与对数运算4. 近似取值(向上取整,向下取整,四舍五入,取小数等)5. clamp1. 矩阵对应位置加减乘除包括add(加),sub(减),mul(乘),div(除),pytorch中重载了加减乘除的运算符...原创 2020-03-04 17:59:23 · 2816 阅读 · 0 评论 -
pytorch Tensor合并与切割
合并1. cat dim表示拼接的维度。注意其他维度要保持一致。 2. stack dim维度前添加一个新的维度,作为原来两个tensor连接,进行区分的维度 如果我们令c = torch.stack([a,b], dim=1) 则: c[:,0,...] == a ...原创 2020-03-03 16:20:16 · 941 阅读 · 0 评论 -
pytorch 创建 tensor
1. 从np中读取a = np.array([1,2,3,4.2])b = torch.from_numpy(a)2. 直接读取lista = [1,2,3,4,5.1]b = torch.tensor(a)c = torch.tensor([1,2,3])3. 直接生成a = torch.Tensor(2,3)b = torch.Float...原创 2020-03-01 22:45:19 · 188 阅读 · 0 评论