pytorch
大雄没有叮当猫
好好学习,天天向上
展开
-
NLP13:CBOW模型的keras和pytorch实现
公众号:数据挖掘与机器学习笔记1.数据准备import osimport jiebaimport randomimport numpy as npfrom collections import Counterfrom torch.utils.data import Dataset, DataLoaderfrom sklearn.model_selection import train_test_split# 参数设置word_size = 64 # 词向量维度window = 5原创 2020-10-28 20:43:19 · 1453 阅读 · 3 评论 -
NLP09:孪生网络(Siamese Network)简介及实战应用
公众号:数据挖掘与机器学习笔记1.孪生(Siamese)网络基本原理孪生网络是包含两个或多个相同的的子网络组件的神经网络,如下所示:在孪生网络中,不仅子网络的架构是相同的,而且权重在子网络中也是共享的,这样的网络被称为孪生网络。孪生网络背后的思想是其能够学习有用的数据描述符,这些描述符可以进一步用于在各个子网的输入之间进行比较。因此,孪生网络的输入可以是数值数据、图像数据(CNN为子网络)或者序列数据(以RNN为子网络)。通常,孪生网络对输出执行二分类,判断输入是不是属于同一类。最常用的损失函数为翻译 2020-09-30 22:12:10 · 4252 阅读 · 1 评论 -
深度学习01:pytorch中model eval和torch no_grad()的区别
公众号:数据挖掘与机器学习笔记主要区别如下:model.eval()会通知所有的网络层目前处于评估模式(eval mode),因此,batchnorm或者dropout会以评估模式工作而不是训练模式。在train模式下,dropout网络层会按照设定的参数p设置保留激活单元的概率(保留概率=p); batchnorm层会继续计算数据的mean和var等参数并更新。在val模式下,dropout层会让所有的激活单元都通过,而batchnorm层会停止计算和更新mean和var,直接使用在训练原创 2020-09-30 22:07:52 · 808 阅读 · 0 评论 -
pytorch:torch.clamp()
torch.clamp(input, min, max, out=None) → Tensor将输入input张量每个元素的夹紧到区间 [min,max][min,max],并返回结果到一个新张量。操作定义如下: | min, if x_i < miny_i = | x_i, if min <= x_i <= max | max, if ...原创 2018-09-11 16:02:43 · 174586 阅读 · 15 评论