自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(3)
  • 收藏
  • 关注

原创 pytorch学习之注意力机制

Attention 是一种通用的带权池化方法,输入由两部分构成:询问(query)和键值对(key-value pairs)。不同的attetion layer的区别在于score函数的选择,两种常用的注意层 Dot-product Attention 和 Multilayer Perceptron Attention点积注意力class DotProductAttention(nn....

2020-02-19 20:30:43 1234

原创 pytorch学习——Softmax与分类模型

Softmax与分类模型Softmax原理softmax通过下式将输出值变换成值为正且和为1的概率分布:因此softmax运算不改变预测类别输出。pytorch定义softmax函数如下:def softmax(X): X_exp = X.exp() partition = X_exp.sum(dim=1, keepdim=True) return X_exp ...

2020-02-14 13:10:17 478

原创 pytorch线性回归

pytorch线性回归线性回归假设输出与各个输入之间是线性关系:y = wx+bpytorch定义线性回归模型:def linreg(X, w, b): return torch.mm(X, w) + b线性回归常用损失函数是平方损失:def squared_loss(y_hat, y): return (y_hat - y.view(y_hat.size())) ...

2020-02-14 12:58:08 178

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除