研究生
文章平均质量分 85
张一%
这个作者很懒,什么都没留下…
展开
-
TransformerPPT使用链接
如何理解Transformer论文中的positional encoding,和三角函数有什么关系?在测试或者预测时,Transformer里decoder为什么还需要seq mask?Transformer源代码解释之PyTorch篇,decoder部分分析看懂了。疑惑三:Transformer里decoder为什么还需要seq mask?疑惑一:Transformer的Decoder的输入输出都是什么?讲解transformer源码的(基于pytorch)Attention中的Q、K、V是什么?原创 2022-11-13 01:45:10 · 673 阅读 · 1 评论 -
专业英语积累
cherry-pick Drag and drop to cherry-pick! 择优挑选squash commit 压缩提交reorder commits 重新排序提交原创 2022-06-30 18:18:31 · 792 阅读 · 0 评论 -
概率:likelihood、probability、cross-entropy、log loss、logistic loss
文章目录一、似然(likelihood)和概率(probability)1、概念区分2、机器学习中二、cross-entropy、log loss、logistic loss1、结论2、计算公式3、Python实现一、似然(likelihood)和概率(probability)1、概念区分似然与概率分别是针对不同内容的估计和近似。概率(密度):表达给定θ下样本随机向量 X=xX = xX=x 的可能性(样本x的近似),似然:表达了给定样本 X=xX = xX=x 下参数θ=θ1\theta=\t原创 2022-05-16 09:41:27 · 761 阅读 · 0 评论 -
读论文笔记
看抖音学的原创 2022-04-25 09:51:23 · 915 阅读 · 0 评论