- 博客(4)
- 收藏
- 关注
原创 Self-Attention笔记
今天在B站看了质量超高的网课!【强烈推荐!台大李宏毅自注意力机制和Transformer详解!-哔哩哔哩】 https://b23.tv/s2C2lk2self-attention问题:词性标记等(输入长度为n的sequence,输出长度为n的sequence) 难点:输出的sequence中的每一个element都需要考虑一整个输入,如果直接用一个超级大的window草率地进行全连接,computational cost极大。 self-attention的提出:让输出的sequence中的
2022-10-28 23:28:36 302
原创 安装Juypter notebook插件jupyter_contrib_nbextensions
我直接使用pip install命令报错了pip install jupyter_contrib_nbextensions然后我选择从豆瓣镜像中下载,cmd中输入pip install -i http://pypi.douban.com/simple/ --trusted-host=pypi.douban.com/simple jupyter_contrib_nbextensions之后在Anaconda PowerShell Prompt(anaconda3)中输入jupyt
2022-04-04 17:05:28 1468 1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人