算法
BeKnown
这个作者很懒,什么都没留下…
展开
-
BiLSTM_Attention中的Attention
网上都是如下的模型结构图从上图只能看出Attention层的位置是在BiLSTM的后面,从公式更直观一些:通过一个MLP获取隐含表示uit=tanh(Wwhit+bw)u_{it}=tanh(W_wh_{it}+b_w)uit=tanh(Wwhit+bw)其中hith_{it}hit为LSTM层的输出,这个全连接层结构Wwhit+bwW_wh_{it}+b_wWwhit+bw并不会改变其维度。矩阵表示为u=tanh(Wh+b)u=tanh(Wh+b)u=tanh(Wh+b),其原创 2020-12-04 16:24:37 · 2857 阅读 · 0 评论 -
算法题分类整理
算法刷题文章目录算法刷题栈在刷题的过程中,整理和分类算法相关题目。栈剑指 Offer 09. 用两个栈实现队列剑指 Offer 30. 包含min函数的栈思想:维护一个递减的栈来实现min方法剑指 Offer 59 - II. 队列的最大值这里使用的思想与上一题相同,但区别在于本题需要维护的是一个双向队列Deque,与Queue的区别是,它可以从两端删除或增加元素!这个双向队列Deque是从头向尾递减的,所以要注意从尾部开始比较!!!...原创 2020-10-25 18:02:02 · 170 阅读 · 0 评论