- 博客(4)
- 收藏
- 关注
原创 (1.2)VUE v-bind指令
插入指令只针对内容,不包括标签属性,因此需要v-bind来动态绑定简单使用如下: <img v-bind:src=imgURL>v-bind可以使用语法糖::使用v-bind动态绑定class属性<div id="app"> <h2 v-bind:class='{a:red_active,b:blue_active}'>百度一下</h2> <button v-on:click="changeColor">改变颜色</b
2020-10-28 15:27:07 105
原创 简析Transformer(attention is all you need)
简析Transformer(attention is all you need)Transformer:1. BERT,GPT等模型的基础,推动NLP进入BERT时代的起因。2. 因其推出的self-attention被广泛应用于NLP和CV等领域。3. 直接导致了NLP模型步入CV模型的发展趋势,模型大到普通玩家靠边站的地步(这也是最近小样本学习在学术界逐渐火热的原因之一)。不管未来的发展趋势如何,Transformer作为现今NLP发展根基之一,是我们必须掌握和理解的模型,对于CV也一样,毕竟
2020-10-25 17:36:07 354
原创 (1.1)VUE-VUE开发环境搭建
环境:node.js+npm参考博客:https://www.cnblogs.com/zhaomeizi/p/8483597.htmlhttps://www.cnblogs.com/lifangchao/p/9139581.html注意事项:1.如果.msi无法安装,则去官网下载免安装版的压缩包2.如果创建项目失败,则参考链接2.3.截至2020-10-21,nodejs中已包含npm,无需再额外下载和安装npm安装包...
2020-10-21 18:29:57 88
原创 详细解析GNMT(Google’s Neural Machine Translation System)
总结:1. GNMT 模型的成功,背后依靠的是 attention 机制和 seq-seq 的结合。2. 为了解决 OOV(out-of-vocabulary)问题,使用 sub-word units(wordpieces)3. Encoder 和 decoder 均使用 LSTM 和残差网络搭建,其中 encoder 第一层使用双向 LSTM,decoder 过程中,在 beam searc...
2019-08-08 23:16:36 4751
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人