NLP-D37-nlp比赛D6-DMN&《人类语言处理》05

—0450哎,早上网页打不开,把浏览器缓存都清了。内心想哭呜呜呜

现在开始看DMN了hhh

讲的好好

哈达玛积可以计算相似度吗

不理解,感觉只是做一下input和q的交互??然后让参数自己学习到相似性关系??

----0642小哥哥又有才!!!又有颜!!!我哭了!!Richard Socher!!!爱了啊!!为什么nlp2017不全是小哥哥讲的呢!!!

DMN coding

1、没有这个参数诶,好搞笑
在这里插入图片描述

—0728吃完早饭啦!去做核酸,然后去超市买菜嘿嘿!!!
感觉回来需要看个embedding专题,先把昨天那个embedding的问题解决叭!【在看完DMN代码之后】

-----0855早上买菜的人好多哇~不过我成功实现了豆芽自由,开心!

rnn.GRUCell

参数为隐藏层数量
在这里插入图片描述

参考:https://blog.csdn.net/u013230189/article/details/82822668

dynamic_rnn与static_rnn

上面只定义了cell,让rnnrun起来,还需要个dynamic或者staticrnn.
在这里插入图片描述

https://piantou.blog.csdn.net/article/details/89097757?spm=1001.2101.3001.6650.1&utm_medium=distribute.pc_relevant.none-task-blog-2%7Edefault%7ECTRLIST%7ERate-1-89097757-blog-103605612.pc_relevant_antiscanv3&depth_1-utm_source=distribute.pc_relevant.none-task-blog-2%7Edefault%7ECTRLIST%7ERate-1-89097757-blog-103605612.pc_relevant_antiscanv3&utm_relevant_index=2

dynamic_rnn参数
在这里插入图片描述
返回值为outputs和states
在这里插入图片描述

参考:https://zhuanlan.zhihu.com/p/43041436

tf.layers.dense使用

输入数据,输出大小
https://blog.csdn.net/yangfengling1023/article/details/81774580

rnn.GRUCell定义好如何使用

output,state=gruCell(inputs,previous_state)
参考:https://blog.csdn.net/u013230189/article/details/82822668

《人类语言处理》05

在这里插入图片描述

—1524睡了一觉,上午和sx学到了如何去定义、划分任务。我个人感觉时间还是蛮紧张的,毕竟是第一次独立搞代码。上午大致定义清楚了任务,但是没有具体写明ddl,只有sx划分的ddl。自己的ddl要比sx提前,以防万一。

—1626f发现了shell文件,鹅鹅鹅,对不起沐沐,才看了一天tf就忘了torch了对不起沐沐!

torch.cuda.is_available()

这个指令的作用是看,你电脑的 GPU 能否被 PyTorch 调用。
https://segmentfault.com/a/1190000020956132

list(zip(*batch))压缩与解压

zip(*)解压,zip压缩
在这里插入图片描述

isInstance报错AttributeError

torch.autograd.variable.Variable是什么

就是需要计算梯度的参数啦(复习一下,去全忘了)。有data和grad。可以设置requires_grad。
https://blog.csdn.net/CSDN_of_ding/article/details/110691635

—2147终于把假期计划写完啦!!!快调代码!!!

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值