—0450哎,早上网页打不开,把浏览器缓存都清了。内心想哭呜呜呜
现在开始看DMN了hhh
讲的好好
哈达玛积可以计算相似度吗
不理解,感觉只是做一下input和q的交互??然后让参数自己学习到相似性关系??
----0642小哥哥又有才!!!又有颜!!!我哭了!!Richard Socher!!!爱了啊!!为什么nlp2017不全是小哥哥讲的呢!!!
DMN coding
1、没有这个参数诶,好搞笑
—0728吃完早饭啦!去做核酸,然后去超市买菜嘿嘿!!!
感觉回来需要看个embedding专题,先把昨天那个embedding的问题解决叭!【在看完DMN代码之后】
-----0855早上买菜的人好多哇~不过我成功实现了豆芽自由,开心!
rnn.GRUCell
参数为隐藏层数量
参考:https://blog.csdn.net/u013230189/article/details/82822668
dynamic_rnn与static_rnn
上面只定义了cell,让rnnrun起来,还需要个dynamic或者staticrnn.
https://piantou.blog.csdn.net/article/details/89097757?spm=1001.2101.3001.6650.1&utm_medium=distribute.pc_relevant.none-task-blog-2%7Edefault%7ECTRLIST%7ERate-1-89097757-blog-103605612.pc_relevant_antiscanv3&depth_1-utm_source=distribute.pc_relevant.none-task-blog-2%7Edefault%7ECTRLIST%7ERate-1-89097757-blog-103605612.pc_relevant_antiscanv3&utm_relevant_index=2
dynamic_rnn参数
返回值为outputs和states
参考:https://zhuanlan.zhihu.com/p/43041436
tf.layers.dense使用
输入数据,输出大小
https://blog.csdn.net/yangfengling1023/article/details/81774580
rnn.GRUCell定义好如何使用
output,state=gruCell(inputs,previous_state)
参考:https://blog.csdn.net/u013230189/article/details/82822668
《人类语言处理》05
—1524睡了一觉,上午和sx学到了如何去定义、划分任务。我个人感觉时间还是蛮紧张的,毕竟是第一次独立搞代码。上午大致定义清楚了任务,但是没有具体写明ddl,只有sx划分的ddl。自己的ddl要比sx提前,以防万一。
—1626f发现了shell文件,鹅鹅鹅,对不起沐沐,才看了一天tf就忘了torch了对不起沐沐!
torch.cuda.is_available()
这个指令的作用是看,你电脑的 GPU 能否被 PyTorch 调用。
https://segmentfault.com/a/1190000020956132
list(zip(*batch))压缩与解压
zip(*)解压,zip压缩
isInstance报错AttributeError
torch.autograd.variable.Variable是什么
就是需要计算梯度的参数啦(复习一下,去全忘了)。有data和grad。可以设置requires_grad。
https://blog.csdn.net/CSDN_of_ding/article/details/110691635
—2147终于把假期计划写完啦!!!快调代码!!!