NLP-D41-nln比赛D10-论文阅读的雨露均沾与思辨&关于sample和保存结果&open写入&算法刷题

46 篇文章 0 订阅
40 篇文章 0 订阅

今天一定要读论文+刷题+看课!!!!!

----0451先读论文为敬!!!
—0627其实大概6点的时候就已经读完了,后面在总结啦!还是要学习一些比较好的方式去总结学到的内容,整合进自己的知识体系,方便后续加工利用。
在阅读论文的时候,发现虽然都是构建综述,但是切入角度不同,整体框架的归类都不同。所以,阅读论文要雨露均沾,在歧义中不断思辨。

先吃个饭,然后把题刷了!!!

discriminative&generative model

判定式模型是有一个判定边界,把X代入即可得到答案;
生成模型是分队对不同种类建模,在使用时,分别把X代入不同模型,取值大的
https://www.zhihu.com/question/20446337

—0657刚刚又看了一下《人类语言处理》06,对于实体对齐部分使用DNN还是不太理解,不过得往下走了。先刷两道题~

算法刷题

–t1-787
归并排序主要思想是递归:先递归左右排好序,再整合成大的序列。需要额外使用数组来进行最后的综合排序。
不过脑行为
在这里插入图片描述
在这里插入图片描述
—t2-788
在这里插入图片描述
–t3-789
左右边界写反了,我晕,从理解上就反了。
也不错,通过遗忘加深对二分的理解。
不过好像也没写错。

二分本质是找到一个边界:一半满足,一半不满足。

t4-790
格式化输出做的不错
在这里插入图片描述
t5–795
前缀和主要解决区间求和问题,在o(1)时间完成该操作。预处理是o(n)。
在这里插入图片描述
t6–796
二维前缀和,要点是思路清晰。
蛮顺利的

t7–797
差分主要解决到的是对于某一段区间进行加数减数操作。把该操作从o(n)变为o(1)。
具体,差分为前缀和逆操作。在差分序列上加减数,最后通过前缀和求原序列。主要工作为定义add函数。
eee没啥问题

—0817芜湖,终于把前两天的坑补完了,现在去做核酸啦!!!

改进TextCNN模型

1、事实证明,一定要sample,要不然根本不知道在样本上有没有变化!
2、哦还要保存结果,一字千钧!

3、一上午的血泪教训就是不能覆盖写入+一定要确定数据真的变化了。
太惨烈了,这一上午。不了解工具,导致的实验悲剧。先干饭好了。

open的wb和ab

ab为二进制追写;wb为重写。害我好苦

pytorch存模型参数

保存整个网络

torch.save(net, PATH)

保存网络中的参数, 速度快,占空间少

保存整个网络
torch.save(net, PATH) torch.save(net.state_dict(),PATH)
#--------------------------------------------------
#针对上面一般的保存方法,加载的方法分别是: model_dict=torch.load(PATH) model_dict=model.load_state_dict(torch.load(PATH))

https://zhuanlan.zhihu.com/p/38056115

BLUE指标

在自然语言处理中的机器翻译任务中, BLEU非常常见, 它是用于评估模型生成的句子(candidate)和实际句子(reference)的差异的指标.
它的取值范围在0.0到1.0之间, 如果两个句子完美匹配(perfect match), 那么BLEU是1.0, 反之, 如果两个句子完美不匹配(perfect mismatch), 那么BLEU为0.0.
参考:https://blog.csdn.net/g11d111/article/details/100103208

—2155哇今天做了翻译学习,感觉还不错,嘿嘿~

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值