自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(11)
  • 收藏
  • 关注

原创 作为准研究生需要清楚的事【更好的开启研究生生涯】

作为准研究生,希望能趁早明白的这些事情并保持着清醒的意识。并不是大道理,而是切实可行的小tips~1、研究生阶段,导师是我们的第一负责人,辅导员是学生工作的处理者,无论你做什么事情,不管这个事情是好是坏,该告诉导师大大的一定不要藏着掖着。不然最后出问题不仅没人帮你收拾烂摊子,还会连累导师大大。( 不要害怕让导师大大知道你的事情,相反我觉得多和他沟通会更好,因为他知道多点只会对你好)。同时选导师记得看他对学生是否关心,是否愿意花时间和精力培养学生,否则他的咖位与你无关 ;另外选择导师还要看自己喜欢横向还是

2022-04-21 11:24:35 418 2

原创 我们如何从web1发展到web3

从1989年伯纳斯提出万维网的概念开始到现在,已经经历了Web1.0、Web2.0、Web3.0。那么,究竟是如何从Web1.0发展到Web3.0的呢?目录一、从 Web1.0 到 Web2.0二、那么 Web3.0 呢?三、构建 Web3.0 的现实障碍四、我们将如何到达 Web3.0网络已经发展了三十多年,慢慢地将我们从Web1.0的早期静态文本和图像,一直带到Web2.0的兴起,直到我们今天所知道的互联网——一个由中心化平台主导的互联网。关于究竟什么是Web3.0,.

2022-04-20 15:18:15 2166 2

原创 论文《Learning by abstraction: The neural state machine》【附代码】

论文《Learning by abstraction: The neural state machine》解读,有代码!

2022-04-14 14:50:51 262 3

原创 transformer 为什么使用 layer normalization,而不是其他的归一化方法?

对于深度学习的很多技巧,当你实验做得足够多的时候你就会发现,这类问题的唯一正确答案是:因为实验结果显示这样做效果更好!当然,你非要想找一个像模像样的解释,其实也能尝试一下。对于Transformer为什么用LN而不是BN/IN,我估计《Attention is all you need》的作者们当时肯定没有想那么多,而是发现当时NLP中主流就是用LN,所以就跟着用了。那么,NLP为什么用LN居多呢?非要说原因,大致上是NLP的文本本质上可以看成一个时间序列,而时间序列是不定长的,长度不同的序

2022-04-12 13:53:35 1611 3

原创 情感分析全解:文本预处理、加载词向量、搭建RNN

IMDB Sentiment Classification from scratchAuthor: BeyondTime: 2019.04.26情感分析是上手NLP的最简单的任务之一,它就是一个简单的文本分类问题,判断一段文本的情感极性。最简单的就是二分类,判断是积极的还是消极的;更难一点的就是三分类,除了积极消极还有无情感倾向的;更加复杂的就比如情感打分,例如电影打1~5分,这就是五分类。但本质上都一样,无非类别太多更难以学习罢了。IMDB是一个专业的电影评论网站,类似国内的豆瓣,IMDB

2022-04-11 10:25:37 1330 3

原创 针对文本数据增强的方法[有代码]

《SSMix: Saliency-Based Span Mixup for Text Classification》深度解读。

2022-04-08 12:10:40 1147 3

原创 Graph Embedding领域有哪些必读的论文?

一、翻译距离模型:【TransE】 Translating Embeddings for Modeling Multi-relational Data 全文链接:文献全文 - 学术范 (xueshufan.com)【这个网站上边大部分都有,链接太多似乎不能过审,只能辛苦大家自己复制粘贴搜一下,并且还可以一键翻译摘要了解哦!】【TransH】 Knowledge Graph Embedding by Translating on Hyperplanes【TransR】 Learning Ent

2022-04-08 11:36:15 341 2

原创 【研究生入学须知】除看python的基础教学视频外,还需干嘛?

最近研究生复试结束,首先恭喜许多小朋友,要进入人生新的篇章啦!很多研一刚入学的小朋友不知道从何下手,从未接触过神经网络,python也是才开始学。提前联系导师,导师可能要大家做LSTM(或者其他),那作为刚入学的萌新应该去学什么呢,除了看python的基础教学视频以外,还需要去学哪些内容呢?也会好奇,可以上手去做LSTM需要多久的时间呢?首先,应该努力为自己争取最大的时间用来学习和coding——合理跟导师描述自己的基础,承受导师对自己的diss,抓紧时间学习(基础差是自己的原因不是导师的原因,那必

2022-04-08 11:23:35 1621 2

原创 随机森林与人工神经网络联合诊断心衰模型的构建与分析

今天,和大家分享一篇文章的解读与复现——随机森林与人工神经网络联合诊断心衰模型的构建与分析,顺便安利近期遇到的一个神奇的社区。目录Part1文献解读1摘要2前言3方法&结果4讨论5总结亮点:不足:Part2文章复现step1 start GEOstep2 group idstep3 pcastep4 DEGstep5 random foreststep6 neuralnetstep7 auc开始之前,插入一个...

2022-04-06 17:33:55 2652 4

原创 2022年,校招计算机视觉算法岗,还要继续all in吗?

本文受众聚焦在本科大四以及硕士研究生的范畴。然后,本文只是提供一些切身的思考,并不一定全对,也会存在考虑不全的地方,希望读者能持开放包容的心态进行阅读😘so,enjoy:劝退先行这个我拿手,先劝退一波作为目睹过2021年算法岗灰飞烟灭,看这激烈的求职过程,不但脑海中蹦出三个字:卷!卷!还是xxx卷!并且还咽了一下口水,接下来有条不紊地进行劝退:2021年,发生了意想不到的疫情,加上本身AI红利消退以及CV算法岗位严重供大于需,可以说CV算法岗竞争的激烈程度上升到了一个前所未有的高度。并且

2022-04-02 09:52:35 3176 5

原创 为什么相比于计算机视觉(cv),自然语言处理(nlp)领域的发展要缓慢?

主要原因是涉及到序列的东西都不好做。CV那边搞视频一样头疼结果上不去。而且另外一方面,个人理解cv目前做的东西更多的是extraction和generation,understanding的很多好,大量论文集中在前两点。如果设计understanding更多的是image caption和inpainting那些。而且,个人理解understanding得到的东西必须是不能通过边缘一步一步不全得到的(比如style-transfer在我看来更像step-by-step generation的过程)。

2022-04-01 10:43:37 3936 2

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除