论文杂文阅读
just read it
troublemaker、
零基础的研究生
展开
-
(2020)Single Image Haze Removal Using Dark Channel Prior论文笔记
Single Image Haze Removal Using Dark Channel Prior本文2009年CVPR最佳论文,作者何凯明,是国内第一个在计算机视觉与模式识别会议上获得该奖项Doctor如果是涉及到图像去雾领域这篇论文可以说是无人不晓。论文在的引用量已达到4000+。论文读起来十分易懂,而读完只想说 :何凯明 ???? ????(怪我我才学浅薄,找不到更好的词形容)整体思路描述雾图像的等式(这个是前人已经提出的)上述公式:I(x)=J(x)t(x)+A(1−t(原创 2020-11-02 19:05:40 · 652 阅读 · 2 评论 -
How to determine an optimal threshold to classify real-time crash-prone traffic conditions论文笔记
论文背景实时预测交通事故,阈值选择是关键一步,但目前对阈值选择方面研究很少,部分研究阈值选择也是根据主观因素进行选择的。主要思想使用mixed logit 模型根据交通条件预测交通事故发生的概率,使用阈值选择方法根据交通条件自动选择阈值,并与模型的概率进行比较,大于阈值则预测发生事故;否则,不发生。实验步骤模型使用 mixed logit 模型,预测事故概率使用5种方法进行阈值选择使用5折交叉验证对整个流程进行验证结论阈值选择使用Minimum cross-entropy 效原创 2020-11-02 15:05:37 · 386 阅读 · 0 评论 -
家中常备markdown数学公式语法
格式(format):使用$...$编写行内公式公式和文本在同一行:y=ax+by=ax+by=ax+b使用$$...$$编写换行公式公式另起一行:y=ax+b y=ax+b y=ax+b希腊字母(Greek latter)数学符号(operator)某个位置是但个数时可以直接写,当需要有多个数时,需要用括号括起来{}如:xyx^yxy ——语法$x^y$如:xyyyx^{yyy}xyyy——语法$x^{yyy}$上下标符号符号案例markdow原创 2020-09-19 17:36:22 · 1153 阅读 · 0 评论 -
图嵌入和知识图谱嵌入的简单介绍
关于图嵌入和知识图谱嵌入的区别,简单的做一个笔记具体建议看大牛的博客和涉及具体方法的论文????图嵌入图嵌入(Graph Embedding,GE),又称为网络嵌入(Network Embedding,NE):目的:将高维图数据用低维稠密向量进行表示典型方法:Deepwalk、Node2vec等????知识图谱嵌入知识图谱嵌入(Knowledge Graph Embedding,KGE):目的:学习如何将知识图谱中的实体和关系,使用embedding向量进行表示。这么说的话也原创 2020-07-17 11:43:16 · 3026 阅读 · 0 评论 -
(2020)Deep Joint Entity Disambiguation with Local Neural Attention论文笔记
paper: Deep Joint Entity Disambiguation with Local Neural Attention https://github.com/dalab/deep-ed文章目录:AbstractIntroductionContributions and Related WorkLearning Entity EmbeddingsLocal Model with Neural AttentionDocument-Level Deep ModelExperi.原创 2020-07-13 22:29:02 · 1839 阅读 · 4 评论 -
如何高效阅读机器学习顶会论文
如何高效阅读机器学习顶会论文1.读书与读论文的区别**教材仔细读:**经过长时间的打磨,是精品;书籍如CSAPP, ESL, MLAPP, GEB(最后这个花费作者一辈子心血)论文要甄别:顶会论文:cvpr, icml, nips, 等70%:在前人基础上做了一丁点改进,如改一下损失函数、调调正则化 -> 不值得花大量时间研读10%:给领域的从业者带来灵感的启发1%:给行业所有的从业者都有启发,甚至带来方向性的影响⚠️:只有一小部分的文章值得复现,如顶会论文的best p转载 2020-06-01 09:41:01 · 1425 阅读 · 0 评论 -
最新GLove词向量预训练文件国内服务器下载
试过去斯坦福官方网址(https://nlp.stanford.edu/projects/glove/)下Glove的同学就知道有多痛苦… 真的要多慢有多慢使用国内服务器几分钟下完 glove.840B.300d.zip(2G)真香!!!国内服务器地址:直接进去没什么东西的 https://apache-mxnet.s3.cn-north-1.amazonaws.com.c...原创 2020-04-15 16:59:23 · 9804 阅读 · 18 评论 -
机器学习中如何理解end-to-end
传统机器学习的流程往往由多个独立的模块组成,比如在一个典型的自然语言处理(Natural Language Processing)问题中,包括分词[1]、词性标注[2]、句法分析[3]、语义分析[4]等多个独立步骤,每个步骤是一个独立的任务,其结果的好坏会影响到下一步骤,从而影响整个训练的结果,这是非端到端的。 而端到端模型在训练过程中,从输入端(输入数据)到输出端会得到一个预测结果,...原创 2020-04-15 12:41:06 · 852 阅读 · 0 评论 -
word交叉引用——在正文中给参考文献做链接
word交叉引用只需两步即可,3分钟即会第一步: 插入编号文档中有如下参考文献,但还没有[1],[2],[3]等编号。那么先给参考文献编号序号,使用word—>开始—>编号接下来给参考文献标好序号,光标选到某参考文献前,点编号即可自动编号,如下图所示标完序号如图所示第二步:正文引用编号将光标定位在正文中需要插入参考文献上标的地方,点击“...原创 2020-03-19 11:36:14 · 18963 阅读 · 0 评论 -
论文中的常见缩写(w.r.t/i.e./et al等)的意思
w.r.t:with respect to的缩写,意思是关于、谈到、涉及等。i.e.:id est的缩写,意思是即,换句话说等。et al. :et alia(“and others;and co-workers”)的缩写,意思是:其他人、等人。通常在列文献作者时使用,把主要作者列出后,其他作者放在et al.中。e.g.:exempli gratia的缩写,意思是列,例如。etc.:e...原创 2020-03-17 14:30:47 · 29167 阅读 · 2 评论 -
(2020)TransE论文笔记
Title:《Translating Embeddings for Modeling Multi-relational Data》比较经典的embedding算法,做个笔记一起学习。文章目录:AbstractIntroductionTranslation-based modelAlgorithm 伪代码ExperimentsConclusion an...原创 2019-12-27 22:00:44 · 2287 阅读 · 37 评论 -
Alias Method/别名采样方法之python实现
最近在学习node2vec时,有涉及alias 采样的算法,对于我来说真的需要好好学习一下,为了加深理解,于是有了这篇笔记,接下涉及到的其他的算法,也会在这边记录下来,越努力越幸运。算法理论基础 :详见这篇博文:博主:哈乐笑,请沉下心来看哦!大概罗列几个注意点: 按照均值归一化,而不是最大值 每列事件中最多包含两个不同事件 ,超过两个就奔溃了博文, 更快的构建方法中提到...原创 2019-11-22 17:57:55 · 945 阅读 · 2 评论