自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(137)
  • 收藏
  • 关注

转载 Video Captioning 综述

1.Unsupervised learning of video representations using LSTMs方法:从先前的帧编码预测未来帧序列相似于Sequence to sequence learning with neural networks论文方法:使用一个LSTM编码输入文本成固定表示,另一个LSTM解码成不同语言2.Describing Vi...

2019-09-05 22:49:00 659

转载 PyTorch中使用深度学习(CNN和LSTM)的自动图像标题

介绍深度学习现在是一个非常猖獗的领域 - 有如此多的应用程序日复一日地出现。深入了解深度学习的最佳方法是亲自动手。尽可能多地参与项目,并尝试自己完成。这将帮助您更深入地掌握主题,并帮助您成为更好的深度学习实践者。在本文中,我们将看一个有趣的多模态主题,我们将结合图像和文本处理来构建一个有用的深度学习应用程序,即图像字幕。图像字幕是指从图像生成文本描述的过程 - 基于图像中的对...

2019-08-27 13:20:00 1481

转载 目标检测论文(尤其针对一些小目标的可能改进方法)

------------------------------------------------------------------------About Face detection------------------------------------------------------------------------1、Finding Tiny Faces Code:ht...

2019-08-19 18:36:00 953

转载 CNN中感受野大小的计算

1感受野的概念 从直观上讲,感受野就是视觉感受区域的大小。在卷积神经网络中,感受野的定义是 卷积神经网络每一层输出的特征图(feature map)上的像素点在原始图像上映射的区域大小。  2感受野大小的计算感受野计算时有下面的几个情况需要说明:a)第一层卷积层的输出特征图像素的感受野的大小等于滤波器的大小;b)深层卷积层的...

2019-08-19 17:37:00 222

转载 深度学习变革视觉计算总结(CCF-GAIR)

孙剑博士分享的是《深度学习变革视觉计算》,分别从视觉智能、计算机摄影学和AI计算三个方面去介绍。他首先回顾了深度学习发展历史,深度学习发展到今天并不容易,过程中遇到了两个主要障碍:第一,深度神经网络能否很好地被训练。在深度学习获得成功之前曾被很多人怀疑,相比传统的机器学习理论,深度学习神经网络的参数要比数据大10倍甚至上百倍;第二,当时的训练过程非常不稳定,论文即使给出...

2019-07-22 11:05:00 163

转载 pytorch安装

前提条件:Anaconda3 x64 (with Python3.5/3.6)Windows 64位系统(Windows 7 或 Windows Server 2008 及以上)GPU版本还需要任意版本的 CUDA (包内置了CUDA 8 / 9 的部分主要二进制文件)只需根据自己的系统键入下面的一条命令即可:(注:仅 0.3.1,以后不再更新)# fo...

2019-05-15 19:13:00 61

转载 视频异常检测

安防作为近年最热门的计算机视觉研究落地方向,与视频分析研究有着很紧密的关系。在真实的监控视频中,一个常见的需求就是要自动识别视频流中的异常事件,也就是异常事件检测任务(Anomaly detection)。这个任务有许多的难点,比如:1.异常事件发生的频率很低,导致数据的收集和标注比较困难;2.异常事件的稀少导致训练中的正样本远少于负样本;3.在监控场景中,不管是通常(n...

2019-05-15 09:53:00 567

转载 目标检测

导言:目标检测的任务表述如何从图像中解析出可供计算机理解的信息,是机器视觉的中心问题。深度学习模型由于其强大的表示能力,加之数据量的积累和计算力的进步,成为机器视觉的热点研究方向。那么,如何理解一张图片?根据后续任务的需要,有三个主要的层次。图像理解的三个层次一是分类(Classification),即是将图像结构化为某一类别的信息,用事先确定好的类别(string...

2019-05-10 21:53:00 224

转载 Embedding层

示例解释:model = Sequential()model.add(Embedding(1000, 64, input_length=10)) #输入中的数值最大值是1000,输出的第三维度是64,输入的长度是10. keras.layers.Embedding(input_dim, output_dim, embeddings_initializer...

2019-04-04 20:09:00 152

转载 LSTM(Long Short Term Memory)

长时依赖是这样的一个问题,当预测点与依赖的相关信息距离比较远的时候,就难以学到该相关信息。例如在句子”我出生在法国,……,我会说法语“中,若要预测末尾”法语“,我们需要用到上下文”法国“。理论上,递归神经网络是可以处理这样的问题的,但是实际上,常规的递归神经网络并不能很好地解决长时依赖,好的是LSTMs可以很好地解决这个问题。原理不再介绍。keras.layers...

2019-04-04 16:53:00 166

转载 keras常见参数input_dim、input_length理解

在看keras文档embedding层的时候,不太理解其中的input_dim 和input_length 这两个参数,查阅了一下资料,记录下来。keras.layers.Embedding(input_dim, output_dim, embeddings_initializer='uniform', embeddings_regularizer=None, activity_re...

2019-03-26 09:50:00 1628

转载 python语言相关语法基础

numpy系列import numpya = numpy.array([[1,2], [3,4]])b = numpy.array([[5,6], [7,8]])a*b>>>array([[ 5, 12], [21, 32]])a.dot(b)>>>array([[19,...

2019-03-14 14:56:00 63

转载 BERT(Bidirectional Encoder Representations from Transformers)

BERT的新语言表示模型,它代表Transformer的双向编码器表示。与最近的其他语言表示模型不同,BERT旨在通过联合调节所有层中的上下文来预先训练深度双向表示。因此,预训练的BERT表示可以通过一个额外的输出层进行微调,适用于广泛任务的最先进模型的构建,比如问答任务和语言推理,无需针对具体任务做大幅架构修改。基础比较弱的,直接看bert,可能要结合这个文章一起看:从Wor...

2019-03-12 11:05:00 417

转载 复习支持向量机(SVM)没空看书时,掌握下面的知识就够了

支持向量机(support vector machines, SVM)是一种二类分类模型。它的基本模型是定义在特征空间上的间隔最大的线性分类器;支持向量机还包括核技巧,这使它成为实质上的非线性分类器。支持向量机的学习策略就是间隔最大化,可形式化为一个求解凸二次规划(convex quadratic programming)的问题,也等价于正则化的合页损失函数的最小化问。支持向量机的学...

2019-03-07 10:37:00 200

转载 客服问句匹配问题

问题描述:语句匹配是自然语言处理的最基本任务之一,是自动问答,聊天机器人,信息检索,机器翻译等各种自然语言处理任务基础。语句匹配问题的复杂性在于,匹配的要求不同,对匹配的定义也不尽相同,比如经典的语句复述判别问题,需要判断两句话是否仅仅是表述方式不同,但意义相同,而在Quora的的的问句匹配语料发布后,大量在该语料库上开展的语句匹配研究工作都沿袭语料发布者的定义,称为语义等价判别,语...

2019-01-07 16:54:00 333

转载 FeatureTools

featuretools一种自动特征工程的工具。可快速生成较多类型的特征,取得不错的效果。1、输入:把原始数据转换成featuretools的输入2. 可以适当调整特征个数,防止训练的模型过拟合3. 训练和预测缺点:模型容易过拟合,需要Feature Selection参考文献:1.https://docs.featuretools.com/a...

2019-01-05 21:28:00 120

转载 Self Attention需要掌握的基本原理

字面意思理解,self attention就是计算句子中每个单词的重要程度。1. Structure通过流程图,我们可以看出,首先要对输入数据做Embedding1. 在编码层,输入的word-embedding就是key,value和query,然后做self-attention得到编码层的输出。这一步就模拟了图1中的编码层,输出就可以看成图1中的h。...

2018-12-28 22:16:00 423

转载 采用Google预训bert实现中文NER任务

本博文介绍用Google pre-training的bert(Bidirectional Encoder Representational from Transformers)做中文NER(Name Entity Recognition)第一步: git clonehttps://github.com/google-research/bert.git,存放在 bert文件中第...

2018-12-22 16:18:00 365

转载 自定义函数集合

#分词rls = ['?','!','“','”',':','…','(',')', '—','《','》','、','‘','’','"','\n','.', ';','#','【','】','\'',':','(','」','∠','+',',', '!','|', ]def cut_words(...

2018-12-12 17:31:00 105

转载 Transform Model

self attentionQ=K=V :输入一个句子,那么里面的每个词都要和该句子中的所有词进行attention计算,目的是要学习句子内部词之间的依赖关系,捕获句子的内部结构。首先,要build Q,K,V,对其进行线性变换 for example: dot,reshape, permute_dimensions然后,我们要对序列做mask,忽略填充部分的影响,一般ma...

2018-11-20 09:24:00 181

转载 To handling editor letter

一般崔稿信写法:Dear Editor:Sorry for disturbing you. We’renot sure if it is the right time to contact you to inquire about the status of oursubmitted manuscript. Ourmanuscript, "your manuscr...

2018-11-19 20:23:00 1087

转载 美团编程题

有一个X*Y的网格,小团要在此网格上从左上角到右下角,只能走格点且只能向右或向下走。请设计一个算法,计算小团有多少种走法。给定两个正整数int x,int y,请返回小团的走法数目。解法:把网格看做二维坐标,向下为正,向右为正:设f(m,n)代表从坐标(m,n)到坐标(0,0)的移动方法,则f(m,n)=f(m-1,n)+f(m,n-1)开始为f(0,0)=0,f(0,1)=1,f(...

2018-10-30 09:55:00 221

转载 招银笔试

客观题:1.数据库事务特性数据库事务概念:(Database Transaction),是指作为单个逻辑工作单元执行的一系列操作,要么完全执行,要么完全地不执行。四大特性:ACID 原子性、一致性、隔离性、持久性2.设计模式判断3.UDP4.自底向上动态规划,求解矩阵链乘法时间复杂度()5.IPV4同一子网主机IP地址是:6.虚拟内存与cache存储不同之...

2018-09-26 09:33:00 8216

转载 在linux中文件的权限讲解

1.d:directory(目录):表示这个文件是个目录,其他的还有f(file文件)等等; 2.r:read(可读) 3.w:write(可写) 4 x :execute(可执行)一般Linux文件或目录权限分为三个,用户,组和其它。每个都有三个权限rwx,即读,写,执行权限。权限的表示方法有两种,一是直观法,即直接用rwx表示,另外一种是二进制数值法,如:644,755等。读...

2018-09-17 10:54:00 86

转载 numpy版本查看以及升降

如题,参考:https://zhuanlan.zhihu.com/p/29026597pip show numpy 查看numpy版本;pip install -U numpy==1.12.0,降低numpy的版本numpy版本查看以及升降转载于:https://www.cnblogs.com/ylHe/p/9580973.html...

2018-09-03 20:53:00 2189

转载 面试--冒泡排序

冒泡排序原理:冒泡排序就是遍历数据,每次只与下一个数字比较,如果这两个数顺序不对,则与交换过来。(两个变量,两个数组边界)就上面那个问题来说,因为要升序排列,所以数字越大越排在后面。则两个数比较的时候,如果后一个数比当前数小,则顺序不对,要将这两个数交换。遍历的过程如下图:#假设变量已经全部定义好for i in range(len-1): f...

2018-08-15 11:12:00 182

转载 面试--二分查找

参加面试的时候常被提问到一个问题--请你解释一下二分查找我们用联想记忆法:该算法有两个名字(二分查找、折半查找)、优点三个(比较次数少、查找速度快、平均性能好)、缺点两个(待查找表为有序表、插入删除困难)。用数字表示就是232,图形表示就是=≠=(形容为 此二分非彼二分 )那么我们在面试的时候就可以这样表述:(面试的时候最好自带纸笔,原因不解释)用笔写出刚刚的=≠=的公式(原因是...

2018-08-14 20:41:00 125

转载 机器学习面试--一句话概括传统ML算法

机器学习过程主要包括:数据的特征提取、数据预处理、训练模型、测试模型、模型评估改进等几部分传统机器学习算法主要包括以下五类:回归:建立一个回归方程来预测目标值,用于连续型分布预测分类:给定大量带标签的数据,计算出未知标签样本的标签取值聚类:将不带标签的数据根据距离聚集成不同的簇,每一簇数据有共同的特征关联分析:计...

2018-07-25 18:44:00 225

转载 机器学习笔试--LeetCode

#########简单#########共25道:1.两数之和给定一个整数数组和一个目标值,找出数组中和为目标值的两个数。你可以假设每个输入只对应一种答案,且同样的元素不能被重复利用。示例:给定 nums = [2, 7, 11, 15], target = 9因为 nums[0] + nums[1] = 2 + 7 = 9所以返回 [0, 1]...

2018-07-21 15:29:00 183

转载 机器学习面试--决策树

d转载于:https://www.cnblogs.com/ylHe/p/9338051.html

2018-07-19 20:00:00 84

转载 机器学习面试--算法评价指标

机器学习分为三个阶段:第一阶段:学习模型。采用学习算法,通过对训练集进行归纳学习得到分类模型;第二阶段:测试模型。将已经学习得到的分类模型用于测试集,对测试集中未知类别的实例进行分类。第三阶段:性能评估。显然,通过测试集产生的分类未必是最佳的,这就导致对测试集的分类可能产生错误。而人们希望尽量得到信呢个最佳的分类模型,就是的对分类器性能评价至关重要。只...

2018-07-19 16:42:00 410

转载 机器学习面试--朴素贝叶斯

关键词:先验概率;条件概率和后验概率;特征条件独立;贝叶斯公式;朴素贝叶斯;极大似然估计;后验概率最大化; 期望风险最小化;平滑方法朴素贝叶斯分类的定义如下:1. 设 x = a1,a2, ...,am为一个待分类项,而每个a是x的一个特征属性。2.待分类项的类别集合C={y1,y2,...,yn}3. 计算 p(y1|x)...p(yn|x)4.如果p(yk|x) ...

2018-07-15 16:47:00 310

转载 Lecture 5

转载于:https://www.cnblogs.com/ylHe/p/NLP.html

2018-07-13 22:32:00 76

转载 word2vec

word2vec:低维向量的直接学习接下来,我们来看下Deep Learning是如何从原始的语料库中直接学习到低维词向量的表达。这也是我们学习的第一个Deep NLP模型——word2vec模型。AssignmentCBOW && skip-gram通俗理解负采样:转载于:https://www.cnblogs....

2018-07-10 22:35:00 72

转载 指派问题(匈牙利算法)

问题描述:在生活中经常遇到这样的问题,某单位需完成n项任务,恰好有n个人可承担这些任务。由于每人的专长不同,各人完成任务不同(或所费时间),效率也不同。于是产生应指派哪个人去完成哪项任务,使完成n项任务的总效率最高(或所需总时间最小)。这类问题称为指派问题或分派问题。指派问题也是0-1规划,线性规划用到的是官网scipy.optimize库函数。示例: cost matr...

2018-07-10 09:52:00 1161

转载 Neural Network Basics

在学习NLP之前还是要打好基础,第二部分就是神经网络基础。知识点总结:1.神经网络概要:2. 神经网络表示:第0层为输入层(input layer)、隐藏层(hidden layer)、输出层(output layer)组成。3. 神经网络的输出计算:4.三种常见激活函数:sigmoid:一般只用在二分类的输出层,因为二分类输出结...

2018-07-09 21:42:00 135

转载 Softmax && Cross-entropy Error

softmax 函数,被称为 归一化指数函数,是sigmoid函数的推广。它将向量等比压缩到[0, 1]之间,所有元素和为1.图解:Example:softmax([1, 2, 3, 4, 1, 2, 3]) =[0.024, 0.064, 0.175, 0.475, 0.024, 0.064, 0.175]Code:import numpy ...

2018-07-08 20:10:00 179

转载 Our Future

The world is betting on how to win the football game;But I'm betting on how to win your heart;Maybe I can't understand the team's lineup;But I can see our future. ...

2018-06-25 10:47:00 71

转载 SVD

PCA降维的大致思想就是: 挑选特征明显的、显得比较重要的信息保留下来。那么关键就是【特征明显的,重要的信息】如何选择? 选择标准有两个:1: 同一个维度内的数据,方差大的比较明显,因为方差大表示自己和平均水平差异大,有个性,降维后也最可能分的开~2: 两个不同维度间关联度越小越好,因为关联度小表示这两个维度表征共同信息的量比较少,最理想就是两个维度不相关,相关度为0(相关度...

2018-06-21 20:52:00 101

转载 Lecture2

共生矩阵:转载于:https://www.cnblogs.com/ylHe/p/9209339.html

2018-06-21 15:34:00 56

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除