深度学习
文章平均质量分 67
椒椒。
仙女学习,天使落泪。
展开
-
文本摘要生成评价指标——rouge
文本摘要生成评价指标学习原创 2023-03-15 16:42:51 · 3053 阅读 · 2 评论 -
端到端流式语音识别研究综述——语音识别(论文研读)
语音识别原创 2023-03-13 16:17:24 · 2396 阅读 · 2 评论 -
多模态信息抽取(二)——多模态预训练模型综述(上)
多模态论文研读原创 2022-09-09 15:45:00 · 1433 阅读 · 0 评论 -
多模态信息抽取(一)——融合知识图谱和多模态的文本分类研究(论文研读)
论文研读原创 2022-09-08 17:27:35 · 3654 阅读 · 3 评论 -
显著性目标检测(一)——与图像分割、目标检测的区别
显著性目标检测原创 2022-08-02 14:18:22 · 7623 阅读 · 0 评论 -
对比学习(一)-双塔模型-simCLR
对比学习中的双塔模型:通过学习simCLR的模型来学习对比学习的基本结构和原理。原创 2022-06-15 11:05:10 · 3600 阅读 · 0 评论 -
模型训练时,数据集划分:训练集 测试集 验证集
模型训练之数据处理-数据划分原创 2022-06-10 14:01:17 · 3700 阅读 · 0 评论 -
文本检测算法----DB、DBNet
表格文字识别转载 2022-06-06 16:03:13 · 250 阅读 · 0 评论 -
pip installl lap安装失败 error: Microsoft Visual C++ 14.0 or greater is required.
lap是使用Jonker-Volgenant算法求解稠密(LAPJV)或稀疏(LAPMOD)矩阵的线性分配问题求解器为了使用模块lap,结果pip install lap安装失败,命令行提示如下ERROR: Command errored out with exit status 1: command: 'D:\Anaconda3\envs\tensorflow\python.exe' -u -c 'import io, os, sys, setuptools, tokenize; sys.原创 2022-05-27 11:36:15 · 1822 阅读 · 2 评论 -
基于YOLOV5的DeepSort轨迹跟踪方法(一)
论文笔记:《基于YOLOv5和DeepSort的多目标跟踪算法研究与应用》-1YOLO系列基础知识作为一阶段经典算法,YOLO系列的算法由于省略了粗定位的过程,通过调整骨干网络可以实现速度比二阶段算法Faster-RCNN更快的性能。YOLO之前的检测算法都是基于分类器实现,例如滑动窗口在图片上滑动评估物体的存在。YOLO—次性计算包含边界框及每个边界框所属类别概率的输出,这个过程是一阶段、端到端实现的。本论文的研究内容主要基于YOLOv3和不同量级的YOLOv5展开。YOLO模型将原图分割成SxS原创 2022-05-26 10:53:35 · 2021 阅读 · 0 评论 -
DeepSort轨迹跟踪方法
由于SORT凭借交并比IOU进行识别判断的方式仅考虑了边界框之间的距离匹配而忽略了内容特征的匹配,易导致身份变换现象。DeepSort通过集成表观信息来降低ID-Switch发生频率。图2-8为DeepSort的流程图。从图中可以看出,DeepSort在Sort算法的基础上增加了级联匹配策略,同时考虑目标间距和特征相似度,并对新生成的跟踪轨迹采取验证机制以排除错误的预测结果。DeepSort的核心流程与Sort—致,沿用预测、观测、更新相结合的方式。DeepSort匹配过程分为几下几种情况:(1)卡尔.原创 2022-05-26 10:09:02 · 1035 阅读 · 0 评论 -
REID-轨迹跟踪任务中的ID一致性
要解决目标之间的重识别问题(Re-identification,RelD)。重识别是解决交叉摄像头图像匹配问题最直接的方法。目前RelD的研究和技术应用主要聚焦于行人重识别[28],用于在交叉视角下实现对指定行人的跨视域检索,属于图像检索的子任务,可用于无人超市、刑侦追缉、跟踪车辆等智能视频监控领域。在行人重识别领域,每个摄像机摄制的图像会形成一个包含各种目标在内的候选行人库,通常包含同一目标的多个视角图像。如图2-4所示,行人重识别通过输入指定的目标行人图像,在行人图像数据库中检索与输入图像具有相同特征.原创 2022-05-25 17:10:39 · 602 阅读 · 0 评论 -
改进的协同过滤推荐算法
1、推荐算法的发展随着互联网的快速增长,为了给用户提供更精准的服务,用户数据规模将大规模增长。而这些用户数据中包括用户个人信息,浏览记录、消费历史等数据,为了避免数据的大规模浪费,造成“信息过载”问题[1],推荐系统孕育而生。推荐系统于1990年被首次提到,而协同过滤于1992年被首次提出,随着推荐系统的不断发展,推荐系统与云计算、大数据相结合使用,随后在深度学习的热潮之下,2016年开始,推荐系统与深度学习相结合来进行使用。目前推荐系统已经成为许多电子商务和多媒体平台的内核,个性化推荐服务能够帮助原创 2022-05-23 14:08:25 · 2454 阅读 · 0 评论 -
PP-LCNet: 一个轻量级的卷积神经网络
一、PP-LCNet: 一个轻量级的卷积神经网络我们提出了一个基于MKLDNN加速策略的轻量级卷积神经网络,叫做PP-LCNet,他是一个能够用于多任务的轻量级模型。这篇论文提出了一些能在保持延迟不变的情况下提高模型准确率的方法。在这些优势的加持下,PP-LCNet与之前预测速度差不多的模型相比更加准确。对于计算机视觉的一些下流任务(指具体应用),比如目标检测、语义分割等,该模型效果也很好。我们的实验是基于PaddlePaddle实现的可以直接在飞桨查看相关的项目事例。二、模型提出的原因轻量级网络模型原创 2022-05-05 14:29:41 · 3209 阅读 · 0 评论 -
目标检测——数据获取和标注(一)
目标检测的任务目标检测主要是针对图像视觉的一种方法,根据学习到的目标,将目标区域进行位置定位和类别识别,同时需要给出给目标的置信度。如下图所示,输入一张图片,它能够通过目标检测方法,识别出汽车的位置(坐标信息),并给予瞄框,并标注出类别名称,及其置信度值为{0,1}范围内的一个数值。数据集的获取拍摄照片是,需要注意进行多方位的拍摄,采用不同的角度,不同的背景来进行拍摄,同时需要注意数据的多样性。数据集下载数据集:自行车数据集数据集下载:数据集下载数据集的标注使用:labelm原创 2022-04-21 16:49:52 · 4656 阅读 · 0 评论 -
Mobilenet——深度可分离卷积
mobilenet的设计初心在深度学习的道路上,为了满足越来越多的企业和用户的需求,模型的结构越来越复杂,模型的计算量越来越大,模型也越来越庞大。而对于嵌入段和移动端而言,在大小受限的情况下,就需要对模型提出了要求,需要小巧而高准确率的模型。基于此,有两种解决办法:一种就是对已经训练好的模型进行压缩,得到小的模型;另一种就是重新设计小的模型来进行训练。而mobilenet就是其中的第二种,它的独特之处就在于深度可分离卷积。深度可分离卷积也在mobilenet网络中首次被提出。深度可分离卷积的意义所在原创 2022-04-08 10:31:09 · 3711 阅读 · 0 评论 -
自然语言处理github项目
自然语言处理github项目:https://codechina.csdn.net/mirrors/nlp-love/ml-nlp?utm_source=csdn_github_accelerator转载 2021-06-10 17:16:01 · 354 阅读 · 0 评论 -
tensorflow2.0 和tensorflow1.0的区别
tensorflow2.0 和tensorflow1.0 到底有什么区别,之前被问过,自己也没想过。看了一些文章,主要有以下一些点。tensorflow2.0 和tensorflow1.0的区别一、tensorflow2.0 与tensorflow1.0的性能区别二、TensorFlow 1.x的历史背景三、模型结构一、tensorflow2.0 与tensorflow1.0的性能区别https://blog.csdn.net/luoganttcc/article/details/93497326原创 2020-10-06 19:23:41 · 22966 阅读 · 0 评论 -
TensorFlow入门:TensorFlow工作原理
TensorFlow1、工作原理2、TensorFlow计算模型一一计算图3、TensorFlow数据模型——张量4、TensorFlow运行模型——会话1、工作原理工作原理:使用数据流图来进行数值计算,而数据流图是描述有向图的数值计算过程,在有向图中,节点表示为数学运算,边表示运输多维数据,节点也可以被分配到计算设备上从而实现并行的执行操作。2、TensorFlow计算模型一一计算图TensorFlow计算模型一一计算图(1)计算图的概念TensorFlow 的名字中己经说明了它最重要的两个原创 2020-10-06 18:57:59 · 1773 阅读 · 0 评论 -
深度学习中Dropout--原理-超详解
深度学习中Dropout-1 dropout简介1.1dropout出现的原因1.2 什么是dropout2 dropout工作流程及其使用2.1dropout具体工作流程2.2 dropout在神经网络中的使用1 dropout简介1.1dropout出现的原因在机器学习的模型中,如果模型的参数太多,而训练样本又太少,训练出来的模型很容易产生过拟合的现象。在训练神经网络的时候经常会遇到过拟合的问题,过拟合具体表现在:模型在训练数据上损失函数较小,预测准确率较高;但是在测试数据上损失函数比较大,预测准原创 2020-08-20 22:28:00 · 395 阅读 · 1 评论 -
卷积函数一般都是线性的,卷积层后会跟一个非线性的函数
1、卷积函数一般都是线性的,卷积层后会跟一个非线性的函数,relu是非线性激活函数。2、一个已经训练好的模型,可以使用微调来进行模型的训练。只对最后几层网络进行调参。3、池化算法比如取最大值/取平均值等, 都是输入数据旋转后结果不变, 所以多层叠加后也有这种不变性。4、卷积核越大,特征越多,参数也就越多,性能会不断下降,所以才会有小卷积代替答卷记得做法。5、如果增加多层感知机(Multilayer Perceptron)的隐藏层层数,分类误差便会减小。这种陈述正确还是错误?隐藏层的数量增加会导致原创 2020-08-20 22:23:18 · 2890 阅读 · 0 评论 -
防止过拟合的方法
深度学习中,以下哪些方法可以降低模型过拟合?时光_清浅头像时光_清浅放置模型过拟合:1.引入正则化(参数范数惩罚)2.Dropout3.提前终止训练4.增加样本量5.参数绑定与参数共享6.辅助分类节点(auxiliary classifiers)7.Batch Normalization...原创 2020-08-20 22:22:25 · 286 阅读 · 0 评论 -
深度学习中的激活函数需要具备的属性
激活函数需要具备的属性:1. 非线性:2. 几乎处处可微:3. 计算简单:4. 非饱和性(saturation):5. 单调性(monotonic):6. 输出范围有限:7. 接近恒等变换(identity):8. 参数少:神经网络中激活函数的真正意义?一个激活函数需要具有哪些必要的属性?还有哪些属性是好的属性但不必要的?1. 非线性:即导数不是常数。这个条件是多层神经网络的基础,保证多层网络不退化成单层线性网络。这也是激活函数的意义所在。2. 几乎处处可微:可微性保证了在优化中梯度的可计算性。传原创 2020-08-20 21:25:47 · 4775 阅读 · 0 评论 -
对于机器学习中L1,L2正则化的理解--数据挖掘面试
本人对于正则化l1和l2的理解:首先,什么是L1,L2正则化:L1正则化就是对各个特征系数的绝对值之和;L2正则化就是对各个特征系数的平方和再求平方根;L1,L2正则化有什么作用?一般来说:L1:L1可以通过构建稀疏权重矩阵来进行特征选择。一般来说,我们在进行特种选择时,特征过多,有的特征特别稀疏,对于那些稀疏的特征,其实对于总的特征选择而言影响并不大,所以,为了选择关键特征,可以l1来对那些系数特征进行过滤,使用l1构造系数矩阵,这样就可以去除那些稀疏特征,起到一个特征选择的作用。当l1正原创 2020-07-24 17:08:58 · 172 阅读 · 0 评论 -
数据挖掘-之-面试-过拟合-欠拟合
拟合我们在进行·计算时,都会得到一个实际的操作值,也就是实际值,我们设为x,其次有一个是函数的真实值,我们设定为y,我们通过自己是假设一个函数f来进行计算求解得到x,最终目的就是希望x与y尽可能地接近,如果他们之间越接近就说明设定的函数越好,模型越优秀效果越好。因此,这里的拟合,就是一个x与y之间是否无限接近的一个状态。因此拟合,会存在这样的三种状态:过拟合,欠拟合,刚刚好。(怎么样,是不是已经有感觉了)。如图所示:(别人那儿找的一些图)欠拟合:模型表现太差,可能是获取的特征太少,模型无法很好地原创 2020-07-17 19:01:55 · 496 阅读 · 0 评论 -
百度提前批面试之-数据挖掘-负采样
负采样什么是负采样?负采样就是:自然语言处理领域中,判断两个单词是不是一对上下文词(context)与目标词(target),如果是一对,则是正样本,如果不是一对,则是负样本。采样得到一个上下文词和一个目标词,生成一个正样本(positive example),;生成一个负样本(negative example),则是用与正样本相同的上下文词,再在字典中随机选择一个单词,这就是负采样(negative sampling)。负采样的优点:负采样这个点引入word2vec非常巧妙,两个作用:1.加原创 2020-07-17 17:16:34 · 307 阅读 · 0 评论 -
百度提前批-面试凉凉之-梯度下降
说实话,我真的觉得自己脑子不好使,也是恒自己啊,之前我学过的,但是自己没记牢,难受,问道这个关羽梯度下降的问题,我就勉强答了一个随机梯度下降。怎么说呢,我面试的这个岗位是:数据挖掘,也是我投简历后收到的第一个面试通知,百度提前提,自己确实是没啥时间准备,之前也是忘得差不多了,这次面试我是懂得了,确实把,这个基础真的是很重要的,一些简单的概念是要要牢牢记住的,至少面试前一定要牢牢记住的。我这次面试感觉一点儿都不好,好多本来自己可以回的没结果也没答对,怪我自己,心里确实不是滋味的。加油吧。梯度下降:什么原创 2020-07-17 17:04:02 · 203 阅读 · 0 评论 -
二叉树-详解二叉排序树
转:转先序:中序:后序:https://blog.csdn.net/qq_33243189/article/details/80222629序列遍历 见链接原创 2020-05-20 17:41:31 · 97 阅读 · 0 评论 -
阅读《 Sentiment Classification Based on Part-of-Speech and Self-Attention Mechanism》
Sentiment Classification Based on Part-of-Speech and Self-Attention Mechanism2020.1KEFEI CHENG 1 , YANAN Y摘要:目前,各种基于注意的神经网络在情感分类任务中取得了成功,因为注意机制能够更多地关注那些对情感极性预测有贡献的词。 然而,这些方法的主要缺点是它们只注重词语,而忽略了词性中包含...原创 2020-04-18 16:51:36 · 901 阅读 · 1 评论 -
ImportError: cannot import name Merge
MergeKeras +2不支持。相反,您需要使用:Concatenate图层:merged = Concatenate()([x1, x2])或它是等效的功能接口concatenate(以小写字母开头c):merged = concatenate([x1,x2])...原创 2020-03-03 17:35:27 · 527 阅读 · 1 评论 -
【Tensorflow】ValueError: The `kernel_size` argument must be a tuple of 1 integers. Received: [3, 3]
https://blog.csdn.net/bpp94_github/article/details/81510279原创 2020-03-03 16:36:01 · 3330 阅读 · 0 评论 -
Capsule:Dynamic Routing Between Capsules
1、文章2、文章3、文章原创 2020-01-07 13:22:41 · 196 阅读 · 0 评论 -
wordnet同义词集计算
wordnet来进行词义消歧原创 2020-01-06 23:27:33 · 376 阅读 · 1 评论 -
自然语言处理之:命名实体识别-3
自然语言处理之:命名实体识别-3使用机器学习工具包进行命名实体识别使用词性标注进行命名实体识别:如果使用了词性标注,那么使用词性信息可以识别出命名实体,用NNP标记标注的标识符,就是命名实体。例子1import nltkfrom nltk import pos_tag, word_tokenizeprint(pos_tag(word_tokenize("John and Sm...原创 2020-01-06 22:54:32 · 470 阅读 · 0 评论 -
自然语言处理之:命名实体识别-2
使用隐马尔可夫进行命名实体识别代码实现:import nltknltk.tag.hmm.demo_pos()在进行命名实体效果评价时,可以采用:P F1 R 值来进行评价。原创 2020-01-06 22:04:43 · 185 阅读 · 0 评论 -
自然语言处理之:命名实体识别-1
命名实体识别NER命名实体识别是定位文档中的专有名词或命名实体的过程,而且这些不同的命名实体被分成了不同的类别,如:人名,地名,机构名等。2008年定义的命名实体标签集有12个,描述如下:NER的关键是信息提取,通过存储元组(实体,关系,实体)来实现信息提取,就可以抽取到实体。可以使用斯坦福标注器来实现NER。如果命名实体存在,就用NE标记来标注。import nltknltk...原创 2020-01-06 21:59:04 · 429 阅读 · 0 评论 -
自底向上的语法分析
在看书的时候无意中看到的,希望对大家有用吧。自底向上句法分析转载 2020-01-06 17:47:34 · 322 阅读 · 0 评论 -
胶囊网络-多标签文本分类
胶囊网络在文本分类中效果显著,但也有实验更进一步表明,胶囊网络在多标签文本分类中,效果更佳。论文《Investigating Capsule Networks with Dynamic Routing for Text Classifification 》论文链接:论文下载点此处...原创 2020-01-03 15:00:14 · 1317 阅读 · 0 评论 -
动态路由胶囊网络来进行文本分类Investigating Capsule Networks with Dynamic Routing for Text Classifification
https://www.cnblogs.com/d0main/p/10161252.html转载 2020-01-03 14:54:42 · 552 阅读 · 0 评论 -
GPT模型:Improving Language Understanding by Generative Pre-Training
https://blog.csdn.net/ACM_hades/article/details/88899307转载 2019-12-30 10:22:43 · 334 阅读 · 0 评论