高级计算机视觉实验—使用词袋模型进行场景识别(Scene Recognition with Bag of Words)

完整代码在GitHub - FchZero/Advanced_computer_vision 

一、实验原理:

本次实验是基于词袋模型的图像分类技术,利用提取的局部区域的分布对图像进行识别。在图像分类中,词袋模型算法需要通过监督或非监督的学习来获得视觉词典。基于词袋模型的图像分类算法一般分为四步,首先对图像进行局部特征向量的提取(本次实验采用HOG);其次利用上一步得到的特征向量集,抽取其中有代表性的向量,作为单词,形成视觉词典(本实验采用K-means聚类算法);然后对图像进行视觉单词的统计,一般判断图像的局部区域和某一单词的相似性是否超过某一阈值,这样即可将图像表示成单词的分布,即完成了图像的表示;最后设计并训练分类器,利用图像中单词的分布进行图像分类(本实验采用KNN分类算法和线性SVM多分类算法)。

二、实验目的:

本实验的目的是对15个场景数据库进行场景识别,对它们进行训练和测试。对于给定的训练集和测试集的图像,处理其图像特征和构建分类器,图像特征表示和分类器构建的组合有五种,分别为随机生成的(图像特征没有经过处理以及没有对应的分类器)、微小图像特征和KNN分类器、微小图像特征和线性SVM分类器、单词特征包和KNN分类器以及单词特征包和线性SVM分类器。

三、实验内容:

分别利用Tiny+KNN和Bags of Words(SIFT)+SVM实现对场景的分类,并且比较不同特征和不同分类方法对最终精度的影响。

四、实验数据及结果分析:

1、Tiny+KNN(FEATURE = 'tiny image'、CLASSIFIER = 'nearest neighbor'):

准确率为19%

2、Bags of Words (SIFT) + SVM(FEATURE = ' bag of words'、CLASSIFIER = ' support vector machine'):

准确率为71.1%

完整代码在GitHub - FchZero/Advanced_computer_vision 

  • 3
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
实体识别(Named Entity Recognition,NER)是自然语言处理中的一个重要任务,目的是从文本中识别出具有特定意义的实体,例如人名、地名、组织机构名等。深度学习模型已经在实体识别任务上取得了很好的表现。 一般来说,深度学习模型的实体识别流程包括以下几个步骤: 1. 数据预处理:将原始文本转换为模型能够处理的格式,例如将文本转换为向量表示。 2. 模型选择:选择合适的深度学习模型,例如基于循环神经网络(RNN)的模型、基于卷积神经网络(CNN)的模型或者基于Transformer的模型。 3. 模型训练:使用标注好的数据对模型进行训练,优化模型参数,使得模型能够准确地识别实体。 4. 模型评估:使用测试集对训练好的模型进行评估,计算其准确率、召回率和F1值等指标。 5. 模型部署:将训练好的模型部署到实际应用中,例如在文本编辑器中实现实体识别功能。 常用的深度学习模型包括基于循环神经网络(RNN)的模型,例如长短时记忆网络(LSTM)和门控循环单元(GRU)等,这些模型通过学习序列之间的依赖关系,能够很好地处理文本序列数据。另外,基于卷积神经网络(CNN)的模型也被广泛应用于实体识别任务中,例如卷积神经网络和循环卷积神经网络(RCNN)等。近年来,基于Transformer的模型也被证明在实体识别任务中具有很好的性能,例如BERT和XLNet等。 总之,深度学习模型在实体识别任务中具有很好的表现,可以通过选择合适的模型和优化模型参数,提高实体识别的准确率和效率。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

FchZero

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值