人工智能
文章平均质量分 76
FL1623863125
程序员的每日一拱!
平常喜欢分享项目实践经验,知识点,实战项目,欢迎留言,评论,沟通交流,一起进步。
吾等采石之人,当心怀大教堂之愿景。
愿我们奔赴在自己的热爱里!
展开
-
Mac中使用virtualenv和virtualenvwrapper
在使用Python开发的过程中,工程一多,难免会碰到不同的工程依赖不同版本的库的问题;亦或者是在开发过程中不想让物理环境里充斥各种各样的库,引发未来的依赖灾难。因此,我们需要对于不同的工程使用不同的虚拟环境来保持开发环境以及宿主环境的清洁。而virtualenv就是一个可以帮助我们管理不同Python环境的绝好工具。virtualenv可以在系统中建立多个不同并且相互不干扰的虚拟环境。我们刚才了解了virtualenv,我觉得比较麻烦,每次开启虚拟环境之前要去虚拟环境所在目录下的bin目录下source。原创 2023-11-12 16:00:00 · 348 阅读 · 0 评论 -
FM模型与POLY2模型
互联网数据通常使用one-hot编码除了类别型数据,从而使特征向量极度稀疏,POLY2模型做无选择的特征交叉,使得特征向量更加的稀疏,导致大部分交叉特征的权重缺乏有效的数据进行训练,无法收敛。在特征交叉的时候,使用两个特征向量的内积作为交叉特征的权重。但是需要注意的是,这里有点像暴力求解一样,忽视或者说省去了人工先验的部分,直接做到了所有特征之间的交叉,然后去求解对应的参数就可以。为了解决特征交叉的问题,我们一般可以人为的加入一些自己的先验信息,比如做一些特征之间的交互,不过这个很需要人们的经验。原创 2023-11-12 10:30:00 · 124 阅读 · 0 评论 -
WDL在贝壳中的应用实践总结
就会出现训练样本分布和线上真实分布不一致的情况,那么你现在训练的模型究竟在线上真实环境能不能有好的提升,就看模型在真实数据上的评估情况了。比如价格,是一个长尾分布,这就导致大部分样本的特征值都集中在一个小的取值范围内,使得样本特征的区分度减小。在我自己的应用中,对WDL模型做了一个简单的修改,加入了多模态(图片加标题)的特征,效果比单纯的xgboost要提升不少。一般来说,负样本,也就是未点击的房源肯定是更多的。在我们的业务场景下,用户在不同时间对同一房源可能会存在不同的行为,导致采集的样本中有正有负。原创 2023-11-11 15:00:00 · 213 阅读 · 4 评论 -
什么是记忆能力与泛化能力
我们先说记忆能力,从中文的角度理解,记忆能力就是之前做过的事情,在后面做同样的事的时候会利用到之前的经验和教训。进一步,记忆能力就是对之前学习到的经验或者说规律的遵守。原论文是这么说的:从历史数据中学习共现的物体/特征组合—>这就对应到上面谈到的经验规律在预测的时候利用到这种学习到的这种相关性—>这就对应到上面谈到的对经验的遵守。在这里,我想提一下,在第一点中提到的 “学习共现的物体/特征组合” 的主体是谁?最开始我认为是模型,后来认为不是。原创 2023-11-11 10:30:00 · 243 阅读 · 0 评论 -
实体库构建:大规模离线新词实体挖掘
举个最简单的例子,可能你挖掘出来的就是“爷青结”这样的词汇,确实是新词,不在我们已经有词典中,但是对于我们的实体库有没有帮助呢?如果说我们的目的是为了分词的准确,那么这个新词完全可以用,直接放到txt文件中,保证下回分类的准确。但是在这里,我们是做的事情是为了补充实体库,也就是需要有意义的词汇,比如说“外滩十八号”这种词汇。如果你是个大搜的搜索日志,这种情况基本不存在的,有长短语,有短的词汇,你找交集的阈值都无从下手。所以,普通的新词发现的有监督和无监督方法只能挖掘词汇,不能保证挖掘的是实体。原创 2023-11-10 15:30:00 · 151 阅读 · 0 评论 -
关键词提取方法综述
相比于TF-IDF,TextRank考虑了词与词之间的关系(提取思想就是从窗口之间的词汇关系而来),但是缺点是它针对的是单个文本,而不是整个语料,在词汇量比较少的文本中,也就是短文中,效果会比较差。使用位置特征是我们基于文本关键词出现的位置是在大量数据的情况下是有规律可言的,比如微博文本中出现在##符号中部分词汇有很大概率就是文本的一个关键词。比如说,”今天这顿烧烤是真不错啊“,在这句话中,”烧烤“这个词就可以被认为是一个关键词,或者说这个句子的一个标签。对于抽取式,就是从现有的数据中拿出来词组。原创 2023-11-10 10:30:00 · 260 阅读 · 0 评论 -
基于词典的正向最大匹配和逆向最大匹配中文分词
还有一个方面是大的方面,就是我现在5个单词迭代完了,比如找到了一个长度为2的在字典中的词(需要注意的是如果没有在字典中,那么长度就是1的单字就可以加进去了),然后我要做的就是把这两个单词之后的字段作为输入,再重复上面这个过程,这个是大的方面,是另一个While循环。在写代码的时候,我自己觉得从两个方面来掌握,一个是从小方面,怎么讲,就是比如说我的字典最大的长度是5个单词,我在5个单词迭代的去找有没有在字典的中的词,这是一个while循环。然后逐渐去掉右边一个单字,去查看剩余文本在字典是否存在,依次迭代。原创 2023-11-09 15:00:00 · 624 阅读 · 0 评论 -
文本和图像特征表示模块详解-多模态讲解系列
也就是说做一个文本到图像的attention,然后做一个图像到文本的attention,两者再concat,效果会更好。基于此,大家可以想一下,如果我使用bert做了文本情感分析的FineTune,然后抽取的特征做文本分类,效果会好吗?RNN存在的问题是训练速度慢,这没什么可说的,不能并行是硬伤。FineTune的任务和我LR要做的是一样的,那么bert抽取的特具有充足的意义表达,能够很好的迁移过来。对于文本特征的表示,我们这么去想:对一个视频,我们能够想到的文本一般是:标题+简介+字幕。原创 2023-11-09 10:30:00 · 272 阅读 · 0 评论 -
如何将多模态数据融入到BERT架构中-多模态BERT的两类预训练任务
在多模态场景下,对MLM任务,需要分为两个方向,一个是对文本的重建,称之为Masked Language Modeling (MLM),一个是对图像的重建,称之为Masked Region Modeling(MRM);文本和图片是conditional mask,就是说我在mask文本的时候,保持图片是完整的,在mask图片的时候,保持文本是完整的;其实很简单,NSP任务本质上是做句子间的关系,那么我们只需要类比的做一个图片和文本之间是否匹配的任务就可以了,也就是ITM任务;原创 2023-11-08 14:00:00 · 260 阅读 · 0 评论 -
复盘多模态需要解决的6个问题
这个方法可以可视化出文本和图片之间确实是有交互的,而且交互的部分是有意义的,比如有的单词就是对图片中的某个部分更加关注;我简单分享一下我的主体思路,文本过的BERT,图像过的Resnet,然后输出的两个表征向量之间做多头注意力,然后接全连接输出logits;但是我在真正去做的时候,并没有按照这个思路去做,我是先按照自己的思路做了个baseline,然后有效果,之后再去看论文架构提升模型效果;架构其实很简单,但是在真正去做的时候,真的是比较复杂,有很多细节,我在这里简单的梳理一下,一起探讨;原创 2023-11-07 16:00:00 · 185 阅读 · 0 评论 -
多模态中各种Fusion方式汇总
多模态中各种Fusion骚操作大噶好,我是DASOU;今天继续写多模态系列文章,对多模态感兴趣的可以看我之前的文章:今天我主要放在第二个部分,也就是各个模态的Fusion方式汇总;Fusion做的事情简单来说就是把不同模态的信息整合为一个信息,得到一个特征向量,然后利用这个特征向量再去做下游任务;所以它的任务就是更深的挖掘不同模态信息同时更好的融合进最终的representation;原创 2023-11-07 10:45:00 · 489 阅读 · 0 评论 -
多模态之ViLBERT:双流网络,各自为王
我之前写了两个多模态基础的文章,没看过的同学可以先看看这两个文章:分别是和;原创 2023-11-06 16:17:18 · 308 阅读 · 0 评论 -
层次分类体系的必要性-多模态讲解系列
就拿爱奇艺举例子吧,在头部顶栏,一般会有不同类型,比如电影,综艺,电视剧等等的划分。如果我们做一个单独的文本算法,我们会对此打上“科技”或者“美食”的标签。这个时候,如果有图片,图片内容是“真正的苹果的图片”,那么此博文的类别标签就是“美食”。举个简单例子,比如你最近准备考公务员,那么对你的一个短期兴趣对应的标签就是“教育”(我自己定的,可能不同公司不同分法)这个一级标签。并没有,如果按照“教育”这个标签的内容推荐给你,比如除了公务员的内容,还会大量推给你“计算机培训”这种东西,你很大概率是不感兴趣的。原创 2023-11-06 16:16:26 · 113 阅读 · 0 评论 -
史上最全词向量面试题梳理
nlp中的词向量对比:word2vec/glove/fastText/elmo/GPT/bert - JayLou娄杰的文章 - 知乎。史上最全词向量讲解(LSA/word2vec/Glove/FastText/ELMo/BERT) - 韦伟的文章 - 知乎。word2vec详解(CBOW,skip-gram,负采样,分层Softmax) - 孙孙的文章 - 知乎。Word2Vec详解-公式推导以及代码 - link-web的文章 - 知乎。关于word2vec,我有话要说 - 张云的文章 - 知乎。原创 2023-10-29 11:45:00 · 166 阅读 · 0 评论 -
灵魂20问帮你彻底搞定词向量
还是那个例子,句子为"我/永远/爱/中国/共产党",中心词为’爱’,我们在选择噪声词的时候,选择了K个,但是实际上,在词汇表中,排除掉’我’,‘永远’,‘中国’,‘共产党’ 这四个词汇的其他词都可以算做我的噪声词,然而为了减少复杂度,我只选择了其中的K个,所以当然应该是近似了。对于输入层,对应的是窗口中的单词,也就是例子中"我",“永远”,“中国”,“共产党” 四个词的词向量,在投影层,将四个词的词向量进行相加求平均,输出层在没有优化的前提下,维度为词表大小,随后做 Softmax即可。原创 2023-10-28 11:30:00 · 100 阅读 · 0 评论 -
word2vec两种优化方式的联系和区别
负采样近似训练,把复杂度限制在了k个噪声词,层序softmax也属于近似训练,在它的条件概率中,不断的二分类,涉及到的是能够达到背景词的那个路径上的非叶子结点,也就是没涉及到其他节点,这一点和负采样很类似,都是从全部词汇降低复杂度,只不过负采样是被k限制,层序是被路径编码限制(0,1,1,1,0)这种限制住。仔细看,在分母涉及到了一个V,这里的V就是我们的词典大小。仔细看这个公式,V已经消失,取而代之的是K,也就是我们的噪声词的数量,换句话讲,我们的复杂度被K这个大小限制住了,降低为了O(|K|)原创 2023-10-27 12:30:00 · 151 阅读 · 0 评论 -
Fasttext解读(1)
我举个简单的例子,不一定准确,“我/爱/中国/共产党”,我在更新的时候,把’我’,‘爱’,‘中国’,'共产党’我们都使用同一个参数来代表(这种情况很难遇见,理解一下就好),那么在更新训练参数的时候,我只需要更新一个参数就把这个四个词都更新了,当然会快一点。在这里还想说一下,word2vec中的叶子节点也就是词向量更新之后我们最后是要的,但是对于fasttext其实不会用到这个,因为我们是对文本进行分类,只需要保存了模型权重在预测的时候可以预测就可以了。对应到中文,应该对应的是分词之后的词,而不是字。原创 2023-10-27 11:15:00 · 134 阅读 · 0 评论 -
原版Transformer的位置编码究竟有没有包含相对位置信息
Transformer 原版的位置编码也就是正余弦函数编码,表达的是绝对位置信息,同时包含相对位置信息。但是经过线性变化,相对位置信息消失。基于此,需要对位置编码进行优化。原创 2023-10-26 08:30:00 · 211 阅读 · 0 评论 -
谈一下相对位置编码
谈一下相对位置编码RPR经过线性变化之后,正余弦函数表示的相对位置信息消失,所以需要优化。一般来讲,谈到优化,三种比较有名:RPR;我在这个文章简单讲一下RPR。老样子,不涉及到公式推导,尽量把我的理解讲出来。原创 2023-10-26 09:45:00 · 124 阅读 · 0 评论 -
谈一谈Decoder模块
K/V矩阵的计算不是来自于某一个单词的输出,而是所有单词的输出汇总计算K/V矩阵。也就说,训练的时候,你的模型是基于知道这个时刻后面的单词进行的训练,但是测试的时候,做机器翻译,你不知道自己应该翻译出来什么东西。如果我们没有mask,模型也是可以运行的,也就说此时”吃“和”苹果“两个词对”爱“这个时刻的输出是有贡献的。当前时刻是”爱“这个单词作为输入的一部分,另一部分是上一个时刻”我“作为输入的时候的输出值。这一块需要注意的就是之前文章提到的,Q矩阵来自本身,K/V矩阵来自encoder的输出。原创 2023-10-25 16:45:00 · 110 阅读 · 0 评论 -
史上最全Transformer面试题
Transformer 原版的位置编码也就是正余弦函数编码,表达的是绝对位置信息,同时包含相对位置信息。但是经过线性变化,相对位置信息消失。基于此,需要对位置编码进行优化。整个Transformer这一块基本就是讲完了,基本上可以解决之前那个关于transformer面试题百分之八十的题目。至于剩下的题目会放在之后别的模块去讲,比如 wordpiece model 会在总结机器翻译知识点的时候写一下,然后 GPT 会在总结词向量知识点的时候写一下。欢迎大家关注微信公众号: NLP从入门到放弃。原创 2023-10-25 11:00:00 · 1079 阅读 · 0 评论 -
VIT-如何将Transformer更好的应用到CV领域
在CV领域,CNN一直是主流模型;TRM的最核心的一点就是自注意力机制,把这点借鉴到CV来说,一个最简单的想法就是我把每个像素当做是一个token,然后作为序列输入;那么就是对每个token之间都做了多头注意力机制;假设我们的图像大小是2242241,那么序列长度就是50176,相当于BERT最大长度的512的100倍左右,这个参数量肯定是不能承受的;针对这种情况,我们怎么处理呢?这个问题,本质上是去解决随着像素增加,复杂度平方级增长的问题;原创 2023-10-24 09:30:00 · 99 阅读 · 0 评论 -
NLP任务中-layer-norm比BatchNorm好在哪里
NLP任务中,layer-norm比BatchNorm好在哪里本文主要是讲一下,为什么NLP任务中,比如Transformer,使用LayerNorm而不是使用BatchNorm这个问题其实很有意思,理解的最核心的点在于:为什么LayerNorm单独对一个样本的所有单词做缩放可以起到效果。大家往下慢慢看,我说一下我自己的理解,欢迎大佬拍砖,如果觉得我说的还行,点个在看鼓励一下。原创 2023-10-24 10:45:00 · 264 阅读 · 0 评论 -
BN踩坑记--谈一下Batch Normalization的优缺点和适用场景
BN的过程,使用 整个batch中样本的均值和方差来模拟全部数据的均值和方差,在batch_size 较小的时候,效果肯定不好。其次在测试的时候,遇到一个样本长度为1000的样本,在训练的时候最大长度为600,那么后面400个单词的均值和方差在训练数据没碰到过,这个时候怎么办?举个最简单的例子,比如 batch_size 为10,也就是我有10个样本,其中9个样本长度为5,第10个样本长度为20。这个文章写的很好,推荐,从BN的特点(ICS/梯度饱和),训练,测试以及损失函数平滑都讲了一下。原创 2023-10-23 11:47:33 · 345 阅读 · 0 评论 -
3分钟从零解读Transformer的Encoder
大概会花一到两周的时间,把 transformer 系统的讲一遍,可能会涉及到到 Bert/GPT 的一些基本知识,每天只讲一个知识点。所有的关于NLP知识的文章都会放在下面这个仓库,大家快去看。预告一下明天内容,是关于transformer位置编码的讲解,很多同学对位置编码这个概念很模糊,只是知道是正余弦函数,别的就不太清楚,我们之后花几篇文章好好聊一聊这个概念。这个已经更新在github,想看的朋友可以提前去看一哈。原创 2023-10-23 11:47:01 · 202 阅读 · 0 评论 -
为什么Bert做不好无监督语义匹配
高频离原点近,低频离原点远高频分布紧密,低频分布稀疏这两个现象的存在导致Bert的语义信息不能很好的表达出来,所以做语义相似度不好。一个解决办法,就是把Bert的向量空间转换到另一个更加合适的空间,然后再做相似性度量,这就是论文的另一部分,感兴趣的可以去看原论文吧。为啥相似度都很大,主要是因为高频词都挤在一块了。原创 2023-10-19 10:30:00 · 160 阅读 · 0 评论 -
解决老大难问题-如何一行代码带你随心所欲重新初始化bert的某些参数(附Pytorch代码)
missing_keys:就是我们自己定义的模型有哪些没在预训练模型中,比如我们的模型现在是 BertForSequenceClassification ,那么这里结果就是 [‘classifier.weight’, ‘classifier.bias’]有的论文发现,bert越靠后面(越靠近顶层,也就是输出层),学到的知识越是笔记抽象高级的知识,越靠近预训练模型的任务情况,和我们自己的任务就不太相符,所以想要重新初始化,基于我们自己的任务从零学习。但是我们有些时候会遇到这种情况,比如说,之前文章提到的,原创 2023-10-18 11:00:00 · 161 阅读 · 0 评论 -
NLP中的XLNET
说一下值得注意的点,主要就是双流自注意力机制这里很有意思,在初看图的时候很容易看混。这么理解会更加的方便,对于同一个token,在预测自身的时候,它需要向外提供自己的位置信息,在预测别的单词的时候,它需要对外提供全部信息。所以一个好办法就是把内容信息和位置信息分隔开对外提供。原创 2023-10-17 15:00:00 · 247 阅读 · 0 评论 -
UniLM:给Bert插上文本生成的翅膀
联合训练三种任务:单向LM,双向LM,序列LM使用不同的attention矩阵控制三种任务形式的参与segment embedding可以区分不同的任务形式mask的时候15% 的有被替换的概率,其中80% 被真正替换。在这80%真正替换的里面有80%单个token被替换,20%的二元或者三元tokens被替换。原创 2023-10-17 09:00:00 · 146 阅读 · 0 评论 -
tBERT-BERT融合主题模型
【CLS】向量拼接两个句子各自的主题模型,效果有提升尤其是在特定领域的数据集合会有更好的表现。说一下我自己的思考,关于特定领域这块。一般来说,微调是可以解决这个问题的。不过看作者的实验,即使是微调之后的BERT,在特定领域这块,效果也没有tBERT好,说明主题模型在这块还是很有用的。进一步思考,可不可以这么推论,如果说我们的任务输入越是特定领域,那么假如tBERT越有明显的提升呢?这个感兴趣的大家可以去试一试,比如医疗领域,比如金融领域之类的。原创 2023-10-16 10:00:00 · 672 阅读 · 0 评论 -
Pytorch代码分析-如何让Bert在finetune小数据集时更“稳”一点
简单总结一下:与没有修正的adam之后,修正之后,模型收敛速度变慢,收敛过程变得稳定,效果提升比较明显。与没有重新初始化的模型相比,初始化最后一层pooler之后,模型收敛速度有所变快,但是不明显,效果也没有明显变化。关于收敛速度这里,结果有一点不一样,希望有大佬可以解惑,我也会抽空去看看原论文,仔细研读一下,看论文还有没有值得挖的东西,有任何进展,我再和大家说。原创 2023-10-15 18:45:00 · 113 阅读 · 0 评论 -
FastBert学习笔记
论文标题《FastBERT: a Self-distilling BERT with Adaptive Inference Time》。关于这个论文已经有不错的解读了,所以我写的侧重点可能和别人的不太一样,具体的往下看吧,欢迎讨论。然后我们聊一聊 FastBert 究竟在做什么事情?Bert本身有12层,模型在进行推理的时候, 每一个样本都会完整的走过12层。而 FastBert 做到了让简单的样本的不必走过12层,只需要走过3层或者4层(这个数字并不确定)就可以。原创 2023-10-15 11:45:00 · 142 阅读 · 0 评论 -
Bert如何融入知识一-百度和清华ERINE
我把这个三元组的信息融入到我的模型之中,也就是我在文本分类的时候不仅仅使用了你的原始文本,还是使用了知识图谱中的三元组信息,相当于一种信息的增强,这个时候我的模型就可以文本分类为”IT公司“这个类别。对于这个操作,我是这么想的,首先从难度来讲,去预测一个词组会比预测一个单字难,而且这个词组是一个实体,所以在学习的时候回学习到实体信息。就像最开始我们的例子,”库克-CEO-苹果公司“,这是外部知识,这个不是我文本中的信息,相当于显示的加入了外部信息。而清华这边的操作是加入了外部的知识信息。原创 2023-10-14 11:00:00 · 408 阅读 · 0 评论 -
ALBERT-更小更少但并不快
预训练的时候,数据填充的更满,到512这种,有利于提升模型效果,这点在RoBERTa有谈到mask n-gram有利于提升效果,这点类似百度的ERINE和SpanBERT了词向量矩阵分解能减少参数,但是也会降低性能跨层参数分享可以降低参数,也会降低性能,通过实验图知道,attention共享效果还好,FFN共享效果降低有点多取消NSP,使用SOP,正负样本来自同一个文档,但是顺序不同。推理速度来看,同等规格,ALBERT速度确实变快,但是并不明显,同等效果,速度变慢;原创 2023-10-14 10:00:00 · 92 阅读 · 0 评论 -
Pytorch中mask是如何实现的代码-阅读文本相似度模型
所以我简单总结一下,在这里的mask的操作分为两个步骤:首先补长位置置为零然后计算softmax,随后对softmax的结构补长位置继续置为零,计算简单的分值(各自除以每一行的总和),得到最后的概率值。所以又把这些部分置为零,然后用每一行的值除以每一行的总和得到了新的概率值,这个概率和补长的部位就没有关系了。整个mask的代码其实我读起来感觉比较奇怪,我印象中mask的操作,应该是补长的部分直接为负无穷(代码里写一个-1000就可以),但是他这里的代码,是补长的部位置为0,所以。原创 2023-10-13 10:55:49 · 185 阅读 · 0 评论 -
基于Jetson Nano的并行图像滤波算法优化与部署
我们实现了基于 GPU (CUDA) 和 CPU (PThread) 的卷积算法,在此基础之上,我们进一步实现 Sobel、Laplacian、均值和高斯滤波器,它们可以被用于图像处理,一个典型的应用场景就是图像降噪。因此,我们的实验内容主要围绕这些滤波器在图像降噪上效果和它们在Jetson Nano 上的性能表现展开。我们分别从两个角度对这些滤波器进行上层封装,即实验角度和部署角度。既然谈到部署,当然不能局限于人工输入图像,因此,我们加入了摄像头。原创 2023-09-04 17:55:30 · 352 阅读 · 0 评论 -
基于YOLOv8+PyQt5实现的共享自行车识别检测系统,含数据集+模型+精美GUI界面(可用于违规停放检测告警项目)
基于YOLOv8共享自行车违规停放检测项目,一般用于智慧城市,智慧交通智能摄像头上。实现该项目主要分三步。第一步,训练检测自行车的模型,使用YOLOv8识别检测出自行车,得到自行车的在画面中的坐标信息(x1,y1,x2,y2);第二步手动设定停放区,可以是不规则多边形,也可以是矩形(后面判断简单些),其中区域也可以使用关键点坐标来表示;第三步,通过区域相交算法或者其他算法来判断目标框是否与划定区域有相交重叠,矩形相交可以看我这篇【深度学习笔记】目标检测之区域入侵判断代码提示:以下是本篇文章正文内容。原创 2023-09-04 14:02:42 · 2627 阅读 · 3 评论 -
基于YOLOv8+PyQt5开发的行人过马路危险行为检测告警系统(附数据集和源码下载)
交通安全一直是一个备受关注的重要议题。每年都有大量的交通事故发生,其中很多都与行人在过马路时的危险行为有关。故我开发了一种基于YOLOv8的行人过马路危险行为检测告警系统。它能够快速准确地识别图像或视频中的行人,并判断他们是否存在危险行为。通过结合计算机视觉和深度学习技术,该系统能够实时监测行人在过马路时的行为,并及时发出警报,以提醒行人和驾驶员注意交通安全。提示:以下是本篇文章正文内容在本博客中,我们介绍了基于YOLOv8和PyQt5的行人过马路危险行为检测告警系统。原创 2023-08-13 10:00:00 · 4441 阅读 · 5 评论 -
基于强化学习的自动化裁剪CIFAR-10 分类任务(提升模型精度+减少计算量)
外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-RFnHlyQG-1691544546106)(./pic/APT-main.png)]目前的强化学习工作很多集中在利用外部环境的反馈训练agent,忽略了模型本身就是一种能够获得反馈的环境。本项目的核心思想是:将模型视为环境,构建附生于模型的 agent ,以辅助模型进一步拟合真实样本。大多数领域的模型都可以采用这种方式来优化,如cv\多模态等。它至少能够以三种方式工作:1.过滤噪音信息,如删减语音或图像特征;原创 2023-08-15 09:00:00 · 223 阅读 · 0 评论 -
蚁群算法&广度优先算法求解迷宫最优路径问题(附带GUI)
蚁群算法&广度优先算法求解迷宫最优路径问题(附带GUI)原创 2023-08-07 19:39:45 · 411 阅读 · 0 评论