深度学习
文章平均质量分 68
深度学习
笑傲江湖2023
这个作者很懒,什么都没留下…
展开
-
神经网络基础
神经网络特征提取并不是一下子就完成的,举个例子,把特征提取过程分为A,B,C三个阶段,如下图左侧小猫所示,A阶段,分辨背景和主题,图中第一步先把篮框里面的猫提取出来,得权重w1,以及更新后的新的数据集xw1(代表以猫为核心的更新后的数据),根据这个数据,进行B特征提取,这次关注猫其他特征,像绿框里面的胡须,得到权重w2,以及新的数据集(xw1)w2,C可能更关注黄框的眼睛等特征,得到权重w3,最终得到所有特征的叠加结果,评判是否为猫猫。:至于中间层有多少,每层有多少神经元(特征),是一个解决点。原创 2023-07-24 18:45:24 · 50 阅读 · 0 评论 -
卷积神经网络
注意。原创 2023-07-27 20:30:22 · 1711 阅读 · 0 评论 -
深度学习和机器学习的区别(特征工程(简述))
机器学习各种算法(树模型,逻辑回归,SVM,集成学习)本质上解决的都是第③步,对于第②步一般用人工方法进行特征提取,但如何进行最优特征提取,一直是人工的难点,而深度学习很好的解决了这个问题,在使用种可以用深度学习完成第②步,第三步用传统机器学习算法也好,用深度学习算法也行,不同的算法本质上就是解决,流程中的各种问题。:传统机器学习算法难点是如何进行特征提取。算法和参数选择决定了如何逼近这个上限。数据特征决定了模型上限。预处理和特征提取是核心。原创 2023-07-24 12:37:48 · 79 阅读 · 0 评论 -
R-CNN,SSD,YOLO(目标检测常用方法区别)
对于图像识别传统用CNN解决时,主要识别这张图属于什么,用R-CNN之后,希望能得到图中每一个对象的类别和位置。R-CNN:先对图中对象按框起来,再按照每一个框进行特征提取,然后和标签做对比,得到最好的框。Fast R-CNN:先进行特征提取,然后选择一些框各自圈出一定特征,将这些框和标签对比,得到最好的框。:先进行特征提取,然后用一些比教粗糙的的框,基于CNN选择其中一些好的,将这些框和标签对比,得到最好的框。Mask R-CNN。原创 2023-07-28 20:36:19 · 328 阅读 · 0 评论 -
zore-shot,迁移学习和多模态学习
可以理解为zore-shot的升级版,迁移学习(Transfer Learning)是一种机器学习方法,就是把为任务 A 开发的模型作为初始点,重新使用在为任务 B 开发模型的过程中。迁移学习是通过从已学习的相关任务中转移知识来改进学习的新任务,虽然大多数机器学习算法都是为了解决单个任务而设计的,但是促进迁移学习的算法的开发是机器学习社区持续关注的话题。迁移学习对人类来说很常见,例如,我们可能会发现学习识别苹果可能有助于识别梨,或者学习弹奏电子琴可能有助于学习钢琴。原创 2023-07-27 16:15:30 · 1257 阅读 · 0 评论 -
GNN(图神经网络)
解释:我们看下面的图,点表示特征,由向量组成,边表示点之间的关系,同样由向量组成,比方说,人是点,亲戚朋友,就是关系,点和边组成了图。应用:任何任务能组成这种形式,都可以用GNN。原创 2023-07-28 18:18:02 · 60 阅读 · 0 评论 -
目标检测的一些概念
语义分割(很详细):(完结篇)什么是语义分割?原理+手写代码实现?_AI算法小白的博客-CSDN博客原创 2023-07-18 14:42:46 · 30 阅读 · 0 评论 -
pytorch实战-图像分类(一)(数据预处理)
定义:如下图小灰猫,进行翻转操作,小黄猫,就行不同角度的旋转操作,这样实现了一图多用的效果,在原数据的技术上,将数据集翻了几倍。比方说你现在有一个1w的数据集,经过数据增强,可以完成10w的数据集。注意:进行训练时需要tensor格式的数据,所以展示的时候tensor的数据需要转换成numpy的格式,而且还需要还原回标准化的结果。目的:我们所收集准备训练的数据都是很可贵的,数据越多成本也就越高,所以希望将有限的数据集最大化利用,这就时图像增强的目的。原创 2023-08-03 16:20:35 · 1471 阅读 · 1 评论 -
pytorch实战-图像分类(二)(模型训练及验证)(基于迁移学习(理解+代码))
说完卷积层,在说一下全连接层,必须要注意不管卷积层选A还是B,全连接层都是要更新的,原因在于,别人模型进行图像分类可能是进行1000个分类,而你只进行100或者999个分类,那么全连接层的参数肯定是不同的。,此时在初始化自己模型权重(就是卷积层,池化层和全连接层的参数)时,可以用人家训练好的模型参数(如果不这样就需要随机初始化模型权重),这样做可以节省大量寻找最优参数的时间,又可以保证参数的准确。在2.9中得到的模型,是冻结了卷积层,只训练了全连接层,所以此时希望在此基础上再对卷积层进行训练。原创 2023-08-03 16:25:25 · 3774 阅读 · 1 评论 -
Transformer(一)简述(注意力机制,NLP,CV通用模型)
如下图所示,两句话中的it根据上下文语句不同,指代前面的名词也不同,所以希望用注意力机制,来专注他们之间的关系。自注意力机制:如下图所示,有两句话,以it为例只计算本句中每个词和自己的关系注意力机制:如下图所示,it会计算其他句和自己的关系。同样如下图右侧所示,以it为例,线条越深和自身关系越强。原创 2023-08-11 20:06:47 · 976 阅读 · 0 评论 -
Transformer(二)(VIT,TNT)(基于视觉CV)
E为全连接层,目的是对输入数据进行预处理,就是将高维图像变成序列形式,假设P*P=196,就是图像分割的块数,像上面将图分为9块的意思,C=256是每一块含有的向量,D=512,目的是将256映射成512,N=196是位置信息编码,+1是因为图像分类任务要多一个输入,LN是归一化处理,MSA是多头自注意力机制,MLP是全连接层。同样图像处理也要考虑到位置编码(Position Embedding),有两种方式,一种是直接再一维空间用1,2,3,4....,一种是在二维空间用(1,1),(1,2)...。原创 2023-08-12 12:22:56 · 1034 阅读 · 0 评论 -
Segment anything(图片分割大模型)
再进一步理解:chagpt在实现文本任务时我们发现,他同样是聚焦所有点,只需要几个提示词去引导它,对应下图,比方说,找到图中病毒或者找到图中蓝色区域。进一步理解:传统图像分割对于下图处理时,识别房子的是识别房子的模型,识别草的是识别草的模型,识别人的是识别人的模型,而Segment anything可一次识别所有物体。实例分割:(目标检测)只需要给出我们关注的物体的像素的类别标签,有时可以看成二值化的语义分割,掩膜只改在我要的物体。对下面的狗比方说,红色的狗,周边标注时要对每一个像素点标注,过于麻烦。原创 2023-07-28 20:37:36 · 1801 阅读 · 0 评论 -
深度强化学习
q学习:强化学习之Q-Learning - 知乎原创 2023-07-16 11:07:15 · 48 阅读 · 1 评论