人工智能(机器学习-深度学习-目标检测)
文章平均质量分 96
全流程的专栏内容带你一起走进人工智能,本专栏只讲会用到的知识点与工具,实用性会贯穿整个专栏。
优惠券已抵扣
余额抵扣
还需支付
¥29.90
¥99.00
购买须知?
本专栏为图文内容,最终完结不会低于15篇文章。
订阅专栏,享有专栏所有文章阅读权限。
本专栏为虚拟商品,基于网络商品和虚拟商品的性质和特征,专栏一经购买无正当理由不予退款,不支持升级,敬请谅解。
小酒馆燃着灯
我有一只快乐的小狗
展开
-
《人工智能-机器学习-深度学习-目标检测》专栏目录 & Python与PyTorch | 机器与深度学习 | 目标检测 | YOLOv5及改进 | YOLOv8及改进 | 关键知识点 | 工具
走进神经网络 | 深度神经网络DNN | 卷积神经网络CNN | 区域卷积神经网络RNN | 目标检测 | 经典网络模型二十余种(LeNet-5 | AlexNet | ZFNet | VGGNet | GoogLeNet | ResNet | DenseNet | SeNet | MobileNet | ShuffleNet | RepVGG | MobileOne | FasterNet | R-CNN | SPPNet | Fast RNN | Faster RNN | R-FCN | SSD )原创 2024-09-08 16:31:37 · 989 阅读 · 0 评论 -
机器学习(九) 本文(4万字) | 支持向量机 | 第二篇 |(Support Vector Machine,SVM) | Python复现 |
机器学习(八) 本文(4万字) | 支持向量机(Support Vector Machine,SVM) | Python复现 |点击进入专栏:《人工智能专栏》 Python与Python | 机器学习 | 深度学习 | 目标检测 | YOLOv5及其改进 | YOLOv8及其改进 | 关键知识点 | 各种工具教程感知机原始形式是收敛的一般地,约束优化问题(原问题)可以写成:$$\begin{align}&\min_{x\in\mathbb{R^p}}f(x)\&s.t.\ m_i(x)\le0,i=原创 2024-01-01 07:21:04 · 1004 阅读 · 0 评论 -
机器学习(七) 本文(4万字) | 决策树(Decision Tree) | Python复现 |
决策树分类,回归策略损失函数最小化损失函数正则化的极大似然函数决策树(Decision Tree)是在已知各种情况发生概率的基础上,通过构建决策树来进行分析的一种方式,是一种直观应用概率分析的一种图解法决策树是一种预测模型,代表的是对象属性与对象值之间的映射关系互斥并且完备。这就是说,每一个实例都被条路径或一条规则所覆盖,而且只被一条路径或一条规则所覆盖。这里所谓覆盖是指实例的特征与路径上的特征一致或实例满足规则的条件分类树和回归树,前者用于分类标签值,后者用于预测连续值。原创 2023-12-31 00:08:36 · 897 阅读 · 1 评论 -
机器学习(六) 本文(3.5万字) | 特征工程(Feature Engineering) | Python复现 |
特征工程是使用专业背景知识和技巧处理数据,使得特征能在机器学习算法上发挥更好的作用的过程;如何基于给定数据来发挥更大的数据价值就是特征工程要做的事情会直接影响机器学习的效果。原创 2023-12-31 00:08:19 · 1011 阅读 · 0 评论 -
深度学习与目标检测系列(八) 本文约(6万字) | 全面解读复现ShuffleNetV1-V2 | Pytorch |
前面我们学了MobileNetV1-3,从这篇开始我们学习ShuffleNet系列。ShuffleNet是Face++(旷视)在2017年发布的一个高效率可以运行在手机等移动设备的网络结构,论文发表在CVRP2018上。和,在保持精度的同时大大降低计算成本。我们介绍了一种名为ShuffleNet的计算效率极高的CNN架构,该架构是专为计算能力非常有限(例如10-150 MFLOP)的移动设备设计的。新架构利用了两个新的操作,逐点组卷积和通道混洗,可以在保持准确性的同时大大降低计算成本。原创 2023-12-31 00:05:30 · 829 阅读 · 0 评论 -
深度学习与目标检测系列(七) 本文约(8万字) | 全面解读复现MobileNetV1-V3 | Pytorch |
《人工智能专栏》 Python与Python | 机器学习 | 深度学习 | 目标检测 | YOLOv5及其改进 | YOLOv8及其改进 | 关键知识点 | 各种工具教程MobileNetV1网络是谷歌团队在2017年提出的,专注于移动端和嵌入设备的轻量级CNN网络,相比于传统的神经网络,在准确率小幅度降低的前提下大大减少模型的参数与运算量。相比于VGG16准确率减少0.9%,但模型的参数只有VGG1/32。其实简单来说,就是把VGG中的标准卷积层换成深度可分离卷积。不过这个深度可分离卷积原创 2023-12-31 00:04:56 · 799 阅读 · 0 评论 -
深度学习与目标检测系列(六) 本文约(4.5万字) | 全面解读复现ResNet | Pytorch |
更深的神经网络往往更难以训练,我们在此提出一个残差学习的框架,以减轻网络的训练负担,这是个比以往的网络要深的多的网络。我们明确地将层作为输入学习残差函数,而不是学习未知的函数。我们提供了非常全面的实验数据来证明,残差网络更容易被优化,并且可以在深度增加的情况下让精度也增加。在ImageNet的数据集上我们评测了一个深度152层(是VGG的8倍)的残差网络,但依旧拥有比VGG更低的复杂度。原创 2023-12-31 00:04:33 · 927 阅读 · 0 评论 -
深度学习与目标检测系列(五) 本文约(9万字) | 全面解读复现GoogleNet_InceptionV1-V4 | Pytorch |
《人工智能专栏》 Python与Python | 机器学习 | 深度学习 | 目标检测 | YOLOv5及其改进 | YOLOv8及其改进 | 关键知识点 | 各种工具教程论文题目: Going Deeper with ConvolutionsGooglenet论文原文地址:https://arxiv.org/pdf/1409.4842.pdf之前看过VGG的论文(VGG精读直达)。当时VGG获得了 2014 ILSVRC 图像分类的第二名,今天来看一下第一名,也就是大名鼎鼎的 Google原创 2023-12-31 00:03:46 · 886 阅读 · 0 评论 -
深度学习与目标检测系列(四) 本文约(4.5万字) | 全面解读复现VGGNet | Pytorch |
在这项工作中,我们研究了卷积网络深度在大规模图像识别环境下对其精度的影响。我们的主要贡献是使用具有非常小(3×3)卷积滤波器的体系结构对增加深度的网络进行了彻底的评估,这表明通过将深度推进到16-19个权重层,可以实现对现有技术配置的显著改进。这些发现是我们2014年ImageNet挑战赛提交的基础,我们的团队在局部化和分类路径上分别获得了第一和第二名。我们还表明,我们的表示法很好地推广到了其他数据集,在这些数据集上,它们获得了最先进的结果。原创 2023-12-31 00:03:22 · 891 阅读 · 0 评论 -
深度学习与目标检测系列(三) 本文约(4万字) | 全面解读复现AlexNet | Pytorch |
我们训练了一个庞大的深层卷积神经网络,将ImageNet LSVRC-2010比赛中的120万张高分辨率图像分为1000个不同的类别。在测试数据上,我们取得了37.5%和17.0%的前1和前5的错误率,这比以前的先进水平要好得多。具有6000万个参数和650,000个神经元的神经网络由五个卷积层组成,其中一些随后是最大池化层,三个全连接层以及最后的1000个softmax输出。为了加快训练速度,我们使用非饱和神经元和能高效进行卷积运算的GPU实现。原创 2023-12-31 00:03:04 · 882 阅读 · 0 评论 -
深度学习与目标检测系列(二) 本文约(7万字) | 全面解读复现YOLOv1 | PyTorch |
从这篇开始,我们将进入YOLO的学习。YOLO是目前比较流行的目标检测算法,速度快且结构简单,其他的目标检测算法如RCNN系列,以后有时间的话再介绍。本文主要介绍的是YOLOV1,这是由以Joseph Redmon为首的大佬们于2015年提出的一种新的目标检测算法。它与之前的目标检测算法如R-CNN等不同之处在于,R-CNN等目标检测算法是两阶段算法, 步骤为先在图片上生成候选框,然后利用分类器对这些候选框进行逐一的判断;原创 2023-12-31 00:02:41 · 915 阅读 · 0 评论 -
深度学习与目标检测系列(一) 本文约(17万字) | 覆盖 | 走进神经网络 | 深度神经网络DNN | 卷积神经网络CNN | 区域卷积神经网络R-CNN | 目标检测 | 经典网络模型二十余种
点击进入专栏:《人工智能专栏》 Python与Python | 机器学习 | 深度学习 | 目标检测 | YOLOv5及其改进 | YOLOv8及其改进 | 关键知识点 | 各种工具教程内容介绍:本文从初步的神经网络并逐步延伸到目标检测的有关内容,仅仅是概略性解读,后期会详细介绍重要知识点与模型**。深度神经网络DNN | 卷积神经网络CNN | 区域卷积神经网络RNN | 经典网络模型二十余种。具体模型:LeNet-5 | AlexNet | ZFNet | VGGNet | GoogLe原创 2023-12-25 18:44:52 · 514 阅读 · 0 评论 -
机器学习(十) 本文(2万字) | 朴素贝叶斯(Naive Bayes) | Python复现 |
原理《人工智能专栏》 Python与Python | 机器学习 | 深度学习 | 目标检测 | YOLOv5及其改进 | YOLOv8及其改进 | 关键知识点 | 各种工具教程。原创 2024-01-01 09:52:29 · 847 阅读 · 0 评论 -
机器学习(九) 本文(4万字) | 支持向量机 | 第三篇 |(Support Vector Machine,SVM) | Python复现 |
(1)数据集引入,并使用图像展示(2)使用SVM进行分类(注:用于分类的线性模型只能用一条直线来划分数据点,对这个数据集无法给出较好的结果)(3)现在我们对输入特征进行扩展,比如说添加第二个特征的平方(feature1 ** 2)作为一个新特征。现在我们将每个数据点表示为三维点(feature0, feature1,feature1 ** 2),而不是二维点(feature0, feature1)(4)在数据的新表示中,现在可以用线性模型(三维空间中的平面)将这两个类别分开。原创 2024-01-01 07:21:25 · 908 阅读 · 0 评论 -
机器学习(九) 本文(4万字) | 支持向量机 | 第一篇 |(Support Vector Machine,SVM) | Python复现 |
点击进入专栏:《人工智能专栏》 Python与Python | 机器学习 | 深度学习 | 目标检测 | YOLOv5及其改进 | YOLOv8及其改进 | 关键知识点 | 各种工具教程感知机原始形式是收敛的一般地,约束优化问题(原问题)可以写成:$$\begin{align}&\min_{x\in\mathbb{R^p}}f(x)\&s.t.\ m_i(x)\le0,i=1,2,\cdots,M\&\ \ \ \ \ \ \ \ n_j(x)=0,j=1,2,\cdots,N\end{align原创 2024-01-01 07:20:42 · 877 阅读 · 0 评论 -
机器学习(八) 本文(3万字) | 集成学习(ensemble learning) |
弱分类器(weak learner)指那些分类准确率只稍微好于随机猜测的分类器(error rate < 0.5),常见的弱学习器包括决策树、朴素贝叶斯分类器、支持向量机等**预测准确率较低:**弱学习器的预测结果可能比随机猜测稍好一些,但通常不能达到高准确率**可用于组合:**虽然单个弱学习器的预测能力有限,但可以通过组合多个弱学习器来提高整体预测准确率**训练速度较快:**弱学习器通常具有较简单的结构和较少的参数,因此训练速度较快强学习器(Strong Learner)是指在机器学习中,具有。原创 2024-01-01 07:19:15 · 839 阅读 · 0 评论 -
机器学习(五) 本文(4万字) | 逻辑回归 (Logistic Regression,LR) | Python复现 |
《人工智能专栏》 Python与Python | 机器学习 | 深度学习 | 目标检测 | YOLOv5及其改进 | YOLOv8及其改进 | 关键知识点 | 各种工具教程关于逻辑斯谛, 更常见的一种表达是Logistic functionσ(z)=11+exp(−z)\sigma(z)=\frac{1}{1+\exp(-z)}σ(z)=1+exp(−z)1其函数曲线如下:因此:将 y 视为类后验概率估计,重写公式有:wTx+b=lnP(Y=1∣x)1−P(Y=1∣x)P(Y=1原创 2023-12-31 00:08:01 · 886 阅读 · 0 评论 -
机器学习(四) 本文(2万字) | 梯度下降GD原理 | Python复现 |
梯度的概念:梯度就是函数对它的各个自变量求偏导后,由偏导数组成的一个向量作用:梯度下降法(Gradient Descent,GD)常用于求解无约束情况下凸函数(Convex Function)的极小值,是一种迭代类型的算法,因为凸函数只有一个极值点,故求解出来的极小值点就是函数的最小值点。对凸函数进行优化的方法,梯度下降采用无限逼近的方式逼近参数原创 2023-12-24 23:38:34 · 884 阅读 · 0 评论 -
机器学习(三) 本文(3万字) | 线性回归LR原理 | Python复现 |
回归的全称是,“Regression towards the mean”。**直接翻译过来就是向着中间值回归。直白点说,就是在图像上给你一堆点,你来找一条线,然后让这条线尽可能的在所有点的中间。**这个找直线的过程,就是在做回归了。原创 2023-12-24 23:32:08 · 1001 阅读 · 0 评论 -
机器学习(二) 本文(2.5万字) | KNN算法原理及Python复现 |
K近邻(K-nearst neighbors, KNN)是一种基本的机器学习算法,所谓k近邻,就是k个最近的邻居的意思,说的是每个样本都可以用它最接近的k个邻居来代表;KNN算法既可以应用于分类应用中,也可以应用在回归应用中KNN在做回归和分类的主要区别在于最后做预测的时候的决策方式不同。KNN在分类预测时,一般采用多数表决法;而在做回归预测时,一般采用平均值法————————————————版权声明:本文为CSDN博主「小酒馆燃着灯」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原创 2023-12-24 23:26:50 · 938 阅读 · 0 评论 -
机器学习(一) 本文(3万字) | 机器学习概述 |
统计学习(statistical learning)是关于计算机基于数据构建概率统计模型并运用模型对数据进行预测与分析的一门学科。统计学习也称为统计机器学习(statistical machine learning)统计学习的主要特点是:(1)统计学习以计算机及网络为平台,是建立在计算机及网络上的:(2)统计学习以数据为研究对象,是数据驱动的学科:(3)统计学习的目的是对数据进行预测与分析:(4)统计学习以方法为中心,统计学习方法构建模型并应用模型进行预测与分析:(5)统计学习是概率论、统计学、信息论、原创 2023-12-24 23:16:41 · 884 阅读 · 0 评论