深度学习
文章平均质量分 91
赵卓不凡
公众号:AI算法之道
展开
-
一文弄懂DBSCAN聚类算法
今天就到这里了,本文重点介绍了机器学习中利用DBSCAN算法进行聚类的讲解,并给出了详细的图例说明。您学废了吗?原创 2024-06-30 11:46:01 · 2224 阅读 · 0 评论 -
一文弄懂逻辑回归算法
本文重点介绍了如何利用逻辑回归算法来求解机器学习中分类问题,并给出了详细的图例说明。您学废了吗?原创 2024-06-30 11:33:41 · 694 阅读 · 0 评论 -
一文弄懂梯度下降算法
本文重点介绍了如何利用梯度下降法来求解线性回归问题,并给出了详细的图例说明。您学废了吗?原创 2024-06-28 21:27:22 · 1006 阅读 · 0 评论 -
一文弄懂线性回归模型
今天,我们将深入探讨机器学习中的三个关键概念:线性回归、代价函数和梯度下降。这些概念构成了许多机器学习算法的基础。起初,我决定不写一篇关于这些主题的文章,因为它们已经被广泛涉及。不过,我改变了主意,因为理解这些概念对于理解神经网络等更高级的主题至关重要。闲话少说,我们直接开始吧!原创 2024-06-28 21:15:02 · 984 阅读 · 0 评论 -
推荐全网最全的AI小白进阶指南
事实上,大家要学的东西很多,而且永远学不完,尤其是人工智能,每周都有新的革命性论文和想法发布。希望大家知道如何利用这些信息,如何将其转化为知识与公众分享,以及从这些信息中产生了哪些新颖的想法和解决方案。我的清单并不详尽,但如果您之前学习过一些优秀的资源,欢迎留言,大家一起完善相关技术学习指南。原创 2024-05-11 21:20:31 · 490 阅读 · 0 评论 -
从固定到可变:利用Deformable Attention提升模型能力
可变形注意力机制就像是电脑关注事物的一种智能方式。它不再拘泥于固定点,而是可以调整并更好地关注不同的事物,这有助于它出色地完成寻找图片中的物体、描述图像和语言翻译等任务。这就像拥有了一个更多功能的工具,可以很好地处理不同类型的信息。虽然有点复杂,但如果仔细操作,可变形注意力可以带来更好的效果。原创 2024-05-06 20:34:27 · 1018 阅读 · 0 评论 -
Attention和Transformer灵魂七问
Transformer和Attention结构详解原创 2024-04-22 22:09:47 · 1124 阅读 · 0 评论 -
带你一文了解图像着色技术发展史
图像着色技术发展史原创 2024-04-13 20:07:29 · 1296 阅读 · 0 评论 -
小白也能看懂的self-attention教程
图解自注意力机制原创 2024-04-10 22:08:36 · 773 阅读 · 1 评论 -
一文弄懂FFN/RNN/CNN参数量计算
本文重点介绍了FFN/RNN/CNN等核心组件的参数量的计算方法,并给出了详细的图示和对应的代码实现。原创 2024-04-08 21:00:19 · 1246 阅读 · 0 评论 -
一文弄懂CNN/RNN/GAN/Transformer等架构
本文重点介绍了图像和自然语言处理等场景的神经网络结构,包括CNN、RNN、GAN、Transformers以及encoder-decoder架构等,学会这些网络结构可以大家在处理具体任务时可以有更加针对性的选择。您学废了嘛?原创 2024-04-05 11:41:07 · 1897 阅读 · 2 评论 -
小目标检测常见解决策略总结
本文重点阐述了小目标检测领域相关困难点原因分析,以及业内比较常见的解决思路,并给出了相应的图示进行补充说明,您学废了吗?原创 2024-03-23 10:41:48 · 1054 阅读 · 0 评论 -
大模型背景下计算机视觉年终思考小结(二)
本文重点介绍了在大模型发展背景下,如何在日常开发中合理利用大模型的能力来构建合成数据集和丰富数据集的标注类别等应用,同时随着技术的发展,未来大模型在日常开发中会带来更多的应用和落地点,希望大家也可以结合自己具体的业务来思考如何和现有大模型进行结合。您学废了嘛?原创 2024-01-16 19:56:44 · 1337 阅读 · 2 评论 -
从零实现CLIP模型
总之,这篇博客文章探讨了CLIP模型,揭示了其广泛应用的潜力。随着我们对CLIP应用的了解,很明显,它的影响远远超出了最初的预期,为不同领域的创新解决方案铺平了道路。您学废了嘛?戳我。原创 2024-01-07 11:43:47 · 2745 阅读 · 4 评论 -
对比学习简介
在本教程中,我们将介绍对比学习领域中的相关概念。首先,我们将讨论这种技术背后相关的理论知识;接着,我们将介绍最常见的对比学习的损失函数和常见的训练策略。闲话少说,我们直接开始吧!原创 2023-12-31 20:50:40 · 585 阅读 · 0 评论 -
GroundingDINO-根据文本提示检测任意目标
正如大家在本文开头的表格中所看到的,比GLIP推理速度更快,但在要求实时检测场景中考虑起来仍然推理速度太慢。然而,该模型可以在灵活性和泛化性很重要的任务中大放异彩,比如可以成功地用于自动化数据标注。此外,还可以通过使用语言约束而不是复杂且容易出错的手工组件来分析检测关系,从而大大简化图像和视频分析的处理逻辑。总之,无疑是一个重大突破,它将为物体检测及其他领域的更多创新应用铺平道路。原创 2023-12-30 10:28:59 · 1662 阅读 · 0 评论 -
一种简单的自编码器PyTorch代码实现
在本文中,我们使用数据集来完成此任务。戳我。该数据集已在torchvision库中集成;我们可以通过几行代码直接导入和处理该数据集。为此,首先需要是编写一个collate_fn函数,将数据集从PIL图像转换为torch张量,并进行相应的pad# x;# y本文重点介绍了如何利用Pytorch来实现自编码器,从数据集,到搭建网络结构,以及特征可视化和网络预测输出几个方面,分别进行了详细的阐述,并给出了相应的代码示例。您学废了吗?戳我。原创 2023-12-23 20:04:12 · 1427 阅读 · 0 评论 -
一文弄懂自编码器 -- Autoencoders
自编码器神经网络是一种无监督的机器学习算法,它的主要目的为将输入层的数据压缩成较短的格式,我们也可以称为潜在空间的特征表示,并通过解码将上述特征解码成与原始输入最为相近的形式。这样我们在使用原始输入图像的时候,就可以使用维度较小的压缩特征经过解码器后进行替代。这听着是不是很熟悉,我们有一个类似的机器学习算法,即PCA做同样的任务。那么为什么我们需要自动编码器呢?本文重点介绍了自编码器的概念,网络结构以及相关变体,并给出了其在工业界的相关应用。您学废了嘛?原创 2023-12-16 18:11:52 · 450 阅读 · 0 评论 -
在OpenCV基于深度学习的超分辨率模型实践
本文重点介绍了在OpenCV中,利用深度学习的方法来进行超分辨率的实现,被给出了具体的代码实例,和几种常用的模型。您学废了吗?原创 2023-12-09 13:11:12 · 602 阅读 · 0 评论 -
什么是机器学习中的正则化?
L1正则化可以产生稀疏权值矩阵,即产生一个稀疏模型,可以用于特征选择;L2正则化可以防止模型过拟合,在一定程度上,L1也可以防止过拟合,提升模型的泛化能力;L1(拉格朗日)正则假设参数的先验分布是Laplace分布,可以保证模型的稀疏性,也就是某些参数等于0;L2(岭回归)正则假设参数的先验分布是Gaussian分布,可以保证模型的稳定性,也就是参数的值不会太大或太小。在实际使用中,如果特征是高维稀疏的,则使用L1正则;如果特征是低维稠密的,则使用L2正则。原创 2023-11-04 14:10:51 · 813 阅读 · 0 评论 -
深度学习基础之梯度下降
本文简要回顾了梯度下降的基础理论知识,温故而知新,希望大家可以从中受益。总之,梯度下降是机器学习中的基本优化方法,它提供了一种机制来通过优化最小化(或最大化)目标来更新相应的参数。原创 2023-09-09 21:15:31 · 387 阅读 · 1 评论 -
强化学习Q-learning入门
本文重点介绍了Q-learning算法的理论和相关概念,而没有关注它在代码中的实现。后续我会计划针对特定代码进行相应的举例讲解,嗯捏,如果你感兴趣,请多多关注。原创 2023-06-04 10:46:06 · 1499 阅读 · 0 评论 -
特斯拉AI总监的MNIST训练之旅
接着,Andrej Karpathy 对上述实验,进行了相应的总结:做的事情本质并没有改变,还是可微分的神经网络、基于梯度优化那一套理论当时的数据集规模好小啊,MNIST只有7000多张,如今比如CLIP训练图片有400百万张,而且每张图的分辨率都大得多受限于训练资源,当时网络好小啊当时的训练好慢啊,7000多张图+这么小的网络要跑3天,现在使用总监的Macbook可以90s训练完成针对该问题还是有进步的,可以用现在的技巧使错误率下降60%纯增大数据集效果不大,还得配上各种训练技巧才能驾驭。原创 2023-04-02 18:49:15 · 825 阅读 · 0 评论 -
直线检测霍夫变换VS深度学习
如果我们需要解决简单的任务,比如检测桌子、数独或网球场的线条,在特定的光线条件下,场景不会有太大的变化,那么传统的图像处理的方法就是最好的解决方案,特点为:简单、可控,不需要太多的计算资源。但是,对于场景更为多变的任务,神经模型的表现可以更好,泛化能力更强。最后,我上面展示的所有内容都是开源的,所以请使用它并为开源做出更多贡献!!!原创 2022-12-18 18:52:42 · 1456 阅读 · 1 评论 -
一文弄懂CNN中的BatchNorm
BatchNorm是2015年提出的网络层,这个层具有以下特性:易于训练:由于网络权重的分布随这一层的变化小得多,因此我们可以使用更高的学习率。我们在训练中收敛的方向没有那么不稳定,这样我们就可以更快地朝着loss收敛的方向前进。提升正则化:尽管网络在每个epoch都会遇到相同的训练样本,但每个小批量的归一化是不同的,因此每次都会稍微改变其值。提升精度:可能是由于前面两点的结合,论文提到他们获得了比当时最先进的结果更好的准确性。原创 2022-11-20 19:36:29 · 1075 阅读 · 0 评论 -
【科普】一文弄懂监督式学习、非监督式学习以及强化式学习
大部分的机器学习入门课当中,一开始也最基础的观念就是机器学习的三类方式,它们分别是监督式学习、非监督式学习与强化式学习。很多同学对这三个名字都有些陌生。 这边我尝试用家长教育孩子的方式来解释他们的概念,如果有任何疏漏之处,欢迎大家多多指教。从字面上来看, 就是让机器(电脑)学习一件事情,就和我们一样,从小到大,我们深受父母、教师或朋友等影响,形成了现在的我们。机器学习也是一样,让我们假设今天电脑是你的小孩,你可以选择采用哪种教育方针教导它,使它未来能得到你预期的结果。我们首先来介绍我们的大儿子–监督式学习原创 2022-06-21 21:53:43 · 3282 阅读 · 0 评论 -
浅谈CNN中的激活函数
1. 引言通常情况下,激活函数往往返回0到1的数值。在神经元中,输入的input经过一系列加权求和后作用于另一个函数,这个函数就是这里的激活函数。激活函数通常由各种各样的种类,但是他们一般的特点在于倒数简单,方便计算可以节省求导和网络训练时间。2. 常见的激活函数这里推荐一个有意思的图,使用小人描绘了各种各样的激活函数,如下所示:接下来,我们从中挑选重要的激活函数由浅入深地进行讲解。3. 二元阶跃函数二元阶跃函数是最简单的激活函数之一,它基于这样一个事实:如果求和的结果大于或等于0,则结果为1原创 2022-05-16 21:57:01 · 2809 阅读 · 3 评论 -
CNN入门之常见过拟合解决方法汇总
1. 引言不管是在训练机器学习或是深度学习的模型,想必大家都有遇过欠拟合与过拟合的状况,而其中又以模型过拟合最让人头疼。上图给了我们一个很好的例子,左边的图描了模型欠拟合的状况,中间的图描述了良好的模型该有的划分曲线,右边的图则是典型的过拟合的示例。在正式踏入更深入的CNN模型之前,我们势必要了解过拟合这个名词,到底过拟合是什么?而我们又该如何避免这种情形的发生呢?2. 欠拟合定义在正式介绍过拟合(Overfitting)之前,我们不妨先来认识一下另一个常见的问题欠拟合(Underfitting原创 2022-05-13 03:06:12 · 5408 阅读 · 0 评论 -
VIT论文介绍
1. 引言本文来讲解一篇论文 VIT, 这篇算是引起VIT跟CNNs之争的开端。论文链接: 戳我Transformer结构原本应用于自然语言处理,本篇希望找到可以在不用CNN情况下使用纯Transformer构架在图像分类任务上使用少量运算资源来训练达到更好的结果。闲话少说,我们直接开始吧!2. TransFormer特点一般来说,Transformer的一些优点如下:具有优秀的运算效率与扩展性可以透过大量数据做预训练并微调在其他数据集来减少运算资源Attention(注意力机制)T原创 2022-05-10 22:24:56 · 5218 阅读 · 0 评论 -
模型优化之Label Smoothing
1. 引言Label Smoothing 又被称之为标签平滑,常常被用在分类网络中来作为防止过拟合的一种手段,整体方案简单易用,在小数据集上可以取得非常好的效果。Label Smoothing 做为一种简单的训练trick,可以通过很少的代价(只需要修改target的编码方式),即可获得准确率的提升,本文就其原理和具体实现进行介绍,希望可以帮主大家理解其背后的具体原理。2. 初识我们首先来看Label Smoothing的公式,在介绍之前我们先来观察一下传统的 one-hot encoding的公式原创 2022-03-08 21:07:31 · 1866 阅读 · 0 评论 -
深度学习中分类和回归常见损失函数归纳小结
1.引言在深度学习领域中,损失函数定义了模型的预测与目标值之间的距离。因此我们必须正确地选择它,只有这样所有的参数才会根据其值进行更新。损失函数的选择取决于模型的设计。在这篇文章中,我们主要讨论两种常见的的任务,即回归和分类。2.回归损失这里我们首先从损失函数的计算公式以及其背后的数学知识开始讲起。接着,我们提供一些可视化的例子,来将理论知识变得更清晰,方便我们对其有更深入的理解。2.1 MSE LossMean Square Error (MSE) 是回归任务中最通用的损失函数,MSE是目标值原创 2022-02-27 11:36:22 · 7282 阅读 · 1 评论 -
在机器学习中,验证集和测试集有什么区别?
1. 问题描述在使用Matlab中神经网络工具箱的时候,经常会很困惑:我们需要将原始数据集拆分为三份:训练集、验证集和测试集但是我也注意到在有些机器学习算法中,数据集往往被拆分为两份:训练集和测试集。所以我们的问题归纳如下:对于神经网络来说真的需要验证集嘛?验证集是可选的嘛?进一步来说,在机器学习领域验证集和测试集的区别是什么?2. 解释一相关定义训练集 (训练阶段)用于构建我们的模型,我们的模型在训练集上进行学习,通常在这个阶段我们可以有多种方法进行训练验证集 (模型原创 2022-01-11 18:57:43 · 1279 阅读 · 0 评论 -
速度收藏--16个好玩的深度学习在线应用推荐
1. 引言俗话说的好:不闻不若闻之,闻之不若见之,见之不若知之,知之不若行之,学至于行之而止矣。这段话翻成白话文就是:没听过比不上听过;听过比不上实际看过;看过则比不上实际了解;而了解又不如动手实践。唯有身体力行才能真正地学到东西。所以,学习这件事,直说不做往往是最没有效率的,为了加强大家对深度学习的认知,本文特别摘录了16个好玩的深度学习在线应用,极力推荐大家尝试。2. Deep Playgound网站链接:https://playground.tensorflow.org/快速通道: 戳原创 2022-01-08 18:53:59 · 2863 阅读 · 0 评论 -
使用DBSCAN找出数据集中的异常值
1. 引言找出数据中的异常值是数据预处理的必备工作之一,如果数据中存在异常值对于一些数据分析算法具有重大的影响。本文主要探讨关于寻找异常值(离群值)的注意事项。2. 离群值离群值是指跟大部分数据差异很大的样本。比如,在一项统计国民收入的例子中,少数富豪的收入就很像离群值。离群值对于一些数据分析方法会有很大的影响。我们不妨来举个栗子。观察上图,为两个线性模型的分析结果,可以发现右侧只是增加一个离群值,我们的分析结果就会差很多。因此,如果没有处理好离群值,对于数据分析的结果可能会产生重大影响。3.原创 2021-12-25 20:16:33 · 4656 阅读 · 1 评论 -
机器学习之缺失样本重采样策略
1 引言在机器学习领域中,对不均衡数据集进行建模是我们训练模型时经常遇到的挑战.比如在分类问题上,训练集上类别的平衡对模型建模起着重要作用.如果直接对类间不平衡的数据进行建模,即数据集中存在少数类,这样训练好的模型试图只学习多数类,会导致模型出现有偏预测。因此,在训练模型之前,需要处理数据集的不平衡问题。业界为了解决类间不平衡问题采用了多种技术,包括过采样, 欠采样以及二者的组合.本文主要研究6种过采样技术,包括:随机采样Smote采样BorderLine Smote采样KMeans Sm原创 2021-12-24 20:05:41 · 3535 阅读 · 0 评论 -
如何使用Pytorch生成自定义的风格迁移图
1 引言艺术往往超越了人类的存在。回顾整个人类的历史进程,我们可以发现艺术的重要性,艺术品往往都是一个人实现表达自我对世界认知的一种手段。传奇画物毕加索曾经说过:“It took me four years to paint like Raphael, but a lifetime to paint like a child.”大多数艺术创作都遵循某种模式—— 一种令人愉悦并激发我们创造性的艺术风格模式。当我们在观察某件艺术品时,如果我们试着注意它的颜色主题变化,或者里面的笔触,我们可以从中看原创 2021-12-22 17:51:07 · 923 阅读 · 0 评论 -
特征可视化--带你了解CNN到底在看什么
1. 引言看到这些照片是不是觉得很神秘?这些图片其实是GoogLeNet的Layer4C中channel做特征可视化后的成果。如果你不明白我在说什么,没关系!这次我要带大家来看看Google Brain团队在2017年分享的特征可视化的成果.2. 特征可视化是什么?特征可视化是什么呢?它是针对CNN的一种技巧,可以让我们以图像的方式去理解CNN内部到底在关注什么.上图为一张简单的CNN的架构图,CNN最核心的架构就是一层又一层的卷积层,而卷积层的重点就是用一个kernel去对输入的图像做卷原创 2021-12-09 16:42:41 · 3704 阅读 · 0 评论 -
机器学习之理解Bias-Variance Tradeoff
1 引言在机器学习中,我们经常会遇到模型过拟合和欠拟合的现象, 二者背后就是Bias-Variance Tradeoff.今天,我们将详细介绍什么是Bias-Variance Tradeoff,它从何而来,为什么需要考虑,以及可以做些什么来改进我们的机器学习模型。好的,闲话少说,我们直接开始吧. ????2 问题引入机器学习系统的实质思想为从收集的样本数据中对数据的潜在分布进行建模。如果我们采样了足够多的准确样本,则可以很容易地拟合出数据的分布,如下所示。将上述过程进行抽象, 即对于样本 (x原创 2021-12-07 15:38:25 · 1504 阅读 · 0 评论 -
手把手教你实现YOLOv3 (二)
YOLOv3原理和代码实现,重点讲解模型后处理和非最大值抑制原创 2021-12-04 11:45:06 · 1672 阅读 · 0 评论 -
手把手教你实现YOLOv3 (一)
1. 引言最近整理了YOLO系列相关论文阅读笔记,发现仅仅靠阅读论文还是有很多内容一知半解,吃得不是很透彻.尽管网络上有很多博客都在讲解,但是很多实现细节细究起来还是有些困难.俗话说的好:Talk is cheap. Show me the code.鉴于已在CV行业内卷四年,近期打算来写个教程和大家一起从零开始实现YOLOv3,顺便带大家一起入门目标检测的大坑…闲话少说,我们直接开始吧…2. YOLOV3算法思想鉴于已在前篇详细介绍过YOLO系列的算法过程,这里我们仅简单对其核心思想进原创 2021-12-01 18:55:14 · 4796 阅读 · 1 评论