自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(42)
  • 收藏
  • 关注

原创 一文搞懂LLM大模型!LLM从入门到精通万字长文(2024.7月最新)

LLM大模型从入门到精通

2024-07-12 23:07:33 1104

原创 一文搞懂YOLO系列目标检测!万字长文(附YOLOv8实操教程)

本文介绍目标检测基础概念,算法发展历史,YOLOV8环境配置,数据集标注,模型评估指标,改进策略。

2024-06-26 21:19:32 3339 2

原创 一文搞懂机器学习!2024.6月最新!(附代码实现)

机器学习是人工智能的一个分支,它使计算机系统能够从数据中学习并做出决策或预测,而无需明确编程。它涉及使用算法和统计模型来分析和解释数据,从而发现模式和关系。这些模式随后可以用于预测新数据的结果或分类数据。机器学习的关键技术包括监督学习、无监督学习、半监督学习和强化学习。监督学习通过标记的训练数据来训练模型,使其能够预测或分类新的输入数据。无监督学习则在没有标签的数据上工作,试图发现数据中的结构。半监督学习是两者的结合,使用少量标记数据和大量未标记数据。

2024-06-12 21:47:21 1387

原创 AutoDL租用云GPU运行YOLOv8目标检测算法,保姆式教程!

本文详细介绍如何租用,和配置环境。

2023-11-05 22:38:46 2606 8

原创 LLM大模型从入门到精通(6)--Stable Diffusion超详细讲解

Stable Diffusion是一种深度学习文本到图像生成模型,它可以根据文本描述生成详细图像,并且可以应用于内补绘制、外补绘制以及在提示词指导下的图像转换等任务。它是由慕尼黑大学的CompVis研究团体、StabilityAI、Runway以及LAION合作开发的潜在扩散模型,并于2022年发布。Stable Diffusion的源代码和模型权重已经公开发布,可以在大多数配备适度GPU的电脑上运行。Stable Diffusion 拓展性强。

2024-07-20 16:49:28 522

原创 LLM大模型从入门到精通(5)--LangChain基础知识入门

LangChain 由 Harrison Chase 创建于2022年10月,它是围绕LLMs(大语言模型)建立的一个框架。LangChain自身并不开发LLMs,它的核心理念是为各种LLMs实现通用的接口,把LLMs相关的组件“链接”在一起,简化LLMs应用的开发难度,方便开发者快速地开发复杂的LLMs应用.中文文档:https://www.langchain.asia官方文档:https://python.langchain.com/docs/get_started/introduction。

2024-07-19 18:37:40 867

原创 LLM大模型实战项目--基于Stable Diffusion的电商平台虚拟试衣

AI虚拟试衣是一种创新的技术,利用人工智能和计算机视觉技术,能够让用户在线上购物时实时试穿衣物,以便更好地了解衣物的效果和适合程度。以下是AI虚拟试衣的一些功能和优势:1. 实时试穿:用户可以通过上传照片或使用摄像头,将自己的身体映射到虚拟试衣系统中,实时试穿衣物。这样,用户无需亲自到实体店试衣,也能够得到试穿的体验。2. 个性化推荐:AI虚拟试衣系统可以根据用户的身体特征和喜好,推荐最适合的衣物款式和尺寸。这样,用户能够更快地找到满意的衣物,提高购物的效率。

2024-07-18 22:12:38 970

原创 LLM大模型从入门到精通(4)--LLM大模型的预训练和微调

LLM大模型的预训练和微调

2024-07-18 15:09:30 226

原创 LLM大模型ChatGLM-6B 本地部署与运行

本文详细介绍清华开源项目 ChatGLM 本地部署的详细教程。清华开源项目 ChatGLM-6B 已发布开源版本,这一项目可以直接部署在本地计算机上做测试,无需联网即可体验与 AI 聊天的乐趣。

2024-07-17 21:37:33 812

原创 LLM大模型从入门到精通(3)--LLM主流大模型类别

ChatGLM-6B 是清华大学提出的一个开源、支持中英双语的对话语言模型,基于General LanguageModel (GLM) 架构,具有 62 亿参数.该模型使用了和 ChatGPT 相似的技术,经过约 1T 标识符的中英双语训练(中英文比例为1:1),辅以监督微调、反馈自助、人类反馈强化学习等技术的加持,62 亿参数的 ChatGLM-6B 已经能生成相当符合人类偏好的回答(目前中文支持最好).

2024-07-12 23:12:49 582

原创 LLM大模型从入门到精通(2)--LLM模型的评估指标

BLEU 分数是评估一种语言翻译成另一种语言的文本质量的指标. 它将“质量”的好坏定义为与人类翻译结果的一致性程度. 取值范围是[0, 1], 越接近1, 表明翻译质量越好.:ROUGE 指标是在机器翻译、自动摘要、问答生成等领域常见的评估指标. ROUGE通过将模型生成的摘要或者回答与参考答案(一般是人工生成的)进行比较计算,得到对应的得分.BLEU 根据`n-gram`可以划分成多种评价指标,其中`n-gram`指的是连续的单词个数为n,实践中,通常是取N=1~4,然后对进行加权平均.

2024-07-09 16:01:59 170

原创 LLM大模型从入门到精通(1)--LLM基础知识介绍

llm是一种人工智能模型, 旨在理解和生成人类语言. 大语言模型可以处理多种自然语言任务,如文本分类、问答、翻译、对话等等.通常, 大语言模型 (LLM) 是指包含数千亿 (或更多) 参数的语言模型(目前定义参数量超过10B的模型为大语言模型),这些参数是在大量文本数据上训练的,例如模型 GPT-3、ChatGPT、GLM、BLOOM和LLaMA等.

2024-07-09 15:30:10 294

原创 LLM大模型中LoRA是什么?面试经验回答汇总(2024.7月最新)

介绍:通过低秩分解来模拟参数的改变量,从而以极小的参数量来实现大模型的间接训练。

2024-07-03 22:22:04 854

原创 LLM大模型如何微调?面试经验回答汇总(2024.7月最新)

其实这块我有个自己的想法,e 和 a 是否也可以做衰减,随着训练过程逐渐减小,来避免loss spike的现 象 另外假设我们能一次性加载所有样本进行训练(实际上不可能做到),是否还会出现loss spike的现象 最后目前流行的fp8,fp16混合训练,如果upscale设置的过小,导致梯度在进入优化器之前就下溢,是 不是会增加浅层梯度长时间不更新的可能性,进而增加loss spike的出现的频率。预训练过程中,可以加下游SFT的数据,可以让模型在预训练过程中就学习到更多的知识。

2024-07-03 15:03:25 731

原创 LLM大模型工程师面试经验宝典--进阶版2(2024.7月最新)

监督学习中主动学习的两个基本原则是寻找多样性的数据,模型不确定性的数据,在寻找 的过程中,我们使用了一些小技巧,比如聚类去重,对抗半监督过滤,自建reward二分类等方 法。这几个小技巧,学术上没有什么高深莫测的东西,都是实践中总结出来的好用的方法。

2024-07-02 17:06:35 696

原创 LLM大模型工程师面试经验宝典--进阶版1(2024.7月最新)

LLM大模型面试八股文,思维导图

2024-07-01 21:36:35 1233

原创 LLM大模型工程师面试经验宝典--基础版(2024.7月最新)

LLM大模型面试八股文,思维导图

2024-07-01 20:40:45 1002

原创 YOLO模型评价指标

4. 平均准确率均值(mean average precision,mAP):用于衡量模型在不同类别上的平均准确率。5.FPS(Frame Per Second):评估模型检测速度时常用的指标是 FPS,即每秒帧率, 表示每秒内可以检测的图片数量。3. F1值(F1-score):综合考虑准确率和召回率的指标,由准确率和召回率的加权调和平均值计算而得。1. 准确率(Precision):指模型预测为正样本中实际为正样本的比例。2. 召回率(Recall):指实际为正样本中模型预测为正样本的比例。

2024-06-27 20:01:56 265

原创 YOLO目标检测综述(2024.6月最新!)

目标检测算法,这类检测算法将检测问题划分为两个阶段,第一个阶段首先产生候选区域(Region Proposals),包含目标大概的位置信息,然后第二个阶段对候选区域进行分类和位置精修,这类算法的典型代表有R-CNN,Fast R-CNN,Faster R-CNN等。不过,随着研究的发展,两类算法都在两个方面做改进,均能在准确度以及速度上取得较好的结果。与以往的版本相比,YOLOv5引入了新的网络架构,以及一种新的训练方法,使用更大的数据集和更长的训练时间,从而提高了算法的性能。可以追溯到20世纪80年代。

2024-06-27 19:57:53 1420

原创 YOLOv8数据集标注

数据集是必不可少的部分,数据集的优劣直接影响训练效果。一般来说,一个完整的数据集应该包括训练集、测试集和验证集。通常,数据集会被划分为训练集和测试集,比如将数据集的70%用作训练集,30%用作测试集。在进行训练时,可以使用交叉验证的方法将训练集再次划分为训练子集和验证子集,用于模型的训练和验证。训练集是用于模型的训练的数据集。在训练过程中,模型使用训练集中的样本进行学习和参数调整,通过不断迭代优化模型的参数,使模型能够更好地拟合训练集中的数据。测试集是用于模型的评估的数据集。

2024-06-26 21:22:17 875

原创 一文搞懂强化学习!(2024.6月最新!)

强化学习是一种机器学习的分支,其目标是通过与环境的交互来学习最优的行为策略。在强化学习中,有一个智能体(agent)和一个环境(environment)之间进行交互。智能体通过观察环境的状态,选择合适的动作,并根据环境的反馈(奖励或惩罚)来调整自己的策略。强化学习的核心概念是奖励信号和价值函数。奖励信号是环境根据智能体的动作给出的反馈,用来衡量动作的好坏。价值函数是衡量一个状态或动作的价值的函数,用来指导智能体的决策。

2024-06-16 22:42:04 690

原创 机器学习十大算法(8)K最近邻算法KNN(附代码实现)

K最近邻算法(k-Nearest Neighbors,简称KNN)是一种常见的分类和回归算法。它基于一个简单的假设:如果一个样本在特征空间中的K个最近邻中的大多数属于某个类别,则该样本也属于该类别。KNN算法的。K值的选择需要根据具体问题和数据集的特点进行调整。常用的距离度量方法包括欧氏距离、曼哈顿距离和闵可夫斯基距离。KNN算法的优点是简单易实现,适用于多分类和回归问题。但它的缺点是计算复杂度高,需要存储全部训练样本,对于大规模数据集计算开销较大。

2024-06-16 08:15:00 544

原创 机器学习十大算法(7)聚类(附代码实现)

聚类(是一种无监督学习的方法,用于将数据集中的数据点分组成N个簇。其目标是使每个聚类内部的样本之间的相似度最大化,而不同聚类之间的相似度最小化。图中每一块不同颜色的区局称为”。它可以应用于各种领域,如生物学、社交网络分析、市场细分等。然而,简介聚类也存在一些挑战,如对初始聚类中心的选择比较敏感,以及对数据的维度较为敏感等。因此,在实际应用中,需要根据具体问题选择合适的聚类算法和参数设置。聚类的过程通常包括以下步骤:1. 选择合适的相似度度量方法,如欧氏距离或余弦相似度等。

2024-06-16 08:00:00 485

原创 机器学习十大算法(6)朴素贝叶斯分类器(附代码实现)

朴素贝叶斯算法简单、易于实现,且在处理大量特征的数据集时表现良好,尤其适用于文本分类等任务。朴素贝叶斯分类器的基本步骤如下:数据预处理:对输入数据进行清洗、转换和归一化等操作。特征选择:选择与分类目标相关的特征。计算先验概率:统计训练集中各个类别出现的概率。计算条件概率:对于每个特征,计算在给定类别的条件下该特征的概率。应用贝叶斯定理:通过乘积法则计算给定特征的条件下各类别的概率。分类决策:选择概率最大的类别作为分类结果。

2024-06-15 18:33:26 417

原创 机器学习十大算法(5)支持向量机SVM详解(附代码实现)

支持向量机(Support Vector Machines, SVM)试图在特征空间中找到最优的(或)来分开两类样本,适用于分类和回归问题。SVM是一种强大的算法,通过在数据点之间寻找最大间隔的决策边界来区分不同的类别。它使用支持向量,即距离边界最近的点,来确定这个边界。SVM通过核技巧处理非线性问题,将数据映射到高维空间以找到线性分隔面。常见的核函数包括线性核、多项式核和径向基函数核。,旨在最大化间隔同时最小化误差。它对异常值和噪声具有鲁棒性,因为只有支持向量影响最终的决策边界。

2024-06-15 17:38:09 710

原创 机器学习十大算法(4)随机森林详解(附代码实现)

随机森林算法是一种集成学习方法,通过构建多个决策树模型来进行分类或回归任务。随机森林算法的基本思想是将多个决策树模型集成在一起,通过投票或平均的方式进行预测。具体步骤如下:1. 随机选择训练数据集中的部分样本进行有放回抽样,构建一个决策树模型。这样可以保证每个决策树的训练数据不完全相同,增加模型的多样性。2. 在每个节点上,随机选择一部分特征进行划分。这样可以保证每个决策树的划分规则不完全相同,增加模型的多样性。3. 重复步骤1和步骤2,构建多个决策树模型。

2024-06-12 19:16:01 1180

原创 机器学习十大算法(3)决策树详解(附代码实现)

它通过学习简单的决策规则从数据特征中推断出目标值。决策树通过递归地选择最优特征进行分割,构建树状模型,每个内部节点代表特征上的测试,每个分支代表测试的结果,每个叶节点代表最终的决策或预测结果。它的优点包括易于理解和解释,能够处理数值和类别特征,并且不需要太多的数据预处理。然而,决策树容易过拟合,因此可能需要剪枝等技术来提高模型的泛化能力。是一种监督学习算法,用于分类和回归任务。

2024-06-08 19:56:22 283

原创 机器学习十大算法(2)逻辑回归详解(附代码实现)

它通过使用Sigmoid函数将线性回归的输出映射到0和1之间,从而预测事件发生的概率。模型参数通常通过最大似然估计来确定,使用二元交叉熵损失作为损失函数,并通过优化算法如梯度下降来求解。逻辑回归(Logistic Regression)也称线性判别回归(Linear Discriminant Analysis Regression, LDA),是一种用于二分类问题的统计方法,简单来说就是通过一条直线(三维中是超平面)将两个不同的类分开,如图所示。

2024-06-08 19:50:17 228

原创 机器学习十大算法(1)线性回归详解(附代码实现)

线性回归(Linear Regression)是机器学习十大算法中的一种,用于预测连续数值型的输出。它试图找到特征变量(输入)和目标变量(输出)之间的线性关系。线性回归主要有两种形式:简单线性回归和多元线性回归。简单线性回归(Simple Linear Regression)简单线性回归涉及一个自变量(解释变量)和一个因变量(响应变量),试图找到它们之间的线性关系。多元线性回归(Multiple Linear Regression)多元线性回归涉及两个或更多自变量,试图找到它们与因变量之间的线性关系。

2024-05-12 23:08:16 360 2

原创 深度学习速成(13)循环神经网络RNN项目实战-基于BiLSTM的文本情感分类

本项目针对传统LSTM模型对文本情感极性预测效果不佳的问题,提出一种结合BiLSTM模型的算法。算法首先对文本中进行预处理后,对文本切分,再通过Word Embedding模型生成词向量。将所述词向量输入到该BiLSTM模型中,将输出结果进行拼接操作,使用softmax函数对输出的向量进行分类,获得文本情感分类结果。本发明能够充分结合上下文语境,有效防止过拟合与梯度爆炸、梯度消失问题,从而显著提高模型的鲁棒性和文本情感分类的准确率。2.创建一个word_sequence.py的文件,完成数据的处理操作。

2023-07-09 17:22:16 396 3

原创 深度学习速成(12)LSTM的参数

例如,input_size决定了输入特征的维度,hidden_size决定了隐藏状态的维度,num_layers决定了LSTM的层次深度等等。除了这些参数,LSTM模型还有其他可训练的参数,例如权重和偏置,在LSTM模型的初始化过程中,这些参数会自动创建。6. dropout:一个介于0和1之间的数值,表示应用于每个LSTM层输出的dropout比率,默认为0(不应用dropout)实例化LSTM之后,不仅要传入数据,还需要传入前一次的隐藏状态h_0,和前一次的记忆C_0。2.LSTM的实例化。

2023-07-03 16:28:58 4077

原创 深度学习速成(11)BiLSTM

BiLSTM即双向长短期记忆网络(Bidirectional Long Short-Term Memory, BiLSTM)最早由Jürgen Schmidhuber和Sepp Hochreiter等人于1997年在论文《Long short-term memory》中提出,它是传统长短期记忆网络(Long Short-Term Memory, LSTM)的一种扩展形式,结合了正向LSTM和反向LSTM来获取更完整的上下文信息。这样,在每个时间步骤,每个LSTM单元都能够同时访问前面和后面的上下文信息。

2023-07-03 16:08:08 5708 3

原创 深度学习速成(10)LSTM长短期记忆网络

LSTM(Long Short-Term Memory)是一种特殊类型的循环神经网络(Recurrent Neural Network,RNN),用于处理序列数据。相比于传统的RNN,LSTM具有更强大的记忆能力,可以更好地捕捉和处理长期依赖关系。LSTM通过使用称为"门"的机制来控制信息的流入和流出。主要有三种类型的门:遗忘门(forget gate)、输入门(input gate)和输出门(output gate)。遗忘门决定了前一时刻的记忆状态中哪些信息将被遗忘,输入门控制着当前输入应该存储多

2023-07-02 15:51:29 130 1

原创 深度学习速成(9)循环神经网络RNN的分类

循环神经网络RNN的分类

2023-06-04 11:09:47 516 1

原创 深度学习速成(8)循环神经网络RNN

循环神经网络RNN

2023-05-28 14:44:49 111

原创 深度学习速成(7)人工神经网络简述

人工神经网络简述

2023-05-28 14:17:18 163

原创 深度学习速成(6)softmax回归

softmax回归适用于分类问题。

2023-05-25 15:34:46 163

原创 深度学习速成(5)torch.nn.Module类

nn.Module 是PyTorch中的一个基础类,用于构建神经网络模型。

2023-05-25 12:18:53 386

原创 深度学习速成(4)Pytorch实现数字识别

手动实现数字识别

2023-05-24 16:14:04 441

原创 深度学习速成(3)Pytorch自带的数据集介绍

Pytorch自带的数据集介绍

2023-05-24 15:19:47 1790

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除