自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

AndrewPerfect的博客

Welcome to come and join us for communication and learning together! ! !

  • 博客(146)
  • 收藏
  • 关注

原创 nodejs下载+react安装

npm config set prefix “你的路径\node_global” (复制你刚刚创建的“node_global”文件夹路径)npm config set cache “你的路径\node_cache” (复制你刚刚创建的“node_cache”文件夹路径)在【系统变量】中选择【Path】点击【编辑】添加【NODE_PATH】,随后一直点击【确定】【此电脑】-单击右键-【属性】-【高级系统设置】-【环境变量】编辑【用户变量】中的【Path】在【系统变量】中点击【新建】出现以下界面即为配置成功。

2024-07-19 18:42:22 651

原创 算法题——插入排序

有点类似向前的冒泡排序。时间复杂度:O(n^2)空间复杂度:O(1)

2024-07-15 22:24:14 119

原创 算法题——选择排序

中找到最小(最大),放在已排序序列尾部。ps:希、快、简、堆 不稳定。时间复杂度 O(n^2)空间复杂度 O(1)

2024-07-15 21:54:19 113

原创 leetcode160.相交链表

的输入如下(你设计的程序。

2024-07-15 21:36:49 377

原创 算法题——冒泡排序

【代码】算法题——冒泡排序。

2024-07-15 21:01:10 189

原创 leetcode239.滑动窗口最大值

思路: 先将k个数放入队列 然后i从k号开始i-k号出队,i+k号入队,然后每次选出最大值再加入result结果数组中。# 每次入队都会和对前边的元素比较 如果队中元素小于要入队的元素,就将队中元素出队;# 每次出队时,如果队头和传入的value比较值一样,则将其对头出队。的滑动窗口从数组的最左侧移动到数组的最右侧。你只可以看到在滑动窗口内的。滑动窗口的位置 最大值。滑动窗口每次只向右移动一位。

2024-07-14 20:19:21 316

原创 算法题——快速排序

时间复杂度:O(nlogn) 类似树形结构,每一轮都能将数组平均分成两部分,那么。空间复杂度:O(n) 因为每次递归都会确定一个元素的位置,共开辟n个空间。

2024-07-14 20:06:46 205

原创 leetcode74. 搜索二维矩阵

给你一个满足下述两条属性的m x n给你一个整数target,如果target在矩阵中,返回true;否则,返回false。

2024-07-11 11:00:01 359

原创 leetcode300:最长递增子序列

dp[i]表示当前数字前可以有多少递增序列(包含本身)给你一个整数数组nums,找到其中。是由数组派生而来的序列,删除(或不删除)数组中的元素而不改变其余元素的顺序。例如,[3,6,2,7]是数组的子序列。4最长递增子序列是 [2,3,7,101],因此长度为 4。41dp[i]表示当前数字前可以有多少递增序列(包含本身)

2024-07-11 10:07:37 256

原创 推荐算法——NDCG归一化折扣累积增益

(Normalized Discounted Cumulative Gain),是一种常用的衡量搜索引擎和推荐系统结果质量的指标。NDCG考虑了结果的相关性和结果的排名位置,其值在0到1之间,值越大表示搜索结果质量越高。IDCG是理想情况下的DCG,即结果按相关性排序时的DCG。其计算方法与DCG相同,只不过结果列表是按相关性降序排列的。其中,relirel_ireli​ 表示结果列表中第 iii 个结果的相关性评分,ppp 是结果列表的长度。

2024-07-11 00:08:38 273

原创 机器学习——LR、‌GBDT、‌SVM、‌CNN、‌DNN、‌RNN、‌Word2Vec等模型的原理和应用

CNN通过卷积操作提取输入数据的局部特征,并通过池化操作降低特征图的维度,从而实现对输入数据的有效表示。以上是对LR、GBDT、SVM、CNN、DNN、RNN、Word2Vec等模型原理和应用的简要介绍。特别是在图像识别方面,CNN通过训练可以学习到丰富的特征表示,从而实现对图像的有效分类和识别。逻辑回归模型因其简单、可解释性强、易于实现等特点,被广泛应用于机器学习、深度学习、推荐系统、广告预估、智能营销、金融风控、社会学、生物学、经济学等领域。SVM在文本分类、图像分类、生物信息学等领域都有广泛的应用。

2024-07-11 00:04:49 1316

原创 推荐算法——MRR

MRR计算的是第一个正确答案的排名的倒数,并对所有查询取平均值。它衡量了模型在排序结果中快速找到正确答案的能力。

2024-07-10 23:30:51 766

原创 大模型/NLP/算法面试题总结9——从普通注意力换成多头注意力会导致参数暴涨吗?

从普通注意力换成多头注意力(Multi-Head Attention),通常不会导致参数总量暴涨。相反,在某些实现和配置下,参数量的增加可能相对可控,甚至在某些情况下,通过优化可以实现参数量的有效控制。

2024-07-10 22:47:14 648

原创 机器学习——ROC曲线和AUC

2、AUC是ROC曲线下的面积大小 取值一般在0.5~1之间。

2024-07-10 22:12:22 108

原创 推荐算法有哪些?——协同过滤、内容推荐、DNN、FM、DeepFM

协同过滤是一种基于用户行为的推荐算法,它利用用户的历史行为数据(如购买记录、浏览记录、评分等)来找到与目标用户兴趣相似的其他用户或物品,从而推荐可能感兴趣的商品。

2024-07-10 21:52:15 881

原创 大模型/NLP/算法面试题总结7——LLaMA和别的模型架构有什么区别

综上所述,LLaMA模型架构在设计思想、技术细节和应用场景上均与其他模型存在显著差异。特别是其开源特性和在公共预训练数据上的训练,使得LLaMA易于被其他研究者和开发者使用和改进。在归一化方法上,许多模型采用BatchNorm或LayerNorm,而LLaMA的。,通过旋转变换在复数域中编码位置信息,能够更好地捕捉序列中的相对位置信息。激活函数方面,不同模型可能采用ReLU、GELU等不同的激活函数,往往追求更大的模型规模,认为更大的模型能够带来更好的性能。,增强了模型的表达能力和性能。

2024-07-10 18:44:04 457

原创 大模型/NLP/算法面试题总结5——Transformer和Rnn的区别

处理方式RNN 通过递归处理序列,依赖前一个时间步的状态。Transformer 使用自注意力机制并行处理整个序列。训练效率RNN逐步计算,训练速度较慢。并行计算,训练速度较快。捕捉依赖关系RNN 在处理长程依赖时可能遇到困难。Transformer 能够有效捕捉长程依赖。应用场景RNN 主要用于早期的 NLP 任务和时间序列预测。Transformer 广泛用于现代 NLP 任务和预训练语言模型。

2024-07-10 18:19:15 379

原创 大模型/NLP/算法面试题总结8——预训练模型是什么?微调的方法?

大模型微调的方法多种多样,每种方法都有其独特的优势和适用场景。在选择微调方法时,需要根据任务的具体性质和需求、计算资源的限制以及模型的特点来综合考虑。同时,由于大型语言模型的复杂性,微调过程可能需要较大的计算资源和时间,因此需要谨慎选择超参数、进行良好的数据预处理和选择适当的评估指标。

2024-07-10 18:18:32 1080

原创 大模型/NLP/算法面试题总结6——为什么会产生梯度消失和梯度爆炸?

梯度消失和梯度爆炸是深度学习中常见的问题,它们主要发生在神经网络的训练过程中,尤其是在使用反向传播算法进行权重更新时。以下是对这两个问题产生原因的详细分析:一、梯度消失的原因深层网络结构: 当神经网络层数过多时,梯度在反向传播过程中会经过多次连乘操作。如果每层的梯度都小于1(如sigmoid函数的导数在大部分情况下都小于0.25),那么随着层数的增加,梯度值会以指数形式迅速衰减到接近于0,导致梯度消失。 不合适的激活函数: 某些激活函数(如sigmoid和tanh)的导数在输入值远离原点

2024-07-10 15:51:02 836

原创 机器学习——L1 L2 范数 —>L1 L2正则化

L1范数:也被称为曼哈顿范数,是向量元素的绝对值之和。。L2范数:也被称为欧几里得范数,是向量元素的平方和的平方根。

2024-07-10 14:17:40 698

原创 大模型/NLP/算法面试题总结2——transformer流程//多头//clip//对比学习//对比学习损失函数

对比学习(Contrastive Learning)是一种机器学习方法,特别是在无监督学习和自监督学习中广泛应用。其核心思想是通过比较不同样本之间的相似性和差异性来学习数据的表示或特征。这种方法不依赖于标签数据,而是通过样本之间的相互关系,使得模型能够学习到有意义的特征表示。

2024-07-09 22:38:00 911

原创 大模型/NLP/算法面试题总结4——bert参数量计算

BERT的总参数量可以大致通过加总上述各个组件的参数量来估算。但请注意,具体的参数量还会受到模型配置(如隐藏层大小。

2024-07-09 22:13:55 615

原创 大模型/NLP/算法面试题总结3——BERT和T5的区别?

BERT专注于编码任务,擅长理解文本上下文,适用于文本分类、NER、问答等需要文本表示的任务。T5:采用文本到文本的统一框架,适用于多任务学习和文本生成任务,具有很强的灵活性和扩展性。

2024-07-09 21:46:24 481

原创 大模型/NLP/算法面试题总结1——大语言模型有哪些//泛化能力

由OpenAI开发,具有1750亿个参数,是迄今为止最强大的自然语言处理模型之一。GPT-3能够生成连贯的文本,涵盖多种文体,如诗歌、小说、新闻报道、代码等。然而,它也存在潜在的偏见和不确定性问题。GPT-3的出现为大型语言模型的发展奠定了基础。(即将发布):据称将比GPT-3更加强大和通用,有望在自然语言处理、机器学习等多个领域展现出更加出色的表现。但截至当前时间(2024年7月8日),GPT-4的具体细节和性能尚未公布。

2024-07-09 20:50:53 1026

原创 回归损失和分类损失

回归损失和分类损失是机器学习模型训练过程中常用的两类损失函数,分别适用于回归任务和分类任务。

2024-07-08 17:54:34 623

原创 Faster R-CNN 和 YOLO 对比

性能和应用场景:适用于对检测精度要求较高的场景,如学术研究、工业检测等。它在处理复杂背景和多样化目标时具有优势,但由于速度较慢,不适合实时应用。YOLO:适用于需要高速度的实时检测场景,如自动驾驶、视频监控等。虽然精度相对较低,但其速度和效率使其在实时应用中非常有竞争力。模型复杂度和资源需求:模型复杂,训练和推理时间较长,需要较多计算资源。适合在有强大硬件支持的情况下使用。YOLO:模型简单,训练和推理速度快,资源需求较低。适合在资源有限的设备上进行实时检测。

2024-07-07 17:35:02 727

原创 Adam自适应动量优化算法

自适应学习率Adam算法的核心思想之一是自适应学习率。它根据每个参数梯度的一阶矩估计和二阶矩估计来动态调整每个参数的学习率。这种自适应机制使得Adam算法能够在训练过程中自动调整学习率,从而避免学习率过大或过小的问题。动量法Adam算法还引入了动量项,类似于传统的动量优化算法。动量项有助于处理梯度中的高方差或低方差情况,以平滑训练过程。这使得Adam算法在参数更新时具有惯性,能够加速收敛速度。算法步骤初始化参数、动量、梯度平方等。在每次迭代中,计算目标函数的梯度。

2024-07-07 17:23:00 413

原创 什么是voc数据,和coco数据的区别是什么?

Pascal VOC使用 XML 格式,单个图像一个标注文件,适合小型数据集和简单任务。COCO使用 JSON 格式,所有图像和标注在一个文件中,适合大型数据集和复杂任务。

2024-07-07 14:55:39 397

原创 leetcode49.字母异位词分组

""""""table = collections.defaultdict(list) # 这里注意defaultdict(list),当不存在s1的键值时,就会自动创建一个list列表,不会抛出错误return list(table.values())# 依次输出键的值列表 table是类似这样{'act': [cat,tac], 'ba': [ab]}

2024-07-07 14:14:29 343

原创 leetcode678:有效的括号字符串

注意题目要求:左括号 '(' 必须在对应的右括号之前 ')'。给你一个只包含三种字符的字符串,支持的字符类型分别是。请你检验这个字符串是否为有效字符串,如果是。正向的*+(>=),反向的*+)>=(解:python语言。解:python语言。

2024-07-07 14:04:15 346

原创 目标检测之非极大值抑制——NMS

非极大值抑制是一种在任务中常用的后处理技术,主要用于。NMS的主要目的是,从而提高检测结果的精确度。

2024-07-04 17:49:05 746 1

原创 table = collections.defaultdict(list)申请的字典的类型是什么?

类型的对象,但它提供了与普通字典相似的接口,并在需要时自动处理缺失的键。这使得它特别适用于需要动态创建键并自动关联默认值(如列表、集合等)的场景。这意味着,当你尝试访问字典中不存在的键时,但是其行为和表现方式在某些方面与普通的字典()相似,主要区别在于它如何处理缺失的键。在你提供的例子中,这个默认值是列表(,而不是像普通字典那样抛出。,它提供了一个字典的子类,

2024-07-04 16:24:05 296

原创 怎么样调整分类的阈值

调整分类模型的阈值是改变模型对正负类的预测标准的一种方法,常用于提高精确率、召回率或者其他性能指标。

2024-07-03 11:50:52 895

原创 假阳性和假阴性、真阳性和真阴性

在深度学习的分类问题中,真阳性、真阴性、假阳性和假阴性是评估模型性能的重要指标。模型预测为正类(阳性),且实际标签也是正类这些指标可以通过混淆矩阵(Confusion Matrix)来直观表示。

2024-07-03 10:41:54 1045

原创 深度学习之交叉验证

交叉验证(Cross-Validation)是一种用于评估和验证机器学习模型性能的技术,尤其是在数据量有限的情况下。它通过将数据集分成多个子集,反复训练和测试模型,以更稳定和可靠地估计模型的泛化能力。

2024-07-02 21:42:18 498

原创 重采样(上采样或下采样)是什么?

重采样(Resampling)是在数据处理中常用的一种技术,主要用于处理问题。具体来说,重采样可以分为上采样(Oversampling)和下采样(Undersampling),它们分别是通过增加或减少某些类别的数据量来达到数据平衡的目的。

2024-07-02 21:33:41 488

原创 backbone是什么?

在深度学习中,特别是计算机视觉领域,。它通常是卷积神经网络(CNN),其任务是从输入图像中提取高层次特征,这些特征然后被用于各种任务,如目标检测、图像分割、分类等。

2024-07-02 21:05:43 753

原创 机器学习之参数-P、R、AP、mAP、F1

调小的同时增大学习率(learning_rate)是一种常用的策略,旨在保持训练速度的同时提高模型的训练质量。可能使得每次迭代中的噪声增加,从而有助于模型跳出局部最小值;而增大的学习率则有助于模型更快地更新权重。预测样本中实际正样本数。预测样本中实际正样本数。

2024-07-02 16:04:31 393

原创 深度学习之keras

它能够运行在 TensorFlow、Theano 或 CNTK(Microsoft-developed Computational Network Toolkit)之上。不过,自 Keras 被 TensorFlow 团队接纳并作为 TensorFlow 的高级 API 之后,现在 Keras 主要与 TensorFlow 紧密集成,并且推荐使用 TensorFlow 作为其后端。(PS:不用TensorFlow也可以使用Keras。

2024-07-01 20:55:37 393

原创 深度学习之激活函数

以上这些激活函数在神经网络中起着至关重要的作用,它们通过添加非线性因素,使得神经网络能够学习和拟合复杂的真实世界系统。激活函数的公式根据不同的函数类型而有所不同。

2024-07-01 18:24:31 511

深度学习入门基础笔记自己手写

学习了基本的深度学习的一些算法。 原链接地址:https://www.zybuluo.com/hanbingtao/note/433855

2023-04-29

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除