自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(37)
  • 收藏
  • 关注

原创 【深度学习】Pytorch实现运动鞋识别

设置动态学习率时,需注意PyTorch提供了torch.optim.lr_scheduler模块,其中包含多种学习率调度器,如StepLR、MultiStepLR、ExponentialLR等。这些调度器可以自动处理学习率的更新,使代码更加简洁和易于管理。

2024-09-06 21:58:48 802

原创 【机器学习练习】糖尿病预测

构建随机森林模型选择特征时,注意选择具有一定波动性,且与待预测值的相关性高的。

2024-08-23 18:02:56 1014 1

原创 【机器学习】随机森林

随机森林(Random Forest, RF)是一种由 决策树 构成的 集成算法 ,采用的是 Bagging 方法,他在很多情况下都能有不错的表现。如下表。数据预处理对于任何模型而言都是至关重要的。其中包含了对空值的处理、去重、去除噪声数据等。

2024-08-16 19:36:23 922

原创 【机器学习练习】

简单来说, 逻辑回归(Logistic Regression)是一种用于解决二分类(0 or 1)问题的机器学习方法,用于估计某种事物的可能性。比如某用户购买某商品的可能性,某病人患有某种疾病的可能性,以及某广告被用户点击的可能性等。逻辑回归(Logistic Regression)与线性回归(Linear Regression)都是一种广义线性模型(generalized linear model)。逻辑回归假设因变量 y 服从伯努利分布,而线性回归假设因变量 y 服从高斯分布。

2024-08-09 18:02:44 403

原创 【ML练习】K-邻近算法模型(KNN)

背景: 海伦一直使用在线约会网站寻找适合自己的约会对象。尽管约会网站会推荐不同的人选,但她没有从中找到喜欢的人。①不喜欢的人;②魅力一般的人;③极具魅力的人。①每年获得的飞行常客里程数②玩视频游戏所耗时间百分比③每周消费的冰淇淋公升数她希望根据现有的数据来判断一个陌生男人会被她归到哪一类。在数据特征维度较少的情况下,准确率不会特别理想。可通过特征组合来实现多特征,以便增强准确率。

2024-07-25 23:13:13 509

原创 【ML练习】决策树

代码目标:我们希望通过鸢尾花数据,训练一个决策树模型,之后应用该模型,可以根据鸢尾花的四个特征去预测它的类别。在使用决策树时,首先需确认分类及预测的对象,另外在处理缺失值时,也需注意。

2024-07-19 19:12:27 382

原创 【RNN练习】天气预测

数据预处理中,数据缺损严重时,可在该列中选择数进行填充数据相关性研究可帮助参数的调节。

2024-07-12 20:21:50 535

原创 【深度学习练习】心脏病预测

RNN与传统神经网络最大的区别在于,每次都会将前一次的输出结果,带到下一隐藏层中一起训练。注意numpy与panda以及matplotlib等之间的兼容性注意对每一列的特征数据标准化处理。

2024-07-05 12:57:59 596

原创 【RNN练习】LSTM-火灾温度预测

训练循环train_loss = 0 # 初始化训练损失和正确率# 计算预测误差pred = model(x) # 网络输出loss = loss_fn(pred, y) # 计算网络输出和真实值之间的差距# 反向传播opt.zero_grad() # grad属性归零loss.backward() # 反向传播opt.step() # 每一步自动更新# 记录losssize = len(dataloader.dataset) # 测试集的大小。

2024-06-28 21:29:16 544

原创 【NLP练习】Transformer实战-单词预测

定义编码器层#定义编码器,pytorch将Transformer编码器进行了打包,这里直接调用即可#初始化权重"""Arguments:src: Tensor, 形状为[seq_len, batch_size]src_mask: Tensor, 形状为[seq_len, seq_len]Returns:输出的Tensor,形状为[seq_len, batch_size, ntoken]"""#生成位置编码的位置张量#计算位置编码的除数项#创建位置编码张量。

2024-06-21 21:51:17 640

原创 【NLP练习】Transformer中的位置编码

Transformer 模型中的位置编码是为了在处理序列数据时引入位置信息,以便模型能够分辨输入序列中不同位置的词或标记。其中,每个位置/索引都映射到一个向量。因此,位置编码层的输出是一个矩阵,其中矩阵的每一行代表序列中的一个编码对象与其位置信息相加。下图为仅对位置信息进行编码的矩阵示例。Transformer的位置编码一方面通过正弦和余弦函数来编码位置信息,这种编码方式能够使得不同位置的编码在空间上有良好的分布。

2024-06-14 21:43:20 1118

原创 【NLPl练习】Transformer起源与发展

Transformer模型的本质是预训练语言模型,首先采用自监督学习的方式在大量生语料库上训练,无需人工标注。

2024-05-24 21:59:16 255

原创 【NLP练习】seq2seq实战

通过使用Teacher Forcing策略,可以在训练解码器时平衡模型的预测能力和稳定性,同时也提供了更灵活的生成模式选择。

2024-05-18 00:03:47 507

原创 【NLP练习】使用seq2seq实现文本翻译

Teacher Forcing可通过将目标序列的真实值作为解码器的输入,帮助解码器更快的学习到正确的输出。

2024-05-10 21:30:17 557

原创 【NLP练习】seq2seq

seq2seq(sequence to sequence)是一种常见的NLP模型架构,即:从一个文本序列得到一个新的文本序列。常用来处理:机器翻译任务,文本摘要任务。

2024-04-26 23:48:38 318

原创 【NLP练习】使用Word2Vec实现文本分类

定义训练与评估函数model.train() #切换为训练模式optimizer.zero_grad() #grad属性归零loss = criterion(predicted_label, label) #计算网络输出和真实值之间的差距,label为真loss.backward() #反向传播torch.nn.utils.clip_grad_norm_(model.parameters(),0.1) #梯度裁剪optimizer.step() #每一步自动更新#记录acc与loss。

2024-04-19 21:51:12 696

原创 【NLP练习】调用Gensim库训练Word2Vec模型

Gensim库在使用的过程中更加高效、易用。

2024-04-12 21:46:08 562

原创 【NLP练习】中文文本分类-Pytorch实现

定义训练与评估函数model.train() #切换为训练模式optimizer.zero_grad() #grad属性归零loss = criterion(predicted_label, label) #计算网络输出和真实值之间的差距,label为真loss.backward() #反向传播torch.nn.utils.clip_grad_norm_(model.parameters(),0.1) #梯度裁剪optimizer.step() #每一步自动更新#记录acc与loss。

2024-04-05 15:21:48 607 1

原创 【NLP练习】Pytorch文本分类入门

定义TextClassificationModel模型,首先对文本进行嵌入,然后对句子嵌入后的结果进行均值聚合self.embedding = nn.EmbeddingBag(vocab_size, #词典大小embed_dim, # 嵌入的维度#定义实例#定义训练函数与评估函数model.train() #切换为训练模式optimizer.zero_grad() #grad属性归零。

2024-03-31 15:20:51 772 2

原创 【NLP学习记录】Embedding和EmbeddingBag

在Pytorch中,Embedding的输入是一个整数张量,每个整数都代表着一个词汇的索引,输出是一个浮点型的张量,每个浮点数都代表着对应词汇的词嵌入向量。在Pytorch中,EmbeddingBag的输入是一个整数张量和一个偏移量张量,每个整数都代表着一个词汇的索引,偏移量则表示句子中每个词汇的位置,输出是一个浮点型的张量。主要优化点在于:它可以直接处理不定长的句子,并可计算句子中所有词汇的词嵌入向量的均值或总和。EmbeddingBag层中的mode参数用于指定如何对每个序列中的嵌入向量进行汇总。

2024-03-22 22:06:47 948 1

原创 【NLP学习记录】One-Hot编码

one-hot编码的基本思想是将每个类别映射到一个向量,其中只有一个元素的值为1,其余元素的值为0。这样,每个类别之间相互独立,不存在顺序或距离关系。在深度学习中,神经网络的输入层通常使用one-hot编码来表示分类变量。这种编码方式可避免不必要的关系假设,还能清晰的输入表示,有助于模型的学习和泛化。

2024-03-15 21:54:56 468 1

原创 【深度学习记录】猴痘病识别

测试函数和训练函数大致相同,但是由于不进行梯度下降对网络权重进行更新,所以不需要传入优化器。对数据维度进行扩充。给指定位置加上维数为一的维度。对数据的维度进行压缩,去掉维数为1的的维度。

2024-03-08 00:25:58 398 1

原创 【深度学习练习记录】天气识别

大家注意一下在卷积层和全连接层之间,我们可以使用之前是torch.flatten()也可以使用我下面的x.view()亦或是torch.nn.Flatten()。torch.nn.Flatten()与TensorFlow中的Flatten()层类似,前两者则仅仅是一种数据集拉伸操作(将二维数据拉伸为一维),torch.flatten()方法不会改变x本身,而是返回一个新的张量。在model(test)之前,需要加上model.eval(),否则的话,有输入数据,即使不训练,它也会改变权值。

2024-02-29 22:38:10 873

原创 SQL Server基础信息

数据库基础

2022-08-07 21:42:53 239 1

转载 C++中vector用法总结

vector是一个能够存放任意类型的动态数组。1.构造函数vector v;创建一个空vectorvector v(int n);创建一个元素个数为n的vector,初始值为0vector v(int n,const t& t);创建一个元素个数为n,且值均为t的vectorvector v(const vector&);复制构造函数vector v(begin,end);复制[begin,end)区间内另一个数组的元素到vector中int a[3]={1,2,3} vect

2021-06-18 21:48:59 617

转载 支持向量机SVM的matlab程序

原文链接https://blog.csdn.net/lyxleft/article/details/82880860

2020-12-26 11:25:26 519

转载 matlab创建三维数组的三种方法

在Matlab中习惯性的会将二维数组中的第一维称为“行”第二维称为“列”,而对于三维数组的第三位则是习惯性的称为“页”。在Matlab中将三维及三维以上的数组统称为高维数组,三维数组也是高级运算的基础,本文将介绍三种创建三维数组的方法。(注:本文为实例操作步骤,一些代码并没做过多介绍)使用下标创建三维数组1在Matlab命令框中输入以下代码可以创建简单的三维数组:for i=1:2for j=1:2for k=1:2A(i,j,k)=i+j+k;endendend2要查看程序结果。在

2020-12-16 20:13:49 11695

转载 matlab读取多张图片数据

方法一:I=cell(1,99); %这个好像是创99个房间用来一个放图片信息for b=1:99m1=imread([‘D:’,int2str(b),’.bmp’]); %m1是一个公共变量会不停的被下一张图片信息覆盖最后是最后一张图片的信息I{b}=m1; %I{1}。。。I{99}就是每一张图片的信息end%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%就是读取’D:‘下的文件名为1.bmp到99.bmp的文件

2020-12-09 15:27:44 3069

转载 相机成像原理与数学模型

原链接地址

2020-11-05 14:21:31 480

转载 计算机视觉之相机成像几何模型(原理)与相机标定内参和外参(代码)

原博客链接

2020-11-05 10:39:09 313

转载 FFT频率和实际物理频率的分析

FFT是快速傅里叶变换,是离散傅里叶变换的快速算法。我们想要利用FFT计算频率或者观察频谱特性,离不开DFT的定义和性质。先简单介绍三个名词。f 是实际物理频率,表示AD采集物理模拟信号的频率,Fs就是采样频率,根据奈奎斯特采样定理可以知道,Fs必须≥信号最高频率的2倍才能避免产生频谱混叠,也就是说用Fs做采样频率,信号的最高频率为Fs/2。Ω称为模拟频率。ω称为数字频率。二者的关系ω = Ω/Fs。假设x(n)的N点离散傅立叶变换为X(k),由定义式可以推出X(k)为x(n)的傅里叶变换X(ejw

2020-10-23 15:19:54 2849

原创 Chirp信号基础知识及matlab实现

Chirp信号的表达式如下:x(t)=exp(j2π(f0t+12kt2))x(t)=exp(j2\pi (f_0t+\frac{1}{2} kt^2))x(t)=exp(j2π(f0​t+21​kt2))其中,f0f_0f0​ 称作起始频率,k为调频率对相位进行求导,得到角频率以及频率随时间的线性变化关系 f = f0+k*t,也可通过欧拉公式转换得到。给定信号信号时间长度为50ms 带宽 B=5KHz,初始频率f0=3KHzf_0=3KHzf0​=3KHz 采样频率为 fsf_sfs​ =

2020-10-22 19:33:12 25487 5

转载 FrFT在信号处理领域的研究进展

分数阶 Fourier 变换是对经典 Fourier 变换的推广. 最早由 Namias 以数学形式提出, 并很快在光学领域得到了广泛应用。分数阶 Fourier 变换直观上可看作是 chirp 基分解, 而实质上分数阶 Fourier 变换更具有时频旋转的特性, 它是一种统一的时频变换, 随着变换阶数从 0 连续增长到 1 而展示出信号从时域逐步变化到频域的所有特征。****傅里叶变换缺陷:是一种全局变换,得到的是信号的整体频谱,无法表达信号的时频局部特性,无法更好的解决非平稳信号解决措施提出一

2020-10-16 12:43:36 1775

转载 采样定理

转载地址:https://blog.csdn.net/yanchuan23/article/details/85263565感谢博主!1、奈奎斯特采样如果信号的最高频率是 fHf_HfH​,为了使抽样所得的离散值不丢失原信号的信息,那么至少以2fH2f_H2fH​的速率进行抽样。即当采样率 fs≤2fHf_s\leq 2f_Hfs​≤2fH​,得到的离散信号 xnx_nxn​ 就可以完全恢复原模拟信号 xtx_txt​ 。2、带通采样对于某些信号的带宽只占可用频段的很小一部分,相比于上限频率或下

2020-10-15 20:37:50 328

转载 分数阶傅立叶变换程序汇总(转载)

转载链接http://forum.vibunion.com/forum.php?mod=viewthread&action=printable&tid=41561声振论坛标题: 分数阶傅立叶变换程序汇总(个人收集自网上) [打印本页]作者: simon21 时间: 2007-4-26 19:46标题: 分数阶傅立叶变换程序汇总(个人收集自网上)都是从网上收集来的,由于时间比较久,处处都忘记了,如果是谁的原创请和我联系,我在帖子中标出来的第二楼:the fast fracti

2020-09-09 20:23:37 1843

转载 分数阶傅里叶变换(FRFT)之数值计算入门概要(转载)

原文链接https://blog.csdn.net/qq_31436943/article/details/80395937?utm_medium=distribute.pc_relevant_download.none-task-blog-baidujs-4.nonecase&depth_1-utm_source=distribute.pc_relevant_download.none-task-blog-baidujs-4.nonecase

2020-09-07 20:36:26 1056

转载 数据挖掘之分类指标:召回率 、精确度、准确率、虚警率和漏警率(转载)

**数据挖掘之分类指标:召回率 、精确度、准确率、虚警率和漏警率**转载自https://snv.iteye.com/blog/2113945场景如下:假设原样本有两类,True和False,其中:1.总共有T个类别为True的样本;2.总共有F个类别为False的样本;分类预测后:1.总共有TT个类别为True的样本被系统判为True,FT个类别为True的样本被系统判为False,则TT+FT=T2.总共有FF个类别为False的样本被系统判为False,TF个类别为False的样本

2020-09-05 10:12:07 1456

【NLP学习记录】One-Hot编码

【NLP学习记录】One-Hot编码

2024-03-15

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除