机器学习
文章平均质量分 66
机器学习相关
Hello3q3q
某大厂底层员工
展开
-
CNN中每个通道输入输出关系
如下图所示,input为输入的某个通道,kernel为卷积核,output为卷积后的输出。记输入通道维度为input_size,输出维度为output_size,步长为stride,卷积核维度kernel,padding即为在周边填充0的维度,输入输出之间关系为:output‾size=(input‾size+2∗padding−kernel)/stride+1output\underline{\quad}size = (input\underline{\quad}size+2*padding-kern原创 2021-09-03 09:34:15 · 1151 阅读 · 0 评论 -
Pytorch中神经网络学习率衰减方法
1. 为什么要衰减学习率(learning rate, lr)代表梯度下降的步长,与传统智能优化算法(比如粒子群算法)类似,如果搜索步长太大有可能会跳出最优区间,如果搜索步长太小,有可能陷于局部最优值。在神经网络刚开始训练的时候,可以将学习率lr设置的大一点(比如0.01),后面随着训练代数的增加将学习率逐步减小,这样平衡了探索和开发的能力。2. 衰减方法参考pytorch官方文档pytorch官方给我们提供了几个衰减函数:torch.optim.lr_scheduler.StepLR(),torc原创 2021-05-31 14:44:57 · 1887 阅读 · 3 评论 -
(吐血整理)一文讲懂Seq2Seq(Attention)模型原理及在Pyorch中的实现
目录0. 前言1. 模型总体结构2. 模型具体流程分析3. 数据集说明4. Pytorch中循环神经网络API5. Encoder层5.1 原理分析5.2 Pytorch模块分析5.3 示例代码6. Attention层6.1 原理分析6.2 示例代码7. Decoder层7.1 原理分析7.2 示例代码8. Seq2Seq层8.1 原理分析8.2 示例代码0. 前言看了整整一周的Seq2Seq(Attention)模型才有点明白,参考B站一位很厉害的up主讲解,视频,但是他的视频和代码有一些错误,经过原创 2021-03-19 17:18:14 · 10257 阅读 · 6 评论 -
Pytorch循环神经网络(RNN)快速入门与实战
0. 前言很久没用过Pytorch,忘得差不多了,最近课题需要用,所以整理一下RNN的使用方法。记得去年学这部分一直很迷糊,所以希望这篇博客能对大家有所帮助。1. 简单循环神经网络结构先简单聊聊RNN的结构。最简单的一层RNN网络结构如下图所示,其中,每个箭头都表示一个权值,输入为向量X=[x1,x2,...,xT]X=[x_1,x_2,...,x_T]X=[x1,x2,...,xT],输出向量为Y=[y1,y2,...,yT]Y=[y1,y2,...,y_T]Y=[y1,y2,...,yT]原创 2021-03-04 17:43:30 · 48335 阅读 · 28 评论 -
基于RNN的注意力机制(结合实例的超详细讲解)
强推这位博主写的博客:https://blog.csdn.net/u011984148/article/details/99439993看完后茅塞顿开。原创 2021-02-28 15:50:43 · 3561 阅读 · 0 评论 -
聚类效果的外部评价指标——纯度(Purity)及其Python和matlab实现
0. 前言我的课题中有一部分是评价聚类结果的好坏,很多论文中用正确率来评价。对此,我一直持怀疑态度,因为在相关书籍中并没有找到“正确率”这一说法,只有分类的时候才用到。若要评价分类结果,Python中直接调用sklearn库中的accuracy_score就可以得出准确率。那么聚类的“正确率”如何定义又如何计算呢?假设有5个有标签的目标,对应标签表示为y_true=[0,0,0,1,1],根据聚类算法的输出是y_pre=[1,1,1,,0,0],此时聚类结果是完全正确的,因为算法把前三者归为一类,后两者原创 2020-12-29 16:25:35 · 14117 阅读 · 10 评论 -
(MATLAB)一元线性回归和多元线性回归
(MATLAB)一元线性回归和多元线性回归1.一元线性回归2.多元线性回归2.1数据说明2.2程序运行结果1.一元线性回归直接看代码,目标是建立yyy和xxx的函数关系,即求y=kx+by=kx+by=kx+b中的kkk和bbb,kkk和bbb都是实数。% 用regress函数进行回归x=[23.80,27.60,31.60,32.40,33.70,34.90,43.20,52.80,63.80,73.40];y=[41.4,51.8,61.70,67.90,68.70,77.50,95.90,1原创 2020-08-28 14:39:44 · 5617 阅读 · 3 评论