机器学习算法
文章平均质量分 78
山外小楼听夜雨.
每天敲点代码..
展开
-
两步搞定经验模态分解与离散小波变换
参考文章:上图是时域,下图是频域。所以很多在时域看似不可能做到的数学操作,在频域相反很容易。这就是需要傅里叶变换的地方。尤其是从某条曲线中去除一些特定的频率成分,这在工程上称为滤波,是信号处理最重要的概念之一,只有在频域才能轻松的做到。......原创 2022-06-15 19:11:43 · 1318 阅读 · 0 评论 -
ARIMA学习(一)
文章目录1 ARIMA前提1.1 平稳性1.2 严平稳与弱平稳1.3 差分法:时间序列在t和t-1时刻的差值自回归模型(AR)1 ARIMA前提1.1 平稳性要求序列的均值和方差不发生明显的变化。1.2 严平稳与弱平稳一般来说,我们的数据都是弱平稳的数据。严平稳:期望为0,方差为1弱平稳(基本上都是弱平稳):某来的数据余姚依赖它过去的信息,也就是需要依赖性1.3 差分法:时间序列在t和t-1时刻的差值可以得到一阶差分、二阶差分…做差分,可以使得数据的平稳性更好一些自回归模原创 2022-05-23 11:12:58 · 1219 阅读 · 0 评论 -
ResNet || 残差网络结构学习、Batch Normalization、迁移学习
文章目录1 介绍ResNet网络1 介绍ResNet网络 ResNet在2015年由微软实验室提出,斩获当年ImageNet竞赛中分类任务第一名,目标检测第一名。获得COCO数据集目标检测第一名,图像分割第一名。 网络中的亮点:(1)超深的网络结构(突破1000层)(2)提出residual模块(3)使用 Batch Normaliz原创 2022-05-02 18:49:43 · 944 阅读 · 0 评论 -
ResNet || 基于PyTorch的代码实现 + 迁移学习
文章目录1 class Basicblock1.0 expansions是什么1.1 输入的参数1.2 conv1层的参数1.3 forward函数2 class Bottleneck写在前面:上一篇博文介绍了ResNet 、 Batch Normalization 、 迁移学习的原理,有兴趣的小伙伴可以一起学习!这里是引用1 class Basicblock这里对应的是18-layer、34-layer 的结构class BasicBlock(nn.Module): expan原创 2022-05-02 18:34:10 · 555 阅读 · 0 评论 -
github代码分析——PSO粒子群优化算法代码(python)
文章目录1 readme阅读2 代码本篇博文是建立在阅读Gao老师的repository代码之上,老规矩,分享转发,请老师收下我的膝盖!repository的地址:https://github.com/EddyGao/PSO1 readme阅读 粒子群优化算法(PSO:Particle swarm optimization) 是一种进化计算技术(evolutionary computation)。&nb原创 2022-05-01 20:03:20 · 3306 阅读 · 3 评论 -
github代码分析——Siamese神经网络
文章目录1 下载代码2 读readme.md2.1 所需环境注意事项2.2 文件下载3 预测阶段3.1 解决问题1写在前面:在github上面学习代码是研究生必备技能,本篇博客就以学习Siamese Network(pytorch) 为例,分享如何在github上学习代码!首先介绍一下,这个博主bubbliiiing在github上面分享了很多自己的代码,非常nice!大家也要养成学习别人的知识同时也要点赞鼓励分享的好习惯哦!!1 下载代码首先可以看到红色箭头的地方,有作者写的关于代码的介原创 2022-05-01 09:53:57 · 1732 阅读 · 0 评论 -
PSO:粒子群优化算法【概念||对比||代码】
文章目录1 概念2 粒子群算法分析2.1 问题抽象2.2 更新规则3 粒子群算法的流程图和伪代码4 举个例子5 代码1 概念 粒子群优化算法PSO:Particle swarm optimization 是一种进化计算技术(evolutionary computation)。源于对鸟群捕食的行为研究。粒子群优化算法的基本思想:是通过群体中个体之间的协作和信息共享来寻找最优解. PSO的优势:优化一些简单、容易实现、参数不多的调原创 2022-04-29 10:55:11 · 1169 阅读 · 0 评论 -
CNN卷积层——nn.Conv1d和nn.Conv2d
文章目录1 一维卷积神经网络(nn.Conv1d)1.1 函数原型1.2 参数说明1.3 代码示例2 二维卷积神经网络(nn.Conv2d)2.1 函数原型写在前面:【图片护体】1 一维卷积神经网络(nn.Conv1d)一维卷积常常用在序列模型、自然语言处理领域;一维卷积用于文本数据,只对宽度进行卷积,对高度不卷积。1.1 函数原型class torch.nn.Conv1d(in_channels, out_channels, kernel_size, stride=1, padding=原创 2022-04-26 20:06:24 · 1676 阅读 · 2 评论 -
卷积神经网络的基础——LeNet网络详解
文章目录1 卷积神经网络的出世2 卷积神经网络的发展3 全连接神经网络3.1 反向传播是什么呢?4 Pytorch实现的LeNet网络4.1 注意点4.2 代码4.3 Con2d 源代码写在前面:研究生的自我修养,就是不断在看论文——看网络原理——看最前沿的算法之间反复横跳!本文适合有一定深度学习的童鞋学习,是自己第N次学习的记录~~1 卷积神经网络的出世CNN最早的雏形就是1998年由LeCun提出的LeNet网络!目前对于卷积神经网络,一个比较泛化的定义就是“含有卷积层的神经网络,都可以称为原创 2022-04-24 20:15:43 · 3029 阅读 · 2 评论 -
KL Divergence ——衡量两个概率分布之间的差异
文章目录1 什么是KL Divergence(KL散度,也说是KL距离)2 一个简单的例子3 KL的性质4 KL散度的公式介绍5 Pytorch实现KL散度——F.kl_div()5.1 函数原型5.2 简单代码6 KL散度在R- Drop中的应用6.1 什么是Dropout?6.2 引入 R-drop6.3 在R-Drop的代码1 什么是KL Divergence(KL散度,也说是KL距离)KL散度是一种概率分布和另一种概率分布的差异的距离。公式如下:2 一个简单的例子3 KL的性质具有原创 2022-04-23 16:33:57 · 7133 阅读 · 2 评论 -
R-Drop:更强大的Dropout正则方法
文章目录1 背景介绍1.1 Dropout技术1.2 Regularized Dropout (R-Drop)技术2 R-Dropout的原理介绍2.1 模型解释3 总结写在前面:本文学习引用微软研究院AI头条、“肉丸先生呀”的博文“R-Drop——更强大的Dropout”1 背景介绍1.1 Dropout技术深度神经网络(DNN)近来已经在各个领域都取得了令人瞩目的成功。在训练这些大规模的 DNN 模型时,正则化(regularization)技术,如 L2 Normalization、Batch原创 2022-04-23 10:19:20 · 2260 阅读 · 0 评论 -
神经网络 || 注意力机制的算法图示和推导
文章目录1 注意力机制是什么?2 多输入怎么处理?3 self-attention的图示4 自己整理一下self-attention的算法过程1 注意力机制是什么?注意力模型,最近几年在深度学习各个领域都有应用。注意力机制是深度学习常用的一个小技巧,它有多种多样的实现形式,尽管实现方式多样,但是每一种注意力机制的实现的核心都是类似的,就是注意力。**核心:让神经网络关注到我们更需要它关注的地方。**关注更核心的部分,抑制其他无用的信息。2 多输入怎么处理?对于一个属性的输入,普通神经网络原创 2022-04-20 20:29:50 · 2777 阅读 · 0 评论 -
自然数编码:sklearn.preprocessing.LabelEncoder
文章目录1 介绍LabelEncoder2 作用3 代码举例4 代码举例21 介绍LabelEncoder在训练模型之前,需要对数据进行处理,比如说分类,进行类别编号。举例:把“男”、“女”编号为“0”和“1”。2 作用把 n 个类别编码为 0 ~ n-1 之间的整数(包含0和n - 1)3 代码举例导包import numpy as npimport pandas as pdfrom sklearn import preprocessing代码sex = pd.Seri原创 2022-04-19 15:48:01 · 1535 阅读 · 0 评论 -
K-means聚类算法原理及python具体实现
文章目录1 快速理解1.1 算法步骤1.2 一个例子1 快速理解K 均值聚类算法 K-means Clustering Algorithm1.1 算法步骤步骤:1、先定义总共有多少个类/簇【k的值可以自己指定】2、将每个簇心,随机定在一个点上3、将每一个簇找到其所有关联点的中心点(取每一个点坐标的平均值)4、设置上述点为新的簇心5、重复上述步骤,直到每个簇所拥有的点不变1.2 一个例子...原创 2022-04-16 19:48:04 · 11742 阅读 · 4 评论