机器学习基础课程知识
文章平均质量分 91
以基础内容知识为主,通过老师的理论讲解,结合自己的部分理解,做一些笔记归纳!
catcous
这个作者很懒,什么都没留下…
展开
-
Informerd详解(2)与C#百度地图定位显示项目学习
文章目录摘要一.Informer代码部分(2)1.1 Deconder模块代码二.三. conda环境导入导出摘要一.Informer代码部分(2)1.1 Deconder模块代码二.三. conda环境导入导出代码运行环境的原创 2022-05-15 23:17:56 · 1336 阅读 · 0 评论 -
CGAN—LSGAN的原理与实现与informer代码理解(1)
文章目录摘要一.摘要一.原创 2022-05-08 19:28:32 · 3229 阅读 · 3 评论 -
Informer模型与基础学习
文章目录摘要文献阅读一. Informer: 一个基于Transformer改进的高效的长时间序列预测模型1.1 论文摘要1.2 研究内容1.3 Informer模型架构预备知识LSTF问题定义Encoder-Decoder 体系结构1.4 创新点1.5二. pytorch 基础2.1 损失函数与反向传播2.2 优化器2.3 VGG16模型的使用与修改2.4 完整网络模型的训练套路简单汇总2.4.1 网络模型的保存与读取2.4.2 完整模型套路创建网络模型(model.py要确保与train.py在同一文件原创 2022-04-10 20:30:50 · 13596 阅读 · 3 评论 -
细读Autoformer—空间计量分析
文章目录摘要一. Autoformer: 基于深度分解架构和自相关机制的长期序列预测模型论文摘要摘要一. Autoformer: 基于深度分解架构和自相关机制的长期序列预测模型论文摘要原创 2022-04-03 20:25:21 · 5819 阅读 · 2 评论 -
Ordinarykringing部分源码01-DCGAN实现—apache配置
摘要本周一是对kringing算法中的pykrige.ok.OrdinaryKriging源码部分分析,对其类的定义形式与各参数所代表的含义有进一步了解;与类中的核心方法execute()的内部参数的运用与理解。但是对其中计算克里金网格和相关的方差的计算过程,也是最重要的地方,并没有理解(后续请教+查阅资料)。二是利用DCGAN生成对抗网络模型实现动漫头像的生成。三是由于阿里云服务器的PHPnow集成开发环境的重新搭建,并配置apache服务器,实现局域网与外网的直接访问。四是解答毕设疑惑。一.Ordi原创 2021-12-19 16:57:27 · 1475 阅读 · 0 评论 -
2020李宏毅机器学习笔记——26.Conditional Generation by GAN(条件生成—GAN)
Conditional Generation by GAN文章目录摘要1. Supervised Conditional GAN摘要1. Supervised Conditional GAN原创 2021-09-05 01:44:26 · 684 阅读 · 0 评论 -
2020李宏毅机器学习笔记——25. GAN(生成对抗网络)
Generative Adversarial Network(生成对抗网络)文章目录摘要0引言1. Basic Idea of GAN(GAN的基本思想)1.1 Generation(生成)1.2 Discriminator(判别器)1.3 生成器和判别器的关系—对抗学习1.4 Algorithm摘要本章主要是在讲解GAN的基本思想,0引言自2014年Ian Goodfellow 提出了GAN(Generative Adversarial Network)以来,对GAN的研究可谓是如火如荼。针对不原创 2021-09-04 11:03:32 · 1449 阅读 · 0 评论 -
2020李宏毅机器学习笔记——24. Anomaly Detection(异常侦测)
Anomaly Detection(异常检测)文章目录摘要1. 介绍Anomaly Detection1.1 Problem Formulation(问题简要)1.2 What is Anomaly?摘要1. 介绍Anomaly Detection1.1 Problem Formulation(问题简要)1.2 What is Anomaly?原创 2021-08-28 00:31:19 · 1253 阅读 · 0 评论 -
2020李宏毅机器学习笔记——23. ELMO,BERT,GPT (三种解决一词多意问题的方法)
ELMO,BERT,GPT (三种解决一词多意问题的模型)文章目录摘要1. 提出背景2. Embeddings from Language Model(ELMO)3. Bidirectional Encoder Representations from Transformers(BERT)3.1 Training of BERT摘要1. 提出背景机器是如何理解我们的文字的呢? 怎样让机器读懂人类文字?最早的技术是1-of-N encoding,把每一个词汇表示成一个向量,每一个向量都只有一个地方为原创 2021-08-22 13:17:55 · 1180 阅读 · 0 评论 -
2020李宏毅机器学习笔记——22.More about Auto-encoder(自动编码器)
More about Auto-encoder文章目录摘要摘要原创 2021-08-21 13:56:50 · 862 阅读 · 0 评论 -
2020李宏毅机器学习笔记——21. Unsupervised Learning-Deep Auto-encoder(无监督学习之自编码器)
摘要: 本章主要是关于自编码器的原理及其应用,自编码器是一种无监督学习方法,可用于数据降维及特征抽取。自编码器由编码器(Encoder)和解码器(Decoder)两部分组成。编码器通常对输入对象进行压缩表示,解码器对经压缩表示后的code进行解码重构。并介绍Auto文章目录1. 自编码器(Auto-encoder)1. 自编码器(Auto-encoder)...原创 2021-08-15 20:32:24 · 917 阅读 · 0 评论 -
2020李宏毅机器学习笔记——20. Unsupervised Learning —Neighbor Embedding(无监督学习之近邻嵌入)
摘要: 本章之前介绍过的PCA算法和Word Embedding(词嵌入)都是线性降维的思想,而Neighbor Embedding要介绍的是非线性的降维。主要讲解了将高维空间中的数据,降低到低维度的三种方法(非线性降维算法):Locally Linear Embedding(局部线性嵌入)(LLE):Laplacian Eigenmaps(拉普拉斯特征映射):T-distributed Stochastic Neighbor Embedding(T-分布随机近邻嵌入)(T-SNE):文章目录1原创 2021-08-15 01:36:26 · 497 阅读 · 0 评论 -
2020李宏毅机器学习笔记——19. Transformer(全自注意力网络)
摘要:文章目录1. Transformer的引入2. Self-Attention1. Transformer的引入一般的sequence-to-sequence模型是用RNN(单方向或者双向)来做,RNN输入是一串sequence,输出是另外一串sequence。RNN常被用于input是一个序列的情况,但是有一个问题——不容易平行化(并行化计算)。例如下图中左边的模型就是RNN结构的sequence-to-sequence模型,(假设是单向RNN)想要求出b4就得先从a1输入开始一步一步往后求,原创 2021-08-07 16:16:20 · 3129 阅读 · 1 评论 -
2020李宏毅机器学习笔记——18. Recursive Network(递归网络)
摘要: 本章主要讲解了Recursive Network(递归网络)的文章目录1.1.原创 2021-07-30 00:00:35 · 873 阅读 · 0 评论 -
2020李宏毅机器学习笔记——17. Pointer Network(指针网络)
摘要:本章是在介绍Pointer Network(指针网络)的文章目录1.Introduce(引入)1.Introduce(引入)原始问题:就是输入一大堆数据点,然后再输出一些点且这些点连起来可以将输入点全部包围起来。这个本来是一个演算法可以解决的问题,现在我们用NN来解决。我们把所有点的坐标(当前假设是二维的),丢到NN里面,要求输出得到最外围点的下标。这个问题实际上可以看做是Sequence-to-sequence问题。如下图:sequence2Sequence模型:是RNN的一个重要的应原创 2021-07-28 00:00:00 · 2307 阅读 · 0 评论 -
李宏毅机器学习笔记——16. Conditional Generation by RNN&Attention(RNN条件生成与注意力机制)
摘要:文章目录1. generation(生成)1.1 生成句子1.2 生成图片2. Conditional Generation(条件生成)1. generation(生成)模型通过学习一些数据,然后生成类似的数据。我们可以生成一个句子,文章,图片,声音等。1.1 生成句子如上图中以生成句子为例:通过RNN生成一个句子做法:我们将特殊字符BOS(begin of sentence)输入(BOS是经过机器训练得到的一个vector),在第一个RNN的输出中得到一个character distr原创 2021-07-25 16:34:27 · 1149 阅读 · 0 评论 -
李宏毅机器学习笔记—— 15. Network Compression( 网络压缩)
摘要: 本章主要是讲解了文章目录Network Compression( 网络压缩)1. Network Pruning(网络剪枝)1.1 Network can be Pruned2. Knowledge Distillation(知识蒸馏)3. Parameter Quantization(参数量化)4. Architecture Design(架构设计)5. Dynamic Computation(动态计算)6. 总结与展望Network Compression( 网络压缩)Network C原创 2021-07-21 23:55:43 · 3233 阅读 · 1 评论 -
李宏毅机器学习笔记——14. Attack ML Models and Defense(机器学习模型的攻击与防御)
摘要:文章目录1. Attack (模型攻击)基本思想2. Defense(模型防御)1. Attack (模型攻击)对图像模型进行攻击基本思想2. Defense(模型防御)原创 2021-07-17 23:06:22 · 1391 阅读 · 2 评论 -
李宏毅机器学习笔记——13. Explainable ML(可解释的机器学习)
摘要:文章目录1. Explainable machine learning的分类2. Why we need Explainable ML?个人观点可解释性和能力的对比3. Local Explanation4. Global Explanation5. 总结与展望1. Explainable machine learning的分类机器不仅要告诉我们结果是什么,而且告诉我们判断理由是什么?Explainable machine learning分为两种:1.local explanatio原创 2021-07-13 23:44:39 · 1391 阅读 · 2 评论 -
2020李宏毅学习笔记—— 12.Unsupervised Learning - Word Embedding(词嵌入)
摘要:本章一是介绍了如何去用一个文章目录1. Introduction(引入)1.1 1-of-N Encoding1.2 Word Class1.3 Word Embedding2.如何做Word Embedding2.1 简要概念2.2 两种实现方法2.2.1 Count based2.2.2 Prediction basedhow to do preditionWhy prediction worksSharing Parameters如何Training 这个神经网络Various Archite原创 2021-07-10 19:40:26 · 300 阅读 · 0 评论 -
2020李宏毅学习笔记——11.Unsupervised Learning: Linear Methods(无监督学习)
文章目录摘要1. Introduction(介绍)2.Clustering(聚类)2.1 K-means2.2 HAC3. Dimension Reduction(降维)3.1 How to do Dimension Reduction?3.2 Principle component analysis(PCA)3.2.1 PCA for 1-D摘要1. Introduction(介绍)无监督学习可以分为两大类:第一类:化繁为简聚类(Clustering)降维(Dimension Reduc原创 2021-07-04 18:00:16 · 974 阅读 · 0 评论 -
2020李宏毅学习笔记—— 10. Semi-supervised Learning(半监督学习)
文章目录摘要1. IntroductionWhy Semi-supervised Learning?why Semi-supervised Learning helps ?2. Semi-supervised Learning for Generative Model摘要1. Introduction分类(classification)这种机器学习算法就是一种监督学习。对于分类,输入的训练数据有特征(feature),有标签(label)。也就是我们之前的输入x和输出y。每一个x样本都对应着一个y(原创 2021-06-26 21:38:32 · 1296 阅读 · 0 评论 -
2020李宏毅机器学习笔记— 9. Recurrent Neural Network(RNN循环神经网络)
文章目录摘要Example ApplicationSlot FillingRecurrent Neural Network(RNN)摘要Example ApplicationSlot FillingRecurrent Neural Network(RNN)原创 2021-06-21 19:08:55 · 977 阅读 · 0 评论 -
2020李宏毅学习笔记——8. Convolution Netural Network
文章目录摘要1.CNN v.s. DNN2. why CNN ?摘要1.CNN v.s. DNN我们当然可以用一般的neural network来做影像处理,不一定要用CNN,比如说,你想要做图像的分类,那你就去train一个neural network,它的input是一张图片,就用里面的pixel(像素)来表示这张图片,也就是一个很长很长的vector,而output则是由图像类别组成的vector,假设你有1000个类别,那output就有1000个dimension。现在的问题是:当我们原创 2021-06-12 19:37:19 · 887 阅读 · 0 评论 -
2021李宏毅学习笔记——7.Tips for Training DNN
文章目录摘要一、Tips for Training DNN1.1 recipe of deep learning摘要一、Tips for Training DNN1.1 recipe of deep learning原创 2021-06-06 01:25:17 · 705 阅读 · 0 评论 -
2021 李宏毅学习笔记——6.Deep Learning&why deep&Backpropagation
文章目录摘要摘要本章首先是通过逻辑回归的限制,引入了深度学习的概念;其次介绍了深度学习的发展与广泛的应用领域;以及Deep learning 的三个Step,一是定义一个函数集,也就是神经网络(neural network),二是定义一个函数的好坏(找到合适的参数),三是选一个最好的函数;在step1中用Matrix Operation矩阵运算去表示netural神经元的运作;在step2中去调整netural神经元的参数,用交叉熵函数作为损失函数,去使交叉熵的值越小越好;在step3中仍然是应用梯度下原创 2021-05-23 14:37:39 · 768 阅读 · 0 评论 -
2021李宏毅学习笔记——5. logistic Regression(逻辑回归)
文章目录摘要一、logistic regression二、logistic regression 与linear Regression的区别三、discriminative (判别式模型)与generative(生成式模型)四、Multi-class Classification(多分类)五、Logistic Regression的限制与解决方法展望摘要本章首先通过生成概率模型引入了logistic Regression,并介绍了什么是logistic Regression(逻辑回归),以及logist原创 2021-05-20 18:06:22 · 1020 阅读 · 0 评论 -
机器学习相关数学基础——概率论知识点1
1.全概率公式与贝叶斯公式回顾:2.泊松分布:3.协方差与相关系数:4.原创 2021-04-24 00:09:30 · 556 阅读 · 0 评论 -
2020李宏毅机器学习笔记——4.classification(分类)
一、classification分类分类(classification),即找一个函数判断输入数据所属的类别,可以是二类别问题(是/不是),也可以是多类别问题(在多个类别中判断输入数据具体属于哪一个类别)。同回归问题(regression)相比,分类问题的输出不再是连续值,而是离散值,用来指定其属于哪个类别。分类问题在现实中应用非常广泛,比如垃圾邮件识别,手写数字识别。...原创 2021-04-23 23:49:22 · 2488 阅读 · 0 评论 -
2020李宏毅机器学习笔记——3.Gradient Descent(梯度下降)
一、梯度下降gradient descent1.回顾机器学习的步骤:定义一个Model(function set)利用loss function 损失函数评估function的好坏最后利用gradient descent 方法找到最优的function。 梯度下降法就是找到最优的参数解,使得损失函数loss function最小。2.在最优化(optimization)就是发现能够最小化损失函数值的这组参数W的过程。损失函数量化了一组特定权重的质量。最优化的目标是去发现能够最小化损失函数值的那原创 2021-04-21 16:09:57 · 682 阅读 · 0 评论 -
2020李宏毅机器学习笔记——2.误差error与model selection模型选择
一. 误差error的来源两个重要因素:bias(偏差)与variance(方差)error取决于两件事离靶心的偏移位置,f^-f-的距离为看成bias(点距中心的远近)f*与f-的距离,看成是variance(点的分散程度)如下图可见:完美函数:f^是一个最佳的function估测函数:从训练数据中,我们可以发现一个估测的f*1.bias...原创 2021-04-19 17:21:30 · 528 阅读 · 0 评论