Machine Learning
本专栏用到的一个自定义库d2lzh_pytorch
下载链接:https://github.com/ShusenTang/Dive-into-DL-PyTorch/tree/master/code/d2lzh_pytorch
BrianYan_CSU
你错过的,别人才会得到,正如你得到的都是别人错过的
展开
-
Properties and Applications of adjoints
首先,我们需要阐明伴随方程的定义: intu∗Audx= intuA∗u∗dx, \ int u ^ * Au dx = \ int uA ^ * u ^ * dx, intu∗Audx= intuA∗u∗dx,通常,在边界条件不消失...原创 2020-11-20 11:10:39 · 346 阅读 · 0 评论 -
Combine RNN with Neural ODEs
Intro to Neural ODEs原创 2020-11-20 11:09:52 · 491 阅读 · 0 评论 -
Model fusion
模型融合 / 加权融合 / stacking / boosting .e.t.ca series of methods is introduced原创 2020-06-07 19:46:36 · 612 阅读 · 0 评论 -
词嵌入之 Word2Vec
介绍词嵌入基础以及词嵌入工具托马斯·米科洛维的Word2Vec1.PTB 数据集 2.Skip-Gram 3.跳字模型 4.负采样近似原创 2020-02-25 00:06:54 · 365 阅读 · 1 评论 -
Advanced Optimization
基于凸优化和梯度下降优化算法,进一步展开阐述Momentum、AdaGrad、RMSProp、AdaDelta、Adam优化算法原创 2020-02-23 18:04:21 · 237 阅读 · 0 评论 -
Optimization including Convex Optimization and Gradient Descent
1. 深度学习中的优化问题和凸性介绍2. 介绍梯度下降、随机梯度下降和小批量梯度下降的原理及实现原创 2020-02-20 22:07:26 · 254 阅读 · 0 评论 -
批量归一化 && 残差网络
基于此前对于CNN的介绍,就深层次CNN展开介绍归一化(BN),残差网络(ResNet)和稠密连接网络(DenseNet)原创 2020-02-20 16:40:41 · 487 阅读 · 0 评论 -
Transformer (Google 机器翻译模型)
1. 针对Transformer(Google机器翻译模型)的概念以及相对于与传统CNN、RNN的优势 2. Transformer的实现,Multi-head Attention、FFN、AddNorm还有Encoder、Decoder的代码实现3.层归一化和批归一化的区别原创 2020-02-19 15:09:21 · 1597 阅读 · 0 评论 -
LeNet && ModernCNN
1.lenet 模型介绍,lenet 网络搭建,运用lenet进行图像识别-fashion-mnist数据集2.AlexNet3.VGG4.NiN5.GoogLeNet原创 2020-02-18 21:41:46 · 366 阅读 · 0 评论 -
Fundamentals of Convolutional Neural Networks
针对RNN的基础进行强化实践:卷积层和池化层,填充、步幅、输入通道和输出通道原创 2020-02-18 19:41:47 · 382 阅读 · 0 评论 -
注意力 && Seq2seq模型
1. 注意力机制的概念和框架 2. 点积注意力机制和多层感知机注意力机制的实现 3. 使用注意力机制的seq2seq模型原创 2020-02-18 13:15:49 · 688 阅读 · 0 评论 -
机器翻译及其相关技术介绍
1. 简要实现机器翻译2. Encoder - Decoder模型3. Sequence to Sequence模型4. Beam search原创 2020-02-18 09:38:56 · 1946 阅读 · 0 评论 -
学而后思,方能发展;思而立行,终将卓越
学而后思:1. 梯度爆炸和梯度衰减2. 过拟合和欠拟合现象3. 随机初始化模型参数的作用4. 深度学习中的环境因素思而立行:奉上kaggle实战一篇原创 2020-02-16 22:25:14 · 540 阅读 · 0 评论 -
从模型训练中认知拟合现象
探究模型训练中经常出现的两类典型问题 :过拟合 && 欠拟合原创 2020-02-16 17:56:57 · 1104 阅读 · 0 评论 -
ModernRNN
再续前缘,循环神经网络进阶,GRU / LSTM / 深层 RNN / 双向 RNN ,为问题而生,方成学原创 2020-02-16 14:48:38 · 220 阅读 · 0 评论 -
Fundamentals of Recurrent Neural Network
介绍循环神经网络,基于循环神经网络的语言模型,并且提供了从零开始的实现与简洁化原创 2020-02-14 13:51:04 · 328 阅读 · 0 评论 -
Language Model & Data Sampling
1. 介绍基于统计的语言模型,主要是 n 元语法(n-gram)2. 针对时序数据的采样原创 2020-02-14 10:24:35 · 260 阅读 · 0 评论 -
Text Preprocessing
打开 Google, 输入搜索关键词,显示上百条搜索结果打开 Google Translate, 输入待翻译文本,翻译结果框中显示出翻译结果以上二者的共同点便是文本预处理 Pre-Processing在 NLP 项目中,文本预处理占据了超过半数的时间,其重要性不言而喻。当然也可以利用完备且效率可观的工具可以快速完成项目For Example: 我一直在使用的由 哈工大...原创 2020-02-13 16:24:42 · 417 阅读 · 0 评论 -
Multilayer Perceptron & Classify image
MLP以多层感知机为例,概述多层神经网络隐藏层此图为多层感知机的神经网络图,它含有一个隐藏层,该层中有5个隐藏单元。 表达公式具体来说,给定一个小批量样本X∈Rn×d\boldsymbol{X} \in \mathbb{R}^{n \times d}X∈Rn×d,其批量大小为nnn,输入个数为ddd。假设多层感知机只有一个隐藏层【其中隐藏单元个数为hhh】记隐藏层的输出(也称为隐藏层变...原创 2020-02-12 23:43:27 · 301 阅读 · 0 评论 -
Softmax & 分类模型
一种函数,可提供多类别分类模型中每个可能类别的概率。这些概率的总和正好为 1.0。例如,softmax 可能会得出某个图像是狗、猫和马的概率分别是 0.9、0.08 和 0.02。(也称为完整 softmax。)与候选采样相对。...原创 2020-02-12 21:40:14 · 247 阅读 · 0 评论 -
Design and Realization of Linear Regression
线性回归的基本要素模型y=w⋅x+b\mathrm{y} = w \cdot \mathrm{x} + by=w⋅x+b数据集我们在收集到的数据中寻找合适的模型参数来使模型的预测价格与真实价格的误差最小。被训练的数据的集合称为训练数据集(training data set)或训练集(training set),每一条数据的主体作为一个样本(sample),被预测值称作标签(label)...原创 2020-02-11 22:14:05 · 209 阅读 · 0 评论