BevnWu的学习栏目
BevnWu
现就读于广州中山大学,有过c\c++\matlab\python\javascript的编程经验,希望能通过博客记录自己的成长。与大家一起共同进步。
展开
-
【python】conda新建虚拟环境
先卸载之前的环境,可参考新建新的python虚拟环境若是下载过慢,可以试着更换conda源库安装完成输入原创 2020-04-10 11:23:33 · 57 阅读 · 0 评论 -
动手学DL|Task06:批量归一化和残差网络;凸优化;梯度下降
批量归一化和残差网络凸优化梯度下降原创 2020-02-25 17:30:28 · 108 阅读 · 0 评论 -
动手学DL|Task10:GAN;DCGAN
GANDCGAN原创 2020-02-25 17:21:54 · 154 阅读 · 0 评论 -
动手学DL|Task09:目标检测基础;图像风格迁移;图像分类案例
目标检测基础习题图像风格迁移用一个例子来阐述基于卷积神经网络的样式迁移方法。首先,我们初始化合成图像,例如将其初始化成内容图像。该合成图像是样式迁移过程中唯一需要更新的变量,即样式迁移所需迭代的模型参数。然后,我们选择一个预训练的卷积神经网络来抽取图像的特征,其中的模型参数在训练中无须更新。深度卷积神经网络凭借多个层逐级抽取图像的特征。我们可以选择其中某些层的输出作为内容特征或样式特征。...原创 2020-02-25 17:17:08 · 143 阅读 · 0 评论 -
动手学DL|Task4 机器翻译及其技术+注意力机制与Seq2seq模型+Transformer
机器翻译及其技术学习笔记习题整理注意力机制与Seq2seq模型学习笔记习题整理Transformer学习笔记习题整理原创 2020-02-19 14:45:38 · 336 阅读 · 0 评论 -
动手学DL|Task5 LeNet+卷积神经网络进阶+循环神经网络进阶
LeNet笔记使用全连接层的局限性:图像在同一列邻近的像素在这个向量中可能相距较远。它们构成的模式可能难以被模型识别。对于大尺寸的输入图像,使用全连接层容易导致模型过大。使用卷积层的优势:卷积层保留输入形状。卷积层通过滑动窗口将同一卷积核与不同位置的输入重复计算,从而避免参数尺寸过大。LeNet-5是Yann LeCun等人在多次研究后提出的最终卷积神经网络结构,一般LeN...原创 2020-02-19 14:11:51 · 265 阅读 · 0 评论 -
动手学DL|Task3 过拟合、欠拟合+梯度消失、梯度爆炸+卷积神经网络基础
过拟合、欠拟合及其解决方案学习笔记习题整理错题原因:没有理解欠拟合和过拟合的深刻含义。过拟合是指训练误差达到一个较低的水平,而泛化误差依然较大。欠拟合是指训练误差和泛化误差都不能达到一个较低的水平。发生欠拟合的时候在训练集上训练误差不能达到一个比较低的水平,所以过拟合和欠拟合不可能同时发生。L2范数正则化是用来应对过拟合的。梯度消失、梯度爆炸学习笔记习题整理...原创 2020-02-16 20:56:13 · 541 阅读 · 0 评论 -
动手学DL|Task2 文本预处理+语言模型+循环神经网络
文本预处理习题语言模型语言模型的参数就是词的概率以及给定前几个词情况下的条件概率。随机采样和相邻采样。上图来源@小罗同学习题循环神经网络习题...原创 2020-02-14 18:28:44 · 135 阅读 · 0 评论 -
动手学DL|Task1 线性回归+Softmax+多层感知机
线性回归主要内容是用最小二乘法作为损失函数,最小化损失达到拟合最优。习题Softmax与分类模型把输出分布在和为1的序列中,其概率最大为输出标签。习题多层感知机习题...原创 2020-02-14 17:11:26 · 97 阅读 · 0 评论 -
Md学习文档
创建于2020/1/191st修改于2020/2/10Markdown 标题1.使用=和-标记1-2级标题我展示的是一级标题我展示的是二级标题2.使用#标记1-6级标题一级标题二级标题三级标题四级标题五级标题六级标题Markdown 段落没有特殊格式,换行需要两个空格 加回车Enter,just say “hello,world!”段落后的一个空行表示重新开始一个段...原创 2020-02-10 10:22:52 · 270 阅读 · 0 评论