![](https://img-blog.csdnimg.cn/20201014180756780.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
深度学习
文章平均质量分 96
陈小虾
机器学习、神经网络、数据结构、软件开发、产品、C++、Python
展开
-
《动手学深度学习》Day4:过拟合、欠拟合及其解决方案
本文再次总结了过拟合及其代码、pytorch的实现。原创 2020-02-16 20:36:37 · 592 阅读 · 0 评论 -
《动手学深度学习》Day3:多层感知机
本文主要总结了多层感知机及其pytorch的实践。原创 2020-02-14 20:27:48 · 491 阅读 · 0 评论 -
《动手学深度学习》Day2:Softmax与分类模型
本文总结了softmax的相关知识和代码实践原创 2020-02-14 19:59:50 · 375 阅读 · 0 评论 -
《动手学深度学习》Day1:线性回归
本文是14天学习《动手学深度学习》的第一天,主要学习和时间了先行回归,对比了使用pytorch和不用pytorch框架的代码。原创 2020-02-13 21:20:05 · 465 阅读 · 0 评论 -
GAN的系列经典模型讲解
文章目录概述一、CGAN1、基本思想2、模型简介3、 应用二、DCGAN1、基本思想2、模型简介三、WGAN1、模型解析2、模型优点四、LSGAN1、基本思想2、模型解析概述自从Goodfellow2014年提出这个想法之后,生成对抗网络(GAN)就成了深度学习领域内最火的一个概念,包括LeCun在内的许多学者都认为,GAN的出现将会大大推进AI向无监督学习发展的进程。于是,研究GAN就...原创 2019-07-21 21:36:56 · 9570 阅读 · 0 评论 -
深度学习基础之过拟合
过拟合是深度学习中不可避免的一个问题,本文介绍了方差和偏差,欠拟合和过拟合,以及产生过拟合的原因。最后给出了如果减缓过拟合的方法。原创 2019-08-04 11:51:49 · 713 阅读 · 0 评论 -
数据挖掘学习(二):模型评价指标
在机器学习和数据挖掘中,模型的评价指标至关重要。本文对常用到的分类、回归和聚类的评价指标进行了总结。原创 2019-08-04 16:30:07 · 4239 阅读 · 0 评论 -
深度学习基础之归一化
数据归一化是深度学习数据预处理非常关键的步骤,可以起到统一量纲,防止小数据被吞噬等作用。本文介绍了常见的几种归一化:线性归一化、零均值归一化和非线性归一化,以及局部响应归一化和批归一化。原创 2019-07-27 16:56:23 · 7518 阅读 · 0 评论 -
深度学习中的注意力机制
最近两年,注意力模型(Attention Model)被广泛使用在自然语言处理、图像识别及语音识别等各种不同类型的深度学习任务中,是深度学习技术中最值得关注与深入了解的核心技术之一。本文以机器翻译为例,深入浅出地介绍了深度学习中注意力机制的原理及关键计算机制,同时也抽象出其本质思想,并介绍了注意力模型在图像及语音等领域的典型应用场景。注意力模型最近几年在深度学习各个领域被广泛使用...转载 2019-09-29 09:59:25 · 392 阅读 · 0 评论 -
生成对抗网络GAN详细推导
生成式对抗网络模型(GAN)是基于深度学习的一种强大的生成模型,可以应用于计算机视觉、自然语言处理、半监督学习等重要领域。生成式对抗网络最最直接的应用是数据的生成,而数据质量的好坏则是评判GAN成功与否的关键。本文介绍了GAN最初被提出时的基本思想,模型和公式推导,以及训练。原创 2019-07-21 13:35:52 · 2919 阅读 · 7 评论 -
深度学习基础之正则化
本文针对机器学习中的正则化做了详细讲解,对于什么是正则化,L1、L2正则化的图解,他们区别和如何选择做了详细讲解。原创 2019-07-20 17:16:36 · 334 阅读 · 0 评论 -
LSTM(长短时间记忆模型)的详细推导
由于RNN梯度消失而不能处理长序列的问题,提出了LSTM,本文对从RNN到LSTM的改进思想、LSTM的模块、前向传播和反向传播进行了推导。原创 2019-07-20 08:45:40 · 6798 阅读 · 0 评论 -
BP神经网络的详细推导
BP神经网络算法是深度学习的基础,后期的CNN,RNN和GAN都是以此为基础。所以掌握BP算法,以及BP算法的推导十分必要。原创 2019-07-08 14:32:12 · 5701 阅读 · 0 评论 -
卷积神经网络CNN模块化剖析
本文简要介绍了深度学习的发展。然后对卷积神经网络的几个模块进行了剖分讲解,包括:卷积层,池化层,非线性激活函数,全连接层以及损失函数和优化方法。搞懂了这些模块之后,你就可以去读文章啦!原创 2019-07-03 08:51:41 · 3872 阅读 · 0 评论 -
神经⽹络可以计算任何函数的可视化证明
在BP神经网络的那一章文章中提到过,只需一个包含足够多神经元的隐层,多层前馈网络就能以任意精度逼近任意复杂度的连续函数。所以,今天就用可视化的方式简单的证明一下这个结论。原创 2019-07-08 22:04:34 · 824 阅读 · 0 评论 -
循环神经网络RNN详细推导
本文详细推介绍RNN的发展历史,工作原理,以及前向和后向传播算法,并给出了详细的推导过程,最后简单介绍了梯度消失和梯度爆炸。原创 2019-07-14 15:15:49 · 2974 阅读 · 1 评论 -
深度学习基础之激活函数
本文介绍了机器学的常见的9中激活函数,给出了函数表达式,图像和导数,并且给出了相应的性质。最后,交给大家如何选择使用和失败的激活函数。原创 2019-07-14 21:57:42 · 695 阅读 · 0 评论 -
深度学习基础之代价函数
在机器学习和深度学习中,代价函数非常重要。所以十分有必要弄个清楚代价函数相关的概念和性质。本文介绍了什么是代价函数,然后列举了常用的三种代价函数,并对其中的二次代价函数和交叉熵代价函数进行了比较。原创 2019-07-16 13:03:03 · 6174 阅读 · 2 评论 -
深度学习基础之损失函数
本文首先给出了损失函数的定义,然后将损失函数、代价函数、目标函数进行了区分说明,最后给出了几种常见的损失函数。原创 2019-07-16 19:28:28 · 1849 阅读 · 0 评论 -
Qt5的安装及Qt5使用C++调用pyton
因为python具有很多拓展模块,所以可以采用Qt去调用Python脚本进行项目开发。这里给出了具体用Qt调用python的步骤,并给出了常见的几个坑,供大家参考。原创 2019-07-17 14:39:30 · 1193 阅读 · 2 评论 -
用于图像分类的经典的卷积神经网络CNN
本文详细介绍了CNN在图像分类中的发展过程中的几个经典的网络,包括了从LeNet,AlexNet,VGGNet,GoogleNet,ResNet到DenseNet的一路改进、优化的过程。原创 2019-07-08 09:49:01 · 25440 阅读 · 0 评论