![](https://img-blog.csdnimg.cn/20201014180756919.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
人工智能
Lansonli
CSDN大数据领域博客专家,InfoQ写作社区2022年度影响力作者、华为云社区2022年度十佳博主、华为云享专家、阿里云专家博主、腾讯云开发者社区2022年度最佳作者、腾云先锋(TDP)核心成员、51CTO专家博主,全网二十万多粉丝,知名互联网公司大数据高级开发工程师
展开
-
CapsuleNet(了解)
学习目标目标 了解CapsuleNet 应用 无 5.3.1 CapsuleNet为什么会出现2017年,CapsuleNet的出现是Hinton大佬对于卷积神经网络等的思考,想去构建一种新的网络结构, 如何克服CNN存在的问题的,那CN网络又存在什么问题: CNN的目标不正确 1、CNN对于旋转类型图片不确定 CNN会认为下图的R是两个不同的字母,而这是由网络结构所带来的,这也造成了CNN所需的训练集要很大。2、CNN对于图片整体结构关系不确定 对于下面.原创 2020-07-20 22:46:40 · 1756 阅读 · 2 评论 -
自动编码器
学习目标目标 了解自动编码器作用 说明自动编码器的结构 应用 使用自动编码器对Mnist手写数字进行数据降噪处理 5.2.1 自动编码器什么用自编码器的应用主要有两个方面数据去噪进行可视化而降维 自编码器可以学习到比PCA等技术更好的数据投影 5.2.1 什么是自动编码器(Autoencoder)5.2.1.1 定义自动编码器是一种数据的压缩算法,一种使用神经网络学习数据值编码的无监督方式。5.2.1.2 原理作用案例搭建一...原创 2020-07-20 22:42:57 · 1567 阅读 · 1 评论 -
生成对抗网络(GAN)
学习目标目标 了解GAN的作用 说明GAN的训练过程 知道DCGAN的结构 应用 应用DCGAN模型实现手写数字的生成 5.1.1 GAN能做什么GAN是非监督式学习的一种方法,在2014年被提出。GAN主要用途:生成以假乱真的图片生成视频、模型5.1.2 什么GAN5.1.2.1 定义生成对抗网络(Generative Adversarial Network,简称GAN),主要结构包括一个生成器G(Generator)和一个判别器D(Discri.原创 2020-07-20 22:38:40 · 6254 阅读 · 1 评论 -
seq2seq与Attention机制
学习目标目标 掌握seq2seq模型特点 掌握集束搜索方式 掌握BLEU评估方法 掌握Attention机制 应用 应用Keras实现seq2seq对日期格式的翻译 4.3.1 seq2seqseq2seq模型是在2014年,是由Google Brain团队和Yoshua Bengio 两个团队各自独立的提出来。4.3.1.1 定义seq2seq是一个Encoder–Decoder 结构的网络,它的输入是一个序列,输出也是一个序列,Encoder 中将一个可变长度.原创 2020-07-20 22:22:19 · 2255 阅读 · 2 评论 -
词嵌入与NLP
学习目标目标 了解词嵌入的优势 掌握词嵌入的训练gensim库的使用 应用 无 在RNN中词使用one_hot表示的问题假设有10000个词 每个词的向量长度都为10000,整体大小太大 没能表示出词与词之间的关系 例如Apple与Orange会更近一些,Man与Woman会近一些,取任意两个向量计算内积都为0 4.2.2 词嵌入定义:指把一个维数为所有词的数量的高维空间嵌入到一个维数低得多的连续向量空间中,每个单词或词组被映射为实数域上的向量。注.原创 2020-07-20 22:12:55 · 845 阅读 · 0 评论 -
循环神经网络
学习目标目标 了解序列模型相关概念 掌握循环神经网络原理 应用 应用RNN原理手写一个RNN的前向和反向传播过程 4.1.1 序列模型4.1.1.1 定义通常在自然语言、音频、视频以及其它序列数据的模型。催生了自然语言理解、语音识别、音乐合成、聊天机器人、机器翻译等领域的诸多应用。4.1.1.2 类型语音识别,输入一段语音输出对应的文字情感分类,输入一段表示用户情感的文字,输出情感类别或者评分机器翻译,两种语言的互相翻译4.1.1.3 ...原创 2020-07-19 12:50:53 · 1490 阅读 · 0 评论 -
CNN网络实战技巧
学习目标目标 了解迁移学习以及技巧 应用 无 我们来看一个个问题如果我们要做一个具体场景的计算机视觉任务,那么从头开始训练一个网络是合适的选择吗?怎么样才能避免浪费过多的计算时间?3.5.1 迁移学习(Transfer Learning)3.5.1.1 介绍定义 迁移学习就是利用数据、任务或模型之间的相似性,将在旧的领域学习过或训练好的模型,应用于新的领域这样的一个过程。 两个任务的输入属于同一性质:要么同是图像、要么同是语音或其他 迁移学习到底在什么情况下使用呢?有原创 2020-07-14 00:17:58 · 899 阅读 · 0 评论 -
经典分类网络结构
学习目标目标 知道LeNet-5网络结构 了解经典的分类网络结构 知道一些常见的卷机网络结构的优化 知道NIN中1x1卷积原理以及作用 知道Inception的作用 了解卷积神经网络学习过程内容 应用 无 下面我们主要以一些常见的网络结构去解析,并介绍大部分的网络的特点。这里看一下卷积的发展历史图。3.3.1 LeNet-5解析首先我们从一个稍微早一些的卷积网络结构LeNet-5(这里稍微改了下名字),开始的目的是用来识别数字的。从前往后介绍完.原创 2020-07-12 11:45:58 · 4267 阅读 · 0 评论 -
卷积神经网络(CNN)原理
学习目标目标 了解卷积神经网络的构成 记忆卷积的原理以及计算过程 了解池化的作用以及计算过程 应用 无 3.2.1 卷积神经网络的组成定义 卷积神经网络由一个或多个卷积层、池化层以及全连接层等组成。与其他深度学习结构相比,卷积神经网络在图像等方面能够给出更好的结果。这一模型也可以使用反向传播算法进行训练。相比较其他浅层或深度神经网络,卷积神经网络需要考量的参数更少,使之成为一种颇具吸引力的深度学习结构。 我们来看一下卷积网络的整体结构什么样子。其中包含了几个.原创 2020-07-05 23:17:07 · 8588 阅读 · 0 评论 -
图像数据与边缘检测
学习目标目标 了解卷积网络的历史 了解边缘检测相关概念以及卷积运算过程 应用 无 3.1.1 为什么需要卷积神经网络在计算机视觉领域,通常要做的就是指用机器程序替代人眼对目标图像进行识别等。那么神经网络也好还是卷积神经网络其实都是上个世纪就有的算法,只是近些年来电脑的计算能力已非当年的那种计算水平,同时现在的训练数据很多,于是神经网络的相关算法又重新流行起来,因此卷积神经网络也一样流行。1974年,Paul Werbos提出了误差反向传导来训练人工神经网络,使得训练多层神经网络原创 2020-06-24 22:57:07 · 1389 阅读 · 0 评论 -
BN与神经网络调优
学习目标目标 知道常用的一些神经网络超参数 知道BN层的意义以及数学原理 应用 无 2.4.1 神经网络调优我们经常会涉及到参数的调优,也称之为超参数调优。目前我们从第二部分中讲过的超参数有 算法层面: 学习率\alphaα \beta1,\beta2, \epsilonβ1,β2,ϵ: Adam 优化算法的超参数,常设为 0.9、0.999、10^{-8}10−8 \lambdaλ:正则化网络参数, 网络层面: hid原创 2020-06-22 20:37:17 · 971 阅读 · 0 评论 -
深度学习正则化
学习目标目标 了解偏差与方差的意义 知道L2正则化与L1正则化的数学意义 知道Droupout正则化的方法 了解早停止法、数据增强法的其它正则化方式 应用 无 2.3.1 偏差与方差2.3.1.1 数据集划分首先我们对机器学习当中涉及到的数据集划分进行一个简单的复习训练集(train set):用训练集对算法或模型进行训练过程; 验证集(development set):利用验证集(又称为简单交叉验证集,hold-out cross validation set)原创 2020-06-06 10:59:18 · 1235 阅读 · 0 评论 -
深度学习:梯度下降算法改进
学习目标目标 了解深度学习遇到的一些问题 知道批梯度下降与MiniBatch梯度下降的区别 知道指数加权平均的意义 知道动量梯度、RMSProp、Adam算法的公式意义 知道学习率衰减方式 知道参数初始化策略的意义 应用 无 深度学习难以在大数据领域发挥最大效果的一个原因是,在巨大的数据集基础上进行训练速度很慢。而优化算法能够帮助我们快速训练模型,提高计算效率。接下来我么就去看有哪些方法能够解决我们刚才遇到的问题或者类似的问题2.2.1 优化遇到的问题梯度消失原创 2020-06-06 03:54:21 · 2059 阅读 · 0 评论 -
深度学习进阶:多分类与TensorFlow
学习目标目标 知道softmax回归的原理 应用softmax_cross_entropy_with_logits实现softamx以及交叉熵损失计算 应用matmul实现多隐层神经网络的计算 应用 应用TensorFlow完成Mnist手写数字势识别 到目前为止,我们所接触的都是二分类问题,神经网络输出层只有一个神经元,表示预测输出\hat{y}y^是正类的概率{P}(y=1|x), \hat{y} > {0.5}P(y=1∣x),y^>0.5则判断为原创 2020-05-17 10:05:35 · 2896 阅读 · 2 评论 -
人工智能:深层神经网络
为什么使用深层网络对于人脸识别等应用,神经网络的第一层从原始图片中提取人脸的轮廓和边缘,每个神经元学习到不同边缘的信息;网络的第二层将第一层学得的边缘信息组合起来,形成人脸的一些局部的特征,例如眼睛、嘴巴等;后面的几层逐步将上一层的特征组合起来,形成人脸的模样。随着神经网络层数的增加,特征也从原来的边缘逐步扩展为人脸的整体,由整体到局部,由简单到复杂。层数越多,那么模型学习的效果也就越精确。...原创 2020-05-05 11:20:05 · 1281 阅读 · 0 评论 -
浅层神经网络
学习目标 目标 知道浅层神经网络的前向计算过程 知道选择激活函数的原因 说明浅层网络的反向传播推导过程 应用 应用完成一个浅层神经网络结构进行分类 1.3.1 浅层神经网络表示之前已经说过神经网络的结构了,在这不重复叙述。假设我们有如下结构的网络对于这个网络我们建立一个简单的图示?我们对第一个隐藏层记为[1],输出层为[2]。如下图...原创 2020-05-04 23:59:11 · 3450 阅读 · 0 评论 -
神经网络基础
学习目标目标 知道逻辑回归的算法计算输出、损失函数 知道导数的计算图 知道逻辑回归的梯度下降算法 知道多样本的向量计算 应用 应用完成向量化运算 应用完成一个单神经元神经网络的结构 1.2.1 Logistic回归1.2.1.1 Logistic回归逻辑回归是一个主要用于二分分类类的算法。那么逻辑回归是给定一个xx, 输出一个该样本属于1对应类别的预测概...原创 2020-05-03 12:36:12 · 874 阅读 · 1 评论 -
深度学习介绍
学习目标 目标 知道深度学习与机器学习的区别 了解神经网络的结构组成 知道深度学习效果特点 应用 无 1.1.1 区别1.1.1.1 特征提取方面机器学习的特征工程步骤是要靠手动完成的,而且需要大量领域专业知识 深度学习通常由多个层组成,它们通常将更简单的模型组合在一起,通过将数据从一层传递到另一层来构建更复杂的模型。通过大量数据的训练自动得...原创 2020-05-01 23:42:14 · 1064 阅读 · 0 评论