自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(25)
  • 资源 (3)
  • 收藏
  • 关注

原创 一句话版CNN学习

1)机器视觉的主要任务: image classification:即对图片做单一物体识别; object detection:即对图片做多物体识别,同事用方框框柱物体 ; neural style transfer:即用一张图片的内容不变,但风格别另一张图片的风格取代。2)机器视觉面临困难挑战 图片像素多,即数据特征多,导致模型中的参数...

2019-12-27 09:31:00 409

原创 卷积神经网络CNN的可视化

通常我们认为深度学习模型是“黑盒”的,即模型学到的表示很难用人类可以理解的方式来提取和呈现。然而对于卷积神经网络来说却不是这样的。CNN学到的表示非常适合可视化,因为CNN本身就是视觉概念的表示。CNN可视化和解释:【本文给出3个层面的可视化】1)可视化卷积神经网络的中间输出(中间激活)有助于理解卷积网络神经连续的层如何对输入进行变换,也有助于初步了解卷积神经网络每个过滤器的含义。...

2019-12-26 14:23:03 2267

原创 小型图像数据集效果优化:使用预训练的CNN

面对解决小型图像数据集,一种常用且非常高效的方法是使用预训练网络。那么什么是预训练网络呢?定义:预训练网络(pretrained network)是一个保存好的网络,之前已经在大型数据集(通常是大规模图像分类任务)上训练好。作用:如果这个原始数据集足够大且足够通用,那么预训练网络学到的特征的空间层次结构可以有效地作为视觉世界的通用模型,因此这些特征可用于各种不通的计算机视觉问题,即...

2019-12-24 10:50:38 2452

原创 数据增强

数据增强(data augmentation)在计算机视觉领域是一种非常强大的降低过拟合的技术。计算机视觉在深度学习中之所以过拟合,原因是学习样本太少,导致无法训练出能够泛化到新数据的模型。如果拥有无限的数据,那么模型能够观察到数据分布的所有内容,这样就不会过拟合。数据增强是从现有的训练样本中生成更多的训练数据,其方法是利用多种能够生成可信图像的随机变换来增加(augment)样本。其目标...

2019-12-20 09:28:16 502

原创 CNN-[deep learning with python]学习笔记

在学习笔记P20-CNN中已经介绍了CNN的一些知识,这篇主要是补充和更深程度的梳理:上文中提到"从效果上来看,卷积层相比于全连接层减少了参数、实现了参数共享。”即,本质上卷积和全连接的区别是,全连接层从输入特征空间中学习的是全局模式,而卷积层学习到的是局部模式,对于图像来说,学到的就是输入图像的二维小窗口(filter)中发现的模式。这个重要的特性使卷积神经网络具有如下两个性质:...

2019-12-19 15:28:00 450

原创 机器学习的四个分支

机器学习是非常宽泛的领域,其子领域的划分非常复杂。机器学习算法大致可分为四大类:1)监督学习2)无监督学习3)自监督学习4)强化学习一、监督学习 监督学习是最常见的机器学习类型。给定一组样本(通常由人工标注),它可以学会将输入数据映射到已知目标【也叫作标注(annotation)】。 近年来广受关注的深度学习几乎都属于监督学习,如,光学字符识别,...

2019-12-19 09:30:42 5674

原创 训练IMDB数据集,但是出现"ValueError: Object arrays cannot be loaded when allow_pickle=False"的错误

训练IMDB数据集,但是出现"ValueError: Object arrays cannot be loaded when allow_pickle=False"的错误.解决办法:重新安装numpy imdb支持的numpy版本在1.16.2restart 再执行 就没有问题了代码实现:打开cmdpip install numpy==1.16.2...

2019-12-18 10:26:09 342

原创 Keras入门级实战——MNIST手写体识别

手写体识别:这里要解决的问题是,将手写数字的灰度图像(28 像素×28 像素)划分到 10 个类别 中(0 ~ 9)。这个数据集包含 60 000 张训练图像和 10 000 张测试图 像,由美国国家标准与技术研究院(National Institute of Standards and Technology,即 MNIST 中 的 NIST)在 20 世纪 80 年代收集得到。图 2 - 1...

2019-12-18 09:57:18 483

原创 Keras入门级简介

Keras是一个Python深度学习框架,可以方便定义和训练几乎所有类型的深度学习模型。最开始Keras是为研究人员开发,其目的就是为了快速市验。Keras具有以下重要特性:1)相同的代码可以在CPU或GPU上无缝切换运行。2)具有用户友好的API,便于快速开发深度学习的原型。3)内置支持卷积网络(用于计算机视觉)、循环网络(用于序列处理)以及二者的任意组合。4)支持任意网络架...

2019-12-18 09:29:24 640

原创 神经网络结构拆分理解

训练神经网络主要围绕一下四个方面:1)层,多个层组合成网络(或模型)。2)输入数据和相应的目标。3)损失函数,即用于学习的反馈信号。4)优化器,决定学习过程如何进行。将上述四者的关系可视化为:多个层链接在一起组成了网络,将输入数据映射为预测值。然后损失函数将这些预测值与目标进行对比,得到损失值,用于衡量网络预测值和预测期望结果的匹配程度。优化器使用这个损失值来更新网络的...

2019-12-17 17:45:27 1576

原创 张量tensor——神经网络数据的表示

一般来说,当前所有机器学习系统都使用张量作为基本数据结构。张量的核心在于,它是一个数据容器。它包含的数据几乎总是数值数据,因此它是数字的容器。如矩阵,它是二维张量。张量是矩阵向任意维度的推广。【注意:张量的维度(dimension)通常叫做轴(axis)】一、不同维度张量介绍1.1、标量(0D张量)仅包含一个数字的张量叫作标量(scalar,也叫标量张量、零维张量、0D 张量)。在...

2019-12-17 16:39:21 3676

原创 CNN中卷积层和池化的作用和理解

承接上文对CNN的介绍[学习笔记P20-CNN],下面来看看一些细节梳理:CNN框架:池化层(pooling layer)也叫做子采样层(subsampling layer),其作用是进行特征选择,降低特征数量,并从而减少参数数量。为什么conv-layer之后需要加pooling_layer?卷积层【局部连接和权重共享】虽然可以显著减少网络中连接的数量,但特征映射组中的神...

2019-12-17 11:34:48 13549 1

原创 学习笔记P20-CNN

学习网址:https://www.bilibili.com/video/av48285039?p=20前言CNN【Convolutional Neural Network,CNN或ConvNet】通常被用在影像处理的问题上,但是并不是说只有CNN才能做影像处理,一般的Neuron Network也可以做这件事。例如做影像分类,通常就是train一个NN,输入一个图片【该图片表示成pix...

2019-12-17 11:13:54 796

原创 CNN中padding的作用

padding是增加图片各个边的pixels的数量,具体增加的数量由filter的尺寸和stride大小共同决定。padding的上限是维持feature map大小和原图大小一致。目的是保持feature map不要太小。padding的意义:1)为了不丢弃原图信息2)为了保持feature map大小与原图一致3)为了让更深层的layer的input依旧保持足够大的信息量4...

2019-12-17 09:40:24 5827

原创 tensorflow和keras以及python对应版本号

可以在这个网址查看tensorflow和keras对应的版本:https://docs.floydhub.com/guides/environments/pip install --upgrade keras==2.1.0 升级到指定版本pip install keras==2.0.9安装指定版本版本不匹配可能会报错:AttributeError: module 'tensor...

2019-12-13 15:11:38 9287

原创 学习笔记P12——BP算法

学习网址:https://www.bilibili.com/video/av48285039?p=12用gradient descent的方法来train一个neuron network应该怎么做?通常利用BP【Backpropagation】算法。本文主要介绍BP如何让neuron network的training变得有效率。先介绍Gradient Descent的核心过程:设n...

2019-12-12 16:19:45 436

原创 学习笔记P11——DL 简介

学习视频网址:https://www.bilibili.com/video/av48285039?p=11Deep Learning 的发展历程:Deep learning 和Machine Learning的过程是一样的,可以总结为三个步骤:对于DL而言,第一步定义一个函数集合就相当于定义一个neuron network。示例,neuron network 的一种...

2019-12-12 11:16:22 279

转载 使用matplotlib的函数时报错ValueError: max() arg is an empty sequence

本文链接:https://blog.csdn.net/weixin_42214565/article/details/100113735本文记录学习过程中遇到的问题、我的解决过程以及学习心得,如有错误之处,欢迎指正!最近在学习莫烦pytorch教程时遇到错误:ValueError: max() arg is an empty sequence。运行环境是pycharm2018.3.5,p...

2019-12-11 15:18:16 3946

原创 基于tensorflow的LSTM实战:MNIST分类

设置 RNN 的参数¶这次我们会使用 RNN 来进行分类的训练 (Classification). 会继续使用到手写数字 MNIST 数据集. 让 RNN 从每张图片的第一行像素读到最后一行, 然后再进行分类判断. 接下来我们导入 MNIST 数据并确定 RNN 的各种参数(hyper-parameters):import tensorflow as tffrom tensor...

2019-12-10 10:50:33 447

原创 ValueError: Only call `softmax_cross_entropy_with_logits` with named arguments (labels=..., logits=.

使用tensorflow训练时报错:ValueError: Only call `softmax_cross_entropy_with_logits` with named arguments (labels=..., logits=.解决办法:tf.nn.softmax_cross_entropy_with_logits(logits = yPredbyNN, labels=Y...

2019-12-10 10:34:30 405

转载 通俗理解tf.name_scope()、tf.variable_scope()

前言:最近做一个实验,遇到TensorFlow变量作用域问题,对tf.name_scope()、tf.variable_scope()等进行了较为深刻的比较,记录相关笔记:tf.name_scope()、tf.variable_scope()是两个作用域函数,一般与两个创建/调用变量的函数tf.variable() 和tf.get_variable()搭配使用。常用于:1)变量共享;2)t...

2019-12-06 16:40:05 265

原创 浅谈卷积神经网络CNN

卷积神经网络是近些年逐步兴起的一种人工神经网络结构, 因为利用卷积神经网络在图像和语音识别方面能够给出更优预测结果, 这一种技术也被广泛的传播可应用. 卷积神经网络最常被应用的方面是计算机的图像识别, 不过因为不断地创新, 它也被应用在视频分析, 自然语言处理, 药物发现, 等等. 前期最火的 Alpha Go, 让计算机看懂围棋, 同样也是有运用到这门技术.卷积 和 神经网络我们...

2019-12-04 10:49:01 342

原创 tensorflow中解决过拟合(overfitting)的方法

Overfitting 也被称为过度学习,过度拟合。 它是机器学习中常见的问题。 举个Classification(分类)的例子。图中黑色曲线是正常模型,绿色曲线就是overfitting模型。尽管绿色曲线很精确的区分了所有的训练数据,但是并没有描述数据的整体特征,对新测试数据的适应性较差。举个Regression (回归)的例子:第三条曲线存在overfitting问题,尽管...

2019-12-04 10:05:40 1248

原创 过拟合 (Overfitting)在机器学习和深度学习中的解决方式

学习资料:Tensorflow: dropout教程 PyTorch: dropout教程 Theano: l1 l2 regularization教程解决方法方法一: 增加数据量, 大部分过拟合产生的原因是因为数据量太少了. 如果我们有成千上万的数据, 红线也会慢慢被拉直, 变得没那么扭曲 .方法二:运用正规化. L1, l2 regulariz...

2019-12-03 17:01:41 320

原创 tf.reduce_sum函数中reduction_indices详解

TensorFlow 的python使用方式:在tensorflow的使用中,经常会使用tf.reduce_mean,tf.reduce_sum等函数,函数中reduction_indices参数表示函数的处理维度:reduction_indices参数的值默认的时候为None,默认把所有的数据求和,即结果是一维的。reduction_indices参数的值为0的时候,是第0维对应位置相加。...

2019-12-03 16:33:48 1719

金融产品与风控.pdf

金融产品与风控.pdf

2021-01-15

Python-2.7.13.msi

python安装包

2017-06-06

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除