自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(9)
  • 收藏
  • 关注

转载 python装饰模式

python装饰模式,1、抽象类与抽象方法。一、意图:动态地给一个对象添加一些额外的职责,就增加功能来说,Decorator模式相比生成子类更为灵活。二、适用性:1、在不影响其他对象的情况下,以动态、透明的方式给单个对象添加职责。2、处理那些可以撤消的职责。3、当不能采用生成子类的方法进行扩充时,一种情况是,可能有大量独立的扩展,为支持每一种组合将产生大量的子类,使得子类数目呈爆炸性增长。另一种情况可能是因为类定义被隐藏,或类定义不能用于生成子类。三、参与者Component:定义一个对象接

2020-10-25 18:10:11 245

原创 CNN经典网络发展

本文将介绍CNN的经典网络。包括LeNet、AlexNet、VGG、GoogleNet、ResNet。文中涉及的一些概念,请查看前面写的文章《CNN相关概念的理解》。LeNet:网络结构如下:LeNet用于手写数字识别,输出包含10个类别,网络结构参数如下。Input Layer:13232图像Conv1 Layer:包含6个滤波器,kernal size:55,parameters:(55+1)6=156个Subsampling Layer:average pooling,size:22,

2020-07-11 22:14:11 600

原创 交叉熵与softmax的概念

信息量:越不可能的事件发生了,我们获取到的信息量就越大。越可能发生的事件发生了,我们获取到的信息量就越小。信息量的公式如下:熵:用来表示所有信息量的期望,熵的公式如下:然而有一类比较特殊的问题,比如投掷硬币只有两种可能,字朝上或花朝上。买彩票只有两种可能,中奖或不中奖。我们称之为0-1分布问题(二项分布的特例),对于这类问题,熵的计算方法可以简化为如下算式:相对熵:相对熵又称KL散度,如果我们对于同一个随机变量 x 有两个单独的概率分布 P(x) 和 Q(x),我们可以使用 KL 散度(

2020-07-11 19:46:06 410

原创 RNN网络模型及代码实现

RNN结构与传统的前馈神经网络不同,其存在记忆效应。这种记忆使得神经网络可以对上下文进行分析。显示的表示其对时间的依赖性:y=f(x;t)。RNN模型的数学表示如下为:对于多层RNN模型,将y继续作为输入:当个RNN的示意流图如下:import tensorflow as tf # 超参数 batch_size = 32 seq_len = 100 # 文本长度,T=100 embedding_size = 128 # 降维后向量长度 hidden_size = 128 # 隐藏

2020-07-05 20:47:42 4902

原创 RNN 文本向量化

文本向量化深度神经网络仅能处理浮点型的向量,所以需要将每个字符均转换为向量。对于句子的向量化,最终结果是将句子转换为onehot编码。以一个句子【今天天气不好。】为例,实现向量化。步骤如下:将字转换为ID:建立字典,为每个字符赋予一个整形数字。句子转换为(197 2000 2000 12 45 300 1)对整形数字进行OneHot编码:编码后的形式为[T,字符数量]。如果存在多个句子(BatchSize,B),输入表示为[B,T,字符数量],T表示句子中的字数,这里T=7对字符数量降维:由

2020-07-05 20:01:16 626

原创 CNN 相关观念的理解

CNN的基本组件包括:感知器、激活函数、卷积层、池化层、正则化、全连接层、Softmax回归。下面分别对这些组件进行介绍。1、感知器感知器是神经网络的组成单元。一个感知器可以接受多个输入(x1,x2…,xn),每个输入上有一个权值wi,此外还有一个偏置项b(一般用w0表示)。感知器的激活函数可以有很多选择,比如我们可以选择如下阶跃函数f来作为激活函数:感知器的输出则为下面的公式表示:2、激活函数激活函数的作用是为了给神经网络加入一些非线性性因素,使得神经网络可以更好地解决较为复杂的问题。常用

2020-07-04 21:16:21 228 1

原创 深度学习 CNN

1、tensorflow官方训练仿真器链接:http://playground.tensorflow.org/2、加深滤波器的理解链接:http://setosa.io/ev/image-kernels/**卷积的基本组件:**卷积层、池化层、全连接层。卷积层:提取特征,输入与滤波器相乘后相加。池化层:删除冗余,输入取滤波器维度的内的最大值或平均值。下图池化层。全连接层:分类器。卷积中的降维当池化层滤波器步长为1,不能实现降维。不管是卷积层还是池化层,实现降维的方法只能是调整步长。(卷积中的降

2020-07-04 10:15:23 163

原创 python可视化柱状图

通过python 的matplotlib库,对数据进行柱状图的可视化,横坐标为分类,纵坐标为数值。// An highlighted block#coding:utf-8import osimport numpy as npimport matplotlib.pyplot as pltimport matplotlibmatplotlib.rcParams['font.family'...

2020-04-25 18:12:57 2538

转载 SVM 超平面的理解

原创 超平面是什么?——理解超平面(SVM开篇之超平面详解) ...

2019-10-25 21:28:12 711

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除