自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(15)
  • 收藏
  • 关注

原创 狂想2014

当我走入这条河我的思绪像一条船目光扫过湖面我看见了粉碎的时间当我走入这条河月光淹没在河水间河面的皱纹开始蔓延他看见他在水中消失不见当我走入这条没有颜色的河他抽搐的声响使我有一种喝水的错觉感当她走入这条河残缺的楼宇在水中浮现树林突然没了边旧时的古堡展开像一把折扇当她走入这条河雨凝固在水面她看见水中的树叶回到很多年前夜空被拉长得很远你看见我的影子沉入了深渊...

2020-05-21 17:40:59 214 2

原创 深度学习分享1:神经网络概念

这里写自定义目录标题欢迎使用Markdown编辑器新的改变功能快捷键合理的创建标题,有助于目录的生成如何改变文本的样式插入链接与图片如何插入一段漂亮的代码片生成一个适合你的列表创建一个表格设定内容居中、居左、居右SmartyPants创建一个自定义列表如何创建一个注脚注释也是必不可少的KaTeX数学公式新的甘特图功能,丰富你的文章UML 图表FLowchart流程图导出与导入导出导入欢迎使用Markdown编辑器你好! 这是你第一次使用 Markdown编辑器 所展示的欢迎页。如果你想学习如何使用Mar

2020-05-14 22:14:53 333

原创 project2:各种衣物的分类识别

import tensorflow as tfimport matplotlib.pyplot as pltplt.rcParams['font.family']='SimHei'fashion=tf.keras.datasets.fashion_mnist(x_train,y_train),(x_test,y_test)=fashion.load_data()x_train,x_test=x_train/255.0,x_test/255.0#归一化,把输入的值变小更适合神经网络吸收plt.fi

2020-05-28 15:07:21 376

原创 project1:手写数字识别

import tensorflow as tfimport matplotlib.pyplot as pltmnist=tf.keras.datasets.mnist(x_train,y_train),(x_test,y_test)=mnist.load_data()x_train,x_test=x_train/255.0,x_test/255.0#归一化,把输入的值变小更适合神经网络吸收plt.figure()#看看训练集,没什么毛病for i in range(10): plt.su

2020-05-28 12:47:07 163

原创 深度学习分享11:缓解过拟合

第十一章欠拟合解决办法:1增加输入特征项2增加网络参数3减少正则化参数过拟合解决办法:1数据清洗2增大训练集3采用正则化4增大正则化参数

2020-05-27 10:54:22 179

原创 深度学习分享10:损失函数

第十章MSE(均方误差)CE(交叉熵损失)MSE(均方误差) 其中M是样本个数,y m 是经过网络的输出值,y m ^是标记值其中M是样本个数,y~m~是经过网络的输出值, \hat{y~m~}是标记值其中M是样本

2020-05-26 17:58:09 150

原创 深度学习分享9:激活函数

第九章sigmoid函数tanh函数relu函数sigmoid函数tf.nn.sigmoid(x)f(x)=1/(1+exp(-x))特点:容易造成梯度消失,输出非0均值,收敛慢,幂运算复杂,训练时间长深层神经网络一般不再使用sigmoid函数,因为它的导数处于0到0.25的区间,而深层神经网络的链式法则会导致多个这样的导数值相乘,从而出现一个极小的梯度,这就是梯度消失,使得参数无法继续更新tanh函数f(x)=[1-exp(-2x)]/[1+exp(-2x)]特点:输出是0均值,容易造成梯

2020-05-26 11:40:50 257

原创 深度学习分享8:tensorflow常用函数2

第八章tf.where(条件语句,真返回A,假返回B)np.vstack(数组1,数组2)tf.where(条件语句,真返回A,假返回B)a=tf.constant([1,2,3,1,4])b=tf.constant([1,1,2,5,6])c=tf.where(tf.greater(a,b),a,b)print(c)tf.Tensor([1 2 3 5 6], shape=(5,), dtype=int32)np.vstack(数组1,数组2)起到一个纵向叠加的作用import

2020-05-25 21:10:43 106

原创 深度学习分享7:tensorflow常用函数1(求导,独热码,柔性最大值,最大索引)

第七章#对函数求导import tensorflow as tfwith tf.GradientTape() as tape: w=tf.Variable(tf.constant(3.0)) loss=tf.pow(w,2)grad=tape.gradient(loss,w)print(grad)tf.Tensor(6.0, shape=(), dtype=float32)#独热码#tf.one_hot()将待转数据转换为独热码形式#tf.one_hot(待转化

2020-05-24 19:14:31 315

原创 深度学习分享6:张量的使用

第六章创建张量创建张量#创建一个张量import tensorflow as tfa=tf.constant([1,5],dtype=tf.int64)print(a)print(a.shape)print(a.dtype)tf.Tensor([1 5], shape=(2,), dtype=int64)(2,)<dtype: 'int64'>#讲numpy数据类型转换为tensor数据类型import tensorflow as tfimport num

2020-05-23 21:17:33 167

原创 深度学习分享5:Iris鸢尾花分类问题

第五章代码代码我现在数据可视化的能力还挺弱,所以很多图没画,以后再补吧import tensorflow as tfimport pandas as pdfrom sklearn import datasetsimport numpy as npx_train=datasets.load_iris().data#数据y_train=datasets.load_iris().target#标签np.random.seed(116)#同步随机种子np.random.shuffle(x_tra

2020-05-22 14:19:18 770

原创 现实与幻灭

很多年以前我的内心突然像一张没有厚度的白纸一样飘荡起来那时我的生活如同一片不知所措的叶子很多年以后当c的面容像一粒灰尘一样从破碎的玻璃窗上被抹去那时我正躺在一条潮湿的马路上身旁是第十九支划出去的香烟尽管我和十九具尸体平铺在了一起x扭曲着身体向前走去他的手臂被风吹得左右摇摆于是我看到了他眼睛上的灰尘老人在这一天走进了我的生活我的思绪开始流淌命运已经多次向x暗示然而都被他一一忽略我的内心开始喊叫起来喊叫使我想起那一天当老人对我招手告别我的脚开始迈动起来然而他们离开了目的

2020-05-21 17:28:25 136

原创 深度学习分享4:tensorflow keras介绍

第四章tensorflow高级API:tf.keras1 import相关模块2 train,test数据导入3 搭建神经网络4 训练方法5 一些超参数设置6 打印出网络的结构和参数统计tensorflow高级API:tf.keras搭建网络步骤:1 import相关模块2 train,test数据导入并指定x_train,y_train,x_test,y_test。3 搭建神经网络model=tf.keras.models.Sequential([ 网络结构])逐层搭建神经网络,相当于走了

2020-05-21 15:32:01 411

原创 深度学习分享2:bp神经网络代码实现(底层代码)

第二章代码代码import numpy as npimport tensorflow as tfimport randomclass Network: def __init__(self,sizes): self.sizes=sizes self.num_layers=len(sizes) self.biases=[np.random.randn(y,1) for y in sizes[1:]] self.weights=[n

2020-05-19 20:37:56 439

原创 深度学习分享3:bp神经网络代码分析(底层代码)

第二章一级目录一级目录

2020-05-17 15:39:37 969

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除