Tensorflow 2.0笔记 -第五章-经典数据集使用

Tensorflow 2.0笔记 -第五章-经典数据集使用

以下笔记都来自于龙龙老师的龙书《Tensorflow深度学习》

1.经典数据集

Boston Housing波士顿房价数据集回归模型
CIFAR10/100真实图片数据集图片分类
MNIST手写数字图片数据集图片分类
IMDB情感分类数据集文本分类任务

2.数据加载


import tensorflow as tf
from tensorflow.keras import  datasets
#   通过 datasets.xxx.load_data()函数实现对应xxx数据集下载
(x_train,y_train) ,(x_test,y_test) = datasets.mnist.load_data()

3.数据转换


#数据想要使用Tensorflow时候需要转换成Dataset对象
train_db = tf.data.Dataset.from_tensor_slices((x , y)) 

4.数据随机打散


#通过Dataset.shuffle(buffer_size)可以打乱数据之间的顺序
train_db = train_db.shuffle(10000)  # 打乱样本顺序,不会影响x和y的映射关系

5.批次训练

# 将样本分为多批次,每个批次所含样本数量叫做Batch_size
train_db = train_db.batch(128)  # 将每个Batch大小设置为128
  • Batch_size:每个批次的样本数
  • Iteration:总样本分多少个批次
  • Epoch: 总样本训练次数

6.预处理

对数据经行处理,来符合数据格式要求。可使用map(func)来调用自己自定义的函数方法。

7.循环训练


for epoch in range(20):   #总样本循环训练20次
  for step , (x , y) in enumerate(train_db):  # 这里的step相当于是Iteration;train_db.shape = Batch_size
    ...

8.训练过程观测


if step % 100 == 0:    #100 次迭代后观看一次训练误差
  print(step , 'loss:' , float(loss))  # loss为损失函数(或者是cost代价函数)
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值