深度学习框架
记录深度学习框架的心得笔记
HadesZ~
HadesZ~的博客主页
展开
-
循环神经网络(RNN类)中 padding 值的 mask 方法
应拆解到循环神经网络沿时间轴方向传播的每一时间步隐藏状态计算过程中进行mask操作,这样才能保证padding补位值的噪声,在反向循环神经网络(双向RNN中的反向部分)中也不混入到输出隐藏状态中。...原创 2022-07-09 19:09:18 · 475 阅读 · 0 评论 -
tensorflow 2.x 多分类混淆矩阵及评价指标计算方法(精确率、召回率、f1分数)
TensorFlow 2.x 中多分类任务的混淆矩阵计算方法原创 2022-06-11 13:42:54 · 932 阅读 · 1 评论 -
TensorFlow中两种多分类损失函数categorical_crossentropy和sparse_categorical_crossentropy间的区别
TensorFlow中,categorical_crossentropy和sparse_categorical_crossentropy都是交叉熵损失函数,它们的数学意义相同,区别仅在于适用于不同的类别标签编码格式。当输入数据的类别标签采用独热编码(OneHot Encoding)格式时,模型应采用 categorical_crossentropy 损失函数;当输入数据的类别标签采用序号编码(Label Encoding)格式时,模型应采用 sparse_categorical_crossentropy原创 2022-01-29 19:30:44 · 4059 阅读 · 1 评论 -
TensorFlow框架中batch、batch_size、iteration、step和epoch间的关系与意义
1、定义与关系batch(批):batch源自小批量随机梯度下降算法(mini-batch SGD)中,每次更新迭代模型参数时仅使用全部训练集样本中的一小部分,这部分被使用的样本数据叫做一个batchbatch_size(批大小):小批量随机梯度下降法(mini-batch SGD)中,每次更新模型参数所使用的样本数量,即一个batch中所包含的样本数量。iteration(迭代):模型训练中,更新模型参数的次数;iteration = batch number * epoch numberstep原创 2021-12-24 12:15:09 · 4845 阅读 · 2 评论 -
TensorFlow2.0 神经网络模型创建方法总结
序言tf2.0中有三种主流模型创建方法:顺序式模型创建方法、函数式模型创建方法和子类式模型创建方法;前两者用于创建静态图神经网络模型,最后者用于创建动态图神经网络模型。顺序式创建方法该方法使用 tf.keras.models.Sequential() 创建仅由顺序连接的单层堆栈组成的简单神经网络模型,Sequential() 中输入神经网络层定义数组。如下所示:import tensorflow as tftf.keras.models.Sequential([ tf.keras.layers原创 2021-12-30 14:22:33 · 1056 阅读 · 1 评论 -
Tensorflow中Dataset对象的apply()、map()和flat_map()方法间的区别
apply()、map()和flat_map()三中方法都可以用于转换Dataset对象中的数据。它们的区别是:方法官网原文作者理解apply()Applies a transformation function to this dataset. apply enables chaining of custom Dataset transformations, which are represented as functions that take one Dataset arg原创 2022-01-24 16:54:02 · 2276 阅读 · 0 评论