Tensor Flow
lllindada
这个作者很懒,什么都没留下…
展开
-
module ‘tensorflow.keras.layers‘ has no attribute ‘RandomFlip‘
module 'tensorflow.keras.layers' has no attribute 'RandomRotation'也是一样的问题。应该改为: tf.keras.layers.experimental.preprocessing.RandomRotation(0.2),旧版本的该方法在tf.keras.layers.experimental.preprocessing.RandomFlip。tf.keras.layers.RandomRotation(0.2),运行错误。原创 2022-11-26 10:59:46 · 1434 阅读 · 0 评论 -
Your input ran out of data; interrupting training. Make sure that your dataset or generat
Your input ran out of data; interrupting training. Make sure that your dataset or generator can generate at least `steps_per_epoch * epochs` batches (in this case, 3000 batches). You may need to use the repeat() function when building your dataset.histo.原创 2021-01-16 16:56:43 · 3079 阅读 · 6 评论 -
No module named ‘kerastuner‘
import tensorflow as tffrom tensorflow import kerasimport IPython!pip install keras-tunerimport kerastuner as kt结果报错:----> 2 import kerastuner as ktModuleNotFoundError: No module named 'kerastuner'百度了,好像没人碰到过这个问题,怎么解决?...原创 2020-11-07 22:46:20 · 1451 阅读 · 9 评论 -
tensorlfow2.0入门——影评(WordEmbedding的基本概念和知识)
自然语言处理在Word Embedding技术出现之前,传统的做法是将词汇表中的单词或短语转换成单独的离散的符号,例如“舢板”一词可表示为编号为Id253的特征,而“雨伞”一词可表示为编号为Id533的特征。这就是我们后面内容即将讲到的独热编码矩阵,我们将一篇文章中的每一个词汇都转换成该词汇所对应的向量,那么整篇文章就变成了一个稀疏的矩阵,接下来将整个文章所对应的稀疏矩阵合并成一个向量,将每...原创 2019-12-17 09:50:58 · 127 阅读 · 0 评论 -
tensorflow2.0入门——影评对预处理文本进行文本分类
影评只有好或者坏,所以是二分类数据来源于网络电影数据库(Internet Movie Database)的IMDB 数据集(IMDB dataset),其包含 50,000 条影评文本。从该数据集切割出的25,000条评论用作训练,另外 25,000 条用作测试。第一步:下载 IMDB 数据集from __future__ import absolute_import, divis...转载 2019-12-13 22:56:47 · 442 阅读 · 0 评论 -
tensorlfow2.0入门——影评
使用来源于网络电影数据库(Internet Movie Database)的IMDB 数据集(IMDB dataset),其包含 50,000 条影评文本。从该数据集切割出的 25,000 条评论用作训练,另外 25,000 条用作测试。在中间步骤,25000条训练集会按照6:4的比率分割为15000条训练集和10000条验证集。训练集与测试集是平衡的(balanced),意味着它们包含相等数量...原创 2019-12-06 10:11:03 · 335 阅读 · 0 评论 -
tensorflow 2.0入门学习——深度学习中的batch、epoch、iteration的含义
深度学习的优化算法,说白了就是梯度下降。每次的参数更新有两种方式。第一种,遍历全部数据集算一次损失函数,然后算函数对各个参数的梯度,更新梯度。这种方法每更新一次参数都要把数据集里的所有样本都看一遍,计算量开销大,计算速度慢,不支持在线学习,这称为Batch gradient descent,批梯度下降。另一种,每看一个数据就算一下损失函数,然后求梯度更新参数,这个称为随机梯度下降,sto...转载 2019-12-06 09:32:30 · 706 阅读 · 0 评论