TF:tf.keras.utils.get_file()设置下载绝对路径

1 问题背景

在使用tensorflow过程中,使用tf.keras.utils.get_file()下载数据集图片进行测试。在默认情况下,图像集下载到了默认的Kears目录。但是,随着试验增加,数据下载较多,导致本地空间不够用,因此采用该函数中的参数配置,设定下载的位置。

2 tf.keras.utils.get_file()函数参考文档

tensorflow官网可以进行查看,也可以查看工具 Utils - Keras 中文文档 (keras-zh.readthedocs.io)icon-default.png?t=LA92https://keras-zh.readthedocs.io/utils/

get_file
keras.utils.get_file(fname, origin, untar=False, md5_hash=None, file_hash=None, cache_subdir='datasets', hash_algorithm='auto', extract=False, archive_format='aut
  • 4
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
### 回答1: tf.keras.utils.get_fileTensorFlow中的一个函数,用于从指定的URL下载数据,并将其缓存到用户的本地文件系统中。该函数具有以下参数: - origin:要下载的数据的URL。 - fname:将数据保存到本地文件系统中的文件名。 - untar:如果为True,则在下载完毕后解压数据。 - md5_hash:如果提供,则在下载完毕后验证文件的MD5哈希值是否与提供的哈希值匹配。 - cache_subdir:将数据缓存到的子目录名称。 该函数的返回值是本地文件系统中数据的路径。如果缓存中已经存在具有指定名称的文件,则该函数将直接返回缓存中的文件路径,而不会重新下载数据。 ### 回答2: tf.keras.utils.get_fileTensorFlow 中的一个工具函数,它可以用来下载和缓存网上的数据集、模型参数或者其他重要数据。这个函数可以自动地处理下载、解压缩、重复下载和使用本地缓存等各种问题,为 TensorFlow 用户提供了一种方便且高效的数据管理方法。 这个函数的输入参数分为五部份: 1. fname:要下载的文件名,可以是本地文件名或者完整的 URL。如果是 URL,函数会自动地将其下载并保存到 TensorFlow 的默认缓存目录中。 2. origin:要下载的文件地址,可以是本地文件地址或者网络 URL。 3. extract:是否需要解压缩下载的文件。如果为 True,函数将自动地将下载的文件解压缩到 TensorFlow 缓存目录中。 4. cache_subdir:缓存目录的名称,如果为 None,函数会自动重新生成一个缓存目录。 5. md5_hash:下载的文件的 MD5 哈希值。如果不为空,函数会自动检查下载的文件的哈希值是否和给定值相同,如果不同则会重新下载文件。 tf.keras.utils.get_file 函数还有一个很重要的作用,就是它可以帮助我们自动地管理数据集的下载和缓存。对于一些常用的公开数据集,例如 MNIST、IMDB 等,我们可以通过调用 get_file 函数来下载它们,并且可以将下载后的数据保存在本地磁盘上,这样就可以避免重复下载并加快训练过程的速度。 总之,tf.keras.utils.get_file 函数是一个非常方便实用的 TensorFlow 工具函数。它可以帮助我们自动地管理数据、下载文件,并且大大简化了 TensorFlow 开发者的工作流程。 ### 回答3: tf.keras.utils.get_file是一个函数,在TensorFlow中用于从指定URL中下载一个文件并将其保存到本地。它返回一个字符串,表示本地保存文件的路径。 使用该函数可以很方便地从公共数据集获取数据,或在训练神经网络时下载预训练的权重文件等。 函数的主要参数包括: 1. fname:需要下载的文件的名称。如果该文件已经存在,则函数会直接返回本地路径,而不会重新下载。如果没有指定该参数,则会根据url参数自动推断文件名。 2. origin:需要下载文件的URL。可以是一个字符串或一个带有URL的tf.keras.utils.H5PY_PACKAGE_VALIDATOR。 3. extract:如果该参数为True,则自动解压缩下载的压缩文件。 4. cache_subdir:默认情况下,下载的文件会被保存在/root/.keras/datasets目录下。使用该参数可以定义自定义的缓存目录。 5. hash_algorithm:文件的哈希值的计算方法。如果发现下载的文件哈希值与指定的哈希值不匹配,则会引发异常。 6. cache_dir:自定义下载文件的缓存目录。 例如,以下代码演示了如何使用tf.keras.utils.get_fileKeras数据集中下载并保存MNIST数据集: ```python from tensorflow.keras.utils import get_file path = get_file('mnist.npz', origin='https://s3.amazonaws.com/img-datasets/mnist.npz', cache_subdir='my_folder') print(path) # 输出 /root/.keras/my_folder/mnist.npz ``` 在执行上述代码时,函数首先检查本地是否已经存在名为mnist.npz的文件,如果该文件不存在,则从指定的URL(origin)中下载一个名为mnist.npz的文件,并将其保存在/root/.keras/my_folder目录下。 总之,tf.keras.utils.get_file提供了方便的下载和缓存数据集的功能,可以为机器学习实验提供更加便捷的数据获取方式。
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值