对于通过爬虫链接url无法下载问题

对于通过爬虫链接url无法下载问题

因为我用的是notebook,而下载的是国外的数据集,因此每次运行都会提示403forbidden,所以通过在github提issue,作者回复无法复现这个bug,因此逼不得已只能通过手动下载,下载完之后要删除所给的url链接删除如下代码:

DATASET_URL = 'http://horatio.cs.nyu.edu/mit/silberman/nyu_depth_v2/nyu_depth_v2_labeled.mat'
```·
除此以外,定位到代码中**用到DATASET_URL的位置,一并删掉,删除**: 
```c
 # download mat file if mat_filepath does not exist
    if not os.path.exists(mat_filepath):
        print(f"Downloading mat file to: `{mat_filepath}`")
        download_file(DATASET_URL, mat_filepath, display_progressbar=True)

由作者的注释也可以看到,如果mat_filepath 路径不存在,我们才使用上述链接下载数据集,则我们在删除前要知道mat_filepath 的路径。

parser.add_argument('--mat_filepath', default=None,
                        help='filepath to NYUv2 mat file')

在_name__ == ‘main’:下面,看到默认的mat_filepath是不存在的,所以我们要进行修改,让default指向我们下载好的mat_filepath路径

parser.add_argument('--mat_filepath', default='/root/ESANet-main/datasets/nyu_depth_v2_labeled.mat',
                        help='filepath to NYUv2 mat file')

重新运行就可以将数据集分类啦。
分类完成

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值