对于通过爬虫链接url无法下载问题
因为我用的是notebook,而下载的是国外的数据集,因此每次运行都会提示403forbidden,所以通过在github提issue,作者回复无法复现这个bug,因此逼不得已只能通过手动下载,下载完之后要删除所给的url链接,删除如下代码:
DATASET_URL = 'http://horatio.cs.nyu.edu/mit/silberman/nyu_depth_v2/nyu_depth_v2_labeled.mat'
```·
除此以外,定位到代码中**用到DATASET_URL的位置,一并删掉,删除**:
```c
# download mat file if mat_filepath does not exist
if not os.path.exists(mat_filepath):
print(f"Downloading mat file to: `{mat_filepath}`")
download_file(DATASET_URL, mat_filepath, display_progressbar=True)
由作者的注释也可以看到,如果mat_filepath 路径不存在,我们才使用上述链接下载数据集,则我们在删除前要知道mat_filepath 的路径。
parser.add_argument('--mat_filepath', default=None,
help='filepath to NYUv2 mat file')
在_name__ == ‘main’:下面,看到默认的mat_filepath是不存在的,所以我们要进行修改,让default指向我们下载好的mat_filepath路径。
parser.add_argument('--mat_filepath', default='/root/ESANet-main/datasets/nyu_depth_v2_labeled.mat',
help='filepath to NYUv2 mat file')
重新运行就可以将数据集分类啦。