报错 OSError: [Errno 16] Device or resource busy: .nfs00000 和 QSError: AF_UNIX path too long

我运行mxnet多线程训练时遇到的错误,同理我觉所有深度学习框架多线程训练遇到这个报错AF_UNIX path too long,基本上都是这个原因。

最近服务器出现空间不够用后,有同学将整个所有的container全都迁移到了另一个存储文件的文件服务器上,导致在container的一些操作要都以socket的方式从此文件服务器下载数据。在使用pytorch的DataLoader时,开启多线程后会报这个错误。经过查询,这个错误也会和python使用多线程时一起出现。刚开始报OSError: [Errno 16] Device or resource busy: ‘.nfs*’,如果忽略,到后面会报QSError: AF_UNIX path too long。

这个问题与linux和文件服务器有关,是由于文件服务器是无状态的,linux在删除文件时,如果有其它程序在使用这个文件时,会将此文件临时重命名为.nfs0000的文件。而将container迁移到文件服务器上时,将临时目录/tmp也一起迁移到了文件服务器上,因此临时缓存的文件也在文件服务器上,而不再我们操作的服务器上,又因为linux文件服务器是无状态的,因此会出现这个情况。

因为没有root权限,因此找了一个简单的办法来解决这个问题------另建一个临时文件目录,将临时文件路径设置到其上。mkdir -m 1777 /路径/tmp,创建目录,并赋予相应权限。

然后设置路径。此时在运行就不会报错了。
————————————————
版权声明:本文为CSDN博主「有点小傲慢」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。
原文链接:https://blog.csdn.net/qq_32224299/article/details/106684009

我的解决办法是把/tmp 改为 /tmp1, 然后新建一个/tmp。这时候你的docker容器肯定用不了,因为没了getNodeInfo.tmp 和 getTeyeInfo.tmp 要不把原来的复制过来,要不就重新建一个容器。
docker run --gpus all -p 5921:5901 -v /share_data/DATA1:/data_test -v /share_data/DATA2:/data -v /u02:/u02 -v /u01:/u01 -w /data_2/ZSY/ -itd --shm-size=8g --name ZSY_vnc 421d69acfa63

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值