磁盘df看还有剩余空间,但是创建文件时报错,提示磁盘已经满问题解决

一次在磁盘上建立文件夹的时候,报错提示设备上没有空间。但是df -h查看磁盘

  1. [root@~]# df -h

  2. 文件系统 容量 已用 可用 已用% 挂载点

  3. /dev/sda3 19G 2.1G 16G 12% /

  4. /dev/sda1 190M 12M 169M 7% /boot

  5. tmpfs 139M 0 139M 0% /dev/shm

  6. /dev/drbd0 1.9G 1023M 810M 56% /data

  7.  
  8. [root@~]# pwd

  9. /data

  10. [root@~]# mkdir test

  11. mkdir: 无法创建目录 “test”: 设备上没有空间

 

问题:磁盘空间只使用了56%仍有剩余空间,但是建立文件和建立文件夹就是提示设备没有空间了。

分析:在磁盘上建立文件的时候需要两个条件:
        1.磁盘空间,
        2.需要有inode  任何一个满了都回提示设备没有空间。
此处具体原因是由于磁盘的inode分配完了,导致提示磁盘满。


可以使用df -ia查看磁盘详细信息。

 
  1. [root@~]# df -ia

  2. 文件系统 Inode (I)已用 (I)可用 (I)已用% 挂载点

  3. /dev/sda3 4928640 89934 4838706 2% /

  4. proc 0 0 0 - /proc

  5. sysfs 0 0 0 - /sys

  6. devpts 0 0 0 - /dev/pts

  7. /dev/sda1 50200 35 50165 1% /boot

  8. tmpfs 35352 1 35351 1% /dev/shm

  9. none 0 0 0 - /proc/sys/fs/binfmt_misc

  10. /dev/drbd0 251392 251392 0 100% /data

  11.  
  12. 以上查看到(I) 使用了100%

 

解决:删除一些无用的文件或者文件夹,释放inode。
 

关于磁盘空间中索引节点爆满的问题还是挺多的,自己本想写写处理方案,但是看到了网友们文采不错,对于此问题的处理方法都比较妥当,就借过来跟大家分享下:

一、发现问题:
  在一台配置较低的Linux服务器(内存、硬盘比较小)的/data分区内创建文件时,系统提示磁盘空间不足,用df -h命令查看了一下磁盘使用情况,发现/data分区只使用了66%,还有12G的剩余空间,按理说不会出现这种问题。

二、分析问题:
  后来用df -i查看了一下/data分区的索引节点(inode),发现已经用满(IUsed=100%),导致系统无法创建新目录和文件。


inode译成中文就是索引节点,每个存储设备(例如硬盘)或存储设备的分区被格式化为文件系统后,应该有两部份,
一部份是inode,而inode呢,就是用来存储这些数据的信息,这些信息包括文件大小、属主、归属的用户组、读写权限等。
另一部份是Block,Block是用来存储数据用的。inode为每个文件进行信息索引,所以就有了inode的数值。操作系统根据指令,能通过inode值最快的找到相对应的文件。
 而这台服务器的Block虽然还有剩余,但inode已经用满,因此在创建新目录或文件时,系统提示磁盘空间不足。

  三、查找原因:
  /data/cache目录中存在数量非常多的小字节缓存文件,占用的Block不多,但是占用了大量的inode。

  四、解决方案:
   1、删除/data/cache目录中的部分文件,释放出/data分区的一部分inode,特别要留意那些spool出来的文件,这种文件一般会占用比较多的节点,因为比较小而且零碎,同时要多留意日志文件信息等

  2、用软连接将空闲分区/opt中的newcache目录连接到/data/cache,使用/opt分区的inode来缓解/data分区inode不足的问题:
  ln -s /opt/newcache /data/cache

  3、更换服务器,用高配置的服务器替换低配置的服务器。很多时候用钱去解决问题比用技术更有效,堆在我办公桌上5台全新的 DELL PowerEdge 2950 服务器即将运往IDC机房。一般不建议

 

关于磁盘的inode满100%--i节点大爆发

http://blog.sina.com.cn/s/blog_79d1f5e00100qywq.html

原因:
    通常是发现磁盘没有满但是无法写入文件。提示“no space left on device”
    用df -i 查看,应该会发现相应的分区是100%
    一般都是crontab的job有问题,造成/var/spool/clientmqueue中产生许多的零碎文件。
处理方法:
    用rm -rf *会不能删除,并会有相应的提示,大意是参数太多。
    可以用多种方法,这里提及一个我随便写的,在/var/spool/clientmqueue/下执行命令:“lsattr ./|awk -F"/" '{print $3}'|xargs -i rm -rf {}”用lsattr列出./下面的文件名的属性,用awk取出名字,然后rm -rf
    还有一个方法比较普遍的使用:“find /var/spool/clientmqueue/ -type f -exec rm {} \;”或者在/var/spool/clientmqueue/目录下“find ./ -exec rm {} \;”
    将crontab中没有定向输出的行都在最后加上“> /dev/null 2>&1”,在删除的过程中操作。或者先停止crontab,加上重定向。

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值