索引节点(inode)满问题处理

关于磁盘空间中索引节点爆满的问题还是挺多的,借此跟大家分享几个情况:

情况一

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

19

20

21

22

23

在公司一台配置较低的Linux服务器(内存、硬盘比较小)的/data分区内创建文件时,系统提示磁盘空间不足,用df -h命令查看了一下磁盘使用情况,发现/data分区只使用了66%,还有12G的剩余空间,按理说不会出现这种问题。

 

后来用df -i查看了一下/data分区的索引节点(inode),发现已经用满(IUsed=100%),导致系统无法创建新目录和文件。

[root@bastion-IDC ~]# df -i

Filesystem Inodes IUsed IFree IUse% Mounted on

.......

.......

/dev/mapper/VolGroup-lv_home

53452800 53452800 0 100% /data

 

inode译成中文就是索引节点,每个存储设备(例如硬盘)或存储设备的分区被格式化为文件系统后,应该有两部份,一部份是inode,另一部份是Block,Block是用来存储数据用的。而inode呢,就是用来存储这些数据的信息,这些信息包括文件大小、属主、归属的用户组、读写权限等。inode为每个文件进行信息索引,所以就有了inode的数值。操作系统根据指令,能通过inode值最快的找到相对应的文件。

 

这台服务器的Block虽然还有剩余,但inode已经用满,因此在创建新目录或文件时,系统提示磁盘空间不足。

 

排查是由于/data/cache目录中存在数量非常多的小字节缓存文件,占用的Block不多,但是占用了大量的inode。

 

解决方案:

1)删除/data/cache目录中的部分文件,释放出/data分区的一部分inode,特别要留意那些spool出来的文件,这种文件一般会占用比较多的节点,因为比较小而且零碎,同时要多留意日志文件信息等

 

2)用软连接将空闲分区/opt中的newcache目录连接到/data/cache,使用/opt分区的inode来缓解/data分区inode不足的问题:

# ln -s /opt/newcache /data/cache

 

3)更换服务器,用高配置的服务器替换低配置的服务器。

情况二

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

19

20

21

22

23

24

25

26

27

28

29

30

31

问题:使用"df -h"命令发现磁盘使用率没有占满,但是无法写入文件,提示"no space left on device"!

原因:磁盘的inode节点使用爆满了!("df -i"命令查看/var空间的inode爆满)。

 

-------------------------------------------------------------------------------

可能原因1:

crontab里面定时执行的句子里没有加 > /dev/null 2>&1,系统中cron执行的程序有输出内容,

输出内容会以邮件形式发给cron的用户,而sendmail没有启动所以就产生了很大零碎的文件:

crontab的job有问题,造成/var/spool/clientmqueue中产生许多的零碎文件。

 

处理方法:

"rm -rf *"会不能删除,并会有相应的提示,大意是参数太多。

 

正确方法:

/var/spool/clientmqueue/下执行命令:

# lsattr ./|awk -F"/" '{print $3}'|xargs -i rm -rf {}

 

表示用lsattr列出./下面的文件名的属性,用awk取出名字,然后rm -rf

 

还有一个比较靠谱的方法:

# find /var/spool/clientmqueue/ -type f -exec rm {} \;

 

或者在/var/spool/clientmqueue/目录下

# cd /var/spool/clientmqueue/

# find ./ -exec rm {} \;

 

crontab中没有定向输出的行都在最后加上"> /dev/null 2>&1",在删除的过程中操作。

或者先停止crontab,加上重定向。

--------------------------------------------------------------------------------

可能原因2

可以看下日志文件是否太多,如果是日志文件占用大量的inodes可以临时释放清理下过期的日志。

也可以根据较大目录的文件占用情况,临时转移部分文件到占用磁盘较小的目录中。

其他总结

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

19

20

21

22

23

24

25

26

27

28

29

30

31

32

33

34

35

36

37

38

39

40

41

42

43

44

45

46

47

48

49

50

51

===================================================

当发现某个分区下的inode使用率过大时,需要找到该分区下的某些目录里有哪些文件可以清理。

查找某个目录下一个月或两个月之前的文件,然后删除

# find . -type f -mtime +30 |wc -l

# find . -type f -mtime +60 |wc -l

# find . -type f -mtime +30 -exec rm -f {} \;

# find . -type f -mtime +60 -exec rm -f {} \;

 

释放inode缓存

# sync

# echo 3 > /proc/sys/vm/drop_caches

 

再次检查下磁盘inode使用情况

# df -i

===================================================

 

1)删除无用的临时文件,释放inode。比如/tmp下有很多临时文件

# ls -lt /tmp | wc -l

# find /tmp -type f -exec rm {} \;

   

如果使用rm *,有可能因为文件数量太多而出现Argument list too long错误

------------------------------------------------------------------------------------------

是在linux下,试图传太多参数给一个系统命令(ls *; cp *; rm *; cat *; etc..)时,就会出现 Argument list too long错误。

   

解决方法:使用find -exec 遍历,然后执行删除便可。

# find /tmp -type f -exec rm {} \;

------------------------------------------------------------------------------------------

   

2)除了的临时文件外,0字节的文件也会占用inode,应该也释放。

# find /home -type f -size 0 -exec rm {} \;

   

3)inode爆满,也可能是某些目录下存在大量的小文件导致。

大量小文件分布有两种可能:

a)一是只有一个或少量目录下存在大量小文件,这种情况可以使用如下命令来找出这个异常目录:

# find / -type d -size +10M 

即找出大小大于10M的目录(目录大小越大,表示目录下的文件越多)。

   

b)大量的小文件分布在大量的目录下,这时候上面的命令可能找不出异常的目录,需要以下命令:

# cd /

# find */ ! -type l | cut -d / -f 1 | uniq -c

此命令作用是找出目录下文件总数,可能需要执行多次,直到找出具体的目录。比如上面的命令找出了/data目录下存在大量的小文件,

/data/目录还有很多目录,这时候我们还需要继续执行:

# cd /data

# find */ ! -type l | cut -d / -f 1 | uniq -c

直到找出具体的目录。

   

如果可以直接删除节点满的文件夹:

# find . -type f -exec rm {} \;

   

还可以按照文件的inode节点删除文件

# find . -inum 342137 -exec rm -i {} \;

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值