lsof(list open files)是一个列出当前系统打开文件的工具。在linux环境下,任何事物都以文件的形式存在,通过文件不仅仅可以访问常规数据,还可以访问网络连接和硬件。
在终端下输入lsof即可显示系统打开的文件,因为 lsof 需要访问核心内存和各种文件,所以必须以 root 用户的身份运行它才能够充分地发挥其功能。
[root@master ~]# lsof -p 22529
COMMAND PID USER FD TYPE DEVICE SIZE NODE NAME
java 22529 hadoop cwd DIR 8,3 4096 68255745 /home/hadoop/hadoop-1.0.3
java 22529 hadoop rtd DIR 8,3 4096 2 /
java 22529 hadoop txt REG 8,3 270055 62390291 /home/hadoop/jrockit-jdk1.6.0_29/bin/java
java 22529 hadoop mem REG 8,3 144776 19431601 /lib64/ld-2.5.so
java 22529 hadoop mem REG 8,3 1726320 19431605 /lib64/libc-2.5.so
java 22529 hadoop mem REG 8,3 614992 19431684 /lib64/libm-2.5.so
java 22529 hadoop mem REG 8,3 23360 19431672 /lib64/libdl-2.5.so
java 22529 hadoop mem REG 8,3 149968 19431652 /lib64/libpthread-2.5.so
java 22529 hadoop mem REG 8,3 53448 19431661 /lib64/librt-2.5.so
java 22529 hadoop mem REG 8,3 114352 19431671 /lib64/libnsl-2.5.so
java 22529 hadoop mem REG 8,3 92816 19431752 /lib64/libresolv-2.5.so
java 22529 hadoop mem REG 8,3 23684216 62456020 /home/hadoop/jrockit-jdk1.6.0_29/jre/lib/amd64/jrockit/libjvm.so
java 22529 hadoop mem REG 8,3 492348 62456055 /home/hadoop/jrockit-jdk1.6.0_29/jre/lib/amd64/libosal.so
java 22529 hadoop mem REG 8,3 233295 62456060 /home/hadoop/jrockit-jdk1.6.0_29/jre/lib/amd64/libutil.so
java 22529 hadoop mem REG 8,3 32768 112656417 /tmp/hsperfdata_hadoop/22529
java 22529 hadoop mem REG 8,3 53880 19431603 /lib64/libnss_files-2.5.so
java 22529 hadoop mem REG 8,3 261428 62456041 /home/hadoop/jrockit-jdk1.6.0_29/jre/lib/amd64/libjfr.so
java 22529 hadoop mem REG 8,3 66580 62456061 /home/hadoop/jrockit-jdk1.6.0_29/jre/lib/amd64/libverify.so
java 22529 hadoop mem REG 8,3 234440 62456036 /home/hadoop/jrockit-jdk1.6.0_29/jre/lib/amd64/libjava.so
java 22529 hadoop mem REG 8,3 55818 62488580 /home/hadoop/jrockit-jdk1.6.0_29/jre/lib/amd64/native_threads/libhpi.so
java 22529 hadoop mem REG 8,3 56471376 16979795 /usr/lib/locale/locale-archive
java 22529 hadoop mem REG 8,3 92253 62456062 /home/hadoop/jrockit-jdk1.6.0_29/jre/lib/amd64/libzip.so
java 22529 hadoop mem REG 8,3 39481 62456047 /home/hadoop/jrockit-jdk1.6.0_29/jre/lib/amd64/libmanagement.so
COMMAND:进程的名称
PID:进程标识符
USER:进程所有者
FD:文件描述符,应用程序通过文件描述符识别该文件。如cwd、txt等
TYPE:文件类型,如DIR、REG等
DEVICE:指定磁盘的名称
SIZE:文件的大小
NODE:索引节点(文件在磁盘上的标识)
NAME:打开文件的确切名称
其中FD 列中的文件描述符
cwd 值表示应用程序的当前工作目录,这是该应用程序启动的目录,除非它本身对这个目录进行更改。
txt 类型的文件是程序代码,如应用程序二进制文件本身或共享库,如上列表中显示的 /sbin/init 程序。其次数值表示应用程序的文件描述符,这是打开该文件时返回的一个整数。如上的最后一行文件/dev/initctl,其文件描述符为10。u 表示该文件被打开并处于读取/写入模式,而不是只读 ® 或只写 (w) 模式。同时还有大写 的W 表示该应用程序具有对整个文件的写锁。该文件描述符用于确保每次只能打开一个应用程序实例。初始打开每个应用程序时,都具有三个文件描述符,从 0 到 2,分别表示标准输入、输出和错误流。所以大多数应用程序所打开的文件的 FD 都是从 3 开始。与 FD 列相比,Type 列则比较直观。文件和目录分别称为 REG 和 DIR。而CHR 和 BLK,分别表示字符和块设备;或者 UNIX、FIFO 和 IPv4,分别表示 UNIX 域套接字、先进先出 (FIFO) 队列和网际协议 (IP) 套接字。