文件系统与文件属性

原创 2016年05月27日 14:52:50

文件系统与文件属性

本文是作者阅读TLPI(The Linux Programer Interface的总结),为了突出重点,避免一刀砍,我不会过多的去介绍基本的概念和用法,我重点会去介绍原理和细节。因此对于本文的读者,至少要求读过APUE,或者是实际有写过相关代码的程序员,因为知识有点零散,所以我会尽可能以FAQ的形式呈现给读者。

文件系统

什么是udev机制?

我们都知道在Linux中一切都是文件,添加的设备都会在/dev/目录下有一个唯一的文件与之对应,在Linux的早期版本中/dev包含了系统所有可能的条目,即使某些设备实际并未与系统连接,这意味着/dev会包含数以千计的未使用设备项,从而导致了两个缺点,其一,对于需要扫描该目录内容的应用而言,降低了程序的执行速度;其二,根据该目录下的内容无法发现系统实际存在哪些设备。Linux2.6运用udev程序解决了上述问题,udev 以守护进程的形式运行,通过侦听内核发出来的uevent来管理 /dev目录下的设备文件,可以动态的创建设备文件,还可以自定义设备的命名规则。

能否在多个挂载点挂载相同的设备?

内核版本在2.4之前,一个文件系统只能挂载于单个挂载点,从内核版本2.4开始,可以将一个文件系统挂载于文件系统内的多个位置。由于每个挂载点下的目录子树内容都相同,在一个挂载点下对目录子树所做的改变,同样见诸于其它挂载点。

[root@localhost data]# mkdir /data/mnt1
[root@localhost data]# mkdir /data/mnt2
[root@localhost data]# mount /dev/sdb1 /data/mnt1/
[root@localhost data]# mount /dev/sdb1 /data/mnt2/
[root@localhost data]# ls /data/mnt1/
1.c  data  ls  new_data
[root@localhost data]# ls /data/mnt2
1.c  data  ls  new_data
[root@localhost data]# touch /data/mnt1/test
[root@localhost data]# ls /data/mnt2
1.c  data  ls  new_data  test

什么是绑定挂载?

始于内核版本2.4,Linux支持了创建绑定挂载,绑定挂载是指在文件系统层级的另一处挂载目录或文件,这将导致文件或目录在两处同时可见,绑定挂载类似于硬链接,但是存在两个方面的差异:

  • 绑定挂载可以跨越多个文件系统挂载点
  • 可针对目录执行绑定挂载
[root@localhost bind]# mkdir mnt1 mnt2
[root@localhost bind]# touch mnt1/zzz
[root@localhost bind]# mount --bind mnt1 mnt2           //进行目录的绑定挂载
[root@localhost bind]# ls mnt2/
zzz

[root@localhost bind]# touch test1 test2        
[root@localhost bind]# echo "1111" > test1 
[root@localhost bind]# mount --bind test1 test2         //进行文件的绑定挂载
[root@localhost bind]# cat test2 
1111

什么是共享子树(shared subtree)的概念?

自Linux版本2.4.19以后,内核支持针对每个进程的挂载命名空间,这意味着每个进程都可能拥有属于自己的一组文件系统挂载点。比如在进程A的视角下,只能看到/dev/sda1挂载到/根目录下,在进程B的视角下,只能看到/dev/sda2挂载到/home根目录下。在支持了这个特性后就需要考虑下面一个场景:一个进程想要有自己的挂载命名空间,但是仍然想访问CD-ROM所在的挂载点,这个挂载点是在初始的挂载空间中的。其它的挂载空间是看不到这个挂载点的,因此共享子树语义提供了必要的机制来完成上面的这个场景。共享子树提供了四个不同的挂载标志来支持。

  • shared mount MS_SHARED
    shared mount挂载可以将一个挂载点复制多份,并且后续在任何拷贝的挂载点中再次挂载都会被传播到其他副本。
[root@localhost ~]# mount --make-shared /data/              //设置/data挂载点为shared mount
[root@localhost ~]# mkdir /tmp/data
[root@localhost ~]# mount --bind /data/ /tmp/data/          //进行复制
[root@localhost ~]# ls /data/
test1  test2
[root@localhost ~]# ls /tmp/data/
test1  test2
[root@localhost ~]# touch /data/aaa                         //两个挂载点共享同一份内容,相互影响
[root@localhost ~]# ls /tmp/data/
aaa  test1  test2
[root@localhost ~]# mkdir /tmp/data/mnt                     //创建一个新的目录
[root@localhost ~]# mount /dev/sdb1 /tmp/data/mnt/          //创建新的挂载点
[root@localhost ~]# ls /tmp/data/mnt/               
1.c  data  ls  new_data
[root@localhost ~]# ls /data/mnt/                           //发现后续新创建的挂载点也会变成shared mount
1.c  data  ls  new_data
  • slave mount MS_SLAVE
    slave mount挂载可以将一个挂载点复制多份,但是后续在任何拷贝的挂载点中再次挂载不会被传播到其他副本。并且卸载事件也不会传播到其他挂载点,但是如果是在master挂载点上进行挂载,那么这个事件会被传播到所有的slave mount。
[root@localhost /]# mount --make-shared /data/              //slave mount需要有一个master mount,并且master必须是shared mount
[root@localhost /]# mount --bind /data/ /tmp/data/  
[root@localhost /]# mount --make-slave /tmp/data/           //设置为slave mount
[root@localhost /]# mount /dev/sdb1 /tmp/data/mnt/          //挂载事件并不传播
[root@localhost /]# ls /tmp/data/mnt/
1.c  data  ls  new_data
[root@localhost /]# ls /data/mnt/
[root@localhost /]# touch /data/zzz                         //共享同一份数据
[root@localhost /]# ls /tmp/data/
aaa  mnt  test1  test2  zzz
[root@localhost data]# unmount /tmp/data/mn1                //卸载
[root@localhost data]# mount /dev/sdb1 /data/mnt/           //在master mount进行挂载
[root@localhost data]# ls /data/mnt/
1.c  data  ls  new_data
[root@localhost data]# ls /tmp/data/mnt/                    //发现会传播到slave mount
1.c  data  ls  new_data
  • private mount MS_PRIVATE
    private mount挂载,这和早期的mount是一样的,也是某些系统的默认挂载类型,可以进行绑定挂载,但是无论在哪个挂载点再次挂载,都不会进行挂载事件的转发和传播。
[root@localhost data]# mount --make-private /data/          //设置private mount
[root@localhost data]# mount --bind /data/ /tmp/data/       //进行绑定挂载
[root@localhost data]# mount /dev/sdb1 /data/mnt/           //再次挂载
[root@localhost data]# ls /data/mnt/                    
1.c  data  ls  new_data
[root@localhost data]# ls /tmp/data/mnt/                    //没有传播到其他的挂载点
[root@localhost data]# 
  • unbindable mount MS_UNBINDABLE
    无法进行绑定挂载,一个设备只能挂载到一个挂载点。

注: 更多的内容详见Documentation/sharedsubtree.txt

如何获取文件系统相关的信息?

       #include <sys/statvfs.h>
       int statvfs(const char *path, struct statvfs *buf);
       int fstatvfs(int fd, struct statvfs *buf);

指定一个路径,或者一个fd,会返回这个文件所在的文件系统的相关属性信息,使用statvfs这个结构体来表示,该结构体组成如下:

           struct statvfs {
               unsigned long  f_bsize;    /* file system block size */
               unsigned long  f_frsize;   /* fragment size */
               fsblkcnt_t     f_blocks;   /* size of fs in f_frsize units */
               fsblkcnt_t     f_bfree;    /* # free blocks */
               fsblkcnt_t     f_bavail;   /* # free blocks for unprivileged users */
               fsfilcnt_t     f_files;    /* # inodes */
               fsfilcnt_t     f_ffree;    /* # free inodes */
               fsfilcnt_t     f_favail;   /* # free inodes for unprivileged users */
               unsigned long  f_fsid;     /* file system ID */
               unsigned long  f_flag;     /* mount flags */
               unsigned long  f_namemax;  /* maximum filename length */
           };

文件属性

atime,ctime,mtime的区别?

  • atime 文件读取和文件的执行都会导致atime的变化。
  • ctime 只要文件的inode信息发生了变化,ctime随之也会发生变化,因此atime变化通常也会导致ctime变化,因为atime是inode的组成之一
  • mtime 文件内容发生了变化会导致mtime更新,通常mtime的更新会导致ctime发生变化,因为mtime变化说明文件的大小发生了变化,而文件的大小属于inode的组成之一

注: 每次文件的访问和写入,都会影响上述几个时间的变化,inode的信息最终会保存在本地磁盘,因此如果关闭上述几个时间的更新操作的话,那么势必会减少磁盘的操作次数减少不必要的性能开销。在打开文件的时候指定O_NOATIME即可关闭对atime的更新操作,也可以在挂载文件系统的时候指定相关的选项来关闭时间的更新操作。具体可以查询mount的man文档。

目录权限的rwx的含义?

  • 读权限 可以列出目录之下内容(也就是都目录的内容,目录中内容就是文件名和对应inode的信息),但是
  • 写权限 在目录内创建,删除文件(注: 删除一个文件对文件本身无需要任何权限)
  • 可执行权限 可访问目录中的文件,可以切换到该目录,可以配合写权限在目录中添加或删除文件。

拥有对目录的读权限,仅仅只能列出目录中的内容,要想访问目录中这些文件的i节点信息,还需要有目录的执行权限才可以。
拥有对目录的可执行权限,而无读权限,只要知道目录内的文件名称,仍可以直接对其访问,
要想在目录中添加或删除文件,需要同时拥有对该目录的执行和写权限,被删除文件本身的权限不起作用

版权声明:本文为博主原创文章,未经博主允许不得转载。

《Linux启动过程分析》内核挂载根文件系统

前边通过源码情景分析,看过了总线、设备、驱动及其发现机制,Linux2.6内核udev设备节点创建相关;对于文件系统,一直望而生畏,但内核学习这部分又不可能绕的过去。目前对VFS中使用的hash表还未...
  • tankai19880619
  • tankai19880619
  • 2013年09月27日 14:56
  • 15257

关于使用Initramfs来挂载根文件系统的一些理解

关于使用Initramfs和ramdisk来挂载根文件系统的一些理解。若用这两种方式挂载根文件系统,编译内核的时候,会将我们制作好的根文件系统整合到内核中,它们形成一个不可分离的整体。这个整体会被下载...
  • Andoubi
  • Andoubi
  • 2016年07月19日 20:31
  • 1061

内核挂载文件系统的几种方式

一、内核挂载文件系统的几种方式 1、initramfs : (内核+cpio包编译在一起然后一起进行内核压缩)    内核文件包含了的一个cpio归档文件,该归档文件可能被外部的一个cpio包...
  • fridayLL
  • fridayLL
  • 2016年06月19日 23:40
  • 1976

linux 内核启动过程以及挂载android 根文件系统的过程

主要源代码目录介绍Makefile (全局的Makefile)bionic (Bionic 含义为仿生,这里面是一些基础的库的源代码)bootable (引导加载器)build (build 目录中的...
  • zhengmeifu
  • zhengmeifu
  • 2013年08月20日 17:42
  • 2097

内核启动无法挂载根文件系统的问题

这类问题很常见,先总体介绍一下解决思路。 能出现让人激动的的控制台,那么系统移植已经接近完成;但是不少人在最后一步出现问题。 要点如下: 1. 在正确的位置烧写正确格式的文件系统映象: 2. ...
  • lin364812726
  • lin364812726
  • 2014年01月25日 11:11
  • 1280

Linux启动过程之内核挂载内存文件系统和真正根文件系统原因及过程分析

说明:本文基于Linux2.6内核分析;其他内核版本仅供参考。   前边通过源码情景分析,看过了总线、设备、驱动及其发现机制,Linux2.6内核udev设备节点创建相关;对于文件系统,一直望而生畏...
  • lp542718520
  • lp542718520
  • 2014年08月26日 09:50
  • 2509

《Linux启动过程分析》内核挂载根文件系统

说明:本文基于Linux2.6内核分析;其他内核版本仅供参考。   前边通过源码情景分析,看过了总线、设备、驱动及其发现机制,Linux2.6内核udev设备节点创建相关;对于文件系统,一直望而生畏...
  • maimang1001
  • maimang1001
  • 2014年07月13日 23:03
  • 3458

文件系统之格式化与挂载

文件系统 定义 文件系统类型 Linux 文件系统 光盘iso9660 Windows fat32 ntfs Unix FFS fast UFS unix JFS2 网络文件系统NFS CIFS ...
  • yonggeit
  • yonggeit
  • 2017年04月25日 20:42
  • 1323

NFS挂载文件系统需要的内核和uboot的配置

自己用busybox做了一个文件系统,
  • Robot__Man
  • Robot__Man
  • 2015年09月21日 20:41
  • 1973

根文件系统挂载过程分析

原文地址:http://blog.chinaunix.net/xmlrpc.php?r=blog/article&uid=27717694&id=3595123 一、内存盘INI...
  • heikefangxian23
  • heikefangxian23
  • 2016年04月06日 08:35
  • 1470
内容举报
返回顶部
收藏助手
不良信息举报
您举报文章:文件系统与文件属性
举报原因:
原因补充:

(最多只允许输入30个字)