linux 中 ext2文件系统实现

ext2文件系统结构

图片的svg下载链接(图中关于buffer的部分,上下两部分是重复的,是从不同维度下看的buffer结构)

linux内核本身不提供ext2文件系统的格式化功能,可以参考busybox中对mkfs.ext2的实现(mkfs.ext2.c)格式化过程简述如下:

mkfs_ext2_main():
  计算每个部分的资源
  填充super_block
  填充group_desc_blocks,desc中主要包含三部分数据块的块号
    bg_block_bitmap,
    bg_inode_bitmap, 
    bg_inode_table
  在每个group的bitmap块中标记这些元数据块的位置为已分配(其中第一块还会有super_block)
  将inode_table空间初始化为0
  添加. .. lost_found 这三个目录项。

在busybox中块大小与总大小有关,总磁盘大小至少是64k,64k-512m是4096B,512m-4T是8192B(4T以上不考虑了)。一个group中装的block数是一块bitmap块所能承载的数(比如一块4096byte时,能代表的块数是4k*8=32k个块)

从代码流程可以看出ext2系统的布局如下:

没有引导块,super block存了整体信息,group desc存了group信息所在块号(最重要的是三种块的块号:block分配bitmap、inode分配的bitmap、inode 实际存储信息的多个块)。这两部分信息有多个备份。真正的inode和文件内容存在data block上。

ext2中inode分配

inode分配的实现在ext2_new_inode,每次尝试从inode数和block数都占用不多的group分配inode(find_group_orlov),然后从这组的bitmap中找一个合适的位置setbit,它对应了inode_table 中一段实际的磁盘空间。从slab中分配一个包含inode节点的struct ext2_inode_info,将找到的inode号填入inode->ino中,这里不需要访问设备。将inode_table对应位置所在块和inode bitmap 所在块标记为dirty(mark_buffer_dirty),之后就在合适时间等着刷盘就好了(这个链路可以参考linux buffer的回写的触发链路)。

注:存在设备上的inode状态中信息大部分来自于inode 结构。但在内存中会对这个inode结构做一个封装(ext2_inode_info),inode结构存在ext2_inode_info->vfs_inode位置。可以通过EXT2_I(struct inode *inode)函数找到inode对应的ext2_inode_info。

目录inode的分配

另外当分配一个路径时,每个dir inode有一个对应的block,上面存了ext2_dirent,它是可变长的结构(因为路径的名称可长可短)。当要删除一个路径时,不需要将后面的dirent向前补齐,而是将dirent与前一个dirent合并。所以在分配时也是同理,需要遍历dirent,将合适的dirent的空闲部分切下来作为新的dirent。

寻找目录分配在哪个group也有讲究(Orlov算法):有两个原则。1、新目录尽可能与父目录在同一个group或相近的group;2、如果未达到一定阈值,可直接分配,如果达到阈值则找离父group最近的,剩余空闲inode数大于平均的group分配。

阈值有三点(每个group的dir数之间不能差太多):

1、目录数的绝对上限:平均每group分配目录数+1/16每组分配上限(每个group的dir数不能太多)

2、空闲inode数和block数下限:group平均值-1/4每组分配上限(每个group的dir数不能太少)

3、debt = 分配目录-分配文件。要求debt * INODE_COST <  N_{group\_blocks}\times \frac{N_{dir}}{N_{block}}(根据平均每目录占用block数,计算的未来需要block数不能过载)

ext2中inode的访问

每个inode 的ext2_inode_info中有一个i_data数组,当一个inode文件中分配块数少于12时,可以直接使用i_data的前12个元素作为逻辑块1-12所对应的物理块号。当一个文件块数超过12小于1024(一个block所能装int类型的数量)时,i_data的第13位(index = 12)指向1级列表所在的块,这块中每一项表示对应逻辑块(12-1023)的物理块号。

依此类推,1K-1M之间的逻辑块用i_data[13]所指向的二级块表来索引,1M-1G之间的逻辑块用i_data[14]所指向的三级块表来索引。

当读取一个block时,首先通过inode的块表找到对应逻辑块的物理块号(ext2_block_to_path)。将物理块加载到内存中,封装成一个buffer_head结构,并返回(ext2_get_block)。

buffer_head是设备与buffer之间的一个扭带,它映射了设备上的一片区域(在代码中一个buffer_head对应几个连续的block)。真正的buffer内容存在struct page对应的页空间上(页与struct page的转换关系可以参考:linux中 struct page 与物理地址的关系

下图中filio是对page的封装,可以理解为一段连续物理内存页的集合,第一页的folio->page上存了页区间的第一个struct page,其后连续的struct folio填满了folio对应的区间。(下图中画的page指向一段页,实际上不是指针关系,而是上面链接提到的,struct page结构地址本身映射了一块内存),这些实际的物理内存组成了一段buffer。区间第一页的folio->private是buffer_head的链表,其上存了这个buffer与块设备上block内容的对应关系,其中buffer_head->b_data指向一个block大小的buffer。(下图中更正:一个buffer_head不一定对应一个块,可以对应几个连续块(注:从grow_buffers函数的注释和grow_dev_page的实现可以看出,block的大小一定比页小))

当修改文件中一段内容时,它对应的块的buffer_head会链在inode->private_list所在链表上。等待后期刷盘时遍历。如下图所示:

这里想到一个问题,当父进程fork了一个子进程,这个子进程中通过copy on write 的方式修改了一个文件的内容,会发生什么改变呢?答案是什么也不会发生,因为copy on write是在逻辑地址上做的文章(原理可以参考这篇:理解linux中反向映射与应用),这里的buffer都是物理地址。

ext2中inode块的分配

由于底层访问接口中一次只加载一个block,为了让逻辑上连续的块在物理设备上也尽可能连续,每次为inode分配逻辑块时,会启发性地,一次分配多个连续的块(ext2_get_blocks),我们重点分析下这个启发式过程。

其中每个文件可能有自己的reserve window,但并不保证分配的块一定属于这个文件,有可能在分配reserve window之前其间的物理块早被多个其它文件分配过。reserve window的作用只是说先占着,别的文件分配时会跳过这个区域,从而保证一个文件在分配时物理块尽可能在一起。分配window时的算法保证这个reserve winodw的区域至少有一个空闲块(alloc_new_reservation)。

ext2_get_blocks():
  // 将块号分解为块表的分量
  ext2_block_to_path();
  // 将块表链路上的块都找到,收集到chain中
  // chain节点Indirect的key=下层物理块号,p=下层逻辑块号所在地址
  ext2_get_branch();
  
  // 选定一个目标块用来分配,原则是尽可能与同一文件分配过的块挨着
  // 如果上次分配的逻辑块号与物理块号刚好可用,则选定这个块号
  // 否则在这个块中向左找分配过的物理块号,选定接在它(逻辑上分配过的块的物理块号)后面。
  // 如果这一逻辑块中前面没有分配过的块,则选承载这级块表的物理块的后面一块。
  // 如果这是新文件,没有分配过块表,则在inode所在group的1/16*x分配
  // (x在0到15之间,目的是让新文件分配的物理块尽可能隔开,这样可以使同一文件的物理块尽可能挨着)
  ext2_find_goal();
  
  // 启发式计算一次性分配多少连续块(分配长度),
  // 这里不要求物理块连续,会在后面将分配长度削减到连续物理块数:
  // 如果块表的最后一级是中间块,则分配长度为传入的maxblocks块。
  // 如果maxblocks数量跨过了这个中间块,则分配长度为从逻辑块位置到这个中间块表结束的块数。
  // 如果块表的最后一级是叶子块,则分配长度为选定逻辑块后没有分配过的连续逻辑块块数。
  ext2_blks_to_allocate();

  // 分配块表子链
  // 传入参数indirect_blks指最后一级块表到分配data块还差几层
  // blks和goal指上面启发式计算的分配长度和启始分配块
  ext2_alloc_branch():
    ext2_alloc_blocks():
      // 尝试分配至少indirect_blks(新块表项)+1个块,
      // 其中前面的作为data块,后面的作为新块表块
      while (分配的连续块还不够用)
        ext2_new_blocks();

  // 将buffer_head与这个分配的连续data块绑定(不包含块表块)
  map_bh(bh_result, bno);

  // 如果分配的块数超过了最后一级块表的边界,只有一种可能
  // 就是新分配的块表块接在了新分配的data 块后面。
  // 则在buffer_head上标记一下,后面刷盘时,除了刷data block外,
  // 连带要检查一下后面的块,因为它可能是这个data block所在的块表块。
  // 一起刷盘更能保证原子性(write_boundary_block)
  set_buffer_boundary(bh_result);



ext2_new_blocks():
  先尝试从选定块的group上的reserve window分配
  如果不能分配,其它group只取free block大于reserve window 的一半的reserve window分配
  如果用reserve window分配不成功,尝试不用reserve window分配,还是先goal group,再其它group。
  实现用了同一个入口函数 ext2_try_to_allocate_with_rsv
  

ext2_try_to_allocate_with_rsv():
  在尝试reserve_window的场景,尝试通过扩张reserve window的方式来满足分配大小,
  在有指定目标物理块的情况下,尝试让window覆盖目标块
  如果忽略了目标物理块,则尝试从整个group去分配。
  扩张有几个原则:1、如果window内已经分配过一半以上,尝试扩张一倍大小。
  2、如果覆盖了目标块,尝试让reserve window覆盖请求的大小
  3、扩张后的块内必须至少有一个free的block
  然后调ext2_try_to_allocate从bitmap中去找一个空闲块。
  当扩张大小不足以覆盖请求大小时,尝试缩短请求连续块数
  在不尝试reserve_window的场景,直接调ext2_try_to_allocate找空闲块


ext2_try_to_allocate():
  // 找空闲块有一定算法:
  // 先从start位置到64 align 的位置结束找free bit.
  // 如果没找到,尝试找空字节(以8bit为单位找)。
  // 如果还没找到,才尝试从start位置开始,一个bit一个bit地找。
  find_next_usable_block();

  // 当找到空闲bit后,由于上面算法有以8bit为单位找的情况
  // 因而向前找7个bit,看有没有连续的空闲块可用
  for (i = 0; 
    i < 7 && grp_goal > start && !ext2_test_bit(grp_goal - 1,bitmap_bh->b_data);
    i++, grp_goal--);
  
  // 返回连续块的开始位置和块数
  *count = num;
  return grp_goal - num;
  

向ext2文件写内容

write的调用到真正操作如下:

write
 ->ksys_write
  ->vfs_write
   ->new_sync_write
    ->call_write_iter
     ->ext2_file_write_iter (ext2 的 op hook)
      ->generic_file_write_iter
       ->__generic_file_write_iter
        ->generic_perform_write
         ->file->f_mapping->a_ops

file的f_mapping就是inode->i_mapping,inode->i_mapping是在从slab拿一个ext2_inode_info时callback hook(init_once)中填充的。而file->f_mapping是在alloc_file时填充的(f_mapping = inode->i_mapping)。

写的过程分为write_begin,copy_page_from_iter_atomic,write_end三步。

第一步ext2_write_begin时,会做两件事,一个是准备buffer,为buffer分配页(会将folio->mapping 置为inode的i_mapping,filemap_add_folio),另一个是准备块,为刷盘区间的逻辑块分配物理块 (get_block)。

第二步迭代传入的用户空间的data,copy到buffer中(copy_page_from_iter_atomic)。

第三步ext2_write_end,标记buffer为dirty(__block_commit_write)。

在写完之后,会调一次sync,来刷盘(generic_file_write_iter->generic_write_sync)。从dirty到刷盘链路可以参考linux buffer的回写的触发链路

  • 25
    点赞
  • 18
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值