NFS

1. nfs特点

  1. NFS(Network File System)即网络文件系统,是FreeBSD支持的文件系统中的一种,它允许网络中的计算机之间通过TCP/IP网络共享资源
  2. 在NFS的应用中,本地NFS的客户端应用可以透明地读写位于远端NFS服务器上的文件,就像访问本地文件一样
  3. nfs适用于Linux与Unix之间实现文件共享,不能实现Linux与Windows间的文件共享功能
  4. nfs是运行在应用层的协议,其监听于2049/tcp和2049/udp套接字上
  5. nfs服务只能基于IP进行认证

2. nfs的体系组成

nfs体系至少有两个主要部分:
一台nfs服务器
若干台客户机

客户机通过TCP/IP网络远程访问存放在NFS服务器上的数据
在NFS服务器正式启用前,需要根据实际环境和需求,配置一些NFS参数

3. nfs工作机制

nfs是基于rpc来实现网络文件系统共享的。

RPC(Remote Procedure Call Protocol),远程过程调用协议,它是一种通过网络从远程计算机程序上请求服务,而不需要了解底层网络技术的协议。
RPC协议假定某些传输协议的存在,如TCP或UDP,为通信程序之间携带信息数据。在OSI网络通信模型中,RPC跨越了传输层和应用层。
RPC采用客户机/服务器模式。请求程序就是一个客户机,而服务提供程序就是一个服务器。
在这里插入图片描述

  • 客户端程序发起一个RPC系统调用基于TCP协议发送给另一台主机(服务端)
  • 服务端监听在某个套接字上,当收到客户端的系统调用请求以后,将收到的请求和其所传递的参数通过本地的系统调用执行一遍,并将结果返回给本地的服务进程
  • 服务端的服务进程收到返回的执行结果后将其封装成响应报文,再通过rpc协议返回给客户端
  • 客户端调用进程接收答复信息,获得进程结果,然后调用执行继续进行

例子:
在这里插入图片描述

  • 客户端发起查看file信息的指令(ls file)给内核,内核通过NFS模块得知此文件并不是本地文件系统中的文件,而是在远程NFS主机上的一个文件
  • 客户端主机的内核通过RPC协议把查看file信息的指令(系统调用)封装成rpc请求通过TCP的111端口发送给NFS服务端主机的portmapper
  • NFS服务端主机的portmapper(RPC服务进程)告诉客户端说NFS服务端的mountd服务在某某端口上,你去找它验证

因为mountd在提供服务时必须要向portmapper注册一个端口号,所以portmapper是知道其工作于哪个端口的

  • 客户端得知服务端的mountd进程端口号后,通过已知的服务端mountd端口号请求验证
  • mountd收到验证请求后验证发起请求的客户端是否在允许访问此NFS文件系统的客户端列表中,在则允许访问(发放一个令牌,持令牌去找nfsd),否则拒绝访问
  • 验证通过后客户端持mountd发放的令牌去找服务端的nfsd进程,请求查看某文件
  • 服务端的nfsd进程发起本地系统调用,向内核请求查看客户端要查看的文件的信息
  • 服务端的内核执行nfsd请求的系统调用,并将结果返回给nfsd服务
  • nfsd进程收到内核返回的结果后将其封装成rpc回执报文并通过tcp/ip协议返回给客户端

4. NFS服务配置

  • nfs的主配置文件是/etc/exports,可以定义NFS系统的输出目录(即共享目录)、访问权限和允许访问的主机等参数。

客户端常用的指定方式:

客户端说明
172.16.12.129指定IP地址的主机
172.16.12.0/24(或172.16.12.*)指定子网中的所有主机
www.wangqing.com指定域名的主机
*.wangqing.com指定wangqing.com域中的所有主机
*(或缺省)所有主机

访问权限选项:

访问权限选项说明
ro设置输出目录只读
rw设置输出目录可读写

用户映射选项:

用户映射选项说明
all_squash将远程访问的所有普通用户及所属组都映射为匿名用户或用户组(nfsnobody)
no_all_squash不将远程访问的所有普通用户及所属用户组都映射为匿名用户或用户组(默认设置)
root_squash将root用户及所属用户组都映射为匿名用户或用户组(默认设置)
no_root_squash不将root用户及所属用户组都映射为匿名用户或用户组
anonuid=xxx将远程访问的所有用户都映射为匿名用户,并指定该匿名用户为本地用户帐户(UID=xxx)
anongid=xxx将远程访问的所有用户组都映射为匿名用户组,并指定该匿名用户组为本地用户组(GID=xxx)

常用的其他选项:

其他选项说明
secure限制客户端只能从小于1024的TCP/IP端口连接NFS服务器(默认设置)
insecure允许客户端从大于1024的TCP/IP端口连接NFS服务器
sync将数据同步写入内存缓冲区或磁盘中,效率较低,但可保证数据一致性
async将数据先保存在内存缓冲区中,必要时才写入磁盘
wdelay检查是否有相关的写操作,如果有则这些写操作一起执行,可提高效率(默认设置)
no_wdelay若有写操作则立即执行,应与sync配置使用
subtree_check若输出目录是一个子目录,则NFS服务器将检查其父目录的权限(默认设置)
no_subtree_check即使输出目录是一个子目录,NFS服务亦不检查其父目录的权限,可提高效率
nohide若将一个目录挂载到另一个目录之上,则原来的目录通常就被隐藏起来或看起来像空的一样。要禁用这种行为,需启用hide选项

5. nfs管理

  1. 服务端和客户端都需要安装nfs
[root@ansible ~]# yum -y install nfs-utils           服务端
[root@localhost ~]# yum -y install nfs-utils           客户端
  1. 在服务端启动服务
[root@ansible ~]# mkdir /nfs
[root@ansible ~]# vim /etc/exports

/nfs                               共享nfs目录
[root@ansible ~]# systemctl enable --now nfs-server                        启动服务,设置开机自动启动
Created symlink /etc/systemd/system/multi-user.target.wants/nfs-server.service → /usr/lib/systemd/system/nfs-server.service.
[root@ansible ~]# ss -antl
State  Recv-Q Send-Q Local Address:Port  Peer Address:Port                                                  
LISTEN 0      128          0.0.0.0:111        0.0.0.0:*                                                     
LISTEN 0      128          0.0.0.0:20048      0.0.0.0:*                                                     
LISTEN 0      64           0.0.0.0:32915      0.0.0.0:*                                                     
LISTEN 0      128          0.0.0.0:37781      0.0.0.0:*                                                     
LISTEN 0      128          0.0.0.0:22         0.0.0.0:*                                                     
LISTEN 0      64           0.0.0.0:2049       0.0.0.0:*                                                     
LISTEN 0      64              [::]:38543         [::]:*                                                     
LISTEN 0      128             [::]:111           [::]:*                                                     
LISTEN 0      128             [::]:20048         [::]:*                                                     
LISTEN 0      128             [::]:22            [::]:*                                                     
LISTEN 0      128             [::]:36765         [::]:*                                                     
LISTEN 0      64              [::]:2049          [::]:*     
[root@ansible ~]# systemctl status rpcbind
● rpcbind.service - RPC Bind
   Loaded: loaded (/usr/lib/systemd/system/rpcbind.service; enabled; vendor preset: enabled)
   Active: active (running) since Mon 2020-10-12 20:05:42 CST; 6min ago
     Docs: man:rpcbind(8)
 Main PID: 2502 (rpcbind)
    Tasks: 1 (limit: 12320)
   Memory: 1.6M
   CGroup: /system.slice/rpcbind.service
           └─2502 /usr/bin/rpcbind -w -f

Oct 12 20:05:42 ansible systemd[1]: Starting RPC Bind...
Oct 12 20:05:42 ansible systemd[1]: Started RPC Bind.
  1. 使用shoumount命令测试NFS服务器的输出目录状态
进入服务端关闭防火墙
[root@ansible ~]# systemctl disable firewalld
[root@ansible ~]# systemctl stop firewalld
[root@ansible ~]# setenforce 0
setenforce: SELinux is disabled


客户端查看
-a  //显示指定NFS服务器的所有客户端主机及其所连接的目录
-d  //显示指定的NFS服务器中已被客户端连接的所有输出目录
-e  //显示指定的NFS服务器上所有输出的共享目录
[root@localhost ~]# showmount -e 192.168.50.131
Export list for 192.168.50.131:
/nfs *                                 *表示默认的,代表所有人


在客户端挂载NFS文件系统
[root@localhost ~]# mount -t nfs 192.168.50.131:/nfs /media/
[root@localhost ~]# df -h
Filesystem             Size  Used Avail Use% Mounted on
devtmpfs               963M     0  963M   0% /dev
tmpfs                  980M     0  980M   0% /dev/shm
tmpfs                  980M  8.8M  972M   1% /run
tmpfs                  980M     0  980M   0% /sys/fs/cgroup
/dev/mapper/rhel-root   17G  1.8G   16G  11% /
/dev/nvme0n1p1        1014M  160M  855M  16% /boot
tmpfs                  196M     0  196M   0% /run/user/0
/dev/sr0               7.9G  7.9G     0 100% /mnt
192.168.50.131:/nfs     17G  1.7G   16G  10% /media
在客户端设置开机自动挂载nfs
编辑/etc/fstab文件,添加如下格式的内容
[root@localhost ~]# vim /etc/fstab
......
192.168.50.131:/nfs /media nfs defaults,_netdev 0 0
[root@localhost ~]# mount -a
[root@localhost ~]# df -h
Filesystem             Size  Used Avail Use% Mounted on
devtmpfs               963M     0  963M   0% /dev
tmpfs                  980M     0  980M   0% /dev/shm
tmpfs                  980M  8.8M  972M   1% /run
tmpfs                  980M     0  980M   0% /sys/fs/cgroup
/dev/mapper/rhel-root   17G  1.8G   16G  11% /
/dev/nvme0n1p1        1014M  160M  855M  16% /boot
tmpfs                  196M     0  196M   0% /run/user/0
/dev/sr0               7.9G  7.9G     0 100% /mnt
192.168.50.131:/nfs     17G  1.7G   16G  10% /media
exportfs        //维护exports文件导出的文件系统表的专用工具
    -a      //输出在/etc/exports文件中所设置的所有目录
    -r      //重新读取/etc/exports文件中的设置,并使其立即生效,无需重启服务
    -u      //停止输出某一目录
    -v      //在输出目录时将目录显示到屏幕上

6. 示例

需求:

  • 手动搭建一个nfs服务器
  • 开放/nfs/shared目录,供所有用户查阅资料
  • 开放/nfs/upload目录为172.16.12.0/24网段的数据上传目录,并将所有用户及所属的用户组都映射为nfs-upload,其UID与GID均为300
1.关闭防火墙和selinux
[root@ansible ~]# systemctl disable firewalld
[root@ansible ~]# systemctl stop firewalld
[root@ansible ~]# setenforce 0
setenforce: SELinux is disabled
2.第一步在服务端安装NFS,并启动(客户机也要安装NFS)
[root@ansible ~]# yum -y install nfs-utils
[root@ansible ~]# systemctl enable --now rpcbind nfs-server
3.在服务端创建需要共享的目录
[root@ansible ~]# mkdir -p /nfs/{shared,upload}
4.在服务端创建对应的组和用户
[root@ansible ~]# groupadd -g 300 nfs-upload
[root@ansible ~]#  useradd -g nfs-upload -u 300 nfs-upload
5.编辑服务端/etc/exportfs文件,添加以下两行内容
[root@ansible ~]# vim /etc/exports

/nfs/shared  *(ro)
/nfs/upload  192.168.50.0/24(rw,anonuid=300,anongid=300)
6.在服务端重启服务或者使用exportfs -r命令让刚刚添加的配置生效
[root@ansible ~]# exportfs -r
7.在服务端修改共享目录的属主和属组
[root@ansible ~]# chown -R nfs-upload /nfs/
8.在客户机上查看并挂载
[root@localhost ~]# showmount -e 192.168.50.131                          后面跟服务端ip
Export list for 192.168.50.131:
/nfs/shared *
/nfs/upload 192.168.50.0/24
[root@localhost ~]# mount -t nfs 192.168.50.131:/nfs /mnt/
[root@localhost ~]# df -h|grep mnt
192.168.50.131:/nfs     17G  1.7G   16G  10% /mnt
[root@localhost ~]# cd /mnt/shared/
[root@localhost shared]# touch 13
touch: cannot touch '13': Read-only file system
[root@localhost shared]# cd ../upload/
[root@localhost upload]# touch 132
[root@localhost upload]# ll
total 0
-rw-r--r--. 1 300 300 0 Oct 13 09:58 132
9.在客户端/etc/fstab中添加配置,实现开机自动挂载
[root@ansible ~]# vim /etc/fstab
192.168.50.131:/nfs /mnt/ nfs defaults,_netdev 0 0
[root@ansible ~]# mount -a
[root@ansible ~]# df -h
Filesystem             Size  Used Avail Use% Mounted on
devtmpfs               963M     0  963M   0% /dev
tmpfs                  980M     0  980M   0% /dev/shm
tmpfs                  980M  8.8M  972M   1% /run
tmpfs                  980M     0  980M   0% /sys/fs/cgroup
/dev/mapper/rhel-root   17G  1.7G   16G  10% /
/dev/nvme0n1p1        1014M  160M  855M  16% /boot
tmpfs                  196M     0  196M   0% /run/user/0
192.168.50.131:/nfs     17G  1.7G   16G  10% /mnt
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

百慕卿君

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值