服务管理--NFS

NFS

nfs简介

nfs特点

  • NFS(Network File System)即网络文件系统,是FreeBSD支持的文件系统中的一种,它允许网络中的计算机之间通过TCP/IP网络共享资源
  • 在NFS的应用中,本地NFS的客户端应用可以透明地读写位于远端NFS服务器上的文件,就像访问本地文件一样
  • nfs适用于Linux与Unix之间实现文件共享,不能实现Linux与Windows间的文件共享功能
  • nfs是运行在应用层的协议,其监听于2049/tcp和2049/udp套接字上
  • nfs服务只能基于IP进行认证

nfs的应用场景

nfs有很多实际应用场景,以下是一些常用的场景:

  • 多个机器共享一台CDROM或其他设备。这对于在多台机器中安装软件来说更加便宜与方便
  • 在大型网络中,配置一台中心NFS服务器用来放置所有用户的home目录可能会带来便利。这些目录能被输出到网络以便用户不管在哪台工作站上登录,总能得到相同的home目录
  • 不同客户端可在NFS上观看影视文件,节省本地空间
  • 在客户端完成的工作数据,可以备份保存到NFS服务器上用户自己的路径下

nfs的体系组成

nfs体系至少有两个主要部分:

  • 一台nfs服务器
  • 若干台客户机

nfs体系的架构图如下:

在这里插入图片描述

客户机通过TCP/IP网络远程访问存放在NFS服务器上的数据
在NFS服务器正式启用前,需要根据实际环境和需求,配置一些NFS参数

nfs工作机制

nfs是基于rpc来实现网络文件系统共享的。所以我们先来说说rpc。

RPC

RPC(Remote Procedure Call Protocol),远程过程调用协议,它是一种通过网络从远程计算机程序上请求服务,而不需要了解底层网络技术的协议。

RPC协议假定某些传输协议的存在,如TCP或UDP,为通信程序之间携带信息数据。在OSI网络通信模型中,RPC跨越了传输层和应用层。

RPC采用客户机/服务器模式。请求程序就是一个客户机,而服务提供程序就是一个服务器。

在这里插入图片描述

rpc工作机制如上图所示,下面来描述一下它:

  • 客户端程序发起一个RPC系统调用基于TCP协议发送给另一台主机(服务端)
  • 服务端监听在某个套接字上,当收到客户端的系统调用请求以后,将收到的请求和其所传递的参数通过本地的系统调用执行一遍,并将结果返回给本地的服务进程
  • 服务端的服务进程收到返回的执行结果后将其封装成响应报文,再通过rpc协议返回给客户端
  • 客户端调用进程接收答复信息,获得进程结果,然后调用执行继续进行

下面通过一个例子来说明NFS的简单工作流程:

需求:查看file文件的信息,此file存储在远程NFS服务端主机上(挂载在本地目录/shared/nfs中)

在这里插入图片描述

  • 客户端发起查看file信息的指令(ls file)给内核,内核通过NFS模块得知此文件并不是本地文件系统中的文件,而是在远程NFS主机上的一个文件
  • 客户端主机的内核通过RPC协议把查看file信息的指令(系统调用)封装成rpc请求通过TCP的111端口发送给NFS服务端主机的portmapper
  • NFS服务端主机的portmapper(RPC服务进程)告诉客户端说NFS服务端的mountd服务在某某端口上,你去找它验证

因为mountd在提供服务时必须要向portmapper注册一个端口号,所以portmapper是知道其工作于哪个端口的

  • 客户端得知服务端的mountd进程端口号后,通过已知的服务端mountd端口号请求验证
  • mountd收到验证请求后验证发起请求的客户端是否在允许访问此NFS文件系统的客户端列表中,在则允许访问(发放一个令牌,持令牌去找nfsd),否则拒绝访问
  • 验证通过后客户端持mountd发放的令牌去找服务端的nfsd进程,请求查看某文件
  • 服务端的nfsd进程发起本地系统调用,向内核请求查看客户端要查看的文件的信息
  • 服务端的内核执行nfsd请求的系统调用,并将结果返回给nfsd服务
  • nfsd进程收到内核返回的结果后将其封装成rpc请求报文并通过tcp/ip协议返回给客户端

nfs工作机制

//NFS服务器端运行着四个进程:
    nfsd
    mountd
    idmapd
    portmapper

idmapd  //实现用户帐号的集中映射,把所有的帐号都映射为NFSNOBODY,但是在访问时却能以本地用户的身份去访问

mountd  //用于验证客户端是否在允许访问此NFS文件系统的客户端列表中,在则允许访问(发放一个令牌,持令牌去找nfsd),否则拒绝访问
        //mountd的服务端口是随机的,由rpc服务(portmapper)提供随机端口号

nfsd    //nfs的守护进程,监听在2049/tcp和2049/udp端口上
        //不负责文件存储(由NFS服务器本地内核负责调度存储),用于理解客户端发起的rpc请求,并将其转交给本地内核,而后存储在指定的文件系统上

portmapper  //NFS服务器的rpc服务,其监听于111/TCP和111/UDP套接字上,用于管理远程过程调用(RPC)

NFS应用

准备两台虚拟机
客户端 server  192.168.227.134
服务端 client  192.168.227.153

关闭防火墙
[root@server ~]#: systemctl disable --now firewalld
Removed /etc/systemd/system/multi-user.target.wants/firewalld.service.
Removed /etc/systemd/system/dbus-org.fedoraproject.FirewallD1.service.
[root@server ~]#: vi /etc/selinux/config 
[root@server ~]#: setenforce 0

[root@client ~]#: systemctl disable --now firewalld.service 
Removed "/etc/systemd/system/multi-user.target.wants/firewalld.service".
Removed "/etc/systemd/system/dbus-org.fedoraproject.FirewallD1.service".
[root@client ~]#: vi /etc/selinux/config 
[root@client ~]#: setenforce 0



nfs安装:

//安装
    yum -y install nfs-utils

//启动
    systemctl start rpcbind nfs-server
服务端    
[root@server ~]#: yum -y install nfs-utils
......
  python3-pyyaml-3.12-12.el8.x86_64                                 
  quota-1:4.04-14.el8.x86_64                                        
  quota-nls-1:4.04-14.el8.noarch                                    
  rpcbind-1.2.5-10.el8.x86_64                                       

Complete!




客户端
[root@client ~]#: yum -y install nfs-utils
......
  python3-pyyaml-5.4.1-6.el9.x86_64                                 
  quota-1:4.06-6.el9.x86_64                                         
  quota-nls-1:4.06-6.el9.noarch                                     
  rpcbind-1.2.6-5.el9.x86_64                                        
  sssd-nfs-idmap-2.9.1-4.el9_3.x86_64                               

Complete!

安装完成后启动服务端nfs
[root@server ~]#: systemctl enable --now nfs-server.service 
Created symlink /etc/systemd/system/multi-user.target.wants/nfs-server.service → /usr/lib/systemd/system/nfs-server.service.
[root@server ~]#: systemctl status nfs-server
● nfs-server.service - NFS server and services
   Loaded: loaded (/usr/lib/systemd/system/nfs-server.service; enab>
   Active: active (exited) since Tue 2023-12-12 14:46:55 CST; 26s a>
  Process: 2581 ExecStart=/bin/sh -c if systemctl -q is-active gssp>
  Process: 2570 ExecStart=/usr/sbin/rpc.nfsd (code=exited, status=0>
  Process: 2569 ExecStartPre=/usr/sbin/exportfs -r (code=exited, st>
 Main PID: 2581 (code=exited, status=0/SUCCESS)

Dec 12 14:46:54 server systemd[1]: Starting NFS server and services>
Dec 12 14:46:55 server systemd[1]: Started NFS server and services.
查看服务端rpcbind状态
[root@server ~]#: systemctl status rpcbind
● rpcbind.service - RPC Bind
   Loaded: loaded (/usr/lib/systemd/system/rpcbind.service; enabled>
   Active: active (running) since Tue 2023-12-12 14:46:44 CST; 1min>
     Docs: man:rpcbind(8)
 Main PID: 2552 (rpcbind)
    Tasks: 1 (limit: 49265)
   Memory: 1.5M
   CGroup: /system.slice/rpcbind.service
           └─2552 /usr/bin/rpcbind -w -f

Dec 12 14:46:44 server systemd[1]: Starting RPC Bind...
Dec 12 14:46:44 server systemd[1]: Started RPC Bind.

使用shoumount命令测试NFS服务器的输出目录状态:

//语法:showmount [选项] [NFS服务器名称或地址]
//常用的选项有:
    -a  //显示指定NFS服务器的所有客户端主机及其所连接的目录
    -d  //显示指定的NFS服务器中已被客户端连接的所有输出目录
    -e  //显示指定的NFS服务器上所有输出的共享目录
    
[root@client ~]#: showmount -e 192.168.227.134
Export list for 192.168.227.134:

在服务端创建共享目录并在客户端查看
[root@server ~]#: cat /etc/exports
[root@server ~]#: vi /etc/exports
[root@server ~]#: systemctl restart nfs-server
[root@server ~]#: mkdir /data

[root@client ~]#: showmount -e 192.168.227.134
Export list for 192.168.227.134:
/data *

挂载
[root@client ~]#: ls /mnt/
hgfs
[root@client ~]#: mount -t nfs 192.168.227.134:/data /mnt/
[root@client ~]#: df -h
Filesystem             Size  Used Avail Use% Mounted on
devtmpfs               4.0M     0  4.0M   0% /dev
tmpfs                  3.8G     0  3.8G   0% /dev/shm
tmpfs                  1.5G  9.1M  1.5G   1% /run
/dev/mapper/rl-root     17G  1.1G   16G   7% /
/dev/sda1             1014M  218M  797M  22% /boot
tmpfs                  766M     0  766M   0% /run/user/0
192.168.227.134:/data   17G  1.9G   16G  11% /mnt
[root@client ~]#: cd /mnt/
赋予权限
#nfs有两个权限(网络、本地)
[root@server ~]#: vi /etc/exports
[root@server ~]#: cat /etc/exports
/data 192.168.227.153(rw)
[root@server ~]#: systemctl restart nfs-server
[root@server ~]#: setfacl -m u:nobody:rwx /data
[root@server ~]#: getfacl /data/
getfacl: Removing leading '/' from absolute path names
# file: data/
# owner: root
# group: root
user::rwx
user:nobody:rwx
group::r-x
mask::rwx
other::r-x

这时客户端有权限创建文件了
[root@client mnt]#: ll
total 0
[root@client mnt]#: touch 123
[root@client mnt]#: ll
total 0
-rw-r--r--. 1 nobody nobody 0 Dec 12 15:04 123

在客户端设置永久挂载
[root@client ~]#: umount /mnt 
[root@client ~]#: df -h
Filesystem           Size  Used Avail Use% Mounted on
devtmpfs             4.0M     0  4.0M   0% /dev
tmpfs                3.8G     0  3.8G   0% /dev/shm
tmpfs                1.5G  9.1M  1.5G   1% /run
/dev/mapper/rl-root   17G  1.1G   16G   7% /
/dev/sda1           1014M  218M  797M  22% /boot
tmpfs                766M     0  766M   0% /run/user/0
[root@client ~]#: mkdir /nfs
[root@client ~]#: vi /etc/fstab 
192.168.227.34:/data  /nfs  nfs  defaults,_netdev 0 0 添加此行
[root@client ~]#: systemctl daemon-reload
[root@client ~]#: mount -a
[root@client ~]#: cd /nfs/
[root@client nfs]#: ls
123
[root@client nfs]#: echo 'hello word' > 123

挂载后在客户端添加的内容可在服务端查看到
[root@server ~]#: cat /data/123 
hello word

客户端挂载时可以使用的特殊选项:

  • rsize:其值是从服务器读取的字节数(缓冲)。默认为1024。若使用比较高的值,如8192,可以提高传输速度
  • wsize:其值是写入到服务器的字节数(缓冲)。默认为1024。若使用比较高的值,如8192,可以提高传输速度
exportfs        //维护exports文件导出的文件系统表的专用工具
    -a      //输出在/etc/exports文件中所设置的所有目录
    -r      //重新读取/etc/exports文件中的设置,并使其立即生效,无需重启服务
    -u      //停止输出某一目录
    -v      //在输出目录时将目录显示到屏幕上

选项用来设置共享目录的访问权限、用户映射等。exports文件中的选项比较多,一般可分为三类:

  • 访问权限选项(用于控制共享目录的访问权限)
  • 用户映射选项
    • 默认情况下,当客户端访问NFS服务器时,若远程访问的用户是root用户,则NFS服务器会将其映射成一个本地的匿名用户(该用户为nfsnobody),并将其所属的用户组也映射成匿名用户组(该用户组也为nfsnobody),如此有助于提高系统的安全性。
  • 其他选项

访问权限选项:

访问权限选项说明
ro设置输出目录只读
rw设置输出目录可读写

用户映射选项:

用户映射选项说明
all_squash将远程访问的所有普通用户及所属组都映射为匿名用户或用户组(nfsnobody)
no_all_squash不将远程访问的所有普通用户及所属用户组都映射为匿名用户或用户组(默认设置)
root_squash将root用户及所属用户组都映射为匿名用户或用户组(默认设置)
no_root_squash不将root用户及所属用户组都映射为匿名用户或用户组
anonuid=xxx将远程访问的所有用户都映射为匿名用户,并指定该匿名用户为本地用户帐户(UID=xxx)
anongid=xxx将远程访问的所有用户组都映射为匿名用户组,并指定该匿名用户组为本地用户组(GID=xxx)

常用的其他选项:

其他选项说明
secure限制客户端只能从小于1024的TCP/IP端口连接NFS服务器(默认设置)
insecure允许客户端从大于1024的TCP/IP端口连接NFS服务器
sync将数据同步写入内存缓冲区或磁盘中,效率较低,但可保证数据一致性
async将数据先保存在内存缓冲区中,必要时才写入磁盘
wdelay检查是否有相关的写操作,如果有则这些写操作一起执行,可提高效率(默认设置)
no_wdelay若有写操作则立即执行,应与sync配置使用
subtree_check若输出目录是一个子目录,则NFS服务器将检查其父目录的权限(默认设置)
no_subtree_check即使输出目录是一个子目录,NFS服务亦不检查其父目录的权限,可提高效率
nohide若将一个目录挂载到另一个目录之上,则原来的目录通常就被隐藏起来或看起来像空的一样。要禁用这种行为,需启用hide选项

检查输出目录所使用的选项:
在配置文件/etc/exports中,即使在命令行中只设置了一两个选项,但在真正输出目录时,实际上还带有很多默认的选项。通过查看/var/lib/nfs/etab文件,可以看到具体使用了何选项

[root@server ~]#: cat /var/lib/nfs/etab 
/data   192.168.227.153(rw,sync,wdelay,hide,nocrossmnt,secure,root_squash,no_all_squash,no_subtree_check,secure_locks,acl,no_pnfs,anonuid=65534,anongid=65534,sec=sys,rw,secure,root_squash,no_all_squash)
[root@server ~]#: cat /etc/exports
/data 192.168.227.153(rw)

[root@server ~]#: id 65534
uid=65534(nobody) gid=65534(nobody) groups=65534(nobody)
更改映射用户
[root@server ~]#: useradd tom 
[root@server ~]#: id tom 
uid=1000(tom) gid=1000(tom) groups=1000(tom)
[root@server ~]#: vi /etc/exports
[root@server ~]#: cat /etc/exports
/data 192.168.227.153(rw,anonuid=1000,anongid=1000,all_squash)
更改后重新加载
[root@server ~]#: exportfs -r

在客户端上测试发现没有执行权限
[root@client nfs]#: touch aaa
touch: cannot touch 'aaa': Permission denied
在服务端上显示权限并不是tom用户
[root@server ~]#: ll -d /data/
drwxrwxr-x+ 2 root root 17 Dec 12 15:04 /data/

设置权限,单赋予tom用户权限
[root@server ~]#: setfacl -m u:tom:rwx /data/

[root@client nfs]#: touch aaa

[root@server ~]#: ll /data/
total 4
-rw-r--r--. 1 nobody nobody 11 Dec 12 15:14 123
-rw-r--r--. 1 tom    tom     0 Dec 12 15:32 aaa

[root@client nfs]#: ll
total 4
-rw-r--r--. 1 nobody nobody 11 Dec 12 15:14 123
-rw-r--r--. 1   1000   1000  0 Dec 12 15:32 aaa  显示1000id号是因为客户端没有tom用户
  • 32
    点赞
  • 23
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
### 回答1: Ceph NFS-Ganesha是一个在Ceph分布式存储系统上部署的NFS网关服务。Ceph是一个开源的分布式存储系统,它提供了高度可扩展的对象存储和块存储服务。而NFS-Ganesha是一个开源的用户空间NFS服务器,它允许将Ceph存储系统通过NFS协议暴露给客户端。 通过部署Ceph NFS-Ganesha,用户可以使用标准的NFS协议从客户端访问Ceph存储。这样一来,用户可以像访问本地文件系统一样访问Ceph存储,而无需额外的客户端软件或驱动程序。这提供了更方便和统一的访问方式,并增强了Ceph存储的可用性和可访问性。 Ceph NFS-Ganesha提供了多种配置选项和管理功能,用户可以根据自己的需求和场景来灵活配置和管理NFS-Ganesha服务。它支持多种NFS协议版本(如NFSv3、NFSv4)和安全认证机制(如Kerberos、SASL),并提供了高级的特性,如文件锁定、ACL支持等。 此外,Ceph NFS-Ganesha还具备高可用性和容错性。通过多个NFS-Ganesha网关的部署,可以实现NFS服务的冗余和负载均衡。当某个网关节点故障时,其他节点可以接管服务,确保数据的持续可访问性。 总之,Ceph NFS-Ganesha为Ceph存储系统提供了一个方便、高效、可扩展的NFS接口,使得用户可以更加灵活地使用Ceph存储,并提供了高可用性和容错性保证。这是一个强大的工具,可用于构建大规模分布式存储和数据共享解决方案。 ### 回答2: Ceph NFS-Ganesha是一个基于Ceph存储集群的分布式文件系统解决方案。它结合了Ceph的高可用、可伸缩性和数据冗余特性,与NFS-Ganesha的协议转换能力相结合,提供了一种可靠、高效的共享文件系统。 在Ceph NFS-Ganesha中,NFS-Ganesha作为一个用户空间的文件系统服务器,负责将NFS请求转换为与Ceph存储集群通信的RADOS Gateway请求。RADOS Gateway是Ceph存储集群的一部分,负责与客户端通信,提供对象存储和块存储的功能。 通过将NFS请求转换为RADOS Gateway请求,Ceph NFS-Ganesha可以将数据分布到Ceph存储集群的多个节点上,实现数据的冗余和可靠性。同时,由于Ceph存储集群的分布式特性,可以实现高可用和可伸缩性,提供更好的性能和扩展性。 另外,Ceph NFS-Ganesha还支持多种认证机制,可以通过Kerberos、LDAP等方式进行用户认证和授权管理,以确保数据的安全性和访问控制。 总的来说,Ceph NFS-Ganesha是一个强大而灵活的分布式文件系统解决方案,结合了Ceph存储集群和NFS-Ganesha的优势,提供可靠、高效的共享文件系统功能。无论是在大规模的数据存储环境还是小型的个人或企业需求中,Ceph NFS-Ganesha都可以提供稳定、可靠的文件系统服务。 ### 回答3: Ceph NFS-Ganesha是一个基于Ceph存储系统的开源文件共享解决方案。它通过将Ceph的分布式存储和NFS协议相结合,为用户提供了一个可靠、高性能的共享文件系统。 NFS-Ganesha充分利用了Ceph的特性,如分布式存储、数据冗余和自动恢复等。它通过将Ceph集群的存储空间划分为多个块,每个块由多个存储节点组成,来实现数据的高可靠性和可扩展性。该解决方案还提供了快速的数据访问速度,支持高吞吐量和低延迟的文件访问。 NFS-Ganesha还具有灵活性和可配置性。用户可以根据自己的需求调整不同的参数,以优化性能和功能。它支持多种NFS版本,可以与其他存储系统和应用程序集成,并提供高级功能,如文件锁定、权限控制和文件级别的快照。 通过使用Ceph NFS-Ganesha,用户可以轻松共享和访问数据。无论是在企业中的文件共享,还是在科学研究中的数据交换,都可以通过该解决方案实现高效的文件共享和传输。同时,Ceph的分布式存储能力保证了数据的可靠性和可扩展性,为用户提供了一个可靠的存储基础设施。 总之,Ceph NFS-Ganesha是一个功能强大的文件共享解决方案,它结合了Ceph的分布式存储和NFS协议,并提供了高性能、可靠性和可配置性,为用户提供了一个完整的文件共享和访问解决方案。无论是在企业还是科研领域,它都是一个值得考虑的选择。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值