前言
这是我在昇腾CANN训练营的学习笔记
今天要讲的是关于Linux基础的一些操作命令
六、逻辑卷的管理-LVM
1. 创建逻辑卷
按下列要求创建一个新的逻辑卷
创建一个名为
vg1
的卷组
逻辑卷的名字为lv1
,所属卷组为vg1
,该逻辑卷由大小为512M
将新建的逻辑卷格式化为xfs
文件系统,要求系统启动时,该逻辑卷能被自动挂载到/data
目录
[root@server0 ~]$ lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOIN
vda 253:0 0 30G 0 disk # vda上剩余空间
└─vda1 253:1 0 10G 0part /
[root@server0 ~]$ fdisk /dev/vda # 创建一个大于 512M 分区/dev/vda2
[root@server0 ~]$ partprobe
[root@server0 ~]$ pvcreate /dev/vda2 # 创建物理卷
[root@server0 ~]$ vgcreate vg1 /dev/vda2 # 创建卷组
[root@server0 ~]$ lvcreate -n lv1 -L 512M vg1 # 创建逻辑卷
[root@server0 ~]$ lvs # 验证
[root@server0 ~]$ mkfs.xfs /dev/vg1/lv1 # 格式化逻辑卷
[root@server0 ~]$ mkdir /data # 创建挂载目录
[root@server0 ~]$ vim /etc/fstab # 永久挂载
# 添加一行
`/dev/vg1/lv1 /data xfs defaults 0 0`
[root@server0 ~]$ mount -a
[root@server0 ~]$ df -h
七、链路聚合
1. network teaming
(网络协作,网络群集)
Teaming
就是把同一台服务器上的多个物理网卡通过软件绑定成一个虚拟的网卡,对于外部网络而言,这台服务器只有一个可见的网卡、只有一个可以访问的IP地址。
作用
将多块网卡绑定成一块网卡,用同一IP地址对外提供服务,以实现提高带宽、高可用、负载均衡,提高吞吐率。
2. teamd
有效的 runners
-
Broadcast
广播
从所有端口传递包的一种简单
runner
-
Roundrobin
RR 轮询
每个端口轮询传递一种简单runner
-
Activebackup
主备
监视链路变化并选择一个活跃端口传递数据的一种故障切换的runner
-
Loadbalance
负载均衡
这种runner
检查流量并用hash
算法选择数据包传递的端口,来实现负载平衡。优点:访问同一目标主机数据走同一个网卡
-
Lacp
实现802.3ad
链路聚合控制协议,和loadbalance
选择端口相同,需要交换机持,在交换机配置。
3. teamd 配置
实验
在
server
和desktop
之间按以下要求配置链路聚合此链路使用接口
eth1
和eth2
此链路在一个接口失效后,仍然能工作此链路在
server
上使用地址192.168.0.11/24
此链路在desktop
上使用地址192.168.0.10/24
此链路在系统重启后依然保持正常状态
解题思路
1、创建一个
team
,名字叫 team0
2、为team0
配一个 IP 地址
3、把两块网卡eth1
和eth2
分别加入team0
在 server
主机:
- 查看网络接口
[root@server ~]$ ip link
-
创建一个
team
,连接名和接口名都为team0
,runner
为主备方式[root@server ~]$ nmcli connection add type team con-name team0 ifname team0 config '{"runner":{"name":"activebackup"}}'
-
type
:team
: 创建team
接口 -
con-name
:team
连接名 -
ifname
:team
的接口名 -
runner
:broadcast
,roundrobin
,activebackup
,loadbalance
,lacp
-
-
为新建的连接 team0 配置 IP 地址
[root@server ~]$ nmcli connection modify team0 ipv4.addresses 192.168.0.11/24 ipv4.method manual
-
分别把 eth1 和 eth2 加入 team
[root@server ~]$ nmcli connection add type team-slave con-name p1 ifname eth1 master team0 [root@server ~]$ nmcli connection add type team-slave con-name p2 ifname eth2 master team0
type
:team-slave
:team
成员端口
-
启动 team0
[root@server ~]$ nmcli connection up team0
-
测试
[root@server ~]$ teamdctl team0 state
在 desktop
主机:
除 IP 以外其他配置相同
-
创建一个
team
,连接名和接口名都为team0
,runner
为主备方式[root@desktop ~]$ nmcli connection add type team con-name team0 ifname team0 config '{"runner":{"name":"activebackup"}}'
-
为新建的连接 team0 配置 IP 地址
[root@desktop ~]$ nmcli connection modify team0 ipv4.addresses 192.168.0.10/24 ipv4.method manual
-
分别把 eth1 和 eth2 加入 team
[root@desktop ~]$ nmcli connection add type team-slave con-name p1 ifname eth1 master team0 [root@desktop ~]$ nmcli connection add type team-slave con-name p2 ifname eth2 master team0
-
启动 team0
[root@desktop ~]$ nmcli connection up team0
-
测试
[root@desktop ~]$ teamdctl team0 state
测试
-
通过 team0 接口 Ping
[root@server ~]$ ping -I team0 192.168.0.10
-
打开另一终端,把 team0 活跃接口 eth1 断开,查看对 team0 影响及 ping 的结果
[root@server0 ~]$ nmcli device disconnect eth1 [root@server0 ~]$ teamdctl team0 state [root@server0 ~]$ [root@server0 ~]$ ping -I team0 192.168.0.10 PING 192.168.0.253 (192.168.0.10) from 192.168.0.200 team0: 56(84) bytes of data. 64 bytes from 192.168.0.10: icmp_seq=1 ttl=64 time=0.613 ms