Linux学习(七)


本次笔记主要记录搜索查找类命令、压缩解压缩命令、磁盘查看和分区命令、进程管理类命令、定时任务管理类命令

一、搜索查找类

1 find 查找文件或者目录

  find 指令将从指定目录向下递归地遍历其各个子目录,将满足条件的文件显示在终端。
1>基本语法

find [搜索范围] [选项]

2>选项说明

选项功能
-name<查询方式>按照指定的文件名查找模式查找文件
-user<用户名>查找属于指定用户名所有文件
-size<文件大小>按照指定的文件大小查找文件, 单位为:
b —— 块(512 字节)
c —— 字节
w —— 字(2 字节)
k —— 千字节
M —— 兆字节
G —— 吉字节

3>案例实操
(1)按文件名:根据名称查找/目录下的filename.txt文件。

[root@hadoop101 ~]# find xiyou/ -name "*.txt"

(2)按拥有者:查找/opt目录下,用户名称为-user的文件

[root@hadoop101 ~]# find xiyou/ -user test

(3)按文件大小:在/home目录下查找大于200m的文件(+n 大于 -n小于 n等于)

[root@hadoop101 ~]find /home -size +204800
2 locate 快速定位文件路径

  locate 指令利用事先建立的系统中所有文件名称及路径的 locate 数据库实现快速定位给定的文件。Locate 指令无需遍历整个文件系统,查询速度较快。为了保证查询结果的准确度,管理员必须定期更新 locate时刻。
1>基本语法

locate 搜索文件

2>经验技巧
  由于locate指令基于数据库进行查询,所以第一次运行前,必须使用 updatedb 指令创建 locate数据库。
3>案例实操
(1)查询文件夹

[root@hadoop101 ~]# updatedb
[root@hadoop101 ~]#locate tmp
3 grep 过滤查找及“|”

管道符,“|”,表示将前一个命令的处理结果输出传递给后面的命令处理
1> 基本语法

grep 选项 查找内容 源文件

2> 选项说明

选项功能
-n显示匹配行及行号

3> 案例实操
(1)查找某文件在第几行

[root@hadoop101 ~]# ls | grep -n test

二、压缩和解压缩命令

1 gzip/gunzip 压缩

1> 基本语法

gzip 文件 (功能描述:压缩文件,只能将文件压缩为*.gz 文件)
gunzip 文件.gz (功能描述:解压缩文件命令)

2> 经验技巧
(1)只能压缩文件不能压缩目录
(2)不保留原来的文件
(3)同时多个文件会产生多个压缩包
3 )案例实操
(1)gzip压缩

[root@hadoop101 ~]# ls
houge.txt
[root@hadoop101 ~]# gzip houge.txt
[root@hadoop101 ~]# ls
houge.txt.gz

(2)gunzip解压缩文件

[root@hadoop101 ~]# gunzip houge.txt.gz
[root@hadoop101 ~]# ls
houge.txt
2 zip/unzip 压缩

1> 基本语法

zip [选项] XXX.zip 将要压缩的内容 (功能描述:压缩文件和目录的命令)
unzip [选项] XXX.zip (功能描述:解压缩文件)

2>选项说明

zip选项功能
-r压缩目录
unzip选项功能
-d<目录>指定解压后文件的存放目录

3>经验技巧
zip 压缩命令在windows/linux都通用,可以压缩目录且保留源文件。
4>案例实操
(1)压缩 houge.txt 和bailongma.txt,压缩后的名称为mypackage.zip

[root@hadoop101 opt]# touch bailongma.txt
[root@hadoop101 ~]# zip mypackage.zip houge.txt bailongma.txt
adding: houge.txt (stored 0%)
adding: bailongma.txt (stored 0%)
[root@hadoop101 opt]# ls
houge.txt bailongma.txt mypackage.zip

(2)解压 mypackage.zip

[root@hadoop101 ~]# unzip mypackage.zip
Archive: houma.zip
extracting: houge.txt
extracting: bailongma.txt
[root@hadoop101 ~]# ls
houge.txt bailongma.txt mypackage.zip

(3)解压mypackage.zip到指定目录-d

[root@hadoop101 ~]# unzip mypackage.zip -d /opt
[root@hadoop101 ~]# ls /opt/
3 tar 打包

1>基本语法

tar [选项] XXX.tar.gz 将要打包进去的内容 (功能描述:打包目录,压缩后的文件格式.tar.gz)

2>选项说明

选项功能
-c产生.tar 打包文件
-v显示详细信息
-f指定压缩后的文件名
-z打包同时压缩/解压缩
-x解包.tar 文件
-C解压到指定目录

3> 案例实操
(1)压缩多个文件

[root@hadoop101 opt]# tar -zcvf houma.tar.gz houge.txt bailongma.txt
houge.txt
bailongma.txt
[root@hadoop101 opt]# ls
houma.tar.gz houge.txt bailongma.txt

(2)压缩目录

[root@hadoop101 ~]# tar -zcvf xiyou.tar.gz xiyou/
xiyou/
xiyou/mingjie/
xiyou/dssz/
xiyou/dssz/houge.txt

(3)解压到当前目录

[root@hadoop101 ~]# tar -zxvf houma.tar.gz

(4)解压到指定目录

[root@hadoop101 ~]# tar -zxvf xiyou.tar.gz -C /opt
[root@hadoop101 ~]# ll /opt/

三、磁盘查看和分区命令

1 du 查看文件和目录占用的磁盘空间

du: disk usage 磁盘占用情况
1> 基本语法

du 目录/文件 (功能描述:显示目录下每个子目录的磁盘使用情况)

2>选项说明

选项功能
-h以人们较易阅读的 GBytes, MBytes, KBytes 等格式自行显示;
-a不仅查看子目录大小,还要包括文件
-c显示所有的文件和子目录大小后,显示总和
-s只显示总和
–max-depth=n指定统计子目录的深度为第 n 层

3>案例实操
(1)查看当前用户主目录占用的磁盘空间大小

[root@hadoop101 ~]# du -sh
166M 
2 df 查看磁盘空间使用情况

df: disk free 空余磁盘
1>基本语法

df 选项 (功能描述:列出文件系统的整体磁盘使用量,检查文件系统的磁盘空间占用情况)

2>选项说明

选项功能
-h以人们较易阅读的 GBytes, MBytes, KBytes 等格式自行显示;

3>案例实操
(1)查看磁盘使用情况

[root@hadoop101 ~]# df -h
Filesystem Size Used Avail Use% Mounted on
/dev/sda2 15G 3.5G 11G 26% /
tmpfs 939M 224K 939M 1% /dev/shm
/dev/sda1 190M 39M 142M 22% /boot
3 lsblk 查看设备挂载情况

1>基本语法

lsblk (功能描述:查看设备挂载情况)

2> 选项说明

选项功能
-f查看详细的设备挂载情况,显示文件系统信息
4 mount/umount 挂载/ 卸载

  对于Linux用户来讲,不论有几个分区,分别分给哪一个目录使用,它总归就是一个根目录、一个独立且唯一的文件结构。
  Linux中每个分区都是用来组成整个文件系统的一部分,它在用一种叫做“挂载”的处理方法,它整个文件系统中包含了一整套的文件和目录,并将一个分区和一个目录联系起来,要载入的那个分区将使它的存储空间在这个目录下获得。

1>挂载前准备(必须要有光盘或者已经连接镜像文件)如下图所示

2> 基本语法

mount [-t vfstype] [-o options] device dir (功能描述:挂载设备)
umount 设备文件名或挂载点 (功能描述:卸载设备)

3> 参数说明

选项功能
-t vfstype指定文件系统的类型,通常不必指定。mount 会自动选择正确的类型。常用类型有:
光盘或光盘镜像:iso9660
DOS fat16 文件系统:msdos
Windows 9x fat32 文件系统:vfat
Windows NT ntfs 文件系统:ntfs
Mount Windows 文件网络共享:smbfs
UNIX(LINUX) 文件网络共享:nfs
-o options主要用来描述设备或档案的挂接方式。常用的参数有:
loop:用来把一个文件当成硬盘分区挂接上系统
ro:采用只读方式挂接设备
rw:采用读写方式挂接设备
iocharset:指定访问文件系统所用字符集
device要挂接(mount)的设备
dir设备在系统上的挂接点(mount point)

4>案例实操
(1)挂载光盘镜像文件

[root@hadoop101 ~]# mkdir /mnt/cdrom/ 建立挂载点
[root@hadoop101 ~]# mount -t iso9660 /dev/cdrom /mnt/cdrom/ 设备/dev/cdrom
挂载到 挂载点 : /mnt/cdrom 中
[root@hadoop101 ~]# ll /mnt/cdrom/

(2)卸载光盘镜像文件

[root@hadoop101 ~]# umount /mnt/cdrom

5> 设置 开机自动挂载

[root@hadoop101 ~]# vi /etc/fstab

添加红框中内容,保存退出。

5 fdisk 分区

1>基本语法

fdisk -l (功能描述:查看磁盘分区详情)
fdisk 硬盘设备名 (功能描述:对新增硬盘进行分区操作)

2>选项说明

选项功能
-l显示所有硬盘的分区列表

3>经验技巧
该命令必须在 root用户下才能使用
4>功能说明
(1)Linux 分区
  Device:分区序列
  Boot:引导
  Start:从X磁柱开始
  End:到Y磁柱结束
  Blocks:容量
  Id:分区类型ID
  System:分区类型
(2)分区操作按键说明
  m:显示命令列表
  p:显示当前磁盘分区
  n:新增分区
  w:写入分区信息并退出
  q:不保存分区信息直接退出

5 )案例实操
(1)查看系统分区情况

[root@hadoop101 /]# fdisk -l
Disk /dev/sda: 21.5 GB, 21474836480 bytes
255 heads, 63 sectors/track, 2610 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x0005e654
Device Boot Start End Blocks Id System
/dev/sda1 * 1 26 204800 83 Linux
Partition 1 does not end on cylinder boundary.
/dev/sda2 26 1332 10485760 83 Linux
/dev/sda3 1332 1593 2097152 82 Linux swap / Solaris

(2)新增挂载硬盘

(3)重启后才能看到新的硬盘信息:reboot

(4)对新增的硬盘进行分区

[root@hadoop101 /]# fdisk /dev/sdb
# m 获取帮助
m
# p 打印分区信息
p
# n 创建新的分区
n
# p/e 选择分区类型,默认为 p 主分区
p
# 选择分区号:1-4 ,默认为1, 
回车选择默认
# 选择起始扇区,默认为2048
回车选择默认
# 选择结束扇区,默认配置到最大
回车选择默认
# p 打印分区信息
p
# w 保存分区信息并退出
w

(5)对新增的硬盘进行格式化

mkfs -t xfs /dev/sdb1

(6)将分区进行挂载

mount /dev/sdb1  /home/test

(7)将分区进行卸载

umount  /home/test

四、进程管理类命令

  进程是正在执行的一个程序或命令,每一个进程都是一个运行的实体,都有自己的地址空间,并占用一定的系统资源。

1 ps 查看 当前系统进程状态

ps:process status 进程状态
1>基本语法

ps aux | grep xxx (功能描述:查看系统中所有进程)
ps -ef | grep xxx (功能描述:可以查看子父进程之间的关系)

2>选项说明

选项功能
a列出带有终端的所有用户的进程
x列出当前用户的所有进程,包括没有终端的进程
u面向用户友好的显示风格
-e列出所有进程
-u列出某个用户关联的所有进程
-f显示完整格式的进程列表

3>功能说明
(1)ps aux 显示信息说明
  USER:该进程是由哪个用户产生的
  PID:进程的 ID 号
  %CPU:该进程占用 CPU 资源的百分比,占用越高,进程越耗费资源;
  %MEM:该进程占用物理内存的百分比,占用越高,进程越耗费资源;
  VSZ:该进程占用虚拟内存的大小,单位 KB;
  RSS:该进程占用实际物理内存的大小,单位 KB;
  TTY:该进程是在哪个终端中运行的。对于 CentOS 来说,tty1 是图形化终端,
  tty2-tty6 是本地的字符界面终端。pts/0-255 代表虚拟终端。
  STAT:进程状态。常见的状态有:R:运行状态、S:睡眠状态、T:暂停状态、Z:僵尸状态、s:包含子进程、l:多线程、+:前台显示 、<: 优先级高的进程 、N: 优先级较低的进程
  START:该进程的启动时间
  TIME:该进程占用 CPU 的运算时间,注意不是系统时间
  COMMAND:产生此进程的命令名
(2)ps -ef 显示信息说明
  UID:用户 ID
  PID:进程 ID
  PPID:父进程 ID
  C:CPU 用于计算执行优先级的因子。数值越大,表明进程是 CPU 密集型运算,执行优先级会降低;数值越小,表明进程是 I/O 密集型运算,执行优先级会提高
  STIME:进程启动的时间
  TTY:完整的终端名称
  TIME:CPU 时间
  CMD:启动进程所用的命令和参数

4>经验技巧
  如果想查看进程的 CPU 占用率和内存占用率,可以使用 aux;
  如果想查看进程的父进程 ID 可以使用 ef;

2 kill 终止进程

1>基本语法

kill [选项] 进程号 (功能描述:通过进程号杀死进程)
killall 进程名称 (功能描述:通过进程名称杀死进程,也支持通配符,这在系统因负载过大而变得很慢时很有用)

2>选项说明

选项功能
-9表示强迫进程立即停止

3>案例实操
(1)杀死浏览器进程

[root@hadoop101 桌面]# kill -9 5102

(2)通过进程名称杀死进程

[root@hadoop101 桌面]# killall firefox
3 pstree 查看进程树

1>基本语法

pstree [选项]

2>选项说明

选项功能
-p显示进程的 PID
-u显示进程的所属用户

3>案例实操
(1)显示进程 pid

[root@hadoop101 datas]# pstree -p

(2)显示进程所属用户

[root@hadoop101 datas]# pstree -u
4 top 实时监控系统进程状态

1>基本命令

top [选项]

2>选项说明

选项功能
-d 秒数指定 top 命令每隔几秒更新。默认是 3 秒在 top 命令的交互模式当中可以执行的命令
-i使 top 不显示任何闲置或者僵死进程。
-p通过指定监控进程 ID 来仅仅监控某个进程的状态。

3> 操作说明

选项功能
P以 CPU 使用率排序,默认就是此项
M以内存的使用率排序
N以 PID 排序
q退出 top

4>查询结果字段解释
  第一行信息为任务队列信息

内容说明
12:26:46系统当前时间
up 1 day, 13:32系统的运行时间,本机已经运行 1 天13 小时 32 分钟
load average: 0.00, 0.00, 0.00系统在之前 1 分钟,5 分钟,15 分钟的平均负载。一般认为小于 1 时,负载较小。如果大于1,系统已经超出负荷。

  第二行为进程信息

内容说明
Tasks: 95 total系统中的进程总数
1 running正在运行的进程数
94 sleeping睡眠的进程
0 stopped正在停止的进程
0 zombie僵尸进程。如果不是 0,需要手工检查僵尸进程

  第三行为 CPU 信息

内容说明
Cpu(s): 0.1%us用户模式占用的 CPU 百分比
0.1%sy系统模式占用的 CPU 百分比
0.0%ni改变过优先级的用户进程占用的 CPU 百分比
99.7%id空闲 CPU 的 CPU 百分比
0.1%wa等待输入/输出的进程的占用 CPU 百分比
0.0%hi硬中断请求服务占用的 CPU 百分比
0.1%si软中断请求服务占用的 CPU 百分比
0.0%stst(Steal time)虚拟时间百分比。就是当有虚拟机时,虚拟 CPU 等待实际 CPU 的时间百分比。

  第四行为物理内存信息

内容说明
Mem: 625344k total物理内存的总量,单位 KB
571504k used已经使用的物理内存数量
53840k free空闲的物理内存数量,我们使用的是虚拟机,总共只分配了 628MB 内存,所以只有 53MB 的空闲内存了
65800k buffers作为缓冲的内存数量

  第五行为交换分区(swap)信息

内容说明
Swap: 524280k total交换分区(虚拟内存)的总大小
0k used已经使用的交互分区的大小
524280k free空闲交换分区的大小
409280k cached作为缓存的交互分区的大小

5>案例实操

[root@hadoop101 test]# top -d 1
[root@hadoop101 test]# top -i
[root@hadoop101 test]# top -p 2575

执行上述命令后,可以按 P、M、N对查询出的进程结果进行排序

5 netstat 显示网络状态和端口占用信息

1>基本语法

netstat -anp | grep 进程号 (功能描述:查看该进程网络信息)
netstat –nlp | grep 端口号 (功能描述:查看网络端口号占用情况)

2>选项说明

选项说明
-a显示所有正在监听(listen)和未监听的套接字(socket)
-n拒绝显示别名,能显示数字的全部转化成数字
-l仅列出在监听的服务状态
-p表示显示哪个进程在调用

3>案例实操
(1)通过进程号查看sshd进程的网络信息

[root@hadoop101 hadoop-2.7.2]# netstat -anp | grep sshd
tcp 0 0 0.0.0.0:22 0.0.0.0:* LISTEN
951/sshd
tcp 0 0 192.168.202.100:22 192.168.202.1:57741
ESTABLISHED 3380/sshd: root@pts
tcp 0 52 192.168.202.100:22 192.168.202.1:57783
ESTABLISHED 3568/sshd: root@pts
tcp 0 0 192.168.202.100:22 192.168.202.1:57679
ESTABLISHED 3142/sshd: root@pts
tcp6 0 0 :::22 :::* LISTEN
951/sshd
unix 2 [ ] DGRAM 39574 3568/sshd:
root@pts
unix 2 [ ] DGRAM 37452 3142/sshd:
root@pts
unix 2 [ ] DGRAM 48651 3380/sshd:
root@pts
unix 3 [ ] STREAM CONNECTED 21224 951/sshd

(2)查看某端口号是否被占用

[root@hadoop101 桌面]# netstat -nltp | grep 22
tcp 0 0 192.168.122.1:53 0.0.0.0:* LISTEN
1324/dnsmasq
tcp 0 0 0.0.0.0:22 0.0.0.0:* LISTEN
951/sshd
tcp6 0 0 :::22 :::* LISTEN
951/sshd

五、crontab 系统定时任务

1 crontab 服务管理

1> 重新启动 crond 服务

[root@hadoop101 ~]# systemctl restart crond
2 crontab 定时任务设置

1>基本语法
crontab [选项]
2> 选项说明

选项说明
-e编辑 crontab 定时任务
-l查询 crontab 任务
-r删除当前用户所有的 crontab 任务

3> 参数说明

[root@hadoop101 ~]# crontab -e

(1)进入 crontab 编辑界面。会打开 vim 编辑你的工作。

* * * * * 执行的任务
项目含义范围
第一个“*”一小时当中的第几分钟0-59
第二个“*”一天当中的第几小时0-23
第三个“*”一个月当中的第几天1-31
第四个“*”一年当中的第几月1-12
第五个“*”一周当中的星期几0-7(0 和 7 都代表星期日)

(2)特殊符号

特殊符号含义
*代表任何时间。比如第一个“*”就代表一小时中每分钟都执行一次的意思。
代表不连续的时间。比如“0 8,12,16 * * * 命令”,就代表在每天的 8 点 0 分,12 点 0 分,16 点 0 分都执行一次命令
-代表连续的时间范围。比如“0 5 * * 1-6 命令”,代表在周一到周六的凌晨 5 点 0 分执行命令
*/n代表每隔多久执行一次。比如“*/10 * * * * 命令”,代表每隔 10 分钟就执行一遍命令

(3)特定时间执行命令

时间含义
45 22 * * * 命令每天 22 点 45 分执行命令
0 17 * * 1 命令每周 1 的 17 点 0 分执行命令
0 5 1,15 * * 命令每月 1 号和 15 号的凌晨 5 点 0 分执行命令
40 4 * * 1-5 命令每周一到周五的凌晨 4 点 40 分执行命令
*/10 4 * * * 命令每天的凌晨 4 点,每隔 10 分钟执行一次命令
0 0 1,15 * 1 命令每月 1 号和 15 号,每周 1 的 0 点 0 分都会执行命令。注意:星期几和几号最好不要同时出现,因为他们定义的都是天。非常容易让管理员混乱。

4>案例实操
(1)每隔 1 分钟,向/root/bailongma.txt 文件中添加一个 11 的数字

[root@hadoop101 ~]# crontab -e
*/1 * * * * /bin/echo ”11” >> /root/bailongma.txt
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值