大数据应用——Linux常用的命令

1.1文件权限类

1.1.1 文件属性

Linux系统是一种典型的多用户系统,不同的用户处于不同的地位,拥有不同的权限。为了保护系统的安全性,Linux系统对不同的用户访问同一文件(包括目录文件)的权限做了不同的规定。在Linux中我们可以使用ll或者ls -l命令来显示一个文件的属性以及文件所属的用户和组。

1.从左到右的10个字符表示

如果没有权限,就会出现减号[ - ]而已。从左至右用0-9这些数字来表示:

(1)0首位表示类型

在Linux中第一个字符代表这个文件是目录、文件或链接文件等等

- 代表文件

d 代表目录

l 链接文档(linkfile);

(2)第1-3位确定属主(该文件的所有者)拥有该文件的权限。---User

(3)第4-6位确定属组(所有者的同组用户)拥有该文件的权限,---Group

(4)第7-9位确定其他用户拥有该文件的权限 ---Other

2.rxw作用文件和目录的不同解释

(1)作用到文件:

[ r ]代表可读(read): 可以读取,查看

[ w ]代表可写(write): 可以修改,但是不代表可以删除该文件,删除一个文件的前提条件是对该文件所在的目录有写权限,才能删除该文件.

[ x ]代表可执行(execute):可以被系统执行

(2)作用到目录:

[ r ]代表可读(read): 可以读取,ls查看目录内容

[ w ]代表可写(write): 可以修改,目录内创建+删除+重命名目录

[ x ]代表可执行(execute):可以进入该目录

3.案例实操

[root@hadoop01 ~]# ll

总用量 104

-rw-------. 1 root root 1248 1月 8 17:36 anaconda-ks.cfg

drwxr-xr-x. 2 root root 4096 1月 12 14:02 dssz

lrwxrwxrwx. 1 root root 20 1月 12 14:32 houzi -> xiyou/dssz/houge.tx

文件基本属性介绍,如图1-155所示:

(1)如果查看到是文件:链接数指的是硬链接个数。创建硬链接方法

ln [原文件] [目标文件]

[root@hadoop01 ~]# ln xiyou/dssz/houge.txt ./hg.txt

(2)如果查看的是文件夹:链接数指的是子文件夹个数。

[root@hadoop01 ~]# ls -al xiyou/

总用量 16

drwxr-xr-x. 4 root root 40961月 12 14:00 .

dr-xr-x---. 29 root root 4096 1月 12 14:32 ..

drwxr-xr-x. 2 root root 40961月 12 14:30 dssz

drwxr-xr-x. 2 root root 40961月 12 14:04mingjie

1.1.2 chmod 改变权限

1.基本语法

如图1-156所示

第一种方式变更权限

chmod [{ugoa}{+-=}{rwx}] 文件或目录

第二种方式变更权限

chmod [mode=421 ] [文件或目录]

2.经验技巧

u:所有者 g:所有组 o:其他人 a:所有人(u、g、o的总和)

r=4 w=2 x=1 rwx=4+2+1=7

3.案例实操

(1)修改文件使其所属主用户具有执行权限

[root@hadoop01 ~]# cp xiyou/dssz/houge.txt ./

[root@hadoop01 ~]# chmod u+x houge.txt

(2)修改文件使其所属组用户具有执行权限

[root@hadoop01 ~]# chmod g+x houge.txt

(3)修改文件所属主用户执行权限,并使其他用户具有执行权限

[root@hadoop01 ~]# chmod u-x,o+x houge.txt

(4)采用数字的方式,设置文件所有者、所属组、其他用户都具有可读可写可执行权限。

[root@hadoop01 ~]# chmod 777 houge.txt

(5)修改整个文件夹里面的所有文件的所有者、所属组、其他用户都具有可读可写可执行权限。

[root@hadoop01 ~]# chmod -R 777 xiyou/

1.1.3 chown 改变所有者

1.基本语法

chown [选项] [最终用户] [文件或目录] (功能描述:改变文件或者目录的所有者)

2.选项说明

表1-26

选项

功能

-R

递归操作

3.案例实操

1)修改文件所有者

[root@hadoop01 ~]# chown atguigu houge.txt

[root@hadoop01 ~]# ls -al

-rwxrwxrwx. 1 atguigu root 551 5月 23 13:02 houge.txt

2)递归改变文件所有者和所有组

[root@hadoop01 xiyou]# ll

drwxrwxrwx. 2 root root 4096 9月 3 21:20 xiyou

[root@hadoop01 xiyou]# chown -R atguigu:atguigu xiyou/

[root@hadoop01 xiyou]# ll

drwxrwxrwx. 2 atguigu atguigu 4096 9月 3 21:20 xiyou

1.1.4 chgrp 改变所属组

1.基本语法

chgrp [最终用户组] [文件或目录] (功能描述:改变文件或者目录的所属组)

2.案例实操

(1)修改文件的所属组

[root@hadoop01 ~]# chgrp root houge.txt

[root@hadoop01 ~]# ls -al

-rwxrwxrwx. 1 atguigu root 551 5月 23 13:02 houge.txt

1.2搜索查找类

1.2.1 find 查找文件或者目录

find指令将从指定目录向下递归地遍历其各个子目录,将满足条件的文件显示在终端。

1.基本语法

find [搜索范围] [选项]

2.选项说明

表1-27

选项

功能

-name<查询方式>

按照指定的文件名查找模式查找文件

-user<用户名>

查找属于指定用户名所有文件

-size<文件大小>

按照指定的文件大小查找文件。

3.案例实操

(1)按文件名:根据名称查找/目录下的filename.txt文件。

[root@hadoop01 ~]# find xiyou/ -name *.txt

(2)按拥有者:查找/opt目录下,用户名称为-user的文件

[root@hadoop01 ~]# find xiyou/ -user atguigu

(3)按文件大小:在/home目录下查找大于200m的文件(+n 大于 -n小于 n等于)

[root@hadoop01 ~]find /home -size +204800

1.2.2 locate快速定位文件路径

locate指令利用事先建立的系统中所有文件名称及路径的locate数据库实现快速定位给定的文件。Locate指令无需遍历整个文件系统,查询速度较快。为了保证查询结果的准确度,管理员必须定期更新locate时刻。

1.基本语法

locate 搜索文件

2.经验技巧

由于locate指令基于数据库进行查询,所以第一次运行前,必须使用updatedb指令创建locate数据库。

3.案例实操

(1)查询文件夹

[root@hadoop01 ~]# updatedb

[root@hadoop01 ~]#locate tmp

1.2.3 grep 过滤查找及“|”管道符

管道符,“|”,表示将前一个命令的处理结果输出传递给后面的命令处理

1.基本语法

grep 选项查找内容源文件

2.选项说明

表1-28

选项

功能

-n

显示匹配行及行号。

3.案例实操

(1)查找某文件在第几行

[root@hadoop01 ~]# ls | grep -n test

1.3压缩和解压类

1.3.1 gzip/gunzip 压缩

1.基本语法

gzip 文件 (功能描述:压缩文件,只能将文件压缩为*.gz文件)

gunzip 文件.gz (功能描述:解压缩文件命令)

2.经验技巧

(1)只能压缩文件不能压缩目录

(2)不保留原来的文件

3.案例实操

(1)gzip压缩

[root@hadoop01 ~]# ls

test.java

[root@hadoop01 ~]# gzip houge.txt

[root@hadoop01 ~]# ls

houge.txt.gz

(2)gunzip解压缩文件

[root@hadoop101 ~]# gunzip houge.txt.gz

[root@hadoop101 ~]# ls

houge.txt

1.3.2 zip/unzip 压缩

1.基本语法

zip [选项] XXX.zip 将要压缩的内容 (功能描述:压缩文件和目录的命令)

unzip [选项] XXX.zip (功能描述:解压缩文件)

2.选项说明

表1-29

zip选项

功能

-r

压缩目录

表1-30

unzip选项

功能

-d<目录>

指定解压后文件的存放目录

3.经验技巧

zip 压缩命令在window/linux都通用,可以压缩目录且保留源文件。

4.案例实操

(1)压缩 1.txt 和2.txt,压缩后的名称为mypackage.zip

[root@hadoop01 opt]# touch bailongma.txt

[root@hadoop01 ~]# zip houma.zip houge.txt bailongma.txt

adding: houge.txt (stored0%)

adding: bailongma.txt(stored 0%)

[root@hadoop01 opt]# ls

houge.txt bailongma.txt houma.zip

(2)解压 mypackage.zip

[root@hadoop01 ~]# unzip houma.zip

Archive: houma.zip

extracting: houge.txt

extracting:bailongma.txt

[root@hadoop01 ~]# ls

houge.txt bailongma.txt houma.zip

(3)解压mypackage.zip到指定目录-d

[root@hadoop01 ~]# unzip houma.zip -d /opt

[root@hadoop01 ~]# ls /opt/

1.3.3 tar 打包

1.基本语法

tar [选项] XXX.tar.gz 将要打包进去的内容 (功能描述:打包目录,压缩后的文件格式.tar.gz)

2.选项说明

表1-31

选项

功能

-c

产生.tar打包文件

-v

显示详细信息

-f

指定压缩后的文件名

-z

打包同时压缩

-x

解包.tar文件

3.案例实操

(1)压缩多个文件

[root@hadoop01 opt]# tar -zcvf houma.tar.gz houge.txtbailongma.txt houge.txt bailongma.txt

[root@hadoop01 opt]# ls

houma.tar.gz houge.txt bailongma.txt

(2)压缩目录

[root@hadoop01 ~]# tar -zcvf xiyou.tar.gz xiyou/xiyou/xiyou/mingjie/xiyou/dssz/xiyou/dssz/houge.txt

(3)解压到当前目录

[root@hadoop01 ~]# tar -zxvf houma.tar.gz

(4)解压到指定目录

[root@hadoop01 ~]# tar -zxvf xiyou.tar.gz -C /opt

[root@hadoop01 ~]# ll /opt/

1.4磁盘分区类

1.4.1 df 查看磁盘空间使用情况

df: disk free 空余硬盘

1.基本语法

df 选项 (功能描述:列出文件系统的整体磁盘使用量,检查文件系统的磁盘空间占用情况)

2.选项说明

表1-32

选项

功能

-h

以人们较易阅读的 GBytes, MBytes, KBytes 等格式自行显示;

3.案例实操

(1)查看磁盘使用情况

[root@hadoop01 ~]# df -h

Filesystem Size Used Avail Use% Mounted on

/dev/sda2 15G 3.5G 11G 26% /

tmpfs 939M 224K 939M 1% /dev/shm

/dev/sda1 190M 39M 142M 22% /boot

1.4.2 fdisk 查看分区

1.基本语法

fdisk -l (功能描述:查看磁盘分区详情)

2.选项说明

表1-33

选项

功能

-l

显示所有硬盘的分区列表

3.经验技巧

该命令必须在root用户下才能使用

4.功能说明

(1)Linux分区

Device:分区序列

Boot:引导

Start:从X磁柱开始

End:到Y磁柱结束

Blocks:容量

Id:分区类型ID

System:分区类型

(2)Win7分区,如图1-157所示

5.案例实操

(1)查看系统分区情况

[root@hadoop01 /]# fdisk -l

Disk /dev/sda: 21.5 GB, 21474836480 bytes

255 heads, 63 sectors/track, 2610 cylinders

Units = cylinders of 16065 * 512 = 8225280 bytes

Sector size (logical/physical): 512 bytes / 512 bytes

I/O size (minimum/optimal): 512 bytes / 512 bytes

Disk identifier: 0x0005e654

Device Boot Start End Blocks Id System

/dev/sda1 * 1 26 204800 83 Linux

Partition 1 does not end on cylinder boundary.

/dev/sda2 26 1332 10485760 83 Linux

/dev/sda3 1332 1593 2097152 82 Linux swap / Solaris

1.4.3 mount/umount挂载/卸载

对于Linux用户来讲,不论有几个分区,分别分给哪一个目录使用,它总归就是一个根目录、一个独立且唯一的文件结构。

Linux中每个分区都是用来组成整个文件系统的一部分,它在用一种叫做“挂载”的处理方法,它整个文件系统中包含了一整套的文件和目录,并将一个分区和一个目录联系起来,要载入的那个分区将使它的存储空间在这个目录下获得。

1.挂载前准备(必须要有光盘或者已经连接镜像文件)

图1-158

图1-159挂载镜像文件

2.基本语法

mount [-t vfstype] [-o options] device dir (功能描述:挂载设备)

umount 设备文件名或挂载点 (功能描述:卸载设备)

3.参数说明

表1-34

参数

功能

-t vfstype

指定文件系统的类型,通常不必指定。mount 会自动选择正确的类型。常用类型有:

光盘或光盘镜像:iso9660

DOS fat16文件系统:msdos

Windows 9x fat32文件系统:vfat

Windows NT ntfs文件系统:ntfs

Mount Windows文件网络共享:smbfs

UNIX(LINUX) 文件网络共享:nfs

-o options

主要用来描述设备或档案的挂接方式。常用的参数有:

loop:用来把一个文件当成硬盘分区挂接上系统

ro:采用只读方式挂接设备

rw:采用读写方式挂接设备

  iocharset:指定访问文件系统所用字符集

device

要挂接(mount)的设备

dir

设备在系统上的挂接点(mount point)

4.案例实操

(1)挂载光盘镜像文件

[root@hadoop01 ~]# mkdir /mnt/cdrom/ 建立挂载点

[root@hadoop01 ~]# mount -t iso9660 /dev/cdrom /mnt/cdrom/ 设备/dev/cdrom挂载到 挂载点 : /mnt/cdrom中

[root@hadoop01 ~]# ll /mnt/cdrom/

(2)卸载光盘镜像文件

[root@hadoop01 ~]# umount /mnt/cdrom

5.设置开机自动挂载

[root@hadoop01 ~]# vi /etc/fstab

添加红框中内容,保存退出。

如图1-160所示

图1-160 设置开机自动挂载

1.5进程线程类

进程是正在执行的一个程序或命令,每一个进程都是一个运行的实体,都有自己的地址空间,并占用一定的系统资源。

1.5.1 ps 查看当前系统进程状态

ps:process status 进程状态

1.基本语法

ps aux | grep xxx (功能描述:查看系统中所有进程)

ps -ef| grep xxx (功能描述:可以查看子父进程之间的关系)

2.选项说明

表1-35

选项

功能

-a

选择所有进程

-u

显示所有用户的所有进程

-x

显示没有终端的进程

3.功能说明

(1)ps aux显示信息说明

USER:该进程是由哪个用户产生的

PID:进程的ID号

%CPU:该进程占用CPU资源的百分比,占用越高,进程越耗费资源;

%MEM:该进程占用物理内存的百分比,占用越高,进程越耗费资源;

VSZ:该进程占用虚拟内存的大小,单位KB;

RSS:该进程占用实际物理内存的大小,单位KB;

TTY:该进程是在哪个终端中运行的。其中tty1-tty7代表本地控制台终端,tty1-tty6是本地的字符界面终端,tty7是图形终端。pts/0-255代表虚拟终端。

STAT:进程状态。常见的状态有:R:运行、S:睡眠、T:停止状态、s:包含子进程、+:位于后台

START:该进程的启动时间

TIME:该进程占用CPU的运算时间,注意不是系统时间

COMMAND:产生此进程的命令名

(2)ps -ef显示信息说明

UID:用户ID

PID:进程ID

PPID:父进程ID

C:CPU用于计算执行优先级的因子。数值越大,表明进程是CPU密集型运算,执行优先级会降低;数值越小,表明进程是I/O密集型运算,执行优先级会提高

STIME:进程启动的时间

TTY:完整的终端名称

TIME:CPU时间

CMD:启动进程所用的命令和参数

4.经验技巧

如果想查看进程的CPU占用率和内存占用率,可以使用aux;

如果想查看进程的父进程ID可以使用ef;

5.案例实操

[root@hadoop01 datas]# ps aux

如图1-161所示

图1-161 查看进程的CPU占用率和内存占用率

[root@hadoop01 datas]# ps -ef

如图1-162所示

图1-162 查看进程的父进程ID

1.5.2 kill 终止进程

1.基本语法

kill [选项] 进程号 (功能描述:通过进程号杀死进程)

killall 进程名称 (功能描述:通过进程名称杀死进程,也支持通配符,这在系统因负载过大而变得很慢时很有用)

2.选项说明

表1-36

选项

功能

-9

表示强迫进程立即停止

3.案例实操

(1)杀死浏览器进程

[root@hadoop01 桌面]# kill -9 5102

(2)通过进程名称杀死进程

[root@hadoop01 桌面]# killallfirefox

1.5.3 pstree 查看进程树

1.基本语法

pstree [选项]

2.选项说明

表1-37

选项

功能

-p

显示进程的PID

-u

显示进程的所属用户

3.案例实操

(1)显示进程pid

[root@hadoop01 datas]# pstree -p

(2)显示进程所属用户

[root@hadoop01 datas]# pstree -u

1.5.4 top 查看系统健康状态

1.基本命令

top [选项]

2.选项说明

表1-38

选项

功能

-d 秒数

指定top命令每隔几秒更新。默认是3秒在top命令的交互模式当中可以执行的命令:

-i

使top不显示任何闲置或者僵死进程。

-p

通过指定监控进程ID来仅仅监控某个进程的状态。

3.操作说明

表1-39

操作

功能

P

以CPU使用率排序,默认就是此项

M

以内存的使用率排序

N

以PID排序

q

退出top

4.查询结果字段解释

第一行信息为任务队列信息

表1-40

内容

说明

12:26:46

系统当前时间

up 1 day, 13:32

系统的运行时间,本机已经运行1天

13小时32分钟

2 users

当前登录了两个用户

load average: 0.00, 0.00, 0.00

系统在之前1分钟,5分钟,15分钟的平均负载。一般认为小于1时,负载较小。如果大于1,系统已经超出负荷。

第二行为进程信息

表1-41

Tasks: 95 total

系统中的进程总数

1 running

正在运行的进程数

94 sleeping

睡眠的进程

0 stopped

正在停止的进程

0 zombie

僵尸进程。如果不是0,需要手工检查僵尸进程

第三行为CPU信息

表1-42

Cpu(s): 0.1%us

用户模式占用的CPU百分比

0.1%sy

系统模式占用的CPU百分比

0.0%ni

改变过优先级的用户进程占用的CPU百分比

99.7%id

空闲CPU的CPU百分比

0.1%wa

等待输入/输出的进程的占用CPU百分比

0.0%hi

硬中断请求服务占用的CPU百分比

0.1%si

软中断请求服务占用的CPU百分比

0.0%st

st(Steal time)虚拟时间百分比。就是当有虚拟机时,虚拟CPU等待实际CPU的时间百分比。

第四行为物理内存信息

表1-43

Mem: 625344k total

物理内存的总量,单位KB

571504k used

已经使用的物理内存数量

53840k free

空闲的物理内存数量,我们使用的是虚拟机,总共只分配了628MB内存,所以只有53MB的空闲内存了

65800k buffers

作为缓冲的内存数量

第五行为交换分区(swap)信息

表1-44

Swap: 524280k total

交换分区(虚拟内存)的总大小

0k used

已经使用的交互分区的大小

524280k free

空闲交换分区的大小

409280k cached

作为缓存的交互分区的大小

5.案例实操

[root@hadoop01 atguigu]# top -d 1

[root@hadoop01 atguigu]# top -i

[root@hadoop01 atguigu]# top -p 2575

执行上述命令后,可以按P、M、N对查询出的进程结果进行排序。

1.5.5 netstat 显示网络统计信息和端口占用情况

1.基本语法

netstat -anp |grep 进程号 (功能描述:查看该进程网络信息)

netstat -nlp | grep 端口号 (功能描述:查看网络端口号占用情况)

2.选项说明

表1-45

选项

功能

-n

拒绝显示别名,能显示数字的全部转化成数字

-l

仅列出有在listen(监听)的服务状态

-p

表示显示哪个进程在调用

3.案例实操

(1)通过进程号查看该进程的网络信息

[root@hadoop01 hadoop-2.7.2]# netstat -anp | grep 火狐浏览器进程号

unix 2 [ ACC ] STREAM LISTENING 20670 3115/firefox /tmp/orbit-root/linc-c2b-0-5734667cbe29

unix 3 [ ] STREAM CONNECTED 20673 3115/firefox /tmp/orbit-root/linc-c2b-0-5734667cbe29

unix 3 [ ] STREAM CONNECTED 20668 3115/firefox

unix 3 [ ] STREAM CONNECTED 20666 3115/firefox

(2)查看某端口号是否被占用

[root@hadoop01 桌面]# netstat -nlp |grep 20670

unix 2 [ ACC ] STREAM LISTENING 20670 3115/firefox /tmp/orbit-root/linc-c2b-0-5734667cbe29

1.6 crond 系统定时任务

1.6.1 crond 服务管理

1.重新启动crond服务

[root@hadoop01 ~]# service crond restart

1.6.2 crontab 定时任务设置

1.基本语法

crontab [选项]

2.选项说明

表1-46

选项

功能

-e

编辑crontab定时任务

-l

查询crontab任务

-r

删除当前用户所有的crontab任务

3.参数说明

[root@hadoop01 ~]# crontab -e

(1)进入crontab编辑界面。会打开vim编辑你的工作。

* * * * * 执行的任务

表1-47

项目

含义

范围

第一个“*”

一小时当中的第几分钟

0-59

第二个“*”

一天当中的第几小时

0-23

第三个“*”

一个月当中的第几天

1-31

第四个“*”

一年当中的第几月

1-12

第五个“*”

一周当中的星期几

0-7(0和7都代表星期日)

(2)特殊符号

表1-48

特殊符号

含义

*

代表任何时间。比如第一个“*”就代表一小时中每分钟都执行一次的意思。

代表不连续的时间。比如“0 8,12,16 * * * 命令”,就代表在每天的8点0分,12点0分,16点0分都执行一次命令

-

代表连续的时间范围。比如“0 5 * * 1-6命令”,代表在周一到周六的凌晨5点0分执行命令

*/n

代表每隔多久执行一次。比如“*/10 * * * * 命令”,代表每隔10分钟就执行一遍命令

(3)特定时间执行命令

表1-49

时间

含义

45 22 * * * 命令

在22点45分执行命令

0 17 * * 1 命令

每周1 的17点0分执行命令

0 5 1,15 * * 命令

每月1号和15号的凌晨5点0分执行命令

40 4 * * 1-5 命令

每周一到周五的凌晨4点40分执行命令

*/10 4 * * * 命令

每天的凌晨4点,每隔10分钟执行一次命令

0 0 1,15 * 1 命令

每月1号和15号,每周1的0点0分都会执行命令。注意:星期几和几号最好不要同时出现,因为他们定义的都是天。非常容易让管理员混乱。

4.案例实操

(1)每隔1分钟,向/root/bailongma.txt文件中添加一个11的数字

*/1 * * * * /bin/echo ”11” >> /root/bailongma.txt

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

肉肉肉肉肉肉~丸子

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值