这些都是我比较常用的在此记录下
- date
--格式化当前时间
[root@lijie home]# date +"%Y%m%d %H:%M:%S" --注意 + 和 "之间不能有空格
20161101 19:31:06
--获取当前时间戳
[root@lijie home]# date +%s
1478043149
--时间戳格式化
[root@lijie home]# date -d @1478043149 +%Y%m%d
20161101
--指定日期转换
[root@lijie hadoop]# date -d20161010 +%Y%m%d
20161010
--获取前一天(月份,年,小时等以此类推)
[root@lijie home]# date +%Y%m%d -d "-1days"
20161031
- 端口占用查看
netstat -npl
netstat -anp|grep 80
lsof -i:80
- 查看文件或文件夹大小查看
du
-a 显示文件大小以及下面所有文件的大小
-k kb输出
-m mb输出
-h gb输出
-s 汇总文件输出
- 查看磁盘
df -h
- top
top
top - 19:22:59 up 35 min, 1 user, load average: 0.01, 0.01, 0.00
Tasks: 87 total, 1 running, 86 sleeping, 0 stopped, 0 zombie
Cpu(s): 0.0%us, 0.0%sy, 0.0%ni,100.0%id, 0.0%wa, 0.0%hi, 0.0%si, 0.0%st
Mem: 3908788k total, 133456k used, 3775332k free, 8584k buffers
Swap: 2031608k total, 0k used, 2031608k free, 33060k cached
PID USER PR NI VIRT RES SHR S %CPU %MEM TIME+ COMMAND
1459 root 20 0 15024 1288 1000 R 0.3 0.0 0:00.08 top
2 root 20 0 0 0 0 S 0.0 0.0 0:00.00 kthreadd
3 root RT 0 0 0 0 S 0.0 0.0 0:00.34 migration/0
4 root 20 0 0 0 0 S 0.0 0.0 0:00.00 ksoftirqd/0
--其中每一列表示的意思
PID:进程号
PR:优先级
VIRT:虚拟内存
RES:物理内存
SHR:共享内存
S:S休眠 R运行 Z僵死 N优先级为负
%CPU:cpu占用比例
%MEM:物理内存占用总内存比例
TIME+:占用cpu总时间
--
P:按照cpu占用排列
T:按照cpu使用累计时间排列
- 文件格式查询以及修改
在vi或者vim命令下
查看:set ff
结果:fileformat=unix
修改:set ff=unix
- 文件内容排序去重
--test文件内容
aaa
ccc
bbb
hhh
ddd
ccc
mmm
bbb
aaa
--执行
[root@lijie hadoop]# cat test |sort|uniq
aaa
bbb
ccc
ddd
hhh
mmm
- grep
--排除有grep这一项的行
grep -v "grep"
--精确匹配
grep -w "grep"
-ps
--常用
ps -aux
- find
--会输出匹配a.sh的全路径名
find /home -name a.sh
scp
scp -r ../kafka_2.11-0.10.1.1/ hadoop@cdhnode5:/home/hadoop/app/kafka_2.11-0.10.1.1
scp xxxx username@host:/xxxx
有多层目录使用 scp -r
ssh
ssh cdhnode2 "source /etc/profile;kill -9 1191"
ssh host "source /etc/profile; 命令"
查看磁盘空间,查看所在目录空间:
df -h
du -sh
查看磁盘空间大小排序:
du -sh /* | sort -nr