1.文件相关
1)使用rz从windows环境上传文件到linux服务器上的/home/hadoop/目录
cd /home/hadoop/
rz -y
2)使用sz从linux服务器上/home/hadoop/下载文件aaa.txt到windows上
cd /home/hadoop/
sz aaa.txt
3)两台linux机器之间文件拷贝
将本机上/haome/hadoop/aaa及其子文件拷贝到机器192.168.38.165机器的目录/home/hadoop/下面,会提示输入root密码。
scp -r /home/hadoop/aaa root@192.168.38.165:/home/hadoop/
4)批量修改文件内容
批量修改文件/opt/product/conf/sso.conf中192.168.38.171为192.168.1.104
sed -i "s/192.168.38.171/192.168.1.104/g" /opt/product/conf/sso.conf
2.ftp相关
1)登录ftp这种方式随后会要求输入FTP用户名和密码
ftp 192.168.191.13
2)登录ftp直接带上FTP账号和密码
lftp ftpuser:ftppasspword@192.168.191.13
3)登录FTP后上传本地文件到FTP
lftp ftpuser:ftppasspword@192.168.191.13
put C:\Users\Lenovo\Desktop\test.txt
4)登录FTP后删除FTP上文件
lftp ftpuser:ftppasspword@192.168.191.13
delete test.txt
5)登录FTP后从FTP上拉取文件到linux服务器目录/home/hadoop
cd /home/hadoop
lftp ftpuser:ftppasspword@192.168.191.13
get test.txt
6)退出FTP
lftp ftpuser:ftppasspword@192.168.191.13
quit
3.网络相关
1)查看linux本机IP
ifconfig
2)linux下抓包命令tcpdump使用
抓取发往本机端口8881的所有数据包和本机端口8881发往外部机器的所有包数据
cd /home/hadoop/
/usr/sbin/tcpdump -v -X -s 0 -i bond0 port 8881 -w data.cap
4.linux定时任务
1.定时任务语法
分 | 小时 | 日 | 月 | 星期 | 命令 |
0-59 | 0-23 | 1-31 | 1-12 | 0-6(0表示周日) | command或者shell脚本文件 |
特殊字符 | 含义 |
* | 代表取值范围内的数字 |
/ | 代表”每” |
- | 代表从某个数字到某个数字 |
, | 分开几个离散的数字 |
crontab命令参数:
[hadoop@nmsc0 log]$ crontab -help
crontab: invalid option -- h
crontab: usage error: unrecognized option
usage: crontab [-u user] file
crontab [-u user] [ -e | -l | -r ]
(default operation is replace, per 1003.2)
-e (edit user's crontab)
-l (list user's crontab)
-r (delete user's crontab)
-i (prompt before deleting user's crontab)
-s (selinux context)
[hadoop@nmsc0 log]$
5.oracle相关
5.1oracle忘记密码
sqlplus /nolog connect / as sysdba; connect /@plsql别名 as sysdba;或者connect 账号/密码@plsql别名 as sysdba;
5.2 查看当前登录用户表空间
select username,default_tablespace from user_users;
5.3 导出单表到dump
exp user/paswword@sid buffer=1024000 COMPRESS=N tables=bss_black_list,file=F:\tempt\blacklist.dmp,log=F:\tempt\blacklist.log statistics=none
6.NFS相关
6.1 NFS服务端权限设置
cat /etc/exports /data/logs jftdapp*(rw,sync,no_root_squash,insecure)
6.2 NFS服务端启动关闭
为了使NFS服务器能正常工作,需要启动portmap和nfs两个服务,并且portmap一定要先于nfs启动。
service nfs stop service portmap stop
查询NFS服务器状态
service portmap status service nfs status
要停止NFS运行时,需要先停止nfs服务再停止portmap服务,对于系统中有其他服务(如NIS)需要使用时,不需要停止portmap服务
service portmap start service nfs start
设置portmap和nfs服务在系统运行级别3和5自动启动。
#查看状态 chkconfig --list portmap chkconfig --list nfs #设置开机启动 chkconfig --level 35 portmap on chkconfig --level 35 nfs on
6.3NFS客户端配置
#NFS客户解除mount umount /mnt/nmscchargelogs #NFS客户端创建mount用的目录 rm -rf /mnt/nmscchargelogs mkdir /mnt/nmsclogs #NFS客户端远端192.168.62.34:/data/logs绑定到本地/mnt/nmsclogs mount 192.168.62.34:/data/logs /mnt/nmsclogs
7.当前用户定时任务
1)编辑当前用户的定时任务crontab -e
#编辑crontab服务文件
crontab -e
#然后贴入如下内容:
#晚上23:30执行脚本/home/hadoop/crontab/hbase_major_compact_small.sh
30 23 * * * /home/hadoop/crontab/hbase_major_compact_small.sh
#林晨00:30执行脚本/home/hadoop/crontab/hbase_major_compact_big.sh
30 0 * * * /home/hadoop/crontab/hbase_major_compact_big.sh
执行上述命令会在/var/spool/cron下生成自己的crontab文件,如下:
2)查看当前用户定时任务crontab -l
[hadoop@nmsc0 log]$ crontab -l
30 23 * * * /home/hadoop/crontab/hbase_major_compact_small.sh
30 0 * * * /home/hadoop/crontab/hbase_major_compact_big.sh
3)删除当前用户定时任务
#删除没个用户的cron服务
crontab -r
4)查看当前定时任务是否被执行过或者查看任务执行日志
#1、针对Linux系统的查询方法(含Redhat、SUSE)
#必须有权限的用户比如root查看/var/log/cron这个文件就可以,可以用tail -f /var/log/cron观察
#因为tail -f /var/log/cron只显示大概末尾10条记录,这里使用tail -20 /var/log/cron显示最末尾20条记录
#2、针对UINX系统查询方法(AIX、HP-UX)
#在 /var/spool/cron/tmp文件中,有croutXXX00999的tmp文件,tail 这些文件就可以看到正在执行的任务了。
#3. mail任务(Linux UNIX)在 /var/spool/mail/root 文件中,有crontab执行日志的记录,
#用tail -f /var/spool/mail/root 即可查看最近的crontab执行情况。
8.系统定时任务
系统定时任务一般在/etc/crontab文件中配置,该文件内容如下:
[root@nmsc0 etc]# cat /etc/crontab
SHELL=/bin/bash
PATH=/sbin:/bin:/usr/sbin:/usr/bin
MAILTO=root
HOME=/
# run-parts
01 * * * * root run-parts /etc/cron.hourly
02 4 * * * root run-parts /etc/cron.daily
22 4 * * 0 root run-parts /etc/cron.weekly
42 4 1 * * root run-parts /etc/cron.monthly
01 1 * * * root run-parts /home/zhangyangyang/cron/day
[root@nmsc0 etc]#
注意:参数“run-parts”是执行某个文件目录下所有shell脚本,不加的话后面必须为shell脚本完整路径名称不能为目录
几个定时任务例子:
#表示每天23点59分执行脚本/home/oracle/scripts/alert_log_archive.sh
59 23 * * * /home/oracle/scripts/alert_log_archive.sh >/dev/null 2>&1
#表示每5分钟执行一次脚本/home/oracle/scripts/monitoring_alert_log.sh
*/5 * * * * /home/oracle/scripts/monitoring_alert_log.sh >/dev/null 2>&1
#周一到周五每天下午 20:00 寄一封信给 kerry@domain.name
3: 0 20 * * 1-5 mail -s "**********" kerry@domain.name < /tmp/maildata
10.ulimit设置
ulimit并不是越大越好,可以参见http://www.cnblogs.com/zengkefu/p/5635153.html了解情况。
(1)linux当前用户ulimit设置的值
ulimit -a
(2)linux系统所有进程打开的文件数之和最大值
cat /proc/sys/fs/file-max
(3)linux当前用户打开的文件数实时查看
cat /proc/sys/fs/file-nr
(4)ulimit设置的继承关系