linux工作中常用命令记录

1.文件相关

    1)使用rz从windows环境上传文件到linux服务器上的/home/hadoop/目录

cd /home/hadoop/
rz -y

     2)使用sz从linux服务器上/home/hadoop/下载文件aaa.txt到windows上

cd /home/hadoop/
sz aaa.txt

     3)两台linux机器之间文件拷贝

    将本机上/haome/hadoop/aaa及其子文件拷贝到机器192.168.38.165机器的目录/home/hadoop/下面,会提示输入root密码。

scp -r /home/hadoop/aaa root@192.168.38.165:/home/hadoop/

    4)批量修改文件内容

    批量修改文件/opt/product/conf/sso.conf中192.168.38.171为192.168.1.104

sed -i "s/192.168.38.171/192.168.1.104/g" /opt/product/conf/sso.conf

 

2.ftp相关

    1)登录ftp这种方式随后会要求输入FTP用户名和密码

ftp 192.168.191.13

     2)登录ftp直接带上FTP账号和密码

lftp ftpuser:ftppasspword@192.168.191.13

     3)登录FTP后上传本地文件到FTP

lftp ftpuser:ftppasspword@192.168.191.13
put C:\Users\Lenovo\Desktop\test.txt

     4)登录FTP后删除FTP上文件

lftp ftpuser:ftppasspword@192.168.191.13
delete test.txt

     5)登录FTP后从FTP上拉取文件到linux服务器目录/home/hadoop

cd /home/hadoop
lftp ftpuser:ftppasspword@192.168.191.13
get test.txt

     6)退出FTP

lftp ftpuser:ftppasspword@192.168.191.13
quit

 

3.网络相关

    1)查看linux本机IP

ifconfig

     2)linux下抓包命令tcpdump使用

    抓取发往本机端口8881的所有数据包和本机端口8881发往外部机器的所有包数据

cd /home/hadoop/
/usr/sbin/tcpdump -v -X -s 0 -i bond0  port 8881 -w data.cap

 

4.linux定时任务

    1.定时任务语法

小时星期命令
0-590-231-311-120-6(0表示周日)command或者shell脚本文件

 

特殊字符含义
*代表取值范围内的数字
/代表”每”
-代表从某个数字到某个数字
,分开几个离散的数字

 

    crontab命令参数:

 

[hadoop@nmsc0 log]$ crontab -help
crontab: invalid option -- h
crontab: usage error: unrecognized option
usage:  crontab [-u user] file
        crontab [-u user] [ -e | -l | -r ]
                (default operation is replace, per 1003.2)
        -e      (edit user's crontab)
        -l      (list user's crontab)
        -r      (delete user's crontab)
        -i      (prompt before deleting user's crontab)
        -s      (selinux context)
[hadoop@nmsc0 log]$ 
 

    5.oracle相关

        5.1oracle忘记密码

sqlplus /nolog
connect / as sysdba;
connect /@plsql别名 as sysdba;或者connect 账号/密码@plsql别名 as sysdba;

     5.2 查看当前登录用户表空间

select username,default_tablespace from user_users;

    5.3 导出单表到dump

exp user/paswword@sid buffer=1024000 COMPRESS=N tables=bss_black_list,file=F:\tempt\blacklist.dmp,log=F:\tempt\blacklist.log statistics=none
 

6.NFS相关

    6.1 NFS服务端权限设置

cat /etc/exports
/data/logs jftdapp*(rw,sync,no_root_squash,insecure)

 

    6.2 NFS服务端启动关闭

    为了使NFS服务器能正常工作,需要启动portmap和nfs两个服务,并且portmap一定要先于nfs启动。

service nfs stop
service portmap stop

    查询NFS服务器状态

service portmap status
service nfs status

 

    要停止NFS运行时,需要先停止nfs服务再停止portmap服务,对于系统中有其他服务(如NIS)需要使用时,不需要停止portmap服务

service portmap start
service nfs start  

    设置portmap和nfs服务在系统运行级别3和5自动启动。

#查看状态
chkconfig --list portmap
chkconfig --list nfs
#设置开机启动
chkconfig --level 35 portmap on
chkconfig --level 35 nfs on

 

    6.3NFS客户端配置

#NFS客户解除mount
umount /mnt/nmscchargelogs
#NFS客户端创建mount用的目录
rm -rf /mnt/nmscchargelogs
mkdir /mnt/nmsclogs
#NFS客户端远端192.168.62.34:/data/logs绑定到本地/mnt/nmsclogs
mount 192.168.62.34:/data/logs /mnt/nmsclogs

 

    7.当前用户定时任务

        1)编辑当前用户的定时任务crontab  -e

#编辑crontab服务文件
crontab  -e 
#然后贴入如下内容:
#晚上23:30执行脚本/home/hadoop/crontab/hbase_major_compact_small.sh
30 23 * * * /home/hadoop/crontab/hbase_major_compact_small.sh 
#林晨00:30执行脚本/home/hadoop/crontab/hbase_major_compact_big.sh 
30 0 * * * /home/hadoop/crontab/hbase_major_compact_big.sh 

    执行上述命令会在/var/spool/cron下生成自己的crontab文件,如下:

 

        2)查看当前用户定时任务crontab -l

[hadoop@nmsc0 log]$ crontab -l
30 23 * * * /home/hadoop/crontab/hbase_major_compact_small.sh 
30 0 * * * /home/hadoop/crontab/hbase_major_compact_big.sh   

        3)删除当前用户定时任务

 

#删除没个用户的cron服务
crontab -r

 

        4)查看当前定时任务是否被执行过或者查看任务执行日志

#1、针对Linux系统的查询方法(含Redhat、SUSE)
#必须有权限的用户比如root查看/var/log/cron这个文件就可以,可以用tail -f /var/log/cron观察
#因为tail -f /var/log/cron只显示大概末尾10条记录,这里使用tail -20 /var/log/cron显示最末尾20条记录

#2、针对UINX系统查询方法(AIX、HP-UX)
#在 /var/spool/cron/tmp文件中,有croutXXX00999的tmp文件,tail 这些文件就可以看到正在执行的任务了。
#3. mail任务(Linux UNIX)在 /var/spool/mail/root 文件中,有crontab执行日志的记录,
#用tail -f /var/spool/mail/root 即可查看最近的crontab执行情况。

 

    8.系统定时任务

    系统定时任务一般在/etc/crontab文件中配置,该文件内容如下:

[root@nmsc0 etc]# cat /etc/crontab
SHELL=/bin/bash
PATH=/sbin:/bin:/usr/sbin:/usr/bin
MAILTO=root
HOME=/

# run-parts
01 * * * * root run-parts /etc/cron.hourly
02 4 * * * root run-parts /etc/cron.daily
22 4 * * 0 root run-parts /etc/cron.weekly
42 4 1 * * root run-parts /etc/cron.monthly
01 1 * * * root run-parts /home/zhangyangyang/cron/day
[root@nmsc0 etc]# 

 注意:参数“run-parts”是执行某个文件目录下所有shell脚本,不加的话后面必须为shell脚本完整路径名称不能为目录

  几个定时任务例子:

#表示每天23点59分执行脚本/home/oracle/scripts/alert_log_archive.sh
59 23 * * * /home/oracle/scripts/alert_log_archive.sh >/dev/null 2>&1

#表示每5分钟执行一次脚本/home/oracle/scripts/monitoring_alert_log.sh
*/5 * * * * /home/oracle/scripts/monitoring_alert_log.sh >/dev/null 2>&1

#周一到周五每天下午 20:00 寄一封信给 kerry@domain.name
3: 0 20 * * 1-5 mail -s "**********" kerry@domain.name < /tmp/maildata

 

10.ulimit设置

    ulimit并不是越大越好,可以参见http://www.cnblogs.com/zengkefu/p/5635153.html了解情况。

    (1)linux当前用户ulimit设置的值

ulimit -a

    (2)linux系统所有进程打开的文件数之和最大值

cat /proc/sys/fs/file-max

    (3)linux当前用户打开的文件数实时查看

cat /proc/sys/fs/file-nr

    (4)ulimit设置的继承关系


 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
毕业设计,基于SpringBoot+Vue+MySQL开发的影城管理系统,源码+数据库+论文答辩+毕业论文+视频演示 随着现在网络的快速发展,网上管理系统也逐渐快速发展起来,网上管理模式很快融入到了许多生活之,随之就产生了“小徐影城管理系统”,这样就让小徐影城管理系统更加方便简单。 对于本小徐影城管理系统的设计来说,系统开发主要是采用java语言技术,在整个系统的设计应用MySQL数据库来完成数据存储,具体根据小徐影城管理系统的现状来进行开发的,具体根据现实的需求来实现小徐影城管理系统网络化的管理,各类信息有序地进行存储,进入小徐影城管理系统页面之后,方可开始操作主控界面,主要功能包括管理员:首页、个人心、用户管理、电影类型管理、放映厅管理、电影信息管理、购票统计管理、系统管理、订单管理,用户前台;首页、电影信息、电影资讯、个人心、后台管理、在线客服等功能。 本论文主要讲述了小徐影城管理系统开发背景,该系统它主要是对需求分析和功能需求做了介绍,并且对系统做了详细的测试和总结。具体从业务流程、数据库设计和系统结构等多方面的问题。望能利用先进的计算机技术和网络技术来改变目前的小徐影城管理系统状况,提高管理效率。 关键词:小徐影城管理系统;Spring Boot框架,MySQL数据库
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值