![](https://img-blog.csdnimg.cn/20201014180756913.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
shell
mtj66
这个作者很懒,什么都没留下…
展开
-
shell脚本进行sftp文件批量上传与下载
http://blog.csdn.net/u012204058/article/details/53160419使用linux 的shell脚本进行sftp文件上传与下载批量上传:#!/bin/bash#SFTP配置信息#用户名USER=root#密码PASSWORD=5EYS40T04BMF#待上传文件根目录SRCDIR=/u02/dab/sftpFiles#FTP目录DESDIR转载 2017-12-19 18:10:46 · 2657 阅读 · 0 评论 -
zabbix agent rpm 包安装
zabbix agent 安装流程history原创 2017-12-25 11:40:12 · 1354 阅读 · 0 评论 -
定时任务之不明显的错误导致任务失败
exception : hdfs file not find Caused by: org.apache.hadoop.ipc.RemoteException(java.io.FileNotFoundException): File does not exist: /user/hive/warehouse/cproject.db/cplatform_map_today/part-00176原创 2018-01-19 10:56:26 · 1452 阅读 · 0 评论 -
linux批量kill 某一类型进程
为了清理之前的console consumer 采用如下的 脚本 进行筛选,然后一次性kill掉:ps -ef |grep ConsoleConsumer |awk '{print $2}'|xargs kill -9这里是输出ps -ef |grep hello 结果的第二列的内容然后通过xargs传递给kill -9,其实第二列内容就是hello的进程号!附录:1,awk是一种编程语言,用于...原创 2018-05-25 13:19:41 · 4869 阅读 · 1 评论 -
遍历当前路径下的文件夹进行压缩
#!/bin/bashfunction getdir(){ for element in `ls $1` do dir_or_file=$1"/"$element if [ -d $dir_or_file ]; # -d 文件夹判断 then echo "dir == $dir_or_file" # getdir $dir_or...原创 2018-06-08 11:36:32 · 1468 阅读 · 0 评论 -
shell定时删除spark的applicationHistory历史文件
删除很简单,但是不能删除一些正在运行的程序的日志,尤其是spark streaming 的日志文件,一旦删除无法再生,以后想查日志都难.下面的脚本实现删除一个月之前的spark application的历史文件,记录下,大伙可以参考修改使用.#! /bash # delete 30 day's before spark history logs ######################...原创 2018-06-01 15:35:59 · 3993 阅读 · 1 评论