Hadoop相关命令

Linux常用命令记录

linux一次性解压多个.gz或者.tar.gz文件:

// 解压多个.gz文件,命令如下
for gz in *.gz; do gunzip $gz; done
// 解压多个.tar.gz文件的,用下面命令
for tar in *.tar.gz;  do tar xvf $tar; done

防火墙:

// 查看防火墙状态
systemctl status firewalld
出现Active: active (running)切高亮显示则表示是启动状态。
出现 Active: inactive (dead)灰色表示停止。
// 开启
service firewalld start
// 重启
service firewalld restart
// 关闭
service firewalld stop
// 配合使用永久关闭防火墙
systemctl stop firewalld # 临时关闭防火墙
systemctl disable firewalld # 禁止开机启动

其它:

// 查看文件大小,统计当前文件夹(目录)大小,并按文件大小排序
du -sh * | sort -n 
// 创建普通用户
useradd test   #创建test用户
passwd test   #创建/更新test用户密码
// 删除普通用户
userdel -r test
// 修改普通用户密码
passwd test
然后,按照提示输入新密码
// 查找当前目录及其子目录下,文件后缀为 .c的文件
find . -name "*.c"
// 修改文件权限
chown -R test:test fileName
// 赋值执行权限
chmod +x fileName

1. hdfs命令

  1. 创建文件的命令: hadoop fs -touch /file.txt
  2. 创建文件夹的命令: hadoop fs -mkdir /filename
  3. 删除文件(夹)的命令: hadoop fs -rm -r /111/file.txt
  4. 向hdfs上传文件: hadoop fs -put temp/my.txt /hdfs/temp
  5. 将HDFS上结果文件转储到本地文件系统中,使用如下命令: hadoop fs -get /user/username/result1.json/*.json /home/username/temp/us_counties_result/result1
  6. 格式化文件系统: hdfs namenode -format
  7. 查看hdfs文件: hadoop fs -ls /tmp
  8. hadoop退出安全模式 hdfs dfsadmin -safemode leave
  9. 统计文件大小 hdfs dfs -du -h /
  10. 统计文件数量,返回的数据是目录个数,文件个数,文件总计大小,输入路径 hdfs dfs -count /

2. hadoop启动与关闭

启动hadoop

start-dfs.sh
start-yarn.sh
// 或者直接使用下面语句启动hadoop
start-all.sh

关闭hadoop

stop-yarn.sh
stop-dfs.sh

3. zookeeper启动与关闭

启动zookeeper服务(每个节点都要启动)

zkServer.sh start

查看启动状态

zkServer.sh status

关闭zookeeper服务

zkServer.sh stop

4. hbase启动与关闭

// 启动HBase
start-hbase.sh
// 关闭HBase
stop-hbase.sh

关闭hadoop、hbase集群执行顺序:
hbase—>zookeeper—>hadoop

1.stop-hbase.sh
2.zkServer.sh stop(每个节点都要关闭)
3.stop-yarn.sh
4.stop-dfs.sh

5. 查看端口进程占用情况

netstat -alnp | grep 8031
lsof -i:8031
ps -ef | grep idea

杀死进程

// 强制关闭
kill -9 PID
// 正常关闭
kill -5 PID

6. 其他问题(后续补充)…

一、HBase无法正常关闭,输入stop-hbase.sh,出现stop hbase……….

解决方案:

  1. 首先输入start-hbase.sh,然后就会出现进程运行的端口号;
  2. 分别在主节点与子节点关闭进程,使用kill -9 端口号关闭;
  3. 关闭之后,输入stop-hbase.sh,发现可以正常关闭了;
  4. 输入jps,看见hbase的进程确实被停掉了,HMaster没有了。

二、hadoop启动后jps查不到namenode

解决方案:

  1. 查看一下自己的hadoop的日志文件(hadoop安装目录/logs),找到namenode的log文件,直接Shift+g跳转到文件最下行,查看报错信息;
  2. 如果显示的是 java.net.BindException,表示端口号被占用,找到端口号kill掉;

三、Hbase启动后,子节点上没有Hregionserver进程

解决方案:

  1. 输入date,检查时间是否同步,Hbase默认的容忍间隔是30;修改各服务器时间 保证间隔在30s以内,或者使各服务器跟同一个服务器时间保持同步;
  2. 最简单的方法:sudo date -s 13:50:00 #这个时间是当下的标准时间;
  3. 再次启动Hbase集群
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值