1、ssh-host-config -y <cywin 命令 >
开启 一个主机认证。
2、bin/start-all.sh
开启 hadoop的命令 ,所有命令,不过我的机器好像没有全部开启。
3、jps
检查开启的状况。全部开启有5个:分别是namenode,dataname, secondarynamenode, jobtracker,tasktraker.
4、单个开启
bin/hadoop-daemon.sh start namenode;
bin/hadoop-daemon.sh start dataname;
bin/hadoop-daemon.sh start secondarynamenode;
bin/hadoop-daemon.sh start jobtracker;
bin/hadoop-daemon.sh start tasktraker;
5、关闭:
bin/stop-all.sh(全部关闭);
单个关闭:
Bin/hadoop-deamon.sh stop namenode;
6、文件系统dfs/fs
Bin/hadoop dfs –help 寻求帮助。
7、查看hdfs 上的文件
Bin/hadoop dfs –ls;
8、新建文件 Bin/hadoop dfs –mkdir “/mydir”;(出现问题 安全模式下不能建立)
解决方案;关闭安全模式:bin/hadoop dfsadmin –saftmode leave (关闭安全模式4)、
bin/hadoop dfs -touchz"mydir/a.txt" ;(创建一个空的文件)
9、文件相关的其他命令;
-mv <src> <dst> ;移动
-cp <src> <dst> ; 复制
-rm <src> ;删除
从本地文件复制到hdfs文件:
-copyFromLocal
-cat 查看文件内容:
-count 计算有多少个文件: 如:bin/hadoop dfs -count "/"
10、dfsadmin <文件管理命令>
hadoopdfsadmin [-report] [-safemode <enter | leave | get | wait>]
lunix常用命令:
相对路径. .. ~
相对路径 | . .. ~ |
目录跳转 | cd xxx |
创建文件 | touch |
查看文件 | more、cat |
查看目录 | ls –alR |
创建目录 | mkdir -p |
复制文件 | cp |
删除文件 | rm –r xxx |
修改文件权限 | chmod –R 700 |
修改文件(夹)的所有者 | chown –R root:root xxx |
查看文件属性 | stat |
压缩文件 | tar –xzvf xxx |
修改密码 | passwd xxx |
查看磁盘空间 | df -ah |
查看进程 | ps -ef |grep |
杀掉进程 | kill -9 |
修改环境变量 | vi /etc/profile |
修改主机名 | vi /etc/sysconfig/network vi /etc/hosts |
修改ip地址 | vi /etc/sysconfig/network-scripts/ifcfg-eth0 |
关闭防火墙 | service iptables stop chkconfig iptables off |
关闭selinux | setenforce permissive 修改/etc/selinux/config |