参考:
Hadoop安装:https://blog.csdn.net/liaoningxinmin/article/details/85992752 (注意点很多,ssh权限,example后缀server与client打开)
hbas安装:
http://dblab.xmu.edu.cn/blog/822-2/ (着重注意hbase dir与hadoop core-site 地址一致)
hbase链接hdfs,zookeeper问题:
1、zookeeper启动问题:
java.io.FileNotFoundException: /usr/local/logs/zookeeper/myid (Permission denied)
这个需要把conf下hbase-site下zookeeper设置的目录给与权限,并且提前创建好
2、hbase shell下 create 卡死不动
这需要在dfs运行状态下去hadoop bin下把安全模式关闭;执行hdfs dfsadmin -safemode leave
然后hdfs dfsadmin -safemode get是查看状态,为off即可
hadoop yarn伪分布启动问题
Starting resourcemanager
ERROR: Cannot set priority of resourcemanager process 3046
需要去 /usr/local/Cellar/hadoop/3.2.1_1//usr/local/Cellar/hadoop/3.2.1_1/libexec/bin下更改yarn文件,改成root
HADOOP_SHELL_EXECNAME="root"
如果是datanode namenode出现同样问题可以来 /usr/local/Cellar/hadoop/3.2.1_1//usr/local/Cellar/hadoop/3.2.1_1/libexec/bin下更改hdfs文件,改成root
HADOOP_SHELL_EXECNAME="root"
另外伪分布hbase基本只需要dfs运行就行,不需要同时打开yarn;然后zookeeper在hbase里设置里设置自动调动执行即可
hdfs dfs常见命令
参考:https://blog.csdn.net/yilushunfengli/article/details/99728362
hdfs命令:
ls
格式:hdfs dfs -ls path
作用:类似于linux的ls命令,显示文件列表
hdfs dfs -ls /
lsr
格式:hdfs dfs -lsr path
作用:在整个目录下递归执行ls,与lunix中的ls -R 类似
hdfs dfs -lsr /
mkdir
格式:hdfs dfs [-p] -mkdir path
作用:创建目录,-p表示可以递归创建目录
put
格式:hdfs dfs -put
作用:将单个的源文件 或者多个源文件从本地文件系统拷贝到目标文件系统中
hdfs dfs -put /rooot/a.txt /dir1
moveFromLocal
格式:hdfs dfs -moveFromLocal
作用:和put命令类似,但是源文件localsrc拷贝之后自身被删除
hdfs dfs -moveFromLocal /root/install.log /
get
格式:hdfs dfs -get [-ignorecrc] [-src]
作用:将文件拷贝到本地文件系统。CRC 校验失败的文件通过-ignorecrc选项拷贝。
hdfs dfs -get /install.log /export/servers
mv
格式:hdfs dfs -mv URI dest
作用:将hdfs上的文件从原路径移动到目标路径(移动之后文件删除),该命令不能跨文件系统
hdfs dfs - mv /dir1/a.txt /dir2
rm
格式:hdfs dfs -rm [-r] [-skopTrash ] URI
作用:删除参数指定的文件,参数可以是多个,该命令只删除文件和非空目录。
如果指定-skipTrash 选项,name在回收站可用的情况下,该选项将跳过回收站而直接删除文件,否则在回收站可用时,在HDFS Shell 中执行此命令,会将文件暂时放到回收站中。
hdfs dfs -rm -r /dor1
cp
格式:hdfs dfs -cp URI
作用:将文件拷贝到目标路径中。
-f 选项将覆盖目标,如果它已经存在
-p 选项将保留文件属性(例如:时间戳,权限等)
hdfs dfs -cp /dir1/a.txt /dir2/b.txt
cat
格式:hdfs dfs -cat URI
作用:将参赛所指示的文件内容输出到(查看日志一般)
hdfs dfs -cat /install.log
chmod
格式: hdfs dfs -chmod [-R] URI
作用:改变文件权限。如果使用 -R 选项,则对整个目录有效递归执行。使用这一命令的用户必须是文件的所属用户,或者超级用户
hdfs dfs -chmod -R 777 /install.log
chown
格式: hdfs dfs -chown [-R] URI
作用:改变文件的所属用户和用户组,如果使用-R 则递归
hdfs dfs -chown -R hadoop:hadoop /install.log
appendToFile
格式:hdfs dfs -appendToFile localsrc dst
作用:追加一个或者多个文件到hdfs 指定文件中
hdfs dfs -appenToFile a.xm b.xml /big.xml
hdfs的高级命令
hdfs dfs -count -q -h /user 查看配额信息
数量限额
hdfs dfs -mkdir -p /user /dir 创建hdfs文件夹
hdfs dfsadmin -setQuota 2 dir 给该文件夹下面设置最多上传2个文件,发现只能上传一个文件(原因是默认该文件已经算一个)
hdfs dfsadmin -clrQuota /user/dir 清除文件数量限制
空间大小限额
在设置空间配额时,设置的空间大小只是是block_size*3
hdfs dfsadmin -setSpaceQuota 4k /user/dir 限制空间大小为4K
生成任意大小文件的命令:
dd if=/dev/zero of =1.txt bs =1M count =2 生成2M的文件,名称为1.txt
安全模式操作命令
hdfs dfsadmin -safemode get 查看安全模式状态
hdfs dfsadmin -safemode enter 进入安全模式
hdfs dfsadmin -safemode leave 离开安全模式
hbase 常见命令
参考:https://www.jianshu.com/p/2c8722328ac7
https://blog.csdn.net/m0_37809146/article/details/91128061
创建表
create ‘表名’,’列族1’,’列族2’,…’列族n’
craete 'user','info1','info2'
查看所有表
list
描述表
describe 'user'
删除表
drop 'user'
添加数据
put 'user','1234','info1:name','zhangsan'
扫描整个表
scan 'user'
查询整表数 count 'user'
查询某一行 get 'user','1234'