Haddop+Hive 单机hadoop 单机hive

hadoop单机版
hive使用
首先确保linux环境已有java环境
使用jps命令 看下面四个进程 是hdsf(hadoop)必须要启动的进程
在这里插入图片描述
hadoop目录文件预览 注意使用目录
etc 配置
sbin 启动文件
share 例子jar
在这里插入图片描述
配置文件在etc/hadoop下面
需要修改的文件如下:内容可以自行百度 很简单 配个端口 主机名 内存等
在这里插入图片描述
start-all.sh 正常启动这个就可以了 如jps进程里看不到datanode 或者namenode 需要自行启动
./hadoop-daemon.sh start namenode
./hadoop-daemon.sh start datanode
在这里插入图片描述
首次启动之后 格式下一下
hadoop namenode -format
hadoop datanode -format

测试计算pi
在这里插入图片描述
访问ip:50070 查看页面
在这里插入图片描述
查看ip:8088
在这里插入图片描述
上面hdfs(hadoop)已基本构建完成,记得hdfs数据目录要给够权限 hadoop_home也要配置好

hive安装比较简单,需要hadoop的环境就可以了
看下目录结构
bin 启动
conf 配置
lib jar包 如果是mysql形式需要加入驱动jar包的
在这里插入图片描述
bin下有几种启动模式
1、本服务器上直接使用 ./hive 就能启动了 之后进入sql形式 去执行语句。
2、启动后台服务 远程连接 nphup hiveserver2 &;
3、也可以用 beeline -u jdbc:hive2://主机名或ip:10000 -n root
在这里插入图片描述
通过配置文件设置10002端口 可以访问hive ui页面

<property>
<name>hive.server2.webui.port</name>
<value>10002</value>
</property>

在这里插入图片描述
在lib下 放入MySQL驱动包 如下
在这里插入图片描述
在conf目录下
将template文件复制一个改名
将内容进行修改 具体可以百度
如果用mysql 需要修改site配置 加入mysql地址 用户名 密码 及库名 等
在这里插入图片描述
设置下hive_home环境变量 就完成了
可以启动尝试下
mysql先建个hive库 启动后初始化 会生成一些表 初始化命令(schematool -initSchema -dbType mysql)
在这里插入图片描述

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值