大数据Hbase,hive集群搭建

192.168.41.215 xmaster
192.168.41.216 xmaster2

查询网管型号
ip addr

修改IP
vi /etc/sysconfig/network-scripts/ifcfg-xxx

修改hosts
vi /etc/hosts

查看防火墙
systemctl status firewalld.service
关闭防火墙
systemctl stop firewalld.service
开机防火墙自动关闭
systemctl disable firewalld.service

免密登陆
ssh-keygen -t rsa
ssh-copy-id 主节点的IP
scp -rv /root/.ssh 子节点的IP

各个环境变量设置:
export JAVA_HOME=/home/jdk
export PATH=: P A T H : PATH: PATH:JAVA_HOME/bin

export HADOOP_HOME=/home/hadoop
export PATH=: P A T H : PATH: PATH:HADOOP_HOME/bin

export HBASE_HOME=/home/hbase
export PATH=: P A T H : PATH: PATH:HBASE_HOME/bin

export HIVE_HOME=/home/hive
export PATH=: P A T H : PATH: PATH:HIVE_HOME/bin

export MYSQL_HOME=/home/mysql
export PATH=: P A T H : PATH: PATH:MYSQL_HOME/bin

export ZOOKEEPER_HOME=/home/zookeeper
export PATH=: Z O O K E E P E R H O M E : ZOOKEEPER_HOME: ZOOKEEPERHOME:/bin

export SQOOP_HOME=/home/sqoop
export PATH=: S Q O O P H O M E : SQOOP_HOME: SQOOPHOME:/bin

export SPARK_HOME=home/spark
export PATH=: P A T H : PATH: PATH:SPARK_HOME/bin

***hadoop集群搭建修改的文件

编辑core-site.xml
vi core-site.xml

fs.defaultFS
hdfs://192.168.41.203:9000


hadoop.tmp.dir
/usr/hadoop/tmp

编辑hdfs-site.xml
vi hdfs-site.xml

dfs.replication
1

编辑mapred-site.xml
cp mapred-site.xml.template mapred-site.xml
vi mapred-site.xml

mapreduce.framework.name
yarn

编辑yarn-site.xml
vi yarn-site.xml

yarn.resourcemanager.hostname
192.168.41.203


yarn.nodemanager.aux-services
mapreduce_shuffle

编辑slaves
vi slaves
在显示出来的文件中只有localhost,在localhost前面加入“#”
在里面的文件添加:salve(子节点的名称)

编辑hadoop-env.sh
vi hadoop-env.sh
将文件中“export JAVA_HOME=${JAVA_HOME}”前加上“#”接着在下面添加:
export JAVA_HOME=/home/jdk

将hadoop拷贝到其他机器中
scp -rv /home/hadoop salve:/home/

初始化hadoop集群
hadoop namenode -format

启动hadoop
cd /home/hadoop/sbin/
./start-all.sh

***Hbase集群搭建修改的文件
修改hbase-env.sh
vi hbase-env.sh
export JAVA_HOME=/home/jdk
在里面找到“# export HBASE_MANAGES_ZK=true”中的“#”去掉

修改hbase-site.xml

hbase.rootdir
hdfs://192.168.41.215:9000/hbase


hbase.cluster.distributed
true


hbase.zookeeper.quorum
xmaster,xmaster2


hbase.zookeeper.property.dataDir
/home/hbase/zookeeper

编辑regionservers
vi regionservers
在出来的文件中添加: salve(也可是slave的IP,与6中必须保持一致)
文件中的localhost前面加“#”

拷贝hbase到其他的机器上
scp -rv /home/hbase slave:/home/

启动hbase集群
/home/hbase/bin/start-hbase.sh

***Hive集群搭建修改的文件
配置my.cnf
vi /etc/my.cnf
mv /etc/my.cnf /etc/my.cnf.bak
vi /etc/my.cnf
在出来的文件中添加:
[mysqld]
basedir=/home/mysql
datadir=/home/mysql/data
socket=/tmp/mysql.sock
lower_case_table_names=1
user=root
character-set-server=utf8
symbolic-links=0
[client]
default-character-set=utf8
[mysqld-safe]
log-error=/var/log/mysqld.log
pid-file=/var/run/mysqld/mysqld.pid

初始化数据库
/home/mysql/bin/mysqld --initialize-insecure --basedir=/home/mysql --datadir=/home/mysql/data --user=root

将mysql加入服务
cp /home/mysql/support-files/mysql.server /etc/init.d/mysql

设置mysql开机自启
chkconfig mysql on

启动mysql服务
service mysql start

mysql登陆
mysql -uroot -p
此时会要求输入密码,直接回车

设置密码
set password=password(‘ethink2018’);

创建hive数据库,为安装hive做准备
create database hive default charset utf8;

给mysql赋权root
grant all privileges on . to ‘root’@’%’ identified by ‘ethink2018’;

刷新权限
flush privileges;

修改Hive的配置文件hive-env.sh与hive-site.xml
cd hive/conf/
cp hive-env.sh.template hive-env.sh
cp hive-default.xml.template hive-site.xml
编辑hive-env.sh
在HADOOP_HOME=${bin}|…|…|hadoop下添加
HADOOP_HOME=/home/hadoop
编辑hive-site.xml

javax.jdo.option.ConnectionURL
jdbc:mysql://192.168.41.215:3306/hive?useSSL=false


javax.jdo.option.ConnectionDriverName
com.mysql.jdbc.Driver


javax.jdo.option.ConnectionPassword
ethink2018


javax.jdo.option.ConnectionUserName
root
Username to use against metastore database


hive.exec.local.scratchdir
/home/hive/iotmp
Local scratch space for Hive jobs


hive.downloaded.resources.dir
/home/hive/iotmp
Temporary local directory for added resources in the remote file system.

传输jar包(mysql-connect-java-5.1.40-bin.jar与jline-2.12.jar)
cp /home/mysql-connect-java-5.1.40-bin.jar /home/hive/lib/
cp jline-2.12.jar /home/hadoop/share/hadoop/yarn/lib/

启动测试Hive
cd /home/hive/bin/
./schematool -dbType mysql -initSchema

***Zookeeper集群搭建修改的文件
进入zookeeper的解压目录,新建目录data和log
cd /home/zookeeper
mkdir -v data
mkdir -v log

进入zookeeper的conf目录下,复制zoo_sample.cfg并命名为zoo.cfg
cd /home/zookeeper/conf
cp zoo_sample.cfg zoo.cfg
编辑zoo.cfg
vi zoo.cfg
在文件中:
tickTime=2000
initLimit=10
syncLimit=5
dataDir=/home/zookeeper/data
clientPort=2181
dataLogDir=/home/zookeeper/log
service.1=主节点的IP
service.2=子节点的IP

在zookeeper的data目录中新建一个文件myid(注意类型是文件不是目录!!!)。
这里到xftp6进行连接,到data目录下右键新建一个文件myid。

在master中修改myid
vi myid
添加数字 1

将zookeeper复制至从节点上
scp -r /home/zookeeper slave:/home/

在slave节点中修改myid文件,向里面添加数字 2

进入zookeeper的bin目录下,启动zookeeper
cd /home/zookeeper/bin
./zkServer.sh start

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值