hadoop文件配置

Hadoop

一、本地模式:

hadoop-env.sh

25 export JAVA_HOME=/root/training/jdk1.8.0_144

二、伪分布模式:
hdfs-site.xml

<!--表示数据块的冗余度,默认:3-->
<property>
   <name>dfs.replication</name>
   <value>1</value>
</property>

<!--是否开启HDFS的权限检查,默认true-->
<property>
   <name>dfs.permissions</name>
   <value>false</value>
</property>

core-site.xml

<!--配置NameNode地址,9000是RPC通信端口-->
<property>
   <name>fs.defaultFS</name>
   <value>hdfs://bigdata111:9000</value>
</property> 

<!--HDFS数据保存在Linux的哪个目录,默认值是Linux的tmp目录-->
<property>
   <name>hadoop.tmp.dir</name>
   <value>/root/training/hadoop-2.7.3/tmp</value>
</property> 

mapred-site.xml

#注:默认没有,需要自己创建 
#cp mapred-site.xml.template mapred-site.xml
<!--MR运行的框架-->
<property>
   <name>mapreduce.framework.name</name>
   <value>yarn</value>
</property> 

yarn-site.xml

<!--Yarn的主节点RM的位置-->
<property>
   <name>yarn.resourcemanager.hostname</name>
   <value>bigdata111</value>
</property> 

<!--MapReduce运行方式:shuffle洗牌-->
<property>
   <name>yarn.nodemanager.aux-services</name>
   <value>mapreduce_shuffle</value>
</property> 

配好后需要格式化namenode:

hdfs namenode -format

访问:通过Web界面

HDFS:  http://192.168.157.111:50070
Yarn:  http://192.168.157.111:8088

三、全分布模式
hadoop-env.sh

25 export JAVA_HOME=/root/training/jdk1.8.0_144

hdfs-site.xml

<!--表示数据块的冗余度,默认:3-->
    <property>
       <name>dfs.replication</name>
       <value>2</value>
    </property>

core-site.xml

<!--配置NameNode地址,9000是RPC通信端口-->
    <property>
       <name>fs.defaultFS</name>
       <value>hdfs://bigdata112:9000</value>
    </property> 

    <!--HDFS数据保存在Linux的哪个目录,默认值是Linux的tmp目录-->
    <property>
       <name>hadoop.tmp.dir</name>
       <value>/root/training/hadoop-2.7.3/tmp</value>
    </property>     

mapred-site.xml

#注:默认没有需要自己创建
#cp mapred-site.xml.template mapred-site.xml
<!--MR运行的框架-->
<property>
   <name>mapreduce.framework.name</name>
   <value>yarn</value>
</property> 

yarn-site.xml

<!--Yarn的主节点RM的位置-->
<property>
   <name>yarn.resourcemanager.hostname</name>
   <value>bigdata112</value>
</property> 

<!--MapReduce运行方式:shuffle洗牌-->
<property>
   <name>yarn.nodemanager.aux-services</name>
   <value>mapreduce_shuffle</value>
</property> 

slaves:

bigdata113
bigdata114

格式化nameNode:

hdfs namenode -format

把主节点上配置好的hadoop复制到从节点上

scp -r hadoop-2.7.3/ root@bigdata113:/root/training
scp -r hadoop-2.7.3/ root@bigdata114:/root/training

在主节点上启动

start-all.sh

Hbase

一、本地模式: 不需要HDFS,保存在Linux的文件系统

mkdir data

hbase-env.sh

export JAVA_HOME=/root/training/jdk1.8.0_144

conf/hbase-site.xml

<property>
  <name>hbase.rootdir</name>
  <value>file:///root/training/hbase-1.3.1/data</value>
</property>

启动HBase:

start-hbase.sh

二、伪分布模式 bigdata111
hbase-env.sh

HBASE_MANAGES_ZK    true  ---> 使用HBase自带的ZK

conf/hbase-site.xml

<!--HBase的数据保存在HDFS对应目录-->
<property>
  <name>hbase.rootdir</name>
  <value>hdfs://192.168.157.111:9000/hbase</value>
</property> 
<!--是否是分布式环境-->
<property>
  <name>hbase.cluster.distributed</name>
  <value>true</value>
</property>         

<!--配置ZK的地址-->
<property>
  <name>hbase.zookeeper.quorum</name>
  <value>192.168.157.111</value>
</property>             

<!--冗余度-->
<property>
  <name>dfs.replication</name>
  <value>1</value>
</property> 

regionservers:配置从节点地址

192.168.157.111

三、全分布模式:bigdata112 bigdata113 bigdata114
hbase-env.sh

export JAVA_HOME=/root/training/jdk1.8.0_144
HBASE_MANAGES_ZK    true  ---> 使用HBase自带的ZK

conf/hbase-site.xml

<!--HBase的数据保存在HDFS对应目录-->
<property>
  <name>hbase.rootdir</name>
  <value>hdfs://192.168.157.112:9000/hbase</value>
</property> 

<!--是否是分布式环境-->
<property>
  <name>hbase.cluster.distributed</name>
  <value>true</value>
</property>         

<!--配置ZK的地址-->
<property>
  <name>hbase.zookeeper.quorum</name>
  <value>192.168.157.112</value>
</property>             

<!--冗余度-->
<property>
  <name>dfs.replication</name>
  <value>2</value>
</property> 

<!--主节点和从节点允许的最大时间误差-->
<property>
  <name>hbase.master.maxclockskew</name>
  <value>180000</value>
</property> 

regionservers:配置从节点地址

192.168.157.113
192.168.157.114

复制到其他节点上

scp -r hbase-1.3.1/ root@bigdata113:/root/training
scp -r hbase-1.3.1/ root@bigdata114:/root/training

Hive

一、嵌入模式
conf/hive-site.xml

<?xml version="1.0" encoding="UTF-8" standalone="no"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration>
<property>
   <name>javax.jdo.option.ConnectionURL</name>
   <value>jdbc:derby:;databaseName=metastore_db;create=true</value>
</property>

<property>
   <name>javax.jdo.option.ConnectionDriverName</name>
   <value>org.apache.derby.jdbc.EmbeddedDriver</value>
</property>

<property>
   <name>hive.metastore.local</name>
   <value>true</value>
</property>

<property>
   <name>hive.metastore.warehouse.dir</name>
   <value>file:///root/training/apache-hive-2.3.0-bin/warehouse</value>
</property>

</configuration>

初始化Derby数据库

schematool -dbType derby -initSchema

二、本地模式
hive-site.xml

#重新创建hive-site.xml
<?xml version="1.0" encoding="UTF-8" standalone="no"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration>
<property>
   <name>javax.jdo.option.ConnectionURL</name>
   <value>jdbc:mysql://localhost:3306/hive?useSSL=false</value>
</property>

<property>
   <name>javax.jdo.option.ConnectionDriverName</name>
   <value>com.mysql.jdbc.Driver</value>
</property>

<property>
   <name>javax.jdo.option.ConnectionUserName</name>
   <value>hiveowner</value>
</property>

<property>
   <name>javax.jdo.option.ConnectionPassword</name>
   <value>Welcome_1</value>
</property>

</configuration>

将mysql的jar包放到lib目录下
初始化MySQL

schematool -dbType mysql -initSchema

keeper集群

conf/zoo.cfg

dataDir=/root/training/zookeeper-3.4.10/tmp
server.1=bigdata112:2888:3888
server.2=bigdata113:2888:3888
server.3=bigdata114:2888:3888

在/root/training/zookeeper-3.4.10/tmp下创建一个文件 myid

vi myid
1

将配置好的ZK复制到其他节点上

scp -r zookeeper-3.4.10/ root@bigdata113:/root/training
scp -r zookeeper-3.4.10/ root@bigdata114:/root/training

修改bigdata113和bigdata114上的myid文件

HUE

一、解压安装
1、环境准备
挂载光盘(rhel-server-7.4-x86_64-dvd.iso):

mount /dev/cdrom /mntpm

创建rpm源文件:

vi /etc/yum.repos.d/rhel7.repo
[rhel-yum]
name=rhel7
baseurl=file:///mnt
enabled=1
gpgcheck=0

执行以下命令:

yum install gcc g++ libxml2-devel libxslt-devel cyrus-sasl-devel cyrus-sasl-gssapi mysql-devel python-devel python-setuptools sqlite-devel ant ibsasl2-dev libsasl2-modules-gssapi-mit libkrb5-dev libtidy-0.99-0 mvn openldap-dev libffi-devel gmp-devel openldap-devel

2、解压:

tar -xvf hue-4.0.1.tgz

2、编译安装:

PREFIX=/root/training/ make install     ----> 将HUE安装到/root/training/hue

添加用户hue

adduser hue
chown -R hue.hue /root/training/hue/

二、文件配置
hdfs-site.xml

<property>
   <name>dfs.webhdfs.enabled</name>
   <value>true</value>
</property>

core-site.xml
<property>
   <name>hadoop.proxyuser.root.hosts</name>
   <value>*</value>
</property>                 

<property>
   <name>hadoop.proxyuser.root.groups</name>
   <value>*</value>
</property>                     

配置HUE:核心配置文件 desktop/conf/hue.ini

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值