Centos7.2 安装Hadoop、Hbase、Elasticsearch与JanusGraph并配置Http访问

JanusGraph是分布式图数据库,前身是Titan。JanusGraph是Titan的一个fork。Titan项目创建于2012年,于2016年停止维护,2017年,JanusGraph项目fork了Titan,直至今天。所以建议大家优选JanusGraph,当然Titan依然是可用的。

JanusGraph支持多种后端和索引,这里博主选择Hbase与Elasticsearch。大家在安装之前,请一定参考相关版本的兼容性。这里博主使用:

Centos7.2

jdk-8u191-linux-x64.rpm

hadoop-2.7.6

zookeeper-3.4.9

hbase-1.2.6

elasticsearch-5.6.5

janusgraph-0.3.1-hadoop2

这里JanusGraph使用hbase做后端、elasticsearch做索引,并且在单节点进行伪分布式的配置。所以首先安装jdk,安装之前请先卸载系统自动的jdk。

一、安装Java环境

1、下载 jdk-8u191-linux-x64.rpm

2、安装jdk:

rpm -ivh jdk-8u191-linux-x64.rpm

安装成功之后即可使用 java -version 查看java的信息。但是为了后续安装,还是建议配置java环境变量。

3、配置java环境变量:

vim /etc/profile

在最后面加上:

export JAVA_HOME=/usr/java/jdk1.8.0_191-amd64
export JRE_HOME=/usr/java/jdk1.8.0_191-amd64/jre
export PATH=$PATH:$JAVA_HOME/bin:$JRE_HOME/bin
export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar:$JRE_HOME/lib

保存后使环境变量生效:

source /etc/profile

二、关闭禁用防火墙:

systemctl stop firewalld.service

systemctl disable firewalld.service

三、安装Hadoop:

为了避免后续安装问题,安装的Hadoop一定要根据Hbase的兼容性选择版本。

1、下载hadoop-2.7.6.tar.gz

2、解压:

tar -xzvf hadoop-2.7.6.tar.gz

3、配置环境变量,在/etc/profile之后加上:

export HADOOP_HOME=/data/janus/hadoop-2.7.6
export PATH=$PATH:$JAVA_HOME/bin:$JRE_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

source /etc/profile

4、配置hadoop-2.7.6/etc/hadoop/slaves:

将localhost改成master  (master为hostname)

5、配置hadoop-2.7.6/etc/hadoop/hadoop-env.sh:

export JAVA_HOME=/usr/java/jdk1.8.0_191-amd64

改为实际的java地址。

6、配置hadoop-2.7.6/etc/hadoop/core-site.xml:

<configuration>
    <property> 
        <name>fs.defaultFS</name>
        <value>hdfs://master:9000</value> 
    </property> 
    <property> 
        <name>hadoop.tmp.dir</name>
        <value>data/janus/hadoop-2.7.6/tmp</value> 
    </property> 	
</configuration>

data/janus/hadoop-2.7.6为hadoop的解压目录

7、配置hadoop-2.7.6/etc/hadoop/hdfs-site.xml:

<configuration>
    <property> 
        <name>dfs.namenode.name.dir</name> 
        <value>data/janus/hadoop-2.7.6/dfs/name</value> 
    </property> 
    <property>
        <name>dfs.datanode.data.dir</name>
        <value>data/janus/hadoop-2.7.6/dfs/data</value> 
    </property> 
    <property>
        <name>dfs.replication</name>
        <value>1</value> 
    </property>
    <property> 
        <name>dfs.namenode.secondary.http-address</name> 
        <value>master:9001</value> 
    </property> 
    <property>
        <name>dfs.webhdfs.enabled</name>
        <value>true</value> 
    </property>
</configuration>

建议在data/janus/hadoop-2.7.6下先创建name与data文件夹,并赋予777权限。

8、配置hadoop-2.7.6/etc/hadoop/yarn-site.xml:

<configuration>
    <property>
        <name>yarn.nodemanager.aux-services</name> 
        <value>mapreduce_shuffle</value> 
    </property> 
    <property> 
        <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name> 
        <value>org.apache.hadoop.mapred.ShuffleHandler</value> 
    </property> 
    <property>
        <name>yarn.resourcemanager.address</name> 
        <value>master:8032</value> 
    </property> 
    <property>
        <name>yarn.resourcemanager.scheduler.address</name> 
        <value>master:8030</value> 
    </property> 
    <property>
        <name>yarn.resourcemanager.resource-tracker.address</name>  
        <value>master:8031</value> 
    </property> 
    <property>
        <name>yarn.resourcemanager.admin.address</name>   
        <value>master:8033</value> 
    </property> 
    <property>
        <name>yarn.resourcemanager.webapp.address</name> 
        <value>master:8034</value> 
    </property> 
</configuration>

9、配置hadoop-2.7.6/etc/hadoop/mapred-site.xml:

<configuration>
    <property>
        <name>mapreduce.framework.name</name> 
        <value>yarn</value> 
    </property> 
    <property>
        <name>mapreduce.jobhistory.address</name> 
        <value>master:10020</value> 
    </property> 
    <property> 
        <name>mapreduce.jobhistory.webapp.address</name> 
        <value>master:19888</value> 
    </property>
</configuration>

10、初始化:

在hadoop-2.7.6/下执行:

bin/hdfs namenode -format

11、启动hadoop:

sbin/start-all.sh (停止sbin/stop-all.sh)

12、在浏览器中通过:

IP:50070进行访问。

四、安装zookeeper

1、下载zookeeper-3.49.tar.gz

2、解压:

tar -vxf zookeeper-3.49.tar.gz

3、配置zookeeper-3.4.9/conf/zoo.cfg:

tickTime=2000
initLimit=10
syncLimit=5
dataDir=/data/install_pakage/zookeeper-3.4.9/data
clientPort=2181

4、启动:

bin/zkServer.sh start 

查看启动状态 bin/zkServer.sh status

五、安装hbase-1.2.6

1、下载hbase-1.2.6-bin.tar.gz

2、解压:

tar -xvf hbase-1.2.6-bin.tar.gz

3、添加环境变量:

export HBASE_HOME=/data/janus/hbase-1.2.6
export PATH=$PATH:$JAVA_HOME/bin:$JRE_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$HBASE_HOME/bin

4、配置hbase-1.2.6/conf/regionservers

改为master

5、配置hbase-1.2.6/conf/hbase-env.sh

export JAVA_HOME=/usr/java/jdk1.8.0_191-amd64/

6、配置hbase-1.2.6/conf/hbase-site.xml

<configuration>
    <property> 
        <name>hbase.rootdir</name>
        <value>hdfs://master:9000/opt/hbase/hbase_db</value>
    </property> 
    <property> 
        <name>hbase.cluster.distributed</name>
        <value>true</value> 
    </property>
    <property> 
        <name>hbase.zookeeper.quorum</name>
        <value>master</value> 
    </property>     
    <property><!--zookooper配置、日志等的存储位置 -->
        <name>hbase.zookeeper.property.dataDir</name> 
        <value>/data/janus/zookeeper-3.4.9/data</value>
    </property>	
</configuration>

7、启动hbase:

bin/start-hbase.sh

8、通过网页访问:

IP:16010

六、安装elasticsearch-5.6.5

1、下载elasticsearch-5.6.5.zip

2、elasticsearch-5.6.5不允许使用root用户,所以需要首先新建用户和用户组:

adduser es
passwd es

groupadd esg
usermod -G esg es

chmod -R 777 elasticsearch-5.6.5

chown -R es elasticsearch-5.6.5
chgrp -R esg elasticsearch-5.6.5

3、配置elasticsearch-5.6.5/config/jvm.options

-Xms2g
-Xmx2g
改为
-Xms256m
-Xmx256m

4、配置elasticsearch-5.6.5/config/elasticsearch.yml

cluster.name: my-application
node.name: node-1
network.host: 192.168.0.234
http.port: 9200

5、启动elasticsearch-5.6.5

./bin/elasticsearch

后台启动:./bin/elasticsearch -d

结束后台进程:

ps -ef | grep elastic

kill -9 进程号

6、通过网页访问:

IP:9200

七、安装janusgraph并配置HTTP访问:

1、下载janusgraph-0.3.1-hadoop2.zip

2、解压:

unzip janusgraph-0.3.1-hadoop2.zip

3、复制janusgraph-hbase-es.properties 为http-janusgraph-hbase-es.properties 放在janusgraph-0.3.1-hadoop2/conf/gremlin-server目录下,http-janusgraph-hbase-es.properties配置如下:

storage.backend = hbase
storage.hostname = master
cache.db-cache = true
cache.db-cache-clean-wait = 20
cache.db-cache-time = 180000
cache.db-cache-size = 0.5
index.search.backend = elasticsearch
index.search.hostname = master
gremlin.graph = org.janusgraph.core.JanusGraphFactory
storage.hbase.table = janus

4、复制gremlin-server.yaml为http-gremlin-server.yaml 放在janusgraph-0.3.1-hadoop2/conf/gremlin-server目录下,http-gremlin-server.yaml 更改下列配置如下:

host: 192.168.0.234
port: 8182
scriptEvaluationTimeout: 30000
channelizer: org.apache.tinkerpop.gremlin.server.channel.HttpChannelizer
graphs: {
  graph: conf/gremlin-server/http-janusgraph-hbase-es.properties
}

5、运行gremlin-server:

./bin/gremlin-server.sh conf/gremlin-server/http-gremlin-server.yaml

6、通过web接口访问:

IP:8182/?gremlin=100-10

结果如下:

  • 0
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值