atlas安装(基于内置habse及solr)

官网下载适当版本

地址 https://atlas.apache.org/#/Downloads,本次安装使用2.1.0版本,基于内置solr及hbase;

源码编译安装

需依赖maven、jdk、python等,此过程可能会很长,因此在此给大家提供一个编译好的版本atlas-2.1.0.tar.gz
使用内置solr及hbase:

mvn clean -DskipTests package -Pdist,embedded-hbase-solr

不使用内嵌solr及hbase:

mvn clean -DskipTests package -Pdist

编译完成后,找到对应文件,并解压到指定目录:

${ATLAS_HOME}/distro/target/apache-atlas-2.1.0-server.tar.gz
tar -zxvf apache-atlas-2.1.0-server.tar.gz

启动atlas

在解压目录中找到bin目录,运行可执行文件:

./atlas_start.py

待出现如下提示时,说明atlas自认为启动成功:

Apache Atlas Server started!!!

此时可通过curl检查是否启动完成:

curl http://localhost:21000

如果出现503提示,说明atlas启动失败。。。

HTTP ERROR: 503

因为atlas启动需依赖hbase、solr及kafka,此时可查看对应组件启动日志,并停止atlas服务后,手动启动hbase及solr服务后,再次尝试启动atlas,此时需先关闭之前启动的atlas服务;

手动启动hbase

可通过jps命令确认hbase是否启动成功,启动失败时通过日志定位问题;

hbase命令所在目录:
~/hbase/bin
启动命令:
./start-hbase.sh
hbase日志所在目录:
~/hbase/logs

手动启动solr

solr可以替换为es(此处不做尝试,因为尝试了,失败了),特别注意:solr直接使用root用户启动时会有异常,需要加特定参数,具体可查看solr启动日志,命令如下(适用全部用户):

solr明林所在目录:
~/solr/bin
solr启动命令:
#zk地址可自行调整 localhost:2181为hbase启动时所用的zk地址
./solr start -c -z localhost:2181 -p 9838 -force
solr日志所在目录:
~/solr/server/logs
启动成功后可使用浏览器验证:
http://ip:9838/solr/#/

验证solr启动成功之后,需手动创建索引,如果出现Created collection标识创建成功:

./solr create -c vertex_index -shards 1 -replicationFactor 1 -force
./solr create -c edge_index -shards 1 -replicationFactor 1 -force
./solr create -c fulltext_index -shards 1 -replicationFactor 1 -force

再次尝试启动atlas

./atlas_start.py

待再次启动后,继续尝试使用curl命令确认服务是否启动成功;
如果仍旧为503,可根据服务日志确认具体信息:

atlas本身日志位置:
~/logs

如果日志中大量出现拒绝连接异常,这可能是由于kafka启动异常导致,可手动自行配置kafka地址,或者尝试修改kafka配置:

配置文件:
~/conf/atlas-application.properties
配置项:
#标识是否使用内置kafka
atlas.notification.embedded=true
atlas.kafka.data=${sys:atlas.home}/data/kafka
#kafka zk地址
atlas.kafka.zookeeper.connect=localhost:9026
#kafka服务地址
atlas.kafka.bootstrap.servers=localhost:9027
atlas.kafka.zookeeper.session.timeout.ms=400
atlas.kafka.zookeeper.connection.timeout.ms=200
atlas.kafka.zookeeper.sync.time.ms=20
atlas.kafka.auto.commit.interval.ms=1000
atlas.kafka.hook.group.id=atlas

atlas使用kafka目的:atlas的hbase或者hive的hook,通过kafka消息发送元数据变化信息至atlas,具体topic为:

#实际测试,只有ATLAS_HOOK可以正常接收并解析消息,不知道是不是本人测试的有问题
atlas.notification.topics=ATLAS_HOOK,ATLAS_ENTITIES

修改完毕kafka配置后,尝试再次重启服务,依次启动hbase、solr、atlas,再次启动solr时不需要重复创建索引;

如果你发现你改完kafka对应的zk地址之后,任然无法正常访问服务,这时可以尝试把kafka的zk地址切换回原来的9026,再次尝试(由于本身非专业运维,不确定是本身操作问题还是atlas本身bug,但是这样确实能解决问题)。

至此,atlas启动成功,可在浏览器通过http://ip:21000/访问服务,默认账号密码为admin:admin。

  • 2
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值