1、java.lang.NoClassDefFoundError:javax/ws/rs/core/Link$Builder
主要原因:jsr311-api
包中javax.ws.rs.core
包中没有Link
类,而Atlas以HBase作为元数据存储,HBase本身使用的为javax.ws.rs-api
包中的core包,其中有Link类,所以调用脚本导入数据时会报以下错误
解决方式:编译前修改次级pom
主目录下
grep -rn jsr311-apii | grep pom.xml
addons/impala-bridge/pom.xml:332
addons/falcon-bridge/pom.xml:178
addons/hive-bridge/pom.xml:312:
addons/hbase-bridge/pom.xml:345:
addons/storm-bridge/pom.xml:360:
addons/sqoop-bridge/pom.xml:250:
这几个pom中jsr311-api改成javax.ws.rs-api
2、import hive时Hive ClassNotFoundException: Class org.apache.hadoop.hive.contrib.serde2.RegexSerDe not found
从官方下载jar包
下载这个jar包放到/opt/cloudera/parcels/CDH/lib/hive/lib下。导入hive数据时需要支持正则表达式的字段分隔方式,CDH的hive遇到此问题也可以相同处理 ,不用配置什么aux_java
3、could not convert given VERTEX index query 和atlasUserProfile with unique attribute {name=admin} does not exist
这两个报错都不重要,第一个是搜索的一个提示,第二个是官方的一个小bug ,官方解释是
This log message can be ignored. It should be logged at debug level, but is incorrectly logged at error level.
解决方案是
Save a search as ‘Favorite search’. This will create an user-profile entity in Atlas for the logged in user, and this error log will not be seen after this
4,无法实时监控hive元数据变化(比如创表后,Atlas没有自动加,消费kafka那个ATLAS_HOOK也没东西出来)
点击
查看你的kafka是否连接上 ,这是因为atlas没有连接上kafka 无法传递数据导致的
正常应该是这样