一.kerbors下使用datax进行数据导出到hdfs有以下几种方式
1.(此法以测通)找到三个xml文件,core-site.xml hive-site.xml hdfs-site.xml
将这三个文件放到hdfswriter-0.0.1-SNAPSHOT.jar中
该jar包位于/opt/datax/plugin/writer/hdfswriter下
jar -ur hdfswriter-0.0.1-SNAPSHOT.jar core-site.xml
jar -ur hdfswriter-0.0.1-SNAPSHOT.jar hive-site.xml
jar -ur hdfswriter-0.0.1-SNAPSHOT.jar hdfs-site.xml
然后进行job的json文件配置,指定namenode的url即可,此种方式可以不再json文件中配置hadoopConfig;
添加文件到jar包可以直接下载下来用压缩软件打开,将文件移入即可,注意备份
2.如果不进行jar包内文件添加,可以在配置json文件时进行hadoopConfig配置参数的配置:
“defaultFS”: “hdfs://namecdh”,
“hadoopConfig”:{
“dfs.nameservices”: “namecdh”,
“dfs.ha.namenodes.namecdh”: “cdh01,cdh02”,
“dfs.namenode.rpc-address.aliDfs.cdh01”: “192.168.253.105:8020”,
“dfs.namenode.rpc-address.aliDfs.cdh02”: “192.168.253.106:8020”,
“dfs.client.failover.proxy.provider.namecdh”: “org.apache.hadoop.hdfs.server.nam
kerbors安全模式下使用开源datax
最新推荐文章于 2023-06-22 10:46:24 发布