java hdfs ha_Java API操作HA方式下的Hadoop

通过java api连接Hadoop集群时,如果集群支持HA方式,那么可以通过如下方式设置来自动切换到活动的master节点上。其中,ClusterName是可以任意指定的,跟集群配置无关,dfs.ha.namenodes.ClusterName也可以任意指定名称,有几个master就写几个,后面根据相应的设置添加master节点地址即可。

static String ClusterName = "nsstargate";

private static final String HADOOP_URL = "hdfs://"+ClusterName;

public static Configuration conf;

static {

conf = new Configuration();

conf.set("fs.defaultFS", HADOOP_URL);

conf.set("dfs.nameservices", ClusterName);

conf.set("dfs.ha.namenodes."+ClusterName, "nn1,nn2");

conf.set("dfs.namenode.rpc-address."+ClusterName+".nn1", "172.16.50.24:8020");

conf.set("dfs.namenode.rpc-address."+ClusterName+".nn2", "172.16.50.21:8020");

//conf.setBoolean(name, value);

conf.set("dfs.client.failover.proxy.provider."+ClusterName,

"org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider");

conf.set("fs.hdfs.impl", "org.apache.hadoop.hdfs.DistributedFileSystem");

}

上传文件到HDFS的代码如下,至于读取等其他操作,可以参考网络上其他文章。

/**

* 上传文件到HDFS上去

*/

private static void uploadToHdfs() throws IOException {

String localSrc = "E:\\test\\article01.txt";

String dst = "/user/test/article04.txt";

FileSystem fs = FileSystem.get(URI.create(HADOOP_URL), conf);

long start = new Date().getTime();

/* InputStream in = new FileInputStream(localSrc);

InputStreamReader isr = new InputStreamReader(in, "GBK");

OutputStream out = fs.create(new Path(HADOOP_URL+dst), true);

IOUtils.copy(isr, out, "UTF8");*/

//该方法更快

FSDataOutputStream outputStream=fs.create(new Path(dst));

String fileContent = FileUtils.readFileToString(new File(localSrc), "GBK");

outputStream.write(fileContent.getBytes());

outputStream.close();

long end = new Date().getTime();

System.out.println("use:"+(end-start));

}

注:如果需要指定hdfs目录或者文件的权限、属主,可以使用如下代码:

System.setProperty("HADOOP_USER_NAME", "username"); //指定属主

fs.setPermission(path, new FsPermission(FsAction.ALL, FsAction.ALL, FsAction.ALL)); //给文件path设置权限

//以下方式也可以设置文件属主

FileSystem fs = FileSystem.get(URI.create(hdfsFile), conf, "hdfs");

另外也可以使用如下方式写文件:

FSDataOutputStream fos = null;

OutputStreamWriter osw = null;

BufferedWriter bw = null;

String path = "/tmp/aa.txt";

String data="这是需要写入的数据";

try{

Path hdfsPath = new Path(path);

FileSystem hdfs = FileSystem.get(conf);

fos = hdfs.create(hdfsPath);

//指定文件编码

osw = new OutputStreamWriter(fos, "UTF-8");

bw = new BufferedWriter(osw);

bw.append(data);

bw.flush();

log.info("write data to hdfs finish.");

}finally {

closeIO(bw,osw,fos);

}

使用到的jar包如下图,大部分都可以在hadoop的安装包里找到,也可以在maven上下载。

8fb974831b5e18d90ce86d39340abd46.png

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
搭建Hadoop HA(高可用)需要以下步骤: 1. 安装ZooKeeper Hadoop HA需要ZooKeeper来协调节点之间的状态信息。因此,需要先安装ZooKeeper。可以从官网下载并安装。 2. 配置Hadoop 需要修改Hadoop的配置文件,以启用HA模式。可以修改以下文件: - core-site.xml ``` <configuration> <property> <name>fs.defaultFS</name> <value>hdfs://namenode1:8020,hdfs://namenode2:8020</value> </property> <property> <name>ha.zookeeper.quorum</name> <value>zknode1:2181,zknode2:2181,zknode3:2181</value> </property> </configuration> ``` - hdfs-site.xml ``` <configuration> <property> <name>dfs.namenode.name.dir</name> <value>/hadoop/hdfs/namenode</value> </property> <property> <name>dfs.nameservices</name> <value>mycluster</value> </property> <property> <name>dfs.ha.namenodes.mycluster</name> <value>nn1,nn2</value> </property> <property> <name>dfs.namenode.rpc-address.mycluster.nn1</name> <value>namenode1:8020</value> </property> <property> <name>dfs.namenode.rpc-address.mycluster.nn2</name> <value>namenode2:8020</value> </property> <property> <name>dfs.namenode.http-address.mycluster.nn1</name> <value>namenode1:50070</value> </property> <property> <name>dfs.namenode.http-address.mycluster.nn2</name> <value>namenode2:50070</value> </property> <property> <name>dfs.client.failover.proxy.provider.mycluster</name> <value>org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider</value> </property> </configuration> ``` 3. 启动Hadoop 启动Hadoop前需要先格式化NameNode: ``` hdfs namenode -format ``` 然后启动NameNode和DataNode服务: ``` start-dfs.sh ``` 4. 启动ZooKeeper 启动ZooKeeper服务: ``` zkServer.sh start ``` 5. 验证HA 使用以下命令可以查看Hadoop HA状态: ``` hdfs haadmin -getServiceState nn1 hdfs haadmin -getServiceState nn2 ``` 如果状态为active,则表示该NameNode正在运行。如果状态为standby,则表示该NameNode处于备份状态。 以上就是搭建Hadoop HA的完整操作步骤。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值