HDFS FileSystem使用的坑

在初次使用HDFS客户端下载文件时,很容易写出下面的代码

FileSystem fileSystem = FileSystem.get(uri, conf, "hadoopuser");
// 使用fileSystem做操作
try (BufferedReader br =
                     new BufferedReader(
                         new InputStreamReader(fileSystem.open(new Path("/data.txt"))))) {
	// 读取文件
}

看起来还使用了try-with-resource, 以为最后fileSystem会被关闭,实际上 fileSystem.open() 返回了 FSDataInputStream后就不管了。
fileSystem 本身还是存在的,并没有关闭。

如果fileSystem没有关闭会出现什么情况?

稍微跟一下代码就会知道,FileSystem 里面有一个静态的缓存Map,

  /** FileSystem cache */
  static final Cache CACHE = new Cache();

如果采用默认配置:fs.hadoopuser.impl.disable.cachefalse,也就是开启缓存,每次会从CACHE里获取。

  public static FileSystem get(URI uri, Configuration conf) throws IOException {
    ...
    String disableCacheName = String.format("fs.%s.impl.disable.cache", scheme);
    if (conf.getBoolean(disableCacheName, false)) {
      return createFileSystem(uri, conf);
    }

    return CACHE.get(uri, conf);
  }

而这个缓存里的key构造如下:

    FileSystem get(URI uri, Configuration conf) throws IOException{
      Key key = new Key(uri, conf);
      return getInternal(uri, conf, key);
    }
    
    static class Key {
      final String scheme;
      final String authority;
      final UserGroupInformation ugi;
      final long unique;   // an artificial way to make a key unique

      Key(URI uri, Configuration conf, long unique) throws IOException {
        scheme = uri.getScheme()==null ?
            "" : StringUtils.toLowerCase(uri.getScheme());
        authority = uri.getAuthority()==null ?
            "" : StringUtils.toLowerCase(uri.getAuthority());
        this.unique = unique;
        
        this.ugi = UserGroupInformation.getCurrentUser();
      }
      @Override
      public int hashCode() {
        return (scheme + authority).hashCode() + ugi.hashCode() + (int)unique;
      }

我们都知道map是根据hashcode来判断key是否相同的,来前面的scheme, authority,unique都是一样的,而 this.ugi = UserGroupInformation.getCurrentUser(); 跟到最后发现,这个 ugi里每次都new了一个新对象,所以,缓存CACHE会无限增加,最终OOM。

为什么会出现这种情况?

其实,如果你只是在一个方法里完成上述过程,即便 FileSystem没有被关闭,也会在方法结束后被GC给回收了。
问题就在于 FileSystem.get(uri, conf, "hadoopuser")比较耗时,所以,程序里一般会复用一个 FileSystem, 我们以为每次获取的是一个实例,谁知道是不同的,因为是静态资源,所以得不到回收,这就导致实例在内存堆积。

如何解决?

其实解决方法也很简单:

  1. 每次使用后就关闭
  2. 修改代码能够利用缓存

方法1 就不说了。

方法2,肯定不是让我们去修改 HDFS Client的代码,而是修改应用代码:

    private FileSystem getFileSystem() throws IOException, URISyntaxException {
        Configuration conf = HadoopUtils.getHadoopConfiguration(hdfsConfig.getConfigDir());
        String hdfsPath = hdfsConfig.getPath();
        System.setProperty("HADOOP_USER_NAME", hadoopUser);
        return FileSystem.get(new URI(hdfsPath), conf);
    }

重点就在 System.setProperty("HADOOP_USER_NAME", hadoopUser);, 之前我们将用户传进去,现在我们通过环境变量设置 HADOOP_USER_NAME的方式传用户,问题就解决了。

为什么?
实际上,我们的应用一般不会和Hadoop集群部署在一起,所以一般是没有这个环境变量的,而这个环境变量是Hadoop根据Java安全策略构造 ugi 的选择,有了这个用户,每次获取到的 ugi 就是一样的了。

### 回答1: 这个错误提示意思是:HDFS 没有文件系统。 HDFSHadoop 分布式文件系统的缩写,它是 Hadoop 生态系统中的一个重要组成部分,用于存储和管理大规模数据。如果出现“no filesystem for scheme hdfs”错误,可能是由于以下原因: 1. HDFS 服务未启动或未正常运行; 2. Hadoop 配置文件中的 HDFS 配置有误; 3. Hadoop 集群中的节点之间无法正常通信。 需要根据具体情况进行排查和解决。 ### 回答2: “No filesystem for scheme hdfs” 意为“找不到 hdfs 文件系统”。这个错误一般出现在使用 Hadoop 文件系统时,在执行某些操作时无法找到 hdfs 文件系统。在 Hadoop 中,hdfs 是文件系统,与其他文件系统不一样,因此有些操作需要特别处理。 这个错误一般有以下几种可能的原因: 1. 没有正确配置 Hadoop:当配置文件中没有正确设置 Hadoop 的参数,无法正常连接到 hdfs 文件系统,就会出现这个错误。 2. 没有正确启动 Hadoop:如果 Hadoop 没有正确启动,就无法连接到 hdfs 文件系统,就会出现这个错误。 3. 访问权限不足:当用户没有访问 hdfs 文件系统的权限时,就无法连接到 hdfs 文件系统,就会出现这个错误。 4. hdfs 服务故障:如果 hdfs 服务出现故障,就会导致无法连接到 hdfs 文件系统,就会出现这个错误。 解决这个错误的方法有以下几个: 1. 检查配置文件:确认配置文件中 Hadoop 的参数是否正确,确保文件系统路径和访问端口等参数正确。 2. 检查 Hadoop 运行状态:确认 Hadoop 是否正确启动,且 hdfs 服务是否正常运行。 3. 确认访问权限:确认当前用户对于访问 hdfs 文件系统是否有足够的权限。 4. 检查 hdfs 服务:确认 hdfs 服务是否正常运行,是否存在故障。 总的来说,解决这个错误需要通过多方面的方法确定其原因,从而选择合适的解决方案。同时要确保 Hadoop 的版本和 hdfs 的版本匹配,也要保证运行环境的正确性,以确保可以正确连接到 hdfs 文件系统,从而执行各种操作。 ### 回答3: "No filesystem for scheme hdfs"是指Hadoop分布式文件系统(HDFS)未能找到可用的文件系统。HDFS是一种分布式文件系统,通常用于在大数据环境中存储和处理海量数据。它可以在多个计算机节点之间分配数据并进行并行处理。 当Hadoop集群试图读取或写入文件时,如果系统无法找到hdfs文件系统,就会出现此错误。这个问题通常与以下几个方面有关: 1. Hadoop配置文件:可能存在配置问题,导致Hadoop无法识别hdfs文件系统,或者尝试访问不存在的文件路径。 2. 网络连接:集群环境中节点之间的网络连接可能出现问题,导致无法访问hdfs文件系统。 3. 权限问题:用户可能需要适当的权限才能访问HDFS文件系统。 要解决这个问题,可以按以下步骤进行操作: 1. 检查Hadoop配置文件,确保hdfs文件系统正确配置并且文件路径正确。 2. 检查网络连接,确保所有节点之间的连接都正常。 3. 检查HDFS文件权限,确保已经给予适当的权限才能访问HDFS文件系统。 4. 重启Hadoop集群,以确保所有更改都已经生效。 总之,“No filesystem for scheme hdfs”是指HDFS文件系统无法找到可用文件系统。通过检查配置文件,网络连接和权限等方面,可以解决这个问题。当然,更可以调整代码的逻辑,将不正确的代码逐步更正或注释掉等方式来解决错误。
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值