python读取hdfs上的parquet文件以及python访问hdfs HA的三种方法

python读取hdfs上的parquet文件

在使用python做大数据和机器学习处理过程中,首先需要读取hdfs数据,对于常用格式数据一般比较容易读取,parquet略微特殊。从hdfs上使用python获取parquet格式数据的方法(当然也可以先把文件拉到本地再读取也可以):

1、安装anaconda环境。

2、安装hdfs3。
      conda install hdfs3

3、安装fastparquet。
      conda install fastparquet

4、安装python-snappy。
      conda install python-snappy

5、读取文件

##namenode mode:
from hdfs3 import HDFileSystem
from fastparquet import ParquetFile

hdfs = HDFileSystem(host=IP, port=8020)
sc = hdfs.open

pf = ParquetFile(filename, open_with=sc)
df = pf.to_pandas()

##返回pandas的DataFrame类型


##HA mode:
from hdfs3 import HDFileSystem
from fastparquet import ParquetFile

host = "nameservice1"
conf = {
        "dfs.nameservices":"nameservice1",
        ......

}
hdfs = HDFileSystem(host = host, pars = conf)
......

python访问HDFS HA的三种方法

python访问hdfs常用的包有三个,如下:

1、hdfs3

其实从安装便捷性和使用上来说,并不推荐hdfs3,因为他的系统依赖和网络要求较高,但是某些情况下使用hdfs3会比较方便,官网资料点这里。如上面介绍,IP直接访问namenode:

from hdfs3 import HDFileSystem

hdfs = HDFileSystem(host=namenode, port=8020)
hdfs.ls('/tmp')

HA访问:

host = "nameservice1"
conf = {"dfs.nameservices": "nameservice1",
        "dfs.ha.namenodes.nameservice1": "namenode113,namenode188",
        "dfs.namenode.rpc-address.nameservice1.namenode113": "hostname_of_server1:8020",
        "dfs.namenode.rpc-address.nameservice1.namenode188": "hostname_of_server2:8020",
        "dfs.namenode.http-address.nameservice1.namenode188": "hostname_of_server1:50070",
        "dfs.namenode.http-address.nameservice1.namenode188": "hostname_of_server2:50070",
        "hadoop.security.authentication": "kerberos"
}
fs = HDFileSystem(host=host, pars=conf)


##或者下面这种配置
host = "ns1"
conf = {
        "dfs.nameservices":"ns1",
		"dfs.ha.namenodes.ns1":"namenode122,namenode115",
		"dfs.namenode.rpc-address.ns1.namenode122":"nnlab01:8020",
		"dfs.namenode.servicerpc-address.ns1.namenode122":"nnlab01:8022",
		"dfs.namenode.http-address.ns1.namenode122":"nnlab01:50070",
		"dfs.namenode.https-address.ns1.namenode122":"nnlab01:50470",
		"dfs.namenode.rpc-address.ns1.namenode115":"nnlab02:8020",
		"dfs.namenode.servicerpc-address.ns1.namenode115":"nnlab02:8022",
		"dfs.namenode.http-address.ns1.namenode115":"nnlab02:50070",
		"dfs.namenode.https-address.ns1.namenode115":"nnlab02:50470",
}

hdfs = HDFileSystem(host = host, pars = conf)

2、hdfs

这种方法在使用的时候配置比较简单,官网资料也比较丰富,但是需要注意的是该API可以模拟用户访问,权限较大。IP直接访问:

import hdfs

client = hdfs.client.InsecureClient(url="http://namenode:50070", user="hdfs")

HA访问:

import hdfs

client = hdfs.client.InsecureClient(url="http://namenode1:50070;http://namenode2:50070", user="hdfs")

3、pyhdfs

安装命令:pip install PyHDFS

官网地址,直接访问:

import pyhdfs

client = pyhdfs.HdfsClient(hosts="namenode:50070",user_name="hdfs")

HA访问

import pyhdfs

client = pyhdfs.HdfsClient(hosts=["namenode1:50070","namenode2:50070"],user_name="hdfs")

 

  • 1
    点赞
  • 13
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值