hadoop的python库_Python-Snakebite库操作Hadoop

Snakebite是由Spotify创建的python包, 它提供了python客户端库,运行以编程方式从Python应用程序访问HDFS。客户端库使用 protobuf 消息直接与 NameNode 通信。Snakebite还包括一个基于客户端库的 HDFS 的命令行界面。

本节介绍如何安装和配置SnakeBite包。对Snakebite的客户端库进行了详细的解释, 其中有多个示例, Snakebite的内置CLI被作为python非必要hdfs命令工具而介绍。

安装

Snakebite目前只支持Python2,需要Python-protobuf最低版本为2.4.1;python3目前还不支持。Snakebite通过PyPI进行分发,可以使用pip进行安装:

$ pip install snakebite

客户端库

客户端库是用 Python 编写的, 使用 protobuf 消息, 并实现 Hadoop RPC 协议来与 NameNode 通信。这使得 Python 应用程序可以直接与 HDFS 通信, 而不必对 HDFS dfs 进行系统调用。

列举目录信息

Example 1-1.python/HDFS/list_directory.py 使用Snakebite客户端列举在HDFS根目录下的信息:

from snakebite.client import Client

client = Client('localhost', 9000)

for x in client.ls(['/']):

print x

以上代码中最重要的行,也是其他使用Snakebite客户端的程序中都需要的是 创建客户端到HDFS的NameNode的连接:

client = Client('localhost', 9000)

对于client方法接受以下的参数

host(string) : NameNode的主机名或Ip地址。

prot(int) : NameNode RPC端口号

hadoop_version(int): 使用的Hadoop协议的版本号

use_trash(boolean): 删除文件时,使用回收站

effective_use(string): 对用户操作的有效用户

主机和端口参数是必需的, 它们的值为依赖于 HDFS 配置。这些值参数可以在fs.default属性中找到的 ,在文件hadoop/conf/core-site.xml中。

fs.defaultFS

hdfs://localhost:9000

对于本节中的示例, 主机和端口所使用的值分别为本地主机和9000。创建客户端连接后, 可以访问HDFS文件系统。上一个应用程序的使用ls命令列出HDFS中根目录的内容。

for x in client.ls(['/']):

print x

重要的是要注意到, Snakebite中的许多方法可迭代对象。因此, 必须迭代它们才能执行。ls方法获取路径列表, 并返回包含文件信息的映射列表。

执行list_directory.py脚本后的返回的结果为:

$ python list_directory.py

{'group': u'supergroup', 'permission': 448, 'file_type': 'd',

'access_time': 0L, 'block_replication': 0, 'modification_time': 1442752574936L, 'length': 0L, 'blocksize': 0L,

'owner': u'hduser', 'path': '/tmp'}

{'group': u'supergroup', 'permission': 493, 'file_type': 'd',

'access_time': 0L, 'block_replication': 0, 'modification_time': 1442742056276L, 'length': 0L, 'blocksize': 0L,

'owner': u'hduser', 'path': '/user'}

创建目录

使用mkdir()方法在HDFS上创建目录 , Example1-2 在HDFS上创建目录/foo/bar和/input

Example 1-2.python/HDFS/mkdir.py

from snakebite.client import Client

client = Client('localhost', 9000)

for p in client.mkdir(['/foo/bar', '/input'], create_parent=True):

print p

执行mkdir.py脚本,生成以下的结果:

$ python mkdir.py

{'path': '/foo/bar', 'result': True}

{'path': '/input', 'result': True}

mkdir()方法接受路径队列,在HDFS上创建对应的路径,上述示例中使用create_parent参数确保在创建目录时其父目录是否存在。设置create_parent为True类型Unix中的mkdir -p命令。

删除文件和目录

通过delete()方法可以从HDFS上删除文件和目录。Example 1-3 从文件夹/foo , /bar 中地柜的删除文件。

Example 1-3. python/HDFS/delete.py

from snakebite.client import Client

client = Client('localhost', 9000)

for p in client.delete(['/foo', '/input'], recurse=True):

print p

执行delete.py脚本后,生成的结果:

$ python delete.py

{'path': '/foo', 'result': True}

{'path': '/input', 'result': True}

执行递归删除将删除目录包含的任何子目录和文件。如果找不到指定的路径, 则 delete 方法将引发则抛出。如果未指定递归, 并且存在子目录或文件将引发DirectoryException异常。与递归等价的命令参数是rm -rf,对于这个命令应该谨慎使用。

从HDFS上获取数据

与 hdfs dfs 命令一样, 客户端库包含多个允许从 HDFS 中检索数据的方法。复制文件从 HDFS 到本地文件系统, 使用 copyToLocal()方法。示例1-4从HDFS复制文件/input/input.txt, 并将其置于本地文件系统的/tmp目录下。

Example 1-4.python/HDFS/copy_to_local.py

from snakebite.client import Client

client = Client('localhost', 9000)

for f in client.copyToLocal(['/input/input.txt'], '/tmp'):

print f

执行脚本 copy_to_local.py,返回的结果数据:

$ python copy_to_local.py

{'path': '/tmp/input.txt', 'source_path': '/input/input.txt',

'result': True, 'error': ''}

只是简单的读取HDFS上文本的内容,可以使用text()方法,Example1-5显示/input/input.txt文本内容。

Example 1-5. python/HDFS/text.py

from snakebite.client import Client

client = Client('localhost', 9000)

for l in client.text(['/input/input.txt']):

print l

执行text.py脚本后,生成以下结果:

$ python text.py

jack be nimble

jack be quick

jack jumped over the candlestick

CLI Client

Snakebite的CLI客户端是一个Python命令行HDFS客户端(基于客户端库)。在运行Snakebite客户端时,主机名或IP,端口号都必须指定。有很多方法指定这些值,最简单的方法是方法是创建一个 ~.snakebite配置文件。Example1-6包含一个配置示例。

Example 1-6. ~/.snakebiterc

{

"config_version": 2,

"skiptrash": true,

"namenodes":

[

{"host": "localhost", "port": 9000, "version": 9},

]

}

这些配置信息可以在配置文件hadoop/conf/coresite.xml中的fs.defaultFS属性中找到。

使用CLI Client

通过命令行使用CLI Client,使用ls命令显示目录信息:

$ snakebite ls /

Found 2 items

drwx------ - hadoop supergroup 0 2015-09-20 14:36 /tmp

drwxr-xr-x - hadoop supergroup 0 2015-09-20 11:40 /user

和HDFS dfs命令一样,CLI Client同样支持很多相似文件操作命令(ls,mkdir,df,du等)

Snakebite和hdfs dfs主要不同是,snakebite是纯python客户端,和HDFS通信是不需要加载任何的Java库,这样将能更快的解析命令。

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
sqoop-1.4.7.bin__hadoop-2.6.0源码包是Apache Sqoop开源项目的一个版本,用于实现Hadoop和关系型数据之间的数据传输。 Sqoop是一个用于将Hadoop生态系统中的数据与传统关系型数据之间进行导入和导出的工具。它可以处理大规模的数据传输,帮助用户在Hadoop和关系型数据之间建立数据桥梁。通过Sqoop,用户可以将数据从MySQL、Oracle、PostgreSQL等数据中导入到Hadoop中进行分析和处理,也可以将结果从Hadoop导出到关系型数据中进行后续处理。 该源码包中包含了Sqoop 1.4.7版本的二进制文件以及支持Hadoop 2.6.0的相关依赖文件。源码包可以用于构建和部署Sqoop应用程序,也可以用于进行二次开发和定制。 Sqoop-1.4.7版本在此源码包中提供了对Hadoop 2.6.0的支持,并且修复了一些之前版本中存在的问题和bug,提高了稳定性和性能。 使用Sqoop进行数据传输可以帮助用户实现数据的多样化处理,例如将用户在关系型数据中的数据导入到Hadoop中进行大数据分析,或者将Hadoop中的计算结果导出到关系型数据中进行进一步的报表生成。通过Sqoop,用户不需要编写复杂的数据转换和传输代码,简化了数据传输的过程,提高了工作效率。 通过深入研究Sqoop的源码,可以更好地理解Sqoop的工作原理和内部机制,并且可以基于源码进行二次开发和功能定制,以满足特定的业务需求。 总之,Sqoop-1.4.7.bin__hadoop-2.6.0源码包为用户提供了一个方便的方式来使用Sqoop,并且可以进行二次开发和定制,以满足各种数据传输需求。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值