20230611_Hadoop_BigDataTools

Hadoop客户端

一、Big Data Tools工具
  1. Pycharm专业版下载Big Data Tools工具。

  2. 获取hadoop.dll与winutils.exe文件放置于$HADOOP_HOME/Bin中。

  3. 配置系统环境变量:E:\hadoop-3.3.4

  4. 配置Big Data Tools,登录。

    -- 如果需要走第二种路径配置登录, 需要修改etc/hadoop中的core-site.xml等文件。
    

二、HDFS NFS Gateway

HDFS提供了基于NFS(Network File System)的插件,可以对外提供NFS网关,供其他系统挂载使用。

NFS网关支持NFSv3,并允许讲HDFS作为客户机本地文件系统的一部分挂载,现在支持:

  • 上传,下载,删除,追加内容

    ''' 挂载使用,类似于在我的电脑生成的放置于云端的百度网盘。'''
    
配置NFS

配置HDFS需要配置如下内容:

  • core-site.xml,新增配置项,以及hdfs-site.xml,新增配置项。
  • 开启portmap,nfs3两个进程。

在node1进行如下操作

  1. 在core-site.xml内新增如下两项
<property>
	<name>hadoop.proxyuser.hadoop.groups</name>
	<value>*</value>
</property>
"""
允许hadoop用户代理任何其他用户组
"""
<property>
	<name>hadoop.proxyuser.hadoop.hosts</name>
	<value>*</value>
</property>
"""
允许代理任意服务器的请求
"""
  1. 在hdfs-site.xml中新增如下项

    <property>
    	<name>nfs.superuser</name>
    	<value>hadoop</value>
    </property>
    """
    NFS操作HDFS系统,所使用的超级用户(HDFS的启动用户为超级用户)。
    """
    <property>
    	<name>nfs.dump.dir</name>
    	<value>/tmp/.hdfs-nfs</value>
    </property>
    """
    NFS接收数据上传时使用的临时目录。
    """
    <property>
    	<name>nfs.exports.allowed.hosts</name>
    	<value>192.168.88.1 rw</value>
    </property>
    """
    NFS允许连接的客户端IP和权限,rw表示读写,IP整体或者部分可以以*代替。
    课程设置的允许192.168.88.1以rw连接
    (这个IP是电脑虚拟网卡VMnet8的IP,连接虚拟机就是走的这个网卡)
    """
    
    
  2. 将配置好的文件分发到node2和node3上

     scp core-site.xml hdfs-site.xml node2:`pwd`/
     scp core-site.xml hdfs-site.xml node3:`pwd`/
    
  3. 重启Hadoop的HDFS集群

  4. 停止系统的NFS相关进程(必须root用户权限执行)

    • systemctl stop nfs; systemctl disable nfs 关闭系统nfs
    • yum remove -y rpcbind 卸载系统自带rpcbind
  5. 启动portmap(HDFS自带的rpcbind功能)(必须root用户权限执行)

    hdfs --daemon start portmap
    
  6. 启动nfs(HDFS自带的NFS功能)(必须以Hadoop用户执行)

    hdfs --daemon start nfs3
    
  7. 验证是否成功:

    在node2和node3执行:rpcinfo -p node1

    出现mountd和nfs后

    再输入:showmount -e node1

    可以看到 /192.168.88.1即为成功

  8. 在cmd中输入:

    # 注意空格
    net use X: \\192.168.88.101\!
    
  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
sqoop-1.4.7.bin__hadoop-2.6.0源码包是Apache Sqoop开源项目的一个版本,用于实现Hadoop和关系型数据库之间的数据传输。 Sqoop是一个用于将Hadoop生态系统中的数据与传统关系型数据库之间进行导入和导出的工具。它可以处理大规模的数据传输,帮助用户在Hadoop和关系型数据库之间建立数据桥梁。通过Sqoop,用户可以将数据从MySQL、Oracle、PostgreSQL等数据库中导入到Hadoop中进行分析和处理,也可以将结果从Hadoop导出到关系型数据库中进行后续处理。 该源码包中包含了Sqoop 1.4.7版本的二进制文件以及支持Hadoop 2.6.0的相关依赖文件。源码包可以用于构建和部署Sqoop应用程序,也可以用于进行二次开发和定制。 Sqoop-1.4.7版本在此源码包中提供了对Hadoop 2.6.0的支持,并且修复了一些之前版本中存在的问题和bug,提高了稳定性和性能。 使用Sqoop进行数据传输可以帮助用户实现数据的多样化处理,例如将用户在关系型数据库中的数据导入到Hadoop中进行大数据分析,或者将Hadoop中的计算结果导出到关系型数据库中进行进一步的报表生成。通过Sqoop,用户不需要编写复杂的数据转换和传输代码,简化了数据传输的过程,提高了工作效率。 通过深入研究Sqoop的源码,可以更好地理解Sqoop的工作原理和内部机制,并且可以基于源码进行二次开发和功能定制,以满足特定的业务需求。 总之,Sqoop-1.4.7.bin__hadoop-2.6.0源码包为用户提供了一个方便的方式来使用Sqoop,并且可以进行二次开发和定制,以满足各种数据传输需求。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

虎啸丶山林

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值