Hadoop3.3.0安装与使用

安装

brew install hadoop

Linux用户可以直接下载tar包,解压运行
https://apache.claz.org/hadoop/common/hadoop-3.3.0/hadoop-3.3.0.tar.gz

配置本地登陆

cat ~/.ssh/id_rsa.pub > ~/.ssh/authorized_keys

**系统配置(仅Mac需要)
系统->共享里的:
在这里插入图片描述

配置hadoop四个文件

在这里插入图片描述

hadoop-env.sh

添加java home

export JAVA_HOME=/Library/Java/JavaVirtualMachines/jdk1.8.0_111.jdk/Contents/Home

mapred-site.xml

添加

<configuration>
    <property>
        <name>mapred.job.tracker</name>
        <value>localhost:9010</value>
    </property>
</configuration>

hdfs-site.xml

添加

<configuration>
    <property>
        <name>dfs.replication</name>
        <value>1</value>
    </property>
</configuration>

yarn-site.xml(修改告警阀值,默认95%,非必须)

添加

<property>
	<name>yarn.nodemanager.disk-health-checker.max-disk-utilization-per-disk-percentage</name>
	<value>98.0</value>
</property>

core-site.xml

添加

<configuration>
    <property>
        <name>hadoop.tmp.dir</name>
	<value>/usr/local/Cellar/hadoop/3.3.0/data/tmp</value>
        <description>A base for other temporary directories.</description>
    </property>
    <property>
       <name>fs.defaultFS</name>
       <value>hdfs://localhost:9000</value>
    </property>
</configuration>

初始化namenode

hadoop namenode -format

启动

/usr/local/Cellar/hadoop/3.3.0/sbin/start-all.sh

查看(node,yarn)
http://localhost:8042/node
http://localhost:9870/

应用

创建目录和文件

hadoop fs -mkdir -p /input
echo 'hello word' > word.txt 
hadoop fs -put word.txt /input/

使用hadoop 示例:
统计文件中word的数量

hadoop jar /usr/local/Cellar/hadoop/3.3.0/libexec/share/hadoop/mapreduce/sources/hadoop-mapreduce-examples-3.3.0-sources.jar org.apache.hadoop.examples.WordCount /input/word.txt /input/out/word-out
  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Hadoop 3.3.0是一个分布式计算框架,用于处理大规模数据集的分布式存储和处理。根据引用,在配置Hadoop之前,首先需要将bin目录中的文件分发给其他虚拟机hadoop01、hadoop02和hadoop03。接下来,根据引用,需要将配置文件发给其他虚拟机,可以使用xsync命令将/opt/module/hadoop-3.3.0/etc/hadoop目录同步到其他虚拟机上。 在分发文件和配置之后,根据引用,需要检查hadoop02和hadoop03是否已经接收到了文件。可以使用cat命令查看/opt/module/hadoop-3.3.0/etc/hadoop/workers文件来确认。 一旦确认文件已经分发并接收到了,就可以启动Hadoop集群了。首先,根据引用,第一次启动需要进行初始化操作,可以使用以下命令进行格式化操作: cd /opt/module/hadoop-3.3.0 bin/hdfs namenode -format 完成初始化后,可以启动集群。具体启动命令可以根据具体需求和配置进行调整。这里没有提供启动命令的引用内容,所以我无法提供具体的命令,但是你可以参考Hadoop文档或官方指南中的相关章节来获取启动命令。 总结起来,配置和启动Hadoop 3.3.0的步骤如下: 1. 分发bin目录中的文件给其他虚拟机hadoop01、hadoop02和hadoop03。 2. 使用xsync命令将配置文件发给其他虚拟机。 3. 检查hadoop02和hadoop03是否接收到了文件。 4. 进行初始化操作,即格式化操作,使用bin/hdfs namenode -format命令。 5. 启动集群,具体命令根据具体需求和配置进行调整。 请注意,这里提供的是一般的配置和启动步骤,具体操作可能根据你的环境和需求有所不同。建议在操作之前仔细阅读相关文档和指南,并根据实际情况进行配置和启动。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值