Hadoop在WSL中的安装
1.环境准备
在Hadooop的官网上下载对应的安装包:hadoop
使用命令
tar -xvzf 进行解压:
tar -xvzf hadoop-3.3.4.tar.gz
使用hadoop时需要设置ssh免密登录,接下来设置ssh localhost
命令如下:
ssh-keygen -t rsa -P '' -f ~/.ssh/id_rsa
cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
chmod 0600 ~/.ssh/authorized_keys
2.修改配置文件
接下来修改相应的配置文件:
vi etc/hadoop/core-site.xml
vi etc/hadoop/hdfs-site.xml
vi etc/hadoop/mapred-site.xml
vi etc/hadoop/yarn-site.xml
vi etc/hadoop/hadoop-env.sh
core-site.xml文件修改如下:
<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://localhost:9000</value>
</property>
</configuration>
hdfs-site.xml文件修改如下:
<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
</configuration>
mapred-site.xml文件修改如下:
<configuration>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
<property>
<name>mapreduce.application.classpath</name>
<value>$HADOOP_MAPRED_HOME/share/hadoop/mapreduce/*:$HADOOP_MAPRED_HOME/share/hadoop/mapreduce/lib/*</value>
</property>
</configuration>
hadoop-env.sh文件添加以下内容:
export JAVA_HOME=/usr/lib/jvm/java-8-openjdk-amd64 #这个根据自己的java路径进行修改
export HDFS_NAMENODE_USER=root
export HDFS_DATANODE_USER=root
export HDFS_SECONDARYNAMENODE_USER=root
export YARN_RESOURCEMANAGER_USER=root
export YARN_NODEMANAGER_USER=root
随后就可以初始化Hadoop集群了
bin/hdfs namenode -format
3.启动Hadoop集群的守护进程
启动dfs守护进程:
sbin/start-dfs.sh
启动了dfs守护进程后,通过访问 http://localhost:9870/dfshealth.html#tab-overview 来查看NameNode。
启动yarn守护进程
sbin/start-yarn.sh
之后通过访问http://localhost:8088/cluster来查看YARN资源管理界面:
4.运行实例
test.txt文件中的内容
新建Hadoop中hdfs文件系统的目录,并传入文件test.txt
hadoop fs -mkdir /input
hadoop fs -put test.txt /input
随后运行,Hadoop中的wordcount程序
bin/hadoop jar ./share/hadoop/mapreduce/hadoop-mapreduce-examples-3.3.4.jar wordcount /input /output
查看测试结果文件:
bin/hadoop fs -cat /output/part-r-00000
访问UI界面也可以查看input和output中的文件: