Centos7下搭建Hadoop2.10.0伪分布式(图文详细,亲测笔记)

1. 编译环境

     1. 配置jdk(若已安装openjdk12,且配置过环境,也可)

                      由于centos自带open-jdk,可以在/usr/lib/jvm中查看所带java

cd /usr/lib/jvm
ls

在这里插入图片描述
选择1.8.0版本配置环境

vim /etc/profile
source ./profile

profile文件中加入以下代码:

export JAVA_HOME=/usr/lib/jvm/java-1.8.0-openjdk-1.8.0.242.b08-0.el7_7.x86_64
export CLASSPATH=.:$JAVA_HOME/jre/lib/rt.jar:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
export PATH=$PATH:$JAVA_HOME/bin
     2. 安装SSH

           1. 安装ssh

yum install openssh-clients

           2. 测试ssh

ssh localhost

在这里插入图片描述
           3. 设置免密登录

exit                               # 退出刚才的 ssh localhost
cd ~/.ssh/  
ssh-keygen -t rsa                  # 提示都按回车即可
cat id_rsa.pub >> authorized_keys  # 加入授权
chmod 600 ./authorized_keys        # 修改文件权限

           4. 验证是否开启免密登录

service sshd restart    #重启sshd服务
ssh localhost           #注意是否需要输入密码
exit     

在这里插入图片描述

2. 安装Hadoop

           1. 使用xftp导入源码压缩包
           hadoop-2.10.0源码压缩包下载地址
在这里插入图片描述
           xftp下载地址
在这里插入图片描述
           2. 解压

sudo tar -xzvf /home/wj/hadoop-2.10.0.tar.gz

           3. 配置环境变量

vim /etc/profile
source ./profile

profile文件中加入以下代码:

export HADOOP_HOME=/usr/local/hadoop-2.10.0
export PATH=$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH

在这里插入图片描述

3. 配置Hadoop

在这里插入图片描述
           1. 修改./etc/hadoop/core-site.xml文件

<configuration>
	<property>
		<name>hadoop.tmp.dir</name>                         	
		<value>file:/usr/local/hadoop/tmp</value>
		<description>Abase for other temporary directories.</description>
	</property>
	<property>
        <name>fs.defaultFS</name>                          	                         	
		<value>hdfs://localhost:9000</value>
	</property>
</configuration>

           2. 修改./etc/hadoop/hdfs-site.xml文件

<configuration>
	<property>
		<name>dfs.replication</name>
		<value>1</value>
	</property>
	<property>
         <name>dfs.namenode.name.dir</name>                            	
         <value>file:/usr/local/hadoop/tmp/dfs/name</value>
     </property>
     <property>                  
     	 <name>dfs.datanode.data.dir</name>#数据块文件位置
         <value>file:/usr/local/hadoop/tmp/dfs/data</value>
	</property>
</configuration>

           3. 修改./etc/hadoop/hadoop-env.sh文件

export JAVA_HOME=/usr/lib/jvm/java-1.8.0-openjdk-1.8.0.242.b08-0.el7_7.x86_64

在这里插入图片描述
           4. 修改./etc/hadoop/yarn-env.sh文件

export JAVA_HOME=/usr/lib/jvm/java-1.8.0-openjdk-1.8.0.242.b08-0.el7_7.x86_64

在这里插入图片描述
           5. 修改./etc/hadoop/yarn-site.xml文件

<property> 
       	<name>yarn.nodemanager.aux-services</name> 
        <value>mapreduce_shuffle</value> 
    </property> 
    <property> 
        <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name> 
        <value>org.apache.hadoop.mapred.ShuffleHandler</value> 
    </property> 
    <property> 
        <name>yarn.resourcemanager.address</name> 
        <value>127.0.0.1:8032</value> 
    </property> 
    <property> 
        <name>yarn.resourcemanager.scheduler.address</name> 
        <value>127.0.0.1:8030</value> 
    </property> 
    <property> 
        <name>yarn.resourcemanager.resource-tracker.address</name> 
        <value>127.0.0.1:8031</value> 
</property> 

在这里插入图片描述

4. 检查是否安装成功

           1. 格式化

hdfs namenode -format

在这里插入图片描述
           2. 进入sbin目录,启动hadoop

start-dfs.sh

在这里插入图片描述
           3. 查看jps(若出现4-6个则配置成功)
在这里插入图片描述
           4. 通过web访问hadoop,访问地址:http://localhost:50070
在这里插入图片描述

4. HDFS的命令行操作

在这里插入图片描述
下面就是hdfs中的文件夹和文件,里面默认什么也没有,需要自己上传
在这里插入图片描述

1. 创建一个文件夹    hdfs dfs -mkdir /myTask
2. 创建多个文件夹    hdfs dfs -mkdir -p /myTask1/input1
3. 上传文件   hdfs dfs -put /opt/wordcount.txt /myTask/input
4. 查看总目录下的文件和文件夹   hdfs dfs -ls /
5. 查看myTask下的文件和文件夹  hdfs dfs -ls /myTask
6. 查看myTask下的wordcount.txt的内容  hdfs dfs -cat /myTask/wordcount.txt
7. 删除总目录下的myTask2文件夹以及里面的文件和文件夹  hdfs dfs -rmr /myTask2
8. 删除myTask的wordcount.txt  hdfs dfs -rmr /myTask/wordcount.txt
9. 下载hdfs中myTask/input/wordcount.txt到本地opt文件夹中  hdfs dfs -get /myTask/input/wordcount.txt /opt

这里是平平无奇的77,妄想优秀 ▇ ▇ ▇ ▇ ▇ ▇ ▇ ▇ ▇ … 0%,若想转载请注明原链接,欢迎下次再来!!

包含hadoop平台Java开发的所有所需jar包,例如activation-1.1.jar apacheds-i18n-2.0.0-M15.jar apacheds-kerberos-codec-2.0.0-M15.jar api-asn1-api-1.0.0-M20.jar api-util-1.0.0-M20.jar asm-3.2.jar avro-1.7.7.jar commons-beanutils-1.9.4.jar commons-cli-1.2.jar commons-codec-1.4.jar commons-collections-3.2.2.jar commons-compress-1.19.jar commons-configuration-1.6.jar commons-digester-1.8.jar commons-io-2.4.jar commons-lang-2.6.jar commons-lang3-3.4.jar commons-logging-1.1.3.jar commons-math3-3.1.1.jar commons-net-3.1.jar curator-client-2.7.1.jar curator-framework-2.7.1.jar curator-recipes-2.7.1.jar gson-2.2.4.jar guava-11.0.2.jar hadoop-annotations-2.10.0.jar hadoop-auth-2.10.0.jar hadoop-common-2.10.0-tests.jar hadoop-common-2.10.0.jar hadoop-nfs-2.10.0.jar hamcrest-core-1.3.jar htrace-core4-4.1.0-incubating.jar httpclient-4.5.2.jar httpcore-4.4.4.jar jackson-core-asl-1.9.13.jar jackson-jaxrs-1.9.13.jar jackson-mapper-asl-1.9.13.jar jackson-xc-1.9.13.jar java-xmlbuilder-0.4.jar jaxb-api-2.2.2.jar jaxb-impl-2.2.3-1.jar jcip-annotations-1.0-1.jar jersey-core-1.9.jar jersey-json-1.9.jar jersey-server-1.9.jar jets3t-0.9.0.jar jettison-1.1.jar jetty-6.1.26.jar jetty-sslengine-6.1.26.jar jetty-util-6.1.26.jar jsch-0.1.54.jar json-smart-1.3.1.jar jsp-api-2.1.jar jsr305-3.0.0.jar junit-4.11.jar LIST.bat LIST.TXT log4j-1.2.17.jar mockito-all-1.8.5.jar netty-3.10.6.Final.jar nimbus-jose-jwt-4.41.1.jar paranamer-2.3.jar protobuf-java-2.5.0.jar servlet-api-2.5.jar slf4j-api-1.7.25.jar slf4j-log4j12-1.7.25.jar snappy-java-1.0.5.jar stax-api-1.0-2.jar stax2-api-3.1.4.jar woodstox-core-5.0.3.jar xmlenc-0.52.jar zookeeper-3.4.9.jar
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值