linux 下hadoop的伪分布式安装

本文详细介绍了在Linux系统中安装Hadoop伪分布式环境的步骤,包括 JDK 安装、Hadoop 下载与解压、配置环境变量、编辑相关配置文件如hadoop-env.sh、core-site.xml、hdfs-site.xml、mapred-site.xml和yarn-site.xml,以及启动、停止Hadoop服务,并验证安装成功的操作,如通过浏览器访问管理界面、上传下载文件、测试MapReduce任务等。
摘要由CSDN通过智能技术生成

linux jdk安装   https://blog.csdn.net/qciwyy/article/details/77449369

hadoop下载路径  archive.apache.org/dist/hadoop/core/stable

pwd 获取当前目录

z代表gz文件  x代表减压  v代表详情 f 代表文件 -C  /itcast/减压到itcast 文件夹下

tar -zxvf    hadoop-2.9.1.tar.gz  -C   /itcast/    //减压.gz 

tar -zc                 //创建.gz

 

hadoop-2.9.1/etc的文件下

 

第一个:

vim hadoop-env.sh

export JAVA_HOME=

: echo $JAVA_HOME

第二个:core-site.xml

vim core-site.xml

 

<configuration>

用来指定HDFS的老大(NameNode)的地址

<property>

            <name>fs.defaultFS</name>

            <value>hdfs://主机名:9000</value>

</property>

用来指定hadoop产生文件是存放的目录

<property>

              <name>hadoop.tmp.dir</name>

             <value>/itcast/hadoop-2.9.1/tmp</value>

</property

</configuration>

 

 

第三个 

hdfs-site.xml

指定HDFS保存数据副本的数量

<configuration>

<property>

         <name>dos.replication</name>

         <value>1</value>

</property>

</configuration>

mv mapred-site.xml.template mapred-site.xml修改文件mapred-site.xml.template

为mapred-site.xml

第四个

mapred-site.xml

告诉Hadoop以后MR运行在YARN上

<configuration>

<property>

              <name>mapreduce.framework.name</name>

              <value>yarn</value>

</property>

</configuration>

 

第五个配置文件

yarn-site.xml

<configuration>

NodeManager获取数据的方式是shuffle的方式

<property>

             <name>yarn.nodemanager.aux-services</name>

              <value>mapreduce_shuffle</value>

</property>

指定yarn的老大(ResourceManager)地址

<property>

               <name>yarn.resourcemanager.hostname</name>

               <value>主机名</value>

</property>

</configuration>

 

vim /etc/profile

添加环境变量

export HADOOP_HOME=/itacast/hadoop-2.9.1

export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin

刷新配置

source /etc/profile

初始化HDFS(格式化文件系统)

cd /itcast/hadoop-2.9.1

which hdfs

hfs namenode -format

 

启动HDFS和YARN

cd sbin 

./start-all.sh

jps 查看配置是否成功

 

通过浏览器的方式验证

http://10.0.2.15:50070(hdfs管理界面)

http://10.0.2.15:8088(yarn管理界面)

 

//本地文件上传到hdfs

hadoop fs -put /tmp/mozilla_admin0/hadoop-2.9.1.tar.gz hdfs://k8s-master:9000/hadoop

从hdfs下载文件

hadoop fs -get hdfs://k8s-master:9000/hadoop  /home/jdk1.7

 

测试MR和YARN

wc 文件名

统计 行   单词数量  字符数 

more  文件名   查看文件内容

 

which hadoop 

 

hadoop 查看hadoop的命令

hadoop fs -put words.txt hdfs://k8s-master:9000/words 

 

hadoop fs -ls hdfs://k8s-master:9000/words

 

cd hadoop-2.9.1/share/hadoop/mapreduce

hadoop jar hadoop-mapreduce-examples-2.9.1.jar wordcount hdfs://k8s-master:9000/words hdfs://k8s-master:9000/wcount

 

 

停止Hadoop

cd sbin 

./stop-all.sh

 

hadoop免密码启动 停止  ssh免登录

 

ssh  k8s-master mkdir /itcast0718

 

 

ls -la 将当前目录下 所有的文件都显示出来

cd /root/.ssh/ 

ls

 

//生成密钥

ssh-keygen -t rsa

 

//查看公钥

more id_rsa.pub

 

//必须拷贝到authorized_keys 名字不能改变

cp id_rsa.pub authorized_keys

 

 

再次启动hadoop无需输入密码

 

jps查看 启动情况

 

 

cat ~/.ssh/id_rsa.pub >> ~/.ssh/authoried_keys

将公钥拷贝到10.0.35.22机器后,本机器可以免密登陆到10.0.35.22  达到单项免密登陆

ssh-copy-id 10.0.35.22

ssh-copy-id -i ~/.ssh/id_rsa.pub root@slave03

 

hadoop fs 命令查看

启动hadoop

./start-dfs.sh

 

hadoop fs -copyFromLocal /root/install.log   /install.log

 

以¥¥分开,代表两条命令都可以用

hadoop fs -ls /  ¥¥  hdfs dfs -ls 查看 hdfs上的文件

hadoop fs -ls -r -h/  ¥¥  hdfs dfs -ls -r -h/   递归查看 hdfs上的文件

hadoop fs -count /   hdfs上的文件统计

hadoop fs -rm -r /tmp  移除hdfs上的文件夹,文件

hadoop fs -rm /hadoop 移除hdfs上的文件

hadoop fs -cat /in.log  | more  查看hfs上文件的内容,  more可以分页

hadoop fs -cat  hdfs://k8s-master:9000/in.log

hadoop fs -get /in.log /home/ii.log

hadoop fs  -mkdir /itcast0718 创建文件夹在hdfs上

hadoop fs -tail /in.log

hadoop fs -help tail  查看tail的命令

hadoop fs -chown supergroup /in.log 改变author为supergroup

 

hadoop fs -chgrp root /in.log 改变其组用户 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
LinuxLinuxLinuxLinuxLinux5.65.65.6企业版 企业版 下成功搭建 下成功搭建 下成功搭建 HadoopHadoopHadoopHadoopHadoopHadoop分布 测试环境。本次在一台服务 测试环境。本次在一台服务 测试环境。本次在一台服务 测试环境。本次在一台服务 测试环境。本次在一台服务 测试环境。本次在一台服务 测试环境。本次在一台服务 测试环境。本次在一台服务 测试环境。本次在一台服务 器上进行分布式搭建。 器上进行分布式搭建。 器上进行分布式搭建。 器上进行分布式搭建。 器上进行分布式搭建。 器上进行分布式搭建。 Hadoop Hadoop Hadoop Hadoop Hadoop Hadoop Hadoop 分布式模是在单机上拟 分布式模是在单机上拟 分布式模是在单机上拟 分布式模是在单机上拟 分布式模是在单机上拟 分布式模是在单机上拟 分布式模是在单机上拟 Hadoop Hadoop Hadoop Hadoop Hadoop Hadoop Hadoop 分布式分布式, 单机上的分布式并不是真正,而使用线程模拟。 单机上的分布式并不是真正,而使用线程模拟。 单机上的分布式并不是真正,而使用线程模拟。 单机上的分布式并不是真正,而使用线程模拟。 单机上的分布式并不是真正,而使用线程模拟。 单机上的分布式并不是真正,而使用线程模拟。 单机上的分布式并不是真正,而使用线程模拟。 单机上的分布式并不是真正,而使用线程模拟。 单机上的分布式并不是真正,而使用线程模拟。 单机上的分布式并不是真正,而使用线程模拟。 单机上的分布式并不是真正,而使用线程模拟。 单机上的分布式并不是真正,而使用线程模拟。 单机上的分布式并不是真正,而使用线程模拟。 单机上的分布式并不是真正,而使用线程模拟。 单机上的分布式并不是真正,而使用线程模拟。 单机上的分布式并不是真正,而使用线程模拟。 单机上的分布式并不是真正,而使用线程模拟。 Hadoop Hadoop Hadoop Hadoop Hadoop Hadoop Hadoop 本身 是无法区分布式 和的,两种配置也很相似唯一不同地方是无法区分布式 和的,两种配置也很相似唯一不同地方是无法区分布式 和的,两种配置也很相似唯一不同地方是无法区分布式 和的,两种配置也很相似唯一不同地方是无法区分布式 和的,两种配置也很相似唯一不同地方是无法区分布式 和的,两种配置也很相似唯一不同地方是无法区分布式 和的,两种配置也很相似唯一不同地方是无法区分布式 和的,两种配置也很相似唯一不同地方是无法区分布式 和的,两种配置也很相似唯一不同地方是无法区分布式 和的,两种配置也很相似唯一不同地方是无法区分布式 和的,两种配置也很相似唯一不同地方是无法区分布式 和的,两种配置也很相似唯一不同地方是无法区分布式 和的,两种配置也很相似唯一不同地方是无法区分布式 和的,两种配置也很相似唯一不同地方是无法区分布式 和的,两种配置也很相似唯一不同地方是无法区分布式 和的,两种配置也很相似唯一不同地方是无法区分布式 和的,两种配置也很相似唯一不同地方是无法区分布式 和的,两种配置也很相似唯一不同地方是无法区分布式 和的,两种配置也很相似唯一不同地方是无法区分布式 和的,两种配置也很相似唯一不同地方是无法区分布式 和的,两种配置也很相似唯一不同地方是无法区分布式 和的,两种配置也很相似唯一不同地方是在单机器上配置,数据节点和名字均一个。 是在单机器上配置,数据节点和名字均一个。 是在单机器上配置,数据节点和名字均一个。 是
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值