Ubuntu下的Hadoop安装

二、Hadoop安装

采用版本为hadoop-2.7.7

 ①JDK的安装

2.1.1 创建文件夹

sudo mkdir /expt
sudo chmod 777 /expt

 这个出错我参考别的原因也改过来了,

pkexec chmod 0440 /etc/sudoers

 2.1.2 移动文件

 之前已经解压过了,所以改一下位置就行了

 2.1.3 创建软链接

ln -s /expt/jdk1.8.0_141 jdk

2.1.4配置JDK环境变量

vi ~/.bashrc(我还是不喜欢vi命令,直接进去/目录,然后点击.bashrc)

export JAVA_HOME=~/jdk
export JRE_HOME=${JAVA_HOME}/jre
export CLASSPATH=${JAVA_HOME}/lib/dt.jar:$JAVA_HOME/lib/tools.jar:. 
export PATH=${JAVA_HOME}/bin:$PATH

 注意版本一定要填对,括号相当于延续路径

 重启配置文件

source ~/.bashrc

 

 检验是否安装成功

java –version

这就是成功了

②ssh免密登录设置

2.2.1 在4612190403主机生成密钥对

ssh-keygen -t rsa

连敲三个ender,这个我已经配置过了,

 查看ssh

ls ~/.ssh

 2.2.2 将主机公钥id_rsa.pub复制到4612190403主机上

ssh-copy-id -i  ~/.ssh/id_rsa.pub 4612190403

 2.2.3 验证免密登录

ssh 4612190403

 2.2.4在输入ps -e|grep ssh  检验是否启动

 ps -e|grep ssh  

修改/etc/ssh/sshd_config下的端口号(Port)后,重启SSH服务即可生效

重启ssh

sudo /etc/init.d/ssh restart

③ hadoop解压与系统变量配置

2.3.1 设置Hadoop配置文件

#创建文件夹
mkdir /expt/server
mkdir /expt/data
mkdir /expt/data/hddata

下载hadoop-2.7.7.tar.gz

Apache Hadoop

把hadoop解压移动到 /expt/server里面

tar zxvf hadoop-2.7.7.tar.gz -C /expt/server

2.3.2 创建软链接

ln -s /expt/server/hadoop-2.7.7 hadoop

 

2.3.3 配置环境变量还是去~/.bashrc,同样的source

export HADOOP_HOME=~/hadoop
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

source ~/.bashrc

 2.3.4 设置Hadoop配置文件

cd /home/ubuntu/Desktop/hadoop

2.3.5 配置hadoop-env.sh

这个一定要改成自己连接的jdk

2.3.6  配置core-site.xml

注意<configuration>一定要有对应的</configuration>,配置的时候一定要看是否有这个,宁愿删了也别留着,注意修改自己的用户名

<configuration>
  <property>
        <name>fs.defaultFS</name>
        <value>hdfs://4612190403:9000</value>
    </property>
    <property>
        <name>hadoop.tmp.dir</name>
        <value>/expt/data/hddata</value>
    </property>
</configuration>

 

2.3.7  配置hdfs-site.xml

注意修改自己的用户名和对应configuration

<configuration>


		<property>
			<name>dfs.replication</name>
			<value>1</value>
		</property>
		
		<property> 
		        <name>dfs.namenode.secondary.http-address</name> 
			<value>4612190403:50090</value> 
		</property>
 </configuration>

 

 2.3.8 配置mapred-site.xml

先把这个文件复制一下,在配置新文件

cp mapred-site.xml.template mapred-site.xml

<configuration>



    <property>
        <name>mapreduce.framework.name</name>
        <value>yarn</value>
    </property>
</configuration>

 

 2.3.9 配置yarn-site.xml

<configuration>

<!-- Site specific YARN configuration properties -->

        <property>
            <name>yarn.resourcemanager.hostname</name>
            <value>4612190403</value>
        </property>
        <property>
            <name>yarn.nodemanager.aux-services</name>
            <value>mapreduce_shuffle</value>
        </property>
 </configuration>

 

 2.3.10 hadoop格式化(只能做一次格式化)   

hdfs namenode -format

2.3.11 启动HDFS和YARN, 启动Hadoop,验证Hadoop进程

start-all.sh

 

jps

 

 2.3.12测试Hadoop

(1) 创建一个文本文件data.txt

cd ~
vi data.txt
Hello World
Hello Hadoop

 

 (2)在HDFS创建input文件夹

hdfs dfs -mkdir /input

 

(3) 将data.txt上传到HDFS,并查看结果

hdfs dfs -put data.txt /input
hdfs dfs -ls /input #查看结果

 (4)运行MapReduce WordCount例子

cd /home/ubuntu/Desktop/hadoop/share/hadoop/mapreduce

hadoop jar hadoop-mapreduce-examples-2.7.7.jar wordcount /input/data.txt /output

 (5)查看结果,显示正确。

hdfs dfs -cat /output/part-r-00000

 这样就彻底完成了,错误一般都是环境配置问题

  • 3
    点赞
  • 46
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 2
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

刘新源870

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值