hadoop2.7ubuntu伪分布式搭建

一.安装Java

下载java的压缩包,解压

sudo tar -zxvf 8.tar.gz

配置java环境变量

sudo vim ~/.bashrc
export JAVA_HOME=/usr/local/java-8-openjdk-amd64
export JRE_HOME=/usr/local/java-8-openjdk-amd64/jre
export CLASS_PATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar:$JRE_HOME/lib
export PATH=$PATH:$JAVA_HOME/bin:$JRE_HOME/bin
source ~/.bashrc

二.ssh免密码登录

先判断是否安装ssh,执行ssh localhost,若需要输入密码,则已经安装

未安装,执行以下命令安装ssh

sudo apt-get install openssh-server

登录ssh localhost需要输入密码

退出exit

查看/home/hadoop家目录下的/.ssh,没有就创建

ls
cd  #进入用户目录
mkdir ./.ssh
cd ./.ssh
ssh-keygen -t rsa
cat ./id_rsa.pub >> ./authorized_keys  #将生成的公钥加入到key中
ssh -version  #验证是否安装成功
ssh localhost  #不需要输入密码即可登录
exit  #登出

三。添加IP映射

为了方便,我们在hosts添加IP地址映射

sudo vim /etc/hosts
127.0.0.1 localhost
192.168.153.133  hadoop
#IP地址           主机名

四.安装hadoop

1.将压缩包放到/usr/local/目录下,解压hadoop

cd /usr/local
sudo tar -zxvf hadoop-2.7.5.tar.gz  #解压
sudo mv hadoop-2.7.5 hadoop  #重命名

2.赋予用户权限

sudo chown -R hadoop ./hadoop

3.查看hadoop版本

cd ./hadoop 
./bin/hadoop version

234038_a2m8_3746673.png

4.添加hadoop环境变量

sudo vim /etc/profile
export HADOOP_HOME=/usr/local/hadoop
export PATH=$HADOOP_HOME/bin:$PATH

使环境变量生效

source /etc/profile

5.修改hadoop配置文件

cd /usr/local/hadoop/etc/hadoop
sudo cp mapred-site.xml.template mapred-site.xml
sudo vim core-site.xml

core-site.xml

sudo vim core-site.xml
<configuration>

    <property>
    <name>hadoop.tmp.dir</name>
    <value>/home/hadoop/hadoop/tmp</value> <!--设置临时文件夹,只要在home下即可  -->
    </property>
    <property>
    <name>fs.defaultFS</name>
    <value>hdfs://hadoop:9000</value><!-- 修改为本机IP地址  -->
    </property>

​</configuration>
​

 hdfs-site.xml

sudo vim hdfs-site.xml
<configuration>

        <property>
             <name>dfs.replication</name>
             <value>1</value>
        </property>
        <property>
             <name>dfs.namenode.name.dir</name>
             <value>/home/hadoop/hadoop/dfs/name</value>
        </property>
        <property>
             <name>dfs.datanode.data.dir</name>
             <value>/home/hadoop/hadoop/dfs/data</value>
        </property>
        <property>
            <name>dfs.permissions</name>
           <value>false</value>
        </property>

</configuration>

mapred-site.xml

sudo vim mapred-site.xml
<configuration>

<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>

</configuration>

​

yarn-site.xml

sudo vim yarn-site.xml
<configuration>

    <property>
    <name>yarn.resourcemanager.hostname</name>
    <value>hadoop</value>
    </property>
    <property>
    <name>yarn.nodemanager.aux-services</name>
    <value>mapreduce_shuffle</value>
    </property>

​</configuration>
​

slaves中添加主机名或者IP地址

sudo vim slaves
hadoop

hadoop-env.sh 添加Javahome路径

sudo vim hadoop-env.sh
export JAVA_HOME=/usr/local/java-8-openjdk-amd64
​

 

6.格式化namenode

cd /usr/lcoal/hadoop/bin
./hadoop namenode -format

224930_Lkme_3746673.png

7. 启动hadoop

cd /usr/local/hadoop/sbin
./start-all.sh

224958_g64R_3746673.png

8. 查看进程jps

225051_6laL_3746673.png

五、hadoop网址

http://hadoop:8088   8088端口查看yarn运行情况

225137_pmps_3746673.png

http://hadoop:50070    50070查看HDFS情况

225207_cGV3_3746673.png

 

转载于:https://my.oschina.net/u/3746673/blog/1636171

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值