大数据的存储与处理

环境

虚拟主机:centos7两台
vmware 11.0
jdk-8u45-linux-x64
hadoop-2.7.0
  • * 一、单机模式的Hadoop分布式环境安装和运行*

    所需环境:
    两台centos7.0 64位虚拟机
    hadoop-2.7.0
    jdk-8u45-linux-x64

  • 通过ssh将Hadoop和javaJDK上传入虚拟机
    这里写图片描述

  • 分别进行解压并更改权限(代码序列如下)

tar –vxzf hadoop-2.7.0.tar.gz
tar -vxzf jdk-8u45-linux-x64.tar.gz
chmod -R 777 hadoop-2.7.0/ jdk1.8.0_45/

这里写图片描述

  • 配置环境变量
    jdk 和 Hadoop已经解压好的包路径为/root/

  • 编辑系统环境变量

vim /etc/profile

并在文件最后添加:

export JAVA_HOME=/root/jdk1.8.0_45   
export PATH=$JAVA_HOME/bin:$PATH
  • 执行命令 . /etc/profile
    注意:这里 . 与 / 之间存在一个空格
    若在当前目录在/etc/,那么可以直接执行./profile,这里 . 与 /没有空格
  • 输入java -version 进行测试
    -这里写图片描述
  • 修改hosts,将master ip地址编辑到hosts文件中
vim /etc/hosts

这里写图片描述

  • 修改hostname
vim /etc/hostname

这里写图片描述

  • 创建ssh公钥和私钥
ssh-keygen –t rsa

这里写图片描述

  • 将公钥导入认证文件
cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
  • 将以下两句添加进/etc/profile文件中
export HADOOP_HOME=/root/hadoop-2.7.0
export PATH=$HADOOP_HOME/bin:$PATH
  • 执行命令 . /etc/profile 使得hadoop环境变量生效

  • 执行 hadoop version 测试环境是否已经成功搭建
    这里写图片描述

  • 测试运行情况
hadoop jar /root/hadoop-2.7.0/share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.0.jar pi 4 1000

这里写图片描述

  • 二 、完全分布模式的Hadoop分布式环境安装和运行

    两台虚拟机地址:
    Master:192.168.158.156
    Slavepoint:192.168.158.166

  • 实验环境
    两台centos7.0 64位虚拟机
    hadoop-2.7.0
    jdk-8u45-linux-x64

  • 实验步骤

  • 重新安装一台虚拟机slavepoint配置slavepoint的ip以及hosts文件,hostname文件
    这里写图片描述

vim /etc/hostname

这里写图片描述

vim /etc/hosts

这里写图片描述

  • 配置master主机hostname,hosts文件
vim /etc/hostname

这里写图片描述

vim /etc/hosts

这里写图片描述

  • 两台主机进行主机名ping操作
    这里写图片描述
    这里写图片描述
    这里写图片描述
    这里写图片描述
  • 4、 配置无密码登录:ssh-keygen –t rsa
    这里写图片描述
    这里写图片描述
    将秘钥导入到slave主机
scp ~/.ssh/id_rsa.pub   root@192.168.158.166:~/

Slave主机:
这里写图片描述

将秘钥导入到认证文件
这里写图片描述

进行ssh master登录
这里写图片描述

Slave主机生成秘钥

这里写图片描述

cat id_rsa.pub >>  authorized_keys

这里写图片描述

将秘钥导入值master主机

scp id_rsa.pub root@master:~/

这里写图片描述

进入master主机将密钥导入认证文件

mv id_rsa.pub salve_id_rsa.pub
cp salve_id_rsa.pub .ssh/
cd .ssh/
cat salve_id_rsa.pub >>  authorized_keys

在slavepint主机执行命令 ssh master

这里写图片描述

  • 在hadoop根下建立hadoop工作临时文件夹
mkdir tmp hdfs
mkdir hdfs/name hdfs/data
  • 配置namenode,修改core-site.xml文件 vim core-site.xml
<configuration>
    <property>
        <name>fs.default.name</name>
        <value>hdfs://master:9000</value>
    </property>
    <property>
        <name>hadoop.tmp.dir</name>
        <value>file:/root/hadoop-2.7.0/tmp</value>
    </property>
</configuration>
  • 修改hdfs-site.xml vim hdfs-site.xml
<configuration>
<property>
        <name>dfs.replication</name>
        <value>1</value>
    </property>
    <property>
        <name>dfs.name.dir</name>
        <value>file:/root/hadoop-2.7.0/hdfs/name</value>
    </property>
    <property>
        <name>dfs.data.dir</name>
        <value>file:/root/hadoop-2.7.0/hdfs/data</value>
    </property>
    <property>
        <name>dfs.webhdfs.enabled</name>
        <value>true</value>
</property>
</configuration>
  • 修改yarn-site.xml 文件 vim yarn-site.xml
<configuration>

<!-- Site specific YARN configuration properties -->
       <property>
            <name>yarn.nodemanager.aux-services</name>
            <value>mapreduce_shuffle</value>
       </property>
       <property>
            <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
            <value>org.apache.hadoop.mapred.ShuffleHandler</value>
       </property>
       <property>
            <name>yarn.resourcemanager.address</name>
            <value>master:8032</value>
       </property>
       <property>
            <name>yarn.resourcemanager.scheduler.address</name>
            <value>master:8030</value>
       </property>
       <property>
            <name>yarn.resourcemanager.resource-tracker.address</name>
            <value>master:8031</value>
       </property>
       <property>
            <name>yarn.resourcemanager.admin.address</name>
            <value>master:8033</value>
       </property>
       <property>
            <name>yarn.resourcemanager.webapp.address</name>
            <value>master:8088</value>
       </property>

</configuration>
  • 将配置好的hadoop和jdk以及/etc/profile导入到salvepoint主机中,并在slavepoint主机中执行. /etc/profile使得环境变量生效
scp /root/Hadoop-2.7.0 root@slavepoint:/root/
scp /root/jdk1.8.0_45  root@slavepoint:/root/
scp /etc/profile  root@slavepoint:/etc/
. /etc/profile  (在slavepoint主机中执行)
  • 文件系统格式化:hdfs namenode –format,并开启hadoop

这里写图片描述

. /root/Hadoop-2.7.0/sbin/start-all.sh

这里写图片描述

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值