hadoop 实验一 安装配置 hadoop

 

实验内容与完成情况:

  1. 安装SSH

运行命令 sudo apt-get install ssh openssh-server

  1. 生成SSH-KEY

运行命令 ssh-keygen -t rsa -P ""

  1. 拷贝SSH认证秘钥

复制SSH公钥到/home/user/.ssh目录下,并重命名为authorized_keys(把这个认证文件拷贝到其他的salve机上)

运行命令 cat ~/.ssh/id_rsa.pub >>./.ssh/authorized_key

  1. 测试SSH免密操作

运行命令 ssh localhost 登录 exit 退出

  1. 查看IP

输入命令ifconfig

  1. 连接虚拟机上传JDKhadoop文件包

打开winscp输入IP地址和username、password

  1. 解压缩

  1. 配置JDK环境变量

修改全局配置文件,作用于所有用户运行

打开profile文件,输入环境变量

运行命令sudo gedit /etc/profile

在文件末追加以下内容并保存

export JAVA_HOME=/home/salve/soft/jdk1.8.0_92

export JRE_HOME=${JAVA_HOME}/jre

export CLASSPATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib

export PATH=.:${JAVA_HOME}/bin:$PATH

运行命令sudo source /etc/profile 保存更改

运行命令java –version查看是否配置成功

  1. 配置hadoop环境变量

修改全局配置文件,作用于所有用户运行

打开profile文件,输入环境变量

运行命令sudo gedit /etc/profile

在文件末追加以下内容并保存

export HADOOP_HOME=/home/salve/soft/hadoop-2.7.2

export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HAME/sbin

运行命令sudo source /etc/profile 保存更改

运行命令hadoop version查看是否配置成功

  1. 配置hdfs-site.xml

创建namenode目录和datanode目录

打开文件~/soft/Hadoop-2.7.2/etc/hdfs-site.xml输入配置项

  1. 配置core-site.xml

打开文件~/soft/Hadoop-2.7.2/etc/core-site.xml输入配置项

  1. 配置mapred-site.xml.template

打开文件~/soft/Hadoop-2.7.2/etc/mapred-site.xml.template输入配置项

  1. 配置hadoop-env.sh文件内的JAVA_HOME

打开文件~/soft/Hadoop-2.7.2/etc/Hadoop-env.s输入配置项

  1. NameNode 的格式化

运行命令cd ~/soft/Hadoop-2.7.2进入hadoop目录

运行命令 ./bin/hdfs namenode –format

  1. 启动namenode、datanode

运行命令./sbin/start-dfs.sh

运行命令jps查看namenode、datanode是否启动

  1. 在宿主机中查看dashboard

在浏览器中查看192.168.149.130:50070

  1. 执行例子WordCount Demo

先去网上找一篇英语作文,保存在~/soft/words文件中

运行命令bin/hdfs dfs -mkdir /test,在hdfs的根目录下建立一个test目录

运行命令bin/hdfs dfs -put ~/soft /words /test/把本地文件上传到test目录中

运行命令bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.2.jar wordcount /test/words /test/out执行wordcount例子

运行命令bin/hadoop fs -cat /test/out/part-r-00000查看结果

 

 

出现的问题:

  1. 安装ssh时提示:Unable to locate package openssh
  2. 启动namenode、datanode进程的时候报[Fatal Error] hdfs-site.xml:20:1: Content is not allowed in prolog.
  3. 启动namenode,datanode时只有namenode正常启动了,datanode启动失败

 

 

解决方案(列出遇到的问题和解决办法,列出没有解决的问题):

  1. 执行命令 apt-get update解决
  2. 把三个XML配置文件格式化一下解决
  3. 因为hdfs-site.xml文件中namenode配置路径多写一个f,删除后重新运行命令./bin/hdfs namenode –format、./sbin/start-dfs.sh解决

 

 

 

 

 

 

 

 

  • 1
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值