在Ubuntu Kylin系统中使用 Eclipse 开发 MapReduce 程序对单词计数
目录
一、 首先利用Windows中使用VirtualBox安装Ubuntu
本实验采用Ubuntu Kylin版本。Ubuntu Kylin系统文件可以从参考资料[1]中获取。
二、 前期准备工作
1. 创建帐户Hadoop
sudo useradd -m hadoop -s /bin/bash
2. 设置hadoop密码
sudo passwd hadoop
3. 给hadoop用户增加管理员权限
sudo adduser hadoop sudo
在完成注销当前用户,返回登陆界面。在登陆界面中选择hadoop 用户进行登录。
4. 更新 apt
登录成功后,先更新一下apt,后面将会使用apt安装软件,如果没有更新可能无法完成后续安装(如所示下图)。在终端执行以下命令:
sudo apt-get update
5. 安装vim
在后续的配置文件时,将会使用vim进行编辑,所以可以安装vim,命令如下:
sudo apt-get install vim
也可以使用gedit进行编辑,gedit相对与vim更加直观。
如果在安装过程中出现(如所示下图)的错误,可在提示处输入y。
6. 配置SSH
(1)集群、单节点模式都需要用到 SSH 登陆,在ubuntu 默认已安装了 SSH client,此外还需要安装 SSH server:
sudo apt-get install openssh-server
(2)安装后,可以使用如下命令登陆本机:
ssh localhost
在此时会有提示(SSH首次登陆提示),输入 yes 。然后按提示输入密码 hadoop,这样就登陆到本机了。 但这样登陆是需要每次输入密码的,因此需要配置成SSH无密码登陆较为方便。
(3)首先退出刚才的 ssh,就回到了我们原先的终端窗口,然后利用 ssh-keygen 生成密钥,并将密钥加入到授权中:
exit # 退出刚才的 ssh localhost
cd ~/.ssh/ # 若没有该目录,请先执行一次ssh localhost
ssh-keygen -t rsa # 会有提示,都按回车就可以
cat ./id_rsa.pub >> ./authorized_keys # 加入授权
此时再使用 ssh localhost 命令,无需输入密码就可以直接登陆了,如下图所示。
三、 安装Java环境
1.安装JDK
Hadoop3.1.3需要使用JDK版本在1.8及以上。 我已经把JDK1.8的安装包jdk-8u162-linux-x64.tar.gz导入ubuntu中,有需要的可以[点击这里到百度云盘下载](https://pan.baidu.com/share/init?surl=gbmPBXrJDCxwqPGkfvX5Xg)(提取码:lnwl)。 接下来在Linux命令行界面中,执行如下的命令(注意:当前登录用户名是hadoop):
cd /usr/lib
sudo mkdir jvm #创建/usr/lib/jvm目录用存放jdk文件
cd ~ #进入hadoop用户的主目录下
cd Downloads
sudo tar -zxvf ./jdk-8u162-linux-x64.tar.gz -C /usr/lib/jvm #把JDK文件解压到/usr/lib/jvm目录下
2.此时验证一下jdk安装情况
cd /usr/lib/jvm
ls
3.这时需要设置java坏境变量
cd ~
vim ~/.bashrc
通过vim编辑器。打开环境变量配置.bashrc文件,在文件开头添加如下几行内容: (关于vim使用方法,可参考以下的网址:https://blog.csdn.net/lsg_down/article/details/87073295)
export JAVA_HOME=/usr/lib/jvm/jdk1.8.0_162
export JRE_HOME=${
JAVA_HOME}/jre
export CLASSPATH=.:${
JAVA_HOME}/lib:${
JRE_HOME}/lib
export PATH=${
JAVA_HOME}/bin:$PATH
保存.bashrc文件并退出vim编辑器。然后,继续执行如下命令让.bashrc文件的配置立即生效:
source ~/.bashrc
4.验证java的安装情况
java -version
若返回如下信息,则说明JAVA环境配置成功
四、 安装Hadoop
1.首先下载hadoop,这里选择使用Hadoop2.10.0版本。
Hadoop官网下载hadoop-3.1.3.tar.gz
2.将 Hadoop 安装至 /usr/local/ 中:
sudo tar -zxf ~/下载/hadoop-3.1.3.tar.gz -C /usr/local # 解压到/usr/local中
cd /usr/local/
sudo mv ./hadoop-3.1.3/ ./hadoop # 将文件夹名改为hadoop
sudo chown -R hadoop ./hadoop # 修改文件权限
3.验证Hadoop是否可用,成功则会显示 Hadoop 版本信息,如下图所示。
cd /usr/local/hadoop
./bin/hadoop version
五、 Hadoop伪分布式配置
1. Hadoop 的配置文件位于 /usr/local/hadoop/etc/hadoop/ 中,伪分布式需要修改2个配置文件 core-site.xml 和 hdfs-site.xml 。Hadoop的配置文件是 xml 的格式,每个配置以声明 property的 name 和 value 的方式来实现。 在修改配置文件前,需要自行创建相应的文件夹进行存放,以防后续操作无法启动Hadoop。
sudo mkdir /usr/local/hadoop/tmp
sudo mkdir /usr/local/hadoop/tmp/dfs/name
sudo mkdir /usr