ubuntu14.04安装hadoop2.7.1

配置完成jdk,并记录Jdk路径

1.http://www.cnblogs.com/kinglau/p/3794433.html
一、在Ubuntu下创建hadoop组和hadoop用户
增加hadoop用户组,同时在该组里增加hadoop用户,后续在涉及到hadoop操作时,我们使用该用户。

在终端输入命令
1、创建hadoop用户组

sudo addgroup hadoop

2、创建hadoop用户

      sudo adduser -ingroup hadoop hadoop
回车后会提示输入新的UNIX密码,这是新建用户hadoop的密码,输入回车即可。

如果不输入密码,回车后会重新提示输入密码,即密码不能为空。
最后确认信息是否正确,如果没问题,输入 Y,回车即可。

3、为hadoop用户添加权限

sudo gedit /etc/sudoers

回车,打开sudoers文件
给hadoop用户赋予和root用户同样的权限
root ALL=(ALL:ALL)ALL
hadoop ALL=(ALL:ALL)ALL

二、用新增加的hadoop用户登录Ubuntu系统

三、安装ssh
1.

sudo apt-get install openssh-server

2.

安装完成后,启动服务

sudo /etc/init.d/ssh start
查看服务是否正确启动:
ps -e | grep ssh

这里写图片描述
3.`

设置免密码登录,生成私钥和公钥

ssh-keygen -t rsa -P ""

回车

此时会在/home/hadoop/.ssh下生成两个文件:id_rsa和id_rsa.pub,前者为私钥,后者为公钥。

下面我们将公钥追加到authorized_keys中,它用户保存所有允许以当前用户身份登录到ssh客户端用户的公钥内容。

cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys

4.登陆ssh

登录ssh

ssh localhost

这里写图片描述

5.退出
退出
exit

http://blog.csdn.net/ycisacat/article/details/53314144
1.下载hadoop,将hadoop解压,并改名为hadoop2.7
放到home文件夹下
路径 /home/hadoop(用户名)/hadoop2.7(文件夹名)
2.配置环境变量

#修改bashrc文件
$sudo gedit ~/.bashrc

在文件最后添加

在bashrc文件最后添加:

#set java environment
export JAVA_HOME=/usr/local/javajdk1.8     //jdk路径
export JRE_HOME=${JAVA_HOME}/jre
export CLASSPATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib
export PATH=${JAVA_HOME}/bin:$PATH

#set hadoop environment
export HADOOP_INSTALL=/home/hadoop/hadoop2.7   //hadoop路径
export PATH=$PATH:$HADOOP_INSTALL/bin
export PATH=$PATH:$HADOOP_INSTALL/sbin
export HADOOP_MAPRED_HOME=$HADOOP_INSTALL
export HADOOP_COMMON_HOME=$HADOOP_INSTALL
export HADOOP_HDFS_HOME=$HADOOP_INSTALL

保存后关闭文件

source ~/.bashrc

3.修改hadoop 文件

修改hadoop2.7 文件权限
$sudo chown -R hadoop:hadoop /home/hadoop/hadoop2.7
sudo gedit /etc/hadoop/hadoop-env.sh

把jdk路径改了
这里写图片描述

4.hadoop单机运行例子验证

以上如果配置无误的话,hadoop已经可以单机运行了。可以用自带的例子检验。
hadoop的例子在hadoop/share/hadoop/mapreduce/下,名为hadoop-mapreduce-examples-版本号.jar

cd /home/hadoop/hadoop2.7
#创建input目录,复制运行/home/hadoop/hadoop2.7/etc/hadoop/下所有xml文件到该目录下
/home/hadoop/hadoop2.7$ sudo mkdir input
/home/hadoop/hadoop2.7$ sudo cp etc/hadoop/*.xml input 
#运行示例,检测input中符合' '中正则匹配规则的单词出现的次数(这里为dfs开头的单词)
/home/hadoop/hadoop2.7$ bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.2.jar grep input output 'dfs[a-z.]+'
#查看结果
/home/hadoop/hadoop2.7$ cat output/*

如果正常运行,看到success即成功。hadoop下会自动生成一个output文件夹来存放结果,但是下次运行时不会自动覆盖,再次运行示例时会报错。要先把上次的结果删掉。
sudo rm -R output

sudo rm -R output
  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值