配置完成jdk,并记录Jdk路径
1.http://www.cnblogs.com/kinglau/p/3794433.html
一、在Ubuntu下创建hadoop组和hadoop用户
增加hadoop用户组,同时在该组里增加hadoop用户,后续在涉及到hadoop操作时,我们使用该用户。
在终端输入命令
1、创建hadoop用户组
sudo addgroup hadoop
2、创建hadoop用户
sudo adduser -ingroup hadoop hadoop
回车后会提示输入新的UNIX密码,这是新建用户hadoop的密码,输入回车即可。
如果不输入密码,回车后会重新提示输入密码,即密码不能为空。
最后确认信息是否正确,如果没问题,输入 Y,回车即可。
3、为hadoop用户添加权限
sudo gedit /etc/sudoers
回车,打开sudoers文件
给hadoop用户赋予和root用户同样的权限
root ALL=(ALL:ALL)ALL
hadoop ALL=(ALL:ALL)ALL
二、用新增加的hadoop用户登录Ubuntu系统
三、安装ssh
1.
sudo apt-get install openssh-server
2.
安装完成后,启动服务
sudo /etc/init.d/ssh start
查看服务是否正确启动:
ps -e | grep ssh
3.`
设置免密码登录,生成私钥和公钥
ssh-keygen -t rsa -P ""
回车
此时会在/home/hadoop/.ssh下生成两个文件:id_rsa和id_rsa.pub,前者为私钥,后者为公钥。
下面我们将公钥追加到authorized_keys中,它用户保存所有允许以当前用户身份登录到ssh客户端用户的公钥内容。
cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
4.登陆ssh
登录ssh
ssh localhost
5.退出
退出
exit
http://blog.csdn.net/ycisacat/article/details/53314144
1.下载hadoop,将hadoop解压,并改名为hadoop2.7
放到home文件夹下
路径 /home/hadoop(用户名)/hadoop2.7(文件夹名)
2.配置环境变量
#修改bashrc文件
$sudo gedit ~/.bashrc
在文件最后添加
在bashrc文件最后添加:
#set java environment
export JAVA_HOME=/usr/local/javajdk1.8 //jdk路径
export JRE_HOME=${JAVA_HOME}/jre
export CLASSPATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib
export PATH=${JAVA_HOME}/bin:$PATH
#set hadoop environment
export HADOOP_INSTALL=/home/hadoop/hadoop2.7 //hadoop路径
export PATH=$PATH:$HADOOP_INSTALL/bin
export PATH=$PATH:$HADOOP_INSTALL/sbin
export HADOOP_MAPRED_HOME=$HADOOP_INSTALL
export HADOOP_COMMON_HOME=$HADOOP_INSTALL
export HADOOP_HDFS_HOME=$HADOOP_INSTALL
保存后关闭文件
source ~/.bashrc
3.修改hadoop 文件
修改hadoop2.7 文件权限
$sudo chown -R hadoop:hadoop /home/hadoop/hadoop2.7
sudo gedit /etc/hadoop/hadoop-env.sh
把jdk路径改了
4.hadoop单机运行例子验证
以上如果配置无误的话,hadoop已经可以单机运行了。可以用自带的例子检验。
hadoop的例子在hadoop/share/hadoop/mapreduce/下,名为hadoop-mapreduce-examples-版本号.jar
cd /home/hadoop/hadoop2.7
#创建input目录,复制运行/home/hadoop/hadoop2.7/etc/hadoop/下所有xml文件到该目录下
/home/hadoop/hadoop2.7$ sudo mkdir input
/home/hadoop/hadoop2.7$ sudo cp etc/hadoop/*.xml input
#运行示例,检测input中符合' '中正则匹配规则的单词出现的次数(这里为dfs开头的单词)
/home/hadoop/hadoop2.7$ bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.2.jar grep input output 'dfs[a-z.]+'
#查看结果
/home/hadoop/hadoop2.7$ cat output/*
如果正常运行,看到success即成功。hadoop下会自动生成一个output文件夹来存放结果,但是下次运行时不会自动覆盖,再次运行示例时会报错。要先把上次的结果删掉。
sudo rm -R output
sudo rm -R output