安装ssh,免密码登陆。
apt-get install openssh-server 安装ssh
建立 SSH KEY:
$ ssh-keygen -t rsa -P "" (注意不要多加空格或缺少空格)
中途需要安装者选择保存密钥的文件,按回车使用默认的文件就可以了:
Enter file in which to save the key (/root/.ssh/id_rsa):(按回车)
启用SSH KEY:
$ cat /root/.ssh/id_rsa.pub >> /root/.ssh/authorized_keys
/etc/init.d/ssh reload
reload ssh
ssh localhost
1. 安装配置单机hadoop
1)解压到/opt/hadoop
Java代码
1. $ tar zxvf hadoop-1.2.0.tar.gz
2. $ sudo mv hadoop-1.2.0 /opt/
3. $ sudo chown -R hadoop:hadoop /opt/hadoop-1.2.0
4. $ sudo ln -sf /opt/hadoop-1.2.0 /opt/hadoop
4. 配置 hadoop-env.sh
1)在hadoop/conf 里面hadoop-env.sh增加
Java代码
1. export JAVA_HOME=/usr/jdk1.7.0_25
2. export HADOOP_HOME=/opt/hadoop
3. export PATH=$PATH:/opt/hadoop/bin
5.配置文件
1)編輯 /opt/hadoop/conf/core-site.xml
Java代码
1. <configuration>
2. <property>
3. <name>fs.default.name</name>
4. <value>hdfs://localhost:9000</value>
5. </property>
6. <property>
7. <name>hadoop.tmp.dir</name>
8. <value>/tmp/hadoop/hadoop-${user.name}</value>
9. </property>
10. </configuration>
2)編輯 /opt/hadoop/conf/hdfs-site.xml
Java代码
1. <configuration>
2. <property>
3. <name>dfs.replication</name>
4. <value>1</value>
5. </property>
6. </configuration>
3)編輯 /opt/hadoop/conf/mapred-site.xml
Java代码
1. <configuration>
2. <property>
3. <name>mapred.job.tracker</name>
4. <value>localhost:9001</value>
5. </property>
6. </configuration>
6.格式化hdfs
Java代码
1. $ cd /opt/hadoop
2. $ source conf/hadoop-env.sh
3. $ hadoop namenode -format
提示信息一大堆...
7. 启动hadoop
Java代码
1. $ sudo ./start-all.sh //在hadoop/bin下执行
8.完成后的测试
Java代码
1. http://localhost:50030/ - Hadoop 管理接口