从零开始学习Hadoop--第1章 Hadoop的安装

Hadoop的安装比较繁琐,有如下几个原因:其一,Hadoop有非常多的版本;其二,官方文档不尽详细,有时候更新脱节,Hadoop发展的太快了;其三,网上流传的各种文档,或者是根据某些需求定制,或者加入了不必须要的步骤,或者加入容易令人误解的步骤。其实安装是很重要的步骤,只有安装好了,才能谈及下一步。

在本书撰写的时候,选用Hadoopstable版安装。


笔者的登录用户名是brian,大家可以根据自己的登录名更改命令,后面凡是出现brian的地方,都用自己的登录用户名替换掉。


1. 操作系统

操作系统是Ubuntu10.04桌面版。


如果操作系统其他版本的Ubuntu,在图形界面上会略有一点区别,但对安装影响不大。不同发行版的Linux的安装Hadoop的过程基本类似,没太大的差别。

2.Hadoop的版本

Hadoop当前的stable版是1.2.1

3.下载Hadoop

3.1Hadoop的主页上提供了多个下载链接。

http://www.apache.org/dyn/closer.cgi/hadoop/common/

3.2任选一个下载站点如下:

http://mirror.esocc.com/apache/hadoop/common/

3.3选择stable版,其实stable版就是1.2.1版:

http://mirror.esocc.com/apache/hadoop/common/stable/

在这个目录下有多个文件,是针对不同的linux发行版的,不需要全部下载。

3.4下载hadoop-1.2.1.tar.gzhadoop-1.2.1.tar.gz.mds

打开命令终端,下文的命令都是在终端里执行,为方便起见,命令都用引号引起。

stable版本的Hadoop的两个文件下载到“~/setup/hadoop”目录下,也就是”/home/brian/setup/hadoop”目录,命令如下:

3.4.1“mkdir -p ~/setup/hadoop”

mkdir命令是创建新目录。”-p”参数的意思是,假如hadoop目录的上级目录不存在,也创建上级目录。在终端里执行“man mkdir”,可以看到对这个命令的更详细的解释,按一下q键重新返回终端。

在命令终端里,”~”表示当前登录用户的主目录。比如说,在开机的时候,登录用户是brian,那么在命令终端里,”~”就表示目录”/home/brian”,如果开机时候,登录用户是john,那么”~”就表示”/home/john”目录。

3.4.2"cd ~/setup/hadoop"

cd就是changedirectory的缩写,切换当前目录。

3.4.3"wget http://mirror.esocc.com/apache/hadoop/common/stable/hadoop-1.2.1.tar.gz.mds"

wget是下载文件的命令行工具,”manwget”有详细说明。

3.4.4"wget http://mirror.esocc.com/apache/hadoop/common/stable/hadoop-1.2.1.tar.gz"

3.4.5"md5sum hadoop-1.2.1.tar.gz"

md5sum命令,计算一个文件的md5码。开源社区在提供源码下载的时候,会同时提供下载文件的md5码。md5码是根据文件内容生成的32位字符串,不同的文件的md5码是不同的,如果下载出错,下载文件的md5码跟正常文件的md5码是不一样的,由此检测下载是否正常,只有在极其罕见的情况下,才会出现不同的文件有相同md5码。hadoop-1.2.1.tar.gz是一个比较大的文件,需要检查下载的文件是否完整,执行这个命令之后,会出现形如"8D79 04 80 56 17 C1 6C B2 27 D1 CC BF E9 38 5A hadoop-1.2.1.tar.gz"的字符串,前面的一串字符串就是32位的md5校验码。

3.4.6"cat hadoop-1.2.1.tar.gz.mds"

cat命令,catcatenate的缩写,在标准输出上打印文件内容,通常标准输出就是屏幕。这个命令会在屏幕上打印hadoop-1.2.1.tar.gz.mds的内容,也就是一些校验码,在里面找到"md5"这一行,如果跟md5sum出来的一致,则表明下载文件完整的,否则需要重新下载。

4. 安装JavaJDK

4.1在这里有jdk 1.7的下载

http://www.oracle.com/technetwork/java/javase/downloads/jdk7-downloads-1880260.html

如果是CPU32位,选择下载Linuxx86,如果CPU64位的,选择Linuxx64。一般来说,如果计算机是双核的,肯定支持64位操作系统。或者可以运行”uname-a”命令看一下,在笔者的笔记本上运行这个命令结果如下:

Linuxbrian-i3 2.6.32-51-generic #113-Ubuntu SMP Wed Aug 21 19:46:35 UTC2013 x86_64 GNU/Linux

后面的x86_64表明系统是64位的。

在这个页面,找”JavaSE Development Kit 7u40”,注意,这里有一个选项,必须选择”AcceptLicense Agreement”,接受License才能下载。

下载的jdk1.7,存放到 “/home/brian/setup/java-jdk-1.7/”目录。

下载的文件是”java-jdk-7u40-linux-i586.tar.gz”javajdk的版本常常有更新,次版本号有可能会比40更高一点。

4.2"sudo su -"

切换到root用户,参考”mansudo”。这个命令会切换到root用户,也就是最高权限的用户。因为后面要执行的jdk安装操作是在/usr/local目录下进行的,用root用户更方便。

4.3"cd /usr/local/lib"

4.4"tar -zxvf/home/brian/setup/java-jdk-1.7/java-jdk-7u40-linux-i586.tar.gz"

tarlinux下的打包和解压命令行工具,具体细节可以参考”mantar”。这个命令将java-jdk-7u40-linux-i586.tar.gz压缩包解压到当前目录下。解压缩完毕之后,执行"ls",能看到当前目录下有一个新目录叫"jdk1.7.0_40"

4.5配置环境变量:

4.5.1“gedit /etc/profile”

geditlinux下类似Windoes的记事本的编辑器,文件/etc/profilelinux下的配置文件。本命令会打开这个配置文件,以备编辑。

4.5.2添加配置

/etc/profile文件末尾加上如下的三行代码:


export JAVA_HOME=/usr/local/lib/jdk1.7.0_40

export CLASSPATH=.:$JAVA_HOME/jre/lib/rt.jar:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar

export PATH=$PATH:$JAVA_HOME/bin


保存文件,然后退出。

Linux系统,开机后会自动执行/etc/profile配置文件。export命令设置或者显示环境变量。上述三行代码,分别设置了JAVA_HOME,CLASSPATH, PATH这三个环境变量。

4.5.3"chown root:root -R /usr/local/lib/jdk1.7.0_40"

chown命令,更改目录或者文件的拥有者。这条命令将jdk1.7.0_40目录的拥有者改为root组的root用户。”-R”参数是递归的意思,将jdk1.7.0_40目录下连同子目录都进行更改。

4.5.4"chmod 755 -R /usr/local/lib/jdk1.7.0_40"

chmod命令,更改目录和文件的模式。本命令将jdk1.7.0_40的模式改为拥有者可以读写执行,同组用户和其他用户可读可执行不可写。“-R”参数同上,也是递归的意思。

4.5.5"source /etc/profile"

如果更改了/etc/profile配置文件,它只会在新的终端里生效,现在正在使用的终端是不会生效的。如果想让它在正使用的终端也生效,需要用source命令运行一下配置文件。这条命令会让4.4.2的三个环境变量立即生效。这条命令也可以简写成”./etc/profile”

4.5.6"java -version"

这条命令检查jdk安装是否成功。运行这条命令,只要没有报错就表明安装成功了。

5.安装hadoop

5.1"su brian"

su命令,切换用户。安装jdk用的是root用户。现在切回brian用户。

5.2"mkdir -p ~/usr/hadoop"

创建Hadoop的安装目录

5.3"cd ~/usr/hadoop"

5.4"tar -xvzf ~/setup/hadoop/hadoop-1.2.1.tar.gz"

解压缩完毕后,就有目录~/usr/hadoop/hadoop-1.2.1,这是hadoop的主目录。

5.5配置hadoop,参考了http://hadoop.apache.org/docs/stable/single_node_setup.pdf

按照伪分布式进行配置,也就是用一个机器同时运行NameNode,SecondaryNameNode, DataNode, JobTracker, TaskTracker 5个任务。

5.5.1配置文件在~/usr/hadoop/hadoop-1.2.1/conf/目录下

5.5.2core-site.xml文件内容修改成如下:

<configuration>

<property>

<name>fs.default.name</name>

<value>hdfs://localhost:9000</value>

</property>

</configuration>

5.5.3mapred-site.xml文件内容修改如下:

<configuration>

<property>

<name>mapred.job.tracker</name>

<value>localhost:9001</value>

</property>

</configuration>

5.5.4hdfs-site.xml文件内容修改如下:

<configuration>

<property>

<name>dfs.replication</name>

<value>1</value>

</property>

</configuration>

5.5.5hadoop-env.sh文件里添加如下一条语句:

export JAVA_HOME=/usr/local/lib/jdk1.7.0_40

6.安装rsyncssh

6.1"sudo apt-get install ssh rsync"

这条命令安装sshrsyncssh是一个很著名的安全外壳协议SecureShell Protocolrsync是文件同步命令行工具。

6.2配置ssh免登录

6.2.1"ssh-keygen -t dsa -f ~/.ssh/id_dsa"

执行这条命令生成ssh的公钥/私钥,执行过程中,会一些提示让输入字符,直接一路回车就可以。

6.2.2"cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys"

ssh进行远程登录的时候需要输入密码,如果用公钥/私钥方式,就不需要输入密码了。上述方式就是设置公钥/私钥登录。

6.2.3 “ssh localhost”

第一次执行本命令,会出现一个提示,输入”yes”然后回车即可。

7.启动hadoop

7.1"cd ~/usr/hadoop/hadoop-1.2.1"

7.2"./bin/hadoop namenode -format"

格式化NameNode

7.3"./bin/start-all.sh"

启动所有节点,包括NameNode,SecondaryNameNode, JobTracker, TaskTracker, DataNode

7.4“jps”

检查各进程是否运行,这时,应该看到有6java虚拟机的进程,分别是Jps,NameNode, SecondaryNameNode, DataNode, JobTracker,TaskTracker,看到6个是对的,表明启动成功。如果提示”jps”没安装或者找不到,执行一次”source/etc/profile”即可。

8.测试hadoop

8.1"cd ~/usr/hadoop/hadoop-1.2.1"

8.2"./bin/hadoop fs -put README.txt readme.txt"

将当前目录下的README.txt放到hadoop进行测试,这个README.txtHadoop的介绍文件,这里用它做测试。这条命令将README.txt文件复制到Hadoop的分布式文件系统HDFS,重命名为readme.txt

8.3"./bin/hadoop jar hadoop-examples-1.2.1.jar wordcount readme.txt output"

运行hadoopexampleswordcount,测试hadoop的执行。这条语句用Hadoop自带的examples里的wordcount程序,对readme.txt进行处理,处理后的结果放到HDFSoutput目录。

8.4"./bin/hadoop fs -cat output/part-r-00000"

这条命令查看处理结果,part-r-00000文件存放wordcount的运行结果,cat命令将文件内容输出到屏幕,显示字符的统计结果。这是一个简单的字符统计,wordcount只是做了简单的处理,所以会看到单词后面有标点符号。


9. 练习

笔者做一次完整的安装是50分钟左右,其中下载Hadoop安装包和JavaJDK安装包是半小时,操作部分用时20分钟。新手第一次安装,2~5个小时内完成都是正常的。建议将Hadoop的安装过程按照上述流程走上三遍,熟悉每个步骤,然后不看流程凭记忆做出来,重复练习多次次,以加深印象。如果再有时间的话,可以逐个研究里面涉及到的各种命令,诸如wget,ssh, rsync等等。

  • 0
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 6
    评论
### 回答1: 安装 Hadoop-Eclipse-Plugin 可以让你在 Eclipse 中方便地开发和管理 Hadoop 任务。以下是安装步骤: 1. 下载 Hadoop-Eclipse-Plugin,可以从 Apache 官网或其他镜像站点下载。 2. 打开 Eclipse,选择 Help -> Install New Software。 3. 点击 Add 按钮,输入 Name 和 Location,然后点击 OK。 4. 在 Work with 下拉列表中选择 Hadoop Plugin Site。 5. 在下方列表中勾选 Hadoop Plugin,然后点击 Next。 6. 确认安装选项,然后点击 Next。 7. 接受许可协议,然后点击 Finish。 8. 安装过程可能需要几分钟时间。安装完成后,重启 Eclipse。 9. 在 Eclipse 中打开 Preferences 对话框,选择 Hadoop。 10. 输入 Hadoop 安装路径和 Hadoop 核心库路径,然后点击 Apply。 11. 现在你可以在 Eclipse 中创建 Hadoop 项目和任务,并在本地或集群上运行它们了。 注意:安装 Hadoop-Eclipse-Plugin 前需要先安装 Hadoop 和 Eclipse。 ### 回答2: 在安装 Hadoop-Eclipse-Plugin之前,首先需要确保已经安装了Eclipse IDE。接下来,我们需要按照以下步骤来安装Hadoop-Eclipse-Plugin。 首先,我们需要下载Hadoop-Eclipse-Plugin的安装文件。可以在Hadoop官方网站或者其他可信的网站上找到该插件的下载链接。 下载完成后,打开Eclipse IDE。在Eclipse的菜单栏中选择“Help” -> “Eclipse Marketplace”。 在弹出的对话框中,点击左上角的搜索框,并输入“Hadoop-Eclipse-Plugin”。然后点击“Go”按钮进行搜索。 在搜索结果中找到Hadoop-Eclipse-Plugin,点击“Go”按钮旁边的“Install”按钮。接下来会弹出一个安装对话框。 在安装对话框中,会显示有关Hadoop-Eclipse-Plugin的详细信息。点击“Next”继续安装。 接下来,阅读并接受许可协议,然后点击“Finish”按钮。 安装过程可能需要一段时间,等待安装完成后,点击“Restart Now”按钮重启Eclipse IDE。 重启后,Hadoop-Eclipse-Plugin已经成功安装。可以通过Eclipse的菜单栏选择“Window” -> “Show View” -> “Other”,然后在弹出的对话框中选择“Hadoop”来打开Hadoop-Eclipse-Plugin视图。 通过Hadoop-Eclipse-Plugin的视图,可以方便地管理和操作Hadoop集群,包括上传和下载文件,提交和监控MapReduce任务等。 安装Hadoop-Eclipse-Plugin后,可以更加方便地开发和调试Hadoop应用程序,提高工作效率。 ### 回答3: 安装 Hadoop-Eclipse-Plugin 是为了在 Eclipse IDE 中方便地使用 Hadoop 大数据处理框架。 首先,确保已经安装并配置好了以下软件: 1. JDK:Hadoop 需要使用 Java 开发环境,确保安装了合适版本的 JDK。 2. Eclipse:安装最新版本的 Eclipse IDE。 接下来,按照以下步骤安装 Hadoop-Eclipse-Plugin: 1. 打开 Eclipse,选择 “Help” 菜单,然后选择 “Eclipse Marketplace”。 2. 在 “Eclipse Marketplace” 对话框中搜索 “Hadoop Plugin”,然后点击搜索结果中的 “Hadoop Plugin”。 3. 点击右侧的 “Go to the Project” 按钮,进入 Hadoop-Eclipse-Plugin 的项目页面。 4. 在项目页面中,找到适合你当前版本的插件,并点击右侧的 “Download” 按钮下载插件。 5. 下载完成后,返回到 Eclipse,选择 “Help” 菜单,然后选择 “Install New Software”。 6. 点击 “Add” 按钮,添加插件的本地文件或从网络上选择插件文件,然后点击 “OK”。 7. 在 “Work with” 框中选择下载好的插件,然后点击 “Next”。 8. 在安装对话框中勾选 “I accept the terms of the license agreement” 选项,然后点击 “Finish”。 9. 安装过程可能需要一些时间,完成后会提示重启 Eclipse。 安装完成后,插件将会添加到 Eclipse 的插件列表中。你可以在 Eclipse 的 “Window” 菜单下找到 “Hadoop” 相关的选项,通过它们来管理和运行 Hadoop 任务。 注意:在安装插件之前,请确保你已经正确地配置了 Hadoop 环境,并已经正确安装Hadoop。插件的版本应与你当前 Hadoop 版本兼容,否则可能导致插件无法正常工作。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 6
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值