下载hadoop1.0.4版本,和jdk1.6版本或更高版本:
1. 安装JDK,安装目录大家可以自定义,下面是我的安装目录: 配置环境变量: 将环境变量添加到profile文件底部: 激活环境变量: 2. 安装hadoop
创建hadoop用户及其hadoop组。
配置IP对应域名在 在hosts文件底部中添加如下: 接下来下载hadoop安装包,大家可以到apache官网下载1.0.4版本
我这里将hadoop安装到hadoop用户目录下,解压hadoop安装文件,hadoop有三个核心配置文件core-site.xml,hdfs-site.xml,mapred-site.xml,
配置core-site.xml 配置hdfs-site.xml 配置 mapred-site.xml 最后配置haoop-env.sh文件 最后在配置hadoop环境变量在跟jdk在同一个文件,在jdk环境变量下面增加hadoop环境变量: 到这里所有环境配置已经完成:
再一次启动时需要namenode format,命令如下: 格式完成后,启动hadoop,使用命令 使用jps查看hadoop启动的守护进程: hadoop 伪分布式安装已经完成。
1. 安装JDK,安装目录大家可以自定义,下面是我的安装目录: 配置环境变量: 将环境变量添加到profile文件底部: 激活环境变量: 2. 安装hadoop
创建hadoop用户及其hadoop组。
配置IP对应域名在 在hosts文件底部中添加如下: 接下来下载hadoop安装包,大家可以到apache官网下载1.0.4版本
我这里将hadoop安装到hadoop用户目录下,解压hadoop安装文件,hadoop有三个核心配置文件core-site.xml,hdfs-site.xml,mapred-site.xml,
配置core-site.xml 配置hdfs-site.xml 配置 mapred-site.xml 最后配置haoop-env.sh文件 最后在配置hadoop环境变量在跟jdk在同一个文件,在jdk环境变量下面增加hadoop环境变量: 到这里所有环境配置已经完成:
再一次启动时需要namenode format,命令如下: 格式完成后,启动hadoop,使用命令 使用jps查看hadoop启动的守护进程: hadoop 伪分布式安装已经完成。