linux本机hadoop环境搭建

OS fedora 14

1 创建 hadoop 组及用户

  groupadd hadoop # 创建 hadoop

  useradd -g hadoop hadoop # 创建 hadoop 用户

  修改 hadoop 用户密码

  passwd hadoop

2 安装 jdk 环境

  hadoop 用户登录, jdk 1.6 版本 jdk-6u18-linux-i586.bin

  chmod +x jdk-6u18-linux-i586.bin # 增加可执行权限

  ./jdk-6u18-linux-i586.bin # 安装 jdk /home/hadoop/jdk1.6.0_18

  配置环境变量

  vi .bashrc

  增加以下内容

  export JAVA_HOME=/home/hadoop/jdk1.6.0_18

  export CLASS_PATH=$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar

  export PATH=$JAVA_HOME/bin:$PATH

3 安装 hadoop-0.20.2

  解压 hadoop-0.20.2.tar.gz

    tar –xvf hadoop-0.20.2.tar.gz

4 配置环境变量

  vi .bashrc

  增加以下内容

  export HADOOP_INSTALL=/home/hadoop/hadoop-0.20.2

  export PATH=$HADOOP_INSTALL/bin:PATH

  检验是否正确

[hadoop@fedora14-001 ~]$ hadoop version

Hadoop 0.20.2

Subversion https://svn.apache.org/repos/asf/hadoop/common/branches/branch-0.20 -r 911707

Compiled by chrisdo on Fri Feb 19 08:07:34 UTC 2010

可以配置 hadoop ,运行包内带的例子

5 配置 ssh 无密码登录

$ ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa
$ cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys

重启 ssh 服务

service sshd restart

校验是否可以无密码登录

  [hadoop@fedora14-001 ~]$ ssh localhost

Last login: Fri Jul  1 10:04:30 2011 from localhost.localdomain

[hadoop@fedora14-001 ~]$

有时候会出现权限不足的错误,

执行下面的命令即可 [hadoop@fedora14-001 ~]chmod –R 700 ~/.ssh

6 由于 hadoop 的配置文件默认的为本地环境,所以不用配置

  $HADOOP_INSTALL/conf/ 下的 core-site.xml,hdfs-site.xml,mapred-site.xml

相应的默认设置在 hadoop-0.20.2-core.jar

7 格式化 HDFS

  [hadoop@fedora14-001 hadoop-0.20.2]$ hadoop namenode -format

11/07/01 10:34:09 INFO namenode.NameNode: STARTUP_MSG:

/************************************************************

STARTUP_MSG: Starting NameNode

STARTUP_MSG:   host = fedora14-001/172.18.7.53

STARTUP_MSG:   args = [-format]

STARTUP_MSG:   version = 0.20.2

STARTUP_MSG:   build = https://svn.apache.org/repos/asf/hadoop/common/branches/branch-0.20 -r 911707; compiled by 'chrisdo' on Fri Feb 19 08:07:34 UTC 2010

************************************************************/

Re-format filesystem in /tmp/hadoop-hadoop/dfs/name ? (Y or N) Y

11/07/01 10:34:14 INFO namenode.FSNamesystem: fsOwner=hadoop,hadoop

11/07/01 10:34:14 INFO namenode.FSNamesystem: supergroup=supergroup

11/07/01 10:34:14 INFO namenode.FSNamesystem: isPermissionEnabled=true

11/07/01 10:34:14 INFO common.Storage: Image file of size 96 saved in 0 seconds.

11/07/01 10:34:14 INFO common.Storage: Storage directory /tmp/hadoop-hadoop/dfs/name has been successfully formatted.

11/07/01 10:34:14 INFO namenode.NameNode: SHUTDOWN_MSG:

/************************************************************

SHUTDOWN_MSG: Shutting down NameNode at fedora14-001/172.18.7.53

************************************************************/

8 启动 Hadoop 相关后台进程

[hadoop@fedora14-001 bin]$ ./start-all.sh

starting namenode, logging to /home/hadoop/hadoop-0.20.2/bin/../logs/hadoop-hadoop-namenode-fedora14-001.out

localhost: starting datanode, logging to /home/hadoop/hadoop-0.20.2/bin/../logs/hadoop-hadoop-datanode-fedora14-001.out

localhost: starting secondarynamenode, logging to /home/hadoop/hadoop-0.20.2/bin/../logs/hadoop-hadoop-secondarynamenode-fedora14-001.out

starting jobtracker, logging to /home/hadoop/hadoop-0.20.2/bin/../logs/hadoop-hadoop-jobtracker-fedora14-001.out

localhost: starting tasktracker, logging to /home/hadoop/hadoop-0.20.2/bin/../logs/hadoop-hadoop-tasktracker-fedora14-001.out

9 准备运行 wordcount 的数据

  这里在本地创建了一个数据目录 input ,并拷贝一些文件到该目录下面,如下所示

[hadoop@fedora14-001 input]$ ll

total 8

-rw-rw-r--. 1 hadoop hadoop 40 Jul  1 09:21 input1.txt

-rw-rw-r--. 1 hadoop hadoop 21 Jul  1 09:22 input2.txt

10 启动 wordcount 任务

[hadoop@fedora14-001 hadoop-0.20.2]$hadoop jar hadoop-0.20.2-examples.jar wordcount /home/hadoop/input   /home/hadoop/output

元数据目录为 input ,输出数据目录为 output

10 查看运行结果

  [hadoop@fedora14-001 output]$ ll

total 4

-rwxrwxrwx. 1 hadoop hadoop 53 Jul  1 10:07 part-r-00000

[hadoop@fedora14-001 output]$ more part-r-00000

are      2

hello   2

how     2

lin     1

old     1

song    1

world   2

you     2

11 停止 hadoop 后台进程

[hadoop@fedora14-001 bin]$ stop-all.sh

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
近百节课视频详细讲解,需要的小伙伴自行百度网盘下载,链接见附件,永久有效。 课程目录 000 上课方式和课程大纲介绍 001 Linux系统基本知识说明和启动Linux虚拟机 002 配置虚拟机IP地址和如何使用远程工具SecureCRT 003 Linux 环境下基本命令使用及Linux系统中文件的类型和权限 004 Linux 环境下基本命令讲解二 005 Linux 系统远程FTP工具与桌面工具XManager使用和培养三大能力 006 Linux 系统基本命令和基本配置的复习讲解 007 What is Apache Hadoop讲解 008 Hadoop 的发展史和版本发展与区别 009 Hadoop 生态系统介绍讲解 010 Hadoop 生态系统介绍讲解 011 Hadoop 服务讲解 012 HDFS 架构的讲解 013 MapReduce 架构讲解和MapReduce思想原理讲解 014 Apache Hadoop 三种安装部署模式讲解 015 Apache Hadoop 单机(本地)模式安装部署与测试 016 Hadoop 伪分布式安装部署 017 查看Hadoop 日志以及日志的格式和命名组成 018 Hadoop 守护进程服务三种启动停止方式 019 测试环境(HDFS Shell基本命令和运行WordCount程序) 020 结合WordCount实例讲解Hadoop的数据存储和数据计算 021 Hadoop 五大服务与配置文件中的对应关系 022 分析Hadoop 三种启动停止方式的Shell 脚本 023 去除警告【Warning$HADOOP HOME is deprecated。】 024 Hadoop相关命令中的【–config configdir】作用 025 Hadoop 目录结构 026 Eclipse导入Hadoop源码项目 027 HDFS 设计目标 028 HDFS 文件系统架构概述 029 HDFS架构之NameNode和DataNode 030 HDFS 架构讲解总结 031 回顾NameNode和DataNode 032 HDFS架构之Client和SNN功能 033 HDFS Shell 命令命令讲解和演示 034 讲解HDFS 文件读写流程 035 详解HDFS API之FileSystem方式基本操作一 036 HDFS Java API 两种方式介绍及使用URL API详解一 037 使用URL API详解二 038 使用HDFS FileSystem API 详解 039 HDFS文件系统读写流程及HDFS API两种方式读取文件 040 详解HDFS API之FileSystem方式基本操作二 041 讲解分析Configuration和FileSystem类源代码 042 引出HDFS实际应用场景之合并文件和使用getmerge命令并查看实现源码 043 分析getmerge功能实现思路和代码实现 044 演示讲解【百度网盘】功能与HDFS API对应说明 045 HDFS 专题结束和布置HDFS 作业 046 MapReduce架构原理介绍讲解 047 WordCount运行和MapReduce运行基本流程 048 MapReduce执行流程详解 049 MapReduce编程模型讲解及运行PI程序和JobWebUI监控Job运行 050 如何按照【八股文】方式编写MapReduce 051 复习MapReduce编写模型和【八股文】方式编写MapReduce 052 完成MyWordCount程序编写 053 打包运行MyWordCount程序并监控Job运行 054 优化MyWordCount程序和讲解GenericOptionsParser 055 安装Hadoop Eclipse插件并使用Eclipse查看文件系统 056 使用Eclipse运行MyWordCount程序并解决PriviledgedActionException问题 057 MyWordCount 处理过程详解 058 MapReduce提交作业源码跟踪讲解 059 MR作业运行流程整体分析 060 MapReduce执行流程之Shuffle和排序流程以及Map端分析 061 MapReduce执行流程之Reduce端分析 062 MapReduce Shuffle过程讲解和Map Shuffle Phase讲解 063 Reduce Shuffle Phase讲解 064 源代码跟踪查看Map Task和Reduce Task数目的个数 065 回顾MapReduce执行过程以及MapReduce核心 066 Hadoop MapReduce框架数据类型讲解 067

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值