基于Raspberry Pi Raspbian 的 Hadoop 安装

一、安装Raspbian

准备:

1·Rsapberry Pi

2·8G内存卡一张(格式化)

3·网络(有线)

开始安装:

这里使用的是官方推荐的NOOBS,将下载的NOOBS解压后,将NOOBS文件夹中的全部文件拷贝到已经格式化的内存卡中,

然后将内存卡插入树莓派中,上电自动开机,出现系统安装选择界面,这里选择的是比较成熟的Raspbian操作系统(本地文件安装),也就是第二项,选中后,Install

这将耗费20分钟左右,自动安装完成后,有更多的个性化操作,这里没有进行更多操作,直接选择【Finish】进入该Raspbian系统中,默认是账户是pi,密码是raspberrypi

想要使用root账户的话,可以这样设置密码:

pi@raspberrypi ~ $ su passwd root

二、安装Hadoop

1、首先安装好JDK环境

由于该系统已经有配置好的JDK环境,并且安装目录在:

pi@raspberrypi / $ cd usr/lib/jvm/jdk-7-oracle-armhf/

并且环境变量已经配置好了(暖暖的,很贴心):


2、好,进入Hadoop安装:

这里安装1.2版本

wget http://mirror.bit.edu.cn/apache/hadoop/common/hadoop-1.2.1/hadoop-1.2.1.tar.gz

解压缩:、

tar -zxvf hadoop-1.2.1.tar.gz

然后进入该目录,配置hadoop-env.sh、core-site.xml、hdfs-site.xml、mapred-site.xml四个文件;:

cd hadoop-1.2.1/conf

首先是:

vim hadoop-env.sh

高亮处配置成JDK的安装目录,上述由提到。

然后配置三个xml文件:

分别是:

(1)core-site.xml

root@raspberrypi:/opt/hadoop-1.2.1/conf# cat core-site.xml
<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>

<!-- Put site-specific property overrides in this file. -->

<configuration>
    <property>
        <name>fs.default.name</name>
        <value>hdfs://raspberrypi:9000</value>
    </property>
</configuration>

(2)hdfs-site.xml:

<configuration>

<property>
    <name>dfs.namenode.name.dir</name>
    <value>file://${hadoop.tmp.dir}/dfs/name</value>
    <description>Determines where on the local filesystem the DFS name node
        should store the name table(fsimage).  If this is a comma-delimited list
        of directories then the name table is replicated in all of the
        directories, for redundancy. </description>
</property>


<property>
    <name>dfs.datanode.data.dir</name>
    <value>file://${hadoop.tmp.dir}/dfs/data</value>
    <description>Determines where on the local filesystem an DFS data node
        should store its blocks.  If this is a comma-delimited
        list of directories, then data will be stored in all named
        directories, typically on different devices.
        Directories that do not exist are ignored.
    </description>
</property>

<property>  
        <name>dfs.replication</name>  
        <value>2</value>  
</property>

<property>    
        <name>dfs.block.size</name>    
        <value>134217728</value>    
</property>
64M:    67108864
32M:    33554432
16M:    16777216
8M:        8388608
4M:        4194304

</configuration>

(3)

mapred-site.xml

<configuration>
    <property>
        <name>mapreduce.jobtracker.address</name>
        <value>raspberrypi:9001</value>
        <description>jobtracker's address</description>
    </property>
</configuration>


配置/etc/profile

JAVA_HOME=/usr/lib/jvm/jdk-7-oracle-armhf/
JRE_HOME=$JAVA_HOME/jre
HADOOP_HOME=/opt/hadoop-1.2.1
CLASSPATH=$JAVA_HOME/lib:$JRE_HOME/lib:$CLASSPATH
PATH=$JAVA_HOME/bin:$JRE_HOME/bin:$HADOOP_HOME/bin:$PATH

不知道怎么回事,hadoop的环境变量可能没有配置好,只能到

/opt/hadoop-1.2.1/bin 目录下执行:

./hadoop namenode -format

./start-all.sh

把这些服务都启动起来,要输入三次密码


jps查看下都起来了没有。

到此,hadoop,单机算是安装完成了


  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值