ubuntu hadoop安装以及配置

一、linux下java环境的配置

1、  下载linux版本的jdk安装包,我用的就是jdk-6u43-linux-i586.bin(二进制文件)

执行Apt-get install  /opt/jdk-6u43-linux-i586.bin

将文件安装在/opt/路径下

2、  Jdk开发环境的配置

执行vim /etc/profile

将下面代码加入profile文本最后面

#set javaenvironment

export JAVA_HOME=/opt/jdk1.6.0_43

exportJRE_HOME=/opt/jdk1.6.0_43/jre

exportCLASSPATH=.:$JAVA_HOME/lib:$JRE_HOME/lib:$CLASSPATH

exportPATH=$JAVA_HOME/bin:$JRE_HOME/bin:$PATH

source /etc/profile

执行java –version  查看java的版本号,如果配置成功会有一下信息出来

二、ssh免钥匙登陆的配置

先看看伪分布的ssh免钥匙的登陆

三、hadoop的安装以及配置

1、  下载hadoop文件

现在稳定版本是hadoop1.1x版本,最好是稳定版的,因为支持是功能是最多的,hadoop最好下tar包,如图

 

2、  添加一个hadoop账户

执行useradd hadoop  这样就在/home 目录下新建了一个账户

3、  把下载的hadoop文件放到/home/hadoop 下面

进入/home/hadoop目录

执行 tar –xvf  hadoop-1.1.2-bin.tar.gz 对文件进行解压缩

4、  hadoop环境变量配置

(1)修改hadoop-env.sh文件

进入/home/hadoop/hadoop-1.1.2/conf

执行gedit hadoop-env.sh

将export  JAVA_HOME=/opt/jdk1.6.0_43  加入文件当中

执行source /home/hadoop/hadoop-1.1.2/conf/hadoop-env.sh  使文件生效

(2)修改hdfs-site.xml文件

进入/home/hadoop/hadoop-1.1.2/conf目录

执行gedit hdfs-site.xml

在文档中加入

<property>

    <name>dfs.replication</name>

    <value>1</value>

</property>

(3)修改core-site.xml文件

<property>

    <name>fs.default.name</name>

    <value>hdfs://localhost:9000</value>

</property>

(4)修改mapred-site.xml文件

<property>

    <name>mapred.job.tracker</name>

    <value>localhost:9001</value>

</property>

5、  添加hadoop命令行到linux

# 执行
gedit /etc/profile
# hadoop安装目录
export HADOOP_HOME=/home/hadoop-1.1.2/ 
# 使文件生效
source /etc/profile

6、  使hadoop 文件系统格式化

cd  /home/hadoop/ hadoop-1.1.2/bin
# 进行格式化
./hadoop  namenode –format 
# 全面启动hdfs文件系统
./hadoop start-all.sh

7、  测试hadoop文件系统

执行jps看结果

使用web功能

localhost:50070hdfs 文件系统

localhost:50030hdfs mapreduce文件框架

四、测试文件传输功能

1、传输文件、删除文件

2、上传文件

3、hadoop常用命令 :

# Hdfs的命令格式

./hadoopfs –rmr   /tmp 

./hadoopfs –put /opt/java  hdfs://localhost:9000/

# 启动Hadoop

cd HADOOP_HOME

sh bin/start-all.sh

# 关闭Hadoop

cd HADOOP_HOME

sh bin/stop-all.sh

# 查看指定目录下内容

hadoop dfs –ls [文件目录]

eg: hadoop dfs –ls /user/wangkai.pt

# 打开某个已存在文件

hadoop dfs –cat [file_path]

eg:hadoop dfs -cat /user/wangkai.pt/data.txt

# 将本地文件存储至hadoop

hadoop fs –put [本地地址] [hadoop目录]

hadoop fs –put /home/t/file.txt /user/t   (file.txt是文件名)

# 将本地文件夹存储至hadoop

hadoop fs –put [本地目录] [hadoop目录] 

hadoop fs –put /home/t/dir_name /user/t  (dir_name是文件夹名)

# 将hadoop上某个文件down至本地已有目录下

hadoop fs -get [文件目录] [本地目录]

hadoop fs –get /user/t/ok.txt /home/t

# 删除hadoop上指定文件

hadoop fs –rm [文件地址]

hadoop fs –rm /user/t/ok.txt

# 删除hadoop上指定文件夹(包含子目录等)

hadoop fs –rm [目录地址]

hadoop fs –rmr /user/t

# 在hadoop指定目录内创建新目录

hadoop fs –mkdir /user/t

# 在hadoop指定目录下新建一个空文件,使用touchz命令:

hadoop  fs  -touchz  /user/new.txt

# 将hadoop上某个文件重命名

使用mv命令:

hadoop  fs  –mv  /user/test.txt /user/ok.txt  (将test.txt重命名为ok.txt)

# 将hadoop指定目录下所有内容保存为一个文件,同时down至本地

hadoop dfs –getmerge /user /home/t

# 将正在运行的hadoop作业kill掉

hadoop job –kill  [job-id]

五、测试mapreduce功能

目的:将/home/hadoop/ hadoop-1.1.2/bin下面的全部*.sh文件放到hdfs://localhost:9000/input文件中,并且通过mapreduce计算他里面require单词出现的频率

执行./hadoop  fs –mkdir  /input 在hadoop系统根目录下建input文件夹

执行./hadoop   fs -put  *.sh   /input/

执行./hadoop jar hadoop-examples-1.1.2.jarwordcount  /input   /output计算require单词数

点击part—r00000查看结果

在电脑上面计算所有*.sh文件里面required出现的次数

执行 grep  *.sh   然后执行grep require *.sh |wc

结果是14个与mapreduce结果一样

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值