终端运行hadoop

启动hadoop

进去hadoop-1.2.1/bin

首先格式化文件系统$./hadoop namenode -format

运行$./start-all.sh启动hadoop

jps命令查看进程

查看集群状态$hadoop dfsadmin -report

在启动之后可以运行./hadoop fs -ls 命令查看hadoop的根目录

MapReduce应用案例

wordcount

(1)先在本地磁盘建立两个输入文件file01file02

$echo“Hello World Bye World” > file01

$echo“Hello Hadoop Goodbye Hadoop” > file02

(2)hdfs中建立一个input目录

$./hadoopfs -mkdir input

(3)file01file02拷贝到hdfs

$./hadoopfs -copyFromLocal ~/hadoop-1.2.1/bin/file0* input

(4)执行wordcount

$./hadoopjar ~/hadoop-1.2.1/hadoop-examples-1.2.1.jar wordcount input output

(5)查看输出结果

$./hadoopfs -cat output/part-r-00000


测试mahout
1.开启hadoop
2.hdfs上创建测试目录testdata,上传数据
$HADOOP_HOME/bin/hadoop fs -mkdir testdata
$HADOOP_HOME/bin/hadoop fs -put $MAHOUT_HOME/synthetic_control.data testdata
3.使用kmeans算法
bin/hadoop jar /usr/mahout-distribution-0.8/mahout-examples-0.8-job.jar org.apache.mahout.clustering.syntheticcontrol.canopy.Job
4.等待运行结果,查看
$HADOOP_HOME/bin/hadoop fs -ls /user/wangnan/output


  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值