启动hadoop
进去hadoop-1.2.1/bin
首先格式化文件系统$./hadoop namenode -format
运行$./start-all.sh启动hadoop
用jps命令查看进程
查看集群状态$hadoop dfsadmin -report
在启动之后可以运行./hadoop fs -ls 命令查看hadoop的根目录
MapReduce应用案例
wordcount
(1)先在本地磁盘建立两个输入文件file01和file02
$echo“Hello World Bye World” > file01
$echo“Hello Hadoop Goodbye Hadoop” > file02
(2)在hdfs中建立一个input目录
$./hadoopfs -mkdir input
(3)将file01和file02拷贝到hdfs中
$./hadoopfs -copyFromLocal ~/hadoop-1.2.1/bin/file0* input
(4)执行wordcount
$./hadoopjar ~/hadoop-1.2.1/hadoop-examples-1.2.1.jar wordcount input output
(5)查看输出结果
$./hadoopfs -cat output/part-r-00000
1.开启hadoop
2.hdfs上创建测试目录testdata,上传数据
$HADOOP_HOME/bin/hadoop fs -mkdir testdata
$HADOOP_HOME/bin/hadoop fs -put $MAHOUT_HOME/synthetic_control.data testdata
3.使用kmeans算法
bin/hadoop jar /usr/mahout-distribution-0.8/mahout-examples-0.8-job.jar org.apache.mahout.clustering.syntheticcontrol.canopy.Job
4.等待运行结果,查看
$HADOOP_HOME/bin/hadoop fs -ls /user/wangnan/output