前言:接下来带大家学习大数据的生态圈,以及数据挖掘。学习Hadoop,Hive,HBase,Pig,Spark,Oozie等大数据技术,带你装逼带你飞。
首先安装一下hadoop
下载hadoop
wget http://mirror.bit.edu.cn/apache/hadoop/common/hadoop-1.2.1/hadoop-1.2.1.tar.gz
mv hadoop-1.2.1.tar.gz /opt/
tar -zxvf hadoop-1.2.1.tar.gz
设置HADOOP环境变量
HADOOP_HOME=/opt/hadoop-1.2.1
PATH=:$HADOOP_HOME/bin:$PATH
vim /etc/profile
source /etc/profile
修改四个配置文件
1、hadoop-env.sh 设置JAVA_HOME
2、修改core-site.xml 设置hadoop.tmp.dir
dfs.name.dir,fs.default.name
3、修改mapred-site.xml 设置mapred.job.tracker
4、修改hdfs-site.xml 设置dfs.data.dir
cd conf
scho $JAVA_HOME
JAVA_HOME=/root/java/jdk1.8.0_131
vim hadoop-env.sh
vim mapred-site.xml
<property>
<name>mapred.job.tracker</name>
<value>yanhui:9001</value>
</property>
vim core-site.xml
<property>
<name>hadoop.tmp.dir</name>
<value>/hadoop</value>
</property>
<property>
<name>dfs.name.dir</name>
<value>/hadoop/name</value>
</property>
<property>
<name>fs.default.name</name>
<value>hdfs://yanhui:9000</value>
</property>
vim hdfs-site.xml
<property>
<name>dfs.data.dir</name>
<value>/hadoop/data</value>
</property>
检验是否安装成功
hadoop namenode -format
bin start-all.sh
jps
HDFS命令
hadoop fs -mkdir input --创建目录
hadoop fs -ls /user/root --查看目录
hadoop fs -put hadoop-env.sh input/ --上传文件
hadoop fs -ls /user/root/input/ --查看文件
hadoop fs -cat input/hadoop-env.sh --查看文件
hadoop fs -get input/hadoop-env.sh hadoop-env2.sh --下载文件
hadoop dfsadmin -report
源码下载:
链接:http://pan.baidu.com/s/1boT6v6Z 密码:mtka