启动hadoop

一、Hadoop

1. 编辑 /etc/hosts文件,添加主机和ip信息,所有节点保持一致

172.17.0.2    master
172.17.0.3    slave01
172.17.0.4    slave02

2. 配置主节点,在master上配置slave信息

vim /usr/local/hadoop/etc/hadoop/slaves
slave01
slave02

3. 启动集群

cd /usr/local/hadoop
./bin/hdfs namenode -format
./sbin/start-all.sh

4. 查看java进程

jps

5. 做实验

5.1 创建hdfs文件夹

cd /usr/local/hadoop
./bin/hdfs dfs -mkdir -p /user/hadoop/input

5.2 复制文件至input中

./bin/hdfs dfs -put ./etc/hadoop/*.xml /user/hadoop/input

5.3 查看input下的所有文件

./bin/hdfs dfs -ls /user/hadoop/input

5.4 跑代码

./bin/hadoop jar ./share/hadoop/mapreduce/hadoop-mapreduce-examples-*.jar grep /user/hadoop/input output 'dfs[a-z.]+'

5.5 看结果

./bin/hdfs dfs -cat output/*

5.6 删除output,可重新跑代码

/usr/local/hadoop/bin/hdfs dfs -rm -r  output

二 、Sqoop

1. 下载sqoop

因为官方并不建议在生产环境中使用sqoop2,即1.99.7,所以这里我用的是sqoop1,即1.4.7
点击下载:http://mirror.bit.edu.cn/apache/sqoop/

2. 上传与解压

tar -xvf sqoop-1.4.7.bin__hadoop-2.6.0.tar sqoop-1.4.7
mv sqoop-1.4.7 /usr/local/

3. 配置环境变量

vim ~/.bashrc
export SQOOP_HOME=/usr/local/sqoop-1.4.7
export PATH=$JAVA_HOME/bin:$SQOOP_HOME/bin

编辑完成后,执行命令

source ~/.bashrc

4. sqoop配置文件修改

cd /usr/local/sqoop-1.4.7/conf
cp sqoop-env-template.sh sqoop-env.sh
vim sqoop-env.sh

sqoop-env.sh文件末尾加入以下配置

export HADOOP_COMMON_HOME=/usr/local/hadoop
export HADOOP_MAPRED_HOME=/usr/local/hadoop
export HIVE_HOME=/usr/local/hive
export HBASE_HOME=/usr/local/hbase

5. 把MySQL的驱动包上传到sqoop的lib下

 

6. 使用sqoop

sqoop help

7. 使用sqoop查看mysql中的数据表

 ./sqoop list-databases --connect jdbc:mysql://192.168.1.34:3306/test?characterEncoding=UTF-8 --username root --password '123456'

 

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值