sqoop作用是hdfs和mysql、oralce间数据的导入和导出。在mapreduce中,计算的结果会写入output对应的hdfs路径中。运用hive操作进行数据统计后存入创建的结果表中,有些也需要导出到mysql库中供web页面访问。sqoop在这里就起到了数据传输的作用。
题外话,如果使用sparkSQL进行数据计算,sparkSession则可以直接read hdfs或者hive表中的数据,write则可以和很多数据库的驱动直接交互,把数据写入进去,不需要sqoop操作。样例如下:https://blog.csdn.net/weixin_41044499/article/details/94591039
sqoop下载地址:http://mirrors.hust.edu.cn/apache/sqoop/1.4.7/
解压缩,修改配置文件,参见这篇文章 https://www.cnblogs.com/qingyunzong/p/8807252.html
将数据从mysql写入hdfs:
将刚刚的数据再导出到mysql中
执行mapreduce操作后,查询该表,发现数据又被导入了一次