经过很多年的发展,hadoop生态圈不断的完善和完善,除了核心HDFS和MapReduce以外,Hadoop生态圈还包括zookeeper、HBase,Hive、pig、Mahout、Sqoop、Flume、Ambari等
接下来我会更好的完善hadoop生态圈。
Ambari:安装、部署、配置和管理工具
zookeeper:分布式协作服务
HBase:分布式数据库
hive:数据仓库
pig:数据流处理
MapReduce:分布式计算框架
YARN:资源调度和管理框架
HDFS:分布式文件系统
Sqoop:数据库ETL
Flume:日志收集
HDFS是进行存储的,YARN是进行调度的。
一、配置环境集群,这个环节我们都是在hadoop下进行的。
1、首先需要在hadoop下,所以我们要切换到hadoop下。
/opt/module/hadoop-3.1.3/etc/hadoop
设置hadoop-env.sh文件
vi hadoop-env.sh