hadoop笔记

59 篇文章 11 订阅 ¥9.90 ¥99.00
这篇博客详细记录了Hadoop框架的核心组件MapReduce和HDFS,以及从单机到集群的逐步部署过程,包括伪分布式和全分布式部署。同时,涵盖了在Ubuntu上搭建Hadoop2.9集群的步骤,并讨论了Hadoop高可用性(HA)配置。还总结了eclipse-hadoop插件使用中可能遇到的问题。
摘要由CSDN通过智能技术生成

【1】Hadoop框架核心:MapReduce、HDFS。
【2】Hadoop单机部署
【3】伪分布式部署
【4】eclipse-hadoop 插件问题汇总
【5】ubuntu16.04部署hadoop2.9集群
【6】配置hadoop集群HA


【1】Hadoop框架核心:MapReduce、HDFS。
【2】Hadoop单机部署

#本地模式是最简单的模式,所有模块都运行与一个JVM进程中,使用的本地文件系统,而不是HDFS,本地模式主要是用于本地开发过程中的运行调试用。下载hadoop安装包后不用任何设置,默认的就是本地模式。
1.安装ssh
sudo apt-get install ssh
sudo apt-get install rsync	#远程数据同步工具
2.下载hadoop安装包
https://mirror.bjtu.edu.cn/apache/hadoop/common/stable/
3.解压安装包,并配置环境变量。
export  JAVA_HOME=/opt/jdk1.8
export  JRE_HOME=$JAVA_HOME/jre
export  CLASSPATH=.:$JAVA_HOME/lib:$JRE_HOME/lib
export  PATH=$JAVA_HOME/bin:$PATH
export  HADOOP_HOME=/opt/hadoop-2.9.0
export  PATH=$PATH:$HADOOP_HOME/bin:$HADO
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值