HDFS_01_Hadoop简介

HDFS_01_Hadoop简介

持续更新大数据文章 …

本篇文章学的是 Hadoop 生态圈里面的 HDFS,HDFS 是解决大数据海量数据存储的技术。

1. Hadoop

1.1 为什么要学习Hadoop?

大数据是时代发展和技术进步的产物,Hadoop 只是一种处理大数据的技术手段。所以想要学习大数据就必须先学习 Hadoop !广义上来说,hadoop 指代大数据的一个生态圈,包括很多其他的软件。

大数据是一系列技术的统称,经过多年的发展,大数据已经形成了从数据采集、整理、传输、存储、安全、分析、呈现和应用等一系列环节,这些环节涉及到诸多大数据工作岗位,这些工作岗位与物联网、云计算也都有密切的联系。

Hadoop是一个由 Apache 基金会所开发的分布式系统基础架构,是用 Java 语言开发的一个开源分布式计算平台,适合大数据的分布式存储和计算平台。

Hadoop 平台提供了分布式存储(HDFS)分布式计算(MapReduce)任务调度(YARN)对象存储(Ozone)组件支撑服务(Common)等技术

随着 Hadoop 的不断发展,基于 Hadoop 的大数据生态越发完善,目前包括 Ambari、Avro、Cassandra、Chukwa、HBase、Hive、Mahout、Pig、Spark、Tez、Zookeeper 等组件陆续被开发出来,这些组件极大的丰富了 Hadoop 自身的应用。

学习大数据肯定需要学习Hadoop技术,Hadoop在大数据技术体系中的地位至关重要,Hadoop是大数据技术的基础,对Hadoop基础知识的掌握的扎实程度,会决定在大数据技术道路上走多远。

Hadoop 学习之后,还得学习 Spark,它是一种与 Hadoop 相似的开源集群计算环境,拥有 Hadoop MapReduce 所具有的优点,Spark 是 MapReduce 的替代方案,而且兼容 HDFS、Hive,可融入Hadoop 的生态系统,以弥补 MapReduce 的不足。这是大数据技术学习的两大重点。

1.2 Hadoop历史

Hadoop最早起源于Nutch。Nutch的设计目标是构建一个大型的全网搜索引擎,包括网页抓取、索引、查询等功能但随着抓取网页数量的增加,遇到了严重的可扩展性问题——如何解决数十亿网页的存储和索引问题。

在2003~2004年谷歌发表的两篇论文为该问题提供了可行的解决方案。这两篇论文是GFS(Google File System)、MapReduce数据计算的方法。

Doug cutting 花费了自己的两年业余时间,将论文实现了出来,2008年1月,HADOOP成为Apache顶级项目。

在这里插入图片描述

1.3 Hadoop官网

​ 网址:http://hadoop.apache.org/

在这里插入图片描述

1.4 Hadoop Model

在这里插入图片描述

  • Hadoop Common:基础型功能
  • Hadoop Distributed File System:负责存放数据
  • Hadoop YARN:负责资源的调配
  • Hadoop MapReduce:大数据的计算框架
  • Hadoop Ozone:数据存放到仓库
  • Hadoop Submarine:机器学习引擎


下期讲解 HDFS_02_文件系统(DFS)......

  • 2
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
### 回答1: 这个错误提示表示 Hadoop 找不到正确的 HDFS 安装路径。你需要检查 Hadoop 配置文件中的 hadoop_hdfs_home 参数是否正确设置,或者确认 HDFS 是否已经正确安装并设置了环境变量。 ### 回答2: Hadoop 是一款大数据处理框架,需要依赖 Hadoop HDFS 存储系统。在配置 Hadoop 环境时,需要设置环境变量 HADOOP_HDFS_HOME,以指定 Hadoop HDFS 的安装路径。当出现 "error: invalid hadoop_hdfs_home" 错误时,意味着系统无法识别该环境变量,即 Hadoop HDFS 安装路径无效。 解决该问题的方法是检查环境变量的设置是否正确。首先在命令行界面输入 echo $HADOOP_HDFS_HOME 命令,以检查系统是否能识别该环境变量。如果该命令无法输出正确的路径,则需要修改环境变量的设置。 可以在 ~/.bashrc 或 ~/.bash_profile 文件中添加以下环境变量设置语句: export HADOOP_HDFS_HOME=/path/to/hadoop-hdfs 其中,/path/to/hadoop-hdfs 是 Hadoop HDFS 的安装路径。设置好这个环境变量之后,可以输入 source ~/.bashrc 或 source ~/.bash_profile 命令,以使环境变量的改动生效。 另外,还可通过设置 Hadoop 的配置文件来修改 Hadoop HDFS 的安装路径。可以在 Hadoop 配置文件 core-site.xml 中添加以下配置: <property> <name>hadoop.hdfs.home</name> <value>/path/to/hadoop-hdfs</value> </property> 在以上配置中,/path/to/hadoop-hdfs 是 Hadoop HDFS 的安装路径。保存好配置文件后,重新启动 Hadoop,即可解决 "error: invalid hadoop_hdfs_home" 错误。 ### 回答3: 这个错误信息意味着在运行hadoop相关命令时,系统无法找到指定的hadoop_hdfs_home环境变量。hadoop_hdfs_home是一个关键的环境变量,用于指定hadoop分布式文件系统(HDFS)的安装目录。如果系统无法找到或者无法识别该环境变量,就会出现invalid错误提示。 要解决这个问题,可以尝试以下步骤: 1.检查hadoop_hdfs_home环境变量是否正确设置,可以通过运行echo $hadoop_hdfs_home命令来确认该环境变量的值是否正确。 2.如果hadoop_hdfs_home环境变量未设置,可以通过手动设置该变量或者运行hadoop-env.sh脚本来设置该变量。 3.如果hadoop_hdfs_home环境变量设置正确,但仍然无法正常运行hadoop相关命令,可以尝试重新安装hadoop,并确保正确配置了环境变量。 4.最后,如果你还是无法解决这个问题,可以查看系统日志文件或运行hadoop日志命令来查找更详细的信息和错误提示,以帮助你进一步解决该问题。 总之,如果出现invalid hadoop_hdfs_home错误提示,需要确认hadoop_hdfs_home环境变量设置是否正确,并根据具体情况采取适当措施,以解决此问题。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值