- 博客(1)
- 资源 (1)
- 收藏
- 关注
原创 基于Docker搭建hdfs分布式实验环境
HDFS(Hadoop Distributed File System),作为Google File System(GFS)的实现,是Hadoop项目的核心子项目,是分布式计算中数据存储管理的基础,是基于流数据模式访问和处理超大文件的需求而开发的,可以运行于廉价的商用服务器上。导入成功后,源tar文件可以删除。/usr/local/hadoop/bin/hdfs dfs -put /usr/local/hadoop/spark.tar.gz /test # 将刚压缩的文件上传到/test目录上。
2022-10-20 21:54:40 1881 2
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人