hadoop
搬运工小刚
这个作者很懒,什么都没留下…
展开
-
HDFS如何处理大量的小文件
过多小文件导致的问题?1、在HDFS中,任何一个文件,目录或者block在NameNode节点的内存中均以一个对象表示(元数据),而这受到NameNode物理内存容量的限制。每个元数据对象约占150byte,所以如果有1千万个小文件,每个文件占用一个block,则NameNode大约需要15G空间。如果存储1亿个文件,则NameNode需要150G空间,这毫无疑问1亿个小文件是不可取的。2、处理小文件并非Hadoop的设计目标,HDFS的设计目标是流式访问大数据集(TB级别)。因而,在HDFS中存储大量原创 2020-05-28 09:08:19 · 1851 阅读 · 0 评论 -
完美解决Hadoop 每次打开虚拟机重启hadoop都要重新格式化才能启动Namenode或DataNode节点的问题
我的情况是:起初安装配置好hadoop后(安装搭建hadoop集群详细步骤),使用jps命令都可以查看到NameNode,SecondaryNameNode,jps,ResourceManager,NodeManager,DataNode节点,但是每天打开电脑重新启动虚拟机,启动集群后,要么namenode节点没了,要么就是datanode节点没了。删除安装包下的logs和tmp,再重新启动ha...原创 2019-12-12 10:15:57 · 4451 阅读 · 0 评论 -
安装配置hadoop,搭建hadoop集群,搭建伪分布式详细步骤
hadoop搭建集群1.生成密钥对(NameNode和DataNode都需要)[root@sql ~]#ssh-keygen -t rsa -P ' '2.查看密钥对[root@gg1 ~]# cd .ssh/[root@gg1 .ssh]# lsid_rsa id_rsa.pub3.删除DataNode的密钥对,NameNode的不可以删!!![root@gg1 .ssh]...原创 2019-12-12 10:13:36 · 711 阅读 · 0 评论