测试环境搭建整套大数据系统(十六:超级大文件处理遇到的问题)

一:yarn出现损坏的nodemanger

报错现象

日志:1/1 local-dirs usable space is below configured utilization percentage/no more usable space [ /opt/hadoop-3.2.4/data/nm-local-dir : used space above threshold of 90.0% ] ; 1/1 log-dirs usable space is below configured utilization percentage/no more usable space [ /opt/hadoop-3.2.4/logs/userlogs : used space above threshold of 90.0% ]
在这里插入图片描述

问题解析

yarn在启动服务的时候,需要加载文件资源到本地目录,目前显示本地目录资源使用百分之九十,没有办法在继续写入。

解决方案

  1. 在路径下增加磁盘资源
  2. 重新定位新的目录
<property>
<name>yarn.nodemanager.local-dirs</name>
<value>/data/nodemanagerlog</value>
</property>
<property>
  <name>yarn.nodemanager.log-dirs</name>
  <value>/data/log_dirs</value>
</property>

二:yarn资源配置

三个节点
内存 64g,80g,80g
核数 16,20,20

增加yarn资源调整参数
每个节点的参数可以设置不同

<!-- 这台服务器可以提供给yarn的核数 -->
<property>
<name>yarn.nodemanager.resource.cpu-vcores</name>
<value>20</value>
</property>
<!-- 这台服务器可以提供给yarn的内存 -->
<property>
<name>yarn.nodemanager.resource.memory-mb</name>
<value>61440</value>
</property>

<!-- 容器可以配置的最小内存 -->
<property>
<name>yarn.scheduler.minimum-allocation-mb</name>
<value>1024</value>
</property>
<!-- 容器可以配置的最大内存 -->
<property>
<name>yarn.scheduler.maximum-allocation-mb</name>
<value>60000</value>
</property>
<!-- 容器可以配置的最大核数 -->
<property>
<name>yarn.scheduler.maximum-allocation-vcores</name>
<value>40</value>
</property>

在这里插入图片描述

/opt/flink-1.13.6/bin/flink run -m yarn-cluster -ys 20  -yjm 60000  -ytm 60000 -d -c com.shds.platform.cyberspace.CyberspaceParseJob /root/collection-cyberspace-1.0-SNAPSHOT.jar 

三:插入hbase出现反压

报错信息

org,apache.hadoop.hbase.client,AsyncRequestFutureImplexception=org.apache,hadoop.hbase.RegionTooBusyException: org.apache,hadoop.hbase,RegionTooBusvException: Over memstore limit=512.8 M

在这里插入图片描述

报错原因

问题出现在刷盘的时候,当menstore满了的时候,会将数据存储到hfile。当插入的时候是不能写入的。所以导致了这个问题。

解决方案

很多方案,最笼统的直接增加regionserver的资源大小进行重启。

vim hbase-env.sh
export HBASE_REGIONSERVER_OPTS="-Xms4G -Xmx8G"
  • 1
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
大数据竞赛实训环境搭建是指搭建一个实际的大数据竞赛实训环境,为参与者提供一个进行大数据处理、数据清洗以及数据可视化的平台。搭建这个环境需要使用一些工具和技术,如Hadoop、Hive和数据可视化工具等。 首先,需要安装和配置Hadoop集群。Hadoop是处理大数据的核心工具,可以提供分布式存储和计算能力。安装Hadoop集群需要配置主节点和从节点,并设置好各节点的IP地址、端口号等参数。 接下来,需要安装Hive。Hive是一个建立在Hadoop之上的数据仓库工具,可以用于数据的存储、查询和分析。安装Hive需要配置相关的数据库和元数据存储。 在搭建完基本环境后,就可以进行大数据处理了。大数据处理是对原始数据进行处理和清洗,以便后续的分析和应用。可以使用Hive提供的SQL语句对数据进行筛选、过滤和转换操作,以及进行缺失值和异常值的处理。 在数据清洗完成后,就可以进行数据可视化了。数据可视化是将数据通过可视化图表的方式展示出来,以便于对数据进行分析和理解。可以使用一些数据可视化工具,如Tableau、Power BI等,来创建图表、仪表盘和报表,并将清洗后的数据导入其中。 综合题是将上述的大数据处理和数据可视化结合起来进行综合应用。可以使用Hive对数据进行预处理和清洗,然后将清洗后的数据导入数据可视化工具中进行进一步的分析和可视化展示,如创建柱状图、折线图等各种图表形式,以及添加筛选条件、交互功能等,以得出更深入的洞察和结论。 总之,大数据竞赛实训环境搭建涉及到安装和配置Hadoop集群和Hive,进行大数据处理和数据清洗,以及使用数据可视化工具进行数据可视化和分析。这个过程需要熟悉相关的工具和技术,并灵活运用它们,以便在实际的大数据竞赛中取得较好的成绩。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值