yinjs1989
码龄15年
关注
提问 私信
  • 博客:15,152
    15,152
    总访问量
  • 3
    原创
  • 1,390,672
    排名
  • 1
    粉丝
  • 0
    铁粉
IP属地以运营商信息为准,境内显示到省(区、市),境外显示到国家(地区)
IP 属地:北京市
  • 加入CSDN时间: 2009-12-26
博客简介:

jason的专栏

博客描述:
兴趣是最好的老师
查看详细资料
个人成就
  • 获得2次点赞
  • 内容获得1次评论
  • 获得31次收藏
创作历程
  • 1篇
    2014年
  • 2篇
    2013年
TA的专栏
  • hadoop
    2篇
  • linux
  • java
创作活动更多

2024 博客之星年度评选报名已开启

博主的专属年度盛宴,一年仅有一次!MAC mini、大疆无人机、华为手表等精美奖品等你来拿!

去参加
  • 最近
  • 文章
  • 代码仓
  • 资源
  • 问答
  • 帖子
  • 视频
  • 课程
  • 关注/订阅/互动
  • 收藏
搜TA的内容
搜索 取消

Hadoop监控方法总结

接触Hadoop已经一年半了,期间积累了一些Hadoop运维经验,一直想自己开发一套Hadoop监控系统,正好最近实验室有个相关的项目,就借机研究了一下,在这里总结一下Hadoop监控办法。一直认为Hadoop本身自带的HDFS和JobTracker监控页面是最好用的监控页面,简单明了。但是现在想要自己开发一套监控系统,那该怎样去获取Hadoop集群的当前状况呢?网页抓取首先,想到
原创
发布博客 2014.01.03 ·
12184 阅读 ·
2 点赞 ·
1 评论 ·
17 收藏

hadoop datanode节点超时时间设置

datanode进程死亡或者网络故障造成datanode无法与namenode通信,namenode不会立即把该节点判定为死亡,要经过一段时间,这段时间暂称作超时时长。HDFS默认的超时时长为10分钟+30秒。如果定义超时时间为timeout,则超时时长的计算公式为: timeout  = 2 * heartbeat.recheck.interval + 10 * dfs.heartbeat.
原创
发布博客 2013.10.13 ·
1783 阅读 ·
0 点赞 ·
0 评论 ·
0 收藏

HDFS冗余数据块的自动删除

在日常维护hadoop集群的过程中发现这样一种情况:某个节点由于网络故障或者DataNode进程死亡,被NameNode判定为死亡,HDFS马上自动开始数据块的容错拷贝;当该节点重新添加到集群中时,由于该节点上的数据其实并没有损坏,所以造成了HDFS上某些block的备份数超过了设定的备份数。通过观察发现,这些多余的数据块经过很长的一段时间才会被完全删除掉,那么这个时间取决于什么呢?该时间
原创
发布博客 2013.10.13 ·
1185 阅读 ·
0 点赞 ·
0 评论 ·
0 收藏

LaTeX经典书籍

发布资源 2012.03.04 ·
rar

Linux下用Socket和多线程实现简单聊天室

发布资源 2011.04.05 ·
application/x-rar

随机信号经线性系统并行叠加后分析

发布资源 2011.03.22 ·
application/x-rar