- 博客(9)
- 资源 (16)
- 收藏
- 关注
原创 redis的安装部署(单机)
1 . 首先安装c的编译环境: yum -y install cpp yum -y install binutils yum -y install glibc yum -y install glibc-kernheaders yum -y install glibc-common yum -y install glibc-devel yum -y
2015-07-30 11:17:51 320
原创 Spark 1.X 大数据平台V2(第四周作业)
1 . 假如数据源来自网络,数据默认会在几个node的内存中缓存住。• A. 1• B. 2• C. 3选B 当数据源来自于网络时(例如通过Kafka、Flume、sockets等等),默认的持久化策略是将数据保存在两台机器上,这也是为了容错性而设计的。2 . Spark Streaming默认持久化的级别是什么?• A. 内存+序列化• B. 内存+非序列化
2015-07-29 14:18:07 464
原创 kill掉yarn正在运行的job/app
启动一个spark streaming,一直在跑,看着烦人,直接杀掉cd /usr/lib/hadoop-yarn/bin ./yarn application -kill application_1436784252938_0013查看状态: ./yarn application -status application_1436784252938_0013
2015-07-29 12:19:29 5677
原创 Hadoop Web UI Queues参数解析
hadoop是通过队列管理集群资源,翻开集群Web UI,找到Schedule查看Queue State : queue 的状态 Used Capacity : 0.0% 已使用资源占队列配置值的百分比Absolute Used Capacity : 0.0% 已使用资源占集群的百分比Absolute Capacity : queue 至少可以使用系统资源占集群的百分比 Absol
2015-07-28 14:46:04 1219
原创 hadoop-CDH5.3 集群搭建(详细)
一. 准备工作规划: 1 . CDH5的YUM源设置:安装httpd作为http的yum源服务[root@JXQ-23-27-48 ~]# yum install httpd配置yum源(需要开通网络80端口)[root@JXQ-23-27-38 ~]# cat /etc/yum.repos.d/cloudera-cdh5.repo [cloudera-cdh5]# Package
2015-07-16 11:36:00 3791
原创 Failed to start Hadoop datanode. Return value: 1
启动某data节点失败:service hadoop-hdfs-datanode startstarting datanode, logging to /var/log/hadoop-hdfs/xxxx.outFailed to start Hadoop datanode. Return value: 1 [FAILED]vim /var/log/hadoop-hdfs/xxx
2015-07-14 11:00:08 2236
原创 hadoop Unhealthy Nodes
http://xxxxxxx:8088/cluster/nodes/unhealthy下查看: 有三个节点nodemanager挂掉。 Healthy-report:2/2 local-dirs are bad: /export/hdfs/2/yarn/local,/export/hdfs/1/yarn/local; 2/2 log-dirs are bad: /export/hdfs/2
2015-07-13 18:22:46 2125
原创 hadoop Failed to load class "org.slf4j.impl.StaticLoggerBinder"
[root@JXQ-23-27-40 ~]# hadoop fs -ls /SLF4J: Failed to load class "org.slf4j.impl.StaticLoggerBinder".SLF4J: Defaulting to no-operation (NOP) logger implementationSLF4J: See http://www.slf4j.org/code
2015-07-06 17:05:13 1509
转载 Hadoop-CDH4各个脚本文件的作用
1、sbin目录下的 1、distribute-exclude.sh 这个脚本用来将exclude文件分发到各个Namenode上。 2、hadoop-setup-conf.sh 1、这个脚本用来从模板xml配置文件中生成到etc目录下的配置文件。 2、针对特定的配置文件增加配置项 3、
2015-07-01 13:55:34 569
hadoop distcp
2015-02-05
windowsFTP
2013-09-17
PowerDesigner125Crack破解
2013-09-13
FlashFXPE_xp510破解版
2013-06-08
润乾报表跨域问题解决方案
2013-04-26
Everything_1.2.1.37
2013-02-04
FusionCharts-v3.1破解版
2013-02-04
JAVA 反编译工具jad
2013-01-17
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人