自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

hzdxw的专栏

欢迎大家的来访,希望积极评论,共同进步!!!

  • 博客(50)
  • 收藏
  • 关注

原创 zk 单机 集群-选举-续

zk 单机 集群-选举-续

2016-06-30 17:53:56 621 1

原创 zk 单机 集群-节点操作,选举

zk 单机 集群-节点.选举

2016-06-30 17:37:18 804

原创 Zookeeper 节点操作,storm 启动

Zookeeper 节点操作,storm 启动

2016-06-29 23:23:02 2051

原创 Zookeeper , storm 启动

http://blog.csdn.net/kongxx/article/details/41015817http://blog.csdn.net/kongxx/article/details/41015817http://blog.csdn.net/kongxx/article/details/41015817[root@cdh1 zookeeper-3.4.6]# zkServer.sh

2016-06-29 23:22:08 1250 4

原创 kafka producer consumer 实时读数据

kafka producer consumer 实时读数据

2016-06-29 20:36:53 2450 2

原创 profile

#Hadoop Envexport HADOOP_HOME_WARN_SUPPRESS=1export JAVA_HOME=/user/local/jdk#export HADOOP_HOME=/user/local/hadoop#export PATH=$JAVA_HOME/bin:$HADOOP_HOME:/bin:$PATHexport PATH=$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH#Hadoop Envexpo

2016-06-29 07:51:17 625

原创 kafaka 单机安装 及 连通性测试

/user/local/kafka_2.9.2-0.8.1.1KAFKA单机测试连通性,成功:producer端输入什么内容,cusumer端就显示什么内容。 okhttp://czj4451.iteye.com/blog/2041096http://czj4451.iteye.com/blog/2041096dataLength = 9numChildren = 0[zk: 127.0.0.1:2181(CONNECTED) 13] get /mykey2myvalue22cZx

2016-06-29 07:13:32 4338 2

转载 注意!!!获取数据库服务器主机ip

---------------------正确方法-----------------------------------------------SQL> conn / as sysdbaConnected.SQL> select host_name from v$instance;HOST_NAME-------------------------------------------

2016-06-28 23:15:33 4849

原创 python ctrl +d 退出

ctrl+d

2016-06-28 08:58:45 7072

原创 归档 及 日志 路径

SQL> archive log list;Database log mode Archive ModeAutomatic archival EnabledArchive destination /u01/oracle/11G/dbs/archOldest online log sequence 2Next log sequence to

2016-06-28 08:48:46 847

原创 Hbase 单机版

[root@cdh1 bin]# vim /etc/profile[root@cdh1 bin]# source /etc/profile[root@cdh1 bin]# echo $HBASE_HOME/user/local/hbase-0.98.20-hadoop2[root@cdh1 bin]# hbase versionHBase 0.98.20-hadoop2Source c

2016-06-28 00:32:30 1066 1

原创 hbase 基本命令

http://www.linuxidc.com/Linux/2015-03/114670.htmhttp://www.cnblogs.com/end/archive/2011/04/12/2013804.htmlhttp://www.cnblogs.com/end/archive/2011/04/12/2013804.htmlDisabled by default. Example:

2016-06-28 00:32:05 780 1

原创 spark-shell 启动 以及 例子

spark-shell 启动 以及 例子wordCount

2016-06-18 01:59:04 7351 1

原创 spark run local

spark run local PI 10

2016-06-18 00:28:28 689

原创 Hadoop启动,创建文件hdfs

Hadoop启动,创建文件hdfs

2016-06-18 00:13:42 1671

原创 克隆centos虚拟机 的IP HostName HWaddr

克隆centos虚拟机 的IP HostName HWaddr

2016-06-18 00:11:22 846

原创 spark worker 启动失败 failed to launch org.apache.spark.deploy.worker.Worker

failed to launch org.apache.spark.deploy.worker.Worker

2016-06-18 00:08:33 14673 1

原创 hdfs dfs -ls

[root@cdh1 /]# hdfs dfs -ls /Found 1 itemsdrwxr-xr-x - root supergroup 0 2016-06-16 21:31 /xmkdir[root@cdh1 /]#

2016-06-17 12:43:37 1324

原创 bin/hdfs dfs -mkdir xmkdir

bin/hdfs dfs -mkdir /xmkdir

2016-06-17 12:39:05 3015

原创 hdfs dfs -ls 命令

Connecting to 192.168.111.242:22...Connection established.To escape to local shell, press 'Ctrl+Alt+]'.Last login: Fri Jun 17 09:24:06 2016 from 192.168.111.186[root@bigdata242 ~]# hdfs dfs -ls-

2016-06-17 09:31:53 7307 2

原创 linux 版本

file /usr/local/hadoop/lib/native/libhadoop.so.1.0.0/usr/local/hadoop/lib/native/libhadoop.so.1.0.0: ELF 64-bit LSB shared object, x86-64, version 1 (SYSV), dynamically linked, not stripped[root@name01 sbin]# cat /proc/versionLinux version 2.6.32-358.el

2016-06-14 23:28:51 379

原创 hive 开机重启 mysql

hive 开机重启 mysql

2016-06-14 23:12:07 2000

原创 vm虚拟机 扩大分区,不添加 新硬盘

vm虚拟机 扩大分区,不添加 新硬盘

2016-06-14 23:08:23 1214

原创 flume 安装

vi /etc/profileexport FLUME_HOME=/usr/local/hadoop/flume/apache-flume-1.5.0-binexport FLUME_CONF_DIR=$FLUME_HOME/confexport PATH=$PATH:$FLUME_HOME/binsource /etc/profile[root@name01 hadoop]# mkd

2016-06-13 20:47:16 391

原创 mount永久挂载一目录_cp

[root@name01 Desktop]# fdisk -lDisk /dev/sda: 8589 MB, 8589934592 bytes255 heads, 63 sectors/track, 1044 cylindersUnits = cylinders of 16065 * 512 = 8225280 bytesSector size (logical/physical): 5

2016-06-13 16:33:03 2059

原创 mount 永久挂载 本地目录

[root@name01 Desktop]# fdisk -lDisk /dev/sda: 8589 MB, 8589934592 bytes255 heads, 63 sectors/track, 1044 cylindersUnits = cylinders of 16065 * 512 = 8225280 bytesSector size (logical/physi

2016-06-13 16:31:35 3927 1

转载 mount永久挂载一目录

我linux centos 6.3 用mount挂载一目录,后重启下挂载就没了,如何开机自动挂载?wo445136779 11级  分类: 编程开发  被浏览243次  2013.09.10请微博专家回答 检举我在网上看的是在/etc/fstab中直接写入。但是我写后没效果,df不出来。 /dev/sda5 /u6 ext4 defaults 1 2

2016-06-13 16:28:26 8034

转载 VMware虚拟机扩容—转载

然后我用了另一种方法扩容:与之前的思路不同,本方法不是扩大原来的虚拟磁盘的容量,而是另加一个虚拟磁盘来扩充容量。第一步、退出Linux虚拟机系统,通过在VMware上对虚拟机进行设置来增加一块虚拟硬盘。附截图:第二步、重启Linux虚拟机,对这块虚拟硬盘进行分区、格式化和挂载。看下磁盘分区情况:root@ubuntu:/home/

2016-06-13 15:55:58 542

转载 protobuf-2.5.0中的错误处理

编译protobuf-2.5.0中的错误处理发布者:zzxzsy 来源:互联网 发布日期:2014年09月28日 Linux学习交流群:207858983  最近在编译protobuf-2.5.0源码的时候发现的错误已经应对方法  1. 在源码目录执行 ./configure 命令的时候,发生如下错误  error: C++ preprocessor "/lib/cpp"

2016-06-13 14:27:54 2062

原创 jdk install

[root@name01 hadoop-2.3.0-cdh5.1.0]# java -versionjava version "1.8.0_20"Java(TM) SE Runtime Environment (build 1.8.0_20-b26)Java HotSpot(TM) Client VM (build 25.20-b23, mixed mode)[root@name01 ha

2016-06-13 14:14:56 998

原创 hadoop-mapreduce-examples

hadoop jar ./share/hadoop/mapreduce/hadoop-mapreduce-examples-2.3.0-cdh5.1.0.jar pi 2 5[root@name01 cmake-2.8.12.2]# hadoop versionHadoop 2.3.0-cdh5.1.0Subversion git://github.sf.cloudera.com/CDH/

2016-06-13 13:14:54 3887 1

原创 yum install libtool openssl-devel

[root@name01 cmake-2.8.12.2]# cmake --versioncmake version 2.8.12.2[root@name01 cmake-2.8.12.2]# yum install autoconf automake libtool 安装Loaded plugins: fastestmirror, refresh-packagekit, security

2016-06-13 13:13:14 5680

原创 HADOOP- BUILD FAILURE

hadoop-common-2.3.0-cdh5.1.0/usr/local/hadoop_mvn/hadoop-2.3.0-cdh5.1.0/hadoop-project/src/usr/local/hadoop_mvn/hadoop-2.3.0-cdh5.1.0/hadoop-project/src[root@name01 hadoop_mvn]# ls -ltotal 520

2016-06-13 13:11:29 871

原创 cmake --version

[root@name01 cmake]# ls -ltotal 5932drwxr-xr-x 9 root root 4096 Jun 12 20:29 cmake-2.8.12.2-rwxr-xr-x 1 root root 6068231 Jun 12 20:29 cmake-2.8.12.2.tar.gz[root@name01 cmake]# cd cmake-2.8.12.

2016-06-13 13:09:00 2587

原创 make install

[root@name01 protobuf-2.5.0]# make installMaking install in .make[1]: Entering directory `/usr/local/protobuf/protobuf-2.5.0'make[2]: Entering directory `/usr/local/protobuf/protobuf-2.5.0'make[2]

2016-06-13 13:07:35 2158

原创 make check

[root@name01 protobuf-2.5.0]# make checkMaking check in .make[1]: Entering directory `/usr/local/protobuf/protobuf-2.5.0'make check-localmake[2]: Entering directory `/usr/local/protobuf/protobuf-

2016-06-13 13:06:28 2108 2

转载 Unable to load native-hadoop library for your platform,编译

Unable to load native-hadoop library for your platform,编译h (2014-03-11 15:37:26)转载▼标签: hadoop hadoop2.2.0 native-hadoop 编译 教育 转自:http://programonkey.com/blog/?p=25问题:在运行hadoop的时候,出现警告:WARN util.

2016-06-13 13:05:35 464

原创 make-可以不看

[root@name01 protobuf-2.5.0]# makemake all-recursivemake[1]: Entering directory `/usr/local/protobuf/protobuf-2.5.0'Making all in .make[2]: Entering directory `/usr/local/protobuf/protobuf-2.5.0'

2016-06-13 11:17:04 603

原创 protobuf-2

[root@name01 protobuf-2.5.0]# pwd/usr/local/protobuf/protobuf-2.5.0[root@name01 protobuf-2.5.0]# ls -ltotal 1232-rw-r--r-- 1 109965 5000 36976 Feb 26 2013 aclocal.m4-rwxr-xr-- 1 109965 5000

2016-06-13 11:15:53 393

原创 maven & protobuf -1

export MAVEN_HOME=/usr/local/maven/apache-maven-3.3.9export PATH=$PATH:$MAVEN_HOME/bin[root@name01 conf]# mvn --versionbash: mvn: command not found[root@name01 conf]# source /etc/profile[root@na

2016-06-13 11:14:20 572

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除