- 博客(50)
- 资源 (4)
- 收藏
- 关注
原创 买房注意事项 (2)
一、查看是否有私搭私建部分 1.是否有占用屋顶的平台、走廊的情况;或者屋内是否有搭建 的小阁楼; 2.是否改动过房屋的内、外部结构,如将阳台改成卧室或厨房、 将一间分隔成两间; 3.阳台是不是房主自己封闭的,这牵涉到阳台面积应该怎么计 算的问题。二、确认房屋的准确面积 1.包括建筑面积、使用面积和户内的实际面积;
2015-08-27 09:08:06 844
原创 买二手房注意事项(1)
【一】、核查房屋产权1、要卖方提供产权证书、身份证件、资格证件以及其他证件。2、向有关房产管理部门查验所购房产产权的来源和产权记录, 包括房主、档案文号、登记日期、成交价格等。3、了解所购房有无抵押、是否被法院查封,以及与人共享等。4、注意产权证上的房主与卖房人是否同一个人。5、产权证所确认的面积与实际面积是否有不符之处。6、一定要验看产权证的正本,而且到房
2015-08-27 09:05:47 1383
原创 Redis介绍及实践
一、理论知识1. Redis简介Redis是一个key-value存储系统。和Memcached类似,但是解决了断电后数据完全丢失的情况,而且她支持更多无化的value类型,除了和string外,还支持lists(链表)、sets(集合)和zsets(有序集合)几种数据类型。这些数据类型都支持push/pop、add/remove及取交集并集和差集及更丰富的操作,而且这些操作都是原子性的。
2015-05-22 10:08:35 536
原创 memcached+magent实现memcached集群
一、说明 Memcache本身没有内置分布式功能,无法实现使用多台Memcache服务器来存储不同的数据,最大程度的使用相同的资源;无法同步数据,容易造成单点故障。(memagent代理实现集群) 在 Memcached中可以保存的item数据量是没有限制的,只要内存足够 。 Memcached单进程最大使用内存为2G,要使用更多内存,可以分多个端口开启多
2015-05-21 15:13:57 370
原创 Memcached安装与操作
一、Memcached介绍1. memcached的特征协议简单基于libevent的事件处理内置内存存储方式memcached不互相通信的分布式分布式路由需要通过客户端去实现:二、Memcached安装1.分别把memcached和libevent下载回来,放到 /tmp 目录下:# cd /tmp# wget http://www.danga.com/m
2015-05-21 13:15:00 395
原创 nginx安装与配置
一、安装前准备一般我们都需要先装pcre, zlib,前者为了重写rewrite,后者为了gzip压缩。1. 安装pcre库cd /usr/local/srcwget ftp://ftp.csx.cam.ac.uk/pub/software/programming/pcre/pcre-8.34.tar.gz tar -zxvf pcre-8.34.tar.gzcd pcre-8.
2015-05-21 10:03:50 376
原创 nginx反代mogilefs实现
一、网络拓扑二、说明1、规划说明实验共有5台主机,nginx做为前端反向代理接收用户请求;mariadb作为存储mogilefs元数据的数据库;剩下的三台主机分别安装tracker+mogstore。2、nginx反代流程为了能够基于URL进行(而非fid),nginx需要安装一个第三方的mogilefs模块(nginx-mogilefs就是利用mogilefs的API开发
2015-05-20 17:21:28 1031
原创 MogileFS的安装与配置
一、理论知识 MogileFS 是一个开源的分布式文件系统,用于组建分布式文件集群。1. 几个组成部分(1) Tracker(跟踪器 ,调度器)- (MogileFSd 进程-建议二个 tracker 实例) Tracker的进程: MogileFSd Tracker的工作:Replication ,Deletion,Query,Reaper,Monitor
2015-05-20 16:28:03 847
原创 lvs+keepalived实现HA
一、集群规划1. 系统环境 System OS:CentOS release 5.4 Software:ipvsadm-1.24.tar.gz, keepalived-1.1.19.tar.gz2. 服务器列表名称IPLVS-Master192.168.1.112LVS-BA
2015-05-20 11:08:37 519
原创 LVS安装与配置
一、LVS的三种配置模式1. VS/NAT —— Virtual Server via Network Address Translation (网络地址转换)2. VS/TUN ——Virtual Server via IP Tunneling (IP隧道)3. VS/DR——Virtual Server via Direct Routing (直接路由)二、LVS的安装
2015-05-19 16:58:25 744
原创 keepalived安装与配置
一、安装keepalived 1.2.2yum -y install gcc make openssl openssl-devel wget kernel-develmkdir -p /usr/local/src/hasoftcd /usr/local/src/hasoftwget http://www.keepalived.org/software/keepalive
2015-05-19 13:47:27 357
原创 基于java api 和 servlet发布WebService(二)
一、环境JDK1.6以上二、 WebService 服务端编码1. New -> Web Project, 名称为webService-server2. 编写server端代码,如下:package com.calvin.service;import javax.jws.WebMethod;import javax.jws.WebParam;import jav
2015-05-15 16:35:55 620
原创 基于jdk6 API 开发 WebService(一)
一、环境JDK1.6以上二、service端编写1. New -> Java Project, 名称为java6wsServer2. 编写服务代码,如下:package calvin.ws;import javax.jws.WebService;import javax.xml.ws.Endpoint;@WebService public class MyJ
2015-05-15 14:18:28 380
原创 我的学习列表
zookeeperkeepalivedmongoDBRedis+ mogileFSfastDFSsquidMemcachedhadoophivehbasepigopenstack+ solrlucenenutchelastic searchsphixflumeooziesqoopsparkmahout
2015-05-13 23:54:22 456
转载 Linux命令操作大全
一、系统信息 arch 显示机器的处理器架构(1) uname -m 显示机器的处理器架构(2) uname -r 显示正在使用的内核版本 dmidecode -q 显示硬件系统部件 - (SMBIOS / DMI) hdparm -i /dev/hda 罗列一个磁盘的架构特性 hdparm -tT /dev/sda 在磁盘上执行测试性读取操作 cat
2015-05-13 11:11:23 350
原创 CentOS上安装Mysql
环境:CentOS 6.5一、卸载系统自带mysql1. rpm -qa | grep mysql #这个命令就会查看该操作系统上是否已经安装了mysql数据库2. rpm -e mysql #普通删除模式3. rpm -e --nodeps mysql #强力删除模式,如果使用上面命令删除时,提示有依赖的其它文件,则用该命令可以对其进行强力删除二、通过yum
2015-05-06 23:34:35 348
原创 hive的安装与操作
环境:CentOS 6.5, Hadoop 1.1.2, JDK 1.7, Hive 0.9.0hive存在三种安装模式:内嵌模式、独立模式、远程模式hive存在三种访问方式:CLI, JDBC/ODBC, Web GUI一、内嵌模式安装1. 下载 hive-xxx.tar.gz安装包2. 安装(1). 上传hive安装包到机器上,使用root用
2015-05-06 22:55:21 347
原创 sqoop简单使用
一、版本说明1. sqoop有sqoop1和sqoop2两个版本 sqoop1 -- 安装包:sqoop1.4.4之前所有版本 工作模式:基于客户端模式,在客户端节点安装sqoop和连接器/驱动器 sqoop2 -- 安装包:sqoop1.4.4之后的所有版本,包括sqoop1.99.1,sq
2015-04-29 13:49:02 516
原创 Pig Latin 简单使用
一、数据模型1. Bag #包,相当于RDB中的表2. Tuple #元组,相当于RDB中的行3. Field #属性,相当于RDB中的列二、、常用语句1. LOAD #指出载入数据的方法2. FOREACH #逐行扫描进行某种处理3. FILTER #过滤行4. DUMP #把结果显示到屏幕5. STORE #把结果保持到文件6. DESCRI
2015-04-26 14:34:37 514
原创 pig Map/Reduce模式安装
环境:CentOS6.5, Hadoop1.1.2, jdk1.6, pig 0.11.1一、下载并解压pig安装包可从以下链接下载;pig-0.11.1.tar.gz二、设置环境变量1. 设置java环境变量export JAVA_HOME=export PATH=.:$JAVA_HOME/bin:$PATH2. 设置hadoop环境变
2015-04-26 14:09:28 470
转载 hbase java api编程
一、hbase配置对象HBaseConfiguration是每一个hbase client都会使用到的对象,它代表的是HBase配置信息构造方法:public HBaseConfiguration()public HBaseConfiguration(final Configuration c)默认的构造方式会尝试从hbase-default.xml和hbase-sit
2015-04-25 18:23:21 340
原创 hbase shell 常用操作
环境:CentOS 6.5, Hadoop 1.1.2, zookeeper 3.4.4, Hbase 0.94.7-security, JDK 1.7一、进入shell执行命令 /bin/hbase shell二、shell操作命令#键入help, 查看所有操作命令COMMAND GROUPS: Group name: general
2015-04-25 00:32:20 376
原创 hbase完全分布式安装配置
环境:CentOS 6.5, Hadoop 1.1.2, zookeeper 3.4.4, Hbase 0.94.7-security, JDK 1.7机器规划:192.168.190.100hostname:vm1role:HMaster192.168.190.101hostname:vm2role:HRegionServer192.168.190
2015-04-25 00:19:38 352
原创 Map/Reduce API样例二
环境:CentOS 6.5, Eclipse 4.4.2, Hadoop 1.1.2任务目标:从数据源统计ip第一位数字的记录列表一、数据源准备在hdfs://vm1:9000/user/hadoop/in目录中上传了两个数据文件,test1.txt和test2.txt内容如下:test1.txtMAY 12:10:12 192.
2015-04-22 20:33:06 258
原创 Map/Reduce API 样例一
环境:CentOS 6.5, Eclipse 4.4.2, Hadoop 1.1.2任务目标:从数据源抽取指定的字段,并统计出错行数一、数据源准备在hdfs://vm1:9000/user/hadoop/in目录中上传了两个数据文件,test1.txt和test2.txt内容如下:test1.txtMAY 12:10:12 192.158.202 cal
2015-04-22 20:19:13 314
原创 linux系统上eclipse的hadoop开发环境准备
环境:CentOS 6.5, Eclipse 4.4.2, Hadoop 1.1.2一、eclipse hadoop插件编译1. 查看以下博客链接编译或者点击以下链接直接下载http://download.csdn.net/detail/calvin_kui/8618045二、eclipse hadoop插件安装1.复制hadoop插件到ecli
2015-04-21 22:12:41 344
原创 Linux系统上hadoop1.1.2 eclipse插件编译
环境:CentOS 6.5, Hadoop 1.1.2, Eclipse 4.4.2, Ant 1.9.4一、 软件准备1. 在CentOS上安装好Eclipse2. 在CentOS上安装好Hadoop3. 在CentOS上安装好Ant本机安装软件目录如下:HADOOP_HOME=/home/hadoop/hadoop-1.1.2ECLIPSE_HO
2015-04-21 21:35:53 566
原创 Hadoop集群完全分布式安装与配置
环境:CentOS6.5, Hadoop1.1.2, jdk1.6三台Linux虚拟机:192.168.190.100:hostname:vm1规划:master节点192.168.190.101hostname:vm2规划:slave节点1192.168.190.102hostname:vm3规划:slave节点2一、配置hosts
2015-04-19 17:35:50 515
原创 使用hadoop RPC实现RPC调用
环境:hadoop1.1.2一、 定义服务提供的对象的接口, 此接口必须extends org.apache.hadoop.ipc.VersionedProtocoleg.import org.apache.hadoop.ipc.VersionedProtocol;/** * 业务接口, must extends VersionedProtocol * @autho
2015-04-18 21:41:59 475
原创 使用java操作hdfs
环境:hdoop1.1.2方法一、使用java.net.URL访问eg.import java.io.InputStream;import java.net.URL;import org.apache.hadoop.fs.FsUrlStreamHandlerFactory;import org.apache.hadoop.io.IOUtils;public cl
2015-04-18 14:39:50 370
原创 hadoop1.1.2 mapred-default.xml
hadoop.job.history.location If job tracker is static the history files are stored in this single well known place. If No value is set here, by default, it is in the local file system at
2015-04-18 12:36:40 758
原创 hadoop1.1.2 hdfs-default.xml
dfs.namenode.logging.level info The logging level for dfs namenode. Other values are "dir"(trace namespace mutations), "block"(trace block under/over replications and blockcreations/deletion
2015-04-18 12:34:25 531
原创 hadoop1.1.2 core-default.xml
hadoop.tmp.dir /tmp/hadoop-${user.name} A base for other temporary directories. hadoop.native.lib true Should native hadoop libraries, if present, be used. hadoop.htt
2015-04-18 12:33:59 636
原创 hdfs shell操作大全
一、hadoop命令 #键入hadoop回车,查看使用帮助:Usage: hadoop [--config confdir] COMMANDwhere COMMAND is one of: namenode -format format the DFS filesystem secondarynamenode run the DFS secondary nam
2015-04-17 22:52:13 434
原创 导入hadoop源码到eclipse
1. 在eclipse中新建一个java project, 名字为hadoop(可任意命名)2. 拷贝haoop目录下的core, hdfs, mapred三个文件夹到eclipse的src下3. 调整hadoop/src下的目录结构 右键项目hadoop -> Properties -> Java Build Path -> Source 删除hadoop
2015-04-16 23:28:52 421
原创 Hadoop伪分布式安装与配置
环境:CentOS 6.5, JDK 1.6, hadoop 1.1.2一、设置静态IP查看博客http://blog.csdn.net/calvin_kui/article/details/44783355二、设置HOSTNAME1. 在/etc/sysconfig/network文件中修改HOSTNAME2. 在/etc/hosts中绑定HOSTNAME
2015-04-16 22:18:14 357
原创 Maven常用命令
Maven常用命令: 1. 创建Maven的普通java项目: mvn archetype:create -DgroupId=packageName -DartifactId=projectName 2. 创建Maven的Web项目: mvn archetype:create -DgroupId=packageName -Dartifa
2015-04-16 17:50:39 294
原创 SolrCloud Collection API 列表(基于Solr 5.0.0)
The base URL for all API calls below is http://:/solr./admin/collections?action=CREATE: create a collection/admin/collections?action=RELOAD: reload a collection/admin/collections?action=
2015-04-10 15:38:44 802
原创 SolrCloud生产环境的安装与配置(基于Solr 5.0.0)
环境:CentOS 6.5, JDK 1.7, Solr 5.0.0, ZooKeeper 3.6.6一、服务器规划A服务器 10.201.80.14 B服务器 10.201.80.15 C服务器 10.201.80.16 软件安装:三台全部安装ZooKeeper 3.3.6,Solr 5.0.0, JDK 1.7服务安装:每台服务器上分别启动ZooKeep
2015-04-10 15:02:49 2075
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人