自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(19)
  • 收藏
  • 关注

原创 闭包

(function () { var ga = document.createElement('script'); ga.type = 'text/javascript'; ga.async = true; ga.src = ('https:' == document.location.protocol ? 'https://ssl' : 'http://www')

2014-02-26 18:26:55 354

原创 Redis命令行教程

$ redis-cli -h 127.0.0.1> SELECT 8> keys *

2014-02-25 14:50:03 368

原创 环境

TD$ yum install -y php-xcache

2014-02-25 12:04:11 364

原创 date(Linux Shell)

* 前一小时date -d '-1 hour' +'%Y-%m-%d %H:%M:%S'

2014-02-21 16:00:26 391

原创 CentOS无法启动

修改vm1的内存,从512M更改为1G,重启后无法进入系统* F2修改vm,从光驱启动    上下键选择光驱,+/-移动到第一位* Install or upgrade an existing system* 选择 Skip* 选择 Next* 选择 Next* 选择 Next* Basic Storage Devices => Next* Upgrade an

2014-02-21 14:28:25 594

原创 监控工具

* Ganglia

2014-02-21 10:46:46 565

转载 Hadoop应用案例

1. 腾讯大规模Hadoop集群实践http://www.csdn.net/article/2014-02-19/2818473-Tencent-Hadoop

2014-02-20 18:00:46 568

原创 服务器性能监控

wa_vmstat_20140220_20.dbsite    type    ip|url|referer|uid|session_id    created_at        ext1(cpu)    ext2(mem)wa    vmstat                    2014-02-20 14:57:00    15.9%        80.5%wa

2014-02-20 17:20:33 560

原创 Hadoop集群

1.Hadoop集群172.16.64.128 vm1172.16.64.129 vm2172.16.64.130 vm3172.16.64.131 vm42.Hadoop子项目* Hive* Pig

2014-02-15 15:06:35 433

转载 Centos6.4建立本地yum源

http://jingyan.baidu.com/article/e9fb46e1aed8207521f7662c.html

2014-02-14 11:20:41 373

转载 Hadoop添加删除节点

添加节点1.修改host   和普通的datanode一样。添加namenode的ip 2.修改namenode的配置文件conf/slaves   添加新增节点的ip或host 3.在新节点的机器上,启动服务 [root@slave-004 hadoop]# ./bin/hadoop-daemon.sh start datanode[root@slave

2014-02-14 11:18:09 373

原创 通过命令给Linux(CentOS)分区

服务器供应商给了linux服务器后,发现放root与数据的分区太小,只有150G左右,而/home却高达300G,空间利用率很是问题。于是,想办法重新分区。但是,Linux重新分区很麻烦,不过,只要按照下列步骤做,一般就没有什么问题。但是,请注意,如果你的系统现在在运行中,已经有不少数据,建议你先备份,以防万一。再者,你需要调整的分区一定不能大于原有文件所占有的空间,否则,一定造成数据丢失

2014-02-14 10:49:33 415

原创 Hadoop增加节点比较

Ended Job = job_201312041522_1819MapReduce Jobs Launched:Job 0: Map: 291  Reduce: 1   Cumulative CPU: 1057.5 sec   HDFS Read: 424247672 HDFS Write: 9 SUCCESSTotal MapReduce CPU Time Spent: 17 mi

2014-02-13 17:46:15 452

转载 Centos 硬盘挂载教程

基本套路就是:先检查硬盘空间,对空白空间,进行分区,分区完后格式化,最后挂载到一个目录上!通过SSH登录LINUX主机,进行云硬盘挂载,具体详细步骤如下所示:1.首先查看系统中磁盘信息,并确定是否需要分区。[root@localhost ~]# fdisk -lDisk /dev/sda: 8589 MB, 8589934592 bytes 此处是sda的磁盘信息255 hea

2014-02-13 12:25:36 415

转载 CentOS6.2调整home分区大小

CentOS6.2调整home分区大小 1.首先查看磁盘使用情况df -h  www.2cto.com   Filesystem             Size  Used Avail Use% Mounted on  /dev/mapper/vg-lv_root 50G  8.9G  378G   18% /  tmpfs                  1.9G

2014-02-13 11:06:36 395

原创 hadoop

初识Hadoop关于MapReduceHive安装 Apache Hadoop参考文献1.初识Hadoop1.1 数据洪流* 纽约证券交易所每天产生 1TB 的交易数据* Facebook 存储着约 100 亿张照片,约 1PB 的存储容量* The Internet Archive(互联网档案馆)存储着约 2PB 的数据,并以每月至少 20TB 的速度增长* 瑞士日内瓦附

2014-02-12 18:38:15 572

转载 hadoop不同版本环境搭建集合

对于hadoop版本不一样,搭建环境也不一样,这里给大家总一下,以免帮助大家更好的学习hadoop.hadoop 1.2.0测试环境搭建  1:规划oracle linux6.4上搭建hadoop1.2.0环境192.168.100.171 linux1 (namenode)192.168.100.172 linux2 (secondarynamenode)192.168.10

2014-02-11 11:03:45 1055

转载 tigerVNC的简单使用教程(CentOS的远程桌面连接)

tigerVNC的简单使用教程(CentOS的远程桌面连接) 1、环境和软件准备(1) CentOS 6.3下[plain] view plaincopy[root@localhost ~]$ rpm –q tigervnc tigervnc-server  tigervnc-1.0.90-0.17.20110314svn4359.el6.i686  tig

2014-02-06 15:21:07 542

转载 KVM和远程管理工具virt-manager的部署

摘要:主要介绍kvm和virt-manager在服务器端和客户端的安装部署,方便对多台虚拟化物理主机进行管理。1.kvm在server端的部署(针对rhel6系统,可以构建本地更新源)     对服务器实行kvm虚拟化首先需要确认服务器的物理硬件是否支持     #cat /proc/cpuinfo | grep (vmx|smv)      如果服务器对kvm支持,则可以安装kv

2014-02-06 15:05:57 2682

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除