- 博客(22)
- 资源 (2)
- 收藏
- 关注
转载 Iometer安装
[root@-host2 src]# make -f Makefile-Linux.x86_64 alliometer-2008-06-22-rc2/src中找到IOPerformance.h 这个文件在100行处修改如下:
2014-06-30 10:09:55 747
转载 ubuntu安装rpm的方法
Ubuntu的软件包格式是deb,如果要安装rpm的包,则要先用alien把rpm转换成deb。 sudo apt-get install alien #alien默认没有安装,所以首先要安装它 sudo alien xxxx.rpm #将rpm转换位deb,完成后会生成一个同名的xxxx.deb sudo dpkg -i xxxx.deb #安装 注意,用alie
2014-05-14 09:39:44 651
转载 Hadoop2.2.0的eclipse插件的编译
Hadoop2.x之后,已经发布了稳定的版本hadoop2.2.0.但是由于没有eclipse插件工具,辅助,开发调试相对起来,会稍显麻烦,特别是基于Java开发的工程师们,虽然写完MR任务后,也可以采用打成jar包的方式,上传调试,但是这种方式,也有点繁琐,不过网上也好像有一些,使用程序能够自动打包任务的程序,散仙没具体用过,在这里,就不多涉及了,有知道的朋友们,欢迎分享。 下面开始
2014-05-13 17:37:07 558
转载 ant安装
ubuntu中ANT的安装和配置一. 可以使用 sudo apt-get install ant安装,但是这种装法不好。首先安装的ant不是最新的版本,其次还要装一堆其他的附带的东西。所以我才用自己手动ant安装。二. 手动安装 1. 到Apache官网下载最新版本的ant:http://ant.apache.org/bindownload.cgi 2
2014-05-13 17:20:39 439
转载 C语言头文件大全
C系统提供了丰富的系统文件,称为库文件,C的库文件分为两类,一类是扩展名为".h"的文件,称为头文件,在前面的包含命令中我们已多次使用过。在".h"文件中包含了常量定义、 类型定义、宏定义、函数原型以及各种编译选择设置等信息。另一类是函数库,包括了各种函数的目标代码,供用户在程序中调用。 通常在程序中调用一个库函数时,要在调用之前包含该函数原型所在的".h" 文件。下面给出Turbo C的全部"
2014-05-07 10:18:37 862
原创 hadoop2.2.0安装
终于是把Hadoop2.2.0安装成功,虽然还有点问题没有解决,但是这个先暂时用着。安装环境:Ubuntu10.04 64bit 内核:2.6.39由于直接下载的Hadoop是只能在32位的机器上用,所以需要先编译。首先下载hadoop-2.2.0-src.tar.gz源码编译以后再使用,编译过程在另一篇博客中。安装和配置步骤具体如下:1,主机和ip分配地址修改主机名:na
2014-04-02 15:03:19 878
原创 Ubuntu64位条件下Hadoop2.2.0编译
系统:Ubuntu10.04内核:2.6.39Hadoop版本:Hadoop2.2.01,下载Hadoop-2.2.0-src.tar.gz解压缩,并且拷贝到/opt文件夹下,下载地址:http://mirrors.hust.edu.cn/apache/hadoop/common/hadoop-2.2.0/2,安装jdk,这个地方就不详细介绍了3,安装相关的包apt-get
2014-03-28 22:10:19 517
转载 java网络编程基础函数总结
1,InetAddress类(1)获取本机的ip地址InetAddress myIp = null;//InetAddress类不用构造函数myIp = InetAddress.getLocalHost();(2)根据域名获得IP地址InetAddress cmt = null;cmt = InetAddress.getByName("www.cumt.edu.cn")
2014-03-21 10:41:17 669
原创 mount命令
执行mount /dev/sdb /root/swdfs,出现问题是没有指定文件类型,解决办法是格式化磁盘 mkfs.ext3 /dev/sdb然后再挂载就没有问题了
2014-03-14 20:49:01 521
原创 hadoop改变文件系统中出现的问题
由于要求把节点中的文件系统换成swdfs,所以我重新安装了hadoop,并且在虚拟机上新建了一个80G的盘,当按照以前的步骤安装成功以后发现节点的空间大小还是原来的20G,新建的盘没有用到,所以发现问题以后我开始想办法解决。新建文件夹swdfs以后,把80G的新盘挂载到swdfs目录上。然后重新在swdfs上安装hadoop,当我把之前的hadoop安装目录拷过来以后,发现还是20G,后来
2014-03-14 17:05:38 600
转载 hadoop错误
datanode无法启动datanode中日志文件如下:2014-03-10 15:25:18,067 INFO org.apache.hadoop.metrics2.impl.MetricsConfig: loaded properties from hadoop-metrics2.properties2014-03-10 15:25:18,087 INFO org.apache.h
2014-03-10 15:34:58 995
转载 hbase安装
我的hadoop安装的是hadoop1.0.1下载的hbase是0.94.01.修改路径vi /etc/profileexport HBASE_HOME=/home/hadoop/hbase-0.94.0export PATH=$PATH:$HBASE_HOME/bin1.修改hbase配置文件在master节点上修改以下的配置文件hbase-env.sh:加入jave
2013-12-20 22:25:18 497
原创 hadoop错误
我在安装hadoop之后,因为其中一台节点机器出了故障,(我用的一台服务器上三个虚拟机),直接是克隆的另外一个节点机器的系统。但是在改过ip之后,发现每次只能启动一个节点,有时候启动的是137.192.168.137.138,有时候启动另一个datanode192.168.137.139.尝试了很多办法之后,发现把配置的hdfs放置的文件删除后重新格式化hdfs就可以了
2013-12-20 17:42:53 598
转载 Hadoop家族
Pig1, Hadoop客户端2,使用类似于SQL的面向数据流的语言Pig Latin3,Pig Latin可以完成排序,过滤,求和,聚组,关联等操作,可以支持自定义函数4,Pig自动把Pig Latin映射为Map-Reduce作业上传到集群运行,减少用户编写Java程序的苦恼5,三种运行方式:Grunt shell,脚本方式,嵌入式Hbase1,Google B
2013-11-21 10:22:27 760
转载 Hadoop网络课程模板程序
Text_1/** * Hadoop网络课程模板程序 * 编写者:James */ import java.io.IOException;import java.text.DateFormat;import java.text.SimpleDateFormat;import java.util.Date;import org.apache.hadoop.conf.
2013-11-20 20:06:45 1170
转载 Win7下使用Xmanager远程管理CentOS6.4操作系统
在服务器上安装hadoop之后,需要安装Eclipse,所以想要远程界面式的操作服务器。于是搜到了Xmanager的使用方法:首先对Linux文件进行修改:1.首先对/etc/gdm/custom.conf进行修改注意要使用root权限 打开之后 可能出现 [daemon] [secur
2013-11-19 11:11:13 1409
转载 Hadoop namenode不能启动
在刚刚装好hadoop的时候能够正常启动,但是后来关机以后就不能正常启动了 运行命令hadoop dfsadmin -report时会出现下面的结果并且在stop-all时,显示没有namenode,后来查看到logs中发现如下错误结果在运行过 hadoop namenode -format之后就可以正常运行了,说明重新重新创建了文件夹。但是不能每次都格式话,在网上找到的以下
2013-11-11 15:51:44 587
转载 linux下查看某端口程序占用情况
在linux系统下,我们通常可以通过以下2条命令来简单了解当前系统的网络连接情况:#netstat -altn 得到当前所有网络连接信息#netstat -ntlp 得到系统所开放的网络端口而当某天我们发现有个陌生的端口开放甚至正在与远程IP在连接的时候,那么我们就要注意了。本文要分享的是在CentOS系统下,我用lsof工具命令查看某端口到底是由哪个程序占用的。如果没有安装该命令工具
2013-11-06 14:42:13 561
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人