- 博客(12)
- 收藏
- 关注
转载 UNIX环境高级编程中的apue.h错误
最近在读 Richard Stevens 的大作《UNIX环境高级编程》,相信很多初读此书的人都会与我一样遇到这个问题,编译书中的程序实例时会出现问题,提示 “错误:apue.h:没有那个文件或目录”。apue.h 是作者自定义的一个头文件,并不是Unix/Linux系统自带的,此头文件包括了Unix程序所需的常用头文件及作者Richard自己写的出错处理函数。所以在默认情况下,gcc在编译时
2012-04-12 15:37:56 804
原创 Ibatis学习笔记
ibatis配置文件: 1、SqlMapConfig.xml 配置 "http://ibatis.apache.org/dtd/sql-map-config-2.dtd"> 2、SqlMap.properties 配置driver=com.mysql.j
2012-04-10 09:06:23 503
转载 DEFLATE 压缩算法
DEFLATE是同时使用了LZ77算法与哈夫曼编码(Huffman Coding)的一个无损数据压缩算法。它最初是由Phil Katz为他的PKZIP归档工具第二版所定义的,后来定义在RFC 1951规范中。 人们普遍认为DEFLATE不受任何专利所制约,并且在LZW(GIF文件格式使用)相关的专利失效之前,这种格式除了在ZIP文件格式中得到应用之外也在gzip压缩文
2012-04-09 14:53:19 24189 4
原创 Linux下C/C++工程开发工具及环境搭建
首先,我们是要在Linux下进行项目开发,让我们把windows“拆了”,装个Linux也是不可能的,会带来很多的不便,所以我们首先需要在虚拟机上安装Linux操作系统,我本次用的是CentOS,它也是Redhat Linux的产品中一种。对于虚拟机上Linux的安装网上的资料很多,相信我们都能自己独立完成安装。 接着,我们需要下载Linux下的开发工具,以下是工具的说明及下载地址:
2012-04-09 13:53:07 4261
原创 hadoop Myeclipse开发时报org.apache.hadoop.security.AccessControlException: Permission denied
用MyEclipse开发hadoop时报org.apache.hadoop.security.AccessControlException: Permission denied: user=DrWho, access=READ_EXECUTE, inode="system":hadoop:supergroup:rwx-wx-wx错误,解决方法: 在hdfs-site.xml 中取消权限
2012-02-07 23:26:50 4902 4
原创 ssh免账号登陆
1、在当前用户目录下建立.ssh目录,生成key mkdir ~/.ssh ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa2、保存认证键值到authorized_keys文件 cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys3、改变.ssh下文件属性,以及.ssh/authorize
2012-02-01 09:51:59 1779
原创 hadoop命令
hadoop dfs -rmr in 删除hdfs文件系统中in文件夹hadoop dfs -put input in 拷贝当前input目录下的文件到in文件夹hadoop dfs -cat out/* 查看hdf文件系统中out文件夹下的文件hadoop dfs -ls 查看目录文件hadoop jar xxx.jar 主方法名 参数 运行程序
2012-02-01 09:51:23 473
原创 MyEclipse 配置 Hadoop 插件
1、找到Hadoop Eclipse Plugin 插件 jar包我的具体位置在:D:\softInstall\hadoop-0.20.3-dev-eclipse-plugin.jar2、找到MyElipse安装目录,将刚才复制的插件放到目录\Genuitec\MyEclipse-8.5\dropins下
2012-02-01 09:50:41 2729 1
原创 Hadoop操作
./hadoop dfs -cat output/* ./stop-all.sh ./start-all.sh ./start-dfs.shhadoop namenode -formatssh-keygen -t dsa#cat .ssh/id_rsa.pub >> .ssh/authorized_keys //登录本地不需密码;#scp .ssh/id_ds
2012-02-01 09:49:16 438
原创 hadoop 配置中常见问题记录
问题1、jobtracker.info could only be replicated to 0 nodes, instead of 1 错误解决 通过搜索,大部分说是防火墙问题,于是我就关闭了防火墙,把系统的防火墙都关掉了,删除格式化时生成的文件,及运行是的tmp文件,然后重新格式化,再次执行start-all.sh命令,可以了问题2、The authenticity of
2012-02-01 09:39:08 599
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人