- 博客(14)
- 资源 (7)
- 收藏
- 关注
原创 Apache 安装新模块
一 Apache安装新模块1.从httpd的源码中或下载的模块包中编译生成.so文件。2.修改httpd.conf,LoadModule xxx_module modules/mod_xxx.so .c文件源码安装(使用apxs工具)apxs -i -c -a mod_xxx.c二 apxs命令apxs 是一个为Apache HTTP服务器编译
2015-01-27 19:33:42 447
原创 linux/在软件编译时出现usr/bin/ld: cannot find -lxxx的错误
原因:找不到相应的libxxx.so库文件。解决方法:cd /usr/libln -s libxxx.so.number libxxx.so一定要生成libxxx.so的链接,不要带数字。
2015-01-27 16:17:56 483
原创 Apache2.4.x 编译安装mod_perl-2.08错误
Apache2.4.x与mod_perl-2.0.8版本不兼容,建议使用Apache2.2.x版本。
2015-01-27 16:11:54 621
原创 Apache启动失败 通常每个套接字地址 (协议/网络地址/端口)只允许使用一次
1.通常这种情况是80端口被占用。修改Apache的配置文件,将端口改为8080即可。
2015-01-26 12:45:12 825
原创 rpm转换成deb
Ubuntu的软件包格式是deb,如果要安装rpm的包,则要先用alien把rpm转换成deb。sudo apt-get install alien #alien默认没有安装sudo alien xxxx.rpm #将rpm转换位deb,完成后会生成一个同名的xxxx.debsudo dpkg -i xxxx.deb #安装注意,用alien转换的deb包并不能保证10
2015-01-26 12:37:50 528
原创 AWStats
生成网页perl awstats.pl -update -config=IDXXXX -month=xx -year=xxxx -output -staticlinks > /pathname/filename.html
2015-01-25 21:46:25 387
转载 深度学习(一)
对大量数据的特征提取是进行进一步研究的关键的第一步。良好的特征表达,对最终算法的准确性起了非常关键的作用。1.一个定义良好特征的,具有代表性和可区分性。2.深度学习需要实现不要人参与特征的选取过程。3.AI要取得突破性的进展,首先要对人脑的工作过程有了充足的了解。4.人的视觉系统的信息处理是分级的。高层的特征是低层特征的组合,从低层到高层的特征表示越来越抽象,越来越能表现语义或者意
2015-01-23 21:09:08 1035
转载 Hadoop Streaming/fs
文件分发与打包如果程序运行所需要的可执行文件、脚本或者配置文件在Hadoop集群的计算节点上不存在,则首先需要将这些文件分发到集群上才能成功进行计算。Hadoop提供了自动分发文件和压缩包的机制,只需要在启动Streaming作业时配置相应的参数。Streaming主要用于编写简单,短小的MapReduce程序,可以通过脚本语言编程,开发更快捷,并充分利用非Java库。
2015-01-18 00:27:14 532
原创 hadoop启动脚本
一、start-all.sh运行启动hdfs和mapred的启动脚本。hdfs start-dfs.shmapred start-mapred.sh二、start-dfs.sh此脚本只支持upgrade和rollback两个选项参数,一个参数用于更新文件系统,另一个是回滚文件系统。此脚本运行开始启动namenode、datanode和secondaryn
2015-01-17 21:09:32 401
原创 hadoop 部署
基础组件准备安装Hadoop集群之前我们得先检验系统是否安装了如下的必备软件:ssh、rsync和Jdk1.6(因为Hadoop需要使用到Jdk中的编译工具,所以一般不直接使用Jre)。可以使用yum install rsync来安装rsync。一般来说ssh是默认安装到系统中的。集群配置一般NameNode会部署到一台单独的服务器上而不与DataNode共同同一机器。另外Map/Re
2015-01-07 21:17:18 473
原创 hadoop 机架
通常大型的分布式集群都会跨好几个机架,由多个机架上的机器共同组成一个分布式集群。机架内的机器之间的网络速度通常都会高于跨机架机器之间的网络速度,并且机架之间机器的网络通信通常受到上层交换机间网络带宽的限制。hadoop对机架的感知并非是自适应的,需要hadoop的管理者人为的告知hadoop哪台机器属于哪个rack,这样在hadoop的namenode启动初始化时,会将这些机器与rack的对应
2015-01-07 10:23:20 1142
原创 HDFS
设计目标1.硬件错误是常态,而非异常情况,HDFS可能是有成百上千的server组成,任何一个组件都有可能一直失效,因此错误检测和快速、自动的恢复是HDFS的核心架构目标。2.HDFS应用对文件要求的是write-one-read-many访问模型。3.移动计算的代价比之移动数据的代价低。一个应用请求的计算,离它操作的数据越近就越高效,这在数据达到海量级别的时候更是如此。将计算移动
2015-01-06 10:34:41 690
转载 Crontab的用法
Crontab命令使用的文件具体位置: /Var/Spool/Cron/Crontabs 目录下,每个用户都有其对应的名字。Crontab是UNIX系统下的定时任务触发器,其使用者的权限记载在下列两个文件中:/usr/var/adm/cron/cron.deny:该文件中所列的用户不允许使用Crontab命令;/usr/var/adm/cron/cron.allow:该文件中所列的用户
2015-01-01 10:06:20 306
linux网络安全技术与实现.pdf
2013-03-15
HTTP协议详解.pdf
2013-03-13
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人