ubuntu 安装 apache 2.4.7

os:ubuntu 12.04. server

1.下载 apache http server 2.4.7(httpd):

http://mirrors.cnnic.cn/apache//httpd/httpd-2.4.7.tar.gz

2.下载 APR 1.5.0

http://mirrors.cnnic.cn/apache//apr/apr-1.5.0.tar.gz

3.下载 APR-util 1.5.3

http://mirrors.cnnic.cn/apache//apr/apr-util-1.5.3.tar.gz

4.解压

tar -zxf httpd-2.4.7.tar.gz

tar -zxf apr-1.5.0.tar.gz

tar -zxf apr-util-1.5.3.tar.gz

mv apr-1.5.0 httpd-2.4.7/srclib/apr

mv apr-util-1.5.3 httpd-2.4.7/srclib/apr-util

5.编译并安装

./configure --prefix=/usr/local/apache-2.4.7 --enable-dav --enable-so --enable-maintainer-mode --enable-rewrite --enable-deflate=shared --enable-ssl=shared --enable-expires=shared --enable-headers=shared --enable-static-support --with-included-apr --with-mpm=worker --enable-cache --enable-file-cache

make

sudo make install

6.开机启动等设置可以使用 supervisord 来控制

 

转载自 http://www.cnblogs.com/lwysoft/archive/2012/11/25/2787732.html

 

好的,以下是在Ubuntu 16.04上伪分布式安装Hadoop和Spark的步骤: 1. 安装Java 在终端中输入以下命令: ``` sudo apt-get update sudo apt-get install openjdk-8-jdk ``` 2. 配置SSH Hadoop和Spark需要使用SSH进行节点之间的通信,因此需要先配置好SSH。在终端中输入以下命令: ``` sudo apt-get install openssh-server ssh-keygen -t rsa -P "" cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys ``` 3. 下载Hadoop 在终端中输入以下命令: ``` wget https://downloads.apache.org/hadoop/common/hadoop-2.7.7/hadoop-2.7.7.tar.gz tar -xzvf hadoop-2.7.7.tar.gz ``` 4. 配置Hadoop 进入Hadoop的安装目录,编辑`etc/hadoop/hadoop-env.sh`文件,将JAVA_HOME设置为Java的安装路径: ``` export JAVA_HOME=/usr/lib/jvm/java-8-openjdk-amd64 ``` 然后编辑`etc/hadoop/core-site.xml`文件,加入以下内容: ``` <configuration> <property> <name>fs.defaultFS</name> <value>hdfs://localhost:9000</value> </property> </configuration> ``` 接着编辑`etc/hadoop/hdfs-site.xml`文件,加入以下内容: ``` <configuration> <property> <name>dfs.replication</name> <value>1</value> </property> </configuration> ``` 最后编辑`etc/hadoop/mapred-site.xml.template`文件,将`<value>localhost:10020</value>`替换为`<value>localhost:9001</value>`。 5. 启动Hadoop 在终端中输入以下命令启动Hadoop: ``` bin/hadoop namenode -format sbin/start-all.sh ``` 6. 下载Spark 在终端中输入以下命令: ``` wget https://downloads.apache.org/spark/spark-2.4.7/spark-2.4.7-bin-hadoop2.7.tgz tar -xzvf spark-2.4.7-bin-hadoop2.7.tgz ``` 7. 配置Spark 进入Spark的安装目录,编辑`conf/spark-env.sh`文件,将JAVA_HOME设置为Java的安装路径: ``` export JAVA_HOME=/usr/lib/jvm/java-8-openjdk-amd64 ``` 然后复制一份模板文件: ``` cp conf/spark-defaults.conf.template conf/spark-defaults.conf ``` 编辑`conf/spark-defaults.conf`文件,加入以下内容: ``` spark.master spark://localhost:7077 spark.eventLog.enabled true spark.eventLog.dir hdfs://localhost:9000/spark-logs spark.executor.memory 1g ``` 8. 启动Spark 在终端中输入以下命令启动Spark: ``` sbin/start-all.sh ``` 现在你已经成功在Ubuntu 16.04上伪分布式安装了Hadoop和Spark。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值