所有的大数据工具的操作都必须通过普通用户来执行,创建一个用户名为:fuyun
- 创建安装所需文件夹
sudo mkdir -p /opt/tools/ #创建文件夹/opt/tools 存储安装包
sudo mkdir -p /opt/modules/ #创建文件夹/opt/software存储安装程序文件
sudo mkdir -p /opt/datas #创建文件夹/opt/datas 存储日志
- 修改以上文件夹所有者和组为当前用户
sudo chown -R rdedu:rdedu /opt/datas
sudo chown -R rdedu:rdedu /opt/tools
sudo chown -R rdedu:rdedu /opt/software
- 上传安装包到/opt/tools文件中
先切换到/opt/tools目录cd /opt/tools
rz
安装jdk
找到jdk安装包名
ls /opt/tools/
解压安装jdk
tar -zxvf jdk-8u91-linux-x64.tar.gz -C /opt/software/
上面安装包路径为相对路径,即必须先cd /opt/tools
- 配置环境变量
cd /opt/software/jdk1.8.0_91/
pwd
打印当前完整路径
sudo vi /etc/profile
#JAVA_HOME
export JAVA_HOME=/opt/software/jdk1.8.0_91
export PATH=$PATH:$JAVA_HOME/bin
刷新环境变量
source /etc/profile
测试
java -version
hadoop的三种安装模式
本地模式:MapReduce默认读本地文件,不运行在yarn上,单独运行在一个jvm中,一般用于测试程序的准确性
伪分布式:只有一台机器,所有程序都运行在一台机器上行
分布式:多台机器构建集群,不同的 程序运行在不同机器上
伪分布式模式安装
找到jdk安装包名
ls /opt/tools/
tar -zxvf hadoop-2.6.0-cdh5.7.6.tar.gz -C /opt/software/
上面安装包路径为相对路径,即必须先cd /opt/tools
修改配置官网地址: http://hadoop.apache.org/docs/r2.7.6/hadoop-project-dist/hadoop-common/SingleCluster.html#Pseudo-Distributed_Operation
hadoop-env.sh、mapred-env.sh、yarn-env.sh
用于配置hadoop的运行环境变量
hadoop-env.sh
:
```export JAVA_HOME=/opt/software/jdk1.8.0_91``
mapred-env.sh
:
export JAVA_HOME=/opt/software/jdk1.8.0_91
yarn-env.sh
:
export JAVA_HOME=/opt/software/jdk1.8.0_91
core-site.xml:用于hadoop全局的一些配置
在hadoop家目录下创建datas目录
<!--指定hdfs的唯一入口,以及namenode的地址-->
<property>
<name>fs.defaultFS</name>
<value>hdfs://bigdata.fuyun:8020</value>
</property>
<!--配置hadoop的临时目录-->
<property>
<name>hadoop.tmp.dir</name>
<value>/opt/software/hadoop-2.6.0-cdh5.7.6/datas</value>
</property>
hdfs-site.xml:用于hdfs的相关配置
<!--配置hdfs中文件块的副本数-->
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
slaves:用于配置从节点的地址,一行一个
bigdata.fuyun
启动服务
先cd /opt/software/hadoop-2.6.0-cdh5.7.6
第一次启动之前要进行格式化
bin/hdfs namenode -format
启动NameNode
sbin/hadoop-daemon.sh start namenode
启动DataNode
sbin/hadoop-daemon.sh start datanode
检查
jps
访问网页端:50070
http://bigdata.fuyun:50070
测试
在hdfs上创建一个文件夹
bin/hdfs dfs -mkdir /hive
bin/hdfs dfs -ls /
关闭
sbin/hadoop-daemon.sh stop namenode
sbin/hadoop-daemon.sh stop datanode
MapReduce与yarn的环境配置:
hdfs:hdfs-site.xml
-》 <!--关闭hdfs的权限检查-->
<property>
<name>dfs.permissions.enabled</name>
<value>false</value>
</property>
mapreduce:mapred-site.xml
历史服务进程:用于记录所有运行过的程序信息
<!--用于配置历史服务进程的地址-->
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
<property>
<name>mapreduce.jobhistory.address</name>
<value>bigdata.fuyun:10020</value>
</property>
<property>
<name>mapreduce.jobhistory.webapp.address</name>
<value>bigdata.fuyun:19888</value>
</property>
yarn:yarn-site.xml
日志聚集:将所有程序的运行日志保存到hdfs上,统一管理
<!--用于配置日志聚集,保存7天-->
<property>
<name>yarn.log-aggregation-enable</name>
<value>true</value>
</property>
<property>
<name>yarn.log-aggregation.retain-seconds</name>
<value>604800</value>
</property>
启动yarn
sbin/yarn-daemon.sh start resourcemanager
sbin/yarn-daemon.sh start nodemanager
启动jobhistoryserver 服务
sbin/mr-jobhistory-daemon.sh start historyserver
YARN关联界面
http://bigdata.fuyun:8088/
maven部署
maven官网下载地址:http://maven.apache.org/download.cgi
下载maven后上传Linux后解压
tar -zxvf apache-maven-3.3.9-bin.tar.gz -C /opt/software/
配置环境变量:sudo vim /etc/profile
#M2_HOME
export M2_HOME=/opt/software/apache-maven-3.6.1
export PATH=$PATH:$M2_HOME/bin
source /etc/profile
测试:mvn -version
修改maven的配置:conf/settings.xml
修改maven的远程仓库为阿里源
<mirror>
<id>alimaven</id>
<name>aliyun maven</name> <url>http://maven.aliyun.com/nexus/content/groups/public/</url>
<mirrorOf>central</mirrorOf>
</mirror>
创建maven的本地仓库目录
mkdir -p ~/.m2/repository
将配置文件拷贝一份到.m2目录下:
cp /opt/software/apache-maven-3.6.1/conf/settings.xml ~/.m2/