学习大数据的第一天

本文详细描述了在Linux环境下安装Hadoop及其依赖项(如CMake、Snappy、JDK、Maven、ProtocolBuffer)的过程,包括下载、解压、配置环境变量、编译和安装步骤,以及解决可能出现的问题,如Java_HOME配置和SSH免密登录等。
摘要由CSDN通过智能技术生成

今天学习如何安装hapood安装

1.安装hapood安装

2.需要的资料

3.开始安装

1.创建目录

 mkdir -p /export/server

2.进入目录下

 cd /export/server/

3.安装

安装需要的依赖

yum install gcc gcc-c++ make autoconf automake libtool curl lzo-devel zlib-devel openssl openssl-devel ncurses-devel snappy snappy-devel bzip2 bzip2-devel lzo lzo-devel lzop libXtst zlib -y
yum install -y doxygen cyrus-sasl* saslwrapper-devel*

下载安装cmake-3.9.4

文件下载

 wget http://www.cmake.org/files/v3.19/cmake-3.19.4.tar.gz

文件安装

解压文件

tar zxvf cmake-3.19.4.tar.gz

进入目录编译安装

cd /export/server/cmake-3.19.4

安装

./configure

这里安装比较慢

继续安装

make && make install

验证是否安装成功

cmake -version

下载安装 snappy

下载

Index of /repo/pkgs/snappy

下载 1.1.3的版本

安装

卸载已经安装的

rm -rf /usr/local/lib/libsnappy*
rm -rf /lib64/libsnappy*

上传文件

上传文件snappy-1.1.3.tar.gz到 /export/server/目录下

解压文件

 tar zxvf snappy-1.1.3.tar.gz

安装 编译

cd /export/server/snappy-1.1.3
./configure

编译

make && make install

验证

 ls -lh /usr/local/lib |grep snappy

安装JDK文件

上传文件

jdk-8u241-linux-x64.tar.gz 到 /export/server/目录下

解压

tar zxvf jdk-8u241-linux-x64.tar.gz
配置环境变量

vim /etc/profile

注意

进入到新的页面中

shift+g 然后输入i 进入编辑模式

export JAVA_HOME=/export/server/jdk1.8.0_241
export PATH=$PATH:$JAVA_HOME/bin
export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar

加入到 

输入 esc 退出 编辑模式 

输入 :wq 保存 退出

文件生效

source /etc/profile

验证文件

 java -version

安装maven

下载maven 

maven下载地址 Index of /maven/maven-3/3.8.8/binaries

绿色的是文件路径

上传文件

解压文件

tar -zxvf apache-maven-3.8.8-bin.tar.gz

配置环境变量

vim /etc/profile
 

export MAVEN_HOME=/export/server/apache-maven-3.8.8
export MAVEN_OPTS="-Xms4096m -Xmx4096m"
export PATH=:$MAVEN_HOME/bin:$PATH

加载文件

source /etc/profile

 验证文件

mvn -v

配置阿里云地址信息

vim /export/server/apache-maven-3.8.8/conf/settings.xml

我先在需要加快进度了

安装ProtocolBuffer 3.7.1

下载 ProtocolBuffer 3.7.1文件

GitCode - 开发者的代码家园

上传文件

解压文件

tar -zxvf protobuf-v3.7.1.tar.gz

安装

cd protobuf-v3.7.1/

./autogen.sh

./configure
make && make install

验证

protoc --version

安装hadoop

下载hadoop文件信息

链接:https://pan.baidu.com/s/1vmXHrlfd1crbjAwgpZJL5g?pwd=ue6w 
提取码:ue6w

上传

注意

必须把文件上传到root目录

解压

tar zxvf hadoop-3.3.0-src.tar.gz

编译

cd hadoop-3.3.0

mvn clean package -Pdist,native -DskipTests -Dtar -Dbundle.snappy -Dsnappy.lib=/usr/local/lib

文件说明

Pdist,native :把重新编译生成的hadoop动态库;
DskipTests :跳过测试
Dtar :最后把文件以tar打包
Dbundle.snappy :添加snappy压缩支持【默认官网下载的是不支持的】
Dsnappy.lib=/usr/local/lib :指snappy在编译机器上安装后的库路径

 今天基础环境已经安装完成了明天更新其他的

开始操作三台机器进行安装的方式

1.查看主机名称

cat /etc/hostname

2.配置映射关系

vim /etc/hosts

配置的每个主机和ip必须相同才可以使用

3.安装jdk的方式

java -version

 

上面安装过了我们检测一下

4.同步集群时间

ntpdate ntp5.aliyun.com

 5.关闭防火墙

1.查看防火墙状态

firewall-cmd --state

2.停止防火墙

systemctl stop firewalld.service

 3.禁止开启自动启动

systemctl disable firewalld.service

 6.ssh 免密登陆

在hadoop01

生成密钥

ssh-keygen  

执行

 ssh-copy-id hadoop01

 ssh-copy-id hadoop02

 ssh-copy-id hadoop03 

7.切换目录修改配置文件信息

1.进入目录

cd /export/server

2. 上传文件 hadoop-3.3.0-Centos7-64-with-snappy.tar.gz到/export/server

3.解压文件

tar zxvf hadoop-3.3.0-Centos7-64-with-snappy.tar.gz

4.进入配置文件目录

cd hadoop-3.3.0/etc/hadoop/

5.添加信息

5.1 修改文件 hadoop-env.sh

 vim hadoop-env.sh

添加文件

export JAVA_HOME=/export/server/jdk1.8.0_241
export HDFS_NAMENODE_USER=root
  export HDFS_DATANODE_USER=root
  export HDFS_SECONDARYNAMENODE_USER=root
  export YARN_RESOURCEMANAGER_USER=root
  export YARN_NODEMANAGER_USER=root 

 5.2 修改文件 core-site.xml

vim core-site.xml

添加修改文件

<!-- 设置默认使用的文件系统 Hadoop支持file、HDFS、GFS、ali|Amazon云等文件系统 -->
  <property>
      <name>fs.defaultFS</name>
      <value>hdfs://hadoop01:8020</value>
  </property>
  
  <!-- 设置Hadoop本地保存数据路径 -->
  <property>
      <name>hadoop.tmp.dir</name>
      <value>/export/data/hadoop-3.3.0</value>
  </property>
  
  <!-- 设置HDFS web UI用户身份 -->
  <property>
      <name>hadoop.http.staticuser.user</name>
      <value>root</value>
  </property>
  
  <!-- 整合hive 用户代理设置 -->
  <property>
      <name>hadoop.proxyuser.root.hosts</name>
      <value>*</value>
  </property>
  
  <property>
      <name>hadoop.proxyuser.root.groups</name>
      <value>*</value>
  </property>
  
  <!-- 文件系统垃圾桶保存时间 -->
  <property>
      <name>fs.trash.interval</name>
      <value>1440</value>
  </property>

5.3 修改配置文件 hdfs-site

修改文件 hdfs-site.xml

vim hdfs-site.xml
添加配置文件

<!-- 设置SNN进程运行机器位置信息 -->
  <property>
      <name>dfs.namenode.secondary.http-address</name>
      <value>hadoop02:9868</value>
  </property>
 

5.4 修改  mapred-site

添加信息

<!-- 设置MR程序默认运行模式: yarn集群模式 local本地模式 -->
  <property>
    <name>mapreduce.framework.name</name>
    <value>yarn</value>
  </property>
  
  <!-- MR程序历史服务地址 -->
  <property>
    <name>mapreduce.jobhistory.address</name>
    <value>node1:10020</value>
  </property>
   
  <!-- MR程序历史服务器web端地址 -->
  <property>
    <name>mapreduce.jobhistory.webapp.address</name>
    <value>node1:19888</value>
  </property>
  
  <property>
    <name>yarn.app.mapreduce.am.env</name>
    <value>HADOOP_MAPRED_HOME=${HADOOP_HOME}</value>
  </property>
  
  <property>
    <name>mapreduce.map.env</name>
    <value>HADOOP_MAPRED_HOME=${HADOOP_HOME}</value>
  </property>
  
  <property>
    <name>mapreduce.reduce.env</name>
    <value>HADOOP_MAPRED_HOME=${HADOOP_HOME}</value>
  </property>

5.5 修改 yarn-site.xml

添加配置文件

 <!-- 设置YARN集群主角色运行机器位置 -->
  <property>
      <name>yarn.resourcemanager.hostname</name>
      <value>hadoop01</value>
  </property>
  
  <property>
      <name>yarn.nodemanager.aux-services</name>
      <value>mapreduce_shuffle</value>
  </property>
  
  <!-- 是否将对容器实施物理内存限制 -->
  <property>
      <name>yarn.nodemanager.pmem-check-enabled</name>
      <value>false</value>
  </property>
  
  <!-- 是否将对容器实施虚拟内存限制。 -->
  <property>
      <name>yarn.nodemanager.vmem-check-enabled</name>
      <value>false</value>
  </property>
  
  <!-- 开启日志聚集 -->
  <property>
    <name>yarn.log-aggregation-enable</name>
    <value>true</value>
  </property>
  
  <!-- 设置yarn历史服务器地址 -->
  <property>
      <name>yarn.log.server.url</name>
      <value>http://hadoop01:19888/jobhistory/logs</value>
  </property>
  
  <!-- 历史日志保存的时间 7天 -->
  <property>
    <name>yarn.log-aggregation.retain-seconds</name>
    <value>604800</value>
  </property>

8. 出现了问题

workers
 

我们是编辑里面信息不是启动

正确操作的方式

vim workers

输入


hadoop01.itcast.cn
hadoop02.itcast.cn
hadoop03.itcast.cn
 

9.传输文件信息

在 hadoop02, hadoop3执行

mkdir -p /export/server

发送文件

scp -r hadoop-3.3.0 root@hadoop02:$PWD

scp -r hadoop-3.3.0 root@hadoop03:$PWD

10.三台机械添加文件信息

vim /etc/profile

export HADOOP_HOME=/export/server/hadoop-3.3.0
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

11. 初始化

hdfs namenode -format

启动脚本

start-dfs.sh 

问题这里出现了问题我们没有给其他俩个机器配置java_home 我们配置一下

在hadoop01执行

发送文件

scp -r jdk1.8.0_241 root@hadoop02:$PWD

scp -r jdk1.8.0_241 root@hadoop03:$PWD

配置文件

vim /etc/profile

添加到 hadoop02,hadoop03

export JAVA_HOME=/export/server/jdk1.8.0_241
export PATH=$PATH:$JAVA_HOME/bin
export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar

执行

start-dfs.sh 

 启动成功

执行

start-yarn.sh 

成功了

12 输入 jps

4.需要注意

5.验证结果

6.可能需要的命令

1.查找文件

find / -name CMake-3.19.4

2.shfit+g

评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值