虚拟机ubuntu18.04环境下hadoop2.9和hive3.0安装

本文详细介绍了如何在Ubuntu 18环境下搭建Hadoop集群,包括基础环境配置、Hadoop及Hive的安装步骤、MySQL安装配置、虚拟机IP地址设置等关键环节。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

一、基础环境和下载

环境:ubuntu18,64位

虚拟机:virtualbox5.2

下载hadoop2.9.1 https://mirrors.tuna.tsinghua.edu.cn/apache/hadoop/common/

下载jdk1.8.0 http://www.oracle.com/technetwork/java/javase/downloads/jdk8-downloads-2133151.html

下载hive3.0.0 https://mirrors.tuna.tsinghua.edu.cn/apache/hive/

二、创建HADOOP用户

sudo useradd -m hadoop -s /bin/bash

设置密码

sudo passwd hadoop

增加管理员权限

sudo adduser hadoop sudo


三、更新软件,安装ssh

sudo apt-get update

sudo apt-get install vim

sudo apt-get install openssh-server

登陆本机:

ssh localhost

exit                           # 退出刚才的 ssh localhost
cd ~/.ssh/                     # 若没有该目录,请先执行一次ssh localhost
ssh-keygen -t rsa              # 会有提示,都按回车就可以

cat ./id_rsa.pub >> ./authorized_keys  # 加入授权


四、安装java,配置环境

tar -zxvf jdk-8u171-linux-x64.tar.gz
配置环境变量
sudo gedit /etc/profile
末尾加上
export JAVA_HOME=/usr/lib/jvm/jdk1.7.0_21  
export CLASSPATH=.:$JAVA_HOME/lib:$JAVA_HOME/jre/lib:$CLASSPATH  
export PATH=$JAVA_HOME/bin:$JAVA_HOME/jre/bin:$PATH 
终端输入
source /etc/profile

五、安装hadoop

sudo tar -zxf hadoop-2.9.1.tar.gz -C /usr/local    # 解压到/usr/local中
定位到/usr/local 
sudo mv ./hadoop-2.9.1/ ./hadoop            # 将文件夹名改为hadoop
sudo chown -R hadoop ./hadoop       # 修改文件权限

验证是否安装成功

cd /usr/local/hadoop

./bin/hadoop version

安装成功会显示版本


六、修改配置文件

gedit ./etc/hadoop/core-site.xml

<configuration>
        <property>
             <name>hadoop.tmp.dir</name>
             <value>file:/usr/local/hadoop/tmp</value>
             <description>Abase for other temporary directories.</description>
        </property>
        <property>
             <name>fs.defaultFS</name>
             <value>hdfs://localhost:9000</value>
        </property>
</configuration>

gedit ./etc/hadoop/hdfs-site.xml

<configuration>
        <property>
             <name>dfs.replication</name>
             <value>1</value>
        </property>
        <property>
             <name>dfs.namenode.name.dir</name>
             <value>file:/usr/local/hadoop/tmp/dfs/name</value>
        </property>
        <property>
             <name>dfs.datanode.data.dir</name>
             <value>file:/usr/local/hadoop/tmp/dfs/data</value>
        </property>
</configuration>

gedit ./etc/hadoop/hadoop-env.sh

修改java环境变量(你安装的位置) export JAVA_HOME=/lib/jdk1.8.0_171

执行 NameNode 的格式化:

./bin/hdfs namenode -format


开启 NameNode 和 DataNode 守护进程

./sbin/start-dfs.sh


启动完成后,可以通过命令 jps 来判断是否成功启动


关闭命令sbin/stop-dfs.sh

可以打开http://localhost:50070/查看 NameNode 和 Datanode 信息,还可以在线查看 HDFS 中的文件。


七、安装mysql

第一次安装调用不出来mysql,所以决定卸载重安就可以了

sudo apt-get install mysql-server
sudo apt install mysql-client
sudo apt install libmysqlclient-dev

先清除之前的安装信息

sudo apt-get autoremove --purge mysql-server-5.0
sudo apt-get remove mysql-server
sudo apt-get autoremove mysql-server

sudo apt-get remove mysql-common 

清理残留数据

dpkg -l |grep ^rc|awk '{print $2}' |sudo xargs dpkg -P

再次安装

sudo apt-get install mysql-server

sudo apt-get install mysql-client

设置mysql允许远程访问

终端输入sudo gedit /etc/mysql/mysql.conf.d/mysqld.cnf

注释掉bind-address = 127.0.0.1

在mysql中输入

grant all on *.* to root@'%' identified by '你的密码' with grant option;

flush privileges;

在终端中重启mysql

service mysql restart


八、复制这个ubuntu系统

右击ubuntu,选择“复制”,选择初始化mac地址,确定,“完全复制”,复制出两个新的ubuntu系统,命名为ubuntu2和ubuntu3



九、更改ubuntu2和ubuntu3的IP地址

复制出来的虚拟机IP地址是重复的,需要修改

在/etc/netplan中找到后缀名为.yaml的文件,打开终端

sudo gedit 01-network-manager-all.yaml

network:
    ethernets:
        enp0s3:
            addresses:
            - 192.168.0.2/20
            gateway4: 192.168.12.2
            nameservers:
                addresses:
                - 223.5.5.5
                search: []
            optional: true
    version: 2

保存退出,在终端中输入:sudo netplan apply,使之生效

在终端中输入ifconfig可查看ip




三个虚拟机的ip分别是192.168.0.1,192.168.0.2,192.168.0.3


十、修改3个系统的主机名字

查看当前主机的主机名称:sudo /bin/hostname

设置当前主机的主机名称:sudo /bin/hostname newname

三个主机名字分别是master,slave1,slave2

定位到/etc,打开终端sudo gedit hosts

192.168.0.1    master
192.168.0.2    slave1
192.168.0.3    slave2

手动重启网络服务生效:sudo /etc/init.d/networking restart


十一、



十二、



参考:http://www.powerxing.com/install-hadoop/

### 配置 CUDA cuDNN 的详细说明 #### 一、环境准备 在开始安装之前,需确认已成功部署 Ubuntu 18.04 虚拟机并完成基础配置。具体操作可参考提供的虚拟机下载与配置流程文档[^1]。 #### 二、NVIDIA 显卡驱动安装 为了支持 GPU 加速功能,在安装 CUDA 前需要先安装适合的 NVIDIA 显卡驱动程序。以下是推荐的操作步骤: 1. 更新系统软件包列表: ```bash sudo apt update && sudo apt upgrade -y ``` 2. 添加官方显卡驱动仓库并安装最新稳定版驱动: ```bash sudo add-apt-repository ppa:graphics-drivers/ppa sudo apt update sudo ubuntu-drivers autoinstall ``` 3. 完成后重启计算机以加载新驱动: ```bash sudo reboot ``` 验证驱动是否正常工作可以通过命令 `nvidia-smi` 查看当前 GPU 使用状态以及所使用的驱动版本号[^2]。 #### 三、CUDA 工具包安装 按照以下方法可以顺利完成 CUDA 的安装过程: 1. 下载对应平台架构下的 CUDA Toolkit 运行文件(如 cuda_11.4.1_470.57.02_linux.run),或者通过官网链接获取最新的 Linux 版本镜像; 2. 授权执行权限并对脚本运行初始化设置向导模式: ```bash chmod +x ./cuda*.run sudo sh ./cuda*.run --override ``` 注意:如果遇到依赖关系冲突等问题,则尝试添加参数选项覆盖默认检测逻辑。 #### 四、cuDNN 库集成 对于深度学习框架而言,除了基本计算能力外还需要额外引入优化后的神经网络运算单元——即 cuDNN 支持库。其主要作用在于提升卷积层处理效率等方面表现优异。 1. 访问 NVIDIA 开发者门户网站登录账户后进入 cuDNN 页面找到匹配目标系统的压缩包资源; 2. 解压获得的内容通常包括头文件目录(`include`)动态共享对象(.so)形式的目标模块集合(`lib64`)两部分组成; 3. 将上述解压路径中的子项分别复制到全局可见的标准位置下: ```bash sudo cp include/cudnn*.h /usr/local/cuda/include/ sudo cp lib64/libcudnn* /usr/local/cuda/lib64/ sudo chmod a+r /usr/local/cuda/include/cudnn*.h /usr/local/cuda/lib64/libcudnn* ``` 最后一步非常重要因为它赋予所有用户读取这些新增组件的权利从而避免后续编译阶段可能出现访问受限错误提示信息出现的情况发生[^3]。 #### 五、验证安装成果 完成全部准备工作之后可通过如下方式检验整个链路搭建状况良好与否: - 测试 CUDA 是否可用: ```bash nvcc --version nvidia-smi ``` - 查询 cuDNN 当前激活的具体分支代次详情(适用于 v8 及以后发行序列): ```bash cat /usr/include/dlpack/dlpack.h | grep DLPACK_MAJOR_VERSION ``` --- ###
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值