VMware虚拟机安装及Ubuntu、VMwareTools、JDK、Hadoop、Spark配置总结指路(纯小白版)

 一、VMware虚拟机

1、下载

VMware17个人版可以官网正版免费下载无需激活码。

下载教程:BV1o7421o7Vt

1.https://temp-mail.org/ 随机生成邮箱
2.https://profile.broadcom.com/web/registration 注册账号
3.https://support.broadcom.com/group/ecx/productdownloads?subfamily=VMware+Workstation+Pro 下载界面(登录后进入)

2、配置

VMware17Pro虚拟机安装教程(超详细)_怎么安装vm17pro-CSDN博客

二、Ubuntu

1、下载

官网下载:https://ubuntu.com/download/desktop

清华镜像站下载(版本选择ubuntu-22.04.4-desktop-amd64.iso):Index of /ubuntu-releases/22.04.4/ | 清华大学开源软件镜像站 | Tsinghua Open Source Mirror

2、配置

VMware虚拟机安装Ubuntu教程(超详细)_vmware如何安装ubuntu-CSDN博客

另,“无法创建新虚拟机: 不具备执行此操作的权限”的解决办法:

无法创建新虚拟机: 不具备执行此操作的权限。-CSDN博客

三、VMwareTools

安装和使用都可以参照:

Linux虚拟机VMwareTools安装+使用详解 虚拟机的文件传输竟如此简单_vmware tools-CSDN博客

我复制的时候显示没有权限复制到opt所以复制到桌面了,部分参照两种方法在VMware中安装VMware Tools_vmwaretools-CSDN博客 方法一

下载的过程基本上是有yes输yes,无yes按回车。

另,安装VMwareTools选项显示为灰的情况,解决方法如下:

解决“重新安装vmware-tools”灰色而无法安装的问题_为什么redhat虚拟机无法安装vmware tools-CSDN博客

将虚拟机->设置->硬件->CD/DVD.右边“连接”改为,使用物理驱动器自动检测/使用iso映像文件设为linux.iso。

另另,“客户机操作系统已将 CD-ROM 门锁定,并且可能正在使用 CD-ROM,这可能会导致客户机...” 报错解决办法:

“客户机操作系统已将 CD-ROM 门锁定,并且可能正在使用 CD-ROM,这可能会导致客户机...” 报错解决办法-CSDN博客

四、JDK

官网下载jdk,通过VMwareTools复制到虚拟机。

图源:《数据科学导论》

细节可参照:
Linux和虚拟机VMware下安装JDK1.8_有什么命令在虚拟机上下载jdk1.8-CSDN博客

 ”java -version"写法需注意,-前有空格后没有:Unrecognized option: -Error: Could not create the Java Virtual Machine._unrecognized option: --version error: could not cr-CSDN博客

 进行其他命令时也要注意空格。

五、Hadoop

1、版本判断

进入Spark官网,判断当前版本:

Apache Spark™ - Unified Engine for large-scale data analyticsApache Spark is a multi-language engine for executing data engineering, data science, and machine learning on single-node machines or clusters.icon-default.png?t=N7T8https://spark.apache.org/

版本不同,但同理。

2、下载

清华镜像下载:

Index of /apache/hadoop/commonicon-default.png?t=N7T8https://mirrors.tuna.tsinghua.edu.cn/apache/hadoop/common/版本自行判断,选择形如

hadoop-3.4.0.tar.gz

的类型。下载后通过VMwareTools复制到虚拟机。

3、配置

jdk版本自行修改。

图中长段代码在下面给出可复制版本:

mkdir /usr/lib/hadoop/dfs
mkdir /usr/lib/hadoop/dfs/name
mkdir /usr/lib/hadoop/dfs/data
mkdir /usr/lib/hadoop/tmp
<configuration>
    <property>
    	<name>fs.defaultFS</name>
	    <value>hdfs://master:9000</value>
    </property>
    <property>
	    <name>hadoop.tmp.dir</name>
	    <value>/usr/local/hadoop/tmp</value>
    </property>
</configuration>
<configuration>
<property>
	    <name>dfs.replication</name>
	    <value>2</value>
    </property>
    <property>
	    <name>dfs.namenode.name.dir</name>
	    <value>/usr/local/hadoop/hdfs/name</value>
    </property>
    <property>
	    <name>dfs.datanode.data.dir</name>
	    <value>/usr/local/hadoop/hdfs/data</value>
    </property>
    <property>
	    <name>dfs.namenode.secondary.http-address</name>
	    <value>node1:9001</value>
    </property>
    <property>
	    <name>mapred.job.tracker</name>
	    <value>master:9001</value>
    </property>
</configuration>

 六、Spark

1、下载

清华镜像下载:

Index of /apache/sparkicon-default.png?t=N7T8https://mirrors.tuna.tsinghua.edu.cn/apache/spark/

 选择形如

spark-3.5.1-bin-hadoop3.tgzd

的进行下载 。下载后通过VMwareTools复制到虚拟机。

2、配置

有一个usr打错成了user

添加以下内容应根据自己版本以及主机IP地址进行修改

下列代码方便复制:

export JAVA_HOME=/usr/lib/jdk/jdk-22.0.1
export HADOOP_HOME=/usr/lib/hadoop/hadoop-3.4.0
export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop
export SPARK_MASTER_IP=master
export MASTER=spark://192.168.29.128:7077
export SPARK_LOCAL_DIRS=/usr/lib/spark/spark-3.5.1-bin-hadoop3
export SPARK_DRIVER_MEMORY=512M

最后:Hadoop(第五部分)以及Spark(第六部分)的配置该书给的引导不是很详细,建议搜索其他教程。

评论 5
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值