Ubuntu从零开始安装

Ubuntu从零开始安装

镜像制作工具官网

http://rufus.ie/

Ubuntu 16.04 镜像下载

http://mirrors.aliyun.com/ubuntu-releases/16.04/ubuntu-16.04.6-server-amd64.iso

制作盘教程

UltraISO:

https://blog.csdn.net/weixin_40554881/article/details/80625315

Rufus:

image-20200731164904739

安装

ref: https://blog.csdn.net/yuanyr313/article/details/79074794#commentBox.

选择您所想要的语言,如图。
img
注意:在进入第一个安装界面的时候,先选择英文!!!不能选择简体中文,第3步再修改系统语言为中文,否则后面会报错,出错信息如下:
img

  1. 选择Install Ubuntu Server。

img

  1. 再次进入到语言选择界面后,选择简体中文,后面就不会再出现无法安装busybox-initramfs的错误。

img

  1. 同意选择的语言。
    img

  2. 选择您所在的区域。

img

  1. 配置键盘信息

img

  1. 键盘布局选择中国。

img

  1. 配置键盘选择汉语。

img

  1. 加载额外组件中。

img

  1. 配置网络

img

  1. 网络配置失败。

img

  1. 现在不进行网络设置。

img

  1. 添加主机名字。

img

  1. 设置用户名。
    img

  2. 选择用户名。

img

  1. 为用户设置新密码。

img

  1. 再一次输入用户新密码。

img

  1. 密码少于八个字符弹出提示。

img

  1. 配置对主目录加密。

img

  1. 卸载正在使用的分区。

img

  1. 选择手动磁盘分区。
    img

  2. 配置分区挂载点综合信息。

img

  1. 删除所有的分区创建新的空分区。

img

  1. 选择空闲分区。

img

  1. 对空闲分区进行自动分区。

img
26. 分区设定结束。
img

  1. 确认无误,将改动写入磁盘。

img

  1. 将数据写入磁盘。

img

  1. 无代理信息。

img

30.手动更新。

img

31.安装标准系统工具。

img

32.将GRUB启动引导器安装到主引导记录。

img

  1. 安装完成。

img

  1. 安装完成后,取出光盘,系统重启后,即进入Linux命令行操作界面,输入之前设置的用户名和密码登陆进入系统。

img

配置IP

https://www.cnblogs.com/linjiqin/p/3148346.html

检查:

ip addr

修改 ip:

sudo cp /etc/network/interfaces /etc/network/interfaces_bak
auto eth0                  #设置自动启动eth0接口
iface eth0 inet static     #配置静态IP
address 192.168.11.88      #IP地址
netmask 255.255.255.0      #子网掩码
gateway 192.168.11.1        #默认网关

设置域名解析:

cp /etc/resolve.conf /etc/resolve.conf_bak
vi /etc/resolve.conf
nameserver 127.0.0.1 #记得加上
nameserver 8.8.8.8 #当地dns服务器(用ipconfig /all 查看本地dns,第一个dns是默认的,共有2个dns)

重启:

sudo /etc/init.d/networking restart
### Ubuntu从零开始安装 Hadoop 的详细步骤 以下是关于如何在 Ubuntu 系统上从头开始安装 Hadoop 的详细说明: #### 1. 更新系统并安装必要工具 确保系统的软件包是最新的,并安装一些必要的开发工具。 ```bash sudo apt update && sudo apt upgrade -y sudo apt install -y build-essential ssh rsync ``` #### 2. 配置 Java 环境 Hadoop 运行依赖于 Java。可以通过以下方式安装 OpenJDK 或 Oracle JDK。 ##### 安装 OpenJDK ```bash sudo apt install openjdk-8-jdk-headless -y java -version ``` 设置 `JAVA_HOME` 变量以便后续配置使用[^2]。 编辑 `/etc/profile` 文件,添加如下内容: ```bash export JAVA_HOME=/usr/lib/jvm/java-8-openjdk-amd64 export PATH=$PATH:$JAVA_HOME/bin ``` 使更改生效: ```bash source /etc/profile echo $JAVA_HOME ``` #### 3. 下载并解压 Hadoop 前往 Apache Hadoop 官方网站下载最新稳定版的二进制文件。 ```bash wget https://downloads.apache.org/hadoop/common/stable/hadoop-3.2.1.tar.gz tar -xzvf hadoop-3.2.1.tar.gz -C /usr/local/ mv /usr/local/hadoop-3.2.1 /usr/local/hadoop ``` #### 4. 设置环境变量 继续修改 `/etc/profile` 文件以支持 Hadoop 路径。 ```bash export HADOOP_HOME=/usr/local/hadoop export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin ``` 重新加载配置文件: ```bash source /etc/profile ``` #### 5. 配置 SSH 密钥免密码登录 Hadoop 使用 SSH 来管理节点间的通信。为了简化操作,需配置无密码登录。 ```bash ssh-keygen -t rsa -P '' -f ~/.ssh/id_rsa cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys chmod 0600 ~/.ssh/authorized_keys ssh localhost exit ``` #### 6. 修改 Hadoop 配置文件 进入 Hadoop 配置目录: ```bash cd /usr/local/hadoop/etc/hadoop/ ``` ##### (a) core-site.xml 创建或编辑此文件来指定默认文件系统路径。 ```xml <configuration> <property> <name>fs.defaultFS</name> <value>hdfs://localhost:9000</value> </property> </configuration> ``` ##### (b) hdfs-site.xml 定义数据存储位置以及副本数量。 ```xml <configuration> <property> <name>dfs.replication</name> <value>1</value> </property> <property> <name>dfs.name.dir</name> <value>/usr/local/hadoop/data/namenode</value> </property> <property> <name>dfs.data.dir</name> <value>/usr/local/hadoop/data/datanode</value> </property> </configuration> ``` ##### (c) mapred-site.xml 启用 YARN 支持 MapReduce 计算框架。 ```xml <configuration> <property> <name>mapreduce.framework.name</name> <value>yarn</value> </property> </configuration> ``` ##### (d) yarn-site.xml 调整资源调度器参数。 ```xml <configuration> <property> <name>yarn.nodemanager.aux-services</name> <value>mapreduce_shuffle</value> </property> <property> <name>yarn.resourcemanager.hostname</name> <value>localhost</value> </property> </configuration> ``` #### 7. 初始化 HDFS 文件系统 执行以下命令初始化 NameNode 数据库。 ```bash hdfs namenode -format ``` #### 8. 启动 Hadoop 服务 依次启动 HDFS 和 YARN 服务。 ```bash start-dfs.sh start-yarn.sh ``` 验证集群状态: ```bash jps ``` 应显示以下进程:`NameNode`, `DataNode`, `ResourceManager`, `NodeManager`. #### 9. 测试运行 上传测试文件到 HDFS 并运行 WordCount 示例程序。 ```bash hdfs dfs -mkdir /input hdfs dfs -put /path/to/input/file.txt /input hadoop jar /usr/local/hadoop/share/hadoop/mapreduce/hadoop-mapreduce-examples-*.jar wordcount /input /output hdfs dfs -cat /output/part-r-00000 ``` --- ### 注意事项 如果遇到 Hive 启动时因 Guava 版本冲突引发错误,则按照先前描述的方法处理 guava.jar 冲突问题[^1]。 对于更复杂的多节点部署场景,请进一步研究网络拓扑结构设计及相关配置细节。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值