这里写自定义目录标题
集群搭建第一部分
0.先前步骤,关闭防火墙
systemctl stop firewalld.service
systemctl disable firewalld.service
1.修改主机名
hostnamectl set-hostname master
hostnamectl set-hostname slave1
hostnamectl set-hostname slave2
2.主机名映射(使用内网ip)
vim /etc/hosts
172.18.35.241 slave2
172.18.35.243 slave1
172.18.35.240 master
3.改时区
timedatectl set-timezone Asia/Shanghai
4.设置master为本地时间服务器,屏蔽默认server,服务器层级设为10
vim /etc/ntp.conf
# 屏蔽默认(注释掉),添加以下内容
server 127.127.1.0
fudge 127.127.1.0 stratum 10 # 服务器层级10
5.开启NTP服务
systemctl start ntpd.service
6.添加定时任务–在早十-晚五时间段内每隔半个小时同步一次本地服务器时间
crontab -e
*/30 10-17 * * * /usr/sbin/ntpdate master
7.主节点生成公钥文件id_rsa.pub(数字签名RSA,用户root,主机名master)
进入到ssh存放的路径 (全部删除 rm -rf *)
cd /root/.ssh
ssh-keygen -t rsa
8.建⽴master⾃身使⽤root⽤户ssh访问localhost免密登录(2分
ssh-copy-id localhost
9.建⽴master使⽤root⽤户到slave1的ssh免密登录访问
ssh-copy-id slave1
#如果不行用这个ssh-copy-id -i id_rsa.pub slave1
10.建⽴master使⽤root⽤户到slave2的ssh免密登录访问
ssh-copy-id slave2
11.将jdk安装包解压到/usr/java目录(安装包存放于/usr/package277/,路径自行创建,解压后文件夹为默认名称,其他安装同理)
mkdir /usr/java
cd /usr/java
tar -zxvf /usr/package277/jdk-8u221-linux-x64.tar.gz -C /usr/java
12.配置系统环境变量JAVA_HOME,同时将JDK安装路径中bin目录加入PATH系统变量,注意生效变量,查看JDK版本
vim /etc/profile
export JAVA_HOME=/usr/java/jdk1.8.0_221
export CLASSPATH=$JAVA_HOME/lib/
export PATH=$PATH:$JAVA_HOME/bin
export PATH JAVA_HOME CLASSPATH
环境生效
source /etc/profile
发送文件
scp /etc/profile slave1:/etc/profile
scp /etc/profile slave2:/etc/profile
发送文件夹
scp -r /usr/java slave1:/usr
scp -r /usr/java slave2:/usr
java -version
集群搭建第二部分
1.将Hadoop安装包解压到指定路径/usr/hadoop(安装包存放于/usr/package277/)
在这里mkdir /usr/hadoop
cd /usr/hadoop
tar -zxvf /usr/package277/hadoop-2.7.7.tar.gz -C /usr/hadoop
scp -r /usr/hadoop slave1:/usr/hadoop
scp -r /usr/hadoop slave2:/usr/hadoop
2.配置环境变量HADOOP_HOME,将Hadoop安装路径中bin目录和sbin目录加入PATH系统变量,注意生效变量
操作环境:master.slave1、 slave2
vim /etc/profile
export HADOOP_HOME=/usr/hadoop/hadoop-2.7.7
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
source /etc/profile
scp /etc/profile slave1:/etc/profile
scp /etc/profile slave2:/etc/profile
3.配置Hadoop运行环境JAVA_HOME操作环境
cd /usr/hadoop/hadoop-2.7.7/etc/hadoop/
vim hadoop-env.sh
export JAVA_HOME=/usr/java/jdk1.8.0_221
4.设置全局参数,指定HDFS上NameNode地址为master,端口默认为9000操作环境
vim core-site.xml
<property>
<name>fs.default.name</name>
<value>hdfs://master:9000</value>
</property>
5.指定临时存储目录为本地/root/hadoopData/tmp(要求为绝对路径,下同)
<property>
<name>hadoop.tmp.dir</name>
<value>/root/hadoopData/tmp</value>
</property>
6.设置HDFS参数,指定备份文本数量为2
7.设置HDFS参数,指定NN存放元数据信息路径为本地/root/hadoopData/name;指定DN存放元数据信息骆径为本地/root/hadoopData/data(要求为绝对路径)
操作环境:master.slave1.slave2
8.设置HDFS参数,关闭hadoop集群权限校验(安全配置),允许其他用户连接集群;指定datanode之间通过域名方式进行通信
vim hdfs-site.xml
<property>
<name>dfs.replication</name>
<value>2</value>
</property>
<property>
<name>dfs.namenode.name.dir</name>
<value>/root/hadoopData/name</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>/root/hadoopData/data</value>
</property>
<property>
<name>dfs.permissions</name>
<value>false</value>
</property>
<property>
<name>dfs.datanode.use.datanode.hostname</name>
<value>true</value>
</property>
9.设置YARN运行环境$JAVA_HOME参数操作环境: master.slave1. slave2
vim yarn-env.sh
export JAVA_HOME=/usr/java/jdk1.8.0_221
10.设置YARN核心参数,指定ResourceManager进程所在主机为master,端口为18141,指定mapreduce获取数据的方式为mapreduce shuffie
vim yarn-site.xml
<property>
<name>yarn.resourcemanager.admin.address</name>
<value>master:18141</value>
</property>
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<property>
<name>yarn.nodemanager.auxservices.mapreduce.shuffle.class</name>
<value>org.apache.hadoop.mapred.ShuffleHandler</value>
</property>
11.设置计算框架参数,指定MR运行在yarn上操作环境
cp mapred-site.xml.template mapred-site.xml
vim mapred-site.xml
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
12.设置节点文件,要求master为主节点; slave1、slave2为子节点操作环境
echo master > master
echo slave1 > slaves
echo slave2 >> slaves
cat master
cat slaves
scp -r /usr/hadoop slave1:/usr
scp -r /usr/hadoop slave2:/usr
13.对文件系统进行格式化
hadoop namenode -format
14.启动Hadoop集群查看各节点服务操作环境: slave1. slave2
start-all.sh
yes
15.查看集群运行状态是否正常操作环境: master
jps
集群搭建第三部分
1.将Spark安装包解压到指定路径/usr/spark/spark-2.4.3-bin-hadoop2.7 (安装包存放于/usr/package277/)
mkdir /usr/spark/spark-2.4.3-bin-hadoop2.7
cd /usr/spark/spark-2.4.3-bin-hadoop2.7
tar -zxvf /usr/package277/spark-2.4.3-bin-hadoop2.7.tgz -C /usr/spark/spark-2.4.3-bin-hadoop2.7
scp -r /usr/spark/spark-2.4.3-bin-hadoop2.7 slave1:/usr/spark/spark-2.4.3-bin-hadoop2.7
scp -r /usr/spark/spark-2.4.3-bin-hadoop2.7 slave2:/usr/spark/spark-2.4.3-bin-hadoop2.7
2.文件/etc/profile中配置环境变量SPARK HOME,将Spark安装路径中的bin目录加入PATH系统变量,注意生效变量
vim /etc/profile
export SPARK_HOME=/usr/spark/spark-2.4.3-bin-hadoop2.7
export PATH=$SPARK_HOME/bin:$PATH
source /etc/profile
scp /etc/profile slave1:/etc/profile
scp /etc/profile slave2:/etc/profile
3.4.5.6.修改配置文件spark-env.sh,设置主机节点为master
#先将文件 spark-env.sh.template 重命名为 spark-env.sh
cd /usr/spark/spark-2.4.3-bin-hadoop2.7/conf
cp spark-env.sh.template spark-env.sh
vim spark-env.sh
export JAVA_HOME=/usr/java/jdk1.8.0_221
export SPARK_MASTER_HOST=master(或者ip地址)
#指定Master的端口
#export SPARK_MASTER=7077
export SPARK_WORKER_MEMORY=8g
export HADOOP_HOME=/usr/hadoop/hadoop-2.7.7
export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop
scp -r /usr/spark slave1:/usr/spark
scp -r /usr/spark slave2:/usr/spark
7.8.修改slaves文件,添加spark从节点slave1、slave2
cp slaves.template slaves
vim slaves
slave1
slave2
pwd
scp -r
jps
start-all.sh
欢迎使用Markdown编辑器
你好! 这是你第一次使用 Markdown编辑器 所展示的欢迎页。如果你想学习如何使用Markdown编辑器, 可以仔细阅读这篇文章,了解一下Markdown的基本语法知识。
新的改变
我们对Markdown编辑器进行了一些功能拓展与语法支持,除了标准的Markdown编辑器功能,我们增加了如下几点新功能,帮助你用它写博客:
- 全新的界面设计 ,将会带来全新的写作体验;
- 在创作中心设置你喜爱的代码高亮样式,Markdown 将代码片显示选择的高亮样式 进行展示;
- 增加了 图片拖拽 功能,你可以将本地的图片直接拖拽到编辑区域直接展示;
- 全新的 KaTeX数学公式 语法;
- 增加了支持甘特图的mermaid语法1 功能;
- 增加了 多屏幕编辑 Markdown文章功能;
- 增加了 焦点写作模式、预览模式、简洁写作模式、左右区域同步滚轮设置 等功能,功能按钮位于编辑区域与预览区域中间;
- 增加了 检查列表 功能。
功能快捷键
撤销:Ctrl/Command + Z
重做:Ctrl/Command + Y
加粗:Ctrl/Command + B
斜体:Ctrl/Command + I
标题:Ctrl/Command + Shift + H
无序列表:Ctrl/Command + Shift + U
有序列表:Ctrl/Command + Shift + O
检查列表:Ctrl/Command + Shift + C
插入代码:Ctrl/Command + Shift + K
插入链接:Ctrl/Command + Shift + L
插入图片:Ctrl/Command + Shift + G
查找:Ctrl/Command + F
替换:Ctrl/Command + G
合理的创建标题,有助于目录的生成
直接输入1次#,并按下space后,将生成1级标题。
输入2次#,并按下space后,将生成2级标题。
以此类推,我们支持6级标题。有助于使用TOC
语法后生成一个完美的目录。
如何改变文本的样式
强调文本 强调文本
加粗文本 加粗文本
标记文本
删除文本
引用文本
H2O is是液体。
210 运算结果是 1024.
插入链接与图片
链接: link.
图片:
带尺寸的图片:
居中的图片:
居中并且带尺寸的图片:
当然,我们为了让用户更加便捷,我们增加了图片拖拽功能。
如何插入一段漂亮的代码片
去博客设置页面,选择一款你喜欢的代码片高亮样式,下面展示同样高亮的 代码片
.
// An highlighted block
var foo = 'bar';
生成一个适合你的列表
- 项目
- 项目
- 项目
- 项目
- 项目1
- 项目2
- 项目3
- 计划任务
- 完成任务
创建一个表格
一个简单的表格是这么创建的:
项目 | Value |
---|---|
电脑 | $1600 |
手机 | $12 |
导管 | $1 |
设定内容居中、居左、居右
使用:---------:
居中
使用:----------
居左
使用----------:
居右
第一列 | 第二列 | 第三列 |
---|---|---|
第一列文本居中 | 第二列文本居右 | 第三列文本居左 |
SmartyPants
SmartyPants将ASCII标点字符转换为“智能”印刷标点HTML实体。例如:
TYPE | ASCII | HTML |
---|---|---|
Single backticks | 'Isn't this fun?' | ‘Isn’t this fun?’ |
Quotes | "Isn't this fun?" | “Isn’t this fun?” |
Dashes | -- is en-dash, --- is em-dash | – is en-dash, — is em-dash |
创建一个自定义列表
-
Markdown
- Text-to- HTML conversion tool Authors
- John
- Luke
如何创建一个注脚
一个具有注脚的文本。2
注释也是必不可少的
Markdown将文本转换为 HTML。
KaTeX数学公式
您可以使用渲染LaTeX数学表达式 KaTeX:
Gamma公式展示 Γ ( n ) = ( n − 1 ) ! ∀ n ∈ N \Gamma(n) = (n-1)!\quad\forall n\in\mathbb N Γ(n)=(n−1)!∀n∈N 是通过欧拉积分
Γ ( z ) = ∫ 0 ∞ t z − 1 e − t d t . \Gamma(z) = \int_0^\infty t^{z-1}e^{-t}dt\,. Γ(z)=∫0∞tz−1e−tdt.
你可以找到更多关于的信息 LaTeX 数学表达式here.
新的甘特图功能,丰富你的文章
- 关于 甘特图 语法,参考 这儿,
UML 图表
可以使用UML图表进行渲染。 Mermaid. 例如下面产生的一个序列图:
这将产生一个流程图。:
- 关于 Mermaid 语法,参考 这儿,
FLowchart流程图
我们依旧会支持flowchart的流程图:
- 关于 Flowchart流程图 语法,参考 这儿.
导出与导入
导出
如果你想尝试使用此编辑器, 你可以在此篇文章任意编辑。当你完成了一篇文章的写作, 在上方工具栏找到 文章导出 ,生成一个.md文件或者.html文件进行本地保存。
导入
如果你想加载一篇你写过的.md文件,在上方工具栏可以选择导入功能进行对应扩展名的文件导入,
继续你的创作。
注脚的解释 ↩︎