测试环境搭建整套大数据系统(五:搭建dolphinschduler3.1.9)

本文详细描述了如何从官网下载并安装ApacheDolphinScheduler3.1.9版本,包括解压、添加Zookeeper和MySQLjar包,修改配置文件,初始化数据库,以及在多节点环境中部署和查看操作步骤。
摘要由CSDN通过智能技术生成

一:官网下载安装包。

官网地址:

https://dolphinscheduler.apache.org/zh-cn/docs/3.1.9/architecture/configuration
在这里插入图片描述
在这里插入图片描述

二:进行解压。

root@hadoop100:/opt# tar zxvf dolphinscheduler-3.1.9-bin.tar.gz /opt

三:添加jar包。

1. 添加zk jar包。

进入 zookeeper 的安装目录,将 zoo_sample.cfg 配置文件复制到 conf/zoo.cfg,并将 conf/zoo.cfg 中 dataDir 中的值改成 dataDir=./tmp/zookeeper。
需要在alert-server,api-server,master-server,tools,worker-server这五个目录全部放进去。

2. 添加mysql8.0.6以上的jar包。

即使你使用的mysql是5.7,也要使用8.0.16以上的驱动。
将驱动包放到alert-server,api-server,master-server,tools,worker-server五个目录的libs目录下。
在这里插入图片描述

四:修改配置文件。

1. 修改dolphinscheduler_env.sh

cd /opt/apache-dolphinscheduler-3.1.9-bin/bin/env
vim dolphinscheduler_env.sh

mysql,zk,java地址必须修改。

# JAVA_HOME, will use it to start DolphinScheduler server
export JAVA_HOME=${JAVA_HOME:-/opt/jdk1.8.0_211}

# Database related configuration, set database type, username and password
#export DATABASE=${DATABASE:-postgresql}
#export SPRING_PROFILES_ACTIVE=${DATABASE}
#export SPRING_DATASOURCE_URL
#export SPRING_DATASOURCE_USERNAME
#export SPRING_DATASOURCE_PASSWORD
export DATABASE=${DATABASE:-mysql}
export SPRING_PROFILES_ACTIVE=${DATABASE}
export SPRING_DATASOURCE_URL="jdbc:mysql://hadoop100:3306/dolphinscheduler?createDatabaseIfNotExist=true"
export SPRING_DATASOURCE_USERNAME="dolphinscheduler"
export SPRING_DATASOURCE_PASSWORD="dolphinscheduler"

# DolphinScheduler server related configuration
export SPRING_CACHE_TYPE=${SPRING_CACHE_TYPE:-none}
export SPRING_JACKSON_TIME_ZONE=${SPRING_JACKSON_TIME_ZONE:-UTC}
export MASTER_FETCH_COMMAND_NUM=${MASTER_FETCH_COMMAND_NUM:-10}

# Registry center configuration, determines the type and link of the registry center
export REGISTRY_TYPE=${REGISTRY_TYPE:-zookeeper}
export REGISTRY_ZOOKEEPER_CONNECT_STRING=${REGISTRY_ZOOKEEPER_CONNECT_STRING:-hadoop100:2181,hadoop101:2181,hadoop102:2181}

export HADOOP_HOME=${HADOOP_HOME:-/opt/hadoop}
export HADOOP_CONF_DIR=${HADOOP_CONF_DIR:-/opt/hadoop/etc/hadoop}
export SPARK_HOME=${SPARK_HOME:-/opt/soft/spark}
export PYTHON_LAUNCHER=${PYTHON_LAUNCHER:-/opt/soft/python}
export HIVE_HOME=${HIVE_HOME:-/opt/apache-hive-3.1.2-bin}
export FLINK_HOME=${FLINK_HOME:-/opt/soft/flink}
export DATAX_LAUNCHER=${DATAX_LAUNCHER:-/opt/soft/datax/bin/python3}
export PATH=$HADOOP_HOME/bin:$SPARK_HOME/bin:$PYTHON_LAUNCHER:$JAVA_HOME/bin:$HIVE_HOME/bin:$FLINK_HOME/bin:$DATAX_LAUNCHER:$PATH

2. 修改 install_env.sh

vim install_env.sh
ips=${ips:-"hadoop100,hadoop101"}

# Port of SSH protocol, default value is 22. For now we only support same port in all `ips` machine
# modify it if you use different ssh port
sshPort=${sshPort:-"22"}

# A comma separated list of machine hostname or IP would be installed Master server, it
# must be a subset of configuration `ips`.
# Example for hostnames: masters="ds1,ds2", Example for IPs: masters="192.168.8.1,192.168.8.2"
masters=${masters:-"hadoop100,hadoop101"}

# A comma separated list of machine <hostname>:<workerGroup> or <IP>:<workerGroup>.All hostname or IP must be a
# subset of configuration `ips`, And workerGroup have default value as `default`, but we recommend you declare behind the hosts
# Example for hostnames: workers="ds1:default,ds2:default,ds3:default", Example for IPs: workers="192.168.8.1:default,192.168.8.2:default,192.168.8.3:default"
workers=${workers:-"hadoop100:default,hadoop101:default"}
# A comma separated list of machine hostname or IP would be installed Alert server, it
# must be a subset of configuration `ips`.
# Example for hostname: alertServer="ds3", Example for IP: alertServer="192.168.8.3"
alertServer=${alertServer:-"hadoop100"}

# A comma separated list of machine hostname or IP would be installed API server, it
# must be a subset of configuration `ips`.
# Example for hostname: apiServers="ds1", Example for IP: apiServers="192.168.8.1"
apiServers=${apiServers:-"hadoop101"}

# The directory to install DolphinScheduler for all machine we config above. It will automatically be created by `install.sh` script if not exists.
# Do not set this configuration same as the current path (pwd). Do not add quotes to it if you using related path.
installPath=${installPath:-"/opt/dolphinscheduler"}

# The user to deploy DolphinScheduler for all machine we config above. For now user must create by yourself before running `install.sh`
# script. The user needs to have sudo privileges and permissions to operate hdfs. If hdfs is enabled than the root directory needs
# to be created by this user
deployUser=${deployUser:-"root"}

# The root of zookeeper, for now DolphinScheduler default registry server is zookeeper.
zkRoot=${zkRoot:-"/dolphinscheduler"}

3. 修改zk阻塞直到连接成功的等待时间。

如果不修改会报错。

  1. zk链接超时 zookeeper connect timeout: 10.15.250.196:2181 10.15.250.202:2181 10.15.250.220:2181
  2. worker worker in work group default have not received the heartbeat

如何做?

  1. 在work,master,api-server。修改配置
root@hadoop100:/opt/apache-dolphinscheduler-3.1.9-bin# vim api-server/conf/application.yaml
root@hadoop100:/opt/apache-dolphinscheduler-3.1.9-bin# vim worker-server/conf/application.yaml
root@hadoop100:/opt/apache-dolphinscheduler-3.1.9-bin# vim master-server/conf/application.yaml

在这里插入图片描述

五:初始化mysql。

-- 创建数据库
CREATE DATABASE dolphinscheduler DEFAULT CHARACTER SET utf8 DEFAULT COLLATE utf8_general_ci;

-- 创建用户 'dolphinscheduler',允许从任何主机连接
CREATE USER 'dolphinscheduler'@'%' IDENTIFIED BY 'dolphinscheduler';

-- 授予 'dolphinscheduler' 用户对 'dolphinscheduler' 数据库的所有权限,从任何主机连接
GRANT ALL PRIVILEGES ON dolphinscheduler.* TO 'dolphinscheduler'@'%';

-- 创建用户 'dolphinscheduler',只允许从 localhost 连接
CREATE USER 'dolphinscheduler'@'localhost' IDENTIFIED BY 'dolphinscheduler';

-- 授予 'dolphinscheduler' 用户对 'dolphinscheduler' 数据库的所有权限,从 localhost 连接
GRANT ALL PRIVILEGES ON dolphinscheduler.* TO 'dolphinscheduler'@'localhost';

-- 刷新权限
FLUSH PRIVILEGES;

cd /opt/apache-dolphinscheduler-3.1.9-bin
bash tools/bin/upgrade-schema.sh

六:进行初始化。

cd /opt/apache-dolphinscheduler-3.1.9-bin
bash ./bin/install.sh

七:查看页面。

因为所高可用,所以在俩个节点上进行查看。

地址
http://192.168.50.61:12345/dolphinscheduler/ui/login
http://192.168.50.60:12345/dolphinscheduler/ui/login
账号密码:admin/dolphinscheduler123
  • 4
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
RocketMQ是阿里巴巴团队开源的高性能、可扩展、分布式、消息中间件系统,是一种可靠的、低延迟的、高并发的分布式消息队列,对于构筑分布式系统以及数据量庞大的应用,RocketMQ都有着出色的表现。 RocketMQ在3.1.9版本中,进行了一系列的改进和优化。包括以下几个方面: 1.集群部署管理 RocketMQ3.1.9支持在线扩容和在线下线,这对于业务环境动态变化的情况下非常有用。同时,RocketMQ升级到3.1.9版本后,还支持自动负载均衡和自动故障转移,提升了集群部署的稳定性和可靠性。 2.存储层优化 RocketMQ在存储层进行了一系列的性能优化和改进,如增加了映射文件预热、消息存储的跨平台兼容、消息读写缓存等。这些改进大大提高了RocketMQ存储层的性能和吞吐量。 3.消息顺序 RocketMQ3.1.9能够支持更多的消息顺序场景,支持消费者按照消息顺序获取消息。同时提供了更高效的消息消费接口,大幅提升了消息顺序的处理能力。 4.性能和可扩展性 RocketMQ3.1.9引入了一种称为“Rebalance”的机制,可以支持更好的负载均衡和故障恢复。同时,在网络数据传输方面,RocketMQ也进行了优化,使得传输更加高效和可扩展。 总的来说,RocketMQ3.1.9版本的推出,在集群部署管理、存储层优化、消息顺序以及性能和可扩展性等方面都进行了大量的改进和优化,使得RocketMQ更加成熟和稳定,可靠度和性能都得到了提升。这对于开发者在构建复杂分布式系统以及大数据处理中起到了非常大的作用。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值