dss安装部署文档(持续更新)

声明:此博客只是给自己看的,当做记录文档

说明:dss-alone:192.168.2.226

在192.168.2.241上操作

*docker network ls(查看)

先在192.168.2.241(物理机)上加载容器与宿主机关联

docker run -d \

--network macvlan-net-1 --ip=192.168.2.226 \

-p 10022:22 \

-p 17180:7180 \

--restart always \

--name dss-alone \

-h dss-alone \

--privileged \

cdh_img \

/usr/sbin/init \

&& docker ps

********换IP,重复执行三次********

++++++++++++++++规划环境及版本++++++++++++++++++++++++++

--centos7

--DataSphere Studio1.1.0 完成

--jdk1.8.0_212 完成

--hadoop2.7.2 完成

--hive2.3.3 完成

--Spark2.4.3 完成

--mysql5.6 完成 ------》最好为5.7

--Python2.7.5 完成

--nginx/1.22.0 完成

--linkis1.1.1 完成

--schedulis0.7.0 完成

--Visualis1.0.0 完成

--flink-1.12.2 完成

--numpy-1.9.2完成

--pandas-0.16.2完成

--zookeeper-3.5.7完成

--kafka_2.12-3.0.0完成

组件版本要求AppConn部署

Schedulis0.7.0ShdlsSchedulis AppConn安装 完成

visualis1.0.0VsaiVisualis AppConn安装 完成

Exchangis1.0.0EcagsExchangis AppConn安装 完成

qualitis0.9.2QaiiQualitis AppConn安装 完成

Prophecis0.3.2PohcsProphecis AppConn安装

streamis0.2.0SraiStreamis AppConn安装 完成

DolphinScheduler1.3.9DolphinScheduler AppConn安装 完成

++++++++++++++++++++++++++++++++++++++++++++++++++++++++

hadoop3.1.1,hive3.1.2 spark3.0.1flink1.13.2, linkis1.3.1dss1.1.1, streamis0.2.4的。

++++++++++++++++++++++++++++++++++++++++++++++++++++++++

1。 虚拟机环境准备

(1)修改克隆虚拟机的静态IP

vim /etc/sysconfig/network-scripts/ifcfg-ens33

#192.168.235.201

#192.168.235.2

(2)修改主机名称

vim /etc/hostname

(3)配置主机名称映射,打开/etc/hosts

sudo vim /etc/hosts

2。用户准备(su - hadoop的免密操作)

添加用户

useradd -m hadoop(-m 自动建立用户的登入目录)

passwd hadoop

$ id hadoop

vi /etc/sudoers

#免密配置

hadoop ALL=(ALL) NOPASSWD: NOPASSWD: ALL

3.安装mysql

1)查看MySQL是否安装

rpm -qa|grep -i mysql

(2)如果安装了MySQL,就先卸载

rpm -e --nodeps mysql-libs-5.1.73-7.el6.x86_64

(3)删除阿里云原有MySql依赖

yum remove mysql-libs

(4)下载MySql依赖并安装

yum install libaio

yum -y install autoconf

wget https://downloads.mysql.com/archives/get/p/23/file/MySQL-shared-compat-5.6.24-1.el6.x86_64.rpm

wget https://downloads.mysql.com/archives/get/p/23/file/MySQL-shared-5.6.24-1.el6.x86_64.rpm

rpm -ivh MySQL-shared-5.6.24-1.el6.x86_64.rpm

rpm -ivh MySQL-shared-compat-5.6.24-1.el6.x86_64.rpm

(5)上传mysql-libs.zip到dss-alone的/opt/software目录,并解压文件到当前目录

yum install unzip

unzip mysql-libs.zip

(1)安装MySQL服务端

rpm -ivh MySQL-server-5.6.24-1.el6.x86_64.rpm

cat /root/.mysql_secret

5y0iVIlMzgVY_Df3

(3)查看MySQL状态

service mysql status

(4)启动MySQL

service mysql start

3)安装MySQL客户端

rpm -ivh MySQL-client-5.6.24-1.el6.x86_64.rpm

mysql -uroot -pOEXaQuS8IWkG19Xs

(3)修改密码

mysql>SET PASSWORD=PASSWORD('root');

4)MySQL中user表中主机配置

mysql>use mysql;

(7)修改user表,把Host表内容修改为%

mysql>update user set host='%' where host='localhost';

(8)删除root用户的其他host

mysql> delete from user where host!='%';

(9)刷新

mysql>flush privileges;

4.切换成hadoop用户

配置自身免密登录

ssh-keygen

ssh-copy-id -i ~/.ssh/id_rsa.pub hadoop@DSS

注:不能一直回车,看提示写yes

#测试免密

ssh hadoop@DSS

5。安装jdk1.8

卸载现有JDK:rpm -qa | grep -i java | xargs -n1 sudo rpm -e --nodeps

解压到指定目录:tar -zxvf jdk-8u212-linux-x64.tar.gz -C /opt/module/

配置环境变量:sudo vim /etc/profile.d/dss_env.sh

#JAVA_HOME

export JAVA_HOME=/opt/moudle/jdk1.8.0_212

export CLASSPATH=$:CLASSPATH:$JAVA_HOME/lib/

export PATH=$PATH:$JAVA_HOME/bin

重新加载:source /etc/profile

6。安装nginx

#添加源默认情况Centos7中无Nginx的源,最近发现Nginx官网提供了Centos的源地址。因此可以如下执行命令添加源:

rpm -Uvh http://nginx.org/packages/centos/7/noarch/RPMS/nginx-release-centos-7-0.el7.ngx.noarch.rpm

#安装Nginx通过yum search nginx看看是否已经添加源成功。如果成功则执行下列命令安装Nginx。

yum install -y nginx

#启动Nginx并设置开机自动运行

#验证启动

sudo systemctl start nginx

sudo systemctl enable nginx

#验证

nginx -v

7。安装python

wget https://bootstrap.pypa.io/pip/2.7/get-pip.py

#安装pip

sudo python get-pip.py

#安装matplotlib

pip install matplotlib

8.安装Hadoop

mkdir -p /opt/module/hadoop-2.7.2/hadoopinfra/hdfs/namenode

mkdir -p /opt/module/hadoop-2.7.2/hadoopinfra/hdfs/datanode

配置:hdfs-site.xml / yarn-site.xml(ip) /

mapred-site.xml / core-site.xml(ip) / workers(ip)

hdfs namenode -format

service iptables status(查看防火墙的状态)

9.安装hive

配置:hive-env.sh / hive-site.xml(ip)

在lib中添加mysql-connector-java-5.1.49.jar .

create database metastore;

nohup hive --service metastore >> metastore.log 2>&1 &

nohup hive --service hiveserver2 >> hiveserver2.log 2>&1 &

测试:hive -e "show databases"

10安装spark

配置spark-defaults.conf(ip) / workers(ip) / hive-site.xml(ip)

cp -rf spark-2.4.3-bin-hadoop2.7/jars/ /opt/spark/spark-2.4.3-bin-without-hadoop/

cp -rf /opt/module/hive-2.3.3/lib/mysql-connector-java-5.1.49.jar /opt/module/spark-2.4.3/jars/

更改环境变量:指定master节点

启动,测试:spark-sql -e "show databases"

11.安装dss

修改conf下的配置文件:(ip)

11.1下载相关环境

sudo yum install -y unzip zip

sudo yum -y install epel-release

sudo yum install -y python-pip

sudo yum install -y dos2unix

sudo yum install python-matplotlib.x86_64

11.2更改配置:dss/conf 目录下的 config.sh 和 db.sh

11.3创建数据仓库:create database dss;

11.4sh install.sh

键入操作:1,1,2,2

11.5修改 linkis-ps-publicservice.properties 配置,否则 hive 数据库刷新不出来表

linkis.metadata.hive.permission.with-login-user-enabled=false

cp /opt/module/hive-2.3.3/lib/datanucleus-* /opt/module/dss/linkis/lib/linkis-engineconn-plugins/hive/dist/v2.3.3/lib/

cp /opt/module/hive-2.3.3/lib/*jdo* /opt/module/dss/linkis/lib/linkis-engineconn-plugins/hive/dist/v2.3.3/lib/

尝试启动 sh start-all.sh(Hadoop,spark,metastore,hiveserver2启动的前提下)

启动条件

cd /opt/module/hadoop-2.7.2/sbin/

./start-all.sh(启动dfs,yarn )

nohup hive --service metastore >> metastore.log 2>&1 &

nohup hive --service hiveserver2 >> hiveserver2.log 2>&1 &

cd /opt/module/spark-2.4.3/sbin/

./start-all.sh(启动spark)

cd /opt/module/dss/bin/

sh ./start-all.sh (启动dss)

安装成功后,有6个DSS服务,8个Linkis服务

-------------------------------------------------------------------------

12.DSS与Schedulis的集成安装教程(单机)

maven

maven 官网地址:https://maven.apache.org/download.cgi\

mkdir -p /usr/local/maven

tar -zxvf apache-maven-3.8.5-bin.tar.gz -C /usr/local/maven

cd /usr/local/maven/apache-maven-3.8.5/

cd conf/

mkdir -p /m2/repository

vi settings.xml

git

yum install -y git

git --version

创建文件夹:schedulis(包含下面四个)

host.properties(自己创建)

logs(自己创建)

schedulis_0.7.0_exec(下载解压)

schedulis_0.7.0_web(下载解压)

1). mysql> source 脚本存放目录/hdp_schedulis_deploy_script.sql ---初始化数据库

2). 此配置文件存放的路径请参考或者修改 ExecServer 安装包下的 bin/internal/internal-start-executor.sh 文件中的 KEY 值 hostConf

该文件记录的是 Executor 端的所有执行节点 Hostname 和 ServerId, 需保持每台执行机器上的该文件内容一致

3). Executor Server 配置修改

执行包修改(自动化部署无需执行该步骤)

项目文件根目录下的 bin/construct 目录中任务执行依赖的包 execute-as-user ,

复制到 Executor Server 的 lib 下(schedulis_xxx_exec/lib/),并且更新权限

sudo chown root execute-as-user

sudo chmod 6050 execute-as-user

4).修改配置

/opt/module/schedulis-0.7.0/schedulis_0.7.0_exec/conf/azkaban.properties (IP)

/opt/module/schedulis-0.7.0/schedulis_0.7.0_exec/conf/global

/opt/module/schedulis-0.7.0/schedulis_0.7.0_exec/plugins/jobtypes/commonprivate.properties

/opt/module/schedulis-0.7.0/schedulis_0.7.0_exec/plugins/jobtypes/common.properties(245有问题,ip)

/opt/module/schedulis-0.7.0/schedulis_0.7.0_exec/plugins/jobtypes/linkis/plugin.properties(ip)

/opt/module/schedulis-0.7.0/schedulis_0.7.0_exec/plugins/jobtypes/linkis/private.properties

/opt/module/schedulis-0.7.0/schedulis_0.7.0_exec/bin/internal/internal-start-executor.sh

/opt/module/schedulis-0.7.0/schedulis_0.7.0_exec/bin/internal/util.sh

/opt/module/schedulis-0.7.0/schedulis_0.7.0_web/conf/azkaban.properties (IP)

/opt/module/schedulis-0.7.0/schedulis_0.7.0_web/conf/log4j2.xml

/opt/module/schedulis-0.7.0/schedulis_0.7.0_web/bin/internal/internal-start-web.sh

5).Schedulis AppConn 插件安装(具体可参考下面链接)

方法一优先选择

https://github.com/WeBankFinTech/DataSphereStudio-Doc/blob/main/zh_CN/

方法二

在dss数据库执行

mysql -uroot -proot

use dss ;

source /opt/module/dss/dss/dss-appconns/schedulis/db/init.sql

修改表dss_appconn_instance

将id为5的url修改为http://192.168.2.226:8081/

6).重新启动dss

7).访问http://192.168.2.226:8081/

在跳出的登陆界面输入默认的用户名和密码

username : superadmin

pwd : Abcd1234

--------------------------------(可选)------------------------------------------------------------

Schedulis Linkis JobType 安装文档

Schedulis 的 Linkis JobType 自动化部署安装步骤

进入到Schedulis目录

##用户首先需要到Schedulis的安装目录,具体操作命令如下:

cd xx/schedulis_0.7.0_exec/plugins/jobtypes/linkis/bin

修改config.sh配置

## Linkis gateway url

LINKIS_GATEWAY_URL=http://127.0.0.1:9001 ## linkis 的 GateWay 地址

## Linkis gateway token default WS-AUTH

LINKIS_GATEWAY_TOKEN=WS-AUTH ## Linkis 的代理 Token,该参数可以用默认值

## Azkaban executor host

AZKABAN_EXECUTOR_HOST=127.0.0.1

## SSH Port

SSH_PORT=22 ## SSH 端口

## Azkaban executor dir

AZKABAN_EXECUTOR_DIR=xx/schedulis_0.7.0_exec

## Azkaban executor plugin reload url

AZKABAN_EXECUTOR_URL=http://$AZKABAN_EXECUTOR_HOST:12321/executor?action=reloadJobTypePlugins

执行安装脚本

sh install.sh

--------------------------------(结束)------------------------------------------------------------

13.数据库连接引擎集成

https://linkis.apache.org/zh-CN/docs/latest/engine-usage/jdbc/

下载相关物料包

mv ./jdbc /opt/module/dss/linkis/lib/linkis-engineconn-plugins/

cd ${LINKIS_HOME}/sbin (重启服务)

sh linkis-daemon.sh restart cg-engineplugin

-------------------------------------------------------------------------------------------------------

14.DSS与Visualis的集成安装教程(单机)

解压压缩包 unzip

create database visualis;

source ${visualis_home}/davinci.sql

source ${visualis_home}/ddl.sql

2.3. 字体库安装

对于邮件报表而言,需要渲染中文字体,其中Visualis截图功能依赖中文字体,在部署的机器上/usr/share/fonts目录下。

新建一个visualis文件夹,上传Visualis源码包中ext目录下的pf.ttf到该visualis文件夹下,

执行fc-cache –fv命令刷新字体缓存即可。

# 需要切换到root用户

sudo su

cd /usr/share/fonts

mkdir visualis

# 上传pf.ttf中文字体库

rz -ybe

# 刷新字体库缓存

fc-cache –fv

在使用visualis时,调用预览功能或在工作流中执行Display和Dashboard时,如果提示报错:

error while loading shared libraries: libfontconfig.so.1: cannot open shared object file: No such file or directory,

是由于部署visualis的机器缺少相关依赖导致报错,执行sudo yum -y install fontconfig-devel安装依赖。

cd /data/dss_linkis/web/dss/visualis

cd build # 进入到解压路径

cp ./* /opt/module/dss/web/dss/visualis/

前端部署配置后,可以重启nginx或者刷新nginx配置使得上述配置生效sudo nginx -s reload。

修改配置:

/opt/module/visualis-server/conf/application.yml (IP)

/opt/module/visualis-server/conf/ linkis.properties (IP)

修改linkis.properties

如果部署的hadoop集群开启了Kerberos,需要在visualis的配置文件linkis.properties文件中开启Kerberos,加入配置项:

wds.linkis.keytab.enable=true

启动服务

sh ./start-server.sh

备注:如果启动服务时,报启动脚本的换行符无法识别,需要在服务器上对脚本进行编码转换使用:dos2unix xxx.sh 命令进行转换

# 查看服务启动日志

less logs/linkis.out

AppConn安装

将解压Visualis AppConn包 放入${DSS_INSTALL_HOME}/dss/dss-appconns

cd {DSS_INSTALL_HOME}/dss/bin

sh appconn-install.sh

# 输入Visualis名称

>> visualis

# 输入Visualis前端IP地址

>> 192.168.2.226

# 输入Visualis服务的前端端口后

>> 8088

修改完成后需要重启DSS服务

详情可参考:https://github.com/WeBankFinTech/Visualis/blob/master/visualis_docs/zh_CN/Visualis_deploy_doc_cn.md

--------------------------visualis集成完成--------------------------------------

--------------------------集成 exchangis---------------------------------------------

https://github.com/WeBankFinTech/Exchangis/blob/dev-1.0.0/docs/zh_CN/ch1/exchangis_deploy_cn.md

1.3 在linkis中配置授权认证

1)为exchangis加数据源认证的token

通过在linkis数据库中执行以下语句,为Exchangis分配专属token:

INSERT INTO `linkis_mg_gateway_auth_token`(`token_name`,`legal_users`,`legal_hosts`,`business_owner`,`create_time`,`update_time`,`elapse_day`,`update_by`) VALUES ('EXCHANGIS-AUTH','*','*','BDP',curdate(),curdate(),-1,'LINKIS');

2)为exchangis加hive数据源的认证

通过在linkis数据库中执行以下sql语句,插入hive数据源环境配置,注意,执行前需要修改语句中的${HIVE_METADATA_IP}和${HIVE_METADATA_PORT},例如${HIVE_METADATA_IP}=127.0.0.1,${HIVE_METADATA_PORT}=3306:

INSERT INTO `linkis_ps_dm_datasource_env` (`env_name`, `env_desc`, `datasource_type_id`, `parameter`, `create_time`, `create_user`, `modify_time`, `modify_user`) VALUES ('开发环境SIT', '开发环境SIT', 4, '{"uris":"thrift://${HIVE_METADATA_IP}:${HIVE_METADATA_PORT}", "hadoopConf":{"hive.metastore.execute.setugi":"true"}}', now(), NULL, now(), NULL);

INSERT INTO `linkis_ps_dm_datasource_env` (`env_name`, `env_desc`, `datasource_type_id`, `parameter`, `create_time`, `create_user`, `modify_time`, `modify_user`) VALUES ('开发环境UAT', '开发环境UAT', 4, '{"uris":"thrift://${HIVE_METADATA_IP}:${HIVE_METADATA_PORT}", "hadoopConf":{"hive.metastore.execute.setugi":"true"}}', now(), NULL, now(), NULL);

修改配置:(IP)

/opt/module/exchangis/config/application-exchangis.yml

/opt/module/exchangis/config/ config.sh

/opt/module/exchangis/config/db.sh

/opt/module/exchangis/config/exchangis-server.properties

创建数据库exchangis

1.执行一键安装脚本

在sbin目录下执行 install.sh 脚本,完成一键安装部署:

./install.sh

初始化数据库表

当出现该提醒时:Do you want to initalize database with sql: [${SQL_SOURCE_PATH}]?

输入 y 初始化数据库表。

2 启动服务

./daemon.sh start server

3.前端安装部署

解压前端安装包

将 Exchangis 前端包部署到 /opt/module/dss/web/dss/exchangis目录,请先将 dist.zip 拷贝到该目录并执行解压,

vim /etc/nginx/conf.d/exchangis.conf

sudo nginx -t

sudo nginx -s reload

5.ExchangisAppConn插件的部署和配置总体步骤

拿到打包出来的exchangis-appconn.zip物料包解压到下面目录

/opt/module/dss/dss/dss-appconns

cd {DSS_INSTALL_HOME}/dss/bin

./install-appconn.sh

# 脚本是交互式的安装方案,您需要输入字符串exchangis以及exchangis服务的ip和端口,即可以完成安装

# 这里的exchangis端口是指前端端口,在nginx进行配置。而不是后端的服务端口

查看dss数据库的改变

重启dss,测试服务。

————————----------------------完成----------------------------------------------------

----------dss集成小海豚--------------------------------------------------------------

https://dolphinscheduler.apache.org/zh-cn/docs/1.3.9/standalone-deployment

详情请参考上面链接。

安装nodejs

1. tar xvJf node-v18.12.1-linux-x64.tar.xz -C /opt/module/

如果您是本地第一次使用,必须在最外层工程pom.xml所在目录先执行以下命令:

mvn -N install

在最外层工程pom.xml所在目录执行以下命令

mvn clean install

获取安装包,在工程的assembly->target目录下:

wedatasphere-dss-x.x.x-dist.tar.gz

sql类型:支持查询和非查询两种,查询是select类型的查询,是有结果集返回的,可以指定邮件通知为表格、附件或表格附件三种模板。

非查询是没有结果集返回的,是针对update、delete、insert三种类型的操作。

-----------结束----------------------------------------------------------------------

-------流式计算开始---------------------

物料包文件会在Linkis服务启动时候,会根据目录,解析出引擎和版本号,进行引擎物料的持久化存储(HDFS/本地文件系统中),

并将持久化存储信息(引擎类型和版本资源索引) 记录到数据库表linkis_cg_engine_conn_plugin_bml_resources中。

5.Streamis AppConn安装原理

Streamis 的相关配置信息会插入到以下表中,通过配置下表,可以完成 Streamis 的使用配置。(注:如果仅仅需要快速安装APPCONN,无需过分关注以下字段,提供的init.sql中大多以进行默认配置。重点关注以上操作即可)

表名表作用备注

dss_workspace_dictionary配置流式生产中心必须

dss_appconnAppConn的基本信息,用于加载AppConn必须

dss_workspace_menu_appconnAppConn菜单,前端连接Streamis必须

dss_appconn_instanceAppConn的实例的信息,包括自身的url信息必须

https://github.com/WeBankFinTech/Streamis/blob/main/docs/zh_CN/0.2.0/Streamis%E5%AE%89%E8%A3%85%E6%96%87%E6%A1%A3.md |用户手册

2.安装streamis

3.前端部署

4.StreamisAppConn 插件

5. Linkis Flink 引擎安装

准备知识,FlinkSQL的Connector插件

FlinkSQL可以支持多种数据源,例如binlog,kafka,hive等,如果您想要在Flink代码中使用这些数据源,

您需要将这些connector的插件jar包放置到flink引擎的lib中,并重启下Linkis的EnginePlugin服务。

如你想要在您的FlinkSQL中使用binlog作为数据源,那么您需要将flink-connector-mysql-cdc-1.1.1.jar放置到flink引擎的lib中。

cd ${LINKS_HOME}/sbin

sh linkis-daemon.sh restart cg-engineplugin

sh ./linkis-cli -engineType flink-1.12.2 -codeType sql -code "show tables" -submitUser hadoop -proxyUser hadoop

## codeType对应关系 py-->pyspark sql-->sparkSQL scala-->Spark scala

sh ./bin/linkis-cli -engineType spark-2.4.3 -codeType sql -code "show tables" -submitUser hadoop -proxyUser hadoop

# 可以在提交参数通过-confMap wds.linkis.yarnqueue=dws 来指定yarn 队列

sh ./bin/linkis-cli -engineType spark-2.4.3 -codeType sql -confMap wds.linkis.yarnqueue=default -code "show tables" -submitUser hadoop -proxyUser hadoop

Flink提供了两种在yarn上运行的模式,分别为Session-Cluster和Per-Job-Cluster模式。

https://flink.apache.org/zh/downloads.html

https://archive.apache.org/dist/flink/flink-1.12.2/ |flink 下载地址

FlinkSQL可以支持多种数据源,例如binlog,kafka,hive等,

https://github.com/WeBankFinTech/Streamis/blob/main/docs/zh_CN/0.2.0/%E4%BD%BF%E7%94%A8%E6%96%87%E6%A1%A3/Streamis%E7%94%A8%E6%88%B7%E6%89%8B%E5%86%8C.md

--------------结束------------------------------------------

------------linux安装kafka-------------------------------

注意:停止Kafka集群时,一定要等Kafka所有节点进程全部停止后再停止Zookeeper集群。

因为Zookeeper集群当中记录着Kafka集群相关信息,Zookeeper集群一旦先停止,

Kafka集群就没有办法再获取停止进程的信息,只能手动杀死Kafka进程了。

创建first topic

bin/kafka-topics.sh --bootstrap-server dss-alone:9092 --create --partitions 1 --replication-factor 3 --topic first

查看first主题的详情

bin/kafka-topics.sh --bootstrap-server dss-alone:9092 --describe --topic first

修改分区数(注意:分区数只能增加,不能减少)

bin/kafka-topics.sh --bootstrap-server dss-alone:9092 --alter --topic first --partitions 3

把主题中所有的数据都读取出来(包括历史数据)。

[hadoop@dss-alone kafka]$ bin/kafka-console-consumer.sh --bootstrap-server dss-alone:9092 --from-beginning --topic first

-------------结束------------------------------------------

-----------流式计算测试--------------------

spark引擎测试通过

./bin/linkis-cli -engineType spark-2.4.3 -codeType sql -code "show databases;" -submitUser hadoop -proxyUser hadoop

flinkis引擎测试失败

Session Cluster模式

/yarn-session.sh -n 2 -s 2 -jm 1024 -tm 1024 -nm test -d

yarn application --kill application_1674955576783_0003

Per Job Cluster模式。

。。。

2)初始化表

use streamx;

source /opt/module/streamx-console-service-1.2.2/script/final.sql

3)配置连接信息

-------------linux安装oracle-------------------------------

-------------结束------------------------------------------

------------qualitis安装部署-------------------------------

下载gradle-4.6,配置环境变量

gradle clean distZip

报错

Required by:

project :web/user

> Could not find org.forgerock.commons:forgerock-util:2.0.0-SNAPSHOT.

Searched in the following locations:

file:/C:/Users/asus/.m2/repository/org/forgerock/commons/forgerock-util/2.0.0-SNAPSHOT/maven-metadata.xml

file:/C:/Users/asus/.m2/repository/org/forgerock/commons/forgerock-util/2.0.0-SNAPSHOT/forgerock-util-2.0.0-SNAPSHOT.pom

file:/C:/Users/asus/.m2/repository/org/forgerock/commons/forgerock-util/2.0.0-SNAPSHOT/forgerock-util-2.0.0-SNAPSHOT.jar

http://maven.aliyun.com/nexus/content/groups/public/org/forgerock/commons/forgerock-util/2.0.0-SNAPSHOT/maven-metadata.xml

http://maven.aliyun.com/nexus/content/groups/public/org/forgerock/commons/forgerock-util/2.0.0-SNAPSHOT/forgerock-util-2.0.0-SNAPSHOT.pom

http://maven.aliyun.com/nexus/content/groups/public/org/forgerock/commons/forgerock-util/2.0.0-SNAPSHOT/forgerock-util-2.0.0-SNAPSHOT.jar

> Could not find org.forgerock.commons:i18n-slf4j:1.4.2-SNAPSHOT.

Searched in the following locations:

file:/C:/Users/asus/.m2/repository/org/forgerock/commons/i18n-slf4j/1.4.2-SNAPSHOT/maven-metadata.xml

file:/C:/Users/asus/.m2/repository/org/forgerock/commons/i18n-slf4j/1.4.2-SNAPSHOT/i18n-slf4j-1.4.2-SNAPSHOT.pom

file:/C:/Users/asus/.m2/repository/org/forgerock/commons/i18n-slf4j/1.4.2-SNAPSHOT/i18n-slf4j-1.4.2-SNAPSHOT.jar

http://maven.aliyun.com/nexus/content/groups/public/org/forgerock/commons/i18n-slf4j/1.4.2-SNAPSHOT/maven-metadata.xml

http://maven.aliyun.com/nexus/content/groups/public/org/forgerock/commons/i18n-slf4j/1.4.2-SNAPSHOT/i18n-slf4j-1.4.2-SNAPSHOT.pom

http://maven.aliyun.com/nexus/content/groups/public/org/forgerock/commons/i18n-slf4j/1.4.2-SNAPSHOT/i18n-slf4j-1.4.2-SNAPSHOT.jar

Required by:

project :web/user

解决方案:

提供org.springframework.boot:spring-boot-starter-data-jpa:2.0.4.RELEASE的依赖压缩包forgerock.zip,在本地.m2\repository\org解压,解决代码仓库拉取不到的问题。

please see https://github.com/WeBankFinTech/Qualitis/releases 0.9.1

1.qualitis安装部署

https://github.com/WeBankFinTech/Qualitis/blob/master/docs/zh_CN/ch1/%E5%BF%AB%E9%80%9F%E6%90%AD%E5%BB%BA%E6%89%8B%E5%86%8C%E2%80%94%E2%80%94%E5%8D%95%E6%9C%BA%E7%89%88.md

2.接入linkis文档

https://github.com/WeBankFinTech/Qualitis/blob/master/docs/zh_CN/ch1/%E6%8E%A5%E5%85%A5Linkis%E6%96%87%E6%A1%A3.md

3.接入工作流指南

https://github.com/WeBankFinTech/Qualitis/blob/master/docs/zh_CN/ch1/%E6%8E%A5%E5%85%A5%E5%B7%A5%E4%BD%9C%E6%B5%81%E6%8C%87%E5%8D%97.md

4.第三方系统指南

https://github.com/WeBankFinTech/DataSphereStudio/blob/master/docs/zh_CN/ch4/%E7%AC%AC%E4%B8%89%E6%96%B9%E7%B3%BB%E7%BB%9F%E6%8E%A5%E5%85%A5DSS%E6%8C%87%E5%8D%97.md

新建hadoop用户,绑定角色登录

-----------------------------------------------------------

--------linux安装python-2.7.5 和numpy和pandas-----------

https://blog.csdn.net/Michael177/article/details/123297824

进入解压后的文件夹:cd pandas-0.16.2

安装pandas:python setup.py install

验证安装成功:

先离开pandas的源文件夹(否则import时会报错):cd ..

启动python:python

import pandas as pds

python -m pip install matplotlib

-------------------------------------------------------------

===========flume===============================

IP服务用户密码

192.168.2.226:8080 Spark Master at spark://dss-alone:7077

192.168.2.226:8081 Spark Worker at 192.168.2.226:38927

192.168.2.226:8082 Spark Master at spark://dss-alone:7078

192.168.2.226:8083Spark Worker at 192.168.2.226:39665

192.168.2.226:9600 dss-mg-eureka

#192.168.2.226:8085 dss web hadoophadoop

#192.168.2.226:8084exchangisweb

#192.168.2.226:12345/dolphinscheduleweb hadoop/adminhadoop123/dolphinschedule123

#192.168.2.226:8086 Schedulerweb hadoophadoop

#192.168.2.226:8089/dss/visualis/visualis

#192.168.2.226:9088/stream web

#192.168.2.226:8072 dataeaseweb

#192.168.2.226:9527/index.html dataxwebadmin123456

192.168.2.226:8087暂未使用

192.168.2.226:8088yarn

192.168.2.226:8090qualitisweb

192.168.2.226:50070hdfs

192.168.2.226:18080/ spark History Server

192.168.2.226:8091/ flink web

192.168.2.226:8092/ flink History Server

14.组件集成地址(AppConn 插件安装)

https://github.com/WeBankFinTech/DataSphereStudio-Doc/tree/main/zh_CN

15.所有组件地址

https://github.com/orgs/WeBankFinTech/repositories?type=all

7.日志说明

dss路径下

dss-apiservice-server.out

dss-datapipe-server.out

dss-flow-execution-server.out

dss-framework-orchestrator-server.out

dss-framework-project-server.out

dss-workflow-server.out

linkis路径下

linkis-cg-engineconnmanager.out

linkis-cg-engineplugin.out

linkis-cg-entrance.out

linkis-cg-linkismanager.out

linkis-mg-eureka.out

linkis-mg-gateway.out

linkis-ps-cs.out

linkis-ps-publicservice.out

----------------------------------------------------------------------------------------

Begin to check dss-data-api-server

Is local execution:sh /opt/module/dss/dss/sbin/dss-daemon.sh status dss-data-api-server

server dss-data-api-server is stopped

docker export -o 容器导出文件(格式为tar压缩文件) 容器ID或容器名称

docker export 容器ID或容器名称 > 容器导出文件(格式为tar压缩文件)

示例:

docker export -o $(pwd)/newtomcat.tar mytomcat

docker export mytomcat > $(pwd)/newtomcat.tar

------------------------------------------------------------------------------------------

LINKIS-CG-ENGINECONNMANAGER 引擎管理服务

LINKIS-CG-ENGINEPLUGIN 引擎插件管理服务

LINKIS-CG-ENTRANCE 计算治理入口服务

LINKIS-CG-LINKISMANAGER 计算治理管理服务

LINKIS-MG-EUREKA 微服务注册中心服务

LINKIS-MG-GATEWAY 网关服务

LINKIS-PS-CS 上下文服务

LINKIS-PS-PUBLICSERVICE 公共服务

LINKIS-CG-ENGINECONN 有任务running的时候才出现

ApplicationAMIsAvailability ZonesStatus

DSS-APISERVICE-SERVERn/a (1)(1)UP (1) - dss-alone:dss-apiservice-server:9206

DSS-FLOW-ENTRANCEn/a (1)(1)UP (1) - dss-alone:dss-flow-entrance:9006

DSS-FRAMEWORK-ORCHESTRATOR-SERVER-DEVn/a (1)(1)UP (1) - dss-alone:dss-framework-orchestrator-server-dev:9003

DSS-FRAMEWORK-PROJECT-SERVERn/a (1)(1)UP (1) - dss-alone:dss-framework-project-server:9202

DSS-GUIDE-SERVERn/a (1)(1)UP (1) - dss-alone:dss-guide-server:9210

DSS-SCRIPTIS-SERVERn/a (1)(1)UP (1) - dss-alone:dss-scriptis-server:9008

DSS-WORKFLOW-SERVER-DEVn/a (1)(1)UP (1) - dss-alone:dss-workflow-server-dev:9005

LINKIS-CG-ENGINECONNFMANAGERn/a (1)(1)UP (1) - dss-alone:linkis-cg-engineconnmanager:9102

LINKIS-CG-ENGINEPLUGINn/a (1)(1)UP (1) - dss-alone:linkis-cg-engineplugin:9103

LINKIS-CG-ENTRANCEn/a (1)(1)UP (1) - dss-alone:linkis-cg-entrance:9104

LINKIS-CG-LINKISMANAGERn/a (1)(1)UP (1) - dss-alone:linkis-cg-linkismanager:9101

LINKIS-MG-EUREKAn/a (1)(1)UP (1) - dss-alone:linkis-mg-eureka:9600

LINKIS-MG-GATEWAYn/a (1)(1)UP (1) - dss-alone:linkis-mg-gateway:9001

LINKIS-PS-CSn/a (1)(1)UP (1) - dss-alone:linkis-ps-cs:9108

LINKIS-PS-DATA-SOURCE-MANAGERn/a (1)(1)UP (1) - dss-alone:linkis-ps-data-source-manager:9109

LINKIS-PS-METADATAMANAGERn/a (1)(1)UP (1) - dss-alone:linkis-ps-metadatamanager:9110

LINKIS-PS-PUBLICSERVICE

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

我是刘望舒

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值