微众银行DSS部署单机-普通版

我的服务器

centos 7.0
8C16G +100G机械硬盘。

我的配置

.bashrc文件内容****
#JDK
export JAVA_HOME=/usr/local/jdk1.8.0_172
#HADOOP
export HADOOP_CONF_DIR=/usr/local/hadoop-2.7.2/etc/hadoop
#Hive
export HIVE_CONF_DIR=/usr/local/apache-hive-1.2.1-bin/conf
#Spark
export SPARK_HOME=/usr/local/spark-2.4.7-bin-hadoop2.7
export SPARK_CONF_DIR=/usr/local/spark-2.4.7-bin-hadoop2.7/conf
export PYSPARK_ALLOW_INSECURE_GATEWAY=1 # Pyspark必须加的参数

vim conf/config.sh

#########################################################################################
#######################  Must provided Configurations  ###################################
##########################################################################################

### The install home path of Linkis

#!/bin/sh
#Actively load user env

SSH_PORT=22

deployUser="`whoami`"

### Specifies the user workspace, which is used to store the user's script files and log files.
### Generally local directory
WORKSPACE_USER_ROOT_PATH=file:///tmp/linkis/ ##file:// required

### User's root hdfs path
HDFS_USER_ROOT_PATH=hdfs:///tmp/linkis ##hdfs:// required

### Path to store job ResultSet:file or hdfs path
RESULT_SET_ROOT_PATH=hdfs:///tmp/linkis

# Used to store the azkaban project transformed by DSS
WDS_SCHEDULER_PATH=file:///appcom/tmp/wds/scheduler

#DSS Web
DSS_NGINX_IP=127.0.0.1
DSS_WEB_PORT=8088

###azkaban  address for check
AZKABAN_ADRESS_IP=127.0.0.1
AZKABAN_ADRESS_PORT=38081
#
####qualitis address for check
QUALITIS_ADRESS_IP=127.0.0.1
QUALITIS_ADRESS_PORT=8090

##hive metastore
HIVE_META_URL=jdbc:mysql://172.30.80.200:3306/hive?useUnicode=true
HIVE_META_USER=root
HIVE_META_PASSWORD=zydl2019

###HADOOP CONF DIR
HADOOP_CONF_DIR=/usr/local/hadoop-2.7.2/etc/hadoop

###HIVE CONF DIR
HIVE_CONF_DIR=/usr/local/apache-hive-1.2.1-bin/conf

###SPARK CONF DIR
SPARK_CONF_DIR=/usr/local/spark-2.4.7-bin-hadoop2.7/conf


##########################################################################################
####The following parameters can be modified by the user as required, but not necessary###
##########################################################################################

## LDAP is for enterprise authorization, if you just want to have a try, ignore it.
#LDAP_URL=ldap://localhost:1389/
#LDAP_BASEDN=dc=webank,dc=com

## java application default jvm memory
export SERVER_HEAP_SIZE="512M"

LINKIS_VERSION=0.9.3

DSS_VERSION=0.7.0

-------------------------------------------------------------------------------------------------------------

vim conf/db.sh

这是存dss业务表的

mysql
172.30.80.200
3306
dss
root
123456

QA

一、hadoop web 默认占用8088 端口 可以修改hadoop 这个端口
二、nginx 部署小心没有pid,杀死为 pkill nginx
三、azkaban 、qualitis 服务需要自己 去到对应目录下,
azkaban 需要到 cd /azkaban 路径 执行 sh /bin/start-solo.sh
qualitis 需要到 cd qualitis 路径 执行 sh bin/start.sh
四、azkaban 8081 端口 会被hadoop 默认端口占用 我改成 38081,修改位置 在dss_linkis/azkaban/conf/azkaban.properties
五、qualitis 需要自己启动 默认端口 8090 登录帐号密码 admin admin
六、DSS登录用户 跟系统用户有关,如果你当前linux 用户为root 那么 登录dss用户为 root root
七、当配置完成之后就是执行脚本了
先安装
sh bin/install.sh
启动所有包
sh bin/start-all.sh
启动 azkaban
sh bin/start-solo.sh
启动qualities
sh bin/start.sh
八、最大问题是 执行spark 日志告诉我 没有充足的资源。我还没有找到问题,有大佬指点下就好。
九、https://github.com/WeBankFinTech/Linkis/wiki/Q&A-%E9%97%AE%E9%A2%98%E6%80%BB%E7%BB%93 这里有好多可以找到问题答案的。

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 3
    评论
DataSphere Studio(简称DSS)是微众银行自研的一站式数据应用开发管理门户。 基于插拔式的集成框架设计,及计算中间件 Linkis ,可轻松接入上层各种数据应用系统,让数据开发变得简洁又易用。 在统一的UI下,DataSphere Studio以工作流式的图形化拖拽开发体验,将满足从数据交换、脱敏清洗、分析挖掘、质量检测、可视化展现、定时调度到数据输出应用等,数据应用开发全流程场景需求。 DSS通过插拔式的集成框架设计,让用户可以根据需要,简单快速替换DSS已集成的各种功能组件,或新增功能组件。 借助于 Linkis 计算中间件的连接、复用与简化能力,DSS天生便具备了金融级高并发、高可用、多租户隔离和资源管控等执行与调度能力。 DSS主要特点: 一、一站式、全流程的应用开发管理界面 DSS集成度极高,目前已集成的系统有: 1、数据开发IDE工具——Scriptis 2、数据可视化工具——Visualis(基于宜信Davinci二次开发) 3、数据质量管理工具——Qualitis 4、工作流调度工具——Azkaban DSS插拔式的框架设计模式,允许用户快速替换DSS已集成的各个Web系统。如:将Scriptis替换成Zeppelin,将Azkaban替换成DolphinScheduler。 二、基于Linkis计算中间件,打造独有的AppJoint设计理念 AppJoint,是DSS可以简单快速集成各种上层Web系统的核心概念。 AppJoint——应用关节,定义了一套统一的前后台接入规范,可让外部数据应用系统快速简单地接入,成为DSS数据应用开发中的一环。 DSS通过串联多个AppJoint,编排成一条支持实时执行和定时调度的工作流,用户只需简单拖拽即可完成数据应用的全流程开发。 由于AppJoint对接了Linkis,外部数据应用系统因此具备了资源管控、并发限流、用户资源管理等能力,且允许上下文信息跨系统级共享,彻底告别应用孤岛。 三、Project级管理单元 以Project为管理单元,组织和管理各数据应用系统的业务应用,定义了一套跨数据应用系统的项目协同开发通用标准。 四、已集成的数据应用组件 DSS通过实现多个AppJoint,已集成了丰富多样的各种上层数据应用系统,基本可满足用户的数据开发需求。 用户如果有需要,也可以轻松集成新的数据应用系统,以替换或丰富DSS的数据应用开发流程。 1、DSS的调度能力——Azkaban AppJoint 2、数据开发——Scriptis AppJoint 3、数据可视化——Visualis AppJoint 4、数据质量——Qualitis AppJoint 5、数据发送——Sender AppJoint 6、信号节点——Signal AppJoint 7、功能节点 8、节点扩展
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值