部署SpringBoot大数据平台
第一步:打包这个jar包
第二步:打完这三个文件 放到这里放到/opt/spark_client/
第三步 : 这个时候 目录下面就是 lib 目录 config 目录 和 springboot包
第四步 进入lib目录执行
执行java -cp druid-1.1.22.jar com.alibaba.druid.filter.config.ConfigTools “你的数据库名字”
例如
把这个记录保存一下
第五步:填在config下面的db.properties就行了
jdbc配置:
/opt/spark_client/config/
hbase.proeprties:
basic.properties:
spark_home好像无所谓,改不改都没啥影响
第六步:启动
nohup java -jar jar包绝对路径&
nohup java -jar /opt/spark_client/client-bigdata-parent-0.0.3.ALPHA.jar &
第七步:查看启动日志
tail -f nohup.out
第八步:修改路径
192.168.3.37:8080
第九步:重新部署
修改了fxqXXX.jar
1停掉任务,替换掉lib的jar
[root@hmaster ~]# netstat -lnp|grep 8080
tcp 0 0 :::8080 :::* LISTEN 8072/java
[root@hmaster ~]# kill -9 8072
2替换hdfs中的/test的jar
[root@hmaster ~]# hdfs dfs -put -f /root/fxq_235_poc-1.0-SNAPSHOT.jar /test
3重新执行
nohup java -jar /opt/spark_client/client-bigdata-parent-0.0.3.ALPHA.jar &
新执行
nohup java -jar /opt/spark_client/client-bigdata-parent-0.0.3.ALPHA.jar &