- 博客(5)
- 收藏
- 关注
原创 Flink安装及部署
(1) 下载flink:flink-1.13.1-bin-scala_2.11.tgzhttps://flink.apache.org/downloads.html(2)上传flink到linux本地模式安装 | Apache Flinkconf/masterconf/workersflink-conf.yamlStream测试案例:Batch测试案例:2. Flink 架构https://ci.apache.org/projects/flink/flink-docs-release-1.13/
2022-06-24 10:05:23
2204
1
原创 spark安装
先决条件jdk 如:jdk1.8.0_131zookeeper 如:zookeeper-3.4.10配置免密登录上传压缩文件到/opt 目录中解压:tar -zxvf spark-2.4.5-bin-hadoop2.7.tgz进入目录:/opt/spark-2.4.5-bin-hadoop2.7/conf 修改如下配置文件[root@hdp1 conf]# mv spark-env.sh.template spark-env.shvim spark-env.shmv slaves.template sla
2022-06-24 09:59:20
193
原创 kafka集群安装
1.安装kafka安装zookeeper:1、解压tar -zxvf zookeeper-3.4.10.tar.gz -C /opt2、[root@hdp1 zookeeper-3.4.10]# mkdir data3、进入conf目录[root@hdp1 conf]# mv zoo_sample.cfg zoo.cfg4、vim zoo.cfg dataDir=/opt/zookeeper-3.4.10/data server.1=hdp1:2888:3888 server.2=h
2022-05-19 15:16:06
440
1
原创 Hadoop集群安装
一 保证有三台虚拟机vim /etc/hosts将三台虚拟机的ip地址与名称对应填写,三台都要写vim /etc/hostname填写每个主机对应的名字vim /etc/sysconfig/networj-scripts/ifcfg-ens33将每台对应的ip地址,填写到文件中三台都要修改cd /opt/hadoop-2.8.1/etc/hadoop/vim slaves三台都要执行一下命令...
2022-04-21 10:01:37
2494
原创 Hadoop搭建
一:1.查看已经存在的jdk.将其卸载rpm -qa | grep jdk2.将查询出来的版本号卸载rpm -e --nodeps --查询出来的版本号3上传jdk和hadoop压缩包,并解压到想解压的路径下4配置环境变量使环境变量生效使用命令查看当前环境变量是否配置正确java -versionhadoop version二:修改hadoop的配置文件1.进入到/opt/hadoop-2.8.1/etc/hadoop目录下...
2022-04-20 14:10:02
2530
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人