![](https://img-blog.csdnimg.cn/20201014180756928.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
搭建
文章平均质量分 53
佛系爱学习
这个作者很懒,什么都没留下…
展开
-
Hadoop完全分布式搭建(超详细,傻瓜式安装)
Hadoop完全分布式安装配置。原创 2024-01-16 16:20:50 · 1260 阅读 · 1 评论 -
Hive安装配置(超详细,傻瓜式安装)
使用的三台主机名称分别为bigdata1,bigdata2,bigdata3。所使用的安装包名称按自己的修改,安装包可去各大官网上下载。原创 2024-01-16 16:27:39 · 676 阅读 · 1 评论 -
Flume安装配置(超详细,傻瓜式安装)
所使用的安装包名称按自己的修改,安装包可去各大官网上下载。flume必须持有hadoop相关的包才能将数据输出到hdfs, 将如下包上传到flume/lib下。将hadoop的hdfs-site.xml和core-site.xml 放到flume/conf下。将flume-env.sh.template改名为flume-env.sh, 并修改其配置。将Master节点Flume安装包解压到/opt/module目录下。在flume/conf目录下。flume/conf目录下。原创 2024-01-16 16:38:02 · 2597 阅读 · 1 评论 -
kafka安装配置(超详细,傻瓜式安装)
数据存放位置,每个节点一个如/kafka-logs-1,/kafka-logs-2,/kafka-logs-3等,不同节点使用文件不可重复,如果重复了容易启动失败。在每个节点启动Kafka,创建topic,其中toipic名称为installtopic,分区数为2,副本数为2。修改bigdata2和bigdata3中的zookeeper下的data中myid的值分别改为3和4。#对外的ip及端口,端口号每个文件不要用同一个,我使用的分别是9091,9092,9093。配置好kafka的环境变量。原创 2024-01-16 16:47:37 · 1864 阅读 · 3 评论 -
ClickHouse单机安装配置(超详细)
使用的三台主机名称分别为bigdata1,bigdata2,bigdata3。所使用的安装包名称按自己的修改,安装包可去各大官网上下载。将/opt/software 文件解压到/opt/module/clickhouse。在/etc/clickhouse-server目录下。删除config.d下的listen.xml文件。将里面所有的9000变成9001。进入clickHouse目录。给config.xml加权限。新建clickhouse。原创 2024-01-16 17:01:01 · 663 阅读 · 1 评论 -
spark on yarn安装部署
使用的三台主机名称分别为bigdata1,bigdata2,bigdata3。所使用的安装包名称按自己的修改,安装包可去各大官网上下载。分发、hadoop-3.1.3/etc/hadoop/yarn-site.xml。使用在环境变量中添加。原创 2024-01-16 17:07:25 · 546 阅读 · 1 评论