既有适合小白学习的零基础资料,也有适合3年以上经验的小伙伴深入学习提升的进阶课程,涵盖了95%以上大数据知识点,真正体系化!
由于文件比较多,这里只是将部分目录截图出来,全套包含大厂面经、学习笔记、源码讲义、实战项目、大纲路线、讲解视频,并且后续会持续更新
后续更新
flume(单机):
1.将lib文件夹下的guava包删除,以兼容hadoop3.1.3:
rm /opt/module/flume/lib/guava-11.0.2.jar
2.启动flume监控:
bin/flume-ng agent -n a1 -c conf/ -f job/flume-file-hdfs.conf
3.停止flume监控:
ps -ef kill掉进程即可
hadoop(集群):
1.配置文件:
core-site.xml、hdfs-site.xml、maprd-site.xml、yarn-site.xml
salves/wokers
2.常用端口号说明:
2.X版本:
NameNode通信端口:8020/9000
hdfs文件系统的webUI端口:50070
ResourceManager的webUI端口:8088
历史服务器通信端口:19888
3.X版本:
NameNode通信端口:8020/9000/9820
hdfs文件系统的webUI端口:9870
ResourceManager的webUI端口:8088
历史服务器通信端口:19888
3.启动集群
1.集群第一次启动(首次格式化):
hdfs namenode -format
注意:第一次启动如果报错,需要重新格式化的话,执行以下步骤:
1)保证namenode和datanode进程是停止的
2)删除集群所有机器的data和logs目录
3)重新执行格式化命令
2.启动命令(启动hdfs===>启动yarn===>启动historyserver):
sbin/start-dfs.sh
sbin/start-yarn.sh
bin/mapred --daemon start historyserver
3.停止命令(和启动相反,关闭historyserver===>关闭yarn===>关闭hdfs):
sbin/stop-yarn.sh
sbin/stop-yarn.sh
bin/mapred --daemon stop historyserver
kafka(集群):
1.启动命令:
前台启动:
1)bin/kafka-server-start.sh config/server.properties
后台启动:
1)bin/kafka-server-start.sh -daemon config/server.properties
2)nohup bin/kafka-server-start.sh config/server.properties &
2.停止命令:
bin/kafka-server-stop.sh
3.topic相关命令:
创建topic(一定要带上zk的地址,就算zk在配置文件中已经指定):
bin/kafka-topics.sh -zookeeper localhost:2181 --create --partitions 3 --replication-factor 3 --topic test_kafka_topic
bin/kafka-topics.sh --create --zookeeper localhost:2181/kafka --replication-factor 3 --partitions 3 --topic test_kafka_topic
查询topic列表:
bin/kafka-topics.sh --list --zookeeper localhost:2181
查询某个topic详情:
bin/kafka-topics.sh --describe --zookeeper localhost:2181 --topic test_kafka_topic
增加某个topic的分区数:
bin/kafka-topics.sh --zookeeper localhost:2181 --alter --topic test_kafka_topic --partitions 5
查看 topic 指定分区 offset 的最大值或最小值
最大值:bin/kafka-run-class.sh kafka.tools.GetOffsetShell --topic test_kafka_topic --time -1 --broker-list 127.0.0.1:9092 --partitions 0
最小值:bin/kafka-run-class.sh kafka.tools.GetOffsetShell --topic test_kafka_topic --time -2 --broker-list 127.0.0.1:9092 --partitions 0
删除topic:
bin/kafka-topics.sh --delete --zookeeper localhost:2181 --topic test_kafka_topic
说明:在${KAFKA_HOME}/config/server.properties中配置 delete.topic.enable 为 true,这样才能生效,删除指定的 topic主题
4.消息相关命令:
生产者发送消息:
bin/kafka-console-producer.sh --broker-list localhost:9092 --topic test_kafka_topic
消费者消费消息:
1)(第一次消费)从头开始消费:
bin/kafka-console-consumer.sh --bootstrap-server localhost:9092 --from-beginning --topic test_kafka_topic
2)(实时监控消费)从尾开始消费:
bin/kafka-console-consumer.sh --bootstrap-server localhost:9092 --topic test_kafka_topic --offset latest
3)(这里设置3个分区演示)从尾开始,并且指定分区:
bin/kafka-console-consumer.sh --bootstrap-server localhost:9092 --topic test_kafka_topic --offset latest --partition 0
bin/kafka-console-consumer.sh --bootstrap-server localhost:9092 --topic test_kafka_topic --offset latest --partition 1
bin/kafka-console-consumer.sh --bootstrap-server localhost:9092 --topic test_kafka_topic --offset latest --partition 2
4)从尾开始,指定分区,指定偏移量:
bin/kafka-console-consumer.sh --bootstrap-server localhost:9092 --topic test_kafka_topic --partition 0 --offset 100
5)指定分组消费数据:
bin/kafka-console-consumer.sh --bootstrap-server localhost:9092 --from-beginning --topic test_kafka_topic --group t1
6)(用于分析测试)取指定个数:
bin/kafka-console-consumer.sh --bootstrap-server localhost:9092 --topic test_kafka_topic --offset latest --partition 0 --max-messages 10
5.消费者组相关命令:
查看消费者Group列表:
![img](https://img-blog.csdnimg.cn/img_convert/a2e8ea698307d0131f965017e4c58f00.png)
![img](https://img-blog.csdnimg.cn/img_convert/f2e6fed14bdb95989e24e9039d6e5cf1.png)
**网上学习资料一大堆,但如果学到的知识不成体系,遇到问题时只是浅尝辄止,不再深入研究,那么很难做到真正的技术提升。**
**[需要这份系统化资料的朋友,可以戳这里获取](https://bbs.csdn.net/topics/618545628)**
**一个人可以走的很快,但一群人才能走的更远!不论你是正从事IT行业的老鸟或是对IT行业感兴趣的新人,都欢迎加入我们的的圈子(技术交流、学习资源、职场吐槽、大厂内推、面试辅导),让我们一起学习成长!**
**
**一个人可以走的很快,但一群人才能走的更远!不论你是正从事IT行业的老鸟或是对IT行业感兴趣的新人,都欢迎加入我们的的圈子(技术交流、学习资源、职场吐槽、大厂内推、面试辅导),让我们一起学习成长!**