Kafka的安装配置

kafka 是一个分布式的消息处理中间件

说在前面
  • 工作环境:VMware® Workstation 12 Pro 12.5.6 build-5528349
  • linux版本:CentOS-7-x86_64-Minimal-1611.iso
  • JDK版本:jdk-8u65-linux-x64.tar.gz
  • Hadoop版本:hadoop-2.7.6.tar.gz
  • Zookeeper版本:zookeeper-3.4.12.tar.gz
  • Kafka版本:kafka_2.11-2.0.0.tgz
kafka安装配置
//解压到 /soft 目录
$> tar -xzvf /mnt/hgfs/bigdata/soft/kafka_2.11-2.0.0.tgz -C /soft

//创建符号链接
$> ln -s /soft/kafka_2.11-2.0.0/ kafka
  • 在 /etc/profile 文件中配置环境变量,source profile立即生效
# kafka
export KAFKA_HOME=/soft/kafka
export PATH=$PATH:$KAFKA_HOME/bin
  • 配置kafka集群,主机:s202,s203,s204。在 /soft/kafka/config/server.properties 文件中进行如下修改。分发给其他主机(符号链接的分发:rsync -l kafka centosmin0@s204:/soft)
# The id of the broker. This must be set to a unique integer for each broker.
broker.id=202

listeners=PLAINTEXT://:9092

# A comma separated list of directories under which to store log files
log.dirs=/home/centosmin0/kafka/logs

# Zookeeper connection string (see zookeeper docs for details).
# This is a comma separated host:port pairs, each corresponding to a zk
# server. e.g. "127.0.0.1:3000,127.0.0.1:3001,127.0.0.1:3002".
# You can also append an optional chroot string to the urls to specify the
# root directory for all kafka znodes.
zookeeper.connect=s201:2181,s202:2181,s203:2181
  • 启动kafka服务器

    • 先启动ZooKeeper:zkServer.sh start

    • 启动kafka集群:s202,s203,s204

    $>bin/kafka-server-start.sh config/server.properties
    
    • 验证kafka集群服务器是否启动
    $>netstat -anop | grep 9092
    

    image

kafka的一些基本API使用
  • 创建主题 test
$>bin/kafka-topics.sh --create --zookeeper s201:2181 --replication-factor 3 --partitions 3 --topic test
  • 查看主题列表
$>bin/kafka-topics.sh --list --zookeeper s201:2181
  • 启动控制台生产者
$>bin/kafka-console-producer.sh --broker-list s202:9092 --topic test
  • 启动控制台消费者
$>bin/kafka-console-consumer.sh --bootstrap-server s202:9092 --topic test --from-beginning 
Flume和kafka的集成
  • KafkaSink:Flume作为生产者,Kafka作为消费者
a1.sources = r1
a1.sinks = k1
a1.channels = c1

a1.sources.r1.type=netcat
a1.sources.r1.bind=localhost
a1.sources.r1.port=8888

a1.sinks.k1.type = org.apache.flume.sink.kafka.KafkaSink
a1.sinks.k1.kafka.topic = test
a1.sinks.k1.kafka.bootstrap.servers = s202:9092
a1.sinks.k1.kafka.flumeBatchSize = 20
a1.sinks.k1.kafka.producer.acks = 1

a1.channels.c1.type=memory

a1.sources.r1.channels = c1
a1.sinks.k1.channel = c1
  • KafkaSource:Kafka作为生产者,Flume作为消费者
a1.sources = r1
a1.sinks = k1
a1.channels = c1

a1.sources.r1.type = org.apache.flume.source.kafka.KafkaSource
a1.sources.r1.batchSize = 5000
a1.sources.r1.batchDurationMillis = 2000
a1.sources.r1.kafka.bootstrap.servers = s202:9092
a1.sources.r1.kafka.topics = test
a1.sources.r1.kafka.consumer.group.id = g4

a1.sinks.k1.type = logger

a1.channels.c1.type=memory

a1.sources.r1.channels = c1
a1.sinks.k1.channel = c1
  • Channel:Flume做生产者和消费者
a1.sources = r1
a1.sinks = k1
a1.channels = c1

a1.sources.r1.type = avro
a1.sources.r1.bind = localhost
a1.sources.r1.port = 8888

a1.sinks.k1.type = logger

a1.channels.c1.type = org.apache.flume.channel.kafka.KafkaChannel
a1.channels.c1.kafka.bootstrap.servers = s202:9092
a1.channels.c1.kafka.topic = test
a1.channels.c1.kafka.consumer.group.id = g6

a1.sources.r1.channels = c1
a1.sinks.k1.channel = c1
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Apache Kafka 是一个分布式流处理平台,用于构建实时数据管道和消息队列系统。在 CentOS 上安装配置 Kafka 需要几个步骤,以下是基本的安装过程: 1. **安装Java**: Kafka依赖于Java,所以首先确保你的系统上安装了Java。如果没有,可以通过以下命令安装: ``` sudo yum install java-1.8.0-openjdk-devel -y ``` 2. **下载Kafka压缩包**: 从Apache官网(https://kafka.apache.org/downloads)下载适合的版本。例如,使用wget命令: ``` wget https://archive.apache.org/dist/kafka/2.9.1/kafka_2.12-2.9.1.tgz ``` 3. **解压并移动文件**: ``` tar -zxvf kafka_2.12-2.9.1.tgz sudo mv kafka_2.12-2.9.1 /opt/ ``` 4. **配置环境变量**: 将Kafka的bin目录添加到系统的PATH中: ``` echo 'export PATH=$PATH:/opt/kafka_2.12-2.9.1/bin' >> ~/.bashrc source ~/.bashrc ``` 5. **启动Zookeeper服务(可选,如果你没有安装)**: 如果集群包含Zookeeper节点,先启动它。否则略过这一步: ``` sudo systemctl start zookeeper sudo systemctl enable zookeeper ``` 6. **安装Kafka服务**: 进入Kafka目录并运行安装脚本: ``` cd /opt/kafka_2.12-2.9.1 ./bin/install.properties ``` 7. **配置Kafka**: 编辑`config/server.properties`文件以适应你的需求,比如设置监听端口、日志路径等。确保`listeners`属性配置了网络监听地址。 8. **启动Kafka服务**: ``` bin/kafka-server-start.sh config/server.properties ``` 9. **验证安装**: 使用`bin/kafka-topics.sh`命令检查是否能创建主题或查看现有主题。 10. **监控服务**: 使用`bin/kafka-control.sh`进行管理和监控。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值