上一篇文章详细解释了大数据之并发环境的安装(jdk1.8,zookeeper),这章我们来讲kafka如何安装,
如果要启用kafka,必须先要安装jdk环境,同时还要安装zookeeper环境, 先启动zookeeper环境,在启动kafka
1,kafka安装第一步
本地上传kafka环境或者在线地址下载
2.解压kafka安装包,提前要在/usr/local/目录下新建一个 mkdir server 文件目录用户存放解压后的kafka
tar -xvf kafka_2.12-2.3.0.tgz -C /usr/local/server/
3,修改配置环境,进入到/usr/local/server/kafka…/config/server.properties
输入 vi server.properties 编辑
注意这里的log.dirs= 日志要指定在kafka根目录下,同时创建logs 文件目录
listenert 的ip最好设置为服务器的本地ip地址
第一步
之前看的一些说连接不上,就关闭防火墙,不过其实是一些端口你没有开放等。
打开防火墙端口2181、9092 或者关闭防火墙 然后开启阿里云安全组规则,配置端口
第二部
# 超级重要允许外部访问的
# 阿里云私网ip
listeners=PLAINTEXT://172.22.239.137:9092
# 阿里云公网ip
advertised.host.name=8.135.54.87
# 阿里云私网ip
host.name=172.22.239.137
# 映射端口
prot=9092
# 底部的zookeeper 配置
zookeeper.connect=172.22.239.137:2181
4,启动zookeeper
5,启动kafka,来到bin目录下
cd /usr/local/server/kafka_2.12-2.3.0/bin
5.1全局启动
./kafka-server-start.sh -daemon ../config/server.properties
5.2创建生产者
./kafka-console-producer.sh --broker-list 8.135.54.87:9092 --topic sensor
6,在任意目录输入命令jps 查看当前zookeeper 以及kafka的启动状态
这里就显示配置成功了,就可以用Stream传输数据了