kafka的整合步骤

kafka的整合步骤

一.整合kafka(生产者)步骤
1.导入依赖(pom.xml)
2.编写配置文件,修改配置文件的ip和端口号,修改主题(producer.xml)
3.如果再ssm项目中可以让spring.xml来加载这个配置文件

如果是再测试类中如何加载?
@RunWith(SpringJUnit4ClassRunner.class)
//加载生产者的配置
@ContextConfiguration(“classpath:producer.xml”)
4.就可以在代码中所需的位置进行注入:
@Autowired
KafkaTemplate<String, String> kafkaTemplate;
然后就可以直接调用send方法来发送消息 了!!(如果我们发送的是对象,一般情况下,会把对象转成json再发送)
kafkaTemplate.send(“cms_articles”,jsonString);

二.整合kafka消费者的步骤
1.导入依赖(pom.xml)
2.编写配置文件,修改ip和端口号,和监听的主题,指定监听器类的位置(consumer.xml)
3.如果再ssm项目中可以让spring.xml来加载这个配置文件

如果在测试类中:
//先启动消费者,因为只有消费者先启动,kafka生产者发来的消息,才能时刻被接收到.
public static void main(String[] args) {
//加载消费者的配置文件!
new ClassPathXmlApplicationContext(“classpath:consumer.xml”);
}
4.编写监听器的类
让这个类实现MessageListener<String,String> 接口,重写onMessage方法
这个方法就是监听消息的方法
//监听爬虫项目发来的文章的json串
public class ArticleListener implements MessageListener<String, String>{
//就是监听消息的方法
@Override
public void onMessage(ConsumerRecord<String, String> data){
//在这里就可以调用方法来接收消息
String msg = data.value();
}
};

三.整合redis的步骤
1.导入依赖(pom.xml)
2.编写配置文件,修改ip和端口
3.让spring.xml加载redis.xml
4.可以在代码的位置注入RedisTemplate
5.就可对redis进行crud了

redis优化步骤(缓存)
/第一次访问
1.用户第一次访问的时候,从redis中查询数据
2.判断redis中查询的数据是否为空
3.如果为空,就意味着是第一次访问,就从mysql中查询数据,并且往redis中保存一份,返回给前台
//第2,3,4…次访问
4.如果不为空,就意味着不是第一次访问,直接返回给前台

四.整合ElasticSearch的步骤
1.导入依赖(pom.xml)
2.编写配置文件(es.xml)
3.修改ip地址和端口号&&修改仓库接口的包扫描位置
4.让spring来加载es.xml

5.在第3步仓库接口包的位置,创建一个仓库接口XXXRepository
6.让仓库接口继承ElasticSearchRepository,之后就自动具备了简单的CRUD的方法
extends ElasticsearchRepository<User, Integer>
7.声明实体类的各种注解(指定索引库名,表名,主键,实体类属性存储参数)
//指定了库名(库名必须用纯小写的名字,不允许有特殊字符,否则就报错),指定了表名
@Document(indexName=“test_user”,type=“user”)
@Id
//指定name的值是否索引,2.是否存储3.name的值的分词方式 4.搜索的关键字分词的方式 5指定该字段的值以什么样的数据类型来存储
@Field(index=true,store=true,analyzer=“ik_smart”,searchAnalyzer=“ik_smart”,type=FieldType.text)
8可以在任意位置进行注入仓库接口,也可以注入ElasticSearchTemplate
@Autowired
UserRespository respository;
@Autowired
ElasticsearchTemplate elasticsearchTemplate;
就可以调用crud方法了
注意:如果要进行复杂点的查询,此时,需要我们自定义方法.自定义方法的规则必须按照命名规则来进行为方法命名
具体示例:
List findByName(String name);

//根据地址查询
//	List<User> findByAddress(String address);
//	
//	//根据地址和姓名查询
//	List<User> findByAddressAndName(String address,String name);

//	//根据地址或姓名查询
//	List<User> findByAddressOrName(String address,String name);

//查询id小于5的数据
//	List<User> findByIdLessThan(int id);

//查询价格在多少-多少之间的
List<User> findByPriceBetween(double money,double money)

cms系统中,实现搜索(高亮显示)
1.页面层面->必须有搜索框和搜索按钮
2.修改搜索框的form表单的请求方式,和请求路径
3.根据前台的form表达的请求方式,然后编写后台controller层.(让controller层的代码,接收咱们的搜索关键字)
4.由于咱们的搜索数据是从es索引库来查找的,因此我们要做的事情:从mysql中查询出来数据,然后保存到es索引库
es索引库就有数据了
5.由于cms系统还有集成es技术呢,因此,我还要做一件事情:在cms系统中,整合es---->参考四
6.可以调用仓库接口(findByTitle())实现普通搜索(非高亮)
7.如果要实现高亮的话:调用高亮显示的工具类
//1.搜索需要的模板类 2.指定要操作的实体类类型 3.当前页 4.每页页显示多少条 5.是一个string类型的数组数组里存放的是:来进行搜索的字段(必须和实体类中的字段保持一致) 6.指定要排序的字段 7.搜索的关键字
PageInfo<cms_article> info = (PageInfo<cms_article>) HLUtils.findByHighLight(elasticsearchTemplate, cms_article.class, pageNum, pageSize, new String[] {“title”}, “id”, key);

====================================================================================================
把项目部署到linux系统
1.修改数据库 的相关连接:db.properties里
把mysql的ip地址写成windows的ip (ipconfig,如果连的是无线网,找无线局域网适配器 Ipv4的地址
如果连的是网线,就找局域网,本地连接 ipv4)
2.对着你的项目,右键 Run as --> Maven build -->package (跳过测试skip tests)–等他执行完毕
3.执行完毕后,在日志里找到war包所在的位置,把他copy出来到桌面,重命名叫ROOT.war
4.把ROOT.war 上传到linux里的tomcat目录下的webapps下,并且删除ROOT文件夹
5.进到tomcat的bin目录上一级,执行–> ./bin/shutdown.sh 先关闭tomcat —> 动态查看tomcat日志 tail -f logs/catalina.out --> ./bin/startup.sh 开启tomcat
6.浏览器直接输入:linux的ip:8080/访问路径
7.为linux的ip虚拟一个域名–>到c盘下找到如下路径: C:\Windows\System32\drivers\etc 找到hosts文件,右键打开,添加一句: 192.168.21.128 www.gengjiaxin.com 保存
9.直接在浏览器利用域名加端口号的形式来访问了
注意:=
在项目部署的时候:如果是你认为你的步骤都对,项目也对,但是,访问项目一直转圈,访问不了
有可能是你的windows上的mysql安装的时候,不允许远程用户访问(只允许localhost或者127.0.0.1来访问)
只需要打开小绿叶执行如下两个命令:
GRANT ALL PRIVILEGES ON . TO ‘root’@’%’ IDENTIFIED BY ‘这个是你的mysql的密码’;
flush privileges;

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Kafka与Spring Boot整合是一种常见的开发手段,可以通过导入Spring Boot整合Kafka的starter来实现。你可以在pom.xml文件中添加以下依赖坐标来导入该starter: ``` <dependency> <groupId>org.springframework.kafka</groupId> <artifactId>spring-kafka</artifactId> </dependency> ``` 需要注意的是,直接使用Kafka和使用Spring Boot整合Kafka两种方法虽然原理相同,但在配置、使用和理解上有一些区别。因此,不要混淆这两种方法。例如,在使用Spring Boot整合Kafka时,你可以通过同步监听来实现消息的接收,但这与Kafka本身的ack机制是两个独立的概念。 在完成依赖导入后,你可以创建一个测试来演示如何使用生产者发送消息。首先,你需要创建一个KafkaTemplate对象,并在测试方法中使用它来发送消息。以下是一个示例代码: ``` @SpringBootTest public class KfKTest { @Autowired private KafkaTemplate<String, String> kafkaTemplate; @Test void pro_test(){ // 构造消息 User user = new User(); user.setName("张三"); user.setAge(20); kafkaTemplate.send("test", user.toString()); } } ``` 在这个示例中,我们使用了@Autowired注解来自动注入KafkaTemplate对象,并在测试方法中通过kafkaTemplate.send方法发送消息到名为"test"的主题。 这就是使用Kafka整合Spring Boot的基本步骤。你可以根据自己的需求进一步扩展和使用Kafka的其他功能。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* [SpringBoot整合Kafka](https://blog.csdn.net/m0_37294838/article/details/127253991)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] - *2* *3* [知识点16--spring boot整合kafka](https://blog.csdn.net/dudadudadd/article/details/125344830)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值