✨【一心同学】的写作风格:喜欢用【通俗易懂】的文笔去讲解每一个知识点,而不喜欢用【高大上】的官方陈述。
✨【一心同学】博客的领域是【面向后端技术】的学习,未来会持续更新更多的【后端技术】以及【学习心得】。
✨如果有对【后端技术】感兴趣的【小可爱】,欢迎关注【一心同学】💞💞💞
❤️❤️❤️**感谢各位大可爱小可爱!**❤️❤️❤️
前言:
===
一心同学对SpringBoot整合MyBatis使用的数据连接池是Druid,如果大家不想用Druid连接,可以将**步骤(3)和步骤(4)**省略,在application.yml配置上自己喜欢的连接池即可。
废话不多说,直接开整!
整合MyBatis
=========
先扔上一心同学的目录给各位:
1.创建一个SpringBoot项目,引入以下依赖:
2.Maven导入相关依赖:
(1)Druid连接池配置需要的依赖
com.alibaba
druid
1.1.21
log4j
log4j
1.2.17
(2)自动生成属性方法依赖(方便我们编程)
org.projectlombok
lombok
(3)导入mybatis依赖
org.mybatis.spring.boot
mybatis-spring-boot-starter
2.1.1
3.配置数据库连接信息
application.yml:
spring:
datasource:
username: root
password: 123456
#?serverTimezone=UTC解决时区的报错
url: jdbc:mysql://localhost:3306/mybatis_blog?serverTimezone=UTC&useUnicode=true&characterEncoding=utf-8
driver-class-name: com.mysql.cj.jdbc.Driver
type: com.alibaba.druid.pool.DruidDataSource #自定义数据源
#Spring Boot 默认是不注入这些属性值的,需要自己绑定
#druid 数据源专有配置
initialSize: 5
minIdle: 5
maxActive: 20
maxWait: 60000
timeBetweenEvictionRunsMillis: 60000
minEvictableIdleTimeMillis: 300000
validationQuery: SELECT 1 FROM DUAL
testWhileIdle: true
testOnBorrow: false
testOnReturn: false
poolPreparedStatements: true
#配置监控统计拦截的filters,stat:监控统计、log4j:日志记录、wall:防御sql注入
#如果允许时报错 java.lang.ClassNotFoundException: org.apache.log4j.Priority
#则导入 log4j 依赖即可,Maven 地址:https://mvnrepository.com/artifact/log4j/log4j
filters: stat,wall,log4j
maxPoolPreparedStatementPerConnectionSize: 20
useGlobalDataSourceStat: true
connectionProperties: druid.stat.mergeSql=true;druid.stat.slowSqlMillis=500
4.编写配置文件(使我们自定义的Druid属性生效)
package com.yixin.demo.config;
import com.alibaba.druid.pool.DruidDataSource;
import com.alibaba.druid.support.http.StatViewServlet;
import com.alibaba.druid.support.http.WebStatFilter;
import org.springframework.boot.context.properties.ConfigurationProperties;
import org.springframework.boot.web.servlet.FilterRegistrationBean;
import org.springframework.boot.web.servlet.ServletRegistrationBean;
import org.springframework.context.annotation.Bean;
import org.springframework.context.annotation.Configuration;
import javax.sql.DataSource;
import java.util.Arrays;
import java.util.HashMap;
import java.util.Map;
@Configuration
public class DruidConfig {
/*
将自定义的 Druid数据源添加到容器中,不再让 Spring Boot 自动创建
绑定全局配置文件中的 druid 数据源属性到 com.alibaba.druid.pool.DruidDataSource从而让它们生效
@ConfigurationProperties(prefix = “spring.datasource”):作用就是将 全局配置文件中
前缀为 spring.datasource的属性值注入到 com.alibaba.druid.pool.DruidDataSource 的同名参数中
*/
@ConfigurationProperties(prefix = “spring.datasource”)
@Bean
public DataSource druidDataSource() {
return new DruidDataSource();
}
@Bean
public ServletRegistrationBean statViewServlet() {
ServletRegistrationBean bean = new ServletRegistrationBean(new StatViewServlet(), “/druid/*”);
// 这些参数可以在 com.alibaba.druid.support.http.StatViewServlet
// 的父类 com.alibaba.druid.support.http.ResourceServlet 中找到
Map<String, String> initParams = new HashMap<>();
initParams.put(“loginUsername”, “yixin”); //后台管理界面的登录账号
initParams.put(“loginPassword”, “123456”); //后台管理界面的登录密码
//后台允许谁可以访问
//initParams.put(“allow”, “localhost”):表示只有本机可以访问
//initParams.put(“allow”, “”):为空或者为null时,表示允许所有访问
initParams.put(“allow”, “”);
//deny:Druid 后台拒绝谁访问
//initParams.put(“test”, “服务器地址”);表示禁止此ip访问
//设置初始化参数
bean.setInitParameters(initParams);
return bean;
}
//配置 Druid 监控 之 web 监控的 filter
//WebStatFilter:用于配置Web和Druid数据源之间的管理关联监控统计
@Bean
public FilterRegistrationBean webStatFilter() {
FilterRegistrationBean bean = new FilterRegistrationBean();
bean.setFilter(new WebStatFilter());
//exclusions:设置哪些请求进行过滤排除掉,从而不进行统计
Map<String, String> initParams = new HashMap<>();
initParams.put(“exclusions”, “.js,.css,/druid/,/jdbc/”);
bean.setInitParameters(initParams);
//“/*” 表示过滤所有请求
bean.setUrlPatterns(Arrays.asList(“/*”));
return bean;
}
}
5.测试数据库是否连接成功
@SpringBootTest
class DemoApplicationTests {
//DI注入数据源
@Autowired
DataSource dataSource;
@Test
void contextLoads() throws SQLException {
//看一下默认数据源
System.out.println(dataSource.getClass());
//获得连接
Connection connection = dataSource.getConnection();
System.out.println(connection);
DruidDataSource druidDataSource = (DruidDataSource) dataSource;
System.out.println(“druidDataSource 数据源最大连接数:” + druidDataSource.getMaxActive());
System.out.println(“druidDataSource 数据源初始化连接数:” + druidDataSource.getInitialSize());
//关闭连接
connection.close();
}
}
输出:
6.创建实体类
User:
@Data
Kafka实战笔记
关于这份笔记,为了不影响大家的阅读体验,我只能在文章中展示部分的章节内容和核心截图
- Kafka入门
- 为什么选择Kafka
- Karka的安装、管理和配置
- Kafka的集群
- 第一个Kafka程序
afka的生产者
- Kafka的消费者
- 深入理解Kafka
- 可靠的数据传递
- Spring和Kalka的整合
- Sprinboot和Kafka的整合
- Kafka实战之削峰填谷
- 数据管道和流式处理(了解即可)
- Kafka实战之削峰填谷
第一个Kafka程序
- [外链图片转存中…(img-dzHGIQ7f-1718717183334)]
afka的生产者
[外链图片转存中…(img-UDzqbrTH-1718717183334)]
- Kafka的消费者
- 深入理解Kafka
- 可靠的数据传递
[外链图片转存中…(img-svep2Q26-1718717183335)]
[外链图片转存中…(img-Dfuknctl-1718717183335)]
- Spring和Kalka的整合
- Sprinboot和Kafka的整合
- Kafka实战之削峰填谷
- 数据管道和流式处理(了解即可)
[外链图片转存中…(img-GERZFRgX-1718717183336)]
- Kafka实战之削峰填谷
[外链图片转存中…(img-ZYN7PfrN-1718717183336)]