Spring Boot-整合MyBatis

✨【一心同学】的写作风格:喜欢用【通俗易懂】的文笔去讲解每一个知识点,而不喜欢用【高大上】的官方陈述。

✨【一心同学】博客的领域是【面向后端技术】的学习,未来会持续更新更多的【后端技术】以及【学习心得】。

✨如果有对【后端技术】感兴趣的【小可爱】,欢迎关注一心同学】💞💞💞

❤️❤️❤️**感谢各位大可爱小可爱!**❤️❤️❤️


前言:

===

一心同学对SpringBoot整合MyBatis使用的数据连接池是Druid,如果大家不想用Druid连接,可以将**步骤(3)和步骤(4)**省略,在application.yml配置上自己喜欢的连接池即可

废话不多说,直接开整!

整合MyBatis

=========

先扔上一心同学的目录给各位:

1.创建一个SpringBoot项目,引入以下依赖:

2.Maven导入相关依赖:

(1)Druid连接池配置需要的依赖

com.alibaba

druid

1.1.21

log4j

log4j

1.2.17

(2)自动生成属性方法依赖(方便我们编程)

org.projectlombok

lombok

(3)导入mybatis依赖

org.mybatis.spring.boot

mybatis-spring-boot-starter

2.1.1

3.配置数据库连接信息

application.yml:

spring:

datasource:

username: root

password: 123456

#?serverTimezone=UTC解决时区的报错

url: jdbc:mysql://localhost:3306/mybatis_blog?serverTimezone=UTC&useUnicode=true&characterEncoding=utf-8

driver-class-name: com.mysql.cj.jdbc.Driver

type: com.alibaba.druid.pool.DruidDataSource #自定义数据源

#Spring Boot 默认是不注入这些属性值的,需要自己绑定

#druid 数据源专有配置

initialSize: 5

minIdle: 5

maxActive: 20

maxWait: 60000

timeBetweenEvictionRunsMillis: 60000

minEvictableIdleTimeMillis: 300000

validationQuery: SELECT 1 FROM DUAL

testWhileIdle: true

testOnBorrow: false

testOnReturn: false

poolPreparedStatements: true

#配置监控统计拦截的filters,stat:监控统计、log4j:日志记录、wall:防御sql注入

#如果允许时报错 java.lang.ClassNotFoundException: org.apache.log4j.Priority

#则导入 log4j 依赖即可,Maven 地址:https://mvnrepository.com/artifact/log4j/log4j

filters: stat,wall,log4j

maxPoolPreparedStatementPerConnectionSize: 20

useGlobalDataSourceStat: true

connectionProperties: druid.stat.mergeSql=true;druid.stat.slowSqlMillis=500

4.编写配置文件(使我们自定义的Druid属性生效)

package com.yixin.demo.config;

import com.alibaba.druid.pool.DruidDataSource;

import com.alibaba.druid.support.http.StatViewServlet;

import com.alibaba.druid.support.http.WebStatFilter;

import org.springframework.boot.context.properties.ConfigurationProperties;

import org.springframework.boot.web.servlet.FilterRegistrationBean;

import org.springframework.boot.web.servlet.ServletRegistrationBean;

import org.springframework.context.annotation.Bean;

import org.springframework.context.annotation.Configuration;

import javax.sql.DataSource;

import java.util.Arrays;

import java.util.HashMap;

import java.util.Map;

@Configuration

public class DruidConfig {

/*

将自定义的 Druid数据源添加到容器中,不再让 Spring Boot 自动创建

绑定全局配置文件中的 druid 数据源属性到 com.alibaba.druid.pool.DruidDataSource从而让它们生效

@ConfigurationProperties(prefix = “spring.datasource”):作用就是将 全局配置文件中

前缀为 spring.datasource的属性值注入到 com.alibaba.druid.pool.DruidDataSource 的同名参数中

*/

@ConfigurationProperties(prefix = “spring.datasource”)

@Bean

public DataSource druidDataSource() {

return new DruidDataSource();

}

@Bean

public ServletRegistrationBean statViewServlet() {

ServletRegistrationBean bean = new ServletRegistrationBean(new StatViewServlet(), “/druid/*”);

// 这些参数可以在 com.alibaba.druid.support.http.StatViewServlet

// 的父类 com.alibaba.druid.support.http.ResourceServlet 中找到

Map<String, String> initParams = new HashMap<>();

initParams.put(“loginUsername”, “yixin”); //后台管理界面的登录账号

initParams.put(“loginPassword”, “123456”); //后台管理界面的登录密码

//后台允许谁可以访问

//initParams.put(“allow”, “localhost”):表示只有本机可以访问

//initParams.put(“allow”, “”):为空或者为null时,表示允许所有访问

initParams.put(“allow”, “”);

//deny:Druid 后台拒绝谁访问

//initParams.put(“test”, “服务器地址”);表示禁止此ip访问

//设置初始化参数

bean.setInitParameters(initParams);

return bean;

}

//配置 Druid 监控 之 web 监控的 filter

//WebStatFilter:用于配置Web和Druid数据源之间的管理关联监控统计

@Bean

public FilterRegistrationBean webStatFilter() {

FilterRegistrationBean bean = new FilterRegistrationBean();

bean.setFilter(new WebStatFilter());

//exclusions:设置哪些请求进行过滤排除掉,从而不进行统计

Map<String, String> initParams = new HashMap<>();

initParams.put(“exclusions”, “.js,.css,/druid/,/jdbc/”);

bean.setInitParameters(initParams);

//“/*” 表示过滤所有请求

bean.setUrlPatterns(Arrays.asList(“/*”));

return bean;

}

}

5.测试数据库是否连接成功

@SpringBootTest

class DemoApplicationTests {

//DI注入数据源

@Autowired

DataSource dataSource;

@Test

void contextLoads() throws SQLException {

//看一下默认数据源

System.out.println(dataSource.getClass());

//获得连接

Connection connection = dataSource.getConnection();

System.out.println(connection);

DruidDataSource druidDataSource = (DruidDataSource) dataSource;

System.out.println(“druidDataSource 数据源最大连接数:” + druidDataSource.getMaxActive());

System.out.println(“druidDataSource 数据源初始化连接数:” + druidDataSource.getInitialSize());

//关闭连接

connection.close();

}

}

输出:

6.创建实体类

User:

@Data

Kafka实战笔记

关于这份笔记,为了不影响大家的阅读体验,我只能在文章中展示部分的章节内容和核心截图

image.png

  • Kafka入门
  • 为什么选择Kafka
  • Karka的安装、管理和配置

image.png

  • Kafka的集群
  • 第一个Kafka程序
  • image.png

afka的生产者

image.png

  • Kafka的消费者
  • 深入理解Kafka
  • 可靠的数据传递

image.png

image.png

  • Spring和Kalka的整合
  • Sprinboot和Kafka的整合
  • Kafka实战之削峰填谷
  • 数据管道和流式处理(了解即可)

image.png

  • Kafka实战之削峰填谷

image.png

第一个Kafka程序

  • [外链图片转存中…(img-dzHGIQ7f-1718717183334)]

afka的生产者

[外链图片转存中…(img-UDzqbrTH-1718717183334)]

  • Kafka的消费者
  • 深入理解Kafka
  • 可靠的数据传递

[外链图片转存中…(img-svep2Q26-1718717183335)]

[外链图片转存中…(img-Dfuknctl-1718717183335)]

  • Spring和Kalka的整合
  • Sprinboot和Kafka的整合
  • Kafka实战之削峰填谷
  • 数据管道和流式处理(了解即可)

[外链图片转存中…(img-GERZFRgX-1718717183336)]

  • Kafka实战之削峰填谷

[外链图片转存中…(img-ZYN7PfrN-1718717183336)]

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值