前言
1、使用版本 5.0.0
2、使用模式 - 内存模式
一、表名称说明
1、这个官方文档中也说明了,官方说明-表-中文
1.1、逻辑表
1、相同结构的水平拆分数据库(表)的逻辑名称,是 SQL 中表的逻辑标识。 例:订单数据根据主键尾数拆分为 10 张表,分别是 t_order_0
到 t_order_9
,他们的逻辑表名为 t_order
2、后面在案例中会举例说明
1.2、真实表
1、在水平拆分的数据库中真实存在的物理表。 即上个示例中的 t_order_0 到 t_order_9
2、后面在案例中会举例说明
1.3、绑定表
1、指分片规则一致的主表和子表。 例如:t_order
表和 t_order_item
表,均按照 order_id
分片,则此两张表互为绑定表关系。 绑定表之间的多表关联查询不会出现笛卡尔积关联,关联查询效率将大大提升。 举例说明,如果 SQL 为
注意上面标黄的地方,是均,意思就是后面
t_order
和t_order_item
表的分片规则要一模一样,根据同一个字段分片。
SELECT
i.*
FROM
t_order o
JOIN t_order_item i ON o.order_id = i.order_id
WHERE
o.order_id IN ( 10, 11 );
2、在不配置绑定表关系时,假设分片键 order_id
将数值 10 路由至第 0 片,将数值 11 路由至第 1 片,那么路由后的 SQL 应该为 4 条,它们呈现为笛卡尔积:
SELECT i.* FROM t_order_0 o JOIN t_order_item_0 i ON o.order_id=i.order_id WHERE o.order_id in (10, 11);
SELECT i.* FROM t_order_0 o JOIN t_order_item_1 i ON o.order_id=i.order_id WHERE o.order_id in (10, 11);
SELECT i.* FROM t_order_1 o JOIN t_order_item_0 i ON o.order_id=i.order_id WHERE o.order_id in (10, 11);
SELECT i.* FROM t_order_1 o JOIN t_order_item_1 i ON o.order_id=i.order_id WHERE o.order_id in (10, 11);
3、在配置绑定表关系后,路由的 SQL 应该为 2 条:
SELECT i.* FROM t_order_0 o JOIN t_order_item_0 i ON o.order_id=i.order_id WHERE o.order_id in (10, 11);
SELECT i.* FROM t_order_1 o JOIN t_order_item_1 i ON o.order_id=i.order_id WHERE o.order_id in (10, 11);
4、其中 t_order
在 FROM 的最左侧,ShardingSphere 将会以它作为整个绑定表的主表。 所有路由计算将会只使用主表的策略,那么 t_order_item
表的分片计算将会使用 t_order
的条件。 因此,绑定表间的分区键需要完全相同
1.4、广播表
1、指所有的分片数据源中都存在的表,表结构及其数据在每个数据库中均完全一致。 适用于数据量不大且需要与海量数据的表进行关联查询的场景,例如:字典表。
2、后面在案例中会举例说明
1.5、单表
1、指所有的分片数据源中仅唯一存在的表。 适用于数据量不大且无需分片的表。
2、在shardingSphere
5.0.0版本开始,单表不需要配置,其内部会路由到单表的数据源中。
3、后面在案例中会举例说明
二、基础项目架构
1、使用springBoot和mybatisPlus搭建一个基础的项目如下
<?xml version="1.0" encoding="UTF-8"?>
<project xmlns="http://maven.apache.org/POM/4.0.0" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
xsi:schemaLocation="http://maven.apache.org/POM/4.0.0 https://maven.apache.org/xsd/maven-4.0.0.xsd">
<modelVersion>4.0.0</modelVersion>
<parent>
<groupId>org.springframework.boot</groupId>
<artifactId>spring-boot-starter-parent</artifactId>
<version>2.3.1.RELEASE</version>
<relativePath/> <!-- lookup parent from repository -->
</parent>
<groupId>cn.gxm</groupId>
<artifactId>shardingSphere-test</artifactId>
<version>0.0.1-SNAPSHOT</version>
<name>shardingSphere-test</name>
<description>shardingSphere-test</description>
<properties>
<java.version>1.8</java.version>
<mybatis-plus.version>3.4.1</mybatis-plus.version>
<shardingsphere.version>5.0.0</shardingsphere.version>
</properties>
<dependencies>
<dependency>
<groupId>org.springframework.boot</groupId>
<artifactId>spring-boot-starter-web</artifactId>
</dependency>
<dependency>
<groupId>com.baomidou</groupId>
<artifactId>mybatis-plus-boot-starter</artifactId>
<version>${mybatis-plus.version}</version>
</dependency>
<dependency>
<groupId>org.apache.shardingsphere</groupId>
<artifactId>shardingsphere-jdbc-core-spring-boot-starter</artifactId>
<version>${shardingsphere.version}</version>
</dependency>
<!-- hutool工具 -->
<dependency>
<groupId>cn.hutool</groupId>
<artifactId>hutool-all</artifactId>
<version>5.3.5</version>
</dependency>
<dependency>
<groupId>mysql</groupId>
<artifactId>mysql-connector-java</artifactId>
<version>8.0.20</version>
<scope>runtime</scope>
</dependency>
<dependency>
<groupId>org.springframework.boot</groupId>
<artifactId>spring-boot-devtools</artifactId>
<scope>runtime</scope>
<optional>true</optional>
</dependency>
<dependency>
<groupId>org.projectlombok</groupId>
<artifactId>lombok</artifactId>
<optional>true</optional>
</dependency>
<dependency>
<groupId>org.springframework.boot</groupId>
<artifactId>spring-boot-starter-test</artifactId>
<scope>test</scope>
</dependency>
</dependencies>
<build>
<plugins>
<plugin>
<groupId>org.springframework.boot</groupId>
<artifactId>spring-boot-maven-plugin</artifactId>
<configuration>
<excludes>
<exclude>
<groupId>org.projectlombok</groupId>
<artifactId>lombok</artifactId>
</exclude>
</excludes>
</configuration>
</plugin>
</plugins>
</build>
</project>
三、使用案例–简单的分库分表
3.1、数据库格式
1、创建两个数据库,每个数据库中存有 t_problem
表,数据格式都是一样的。
注意主键是 bigint,并且不是自增的偶
2、数据库脚本如下,然后在两个数据库都执行一遍
-- ----------------------------
-- Table structure for t_problem0
-- ----------------------------
DROP TABLE IF EXISTS `t_problem0`;
CREATE TABLE `t_problem0` (
`id` bigint(0) NOT NULL,
`content` varchar(255) CHARACTER SET utf8mb4 COLLATE utf8mb4_general_ci NULL DEFAULT NULL,
PRIMARY KEY (`id`) USING BTREE
) ENGINE = InnoDB CHARACTER SET = utf8mb4 COLLATE = utf8mb4_general_ci ROW_FORMAT = Dynamic;
-- ----------------------------
-- Table structure for t_problem1
-- ----------------------------
DROP TABLE IF EXISTS `t_problem1`;
CREATE TABLE `t_problem1` (
`id` bigint(0) NOT NULL,
`content` varchar(255) CHARACTER SET utf8mb4 COLLATE utf8mb4_general_ci NULL DEFAULT NULL,
PRIMARY KEY (`id`) USING BTREE
) ENGINE = InnoDB CHARACTER SET = utf8mb4 COLLATE = utf8mb4_general_ci ROW_FORMAT = Dynamic;
-- ----------------------------
-- Table structure for t_problem2
-- ----------------------------
DROP TABLE IF EXISTS `t_problem2`;
CREATE TABLE `t_problem2` (
`id` bigint(0) NOT NULL,
`content` varchar(255) CHARACTER SET utf8mb4 COLLATE utf8mb4_general_ci NULL DEFAULT NULL,
PRIMARY KEY (`id`) USING BTREE
) ENGINE = InnoDB CHARACTER SET = utf8mb4 COLLATE = utf8mb4_general_ci ROW_FORMAT = Dynamic;
3.2、项目代码
1、application.yml
配置如下:
具体内容我就不再一一说明,里面相关配置都已经说明的很清楚了
主要说明一下,分库分表的策略
分库ds$->{id % 2}
说明根据t_problem表插入的id %2 ,那就是【ds0,ds1】,而ds0和ds1数据源是在上面定义好的
分表t_problem$->{id % 3}
说明根据t_problem表插入的id %3,就是 【t_problem0,t_problem1,t_problem2】
spring:
sharding-sphere: # mode.type 默认是内存模式启动
props:
# 展示sql
sql-show: true # 打印sql,控制台可以看到执行的逻辑表sql,和真实表sql(5.0.0版本之前另一个参数)
datasource:
ds0:
driver-class-name: com.mysql.cj.jdbc.Driver
jdbc-url: jdbc:mysql://localhost:3306/shardingsphere0?useUnicode=true&characterEncoding=utf-8&useSSL=false&serverTimezone=GMT&allowPublicKeyRetrieval=true
password: 123456
type: com.zaxxer.hikari.HikariDataSource
username: root
ds1:
driver-class-name: com.mysql.cj.jdbc.Driver
jdbc-url: jdbc:mysql://localhost:3306/shardingsphere1?useUnicode=true&characterEncoding=utf-8&useSSL=false&serverTimezone=GMT&allowPublicKeyRetrieval=true
password: 123456
type: com.zaxxer.hikari.HikariDataSource
username: root
names: ds0,ds1
rules:
sharding:
sharding-algorithms:
t-problem-db-inline: # 名为 t-problem-db-inline 的分库策略的算法
props:
algorithm-expression: ds$->{id % 2}
type: INLINE
t-problem-table-inline: # 名为 t-problem-table-inline 的分表策略的算法
props:
algorithm-expression: t_problem$->{id % 3}
type: INLINE
tables:
t_problem:
actual-data-nodes: ds$->{0..1}.t_problem$->{0..2}
database-strategy: # 分库策略
standard: # 用于单分片键的标准分片场景,(多个列标识区分是复杂情况,将standard换成 complex(即分片列名称,多个列以逗号分隔))
sharding-algorithm-name: t-problem-db-inline # 名称,在上面使用
sharding-column: id # 那个字段传到后面算法中
table-strategy: # 分表策略
standard:
sharding-algorithm-name: t-problem-table-inline
sharding-column: id # 那个字段传到后面算法中
key-generate-strategy: # t_problem 表主键 id 生成的策略 https://blog.csdn.net/chinawangfei/article/details/114675854
column: id # t_order 表的主键id 需要使用雪花算法
keyGeneratorName: t-problem-snowflake # 关键这里修改后 似乎不生效,这是最离谱的,就是默认使用的是雪花算法
key-generators:
t-problem-snowflake:
type: snowflake
props:
worker-id: 1
server:
port: 8123
mybatis-plus:
configuration:
cache-enabled: false
log-impl: org.apache.ibatis.logging.stdout.StdOutImpl
map-underscore-to-camel-case: true
mapper-locations: classpath:mapper/*.xml
type-aliases-package: cn.gxm.shardingspheretest.model
2、model 定义,注意其中的注释说明
package cn.gxm.shardingspheretest.model;
import com.baomidou.mybatisplus.annotation.TableField;
import com.baomidou.mybatisplus.annotation.TableId;
import com.baomidou.mybatisplus.annotation.TableName;
import com.baomidou.mybatisplus.extension.activerecord.Model;
import lombok.AllArgsConstructor;
import lombok.Data;
import lombok.NoArgsConstructor;
/**
* @author GXM
* @version 1.0.0
* @Description TODO
* @createTime 2022年06月24日
*/
@TableName("t_problem")
@Data
@AllArgsConstructor
@NoArgsConstructor
public class Problem extends Model<Problem> {
/**
* 1、这里必须要使用Long,不能使用int 或者integer 因为
* 使用shardSphere 的雪花算法生成的数值很大,已经超过了
* Integer.MAX_VALUE(),只能使用Long来存储,而且数据库中也必须是bigint
* 当然如果你选择使用字符串的类型,那这里就不没有那么多事情了
* <p>
* 注意这里的 type是默认值IdType.NONE,不要设置,NONE就是【用户输入ID 该类型可以通过自己注册自动填充插件进行填充】
*/
@TableId(value = "id")
private Long id;
@TableField("content")
private String content;
}
3、mapper和service就省略了,和平常配置的mybatis plus 差不多
4、新建一个controller用做测试,内容如下
package cn.gxm.shardingspheretest.controller;
import cn.gxm.shardingspheretest.model.Problem;
import cn.gxm.shardingspheretest.service.ProblemService;
import cn.hutool.core.util.RandomUtil;
import com.baomidou.mybatisplus.extension.plugins.pagination.Page;
import org.springframework.beans.factory.annotation.Autowired;
import org.springframework.web.bind.annotation.*;
import java.util.List;
/**
* @author GXM
* @version 1.0.0
* @Description TODO
* @createTime 2022年06月24日
*/
@RestController
@RequestMapping("/problem")
public class ProblemController {
private final ProblemService problemService;
@Autowired
public ProblemController(ProblemService problemService) {
this.problemService = problemService;
}
@GetMapping("/{id}")
public Problem getById(@PathVariable Long id) {
return this.problemService.getById(id);
}
@GetMapping("list")
public List<Problem> list() {
return this.problemService.list();
}
/**
* 越获取偏移量位置靠后数据,使用 LIMIT 分页方式的效率就越低,
* 这里有解决方案(有很多方法可以避免使用 LIMIT 进行分页)
* 1、比如构建行记录数量与行偏移量的二级索引
* 2、或使用上次分页数据结尾 ID 作为下次查询条件的分页方式等(得禁止跳页查询)
* <p>
* 分页就很难受了,比如你现在分了两个数据库,每一个数据库分为3张表,相当于 一个t_order表,被分成6张表,而
* 如果此时你分页查询 第3页的100条数据(page=3,limit=100),其实相当于会查6张表的 3*100的数据,然后综合起来后,在分页取100条。
* 所以你约到后面查询越慢
* <p>
* 注意,shardingSphere 在5.0.0版本之后,开启内存存限制模式 和连接限制模式 ,我们只需要配置 maxConnectionSizePerQuery ,会根据
* 公式来计算,使用内存限制模式还是使用链接限制模式
* 但shardingSphere 会进行一部分的处理 【以结果集游标下移进行结果归并的方式,称之为流式归并,它无需将结果数据全数加载至内存】
*
* @param page page
* @param limit limit
* @return pojo
*/
@GetMapping("page")
public List<Problem> page(@RequestParam("page") Integer page, @RequestParam("limit") Integer limit) {
Page<Problem> orderPage = this.problemService.page(new Page<>(page, limit));
return orderPage.getRecords();
}
@GetMapping("/count")
public Integer count() {
return this.problemService.count();
}
@GetMapping("/mock")
public String mock() {
for (int i = 0; i < 12; i++) {
final Problem problem = new Problem();
problem.setContent(RandomUtil.randomString(20));
this.problemService.save(problem);
}
return "SUCCESS";
}
}
3.3、测试分析
3.3.1、mock接口
1、调用mock接口后,日志如下
2、数据库数据如下
3.3.2、count接口
1、请求结果,就是 12 条
2、执行日志如下
3.3.3、page接口
1、请求接口,,注意,其中一旦我们的页码越来越大,可能性能就会下降一部分,虽然shardingsphere
帮忙我们做了一部分的优化,但是如果数据量还是很大,那性能还是不客观的,如下
注意,这里是没有家排序规则的,如果加上排序规则,执行的sql会有一部分其他的逻辑,比如
shardingsphere
补充列,这一部分大家可以去看看官方文档。
如果我查询第三页开始的10条,那么它会找所有数据库中的分表的第三页的10条,合并结果,然后截取数据。
2、控制台日志如下:
3.3.4、id 接口
1、请求接口
2、控制台日志
四、使用案例–绑定表(bindTable)
4.1、数据库格式
1、数据库创建,业务表t_order
和其关联子表t_order_item
,分别分布于2个数据库中,并且分表都是为3
2、数据脚本
注意其中的相关主键id都是不设置自增的,并且类型是bigInt,因为后面使用
shardingsphere
的内置分布式id生成的值会很大。
SET NAMES utf8mb4;
SET FOREIGN_KEY_CHECKS = 0;
-- ----------------------------
-- Table structure for t_order0
-- ----------------------------
DROP TABLE IF EXISTS `t_order0`;
CREATE TABLE `t_order0` (
`id` bigint(0) NOT NULL,
`user_id` bigint(0) NULL DEFAULT NULL,
`order_name` varchar(200) CHARACTER SET utf8mb4 COLLATE utf8mb4_general_ci NULL DEFAULT NULL,
PRIMARY KEY (`id`) USING BTREE
) ENGINE = InnoDB CHARACTER SET = utf8mb4 COLLATE = utf8mb4_general_ci ROW_FORMAT = Dynamic;
-- ----------------------------
-- Table structure for t_order1
-- ----------------------------
DROP TABLE IF EXISTS `t_order1`;
CREATE TABLE `t_order1` (
`id` bigint(0) NOT NULL,
`user_id` bigint(0) NULL DEFAULT NULL,
`order_name` varchar(200) CHARACTER SET utf8mb4 COLLATE utf8mb4_general_ci NULL DEFAULT NULL,
PRIMARY KEY (`id`) USING BTREE
) ENGINE = InnoDB CHARACTER SET = utf8mb4 COLLATE = utf8mb4_general_ci ROW_FORMAT = Dynamic;
-- ----------------------------
-- Table structure for t_order2
-- ----------------------------
DROP TABLE IF EXISTS `t_order2`;
CREATE TABLE `t_order2` (
`id` bigint(0) NOT NULL,
`user_id` bigint(0) NULL DEFAULT NULL,
`order_name` varchar(200) CHARACTER SET utf8mb4 COLLATE utf8mb4_general_ci NULL DEFAULT NULL,
PRIMARY KEY (`id`) USING BTREE
) ENGINE = InnoDB CHARACTER SET = utf8mb4 COLLATE = utf8mb4_general_ci ROW_FORMAT = Dynamic;
-- ----------------------------
-- Table structure for t_order_item0
-- ----------------------------
DROP TABLE IF EXISTS `t_order_item0`;
CREATE TABLE `t_order_item0` (
`id` bigint(0) NOT NULL,
`order_id` bigint(0) NOT NULL,
`name` varchar(255) CHARACTER SET utf8mb4 COLLATE utf8mb4_general_ci NULL DEFAULT NULL,
PRIMARY KEY (`id`) USING BTREE
) ENGINE = InnoDB CHARACTER SET = utf8mb4 COLLATE = utf8mb4_general_ci ROW_FORMAT = Dynamic;
-- ----------------------------
-- Table structure for t_order_item1
-- ----------------------------
DROP TABLE IF EXISTS `t_order_item1`;
CREATE TABLE `t_order_item1` (
`id` bigint(0) NOT NULL,
`order_id` bigint(0) NOT NULL,
`name` varchar(255) CHARACTER SET utf8mb4 COLLATE utf8mb4_general_ci NULL DEFAULT NULL,
PRIMARY KEY (`id`) USING BTREE
) ENGINE = InnoDB CHARACTER SET = utf8mb4 COLLATE = utf8mb4_general_ci ROW_FORMAT = Dynamic;
-- ----------------------------
-- Table structure for t_order_item2
-- ----------------------------
DROP TABLE IF EXISTS `t_order_item2`;
CREATE TABLE `t_order_item2` (
`id` bigint(0) NOT NULL,
`order_id` bigint(0) NOT NULL,
`name` varchar(255) CHARACTER SET utf8mb4 COLLATE utf8mb4_general_ci NULL DEFAULT NULL,
PRIMARY KEY (`id`) USING BTREE
) ENGINE = InnoDB CHARACTER SET = utf8mb4 COLLATE = utf8mb4_general_ci ROW_FORMAT = Dynamic;
4.2、项目代码
1、application.yml
配置如下:
具体内容我就不再一一说明,里面相关配置都已经说明的很清楚了
主要说明一下,分库分表的策略
分库ds$->{id % 2}
说明根据相关表插入的id %2 ,那就是【ds0,ds1】,而ds0和ds1数据源是在上面定义好的
分表t_order$->{id % 3}
说明根据t_order表插入的id %3,就是 【t_order0,t_order1,t_order2】
而对于t_order_item
来说,必须要和t_order表的分库分表的策略保持一致,所以,使用的是t_order_item
的order_id
字段来分库分表,并且规则和t_order
保持一致,这是官方文档中说明的。
spring:
sharding-sphere: # mode.type 默认是内存模式启动
props:
# 展示sql
sql-show: true
datasource:
ds0:
driver-class-name: com.mysql.cj.jdbc.Driver
jdbc-url: jdbc:mysql://localhost:3306/shardingsphere0?useUnicode=true&characterEncoding=utf-8&useSSL=false&serverTimezone=GMT&allowPublicKeyRetrieval=true
password: 123456
type: com.zaxxer.hikari.HikariDataSource
username: root
ds1:
driver-class-name: com.mysql.cj.jdbc.Driver
jdbc-url: jdbc:mysql://localhost:3306/shardingsphere1?useUnicode=true&characterEncoding=utf-8&useSSL=false&serverTimezone=GMT&allowPublicKeyRetrieval=true
password: 123456
type: com.zaxxer.hikari.HikariDataSource
username: root
names: ds0,ds1
rules:
sharding:
sharding-algorithms:
t-order-db-inline:
props:
algorithm-expression: ds$->{id % 2}
type: INLINE
t-order-table-inline:
props:
algorithm-expression: t_order$->{id % 3}
type: INLINE
t-order-item-db-inline:
props:
algorithm-expression: ds$->{order_id % 2}
type: INLINE
t-order-item-table-inline:
props:
algorithm-expression: t_order_item$->{order_id % 3}
type: INLINE
tables:
t_order:
actual-data-nodes: ds$->{0..1}.t_order$->{0..2}
database-strategy: # 分库策略
standard: # 用于单分片键的标准分片场景,(多个列标识区分是复杂情况,将standard换成 complex(即分片列名称,多个列以逗号分隔))
sharding-algorithm-name: t-order-db-inline # 名称,在上面使用
sharding-column: id # 那个字段传到后面算法中
table-strategy: # 分表策略
standard:
sharding-algorithm-name: t-order-table-inline
sharding-column: id # 那个字段传到后面算法中
key-generate-strategy: # t_order 表主键order_id 生成的策略 https://blog.csdn.net/chinawangfei/article/details/114675854
column: id # t_order 表的主键id 需要使用雪花算法
keyGeneratorName: t-order-snowflake # 关键这里修改后 似乎不生效,这是最离谱的,就是默认使用的是雪花算法
t_order_item:
actual-data-nodes: ds$->{0..1}.t_order_item$->{0..2}
database-strategy:
standard:
sharding-algorithm-name: t-order-item-db-inline
sharding-column: order_id
table-strategy:
standard:
sharding-algorithm-name: t-order-item-table-inline
sharding-column: order_id
key-generate-strategy:
column: id
keyGeneratorName: t-order-item-snowflake
key-generators:
t-order-snowflake:
type: snowflake
props:
worker-id: 1
t-order-item-snowflake:
type: snowflake
props:
worker-id: 1
binding-tables:
- t_order,t_order_item # 绑定表,可以避免在关联查询的时候形成笛卡儿积,注意绑定表之间的分库和分表算法必须保持一致,比如上面t_order和t_order_item都是使用order_id作为分库分表的基础【其中t_order在FROM的最左侧,ShardingSphere将会以它作为整个绑定表的主表。 所有路由计算将会只使用主表的策略,那么t_order_item表的分片计算将会使用t_order的条件。故绑定表之间的分区键要完全相同】
server:
port: 8123
mybatis-plus:
configuration:
cache-enabled: false
log-impl: org.apache.ibatis.logging.stdout.StdOutImpl
map-underscore-to-camel-case: true
mapper-locations: classpath:mapper/*.xml
type-aliases-package: cn.gxm.shardingspheretest.model
2、model 定义,注意其中的注释说明
- Order 对象
package cn.gxm.shardingspheretest.model;
import com.baomidou.mybatisplus.annotation.TableField;
import com.baomidou.mybatisplus.annotation.TableId;
import com.baomidou.mybatisplus.annotation.TableName;
import com.baomidou.mybatisplus.extension.activerecord.Model;
import lombok.AllArgsConstructor;
import lombok.Data;
import lombok.NoArgsConstructor;
/**
* (Order)表实体类
*
* @author GXM
* @date 2022-06-21 15:07:00
*/
@TableName("t_order")
@Data
@AllArgsConstructor
@NoArgsConstructor
public class Order extends Model<Order> {
/**
* 1、这里必须要使用Long,不能使用int 或者integer 因为
* 使用shardSphere 的雪花算法生成的数值很大,已经超过了
* Integer.MAX_VALUE(),只能使用Long来存储,而且数据库中也必须是bigint
* 当然如果你选择使用字符串的类型,那这里就不没有那么多事情了
* <p>
* 注意这里的 type是默认值IdType.NONE,不要设置,NONE就是【用户输入ID 该类型可以通过自己注册自动填充插件进行填充】
*/
@TableId(value = "id")
private Long id;
@TableField("user_id")
private Long userId;
@TableField("order_name")
private String orderName;
}
- OrderItem 对象
package cn.gxm.shardingspheretest.model;
import com.baomidou.mybatisplus.annotation.TableField;
import com.baomidou.mybatisplus.annotation.TableId;
import com.baomidou.mybatisplus.annotation.TableName;
import lombok.AllArgsConstructor;
import lombok.Data;
import lombok.NoArgsConstructor;
/**
* @author GXM
* @version 1.0.0
* @Description 订单关联表(当前表和order表是关联表,也是需要配置分库分表的,以及和 order表一起设置为绑定表)
* @createTime 2022年06月23日
*/
@TableName("t_order_item")
@Data
@AllArgsConstructor
@NoArgsConstructor
public class OrderItem {
/**
* 1、这里必须要使用Long,不能使用int 或者integer 因为
* 使用shardSphere 的雪花算法生成的数值很大,已经超过了
* Integer.MAX_VALUE(),只能使用Long来存储,而且数据库中也必须是bigint
* 当然如果你选择使用字符串的类型,那这里就不没有那么多事情了
* <p>
* 注意这里的 type是默认值IdType.NONE,不要设置,NONE就是【用户输入ID 该类型可以通过自己注册自动填充插件进行填充】
*/
@TableId(value = "id")
private Long id;
@TableField("order_id")
private Long orderId;
@TableField("name")
private String name;
}
3、mapper和service就省略了,和平常配置的mybatis plus 差不多,但是补充一下对应的xml文件内容
<?xml version="1.0" encoding="UTF-8" ?>
<!--
~ Licensed to the Apache Software Foundation (ASF) under one or more
~ contributor license agreements. See the NOTICE file distributed with
~ this work for additional information regarding copyright ownership.
~ The ASF licenses this file to You under the Apache License, Version 2.0
~ (the "License"); you may not use this file except in compliance with
~ the License. You may obtain a copy of the License at
~
~ http://www.apache.org/licenses/LICENSE-2.0
~
~ Unless required by applicable law or agreed to in writing, software
~ distributed under the License is distributed on an "AS IS" BASIS,
~ WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
~ See the License for the specific language governing permissions and
~ limitations under the License.
-->
<!DOCTYPE mapper PUBLIC "-//mybatis.org//DTD Mapper 3.0//EN" "http://mybatis.org/dtd/mybatis-3-mapper.dtd">
<mapper namespace="cn.gxm.shardingspheretest.mapper.OrderMapper">
<resultMap id="baseResultMap" type="cn.gxm.shardingspheretest.model.Order">
<result column="order_id" property="orderId" jdbcType="BIGINT"/>
<result column="user_id" property="userId" jdbcType="BIGINT"/>
<result column="order_name" property="orderName" jdbcType="VARCHAR"/>
</resultMap>
<!-- 自定义插入的时候,主键的返回可以这样写 -->
<insert id="selfInsert" useGeneratedKeys="true" keyProperty="orderId"
parameterType="cn.gxm.shardingspheretest.model.Order">
INSERT INTO t_order (user_id, order_name)
VALUES (#{userId,jdbcType=INTEGER}, #{orderName,jdbcType=VARCHAR});
</insert>
<!-- 查看绑定表是否生效 对应sql -->
<select id="bindTableByOrderId" parameterType="java.lang.Long" resultType="cn.gxm.shardingspheretest.dto.OrderDTO">
SELECT a.id as order_id, a.user_id, a.order_name, b.id as item_id, b.`name` as item_name
from t_order a
LEFT JOIN t_order_item b on a.id = b.order_id
where a.id = #{orderId,jdbcType=BIGINT};
</select>
<select id="bindTableByOrderIdWithIn" parameterType="java.lang.Long" resultType="cn.gxm.shardingspheretest.dto.OrderDTO">
SELECT a.id as order_id, a.user_id, a.order_name, b.id as item_id, b.`name` as item_name
from t_order a
LEFT JOIN t_order_item b on a.id = b.order_id
where a.id in (#{orderId,jdbcType=BIGINT})
</select>
</mapper>
4、新建一个controller用做测试,内容如下
package cn.gxm.shardingspheretest.controller;
import cn.gxm.shardingspheretest.dto.OrderDTO;
import cn.gxm.shardingspheretest.model.Order;
import cn.gxm.shardingspheretest.model.OrderItem;
import cn.gxm.shardingspheretest.service.OrderItemService;
import cn.gxm.shardingspheretest.service.OrderService;
import cn.hutool.core.util.RandomUtil;
import cn.hutool.json.JSONUtil;
import com.baomidou.mybatisplus.core.conditions.query.LambdaQueryWrapper;
import com.baomidou.mybatisplus.extension.plugins.pagination.Page;
import org.springframework.beans.factory.annotation.Autowired;
import org.springframework.web.bind.annotation.*;
import java.util.List;
/**
* @author GXM
* @version 1.0.0
* @Description TODO
* @createTime 2022年06月21日
*/
@RestController
@RequestMapping("/order")
public class OrderController {
private final OrderService orderService;
private final OrderItemService orderItemService;
@Autowired
public OrderController(OrderService orderService, OrderItemService orderItemService) {
this.orderService = orderService;
this.orderItemService = orderItemService;
}
@GetMapping("/{id}")
public Order getById(@PathVariable String id) {
return this.orderService.getById(id);
}
@GetMapping("list")
public List<Order> list() {
return this.orderService.list();
}
/**
* 越获取偏移量位置靠后数据,使用 LIMIT 分页方式的效率就越低,
* 这里有解决方案(有很多方法可以避免使用 LIMIT 进行分页)
* 1、比如构建行记录数量与行偏移量的二级索引
* 2、或使用上次分页数据结尾 ID 作为下次查询条件的分页方式等(得禁止跳页查询)
* <p>
* 分页就很难受了,比如你现在分了两个数据库,每一个数据库分为3张表,相当于 一个t_order表,被分成6张表,而
* 如果此时你分页查询 第3页的100条数据(page=3,limit=100),其实相当于会查6张表的 3*100的数据,然后综合起来后,在分页取100条。
* 所以你约到后面查询越慢
* <p>
* 注意,shardingSphere 在5.0.0版本之后,开启内存存限制模式 和连接限制模式 ,我们只需要配置 maxConnectionSizePerQuery ,会根据
* 公式来计算,使用内存限制模式还是使用链接限制模式
* 但shardingSphere 会进行一部分的处理 【以结果集游标下移进行结果归并的方式,称之为流式归并,它无需将结果数据全数加载至内存】
*
* @param page page
* @param limit limit
* @return pojo
*/
@GetMapping("page")
public List<Order> page(@RequestParam("page") Integer page, @RequestParam("limit") Integer limit) {
Page<Order> orderPage = this.orderService.page(new Page<>(page, limit));
return orderPage.getRecords();
}
@GetMapping("/count")
public Integer count() {
return this.orderService.count();
}
@GetMapping("/mock")
public String mock() {
for (int i = 0; i < 12; i++) {
final Order order = new Order();
order.setUserId((long) i);
order.setOrderName(RandomUtil.randomString(20));
this.orderService.save(order);
}
return "SUCCESS";
}
/**
* order by 会存在一种情况就是补列的情况
* 可以参考官方文档 https://shardingsphere.apache.org/document/5.0.0/cn/reference/sharding/rewrite/
*
* @param page page
* @param limit limit
* @return json string
*/
@GetMapping("/orderBy")
public String orderBy(@RequestParam(value = "page", required = false) Integer page,
@RequestParam(value = "limit", required = false) Integer limit) {
LambdaQueryWrapper<Order> lambdaQueryWrapper = new LambdaQueryWrapper<>();
// 比如我这里只是查询 order_name列,但是因为你排序用到的是OrderId,而且最后要合并6张表的数据,再根据order_id排序,所以,
// 即使你没有说查询这个列,sharding-sphere 也会加上这个字段的。 如下
// SELECT
// order_name
// , order_id AS ORDER_BY_DERIVED_0 FROM t_order0
//
// ORDER BY order_id ASC LIMIT ?,? ::: [0, 12]
lambdaQueryWrapper.select(Order::getOrderName);
lambdaQueryWrapper.orderByAsc(Order::getId);
if (page == null || limit == null) {
return JSONUtil.toJsonStr(this.orderService.list(lambdaQueryWrapper));
}
return JSONUtil.toJsonStr(this.orderService.page(new Page<>(page, limit), lambdaQueryWrapper));
}
public String testXA() {
// xas
// XAShardingSphereTransactionManager
return "ok";
}
/**
* 测试加解密字段
*
* @return
*/
public String testCipher() {
return "ok";
}
/**
* 测试绑定表 使用 t_order 和 t_order_item
* 绑定表之间的多表关联查询不会出现笛卡尔积关联,关联查询效率将大大提升
*
* @return
*/
@GetMapping("/bindTable/mock")
public String mockWithBindTable() {
for (int i = 0; i < 1; i++) {
// 1、插入order 表
Order orderMock = new Order();
// 这个order id 不用我们设置,我们在shardingSphere 时设置了该表的主键使用 shardingSphere 内置的雪花算法
// orderMock.setOrderId();
orderMock.setUserId((long) i);
orderMock.setOrderName(RandomUtil.randomString(20));
orderService.save(orderMock);
// orderService.selfInsert(orderMock);
// 2、插入t_order_item 表
OrderItem orderItemMock = new OrderItem();
// id 也不需要我们设置,我们在shardingSphere 时设置了该表的主键使用 shardingSphere 内置的雪花算法
// orderItemMock.setItemId();
orderItemMock.setOrderId(orderMock.getId());
orderItemMock.setName(RandomUtil.randomString(20));
orderItemService.save(orderItemMock);
}
return "ok";
}
/**
* 关联查询order 和order_item
*
* @param orderId
* @return
*/
@GetMapping("bindTable/{orderId}")
public OrderDTO bindTableByOrderId(@PathVariable("orderId") Long orderId) {
OrderDTO orderDTO = orderService.bindTableByOrderId(orderId);
return orderDTO;
}
/**
* 【此时因为我们配置了绑定表,是不会出现笛卡儿积的】
*
* @param orderId
* @return
*/
@GetMapping("bindTableWithIn/{orderId}")
public OrderDTO bindTableByOrderIdWithIn(@PathVariable("orderId") Long orderId) {
List<OrderDTO> orderDTOS = orderService.bindTableByOrderIdWithIn(orderId);
return orderDTOS.get(0);
}
}
4.3、测试分析
4.3.1、/bindTable/mock 接口
1、调用/bindTable/mock
接口
2、控制台日志如下
3、数据库数据
4.3.2、bindTable/{orderId} 接口(使用==)
1、根据前面mock生成的order_id
请求,获取详情
2、控制台日志
4.3.3、bindTableWithIn/{orderId} 接口(使用in)
1、根据前面mock生成的order_id
请求,获取详情
2、控制台日志
4.3.3、orderBy 接口
1、我们先调用一下mock接口,生成对应的12条数据,再根据id排序查询
2、控制台日志如下
五、使用案例–广播表(bindTable)
5.1、数据库格式
1、数据库创建,业务表t_user
,分别分布于2个数据库中,并且数据结构都一样,并且不分表
广播表的定义前面已经说过了,就是每一个分库都有,但是不分表。
2、数据脚本
注意其中的相关主键id都是不设置自增的,并且类型是bigInt,因为后面使用
shardingsphere
的内置分布式id生成的值会很大。
CREATE TABLE `t_user` (
`id` bigint NOT NULL,
`name` varchar(255) COLLATE utf8mb4_general_ci DEFAULT NULL,
`sex` varchar(255) COLLATE utf8mb4_general_ci DEFAULT NULL,
PRIMARY KEY (`id`)
) ENGINE=InnoDB DEFAULT CHARSET=utf8mb4 COLLATE=utf8mb4_general_ci;
5.2、项目代码
1、application.yml
配置如下,可以看到,我们不需要为这个广播表配置分库和分表二点规则,因为,默认就是两个数据库的表数据都是一样的,唯一一点要注意的是这个主键id还是需要让shardingSphere
来产生
spring:
sharding-sphere: # mode.type 默认是内存模式启动
props:
# 展示sql
sql-show: true
datasource:
ds0:
driver-class-name: com.mysql.cj.jdbc.Driver
jdbc-url: jdbc:mysql://localhost:3306/shardingsphere0?useUnicode=true&characterEncoding=utf-8&useSSL=false&serverTimezone=GMT&allowPublicKeyRetrieval=true
password: 123456
type: com.zaxxer.hikari.HikariDataSource
username: root
ds1:
driver-class-name: com.mysql.cj.jdbc.Driver
jdbc-url: jdbc:mysql://localhost:3306/shardingsphere1?useUnicode=true&characterEncoding=utf-8&useSSL=false&serverTimezone=GMT&allowPublicKeyRetrieval=true
password: 123456
type: com.zaxxer.hikari.HikariDataSource
username: root
names: ds0,ds1
rules:
sharding:
tables:
t_user: # 广播表不会对数据进行分片,所以配置分库,分表规则是不会生效的
key-generate-strategy:
column: id
keyGeneratorName: t-user-snowflake
key-generators:
t-user-snowflake:
type: snowflake
props:
worker-id: 1
broadcast-tables:
- t_user # 【指所有的分片数据源中都存在的表】,表结构及其数据在每个数据库中均完全一致。 适用于数据量不大且需要与海量数据的表进行关联查询的场景,例如:字典表。
server:
port: 8123
mybatis-plus:
configuration:
cache-enabled: false
log-impl: org.apache.ibatis.logging.stdout.StdOutImpl
map-underscore-to-camel-case: true
mapper-locations: classpath:mapper/*.xml
type-aliases-package: cn.gxm.shardingspheretest.model
2、model 代码
package cn.gxm.shardingspheretest.model;
import com.baomidou.mybatisplus.annotation.TableField;
import com.baomidou.mybatisplus.annotation.TableId;
import com.baomidou.mybatisplus.annotation.TableName;
import com.baomidou.mybatisplus.extension.activerecord.Model;
import lombok.AllArgsConstructor;
import lombok.Data;
import lombok.NoArgsConstructor;
/**
* @author GXM
* @version 1.0.0
* @Description 用户表(当作广播表使用)
* @createTime 2022年06月24日
*/
@TableName("t_user")
@Data
@AllArgsConstructor
@NoArgsConstructor
public class User extends Model<User> {
/**
* 1、这里必须要使用Long,不能使用int 或者integer 因为
* 使用shardSphere 的雪花算法生成的数值很大,已经超过了
* Integer.MAX_VALUE(),只能使用Long来存储,而且数据库中也必须是bigint
* 当然如果你选择使用字符串的类型,那这里就不没有那么多事情了
* <p>
* 注意这里的 type是默认值IdType.NONE,不要设置,NONE就是【用户输入ID 该类型可以通过自己注册自动填充插件进行填充】
*/
@TableId(value = "id")
private Long id;
@TableField("name")
private String name;
@TableField("sex")
private String sex;
}
3、mapper和service就省略了,和平常配置的mybatis plus 差不多,
4、增加一个controller,来测试一下
package cn.gxm.shardingspheretest.controller;
import cn.gxm.shardingspheretest.model.User;
import cn.gxm.shardingspheretest.service.UserService;
import cn.hutool.core.util.RandomUtil;
import lombok.extern.slf4j.Slf4j;
import org.springframework.beans.factory.annotation.Autowired;
import org.springframework.web.bind.annotation.GetMapping;
import org.springframework.web.bind.annotation.PathVariable;
import org.springframework.web.bind.annotation.RequestMapping;
import org.springframework.web.bind.annotation.RestController;
/**
* @author GXM
* @version 1.0.0
* @Description TODO
* @createTime 2022年06月24日
*/
@Slf4j
@RestController
@RequestMapping("/user")
public class UserController {
private final UserService userService;
@Autowired
public UserController(UserService userService) {
this.userService = userService;
}
@GetMapping("/mock")
public String mock() {
for (int i = 0; i < 100; i++) {
User user = new User();
user.setName(RandomUtil.randomString(10));
user.setSex(RandomUtil.randomString(1));
userService.save(user);
log.info("insert success");
}
return "ok";
}
@GetMapping("{userId}")
public User getById(@PathVariable("userId") Long userId) {
return userService.getById(userId);
}
@GetMapping("update/{userId}/{sex}")
public String update(@PathVariable("userId") Long userId,
@PathVariable("sex") String sex) {
User user = new User();
user.setId(userId);
user.setSex(sex);
userService.updateById(user);
return "ok";
}
}
5.3、测试分析
5.3.1、mock 接口
1、调用mock
接口
2、控制台日志如下:
3、数据库数据
5.3.1、{userId} 接口
1、调用{userId}
接口
2、控制台日志
5.3.1、update/{userId}/{sex} 接口
1、调用update/{userId}/{sex}
接口
2、控制台日志
3、数据库数据
六、使用案例–单表(singleTable)
6.1、数据库格式
1、数据库创建,业务表t_dict
,分别分布于ds0这一个个数据库中,
指所有的分片数据源中仅唯一存在的表。 适用于数据量不大且无需分片的表。
2、可以看到,只有在ds0数据库中有这一张表,ds1数据库是没有的
3、注意这里的主键id,我设置为数据库自增,因为它就是我们的一张普通的表,不参与shardingsphere的业务,所以,你平时这样的表怎么做,就这么做,即可
CREATE TABLE `t_dict` (
`id` bigint NOT NULL AUTO_INCREMENT,
`type` varchar(255) CHARACTER SET utf8mb4 COLLATE utf8mb4_general_ci DEFAULT NULL,
PRIMARY KEY (`id`) USING BTREE
) ENGINE=InnoDB DEFAULT CHARSET=utf8mb4 COLLATE=utf8mb4_general_ci ROW_FORMAT=DYNAMIC;
6.2、项目代码
1、application.yml
配置如下,其实单表在shrdingsphere
的5.0.0版本以后,都是不用做任何配置的,它会自动寻找到,那理论上来说,我直接配置ds0和ds1数据源即可,其他都不用配置了啊,但是如果你这样配置,就说明你的项目没有用到shardingsphere的任何一个功能,它就会报错,所以意思就是你用了shardingsphere就得有分库分表的表,所以,即使我这里演示用不到广播表的配置(当然这个配置你换成其他的都行,你得让shardingsphere知道你用到了某些功能),我还是配置一下,这样它启动就不会报错。
spring:
sharding-sphere: # mode.type 默认是内存模式启动
props:
# 展示sql
sql-show: true
datasource:
ds0:
driver-class-name: com.mysql.cj.jdbc.Driver
jdbc-url: jdbc:mysql://localhost:3306/shardingsphere0?useUnicode=true&characterEncoding=utf-8&useSSL=false&serverTimezone=GMT&allowPublicKeyRetrieval=true
password: 123456
type: com.zaxxer.hikari.HikariDataSource
username: root
ds1:
driver-class-name: com.mysql.cj.jdbc.Driver
jdbc-url: jdbc:mysql://localhost:3306/shardingsphere1?useUnicode=true&characterEncoding=utf-8&useSSL=false&serverTimezone=GMT&allowPublicKeyRetrieval=true
password: 123456
type: com.zaxxer.hikari.HikariDataSource
username: root
names: ds0,ds1
rules:
sharding:
tables:
t_user: # 广播表不会对数据进行分片,所以配置分库,分表规则是不会生效的
key-generate-strategy:
column: id
keyGeneratorName: t-user-snowflake
key-generators:
t-user-snowflake:
type: snowflake
props:
worker-id: 1
broadcast-tables:
- t_user # 【指所有的分片数据源中都存在的表】,表结构及其数据在每个数据库中均完全一致。 适用于数据量不大且需要与海量数据的表进行关联查询的场景,例如:字典表。
server:
port: 8123
mybatis-plus:
configuration:
cache-enabled: false
log-impl: org.apache.ibatis.logging.stdout.StdOutImpl
map-underscore-to-camel-case: true
mapper-locations: classpath:mapper/*.xml
type-aliases-package: cn.gxm.shardingspheretest.model
2、model,注意这里使用的了@TableId(value = "id", type = IdType.AUTO)
,因为这就是一个普通的业务表,主键我选择让数据库生成,shardingsphere 不参与处理
package cn.gxm.shardingspheretest.model;
import com.baomidou.mybatisplus.annotation.IdType;
import com.baomidou.mybatisplus.annotation.TableField;
import com.baomidou.mybatisplus.annotation.TableId;
import com.baomidou.mybatisplus.annotation.TableName;
import com.baomidou.mybatisplus.extension.activerecord.Model;
import lombok.AllArgsConstructor;
import lombok.Data;
import lombok.NoArgsConstructor;
/**
* @author GXM
* @version 1.0.0
* @Description TODO
* @createTime 2022年06月22日
*/
@TableName("t_dict")
@Data
@AllArgsConstructor
@NoArgsConstructor
public class Dict extends Model<Dict> {
@TableId(value = "id", type = IdType.AUTO)
private Long id;
@TableField("type")
private String type;
}
3、mapper和service就省略了,和平常配置的mybatis plus 差不多,
4、增加一个controller,来测试一下
package cn.gxm.shardingspheretest.controller;
import cn.gxm.shardingspheretest.model.Dict;
import cn.gxm.shardingspheretest.service.DictService;
import org.springframework.beans.factory.annotation.Autowired;
import org.springframework.web.bind.annotation.GetMapping;
import org.springframework.web.bind.annotation.RequestMapping;
import org.springframework.web.bind.annotation.RestController;
/**
* @author GXM
* @version 1.0.0
* @Description TODO
* @createTime 2022年06月22日
*/
@RequestMapping("/dict")
@RestController
public class DictController {
private final DictService dictService;
@Autowired
public DictController(DictService dictService) {
this.dictService = dictService;
}
/**
* 这个表只存在于 shardingsphere0 数据库
* shardSphere 5.0.0 版本不用配置 default-datasource,它会自动判断这个表在那个数据库
* 之前版本( < 5.0.0)的需要配置该参数,标识单个表的默认数据库位置
*
* @return
*/
@GetMapping("/mock")
public String mock() {
for (int i = 0; i < 100; i++) {
Dict dict = new Dict();
dict.setType(String.valueOf(i));
this.dictService.save(dict);
System.out.println();
}
return "ok";
}
}
6.3、测试
6.3.1、mock 接口测试
1、请求接口
2、控制台日志
3、数据库内容
七、使用案例–混合以上情况使用
1、yml文件如下
spring:
sharding-sphere: # mode.type 默认是内存模式启动
props:
# 展示sql
sql-show: true
datasource:
ds0:
driver-class-name: com.mysql.cj.jdbc.Driver
jdbc-url: jdbc:mysql://localhost:3306/shardingsphere0?useUnicode=true&characterEncoding=utf-8&useSSL=false&serverTimezone=GMT&allowPublicKeyRetrieval=true
password: 123456
type: com.zaxxer.hikari.HikariDataSource
username: root
ds1:
driver-class-name: com.mysql.cj.jdbc.Driver
jdbc-url: jdbc:mysql://localhost:3306/shardingsphere1?useUnicode=true&characterEncoding=utf-8&useSSL=false&serverTimezone=GMT&allowPublicKeyRetrieval=true
password: 123456
type: com.zaxxer.hikari.HikariDataSource
username: root
names: ds0,ds1
rules:
sharding:
sharding-algorithms:
t-problem-db-inline: # 名为 t-problem-db-inline 的分库策略的算法
props:
algorithm-expression: ds$->{id % 2}
type: INLINE
t-problem-table-inline: # 名为 t-problem-table-inline 的分表策略的算法
props:
algorithm-expression: t_problem$->{id % 3}
type: INLINE
t-order-db-inline:
props:
algorithm-expression: ds$->{id % 2}
type: INLINE
t-order-table-inline:
props:
algorithm-expression: t_order$->{id % 3}
type: INLINE
t-order-item-db-inline:
props:
algorithm-expression: ds$->{order_id % 2}
type: INLINE
t-order-item-table-inline:
props:
algorithm-expression: t_order_item$->{order_id % 3}
type: INLINE
tables:
t_problem:
actual-data-nodes: ds$->{0..1}.t_problem$->{0..2}
database-strategy: # 分库策略
standard: # 用于单分片键的标准分片场景,(多个列标识区分是复杂情况,将standard换成 complex(即分片列名称,多个列以逗号分隔))
sharding-algorithm-name: t-problem-db-inline # 名称,在上面使用
sharding-column: id # 那个字段传到后面算法中
table-strategy: # 分表策略
standard:
sharding-algorithm-name: t-problem-table-inline
sharding-column: id # 那个字段传到后面算法中
key-generate-strategy: # t_problem 表主键 id 生成的策略 https://blog.csdn.net/chinawangfei/article/details/114675854
column: id # t_order 表的主键id 需要使用雪花算法
keyGeneratorName: t-problem-snowflake # 关键这里修改后 似乎不生效,这是最离谱的,就是默认使用的是雪花算法
t_order:
actual-data-nodes: ds$->{0..1}.t_order$->{0..2}
database-strategy: # 分库策略
standard: # 用于单分片键的标准分片场景,(多个列标识区分是复杂情况,将standard换成 complex(即分片列名称,多个列以逗号分隔))
sharding-algorithm-name: t-order-db-inline # 名称,在上面使用
sharding-column: id # 那个字段传到后面算法中
table-strategy: # 分表策略
standard:
sharding-algorithm-name: t-order-table-inline
sharding-column: id # 那个字段传到后面算法中
key-generate-strategy: # t_order 表主键order_id 生成的策略 https://blog.csdn.net/chinawangfei/article/details/114675854
column: id # t_order 表的主键id 需要使用雪花算法
keyGeneratorName: t-order-snowflake # 关键这里修改后 似乎不生效,这是最离谱的,就是默认使用的是雪花算法
t_order_item:
actual-data-nodes: ds$->{0..1}.t_order_item$->{0..2}
database-strategy:
standard:
sharding-algorithm-name: t-order-item-db-inline
sharding-column: order_id
table-strategy:
standard:
sharding-algorithm-name: t-order-item-table-inline
sharding-column: order_id
key-generate-strategy:
column: id
keyGeneratorName: t-order-item-snowflake
t_user: # 广播表不会对数据进行分片,所以配置分库,分表规则是不会生效的
key-generate-strategy:
column: id
keyGeneratorName: t-user-snowflake
key-generators:
t-order-snowflake:
type: snowflake
props:
worker-id: 1
t-order-item-snowflake:
type: snowflake
props:
worker-id: 1
t-user-snowflake:
type: snowflake
props:
worker-id: 1
t-problem-snowflake:
type: snowflake
props:
worker-id: 1
binding-tables:
- t_order,t_order_item # 绑定表,可以避免在关联查询的时候形成笛卡儿积,注意绑定表之间的分库和分表算法必须保持一致,比如上面t_order和t_order_item都是使用order_id作为分库分表的基础【其中t_order在FROM的最左侧,ShardingSphere将会以它作为整个绑定表的主表。 所有路由计算将会只使用主表的策略,那么t_order_item表的分片计算将会使用t_order的条件。故绑定表之间的分区键要完全相同】
broadcast-tables:
- t_user # 【指所有的分片数据源中都存在的表】,表结构及其数据在每个数据库中均完全一致。 适用于数据量不大且需要与海量数据的表进行关联查询的场景,例如:字典表。
server:
port: 8123
mybatis-plus:
configuration:
cache-enabled: false
log-impl: org.apache.ibatis.logging.stdout.StdOutImpl
map-underscore-to-camel-case: true
mapper-locations: classpath:mapper/*.xml
type-aliases-package: cn.gxm.shardingspheretest.model
八、分页性能测试
1、测试环境是我的电脑
2、MySQL 是msi安装到我本机的,参数都为初始参数并未调优,版本 8.0.27
3、当然,为这个测试会有些片面,毕竟需要配合具体的业务,和环境,这里测试结果可以给大家作为一个基础的参考。
4、官方也有一部分的测试,大家可以看下是不是自己想要了解的性能测试案例 SYSBENCH 性能测试
8.1、数据库格式
1、模拟 1600w 的数据分布到2个库的6张表中,即 t_order
表中
2、平均每张表大约 270w
3、表格式如下
CREATE TABLE `t_order0` (
`id` bigint NOT NULL,
`user_id` bigint DEFAULT NULL,
`order_name` varchar(200) CHARACTER SET utf8mb4 COLLATE utf8mb4_general_ci DEFAULT NULL,
`create_time` datetime DEFAULT NULL,
PRIMARY KEY (`id`) USING BTREE
) ENGINE=InnoDB DEFAULT CHARSET=utf8mb4 COLLATE=utf8mb4_general_ci ROW_FORMAT=DYNAMIC;
8.2、测试
8.2.1、count 查询
1、大约1.5s
2、从日志可以看出,需要查询6张真实表
8.2.2、page 查询
1、较为前面的分页就不测试了,肯定会很快,主要测试后续的页码的速度。
8.2.2.1、page=10000,size=20
1、大约2.5s
2、控制台日志可以看出,要先查6个表的count(因为我们使用的是mybatis-plus的分页),再查具体的数据,每个库都要查询 10000*20 后,合并结果再选出20条。
8.2.2.2、page=100000,size=20
1、大约8s,可以看出到200w的时候,就开始很慢了
2、控制台日志
8.2.2.2、page=500000,size=20
1、大约14s,当前已经测试到1000w的数据位置了
2、控制台日志输出
8.3、采用其他方案分页测试
1、这里的其他方案,可以参考我转载的一篇文章 “跨库分页”的四种方案
2、采用上述文章中的 业务折衷一:禁止跳页查询
3、因为之前没有考虑到将这部分内容写出来,所以,之前的那个表插入的数据,时间字段有些随意,导致,如果按照前面模拟的数据来测试,很多时间字段是一样的,不太好看效果。所以,这里重新模拟1100w
数据,即每张表185w
数据左右
4、因为采用 业务折衷一:禁止跳页查询
这个方案,所以,就需要有一个字段标识,作为下一次查询的起点参数,我这里采用插入时间字段create_time
(模拟业务用户查询默认最新的工单在前面),所以,相关的6张表,该字段我都是加上索引的。
5、模拟业务用户查询默认最新的工单在前面
8.3.1、在当前 1100w
数据下的前面各种情况的接口返回速度如下
1、count 约 1.1s
2、page=10000,size=20 约1.54 秒
3、page=100000,size=20 约 8.7s
4、page=500000,size=20 约 12s
8.3.2、在当前 1100w
数据下采用 业务折衷一:禁止跳页查询 方式各个接口的速度
8.3.2.1、代码
1、分页对象
package cn.gxm.shardingspheretest.dto;
import com.fasterxml.jackson.annotation.JsonFormat;
import lombok.AllArgsConstructor;
import lombok.Data;
import lombok.NoArgsConstructor;
import org.springframework.format.annotation.DateTimeFormat;
import java.io.Serializable;
import java.util.Date;
/**
* @author GXM
* @version 1.0.0
* @Description 分页对象
* @createTime 2022年07月13日
*/
@Data
@AllArgsConstructor
@NoArgsConstructor
public class PageDTO implements Serializable {
/**
* 分页条数
*/
private Integer limit;
@DateTimeFormat(pattern = "yyyy-MM-dd HH:mm:ss")
private Date lastDate;
}
2、controller,这个就是我前面文章说的逻辑,用每次最后数据的时间字段作为下一次查询的条件,就🆗了,而且还是用上了索引,速度还是很快的。
@PostMapping("optimization/one")
public List<Order> pageByCreateTimeWithLastTime(@RequestBody PageDTO pageDTO) {
// 1、设置排序规则为 desc 降序
LambdaQueryWrapper<Order> lambdaQueryWrapper = new LambdaQueryWrapper<>();
lambdaQueryWrapper.orderByDesc(Order::getCreateTime);
// 2、如果不为空,则查询比上次时小的数据,比如说第一页这个字段肯定就是空的了
if (pageDTO.getLastDate() != null) {
lambdaQueryWrapper.le(Order::getCreateTime, pageDTO.getLastDate());
}
lambdaQueryWrapper.last(" limit " + pageDTO.getLimit());
// 3、注意这里不能使用mybatis plus 的page ,比如下面这样写,这样写他默认回去count一下,但是带上了你的时间字段条件,会导致总数不正确
// 所以, 可以像我代码这样写,或者,自己写一个sql 语句(select * from t_order where create_time <= '2021-07-29 22:30:29' limit 2)
// Page<Order> orderPage = this.orderService.page(new Page<>(0, pageDTO.getLimit()), lambdaQueryWrapper);
// 4、而且如果你需要知道有多少页的话,你得自己计算分页数量,并且把这个 lastDate 的条件去掉。
// 比如,现在前端查询条件是 orderName like xx,的分页返回结果,你就得这样写
// 4.1、查询总数 (select count(*) from t_order where order_name like xxx),得到结果总数/limit 就是当前这个条件下的总页数
// 4.2、查询当前的数据 (select * from t_order where order_name like xxx and create_time <= lastDate limit 2)
// 这样把4.1和4.2结果拼凑起来就可以得到一个分页结果对象了,当然前端还是要限制跳页的。
return this.orderService.list(lambdaQueryWrapper);
}
8.3.2.2、测试结果
1、count 接口,不在这个方案里面,所以跳过
2、分页的效果,因为这里没有页码的条件,随便选择一张表,最新的一条数据都是 2023-06-25 xx:xx:xx
的时候,我直接查询2021的数据,这肯定是在800w-1100w的位置,相当于分页的很后面了。
3、结果 19ms
,所以能够看出来,速度确实很快,其实这个方法都不用测试,大家稍微想一下就知道结果了。
4、控制台日志
8.4、查询/分页性能测试总结
1、测试到现在大家可能觉得很迷惑,我用分库分表不就是为了解决单个表的性能问题吗,为什么我用过了之后,反而更慢了呢,比如前面测试的 分页到200w
的时候,那么慢,我用单表估计也就那样,那分库分表的意义在哪?
2、所以这里解释一下,如果不分库分表,那么当单表1000w
或者2000w
的时候,你很难在sql的优化来提交效率了,而如果我们将1000w
和2000w
的数据分散出去,每个表100w
或者200w
,我们只需要想办法让一个sql
在那个分表中执行的速度变快,那么汇总结果也会很快,是不是优化100w
或者200w
的表的sql会更容易一些。
3、关系型数据库本身比较容易成为系统瓶颈,单机存储容量、连接数、处理能力都有限。当单表的数据量达到1000W或100G以后,由于查询维度较多,即使添加从库、优化索引,做很多操作时性能仍下降严重。同时,由于物理服务器的资源有限,数据量过大产生的慢查询,最终会拖累整个服务,整体数据处理能力都将遭遇瓶颈。此时就要考虑对其进行切分了,切分的目的就在于减少数据库的负担,缩短查询时间。
3、当然也会出现一个其他的棘手的问题,就是上面的分页,但是会有其他方案来处理,相比较优化单表2000w
的数据会容易一下。