mycat分片join

全局表

如果你的业务中有些数据类似于数据字典,比如配置文件的配置,常用业务的配置或者数据量不大很少变动的表,这些表往往不是特别大,而且大部分的业务场景都会用到,那么这种表适合于 Mycat 全局表,无须对数据进行切分,只要在所有的分片上保存一份数据即可,Mycat 在 Join 操作中,业务表与全局表进行 Join 聚合会优先选择相同分片内的全局表 join,避免跨库 Join,在进行数据插入操作时,mycat 将把数据分发到全局表对应的所有分片执行,在进行数据读取时候将会随机获取一个节点读取数据

server.xml

<system>
	<!-- 1为开启全局表一致性检测、0为关闭 -->
	<property name="useGlobleTableCheck">1</property>  
</system>

schema.xml

<!--user 是mycat的逻辑库,t_user是逻辑表-->
	<schema name="user" checkSQLschema="false" sqlMaxLimit="100">
		<table name="t_user" primaryKey="id" dataNode="dn1,dn2,dn3" autoIncrement="true" rule="mod-long" />
		<!--t_role是全局表-->
		<table name="t_role" primaryKey="id" dataNode="dn1,dn2,dn3" autoIncrement="true" type="global" rule="mod-long" />
	</schema>
	

在这里插入图片描述
insert into t_role (id,role) VALUES (next value for MYCATSEQ_GLOBAL,‘admin’)
执行插入语句发现所有库的t_role表都增加了一条数据

ER分片表

有一类业务,例如订单(order)跟订单明细(order_detail),明细表会依赖于订单,也就是说会存在表的主从关系,这类似业务的切分可以抽象出合适的切分规则,比如根据用户 ID 切分,其他相关的表都依赖于用户 ID,再或者根据订单 ID 切分,总之部分业务总会可以抽象出父子关系的表。这类表适用于 ER 分片表,子表的记录与所关联的父表记录存放在同一个数据分片上,避免数据 Join 跨库操作

server.xml

<table name="t_order" primaryKey="id" dataNode="dn1,dn2,dn3" rule="mod-long" >
		<childTable name="t_order_item" primaryKey="id" joinKey="order_id" parentKey="id" >
		</childTable>
</table>

表结构
在这里插入图片描述
在这里插入图片描述
先执行插入订单
insert into t_order (id,name) VALUES (next value for MYCATSEQ_GLOBAL,‘order1’) #id此时生成的是10012再执行插入订单item

insert into t_order_item (id,order_id,name) VALUES (next value for MYCATSEQ_GLOBAL,10012,‘order1-item1’)

insert into t_order_item (id,order_id,name) VALUES (next value for MYCATSEQ_GLOBAL,10012,‘order1-item2’)

会发现订单和订单item在同一个库,可以加快join

share join

如果不做任何join处理的话,mycat不支持跨库关联查询,我们可以使用sharejoin支持这点,但是sharejoin只支持两张分片表的join

/*!mycat:catlet=io.mycat.catlets.ShareJoin*/select u.id as user_id,u.name as username,a.id as add_id,a.province from t_user u, t_address a where u.id = a.user_id;

在这里插入图片描述schema.xml
t_address的rule是province_rule这个不用管,这个我下面会按照省份去分片

<!--user 是mycat的逻辑库,t_user是逻辑表-->
	<schema name="user" checkSQLschema="false" sqlMaxLimit="100">
		<table name="t_user" primaryKey="id" dataNode="dn1,dn2,dn3" autoIncrement="true" rule="mod-long" />
		 <table name="t_address"  primaryKey="id" dataNode="dn1,dn2,dn3" autoIncrement="true" rule="province_rule" /> 
	</schema>

按照省份分片

表是t_address,结构上面图片有
在这里插入图片描述partition-hash-int.txt

bj=0
sh=1
gz=2

rule.xml

	<tableRule name="province_rule">
             <rule>
                  <columns>name</columns>
                  <algorithm>hash-int</algorithm>
              </rule>
    </tableRule>
	
	<function name="hash-int" class="io.mycat.route.function.PartitionByFileMap">
		<property name="mapFile">partition-hash-int.txt</property>
		<!--0表示partition-hash-int.txt配置的=的左边是Integer,非0表示是string-->
		<property name="type">1</property>
		<!--默认节点设置为bj,也就是说如果你insert的省份不是bj,sh,gz之一,默认插入到bj库(user1)-->
		<property name="defaultNode">0</property>
	</function>

schema.xml

<table name="t_address"  primaryKey="id" dataNode="dn1,dn2,dn3" autoIncrement="true" rule="province_rule" /> 

执行sql测试:

insert into t_address (id,province,user_id) VALUES (next value for MYCATSEQ_GLOBAL,'bj',1)
insert into t_address (id,province,user_id) VALUES (next value for MYCATSEQ_GLOBAL,'sh',1)
insert into t_address (id,province,user_id) VALUES (next value for MYCATSEQ_GLOBAL,'gz',1)
insert into t_address (id,province,user_id) VALUES (next value for MYCATSEQ_GLOBAL,'bsj',1)

结果符合预期

固定分片hash

本条规则类似于十进制的求模运算,区别在于是二进制的操作,是取 id 的二进制低 10 位,即 id 二进制&1111111111。此算法的优点在于如果按照 10 进制取模运算,在连续插入 1-10 时候 1-10 会被分到 1-10 个分片,增大了插入的事务控制难度,而此算法根据二进制则可能会分到连续的分片,减少插入事务事务控制难度。

我们先创建一张表用来测试固定分区hash

注意注解里sql不要写select啊,因为如果开启了读写分离的话,那么走的就是从库,那么每次建表都是建到从库里,主库没有

/*!mycat:sql=update t_user set name = 'dsds' */create table fixed_hash(id int,name varchar(32));

rule.xml

	<tableRule name="partition-by-fixed-hash">
        <rule>
                <columns>id</columns>
                <algorithm>partition-by-fixed-hash</algorithm>
        </rule>
	</tableRule>
 
	<function name="partition-by-fixed-hash" class="io.mycat.route.function.PartitionByLong">
        <property name="partitionCount">2,1</property>
        <property name="partitionLength">256,512</property>
	</function>

在这里插入图片描述
如图:mycat最支持最大分区1024:本例即0-255落到dn1,256-511落到dn2,512-1023落到dn3

schema.xml

<table name="fixed_hash"  primaryKey="id" dataNode="dn1,dn2,dn3" autoIncrement="true" rule="partition-by-fixed-hash" /> 

执行insert测试:
insert into fixed_hash (id,name) VALUES (1,database())
insert into fixed_hash (id,name) VALUES (next value for MYCATSEQ_GLOBAL,database())
insert into fixed_hash (id,name) VALUES (next value for MYCATSEQ_GLOBAL,database())
结果如下:
在这里插入图片描述1&(0b1111111111) = 1,落在dn1
10026&(0b1111111111)=810,落在dn3

一致性hash

一致性 hash 有效解决了分布式数据的扩容问题。
rule.xml

	<tableRule name="sharding-by-murmur">
		<rule>
			<columns>id</columns>
			<algorithm>murmur</algorithm>
		</rule>
	</tableRule>
	
	<function name="murmur"
			  class="io.mycat.route.function.PartitionByMurmurHash">
		<property name="seed">0</property><!-- 默认是0 -->
		<property name="count">3</property><!-- 要分片的数据库节点数量,必须指定,否则没法分片 -->
		<property name="virtualBucketTimes">160</property><!-- 一个实际的数据库节点被映射为这么多虚拟节点,默认是160倍,也就是虚拟节点数是物理节点数的160倍 -->
		<!-- <property name="weightMapFile">weightMapFile</property> 节点的权重,没有指定权重的节点默认是1。以properties文件的格式填写,以从0开始到count-1的整数值也就是节点索引为key,以节点权重值为值。所有权重值必须是正整数,否则以1代替 -->
		<!-- <property name="bucketMapPath">/etc/mycat/bucketMapPath</property>
			用于测试时观察各物理节点与虚拟节点的分布情况,如果指定了这个属性,会把虚拟节点的murmur hash值与物理节点的映射按行输出到这个文件,没有默认值,如果不指定,就不会输出任何东西 -->
	</function>

shcemea.xml

<table name="t_murmur"  primaryKey="id" dataNode="dn1,dn2,dn3" autoIncrement="true" rule="sharding-by-murmur" /> 

完整schema.xml


	<?xml version="1.0"?>
<!DOCTYPE mycat:schema SYSTEM "schema.dtd">
<mycat:schema xmlns:mycat="http://io.mycat/">

	
	<!--user 是mycat的逻辑库,t_user是逻辑表-->
	<schema name="user" checkSQLschema="false" sqlMaxLimit="100">
		<table name="t_user" primaryKey="id" dataNode="dn1,dn2,dn3" autoIncrement="true" rule="mod-long" />
		
		<table name="t_role" primaryKey="id" dataNode="dn1,dn2,dn3" autoIncrement="true" type="global" rule="mod-long" />
		
		<table name="t_order" primaryKey="id" dataNode="dn1,dn2,dn3" rule="mod-long" >
			
			<childTable name="t_order_item" primaryKey="id" joinKey="order_id" parentKey="id" >
			</childTable>
 
		</table>
		
		 <table name="t_address"  primaryKey="id" dataNode="dn1,dn2,dn3" autoIncrement="true" rule="province_rule" /> 
		
		<table name="fixed_hash"  primaryKey="id" dataNode="dn1,dn2,dn3" autoIncrement="true" rule="partition-by-fixed-hash" /> 
		
		<table name="t_murmur"  primaryKey="id" dataNode="dn1,dn2,dn3" autoIncrement="true" rule="sharding-by-murmur" /> 
	</schema>
	

	<dataNode name="dn1" dataHost="localhost1" database="user1" />
	<dataNode name="dn2" dataHost="localhost1" database="user2" />
	<dataNode name="dn3" dataHost="localhost1" database="user3" />
	
	<dataHost name="localhost1" 
			  maxCon="1000" 
			  minCon="10" 
			  balance="1"
			  writeType="0" 
			  dbType="mysql" 
			  dbDriver="native" 
			  switchType="1"  
			  slaveThreshold="100">
		<heartbeat>select user()</heartbeat>
		
		<writeHost host="hostMadmin" url="192.168.131.101:3306" user="root" password="root">
			<readHost host="hostSadmin" url="192.168.131.102:3306" user="root" password="root" />
		</writeHost>
	</dataHost>
	
</mycat:schema>

完整server.xml

<?xml version="1.0" encoding="UTF-8"?>
<!-- - - Licensed under the Apache License, Version 2.0 (the "License"); 
	- you may not use this file except in compliance with the License. - You 
	may obtain a copy of the License at - - http://www.apache.org/licenses/LICENSE-2.0 
	- - Unless required by applicable law or agreed to in writing, software - 
	distributed under the License is distributed on an "AS IS" BASIS, - WITHOUT 
	WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. - See the 
	License for the specific language governing permissions and - limitations 
	under the License. -->
<!DOCTYPE mycat:server SYSTEM "server.dtd">
<mycat:server xmlns:mycat="http://io.mycat/">
	<system>
	<property name="nonePasswordLogin">0</property> <!-- 0为需要密码登陆、1为不需要密码登陆 ,默认为0,设置为1则需要指定默认账户-->
	<property name="useHandshakeV10">1</property>
	<property name="useSqlStat">0</property>  <!-- 1为开启实时统计、0为关闭 -->
	<property name="useGlobleTableCheck">1</property>  <!-- 1为开启全局表一致性检测、0为关闭 -->

	<property name="sequnceHandlerType">0</property>
	<property name="subqueryRelationshipCheck">false</property> <!-- 子查询中存在关联查询的情况下,检查关联字段中是否有分片字段 .默认 false -->
      <!--  <property name="useCompression">1</property>--> <!--1为开启mysql压缩协议-->
        <!--  <property name="fakeMySQLVersion">5.6.20</property>--> <!--设置模拟的MySQL版本号-->
	<!-- <property name="processorBufferChunk">40960</property> -->
	<!-- 
	<property name="processors">1</property> 
	<property name="processorExecutor">32</property> 
	 -->
        <!--默认为type 0: DirectByteBufferPool | type 1 ByteBufferArena | type 2 NettyBufferPool -->
		<property name="processorBufferPoolType">0</property>
		<!--默认是65535 64K 用于sql解析时最大文本长度 -->
		<!--<property name="maxStringLiteralLength">65535</property>-->
		<!--<property name="sequnceHandlerType">0</property>-->
		<!--<property name="backSocketNoDelay">1</property>-->
		<!--<property name="frontSocketNoDelay">1</property>-->
		<!--<property name="processorExecutor">16</property>-->
		<!--
			<property name="serverPort">8066</property> <property name="managerPort">9066</property> 
			<property name="idleTimeout">300000</property> <property name="bindIp">0.0.0.0</property> 
			<property name="frontWriteQueueSize">4096</property> <property name="processors">32</property> -->
		<!--分布式事务开关,0为不过滤分布式事务,1为过滤分布式事务(如果分布式事务内只涉及全局表,则不过滤),2为不过滤分布式事务,但是记录分布式事务日志-->
		<property name="handleDistributedTransactions">0</property>
		
			<!--
			off heap for merge/order/group/limit      1开启   0关闭
		-->
		<property name="useOffHeapForMerge">1</property>

		<!--
			单位为m
		-->
        <property name="memoryPageSize">64k</property>

		<!--
			单位为k
		-->
		<property name="spillsFileBufferSize">1k</property>

		<property name="useStreamOutput">0</property>

		<!--
			单位为m
		-->
		<property name="systemReserveMemorySize">384m</property>


		<!--是否采用zookeeper协调切换  -->
		<property name="useZKSwitch">false</property>

		<!-- XA Recovery Log日志路径 -->
		<!--<property name="XARecoveryLogBaseDir">./</property>-->

		<!-- XA Recovery Log日志名称 -->
		<!--<property name="XARecoveryLogBaseName">tmlog</property>-->
		<!--如果为 true的话 严格遵守隔离级别,不会在仅仅只有select语句的时候在事务中切换连接-->
		<property name="strictTxIsolation">false</property>
		
		<property name="useZKSwitch">true</property>
		
	</system>
	
	<!-- 全局SQL防火墙设置 -->
	<!--白名单可以使用通配符%或着*-->
	<!--例如<host host="127.0.0.*" user="root"/>-->
	<!--例如<host host="127.0.*" user="root"/>-->
	<!--例如<host host="127.*" user="root"/>-->
	<!--例如<host host="1*7.*" user="root"/>-->
	<!--这些配置情况下对于127.0.0.1都能以root账户登录-->
	<!--
	<firewall>
	   <whitehost>
	      <host host="1*7.0.0.*" user="root"/>
	   </whitehost>
       <blacklist check="false">
       </blacklist>
	</firewall>
	-->

	<user name="root" defaultAccount="true">
		<property name="password">root</property>
		<property name="schemas">user</property>
		
		<!-- 表级 DML 权限设置 -->
		<!-- 		
		<privileges check="false">
			<schema name="TESTDB" dml="0110" >
				<table name="tb01" dml="0000"></table>
				<table name="tb02" dml="1111"></table>
			</schema>
		</privileges>		
		 -->
	</user>

	<user name="user">
		<property name="password">user</property>
		<property name="schemas">user</property>
		<property name="readOnly">true</property>
	</user>

</mycat:server>

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
分片和单join是数据库中常见的操作。首先,让我们来了解一下这两个概念。 分片是指将一个的数据划分成多个分片(或者称为分区),每个分片可以存储在不同的物理节点上。这样做的目的是为了提高数据库的性能和扩展性。每个分片都包含了整个的一部分数据,通常是根据某个列或者规则进行划分。 单join是指在查询中将两个或多个通过某个共同的字段进行连接,得到一个结果集。这样可以通过连接字段将不同中的相关数据合并在一起,使得查询结果更加丰富和完整。 当分片和单join同时存在时,需要注意以下几点: 1. 数据分布:由于分片的数据被划分到不同的节点上,可能需要跨节点进行join操作。这会导致网络开销和性能下降。因此,在设计分片方案时需要考虑数据的分布情况,尽量减少跨节点join的次数。 2. 查询优化:由于join操作可能涉及多个节点,需要进行全局查询优化。可以通过数据预先分片、索引优化、缓存等手段来提高查询性能。 3. 数据一致性:分片的数据可能有延迟复制或者异步同步,这会导致数据的一致性问题。在进行join操作时,需要注意数据是否已经同步到了目标节点,以避免脏读或不一致的结果。 总之,分片和单join是数据库中常见的操作,但由于其涉及到跨节点的数据访问和一致性问题,需要在设计和执行阶段有针对性地进行优化和处理。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值