读写分离
在上一篇文章介绍了如何使用Sharing-JDBC实现数据库的读写分离。读写分离的好处就是在并发量比较大的情况下,将查询数据库的压力
分担到多个从库中,能够满足高并发的要求。比如上一篇实现的那样,架构图如下:
数据分表
当数据量比较大的时候,比如单个表的数据量超过了500W的数据,这时可以考虑将数据存储在不同的表中。比如将user表拆分为四个表user_0、user_1、
user_2、user_3装在四个表中。此时如图所示:
案例详解
和上一篇文章使用的数据库是同一个数据库,数据库信息如下:
数据库类型 | 数据库 | IP |
主 | cool | 47.98.183.0 |
从 | cool | 101.37.175.23 |
从 | cool | 120.27.250.228 |
在主库初始化Mysql数据的脚本,初始化完后,从库也会创建这些表,脚本信息如下:
USE `cool`;
/*Table structure for table `user_0` */
DROP TABLE IF EXISTS `user_0`;
CREATE TABLE `user_0` (
`id` int(12) NOT NULL AUTO_INCREMENT,
`username` varchar(12) NOT NULL,
`password` varchar(30) NOT NULL,
PRIMARY KEY (`id`),
KEY `idx-username` (`username`)
) ENGINE=InnoDB AUTO_INCREMENT=149 DEFAULT CHARSET=utf8;
/*Table structure for table `user_1` */
DROP TABLE IF EXISTS `user_1`;
CREATE TABLE `user_1` (
`id` int(12) NOT NULL AUTO_INCREMENT,
`username` varchar(12) NOT NULL,
`password` varchar(30) NOT NULL,
PRIMARY KEY (`id`),
KEY `idx-username` (`username`)
) ENGINE=InnoDB AUTO_INCREMENT=150 DEFAULT CHARSET=utf8;
/*Table structure for table `user_2` */
DROP TABLE IF EXISTS `user_2`;
CREATE TABLE `user_2` (
`id` int(12) NOT NULL AUTO_INCREMENT,
`username` varchar(12) NOT NULL,
`password` varchar(30) NOT NULL,
PRIMARY KEY (`id`),
KEY `idx-username` (`username`)
) ENGINE=InnoDB AUTO_INCREMENT=147 DEFAULT CHARSET=utf8;
/*Table structure for table `user_3` */
DROP TABLE IF EXISTS `user_3`;
CREATE TABLE `user_3` (
`id` int(12) NOT NULL AUTO_INCREMENT,
`username` varchar(12) NOT NULL,
`password` varchar(30) NOT NULL,
PRIMARY KEY (`id`),
KEY `idx-username` (`username`)
) ENGINE=InnoDB AUTO_INCREMENT=148 DEFAULT CHARSET=utf8;
本案例还是在上一篇文章的案例基础之上进行改造,工程的目录和pom的依赖见上一篇文章或者源码。在工程的配置
文件application.yml做Sharding-JDBC的配置,代码如下:
sharding:
jdbc:
dataSource:
names: db-test0,db-test1,db-test2
# 配置主库
db-test0: #org.apache.tomcat.jdbc.pool.DataSource
type: com.alibaba.druid.pool.DruidDataSource
driverClassName: com.mysql.jdbc.Driver
url: jdbc:mysql://47.98.183.0:3306/cool?useUnicode=true&characterEncoding=utf8&tinyInt1isBit=false&useSSL=false&serverTimezone=GMT
username: root
password: Mysql@123
#最大连接数
maxPoolSize: 20
db-test1: # 配置第一个从库
type: com.alibaba.druid.pool.DruidDataSource
driverClassName: com.mysql.jdbc.Driver
url: jdbc:mysql://101.37.175.23:3306/cool?useUnicode=true&characterEncoding=UTF-8&allowMultiQueries=true&useSSL=false&serverTimezone=GMT
username: root
password: Mysql@123
#最大连接数
maxPoolSize: 20
db-test2: # 配置第二个从库
type: com.alibaba.druid.pool.DruidDataSource
driverClassName: com.mysql.jdbc.Driver
url: jdbc:mysql://120.27.250.228:3306/cool?useUnicode=true&characterEncoding=UTF-8&allowMultiQueries=true&useSSL=false&serverTimezone=GMT
username: root
password: Mysql@123
#最大连接数
maxPoolSize: 20
config:
masterslave: # 配置读写分离
load-balance-algorithm-type: round_robin # 配置从库选择策略,提供轮询与随机,这里选择用轮询//random 随机 //round_robin 轮询
name: db1s2
master-data-source-name: db-test0
slave-data-source-names: db-test1,db-test2
props:
sql: # 开启SQL显示,默认值: false,注意:仅配置读写分离时不会打印日志!!!
show: true
sharding.jdbc.config.sharding.tables.user.actual-data-nodes: ds_0.user_$->{0..3}
sharding.jdbc.config.sharding.tables.user.table-strategy.standard.sharding-column: id
sharding.jdbc.config.sharding.tables.user.table-strategy.standard.precise-algorithm-class-name: com.forezp.sharedingjdbcmasterslavetables.MyPreciseShardingAlgorithm
sharding.jdbc.config.sharding.master-slave-rules.ds_0.master-data-source-name: db-test0
sharding.jdbc.config.sharding.master-slave-rules.ds_0.slave-data-source-names: db-test1,db-test2
mybatis:
type-aliases-package: com.springjdbc.netity #扫描实体类
configLocation: classpath:mybatis/mybatis-config.xml
mapperLocations: classpath*:mapper/**/*Mapper.xml
spring:
main:
allow-bean-definition-overriding: true #当遇到同样名字的时候,是否允许覆盖注册
- 在上面的配置中,sharding.jdbc.dataSource部分是配置的数据源的信息,本案例有三个数据源db-test0、db-test1、db-test2。
- sharding.jdbc.config.sharding.master-slave-rules.ds_0.master-data-source-name配置的是主库的数据库名,本案例为db-test0,其中ds_0为分区名。
- sharding.jdbc.config.sharding.master-slave-rules.ds_0.slave-data-source-names配置的是从库的数据库名,本案例为db-test1、db-test2。
- sharding.jdbc.config.sharding.tables.user.actual-data-nodes配置的分表信息,真实的数据库信息。ds_0.user_$->{0…3},表示读取ds_0数据源的user_0、user_1、user_2、user_3。
- sharding.jdbc.config.sharding.tables.user.table-strategy.standard.sharding-column配置的数据分表的字段,是根据id来分的。
- sharding.jdbc.config.sharding.tables.user.table-strategy.standard.precise-algorithm-class-name是配置数据分表的策略的类,这里是自定义的类MyPreciseShardingAlgorithm。
MyPreciseShardingAlgorithm是根据id取模4来获取表名的,代码如下:
public class MyPreciseShardingAlgorithm implements PreciseShardingAlgorithm<Integer> {
@Override
public String doSharding(Collection<String> availableTargetNames, PreciseShardingValue<Integer> shardingValue) {
for (String tableName : availableTargetNames) {
if (tableName.endsWith(shardingValue.getValue() % 4 + "")) {
return tableName;
}
}
throw new IllegalArgumentException();
}
}
测试
写一个API来测试,代码如下:
/**
* 批量添加
*
* @return
*/
@GetMapping("/user/batchAdd")
public Object add() {
for (int i = 0; i < 50; i++) {
User user = new User("batchName" + i, "12345" + i);
userService.insertUser(user);
}
return "ok";
}
启动Spring Boot工程,执行http://127.0.0.1:8080/user/batchAdd,然后去数据库中查询,可以看到user_0、user_1、user_2、user_3分别插入了数据。
然后访问http://127.0.0.1:8080/user/find,可以查询数据库中四个表中的所有数据。可见Sharding-JDBC在插入数据的时候,根据数据分表策略,将数据存储在
不同的表中,查询的时候将数据库从多个表中查询并聚合。
来源:oschina
链接:https://my.oschina.net/u/1046143/blog/3216532