本文为掘金社区首发签约文章,14天内禁止转载,14天后未获授权禁止转载,侵权必究!

上篇 《分库分表的正确姿势》 中已经将分库分表的方法论全面阐述清楚了,总体看下来用一个字形容,那就是爽!尤其是分库分表技术能够让数据存储层真正成为三高架构,但前面爽是爽了,接着一起来看看分库分表后产生一系列的后患问题,注意我这里的用词,是一系列而不是几个,也就是分库分表虽然好,但你要解决的问题是海量的。

一、垂直分表后带来的隐患

垂直分表后当试图读取一条完整数据时,需要连接多个表来获取,对于这个问题只要在切分时,设置好映射的外键字段即可。当增、删、改数据时,往往需要同时操作多张表,并且要保证操作的原子性,也就是得手动开启事务来保证,否则会出现数据不一致的问题。

这里可以看到,垂直分表虽然会有后患问题,但带来的问题本质上也不算大问题,就是读写数据的操作会相对麻烦一些,下面来看看其他的分库分表方案,接下来是真正的重头戏。

二、水平分表后带来的问题

水平分表就是将一张大表的数据,按照一定的规则划分成不同的小表,当原本的一张表变为多张表时,虽然提升了性能,但问题随之也来了~

2.1、多表联查问题(Join)

之前在库中只存在一张表,所以非常轻松的就能进行联表查询获取数据,但是此时做了水平分表后,同一张业务的表存在多张小表,这时再去连表查询时具体该连接哪张呢?似乎这时问题就变的麻烦起来了,怎么办?解决方案如下:

  • ①如果分表数量是固定的,直接对所有表进行连接查询,但这样性能开销较大,还不如不分表。
  • ②如果不想用①,或分表数量会随时间不断变多,那就先根据分表规则,去确定要连接哪张表后再查询。
  • ③如果每次连表查询只需要从中获取 1~3 个字段,就直接在另一张表中设计冗余字段,避免连表查询。
  • 第一条好理解,第二条是啥意思呢?好比现在是按月份来分表,那在连表查询前,就先确定要连接哪几张月份的表,才能得到自己所需的数据,确定了之后再去查询对应表即可,这里该如何落地实现呢?大家别急,会在后续的《库内分表篇》去详细讲解。

    2.2、增删改数据的问题

    当想要增加、删除、修改一条数据时,因为存在多张表,所以又该去哪张表中操作呢?这里还是前面那个问题,只要在操作前确定好具体的表即可。但还有一种情况,就是批量变更数据时,也会存在问题,要批量修改的数据该具体操作哪几张分表呢?依旧需要先定位到具体分表才行。

    2.3、聚合操作的问题

    之前因为只有一张表,所以进行 sum()、count()....、order by、gorup by.... 等各类聚合操作时,可以直接基于单表完成,但此刻似乎行不通了呀?对于这类聚合操作的解决方案如下:

  • ①放入第三方中间件中,然后依赖于第三方中间件完成,如 ES
  • ②定期跑脚本查询出一些常用的聚合数据,然后放入 Redis 缓存中,后续从 Redis 中获取。
  • ③首先从所有表中统计出各自的数据,然后在 Java 中作聚合操作。
  • 前面两种操作比较好理解,第三种方案是什么意思呢?比如 count() 函数,就是对所有表进行统计查询,最后在 Java 中求和,好比分组、排序等工作,先从所有表查询出符合条件的数据,然后在 Java 中通过 Stream 流进行处理。

    上述这三种方案都是比较合理且常规的方案,最好是选择第一种,这也是一些大企业选用的方案。

    到这里就大致聊清楚了单库中分表的一些主要问题,一般情况下库内无需做分表,只有一些特殊场景下需要做,具体的会在后续《库内分表篇》讲解,下面聊聊分库问题,分库带来的问题更多更复杂。

    三、垂直分库后产生的问题

    垂直分库是按照业务属性的不同,直接将一个综合大库拆分成多个功能单一的独享库,分库之后能够让性能提升 N 倍,但随之而来的是需要解决更多的问题,而且问题会比单库分表更复杂!

    3.1、跨库Join问题

    因为将不同业务的表拆分到了不同的库中,而往往有些情况下可能会需要其他业务的表数据,在单库时直接 join 连表查询相应字段数据即可,但此时已经将不同的业务表放到不同库了,这时咋办?跨库 Join 也不太现实呀,此时有如下几种解决方案:

  • ①在不同的库需要数据的表中冗余字段,把常用的字段放到需要要数据的表中,避免跨库连表。
  • ②选择同步数据,通过广播表/网络表/全局表将对应的表数据直接完全同步一份到相应库中。
  • ③在设计库表拆分时创建 ER 绑定表,具备主外键的表放在一个库,保证数据落到同一数据库。
  • Java 系统中组装数据,通过调用对方服务接口的形式获取数据,然后在程序中组装后返回。
  • 这四种方案都能够解决需要跨库 Join 的问题,但第二、三种方案提到了广播表/网络表/全局表、 ER 绑定表似乎之前没听说过对嘛?这其实是分库分表中的一些表名词,后续《分库分表实践篇》具体落地时会详细讲解。但往往垂直分库的场景中,第四种方案是最常用的,因为分库分表的项目中, Java 业务系统那边也绝对采用了分布式架构,因此通过调用对端 API 接口来获取数据,是分布式系统最为常见的一种现象。

    3.2、分布式事务问题

    分布式事务应该是分布式系统中最核心的一个问题,这个问题绝对不能出现,一般都要求零容忍,也就是所有分布式系统都必须要解决分布式事务问题,否则就有可能造成数据不一致性。

    在之前单机的 MySQL 中,数据库自身提供了完善的事务管理机制,通过 begin、commit/rollback 的命令可以灵活的控制事务的提交和回滚,在 Spring 要对一组 SQL 操作使用事务时,也只需在对应的业务方法上加一个 @Transactional 注解即可,但这种情况在分布式系统中就不行了。

    为什么说 MySQL 的事务机制会在分布式系统下失效呢?因为 InnoDB 的事务机制是建立在 Undo-log 日志的基础上完成的,以前只有一个 Undo-log 日志,所以一个事务的所有变更前的数据,都可以记录在同一个 Undo-log 日志中,当需要回滚时就直接用 Undo-log 中的旧数据覆盖变更过的新数据即可。

    但垂直分库之后,会存在多个 MySQL 节点,这自然也就会存在多个 Undo-log 日志,不同库的变更操作会记录在各自的 Undo-log 日志中,当某个操作执行失败需要回滚时,仅能够回滚自身库变更过的数据,对于其他库的事务回滚权,当前节点是不具备该能力的,所以此时就必须要出现一个事务管理者来介入,从而解决分布式事务问题。

    上述提到的通过第三方:事务管理者来介入,这只属于分布式事务问题的一种解决方案,解决方案如下:

  • Best Efforts 1PC 模式。
  • XA 2PC、3PC 模式。
  • TTC 事务补偿模式。
  • MQ 最终一致性事务模式。
  • 上述是解决分布式事务问题的四种思想,目前最常用的 Seata 的两种模式就是基于 XA-3PC TCC 思想实现的,但对于这些具体的讲解,会放到后面的《分布式事务篇》中讲解,这里了解即可。

    3.3、部分业务库依旧存在性能瓶颈问题

    这种情况前面说到过,经过垂直分库之后,某些核心业务库依旧需要承载过高的并发流量,因此一单节点模式部署,依然无法解决所存在的性能瓶颈,对于这种情况直接再做水平分库即可,具体过程请参考阶段二。

    四、水平分库后需要解决的问题

    水平分库这种方案,能够建立在垂直分库的基础上,进一步对存储层做拓展,能够让某些业务库具备更高的并发处理能力,不过水平分库虽然带来的性能收益巨大,但产生的问题也最多!

    4.1、聚合操作和连表问题

    对单个业务库做了水平分库后,也就是又对单个业务库做了横向拓展后,一般都会将库中所有的表做水平切分,也就是不同库中的所有表,每个水平库节点中存储的数据是不同的,这时又会出现 4.2 阶段聊到的一些问题,如单业务的聚合操作、连表操作会无法进行,这种情况的解决思路和水平分表时一样,先确定读写的数据位于哪个库表中,然后再去生成 SQL 并执行。

    当然,对于这类情况,如果只是因为并发过高导致出现性能瓶颈,最好的选择是直接做业务库集群,也就是拓展出的所有节点,数据都存一模一样的,这样无论在任何库中都具备完整数据,所以就无需先定位目标数据所处的库再操作。

    但如果数据量也比较大,就只能做水平分库分表了,相同业务不同的数据库节点,存储不同范围的数据,能够在最大程度上提升存储层的吞吐能力,但会让读写操作困难度增高,因为读写之前需要先定位读写操作到底要落到哪个节点中处理。

    4.2、数据分页问题

    MySQL 数据库为例,如果是在之前的单库环境中,可以直接通过 limit index,n 的方式来做分页,而水平分库后由于存在多个数据源,因此分页又成为了一个难题,比如 10 条数据为 1 页,那如果想要拿到某张表的第一页数据,就必须通过如下手段获取:
    这种方式可以是可以,但略微有些繁杂,同时也会让拓展性受限,比如原本有两个水平分库的节点,因此只需要从两个节点中拿到第一页数据,然后再做一次过滤即可,但如果水平库从两节点扩容到四节点,这时又要从四个库中各自拿 10 条数据,然后做过滤操作,读取前十条数据显示,这显然会导致每次扩容需要改动业务代码,对代码的侵入性有些强,所以合理的解决方案如下:

  • ①常用的分页数据提前聚合到 ES 或中间表,运行期间跑按时更新其中的分页数据。
  • ②利用大数据技术搭建数据中台,将所有子库数据汇聚到其中,后续的分页数据直接从中获取。
  • ③上述聊到的那种方案,从所有字库中先拿到数据,然后在 Service 层再做过滤处理。
  • 上述第一种方案是较为常用的方案,但这种方案对数据实时性会有一定的影响,使用该方案必须要能接受一定延时。第二种方案是最佳的方案,但需要搭建完善的大数据系统作为基础,成本最高。第三种方案成本最低,但对拓展性和代码侵入性的破坏比较严重。

    4.3、ID主键的唯一性问题

    在之前的单库环境时,对于一张表的主键通常会选用整数型字段,然后通过数据库的自增机制来保证唯一性,但在水平分库多节点的情况时,假设还是以数据库自增机制来维护主键唯一性,这就绝对会出现一定的问题,可能会导致多个库中出现 ID 相同、数据不同的情况,如下:
    上述两个库需要存储不同的数据,当插入数据的请求被分发到对应节点时,如果再依据自增机制来确保 ID 唯一性,因为这里有两个数据库节点,两个数据库各自都维护着一个自增序列,因此两者 ID 值都是从 1 开始往上递增的,这就会导致前面说到的 ID 相同、数据不同的情况出现,那此时又该如何解决呢?如下:
    这时可以根据水平库节点的数量来设置自增步长,假设此时有两个库,那自增步长为 2 ,两个库的 ID 起始值为: {DB1:1}、{DB2:2} ,最终达到上图中的效果,无论在插入数据的操作落入哪个节点,都能够确保 ID 的唯一性。当然,保障分布式系统下 ID 唯一性的解决方案很多,如下:

  • ①通过设置数据库自增机制的起始值和步长,来控制不同节点的 ID 交叉增长,保证唯一性。
  • ②在业务系统中,利用特殊算法生成有序的分布式 ID ,比如雪花算法、 Snowflake 算法等。
  • ③利用第三方中间件生产 ID ,如使用 Redis incr 命令、或创建独立的库专门做自增 ID 工作。
  • 上述这几种方案都是较为主流的分布式 ID 生成的方案,同时也能够保证 ID 的有序性,能够最大程度上维护索引的性能,相对来说第一种方案成本最低,但是会限制节点的拓展性,也就是当后续扩容时,数据要做迁移,同时要重新修改起始值和自增步长。

    一般企业中都会使用第二种方案,也就是通过分布式 ID 生成的算法,在业务系统中生成有序的分布式 ID ,以此来确保 ID 的唯一性,但具体该如何去实现,这点会放到后续的《分布式 ID 篇》讲解。

    4.4、数据的落库问题

    对数据库做了水平拆分后,数据该怎么存储呢?写操作究竟该落到哪个库呢?读操作又如何确定数据在哪个库中呢?比如新增一条 ID=987215 的数据,到底插入到哪个库中,需要这条数据时又该如何查询?这显然是做了水平拆分之后必须要思考的问题,这定然不能随便写,因为写过的数据在后续业务中肯定会用到,所以写数据时需要根据一定规则去落库,这样才能在需要时能定位到数据。

    但数据的拆分规则,或者被称之为路由规则,具体的还是要根据自己的业务来进行选择,在拆分时只需遵循:数据分布均匀、查询方便、扩容/迁移简单这几点原则即可。

    一般简单常用的数据分片规则如下:

  • ①随机分片:随机分发写数据的请求,但查询时需要读取全部节点才能拿取数据,一般不用。
  • ②连续分片:每个节点负责存储一个范围内的数据,如 DB1:1~500W、DB2:500~1000W....
  • ③取模分片:通过整数型的 ID 值与水平库的节点数量做取模运算,最终得到数据落入的节点。
  • ④一致性哈希:根据某个具备唯一特性的字段值计算哈希值,然后再通过哈希值做取模分片。
  • ..........
  • 总之想要处理好数据的落库问题,那首先得先确定一个字段作为分片键/路由键,然后基于这个字段做运算,确保同一个值经计算后都能分发到同一个节点,这样才能确保读写请求正常运转,但关于具体该如何去做,会在后续的《MySQL分库分表实践篇》去落地。

    4.5、流量迁移、容量规划、节点扩容等问题

    流量迁移、容量规划、节点扩容等这些问题,在做架构改进时基本上都会碰到,接着依次聊一聊。

    4.5.1、流量迁移

    线上环境从单库切换到分库分表模式,数据该如何迁移才能保证线上业务不受影响,对于这个问题来说,首先得写脚本将老库的数据同步到分库分表后的各个节点中,然后条件允许的情况下先上灰度发布,划分一部分流量过来做运营测试。

    如果没有搭建完善的灰度环境,那先再本地再三测试确保没有问题后,采用最简单的方案,先挂一个公告:“今日凌晨两点后服务器会进入维护阶段,预计明日早晨八点会恢复正常运转”!然后停机更新,但前提工作做好,如: Java 代码从单库到分库分表要改进完善、数据迁移要做好、程序调试一切无误后再切换,同时一定要做好版本回滚支持,如果迁移流量后出现问题,可以快捷切换回之前的老库。

    4.5.2、容量规划

    关于分库分表首次到底切分成多少个节点合适,对于这点业内没有明确规定,更多的要根据自身业务的流量、并发情况决定,根据实际情况先做垂直分库,然后再对于核心库做水平分库,但水平分库的节点数量要保证的是 2 的整倍数,方便后续扩容。

    4.5.3、节点扩容

    扩容一般是指水平分库,也就是当一个业务库无法承载流量压力时,需要对相应的业务的节点数量,但扩容时必须要考虑本次增加节点会不会影响之前的业务,因为很多情况下,当节点的数量发生改变时,可能会影响数据分片的路由规则,这时就要考虑扩容是否会影响原本的路由规则。

    扩容一般都是基于水平分库的基础上,进一步对水平库做节点扩容,目前业内有两种主流做法:水平双倍扩容法、异步双写扩容法。

    水平双倍扩容法

    想要使用双倍扩容法对节点进行扩容,首先必须要求原先节点数为 2 的整数倍,同时路由规则必须要为数值取模法、或 Hash 取模法,否则依旧会造成扩容难度直线提升。同时双倍扩容法还有一种进阶做法,被称之为从库升级法,也就是给原本每个节点都配置一个从库,然后同步主节点的所有数据,当需要扩容时仅需将从库升级为主节点即可,过程如下:
    起初某个业务的水平库节点数量为 2 ,因此业务服务中的数据源配置为 {DB0:144.xxx.xxx.001、DB1:144.xxx.xxx.002} ,当读写数据时,如果路由键经哈希取模运算后的结果为 0 ,则将对应请求落到 DB0 处理,如若取模结果为 1 ,则将数据落到 DB1 中处理,此时两节点的数据如下:

  • DB0:{2、4、6、8、10、12、14、16.....}
  • DB1:{1、3、5、7、9、11、13、15......}
  • 同时 DB0、DB1 两个节点都各有一个从节点,从节点会同步各自主节点的所有数据,此时假设两个节点无法处理请求压力时,需要进一步对水平库做扩容,这时可直接将从节点升级为主节点,过程如下:
    经过扩容之后,节点数量变成了 4 ,所有首先得修改业务服务中的数据源配置为 {DB0:144.xxx.xxx.001、DB1:144.xxx.xxx.002}、{DB2:144.xxx.xxx.003、DB3:144.xxx.xxx.004} ,然后将路由算法修改为 %4 ,最终数据分片如下:

  • DB0:{4, 8, 12, 16, 20, 24.....}
  • DB1:{1, 5, 9, 13, 17, 21......}
  • DB2:{2, 6, 10, 14, 18, 22.....}
  • DB3:{3, 7, 11, 15, 19, 23.....}
  • 此时要注意,因为 DB2 原本属于 DB0 的从库,所以具备原本 DB0 的所有数据,现在再观察上述的数据分片情况,对比如下:

  • 扩容后的 DB2:{2, 6, 10, 14, 18, 22.....}
  • 扩容前的 DB0:{2、4、6、8、10、12、14、16.....}
  • 此时大家应该会发现,扩容后 DB2 中落入的分片数据,原本都是存在于 DB0 中的,而 DB2 原先就是 DB0 的从库,所以也具备之前 DB0 中数据,因此采用这种扩容法,基本上无需做数据迁移!

    好比现在要查询 ID=10 的数据,根据原本 Hash(XX)%2 的路由算法,会落入到 DB0 中读取数据,而根据现在 Hash(XX)%4 的路由算法,应该落入到 DB2 中读取数据,因为 DB2 具备原本 DB0 的数据,所以也无需在扩容后,再次从 DB0 中将数据迁移过来( DB1、DB3 亦是同理)。

    为了不占用存储空间,也可以在凌晨两点到六点这段业务低峰期,去跑脚本删除重复的数据,因为目前 DB0、DB2 之间的数据完全相同,都包含了对方要负责的分片数据,所以在跑脚本的时候就是要从自身库中删除对方的数据( DB1、DB3 亦是同理)。

    这种从库升级扩容法是双倍扩容法的进阶实现,但这种情况会浪费一倍的机器,所以适用于一些流量特别大的场景,因为在这种扩容法中无需做数据迁移,同时扩容之后的 4 个节点,也可以再为其配置 4 个从库,以便于下次扩容。

    当然,如果你感觉这种做法太浪费机器,也可以使用传统的双倍扩容法,即每次扩容之后,要手动从原本的库中将分片数据迁移过来,如果数据量较大时,迁移数据的时间会较长,所以只能做离线迁移。

    同时在离线迁移的过程中,线上数据还有可能发生变更,所以离线迁移后还需要核对数据的一致性,过程会更繁琐一些,所以省机器还是省麻烦,需要诸位在两者之间做抉择。

    如果你在的公司财大气粗,我推荐从库升级法,因为从库升级法不仅仅能够避免数据迁移,而且还能保证高可用,当主节点宕机时可以让从节点直接上线顶替,再配合 Keepalived+VIP 做重启,基本上能够让数据库真正达到 7x24 小时不间断运行。

    异步双写扩容法

    前面聊到的水平双倍扩容法,仅仅只是扩容时的一种方案,除此之外还有另一种方案称之为异步双写扩容法,大体示意图如下:
    对于需要扩容时的情况,首先依旧把新的数据写入到老库中,然后写完之后同步给 MQ 一份,后续再由 MQ 的消费者去将新数据写到新库中,同时新库在这期间,会去同步老库中原有的数据,这个动作持续到所有旧数据全部同步完成后,再以老库作为校验基准,核对数据无误后,再将模式切换为扩容后的分库模式:
    切换到分库模式后,记得在业务代码中去掉双写的逻辑,改为路由分片的逻辑,稍微总结一下整个流程,如下:

  • 第一步:修改应用服务代码,加上 MQ 双写方案,配置新库同步老库数据,然后部署。
  • 第二步:等待新库同步复制老库中所有老数据,期间新写入的数据也会通过 MQ 写入新库。
  • 第三步:老库中的所有老数据全部同步完成后,以老库作为校验基准,校对新库中的数据。
  • 第四步:校对新老库之间的数据无误后,修改应用配置和代码,将双写改为路由分片,再次部署。
  • 看到这里相信诸位已经明白了两种扩容方法,这两种方案都是分库分表扩容时最常用的方案,但异步双写扩容法,更适用于垂直分库后的第一次单节点扩容。而水平双倍扩容法,则适用于水平分库后的第 N 次扩容。

    其实异步双写方案,也可以用来做后续的节点扩容,但会相对来说比较麻烦一些。

    4.6、分库后的多维度查询问题

    之前单库的一张表,好比以 zz_users 用户表为例,既可以通过 user_id 检索数据,如:

  • select * from zz_users where user_id = 10086;
  • 也可以通过 user_name 进行数据的查找,如:

  • select * from zz_users where user_name = '竹子爱熊猫';
  • 但是现在水平分库后呢,执行 SQL 究竟该落入哪个库是根据路由键和路由算法来决定的,假设这里路由键为 user_id ,此时通过 user_id 查询当然没有问题,但通过 user_name 查询时,就无法通过路由键定位具体 DB 了,那又该怎么办呢?解决方案如下:

  • ①淘宝方案:对于订单库实现了多库多维路由键拆分,直接用了三个水平库集群,一个以用户 ID 作为路由键,一个以商户 ID 作为路由键,一个以订单时间作为路由键,三个分库集群中数据完全相同,从而满足不同维度查询数据的业务需求。
  • ②数据量小的时候时,可以通过 ES 维护路由键的二级索引,如 1:竹子、2:熊猫....
  • 如果业务数据量特别巨大,可以选择第一种方案做分库集群,但如果数据量不是百亿级别的规模,则可以通过 ES 建立路由键的二级索引,当基于非路由键字段查询时,先从 ES 中查到路由键值,然后再根据路由键查询数据库的数据返回。

    4.7、外键约束问题

    一般的项目基本上都会存在主外键,虽然不会在表上添加主外键约束,但也会从逻辑上保障主外键关系,但经过水平分库后,所有的读写操作会基于路由键去分片,那此时以订单表、订单详情表为例,假设用户选择了三个购物车的商品提交订单,此时会产生一条订单记录、以及对应的三条订单详情记录,关系大致如下:

  • 订单数据: order_id=1, pay_money=8888, user_id=666, shop_order_row=3, ......
  • 订单详情数据:
  • order_info_id=1, shop_name='黄金竹子', shop_count=1, unit_price=6000.....
  • order_info_id=2, shop_name='白玉竹子', shop_count=2, unit_price=1111.....
  • order_info_id=3, shop_name='翠绿竹子', shop_count=1, unit_price=666.....
  • 假设商品库有两个水平节点,两个商品库都具备订单表、订单详情表,而订单表的路由键是 order_id ,订单详情表的路由键是 order_info_id ,数据分片的路由算法为取模,那此时数据的落库情况为:

  • order_id % 2 1 % 2 = 1 order_id=1 的订单数据落入 DB1 商品库中。
  • order_info_id % 2
  • 1 % 2 = 1、3 % 2 = 1 order_info_id = 1、3 的订单详情数据落入 DB1 商品库中。
  • 2 % 2 = 0 order_info_id = 2 的订单详情数据落入 DB0 商品库中。
  • 但此时 order_id=1,order_info_id=1、2、3 的数据是存在外键关系的,如果按照上述的路由方式去对数据做分片,最终就会导致通过 order_id=1 的订单 ID 查询订单详情时,只能在 DB1 中查询到两条订单详情数据,这个问题显然是业务上无法接受的。

    所以面对于这种业务上存在主外键关系的表,必须要能够确保外键所在的数据记录,必须要和主键数据记录落到同一个库中去,否则后续无法通过主键值查询到完整的数据,对于这种情况的解决方案是通过绑定表去实现(绑定表也是分库分表中的一个新概念,这里放到后面实践篇讲解,目前简单了解即可)。

    五、分库后程序怎么访问数据库?

    在之前的单库模式下,业务系统需要使用数据库时,只需要在相关的配置文件中,配置单个数据源的地址、用户、密码等信息即可。但分库分表后由于存在多个数据源,程序怎么样访问数据库,配置和代码该怎么写呢?这是一个更应该关心的问题,具体可分为几种方式:

  • 编码层:在代码中通过框架提供的数据源动态切换类实现,如 Spring.AbstractRoutingDataSource 类。
  • 框架层:一般的 ORM 框架也会提供切换数据源的实现类,比如 MyBatis.Interceptor 接口拦截 SQL 实现。
  • 驱动层:在 JDBC 驱动层拦截 SQL 语句,然后改写 SQL 实现,如 Sharding-JDBC 框架的原理就是如此。
  • 代理层:所有使用数据库的业务服务都连接代理中间件,由中间件来决定落库位置,如 MyCat 实现。
  • 服务层:如今较为流行的分布式数据库,基本上都自带分库分表功能,如 TiDB、OceanBase....
  • 一般编码层或框架层都无法单独实现数据源的切换,两者必须配合起来完成,用 MyBatis.Interceptor 接口拦截 SQL 语句,然后根据 SQL 中的路由键做运算,最终再通过 Spring.AbstractRoutingDataSource 类去动态切换数据源。但这种方案的工程量很大,实现过程也较为繁杂,所以下面直接来看一些成熟的方案,如下:

  • 工程(依赖、 Jar 包、不需要独立部署,可集成在业务项目中)
  • 淘宝网:TDDL
  • 蘑菇街:TSharding
  • 当当网:Sharding-Sphere-JDBC
  • 进程(中间件、需要独立部署的第三方进程)
  • 早年最热门、基于阿里Cobar二开的MyCat
  • 阿里B2B:Cobar
  • 奇虎360:Atlas
  • 58同城:Oceanus
  • 谷歌开源:Vitess
  • 当当网:Sharding-Sphere-Proxy
  • 其实早些年大家听说的比较多的应该是 MyCat 这款分库分表中间件,也包括前些年一般用的比较多也是它,但最近几年 MyCat 不再进一步优化了,而且其核心创始人之一整天在技术群里吹水卖课,导致原本前景无限的一款产品给玩凉了,关于其创始人 Leader-us 的一些故事大家可参考 >>知乎回答<< ,这里个人不做过多评价。

    先如今要考虑做分库分表时,可首先选用当当网的 Sharding-Sphere 框架,早些年原本只有 Sharding-JDBC 驱动层的分库分表,但到了后续又推出了代理层的 Sharding-Proxy 中间件,最终合并成立了 Sharding-Sphere 项目。

    近几年该项目也交由 Apache 软件基金会来孵化,并且列入到顶级项目孵化列表,随着 Apache 接手后也有了充实的后背保障,因此更建议分库分表时选用 Sharding-Sphere 来实现,官网: 《Sharding-Sphere官网》 。 从社区生态和 GitHub 的趋势来看,基本上近些年的增长也十分迅猛,并且 Sharding-Sphere 中对分库分表后产生的一系列问题,也提供了一站式解决方案。

    六、分库分表后患问题总结

    在本章中补齐了分库分表带来的一系列问题的剖析,以及问题产生后相应的解决方案,但在这里仅给出了基本的解决方案,但并未对其进行落地实践,毕竟内容较多不可能面面俱到,具体的落地会在后续的章节中徐徐道来~

    最后附言:所谓的架构师并不是指能做架构选型即可,比如决定缓存用 Redis 、消息中间件用 RocketMQ ORM 框架用 MyBatis-Plus 、微服务框架用 SpringCloud Alibaba .......,真正的架构是要能够清楚各层面中主流的技术方案,毕竟能够充分结合业务去做选型,最关键的是自身也得清楚选用某个技术栈后能够带来的性能收益,以及引入某项技术后会带来的风险问题及解决方案。

    比如当你考虑对存储层做分库分表时,就得先考虑清楚本章中提到的所有问题,以及具体该如何解决,只考虑追求技术风潮,不考虑技术风险的做法,显然无法被称作一位合格的架构师。一名合格的架构除开能全面考虑到技术风险且给出解决方案外,应当还得将项目架构设计的更为合理才行,比如设计的技术架构具备很强的弹性伸缩能力,可根据业务的增长/萎靡进行动态的伸缩调整。

    能否设计并将分库分表方案落地,这也是每一名技术人员进阶道路上的一个大门槛,当你迈过了这道门槛,距离成为一名初阶架构也就不远了,本章中聊到的一些疑难杂症,也希望能够引起诸君的思考,作为一位技术者,不应该仅关注平时开发中的业务,不应该被日常的增删改查蒙蔽双眼,更应该在工作空闲之余适当思索技术,否则你会很难真正跳出困境。

    最后,如若本文对你能起到绵薄的帮助,还请多多点赞支持~,上述那些鸡汤、客气话其实不看也罢,简单一句人话来总结就是: 不要只当个增删改查的螺丝仔,平时多学多看多思考才能真正进阶涨薪!