数据一致性问题其重要性不言而喻。从操作系统层面的锁机制,到 Java 并发编程中的多线程同步,再到分布式系统中的事务管理和一致性协议,确保数据在各种环境下的一致性是保障系统可靠运行、维护数据准确性。本文将揭示数据一致性在计算机领域的多面性和关键价值,助力理解和应对实际场景中的数据一致性挑战。
并发安全性
如何准确的修改数据?
原子指令
CAS、TAS、TTAS、FAA浅析:https://blog.csdn.net/u011461385/article/details/107282221
CAS
Java 中的 CAS 家族,可以说,JUC 就是基于 CAS 建立的并发框架。

数据锁
内核锁:Linux Mutex
Java 重量级锁
内存锁:锁结构
Java 轻量级锁
Golang 锁
MySQL 锁
分布式锁
Redis
ZooKeeper
缓存一致性
如何安全,准确的访问异构数据?访问到过期的数据意味着数据被修改,这个修改也是并发安全的。
CPU/Cache/Memory 一致性
CPU、缓存、内存的关系如下:

其中,缓存内部结构如下图:

缓存分布在各个 CPU 核心,如何保证各个 CPU 缓存的一致性?如何保证寄存器,缓存,内存的一致性?答案是 MESI 协议。
X86 处理器所使用的缓存一致性协议就是基于 MESI 协议的。MESI 协议对内存数据访问的控制类似于读写锁,它使得针对同一地址的读内存操作是并发的,而针对同一地址的写内存操作是独占的,即针对同一内存地址进行的写操作在任意一个时刻只能够由一个处理器执行。在 MESI 协议中,一个处理器往内存中写数据时必须持有该数据的所有权。
为了保障数据的一致性,MESI将缓存条目的状态划分为 Modified、Exclusive、Shared 和 Invalid 这 4 种,MESI协议中一个缓存条目的 Flag 值有以下4种可能:
- Invalid(无效的):该状态表示相应缓存行中不包含任何内存地址对应的有效副本数据。该状态是缓存条目的初始状态。
- Shared(共享的):该状态表示相应缓存行包含相应内存地址所对应的副本数据。并且,其他处理器上的高速缓存中也可能包含相同内存地址对应的副本数据。因此,一个缓存条目的状态如果为 Shared,并且其他处理器上也存在Tag值与该缓存条目的Tag值相同的缓存条目,那么这些缓存条目的状态也为 Shared。处于该状态的缓存条目,其缓存行中包含的数据与主内存中包含的数据一致。
- Exclusive(独占的):该状态表示相应缓存行包含相应内存地址所对应的副本数据。并且,该缓存行以独占的方式保留了相应内存地址的副本数据,即其他所有处理器上的高速缓存当前都不“保留该数据的有效副本。处于该状态的缓存条目,其缓存行中包含的数据与主内存中包含的数据一致。
- Modified(更改过的):该状态表示相应缓存行包含对相应内存地址所做的更新结果数据。由于MESI协议中的任意一个时刻只能够有一个处理器对同一内存地址对应的数据进行更新,因此在多个处理器上的高速缓存中 Tag 值相同的缓存条目中,任意一个时刻只能够有一个缓存条目处于该状态。处于该状态的缓存条目,其缓存行中包含的数据与主内存中包含的数据不一致。
并在此基础上定义了一组消息(Message)用于协调各个处理器的读、写内存操作,处理器在执行内存读、写操作时在必要的情况下会往总线(Bus)中发送特定的请求消息,同时每个处理器还嗅探(Snoop,也称拦截)总线中由其他处理器发出的请求消息并在一定条件下往总线中回复相应的响应消息。

MESI协议解决了缓存一致性问题,但是其自身也存在一个性能弱点——处理器执行写内存操作时,必须等待其他所有处理器将其高速缓存中的相应副本数据删除并接收到这些处理器所回复的Invalidate Acknowledge/Read Response消息之后才能将数据写入高速缓存。为了规避和减少这种等待造成的写操作的延迟(Latency),硬件设计者引入了写缓冲器和无效化队列。
Cache/Redis/MySQL 一致性
本地缓存,分布式缓存,数据库的数据如何保证一致性?
缓存的读写策略

延时双删

MQ 删除确认

binlog 异步删除

写缓存禁用

细粒度锁方案(同程旅行)

本地缓存数据如何准确过期
为了提高程序的读写性能,常常会为数据做一层缓存,比如说Redis常常作为MySQL数据的缓存,但是为了更高的性能,Redis已经无法满足,所以引入本地缓存进一步提高程序的性能,但是使用本地缓存有一个难点,本地缓存如何准确失效?(缓存淘汰策略不够实时),实时的所有节点本地缓存如何准确失效呢?
一个可行的方案是使用 MQ 的广播消息,目前 RocketMQ 与 Kafka 支持了广播消息,广播消息会发给 TOPIC 的所有消费者,消费者至少收到一次消息,似乎可以用来作为本地缓存失效的消息。但是广播消息没有ACK机制,无法保证一定消费成功,当操作失效本地缓存失败时,无法进行重试,导致缓存数据异常。
Kafka 本身没有内建的自动重试机制,但是 Spring-Kafka 通过 RetryableTopic 注解实现了重试,例如:
@KafkaListener(topics = "cache-invalidation-topic")
@Retryable(maxAttempts = 3, backoff = @Backoff(delay = 1000, multiplier = 2))
public void handleInvalidation(String key) {
try {
localCache.delete(key); // 删除本地缓存
} catch (Exception e) {
throw new RuntimeException("Failed to invalidate cache", e);
}
}
// 最终失败后进入死信队列
@KafkaListener(topics = "dlq-topic")
public void handleDlq(Message<?> message) {
log.error("DLQ Processing: {}", message);
alertService.notifyAdmin(message);
}
Spring Kafka 的 Retryable 机制通常通过 Spring Retry 结合 Kafka Listener 实现。
如果没有 Kafka,如何进行重试呢?那就只能在外部想办法,在收到广播消息后,如果消费过程中出现异常,则利用重试框架进行重试,一般有内存重试与持久化重试两种选择,在内存重试的缺点是在JVM进程结束后会,重试信息会丢失,持久化的话会把重试任务信息实例化到数据库,再使用定时任务扫表进行重试,因为是本地缓存场景所以就直接在内存里重试了。
还有一个问题是广播消息不一定会传播到消费端,因为网络抖动,或者网络隔离,Broker 无法与消费者通信,就造成了某个本地缓存的节点无法失效,造成缓存出现不一致,这就需要缓存失效的兜底逻辑。这个兜底逻辑有两种方案,一种是缓存的 TTL,另一种是定时任务对过期缓存进行清除,但是这两种方案都会造成短暂的数据不一致现象。
BufferPool/Data 一致性
Buffer Pool 是用来缓存数据页、索引页等的重要组件。MySQL 通过 WAL(Write-Ahead Logging) 机制、redo log(重做日志) 和 undo log(回滚日志) 来保证数据一致性。
- 先写 redo log,再修改 Buffer Pool(WAL 机制)
- 定期刷脏页到磁盘(Checkpoint 机制)
- 崩溃恢复时使用 redo log
- 事务回滚时使用 undo log
- 双写缓冲防止部分写失败
Index/Data 一致性
数据库索引、数据库数据如何保证一致性?
数据文件存储
-
表数据(包括主键索引和行数据)存储在 .ibd 文件中(独立表空间模式)。
-
索引数据(二级索引)也存储在 .ibd 文件中,因为 InnoDB 的索引和数据都是页(Page)的形式组织的。
数据和主键索引是一起存储的(聚簇索引),二级索引单独存储。
写入顺序:
- 先写 redo log,保证崩溃恢复
- 更新 Buffer Pool(数据页 & 索引页)
- 事务提交后写 binlog
- Checkpoint 时将脏页(数据 & 索引)刷入磁盘
一致性保障:
- redo log 先行写入,保证崩溃恢复
- undo log 保障事务回滚
- 双写缓冲防止部分写失败
- binlog + redo log 两阶段提交,保证 MySQL 复制和恢复的可靠性
redolog/binlog 一致性
redolog/binlog 两种日志如何保证一致性?(图源极客时间专栏《MySQL实战45讲》)

MySQL 通过 两阶段提交(2PC, Two-Phase Commit) 机制来保证 redo log 和 binlog 之间的一致性,确保即使发生崩溃,也不会出现数据丢失或数据不一致的问题。
redolog 与 binlog 搭配两阶段提交可以保证数据的持久性,但是由于事务可以回滚,这两者无需保证一致性。出现不一致也是正常的。
MySQL 8.0 通过 XA 事务(分布式事务协议) 进一步优化了 redo log 和 binlog 之间的原子性和一致性,主要体现在 内部 XA 事务 机制。具体优化点
-
使用 MySQL 自己的 XA 事务管理器:MySQL 8.0 在 mysql.transaction_registry 维护 XA 事务状态,确保在崩溃恢复时可以自动提交或回滚事务。
-
事务状态持久化:事务的 prepare 阶段状态 会被持久化到 mysql.transaction_registry,防止崩溃时事务丢失。
-
崩溃恢复优化:如果事务在 prepare 阶段崩溃,MySQL 8.0 可以自动检测和回滚,不需要依赖 binlog 恢复
-
Binlog Group Commit(日志组提交)优化:MySQL 8.0 允许多个事务在 commit 阶段批量提交 binlog 和 redo log,提高写入效率。
PageCache/Disk 一致性
在 Linux 操作系统中,PageCache 是 文件系统层的缓存,它的主要作用是减少磁盘 I/O,提高读写性能。但是,PageCache 的数据默认存储在内存中,并不会立即写入磁盘,因此需要通过一系列机制来保证数据最终持久化到磁盘。
定时触发
Linux 通过 pdflush(或 bdflush)线程 负责定期将 PageCache 的脏数据(Dirty Page)刷入磁盘:
-
dirty_ratio:当 PageCache 脏页占比超过该阈值(默认 20%),触发写入磁盘。
-
dirty_background_ratio:达到该阈值(默认 10%)时,后台进程开始- 异步写入磁盘- 。
-
dirty_writeback_centisecs:控制内核多久触发一次- 后台刷新- (默认 5 秒)。
-
dirty_expire_centisecs:数据在 PageCache 中停留多久后必须写入磁盘(默认 30 秒)。
# 查看当前设置
sysctl -a | grep dirty
函数触发
sync / fsync / fdatasync 触发刷盘
除了内核自动写入磁盘,进程也可以主动触发数据刷入磁盘:
- sync 命令:将整个 PageCache 里的数据写入磁盘(可能影响所有进程)。
sync
- fsync(fd) 系统调用(应用层控制写入时机):仅对单个文件进行刷盘,确保该文件的数据与元数据(如修改时间)同步写入磁盘。
int fd = open("data.txt", O_WRONLY);
write(fd, "hello", 5);
fsync(fd); *//* 立即写入磁盘
close(fd);
- fdatasync(fd)(仅数据刷盘,不刷元数据):适用于数据库等对性能要求较高的应用,比 fsync 更快:
fdatasync(fd);
日志机制
现代文件系统(如 ext4、XFS) 采用 日志(Journal)机制 来保证 PageCache 与磁盘数据的一致性:
数据模式(Data Mode):
-
Writeback(回写模式):数据先写入 PageCache,后续写入磁盘(可能导致崩溃后数据不一致)。
-
Ordered(有序模式,ext4 默认):先写数据,再写日志,崩溃时可以回滚日志,避免数据损坏。
- Journal(日志模式):数据和日志都写入磁盘,保证最高级别一致性,但写入性能最差。
磁盘缓存
磁盘缓存(Disk Cache)和 O_DIRECT,大多数现代硬盘(SSD/HDD)内部有- 自己的缓存- (Disk Cache),即使 fsync() 也未必- 真正- 写入磁盘:
- 磁盘缓存(Disk Write-Back Cache)- :操作系统 fsync() 只是把数据从 PageCache 刷入磁盘缓存,未必立即写入磁盘。
- 解决方案:
-
强制关闭磁盘缓存- :挂载文件系统时加 barrier=1 选项。
-
使用 O_DIRECT 直接绕过 PageCache。
分布式事务
MySQL 本地事务
MySQL 的事务是如何实现的?
事务的 ACID 四大特性,即原子性 (Atomicity)、 一致性(Consistency)、隔离性(Isolation) 和 持久性(Durability)。
ACID
A:undolog
I:MVCC+锁
D:redolog
C:AID
MySQL 主从一致性
MySQL 主从同步主要依赖的就是 binlog,MySQL 默认是异步复制,具体流程如下:
主库:
- 接受到提交事务请求。
- 更新数据。
- 将数据写到binlog中。
- 给客户端响应。
- 推送binlog到从库中。
从库:
- 由 I/O 线程将同步过来的 binlog 写入到 relaylog 中。
- 由 SQL 线程从 relaylog 重放事件,更新数据
- 给主库返回响应。

一致性协议
Paxos
Paxos 是 Leslie Lamport 在 1990 年提出的最早的分布式一致性算法。它用于保证多个分布式节点在面对网络分区或节点故障时,依然能对某个值达成一致。
Paxos 主要有三个角色:
- Proposer(提议者):提出提案,并希望让多数节点接受。
- Acceptor(接受者):投票决定是否接受提案。
- Learner(学习者):获得最终达成一致的提案值。
Paxos 的核心机制:
- 提案阶段(Prepare Phase)
-
Proposer 发送提案请求(编号递增)。
-
Acceptor 只接受比之前更大的提案编号。
- 接受阶段(Accept Phase)
-
当 Proposer 收到多数 Acceptor 的回应后,发送 Accept 提案。
-
如果 Acceptor 发现当前提案编号仍然最大,则接受该提案。
- 提交阶段(Commit Phase)
- 一旦某个值被多数 Acceptor 接受,Learner 就会学习最终决定的值。
Multi-Paxos 是一种通过共享 Leader 提案来优化多个提案一致性过程的算法,能够显著提高性能,减少网络延迟和选举次数,适用于高性能要求的分布式系统。尽管它比传统的单一 Paxos 更复杂,但能够在多次提案的场景下提供更高的效率。
通过选取主Proposer,就可以保证Paxos算法的活性, 这样是ZAB协议的由来。
Raft
Paxos 有两个明显的缺点:
- 难以理解
- 在工程是实现上比较复杂。
Raft 由 Diego Ongaro 和 John Ousterhout 于 2014 年提出,旨在提供一种比 Paxos 更易理解和实现的分布式一致性算法。它主要用于分布式系统的日志复制,常用于 Etcd、TiDB、CockroachDB 等系统。
Raft 主要分为以下三个角色:
-
Leader(领导者):负责处理所有的客户端请求,并复制日志到 Follower 节点。
-
Follower(跟随者):被动接受 Leader 的命令,并进行日志复制。
-
Candidate(候选者):当 Follower 选举 Leader 时,可能成为 Candidate 进行竞选。
Raft 的核心机制
- Leader 选举
-
通过随机超时时间触发选举,避免选票分裂。
-
候选者获取大多数选票后,成为 Leader。
- 日志复制
-
客户端请求由 Leader 处理,并同步日志到 Follower。
-
只有当大多数节点确认日志提交,Leader 才认为日志是最终一致的。
- 故障恢复
-
Leader 挂掉后,Follower 触发新一轮选举,选出新的 Leader。
-
新 Leader 继续进行日志复制,保证系统一致性。
https://ramcloud.atlassian.net/wiki/download/attachments/6586375/raft.pdf
一个关于 Raft 一致性算法的浓缩总结

Raft vs Paxos
Raft 和 Paxos 的核心区别主要体现在 设计思想、易实现性、选举机制、日志复制方式 等方面。
- Raft vs Paxos 核心区别
对比点 | Raft | Paxos |
---|---|---|
核心设计目标 | 易实现,易理解 | 理论上强一致,但实现复杂 |
角色 | Leader(领导者),Follower(跟随者),Candidate(候选者) | Proposer(提议者),Acceptor(接受者),Learner(学习者) |
选举机制 | 随机超时触发选举,避免选票分裂 | 需要多阶段提案确认 |
日志复制 | Leader 负责所有日志复制 | Proposer 需要多数 Acceptor 认可 |
数据提交 | 当多数节点确认提交,Leader 认为数据最终一致 | 多个 Acceptor 参与决策,需要多轮交互 |
性能 | 更快,减少网络通信 | 更慢,需要多轮消息传递 |
适用场景 | 分布式存储(Etcd、TiDB、CockroachDB) | Google Chubby、ZooKeeper |
工程落地 | 简单,广泛应用于工程 | 复杂,理论严谨但实现困难 |
- 关键实现上的区别
(1)选举机制
- Raft:Follower 发现 Leader 超时,就会变成 Candidate 进行选举,随机超时机制可避免选票分裂。
- Paxos:通过 Proposer 提案,Acceptor 进行投票,需要多轮确认,可能导致竞选冲突。
(2)日志复制
-
Raft:Leader 统一管理日志,按顺序复制到 Follower,保证顺序一致。
-
Paxos:每个提案独立进行,多轮确认可能导致日志不连续。
(3)一致性保障
-
Raft:Leader 选举后,Follower 与 Leader 保持同步,日志全局一致。
-
Paxos:依赖多个 Acceptor 选定值,可能会有延迟或不连续的问题。
- 什么时候用 Raft?什么时候用 Paxos?
-
Raft 适用于 需要易理解、易实现的一致性系统,如 分布式数据库(Etcd、TiDB)。
-
Paxos 适用于 需要更高安全性和灵活性的场景,如 Google Chubby、ZooKeeper,但实现复杂。
Kafka 为什么抛弃 ZK(Paxos)?
Kafka 在最新的 3.X 版本放弃了在之前版本使用的 ZK,(ZK 使用的ZAB 是由Paxos 改进而来) 作为分布式协调的解决方案,而是使用 Raft 协议的变种 kraft 作为解决方案。
- Raft 实现简单。
- 部署简单,减少 ZK 的依赖,节约成本。
OceanBase 为什么使用 Paxos?
ob 做的时候 raft 根本没出来
分布式事务
分布式事务与一致性协议
一致性协议强调事务 ACID 中的 C,体现在分布式数据库中,就是一个数据分布在不同节点上,对任何节点数据的修改应该是一致的,需要同步到其他所有节点上,数据对于分布式是一致的,是技术上的概念。
分布式事务要满足事务的四大特性,在分布式环境下,一组操作,在事务内的操作也要是原子的,隔离的,一致的,与单机事务在语义上是一致的,没有脏读,幻读情况发生,强调强事务的概念。是应用上的概念。
比如说,Raft 协议保证了不同节点的数据是一致的,但是并没有保证隔离性,其他节点
Quorum
Quorum NWR算法的核心思想是通过设置读写操作的节点数(N、W、R)来实现数据的一致性和可用性的平衡。具体来说,N表示存储每个数据副本的节点总数,W表示写操作需要成功完成的最小节点数,R表示读操作需要查询的最小节点数。通过合理配置这些参数,可以在不同的应用场景下灵活调整系统的性能和可靠性。
RabbitMQ 的 Quorum 模式
Percolator
Percolator 是 Google 在 2006 年推出的一种分布式事务系统,主要用于为 Google 的分布式存储系统提供 分布式事务 支持。Percolator 的目标是解决传统分布式数据库中的事务一致性问题,它基于一种类似于 两阶段提交协议(2PC) 的机制,但为了优化性能,采用了轻量级的延迟提交策略,避免了传统 2PC 中的阻塞问题。
基于两阶段提交的改进版本
- 第一个事务参与者是事务协调者。
- 全局授时机制。
Percolator 最早用于 Google 的 Bigtable(分布式存储系统)之上,它为 Bigtable 提供了一个能够处理分布式事务的层,使得应用可以在 Bigtable 上进行跨节点的一致性事务。
Spanner
Spanner 是 Google 的一个全球分布式关系型数据库,旨在提供强一致性和高可用性,并能够扩展到全球范围。Spanner 的设计目标是能够处理高并发、大规模分布式的应用,支持 SQL 查询,且兼具传统关系型数据库的特点和分布式数据库的可扩展性。
Spanner 的关键特性:
- 强一致性:Spanner 使用 Paxos 协议 和 TrueTime API 提供跨地域的强一致性和高可用性。
- 全球时钟同步:通过 TrueTime API,Spanner 实现了精确的时钟同步,能够确保跨数据中心的数据一致性,避免了时钟漂移引发的分布式事务问题。
- 分布式事务支持:Spanner 提供全局事务支持,事务在多个节点、多个数据中心之间分布执行,但依然保证 ACID 属性(特别是原子性和一致性)。
在 Spanner 的实现过程中,Percolator 的思想被采纳并进一步发展,解决了跨多个数据中心的强一致性问题,并加入了全球时钟同步机制 TrueTime,使得它能够在全球范围内提供事务一致性。
事务消息
Kafka 事务消息
多条消息发送是一个原子操作,要么全部发送成功,要么全部发送失败。
RocketMQ 事务消息
消息发送与本地操作是一个原子操作,本地事务回滚则消息回滚,消息回滚则本地事务回滚,半消息?两阶段提交。
微服务事务
一个微服务事务例子如下:

在虚线内的步骤都有可能出现异常,但是在步骤1,一般不会出现异常,即使出现异常,也可以直接回滚。接下来看看微服务间的分布式事务。
如果在步骤 2 出现异常:本地回滚,操作失败。
如果在步骤 2 出现超时:本地回滚,取消步骤2(TCC),操作失败
如果在步骤 3 出现异常:本地回滚,取消步骤2,操作失败。
如果在步骤 3 出现超时:继续执行,返回成功,重试任务,处理状态。
以上机遇各个操作接口都是幂等的情况。
Seata
Seata 是一款开源的分布式事务解决方案,致力于提供高性能和简单易用的分布式事务服务。Seata 将为用户提供了 AT、TCC、SAGA 和 XA 事务模式,为用户打造一站式的分布式解决方案。
参考文章
- 某小公司:MySQL连环问:https://mp.weixin.qq.com/s/AHO_pyZtTH71qoiRsvtRlw
- 热点账户问题:https://cloud.tencent.com/developer/article/1452310
- 热点账户问题:https://www.cnblogs.com/zyl2016/articles/9928567.html
- 深入浅出理解分布式一致性Paxos算法:https://juejin.cn/post/7125769804367003655
- 如何保证Redis缓存与MySQL数据库的读写一致性:https://juejin.cn/post/7287026079066800168
- 在 Spring 应用中实现 Kafka Consumer 重试消费:https://springdoc.cn/spring-retry-kafka-consumer/
- Quorum NWR算法深度解析:原理与实践:https://www.showapi.com/news/article/67760d4b4ddd79f11a304f0e
- OceanBase的一致性协议为什么选择 paxos而不是raft?:https://www.zhihu.com/question/52337912
- 深入理解分布式事务Percolator(1):https://blog.csdn.net/maxlovezyy/article/details/88572692
- 深入理解分布式事务Percolator(2):https://blog.csdn.net/maxlovezyy/article/details/99702091