彻底理解 volatile
彻底理解 volatile
1. volatile 简介
在上一篇文章中我们了解到 synchronized
是阻塞式同步,在线程竞争激烈的情况下会升级为重量级锁。而 volatile
就可以说是 java 虚拟机提供的最轻量级的同步机制。但它同时不容易被正确理解,也至于在并发编程中很多程序员遇到线程安全的问题就会使用 synchronized
。
Java 内存模型告诉我们,各个线程会将共享变量从主内存中拷贝到工作内存,然后执行引擎会基于工作内存中的数据进行操作处理。线程在工作内存进行操作后何时会写到主内存中?这个时机对普通变量是没有规定的,而针对 volatile
修饰的变量给 java 虚拟机特殊的约定,线程对 volatile
变量的修改会立刻被其他线程所感知,即不会出现数据脏读的现象,从而保证数据的 “可见性”。
现在大概的理解就是:被 volatile
修饰的变量能够保证每个线程能够获取该变量的最新值,从而避免出现数据脏读的现象。
2. volatile 实现原理
volatile
是怎样实现了?比如一个很简单的 Java 代码:
instance = new Instancce(); //instance是volatile变量
在生成汇编代码时会在 volatile
修饰的共享变量进行写操作的时候会多出 Lock 前缀的指令(具体的大家可以使用一些工具去看一下,这里我就只把结果说出来)。我们想这个 Lock 指令肯定有神奇的地方,那么 Lock 前缀的指令在多核处理器下会发现什么事情了?主要有这两个方面的影响:
- 将当前处理器缓存行的数据写回系统内存
- 这个写回内存的操作会使得其他 CPU 里缓存了该内存地址的数据无效
为了提高处理速度,处理器不直接和内存进行通信,而是先将系统内存的数据读到内部缓存(L1,L2或其他)后再进行操作,但操作完不知道何时会写到内存。如果对声明了 volatile
的变量进行写操作,JVM 就会向处理器发送一条 Lock 前缀的指令,将这个变量所在缓存行的数据写回到系统内存。但是,就算写回到内存,如果其他处理器缓存的值还是旧的,再执行计算操作就会有问题。
所以,在多处理器下,为了保证各个处理器的缓存是一致的,就会实现缓存一致性协议,每个处理器通过嗅探在总线上传播的数据来检查自己缓存的值是不是过期了,当处理器发现自己缓存行对应的内存地址被修改,就会将当前处理器的缓存行设置成无效状态,当处理器对这个数据进行修改操作的时候,会重新从系统内存中把数据读到处理器缓存里。因此,经过分析我们可以得出如下结论:
- Lock 前缀的指令会引起处理器缓存写回内存;
- 一个处理器的缓存回写到内存会导致其他处理器的缓存失效;
- 当处理器发现本地缓存失效后,就会从内存中重读该变量数据,即可以获取当前最新值。
这样针对 volatile
变量通过这样的机制就使得每个线程都能获得该变量的最新值。
3. volatile 的 happens-before 关系
经过上面的分析,我们已经知道了 volatile
变量可以通过缓存一致性协议保证每个线程都能获得最新值,即满足数据的 “可见性”。
对并发分析的切入点可以分为 两个核心,三大性质。
- 两个核心:JMM 内存模型(主内存和工作内存)以及 happens-before;
- 三条性质:原子性,可见性,有序性。
先来看两个核心之一:volatile 的 happens-before 关系。
在六条 happens-before 规则中有一条是:volatile 变量规则:对一个 volatile 域的写,happens-before 于任意后续对这个volatile域的读。
下面我们结合具体的代码,我们利用这条规则推导下:
public class VolatileExample {
private int a = 0;
private volatile boolean flag = false;
public void writer(){
a = 1; //1
flag = true; //2
}
public void reader(){
if (flag){ //3
int i = a; //4
}
}
}
上面的实例代码对应的 happens-before 关系如下图所示:
加锁线程 A 先执行 writer
方法,然后线程 B 执行 reader
方法,图中每一个箭头两个节点就代码一个 happens-before 关系,黑色的代表根据程序顺序规则推导出来,红色的是根据 volatile
变量的写 happens-before 于任意后续对 volatile
变量的读,而蓝色的就是根据传递性规则推导出来的。
这里的2 happen-before 3,同样根据 happens-before 规则定义:如果 A happens-before B,则 A 的执行结果对 B 可见,并且 A 的执行顺序先于 B 的执行顺序,我们可以知道操作 执行结果对操作 来说是可见的,也就是说当线程 A 将 volatile 变量 flag
更改为 后线程 B 就能够迅速感知。
4. volatile 的内存语义
分析完 happens-before 关系后我们现在就来进一步分析 volatile 的内存语义。
还是以上面的代码为例,假设线程 A 先执行 writer
方法,线程 B 随后执行 reader
方法,初始时线程的本地内存中 flag
和 a
都是初始状态,下图是线程 A 执行 volatile
写后的状态图:
当 volatile
变量写后,线程中本地内存中共享变量就会置为失效的状态,因此线程 B 再需要读取从主内存中去读取该变量的最新值。下图就展示了线程 B 读取同一个 volatile
变量的内存变化示意图:
从横向上看,线程 A 和线程 B 之间进行了一次通信,线程 A 在写 volatile
变量时,实际上就像是给 B 发送了一个消息告诉线程 B 你现在的值都是旧的了,然后线程 B 读这个 volatile
变量时就像是接收了线程 A 刚刚发送的消息。既然是旧的了,那线程 B 该怎么办了?自然而然就只能去主内存去取了。
5. volatile 的内存语义实现
在前面的学习中,我们知道,为了性能优化,JMM在不改变正确语义的前提下,会允许编译器和处理器对指令序列进行重排序,那如果想阻止重排序要怎么办了?答案是可以添加内存屏障。
JMM 内存屏障分为四类见下图:
java 编译器会在生成指令系列时在适当的位置会插入内存屏障指令来禁止特定类型的处理器重排序。为了实现 volatile
的内存语义,JMM 会限制特定类型的编译器和处理器重排序,JMM 会针对编译器制定 volatile
重排序规则表:
"NO" 表示禁止重排序。为了实现 volatile
内存语义,编译器在生成字节码时,会在指令序列中插入内存屏障来禁止特定类型的处理器重排序。对于编译器来说,发现一个最优布置来最小化插入屏障的总数几乎是不可能的,为此,JMM 采取了保守策略:
- 在每个 volatile 写操作的前面插入一个 StoreStore 屏障;
- 在每个 volatile 写操作的后面插入一个 StoreLoad 屏障;
- 在每个 volatile 读操作的后面插入一个 LoadLoad 屏障;
- 在每个 volatile 读操作的后面插入一个 LoadStore 屏障。
需要注意的是:volatile 写是在前面和后面分别插入内存屏障,而 volatile 读操作是在后面插入两个内存屏障
StoreStore 屏障:禁止上面的普通写和下面的 volatile 写重排序;
StoreLoad 屏障:防止上面的 volatile 写与下面可能有的 volatile 读/写重排序
LoadLoad 屏障:禁止下面所有的普通读操作和上面的 volatile 读重排序
LoadStore 屏障:禁止下面所有的普通写操作和上面的 volatile 读重排序
以《Java并发编程的艺术》中的两个示意图帮助理解:
6. 一个例子
现在对于文章开头的问题,通过 volatile
给出答案:
public class VolatileDemo {
private static volatile boolean isOver = false;
public static void main(String[] args) {
Thread thread = new Thread(new Runnable() {
@Override
public void run() {
while (!isOver) ;
}
});
thread.start();
try {
Thread.sleep(500);
} catch (InterruptedException e) {
e.printStackTrace();
}
isOver = true;
}
}
注意不同点,现在已经 将 isOver
设置成了 volatile
变量,这样在 main 线程中将 isOver
改为了 后,thread 的工作内存该变量值就会失效,从而需要再次从主内存中读取该值,现在能够读出 isOver
最新值为 从而能够结束在 thread 里的死循环,从而能够顺利停止掉 thread 线程。