深入理解Java内存模型 ch1基础
1.并发编程模型的分类
并发编程的两个关键问题:
- 通信
- 同步
通信机制有两种:
- 共享内存
- 消息传递
同步:用于控制不同程序之间操作发生相对顺序的机制。
- 共享内存模式里,必须显式指定某个方法或某段代码需要在线程间互斥执行。
- 消息传递的并发模型里,由于消息的发送必须在消息接收之前,因此同步是隐式进行的。
Java并发采用的是共享内存模型。
2.Java内存模型的抽象
JMM决定一个线程对共享变量的写入何时对另一个线程可见。
抽象来看,JMM定义了线程和主内存之间的抽象关系:线程之间的共享变量存储在主内存中,每个线程都有一个私有的本地内存。本地内存指缓存、寄存器以及其他硬件和编译器的优化。
如下两个步骤实质上是线程A向线程B发送消息,而且这个通信过程必须要经过主内存。JMM通过控制主内存与每个线程的本地内存之间的交互,来为Java程序员提供内存可见性保证。
3.重排序
三种类型的重排序:
- 编译器优化重排序。前提:不改变单线程程序语义。
- 指令级并行的重排序。前提:不存在数据依赖性。
-
内存系统的重排序。由于使用了缓冲区,使得加载、存储看上去可能是乱序执行的。
1属于编译器重排序,2、3属于处理器重排序。
对于编译器,JMM的编译器重排序规则会禁止特定类型的编译器重排序。
对于处理器重排序,JMM的处理器重排序规则会要求java编译器生成指令序列时,插入特定类型的内存屏障指令,通过内存屏障指令来禁止特定类型的处理器重排序。
4.处理器重排序与内存屏障指令
4.1 处理器重排序
写缓存的优点:
- 写缓冲区可以保证指令 流水线持续运行,它可以避免 由于处理器停顿下来等待向内存写入数据 而产生的延迟。
- 通过以 批处理的方式刷新写缓冲区,以及合并 写缓冲区中 对同一内存地 址的多次写,可以减少对内存总线占用。
带来的问题:
- 虽然缓冲区有这么好处但 每个处 理器上的写缓冲区, 仅仅对它所在的处理器可见。这个特性会内存操作执行顺 序产生重要的影响: 处理器对内存的读/写操作的执行 顺序 ,不一定与内存实际发生的读 /写操作 顺序一致!
从内存操作实际发生的顺序来看,直到 处理器 A执行 A3 来刷新自己的写缓存区, 写操作 A1 才算真正执行了。
虽然处理器 A执行内存操作的顺序为: A1 ->A2 ,但内存操作实际发生的顺序却是: A2 ->A1 。此时,处理器 A的内存操作顺序被重排序了。
总结如下:
由于写缓冲区仅对自己处理器可见 ,它会导致处理器执行内存操作的顺序可能会与内存实际 的操作执行顺序不一致 。
4.2 内存屏障
为了保证内存可见性, java编译器在生成指令序列的适当位置指令序列的适当位置会插入内存屏障指令来禁止特定类型的处理器重排序。
JMM把内存屏障指令分为四类:
StoreLoad Barriers是一个“全能型”的屏障,它同时具有其他三效果。 现代的多处理器大都支持该屏障(其他类型的屏障不一定被所有处理器支持)。 执行该屏障开销会很昂贵 ,因为当前处理器通常要把写缓冲区中的数据全部刷新到内存中 (buffer fully flush)。
5.happens-before
从 JDK5开始, java使用新的JSR -133内存模型。
JSR -133 使用happens-before的概念来阐述操作之间的内存可见性。 在 JMM中, 如果一个操作执行的结需要对另可见,那 么这两个操作之间必须要存在 happens-before关系 。
注意,两个操作之间具有happens-before关系,并不意味着前一个操作必须要在后一个操作之前执行!
happens-before是最终呈现给程序员的视图,为了实现这个最终的视图,需要JMM实现时禁止某些编译器重排序和处理器的重排序。而这个实现的规则,是JMM定义的。
一个happens-before规则对应于一个或多个编译器和处理器重排序规则。