基础知识

Java内存模型与线程

2018-09-02  本文已影响0人  胡二囧

除了充分利用计算机处理器的能力外,一个服务端同时对多个客户端提供服务则是另一个更具体的并发应用场景。衡量一个服务性能的好坏高低,每秒事务处理数(Transactions Per Second, TPS)是最重要的指标之一,它代表着一秒内服务端平均能相应的请求总数,而TPS值与程序的并发能力又有非常密切的关系。对于计算量相同的任务,程序线程并发协调得越有条不紊,效率自然就越高;反之,线程之间频繁阻塞甚至死锁,将会大大降低程序的并发能力。

服务端是Java语言最擅长的领域之一,这个领域的应用占了Java应用中最大的一块份额,不过如何写好并发应用程序确是服务端程序开发的难点之一,处理好并发方面的问题通常需要更多的编码经验来支持。幸好Java语言和虚拟机提供了许多工具,把并发变成的门槛降低了不少。而且各种中间件服务器、各类框架都努力地替程序员处理尽可能多的多线程并发细节,使得程序员在编码时能更专注于业务逻辑,而不花费大量的时间去关服务会被多少人调用、如何协调硬件资源。无论语言、中间件和框架如何先进,开发人员都不能期望它们能独立完成所有并发处理的事情,了解并发的内幕也是称为一个高级程序员不可缺少的课程。

硬件的效率与一致性

“让计算机并发执行若干个运算任务”和“更充分的利用计算机处理器的效能”之间的因果关系,看起来顺理成章,实际上它们之间的关系并没有想象中的那么简单,其中一个重要的复杂性来源是绝大多数的运算任务都不可能只靠处理器计算能完成,处理器至少要与内存交互,如读取运算数据、存储运算结果等,这个I/O操作是很难消除的。由于计算器的存储设备与处理器的运算速度有几个数量级的差距,所以现代计算机系统都不得不加入一层读写速度尽可能接近处理器运算速度的告诉缓存(Cache)来作为内存与处理器之间的缓冲:将运算需要使用到的数据复制到缓存中,让运算能快速进行,当运算结束之后再从缓存同步回内存之中,这样处理器就无需等待缓慢的内存读写了。

基于高速缓存的存储交互很好的解决了处理器的内存与内存的速度矛盾,但是也为计算机系统带来了更高的复杂度,因为它引入了一个新的问题:缓存一致性(Cache Coherence)。在多处理器系统中,每个处理器都有自己的告诉缓存,而它们又共享同一内存(Main Memory)。当多个处理器的运算任务都涉及同一块主内存区域时,将可能导致各自缓存数据不一致,如果真的发生这种情况,那同步回到主内存时以谁的缓存数据为准呢?为了解决一致性的问题,需要各个处理器访问缓存时都遵循一些协议,在读写时要根据协议来进行操作,这类协议有MSI、MESI、MOSI、Synapse、Firefly和Dragon Protocol等。多次提到的“内存模型”,可以理解为在特定的协议下,对特定的内存或告诉缓存进行读写访问的抽象过程。不同结构的物理机器可以拥有不一样的内存模型,而JVM也有自己的内存模型,并且这里介绍的内存访问操作与硬件的缓存访问操作具有很高的可比性。

处理器、高速缓存、主内存的交互关系

除了增加高速缓存之外,为了使得处理器内部的运算单位能尽量被充分利用,处理器可能会对输入代码进行乱序执行(Out-Of-Order Execution)优化,处理器会在计算之后将乱序执行的结果重组,保证该结果与顺序执行的结果是一致的,但并不保证程序中各个语句计算的先后顺序与输入代码中的顺序一致,因此,如果存在一个计算任务依赖另外一个计算任务的中间结果,那么其顺序性并不能靠代码的先后顺序来保证。与处理器的乱序执行优化类似,JVM的即时编译器也有类似的指令重排序(Instruction Reorder)优化。

Java内存模型

JVM规范中试图定义一种Java内存模型(Java Memory Model,JMM)来屏蔽掉各种硬件和操作系统的内存访问差异,以实现让Java程序在各种平台下都达到一致的内部才能访问效果。在此之前,主流程序语言(C/C++)直接使用物理硬件和操作系统的内存模型,因此,会由于不同平台上内存模型的差异,有可能导致在一套平台上并发完全正常,而在另外一套平台上并发访问却经常出错,因此在某些场景就必须针对不同的平台来编写程序。

定义Java内存模型并非一件容易的事情,这个模型必须定义得足够严谨,才能让Java的并发内存访问操作不会产生歧义;但是,也必须定义得足够宽松,使得虚拟机的实现有足够的自由空间去利用硬件的各种特性(寄存器、高速缓存和指令集中某些特有指令)来获取更好的执行速度。经过长时间的验证和修补,在JDK1.5发布之后,Java内存模型已经成熟和完善起来了。

主内存与工作内存

Java内存模型的主要目标是定义程序中各个变量的访问规则,即在虚拟机中将变量存储到内存和从内存中取出变量这样的底层细节。此外的变量(Variables)与Java编程中所说的变量有所区别,它包括了实例字段、静态字段和构成数组对象的元素,但不包括局部变量与方法参数,因为后者是线程私有的,不会被共享,自然就不会存在竞争问题。为了获得较好的执行效能,Java内存模型并没有限制执行引擎使用处理器的特定寄存器或缓存来和主内存进行交互,也没有限制即时编译器进行调整代码执行顺序这类优化措施。

Java内存模型规定了所有的变量都存储在主内存中(此外的内存与介绍物理硬件时的主内存名字一样,两者也可以互相类比,但此处仅仅是虚拟机内存的一部分)。每条线程还有自己的工作内存(Working Memory,可与前面的高速缓存类比),线程的工作内存中保存了被线程使用到的变量的主内存副本拷贝。这里的副本拷贝并不是把内存复制出来,这个对象的引用、对象中某个线程访问到的字段是有可能存在拷贝的,但不会有虚拟机实现成把整个对象拷贝一次。。线程对变量的所有操作(读取、赋值等)都必须在工作内存中完成,而不是直接读写主内存中的变量(根据JVM规范的规定,volatile变量依然有工作内存的拷贝,但是由于它特殊的操作顺序性规定,所以看起来如同直接在主内存中读写访问一般,因此这里的描述对于volatile也并不例外)。不同线程之间也无法直接访问对方工作内存中的变量,线程间变量值的传递均需要通过主内存来完成,线程、主内存、工作内存三者的关系如下所示


线程、主内存、工作内存三者的交互关系

内存间相互操作

关于主内存与工作内存之间具体的交互协议,即一个变量如何从主内存拷贝到工作内存、如何从工作内存同步回主内存之类的实现细节,Java内存模型定义了以下8种操作来完成,虚拟机实现时必须保证下面提及的每一种操作的原子性、不可再分的(对于double、long类型的变量来说,load、store、read和write操作在某些平台上允许有例外)。

如果要把一个变量从主内存复制到工作内存,那就要顺序地执行read和load操作,如果要把变量从工作内存同步回主内存,就要顺序的执行store和write操作。注意,Java内存模型只要求上述两个操作必须按顺序执行,而没有保证是连续执行。也就是说,read与load之间、store与write之间是可以插入其他指令的,如对主内存中的变量a、b进行访问时,一种可能出现顺序是read a、read b、load b、load a。初次之外,Java内存模型还规定了在执行上述8种基本操作时必须满足如下规则:

这8种内存访问操作以及上述规则限定,再加上稍后介绍的volatile的一些特殊规定就已经完全确定了Java程序中哪些内存访问操作在并发下是安全的。

对于volatile型变量的特殊规则

关键字volatile可以说是JVM提供的最轻量级的同步机制,但是它并不容易完全被正确、完整的理解,以至于许多程序员动习惯不去使用它,遇到需要处理多线程数据竞争的时候一律使用synchronized来进行同步。了解volatile变量的语义对了解多线程操作的其他特性很有意义。

Java内存模型对volatile专门定义了一些特殊的访问规则,当一个变量定义为volatile之后,它将具备两个特性:第一,是保证此变量对所有线程的可见性,这里的“可见性”是指当一条线程修改了这个变量的值,新值对于其他线程来说是可以立即得知的。而普通变量不能做到这一点,普通变量的值在线程间传递均需要通过主内存来完成,例如,线程A修改了一个普通变量的值,然后向主内存进行回写,另外一条线程B在线程A回写完成之后再从主内存进行读取操作,新变量值才会对线程B可见。

关于volatile变量的可见性,经常会被开发人员误解,认为以下描述成立:“volatile变量对所有线程是立即可见的,对volatile变量所有的写操作都能立即反应到其他线程中,换句话说,volatile变量在各个线程中是一致的,所以基于volatile变量的运算在并发下是安全的。”这个结论。 volatile变量在各个线程的工作内存中不存在一致性问题(在各个线程的工作内存中,volatile变量也可以存在不一致的情况,但由于每次使用之前都要先刷新,执行引擎看不到不一致的情况,因此变量也可以认为不存在一致性问题),但是Java里面的运算并非原子操作,导致volatile变量的运算在并发下一样是不安全的,我们可以通过一段简单的演示来说明:

public class Main {
    public static volatile int race = 0;

    public static void increase() {
        race++;
    }

    private static final int THREADS_COUNT = 20;

    public static void main(String[] args) {
        Thread[] threads = new Thread[THREADS_COUNT];
        for (int i = 0; i < THREADS_COUNT; i++) {
            threads[i] = new Thread(new Runnable() {
                @Override
                public void run() {
                    for (int i = 0; i < 10000; i++) {
                        increase();
                    }
                }
            });
            threads[i].start();
        }
        while (Thread.activeCount() > 2) {
            Thread.yield();
        }
        System.out.println(race);
    }
}

这段代码发起了20个线程,每个线程对race变量进行10000次自增操作,如果这段代码能够正确并发的话,最后输出的结果应该是200000。但是在运行完这段代码之后并没有得到这个预期的结果,而且会发现每次运行程序,输出的结果都不一样,都是小于200000的数字。问题出在了自增运算“race++”上,我们用javap反编译这段代码后会得到如下代码清单:

  public static void increase();
    descriptor: ()V
    flags: ACC_PUBLIC, ACC_STATIC
    Code:
      stack=2, locals=0, args_size=0
         0: getstatic     #2                  // Field race:I
         3: iconst_1
         4: iadd
         5: putstatic     #2                  // Field race:I
         8: return
      LineNumberTable:
        line 11: 0
        line 12: 8

发现只有一行代码的increase方法在Class文件中是由4条字节码指令构成的,从字节码层面上很容易就分析出并发失败的原因:当getstatic指令把race的值取到操作数栈的栈顶时,volatile关键字保证了race的值在此时是正确的,但是在执行iconst_1、iadd这些指令的时候,其他线程可能已经把race的值增大了,而在操作栈顶的值就变成了过期数据,所以putstatic指令执行后就可能把较小的race同步回主内存之中。

由于volatile变量只能保证可见性,在不符合以下两条规则的运算场景中,我们仍然要通过加锁(使用synchronized或者java.util.concurrent中的原子类)来保证原子性。

如下的代码清单中的场景就很适合使用volatile变量来控制并发,当shutdown方法被调用的时候,能确保所有线程中执行的doWork方法都立即停下来。

volatile boolean shutdownRequseted;

public void shutdown() {
    shutdownRequseted = true;
}

public void doWork(){
    whilr (!shutdownRequseted){
        //do something
    }
}

使用volatile变量的第二语义是禁止指令重排序优化,普通的变量仅仅会保证在该方法执行过程中所有依赖赋值结果的地方都能获取到正确的结果,而不能保证变量赋值操作的顺序与程序代码中的执行顺序一致。因为在一个线程的方法执行过程中无法感知到这点,这也就是Java内存模型中描述的所谓的“线程内表现为串行的语义”(Within-Thead As-If-Serial Semantics)。

指令重排序是并发编程中最容易让开发人员产生疑惑的地方,比如,一段标准的DCL单例代码,可以观察到加入了volatile和未加入volatile关键字时所产生汇编代码的差别

public class Singleton {
    private volatile static Singleton instance;

    public static Singleton getInstance() {
        if (instance == null) {
            synchronized (Singleton.class) {
                if (instance == null) {
                    instance = new Singleton();
                }
            }
        }
        return instance;
    }

    public static void main(String[] args) {
        Singleton singleton = Singleton.getInstance();
    }
}

编译后,这段代码对instance变量赋值部分如下:

0x01a3de0f:mov  $0x3375cdb0,%esi        ;...beb0cd75  33
                                        ;    {oop('Singleton')}
0x01a3de14:mov  %eax,0x150(%esi)        ;...89865001 0000
0x01a3de1a:shr  $0x9,%esi               ;...clee09
0x01a3de1d:movb $0x0,0x1104800 (%esi)   ;...c6860048 100100
0x01a3de24:lock addl $0x0,(%esp)        ;...f0830424 00
                                        ;*putstatic intstance
                                        ;-
Singleton::getInstance@24

通过对比就会发现,关键变化在于有volatile修饰的变量,赋值后多执行了“lock addl 0x0,(%esp) ”操作,这个操作相当于一个内存屏障(Memory Barrier或Memory Fence,指重排序时不能把后面的指令重排序到内存屏障之前的位置),只有一个CPU访问内存时,并不需要内存屏障;但如果有两个或多个CPU访问内存时,切其中有一个在观测另一个,就需要内存屏障来保证一致性了。这句指令中的“addl0x0,(%esp)”(把ESP寄存器的值加0)显然是一个空操作,关键在于lock的前缀,它的作用是使得本CPU的Cache写入了内存,该写入动作也会引起别的CPU或者别的内核无效化(Invalidate)其Cache,这种操作相当于对Cache中的变量做了一次前面介绍Java内存模式中所说的“store和write”操作。所以通过这样的空操作,可让volatile变量的修改对其他CPU立即可见。

那为什么说它禁止指令重排序呢?从硬件架构上讲,指令重排序是指CPU采用了允许讲多条指令不按程序规定的顺序分开发送给各相应电路单元处理。但并不是说指令任意重排,CPU需要能正确处理指令依赖情况以保障程序能得出正确的执行结果。在本内CPU中,重排序看起来依然是有序的。因此“lock addl $0x0,(%esp)”指令把修改同步到内存时,意味着所有之前的操作都已经执行完成,这样便形成了“指令重排序无法通过内存屏障”的效果。

解决了volatile的语义问题,再来看看在众多保障并发安全的工具中选用volatile的意义:它能让我们的代码比使用其他同步工具更快吗?在某些情况下,volatile的同步机制的性能确实要优于锁,但是由于虚拟机对锁实行的许多消除和优化,使得我们很难量化的认为volatile就会比synchronized块多少。如果让volatile自己与自己比较的话,可以确定一个原则,volatile变量的读操作的性能消耗与普通变量几乎没有什么差别,但是写操作则会慢一些,因为它需要在本地代码中插入许多内存屏障指令来保证处理器不发生乱序执行。不过即便如此,大多数场景下volatile的总开销仍然要比锁要低,我们在volatile与锁之中选择的唯一依据仅仅是volatile的语义更能满足使用场景的需求。

最后再看看Java内存模型中对volatile变量定义的特殊规则。假定T表示一个线程,V和W分别表示两个volatile型的变量,那么在进行read、load、use、assign、store和write操作时需要满足如下规则:

对于long和double型变量的特殊规则

Java内存模型要求lock、unlock、read、load、assign、use、store、write这8个操作都具有原子性,但是对于64位的数据类型(long和double),在模型中特别定义了一条相对宽松的规定:允许虚拟机将没有被volatile修饰的64位数据的读写操作划分为两次32位的操作来进行,即允许虚拟机实现选择可以不保证64位数据类型的load、store、read和write这4个操作的原子性,这点就是所谓的long和double的非原子性协定(Nonatomic Treatment of double and long Variables)。

如果有多个线程共享一个并未声明为volatile的long或double类型的变量,并且同时对它们读取和修改操作,那么某些线程可能会读取到一个既非原值,也不是其他线程修改值的代表了“半个变量”的数值。

不过这种读取到“半个变量”的情况非常罕见(在目前商用Java虚拟机中不会出现),因为Java内存模型虽然允许虚拟机不把long和double变量的读写实现成原子操作,但允许虚拟机选择把这些操作实现为具有原子性的操作,而且还“强烈建议”虚拟机这样实现。在实际开发中,目前各种平台下的商用虚拟机几乎都选择把64位数据的读写操作作为原子操作来对待,因此我们在编写代码时一般不需要把用到的long和double变量专门声明为volatile。

原子性、可见性和有序性

我们可以看到,synchronized关键字在需要这3种特性的时候就可以作为其中一种解决方案?看起来很“万能”。的确,大部分的并发控制操作都能使用synchronized来完成,synchronized的万能也造成了我们的滥用,越“万能”的并发控制,通常会伴随着越大的性能影响。

先行发生原则

如果Java内存模型中所有的有序性都仅仅依靠volatile和synchronized来完成,那么有一些操作将会变得很繁琐,但是我们在编写Java并发代码的时候并没有感觉到这一点,这是因为Java语言中有一个“先行发生”(happens-before)的原则。这个原则非常重要,它是判断数据是否存在竞争、线程是否安全的主要依据,依靠这个原则,我们可以通过几条规则一揽子的解决并发环境下两个操作之间是否可能存在冲突的所有问题。

先行发生时Java内存模型中定义的两项操作之间的偏序关系,如果说操作A先行发生于操作B,其实就是说在发生操作B之前,操作A产生的影响能被操作B观察到,“影响”包括修改了内存中共享变量的值、发送了消息、调用了方法等。举个例子:

//以下操作在线程A中执行
i = 1;

//以下操作在线程B中执行
j = i;

//以下操作在线程C中执行
i = 2;

假设线程A中的操作“i=1”先行发生于线程B的操作“j=1”,那么可以确定在线程B的操作执行后,变量j的值一定等于1,得出这个结论的依据有两个:一是根据先行发生原则,“i=1”的结果可以被观察到;二是线程C还没“登场”,线程A操作结束之后没有其他线程会修改变量i的值。现在再来考虑线程C,我们依然保持线程A和线程B之间的先行发生关系,而线程C出现在线程A和线程B的操作之间,但是线程C与线程B没有先行发生关系,那j的值会是多少呢?答案是不确定。1和2都有可能,因为线程C对变量i的影响可能会被线程B观察到,也可能不会,这个时候线程B就存在读取到过期数据的风险,不具备多线程安全性。

下面是Java内存模型下一些“天然的”先行发生关系,这些先行发生关系无须任何同步器协助就已经存在,可以在编码中直接使用。如果两个操作之间的关系不在此列,并且无法从下列规则中推导出来的话,它们就没有顺序性保障,虚拟机可以对它们随意地进行重排序。

Java语言无须任何同步手段保障就能成立的先行发生规则就只有上面这些了。

private int value = 0;

public void setValue(int value) {
    this.value = value;
}

public int getValue() {
    return value;
}

代码中展示的不过是getter/setter方法,假设存在线程A和线程B,线程A先调用了“setValue(1)”,然后B线程调用了同一个对象的“getValue()”,那么线程B收到的返回值是什么?

我们依次分析一下发生原则中的各项规则,由于两个方法分别由线程A和线程B调用,不在一个线程中,所以程序次序规则在这里不适用;由于没有同步块,自然就不会发生lock和unlock的操作,所以管程锁定规则也不是适用;由于value变量没有被volatile关键字修饰,所以volatile变量规则不适用;后面的线程启动、终止、中断规则和对象终结规则也和这里完全没关系。因为没有一个适用的先行发生规则,所以最后一天传递性也无从谈起,因此我们可以判断尽管线程A在操作时间上先于线程B,但是无法确定线程B中“getValue”方法的返回结果,换句话说,这里面的操作不是线程安全的。

那怎么修复这个问题呢?我们至少有两种比较简单的方案可以选择,要么把getter/setter方法都定义为synchronized方法,这样就可以套用管理锁定规则;要么把value定义volatile变量,由于setter方法对于value的修改不依赖value的原值,满足volatile关键字使用场景,这样就可以套用volatile变量规则来实现先行发生关系。

通过上面的例子,我们可以得出结论:一个操作“时间上的先发生”不代表这个操作会是“先行发生”,那如果一个操作“先行发生”是否就能推导出这个操作必定是“时间上的先发生”呢?也不成立,一个典型的例子就是多次提到的“指令重排序”

//以下操作在同一个线程中执行
int i= 1;
int j = 2;

这两条语句都是在同一个线程之中,根据程序次序规则,“int i=1”的操作先行发生于“int j=2”,但是“int j=2”的代码完全可能先被处理器执行,这并不影响先行发生原则的正确性,因为我们在这条线程之中没有办法感知到这点。

综合上面两个例子我们可以得出结论:时间先后顺序与先行发生原则之间基本没有太大关系,所以我们衡量并发安全问题的时候不要受到时间顺序的干扰,一切必须以先行发生原则为准。

Java与线程

并发不一定要依赖多线程(如PHP中很常见的多线程并发),但是在Java里面谈论并发,大多数都与线程脱不开关系。

线程的实现

线程是比进程更轻量级的调度执行单位,线程的引入,可以把一个线程的资源分配和执行调度分开,各个线程可以共享进程资源(内存地址、文件IO等),又可以独立调度(线程是CPU调度的基本单位)。

主流的操作系统都提供了线程实现,Java语言则提供了在不同硬件和操作系统平台下对线程操作的统一处理,每个已经执行start()且未结束的java.lang.Thread类的实现就代表了一个线程。我们注意到Thread类与的大部分JavaAPI有显著差别,它的所有关键方法都是声明为native的。在JavaAPI中,一个native方法往往意味着这个方法没有使用或无法使用平台无关的手段来实现(当然也可能是为了执行效率而使用native方法,不过,通常最高效的手段也就是平台相关的手段)。

实现线程主要有3种方式:使用内核线程实现、使用用户线程实现和使用用户线程+轻量级进程混合实现。

使用内核实现

内核线程(Kernel-Level Thread,KLT)就是直接由操作系统内核(Kernel,下面统称内核)支持的线程,这种线程由内核来完成线程切换,内核通过操纵调度器(Scheduler)对线程进行调度,并负责将线程的任务映射到各个处理器上。每个内核线程可以视为内核的一个分身,这样操作系统就有能力同时处理多件事情,支持多线程的内核就叫做多线程内核(Multi-Threads Kernel)。

程序一般不会直接去使用内核线程,而是去使用内核线程的一种高级接口——轻量级进程(Light Weight Process,LWP),轻量级进程就是我们通常意义上所讲的线程,由于每个轻量级进程都由一个内核线程支持,因此只有先支持内核线程,才能有轻量级进程。这种轻量级进程与内核线程之间1:1的关系称为一对一的线程模型,如下图所示:


轻量级进程与内核线程之间1:1的关系

由于内核线程的支持,每个轻量级进程都成为了一个独立的调度单元,即使有一个轻量级进程在系统调用中阻塞了,也不会影响整个进程继续工作,但是轻量级进程有它的局限性:

使用用户线程实现

从广义上讲,一个线程只要不是内核线程,就可以认为是用户线程,因此从这个定义上来讲,轻量级进程也属于用户线程,但轻量级进程的实现始终是建立在内核之上的,许多操作都要进行系统代用,效率会受到限制。

而狭义的用户线程指的是完全建立在用户空间的线程库上,系统内核不能感知线程存在的实现。用户线程的创建、同步、销毁和调度完全在用户状态中完成,不需要内个的帮助。如果程序实现得当,这种线程不需要切换到内核态,因此操作可以是非常快速且低消耗的,也可以支持规模更大的线程数量,部分高性能数据库中的多线程就是由用户线程实现的。这种线程与用户线程之间1:N的关系称为一对多的线程模型,如图所示

进程与用户线程1:N的关系

使用用户线程的优势在于不需要系统内核支援,劣势也在于没有系统内核的支援,所有的线程操作都需要用户程序自己处理。线程的创建、切换和调度都是需要考虑的问题,而且由于操作系统只把处理器资源分配到进程,那注入“阻塞如何处理”、“多处理器系统中如何将线程映射到其他处理器上”这类问题解决起来就会异常困难,甚至不可能完成。因而使用用户线程实现的程序一般都比较复杂,除了以前在不支持多线程的操作系统中的多线程和少数特殊需求的程序外,现在使用用户线程的程序越来越少,Java、Ruby等语言都曾经使用过用户线程,但最终又都放弃了。

使用用户线程+轻量级进程混合实现

线程除了依赖内核线程实现和完全由用户程序自己实现之外,还有一种将内核线程与用户线程一起使用的实现方式。在这种混合实现下,既存在用户线程,也存在轻量级进程。用户线程还是完全建立在用户空间中,因此用户线程的创建、切换、析构等操作依然廉价,并且可以支持大规模的用户线程并发。而操作系统提供支持的轻量级进程则作为用户线程和内核线程之间的桥梁,这样可以使用内核提供的线程调度功能及处理器映射,并且用户线程的系统调度要通过轻量级进程来完成,大大降低了整个进程被阻塞的风险。在这种混合模式中,用户线程与轻量级进程的数量比是不一定的,即为N:M的关系。许多UNIX系列的操作系统都提供了N:M的线程模型实现。

用户线程与轻量级线程N:M的关系

Java线程的实现

Java线程在JDK1.2之前,是基于称为“绿色线程”的用户线程实现的,而在JDK1.2中,线程模型替换成基于操作系统原生线程模型来实现。因此在目前的JDK版本中,操作系统支持怎样的线程模型,在很大程度上决定了Java虚拟机的线程是怎样的映射,这点不同平台没有办法达成一致,虚拟机规范中也并未限定Java线程需要使用哪些线程模型来实现。线程模型只对线程的并发规模和操作成本产生影响,对Java程序的编码和运行过程来说,这些差异都是透明的。

对于Sun JDK来说,它的Windows版和Linux版都是使用一对一的模型实现的,一条Java线程就映射到一条轻量级进程中,因为Windows和Linux系统提供的线程模型就是一对一的。

但是在Solaris平台,由于操作系统的线程特性可以同时支持一对一和多对多的线程模型,因此在Solaris版的JDK也对应提供了两个平台专有的的虚拟机参数:-XX:UseLWPSynchronization(默认值)和-XX:UseBoundThreads来明确指定虚拟机适用哪种线程模型。

Java线程调度

线程调度是指系统为线程分配处理器使用权的过程,主要调度方式有两种,分别是协同式线程调度(Cooperative )和抢占式线程调度(Preemptive Threads-Scheduling)。

如果使用协同式调度的多线程系统,线程的执行时间由线程本身来控制,线程把自己的工作执行完了之后,要主动通知系统切换到另外一个线程上。协同式多线程的最大好处是实现简单,而且由于线程要把自己的事情干完后才会进行线程切换,切换操作对线程自己是可知的,所以没有什么线程同步的问题。Lua语言中的“协同例程”就是这类实现。它的坏处也很明显:线程执行时间不可控制,甚至如果一个线程编写的问题,一直不告知系统进行线程切换,那么程序就会一直阻塞在那里。很久以前的Windows3.x系统就是使用协同式来实现多线程多任务的,相当不稳定,一个进程坚持不让出CPU执行时间就可能会导致整个系统崩溃。

如果使用抢占式调度的多线程系统,那么每个线程将由系统来分配执行时间,线程的切换不由线程本身来决定(在Java中,Thread.yield()可以让出执行时间,但是要获取执行时间的话,线程本身是没有什么办法的)。在这种实现线程调度的方式下,线程的执行时间是系统可控的,也不会有一个线程导致整个进程阻塞的问题,Java使用的线程调度方式就是抢占式调度。与前面所说的Windows3.x的例子相对,在Windows9x/NT内核中就是使用抢占式来实现多进程的,当一个进程除了问题,我们还可以使用任务管理器把这个进程杀掉,而不至于导致系统崩溃。

虽然Java线程调度是系统自动完成的,但是我们还是可以“建议”系统给默写线程多分配一点执行时间,另外的一些线程则可以少分配一点,这项操作可以通过设置线程优先级来完成。Java语言一共设置了10个级别的线程优先级(Thread.MIN_PRIORITY至Thread.MAX_PRIORITY),这两个线程同时处于Ready状态时,优先级越高的线程越容易被系统选择执行。

不过优先级并不是太靠谱,原因是Java线程是通过映射到系统的原生线程上来实现的,所以线程调度最终还是取决于操作系统,虽然现在很多操作系统都提供线程优先级的概念,但是并不能和Java线程的优先级一一对应,如Solaris有2^32种概念,但win只有7种。并且一些平台中不同的优先级实际上也会变得相同,优先级会被系统自行改变,例如,在win中存在一个称谓“优先级推进去”的功能,它的大致作用就是当系统发现一个线程执行得特别勤奋的话,可能会越过优先级去为它分配执行时间。

状态转换

Java中定义了5种线程状态,在任意一个时间点,一个线程只能有且仅有一种状态,如下:

线程状态切换
上一篇 下一篇

猜你喜欢

热点阅读