前言
在多线程、多处理器、分布式环境的编程时代,并发是一个不可回避的问题。既然并发问题摆在面前一个到无法回避的坎,倒不如拥抱它,把它搞清楚,花一定的时间从操作系统底层原理到Java的基础编程再到分布式环境等几个方面深入探索并发问题。先就从原理开始吧。
计算机系统层次结构
早期计算机系统的层次
最早的计算机用机器语言编程,机器语言称为第一代程序设计语言
汇编语言编程
汇编语言编程
现代(传统)计算机系统的层次
现代计算机用高级语言编程
- 第三代程序设计语言(3GL)为过程式 语言,编码时需要描述实现过程,即“ 如何做”。
- 第四代程序设计语言(4GL) 为非过程 化语言,编码时只需说明“做什么”, 不需要描述具体的算法实现细节。
语言处理系统包括:各种语言处理程序(如编译、汇编、 链接)、运行时系统(如库函数,调试、优化等功能)
操作系统包括人机交互界面、 提供服务功能的内核例程
可以看出:语言的发展是一 个不断“抽象”的过程,因而,相应的计算机系统也不断有新的层次出现。
计算机系统抽象层的转换
功能转换:上层是下层的抽象,下层是上层的实现 底层为上层提供支撑环境!
计算机系统的不同用户
- 最终用户工作在由应用程序提供的最上面的抽象层
- 系统管理员工作在由操作系统提供的抽象层
- 应用程序员工作在由语言处理系统(主要有编译器和汇编器)的抽象层
- 语言处理系统建立在操作系统之上
- 系统程序员(实现系统软件)工作在ISA层次,必须对ISA非常了解
编译器和汇编器的目标程序由机器级代码组成
操作系统通过指令直接对硬件进行编程控制ISA处于软件和硬件的交界面(接口)
ISA是对硬件的抽象所有软件功能都建立在ISA之上
指令集体系结构(ISA)
ISA指 Instruction Set Architecture,即指令集体系结构,有时简称为指令系统
- ISA是一种规约(Specification),它规定了如何使用硬件可执行的指令的集合,包括指令格式、操作种类以及每种操作对应的 操作数的相应规定;指令可以接受的操作数的类型;操作数所能存放的寄存器组的结构,包括每个寄存器的名称、编号、 长度和用途;操作数所能存放的存储空间的大小和编址方式;操作数在存储空间存放时按照大端还是小端方式存放;指令获取操作数的方式,即寻址方式;指令执行过程的控制方式,包括程序计数器(PC)、条件码定义等。
- ISA在通用计算机系统中是必不可少的一个抽象层,没有它,软件无法使用计算机硬件!没有它,一台计算机不能称为“通用计算机”
ISA和计算机组成(微结构)之间的关系
ISA是计算机组成的抽象,不同ISA规定的指令集不同
- 如,IA-32、MIPS、ARM等 计算机组成必须能够实现ISA规定的功能
- 如提供GPR、标志、运算电路等 同一种ISA可以有不同的计算机组成
- 如乘法指令可用ALU或乘法器实现
现代计算机的原型
现代计算机模型是基于-冯诺依曼计算机模型
1946年,普林斯顿高等研究院(the Institute for Advance Study at Princeton,IAS )开始设计“存储程序”计算机,被称为IAS计算机.
- 冯·诺依曼结构最重要的思想是“存储程序(Stored-program)”
- 工作方式:任何要计算机完成的工作都要先被编写成程序,然后将程序和原始数据送入主存并启动执行。一旦程序被启动,计算机应能在不需操作人员干预下,自动完成逐条取出指令和执行指令的任务。冯·诺依曼结构计算机也称为冯·诺依曼机器(Von Neumann Machine)。几乎现代所有的通用计算机大都采用冯·诺依曼结构,因此,IAS计算机是现代计算机的原型机。
计算机在运行时,先从内存中取出第一条指令,通过控制器的译码,按指令的要求,从存储器中取出数据进行指定的运算和逻辑操作等加工,然后再按地址把结果送到内存中去。接下来,再取出第二条指令,在控制器的指挥下完成规定操作。依此进行下去。直至遇到停止指令。
程序于数据一样存贮,按程序编排的顺序,一步一步地取出指令,自动地完成指令规定的操作是计算机最基本的工作模型。这一原理最初是由美籍匈牙利数学家冯.诺依曼于1945年提出来的,故称为冯.诺依曼计算机模型。
冯·诺依曼结构是怎样的?
- 有主存,用来存放程序和数据
- 一个自动逐条取 出指令的部件
- 具体执行指令 (即运算)的部件
- 程序由指令构成
- 指令描述如何对数据进 行处理
- 将程序和原始数据输入计算机的部件
- 将运算结果输出计算机的部件
冯·诺依曼结构的主要思想
- 计算机应由计算器(运算器)、控制器、存储器、输入设备和输出设备 五个基本部件组成。
- 各基本部件的功能是:控制器(Control):是整个计算机的中枢神经,其功能是对程序规定的控制信息进行解释,根据其要求进行控制,调度程序、数据、地址,协调计算机各部分工作及内存与外设的访问等。运算器(Datapath):运算器的功能是对数据进行各种算术运算和逻辑运算,即对数据进行加工处理。存储器(Memory):存储器的功能是存储程序、数据和各种信号、命令等信息,并在需要时提供这些信息。输入(Input system):输入设备是计算机的重要组成部分,输入设备与输出设备合并为外部设备,简称外设,输入设备的作用是将程序、原始数据、文字、字符、控制命令或现场采集的数据等信息输入到计算机。常见的输入设备有键盘、鼠标器、光电输入机、磁带机、磁盘机、光盘机等。输出(Output system):输出设备与输入设备同样是计算机的重要组成部分,它把外算机的中间结果或最后结果、机内的各种数据符号及文字或各种控制信号等信息输出出来。微机常用的输出设备有显示终端CRT、打印机、激光印字机、绘图仪及磁带、光盘机等。
- 内部以二进制表示指令和数据。每条指令由操作码和地址码 两部分组成。操作码指出操作类型,地址码指出操作数的地址。由一串指令组成程序。
- 采用“存储程序”工作方式。
现代计算机结构模型
基于冯·诺依曼计算机理论的抽象简化模型,它的具体应用就是现代计算机当中的硬件结构设计:
在上图硬件结构当中,配件很多,但最核心的只有两部分:CPU、内存。所以我们重点学习的也是这两部分。
CPU:中央处理器;PC:程序计数器; MAR:存储器地址寄存器 ALU:算术逻辑部件; IR:指令寄存器;MDR:存储器数据寄存器 GPRs:通用寄存器组(由若干通用寄存器组成,早期就是累加器)
CPU指令结构
CPU内部结构
- 控制单元
- 运算单元
- 数据单元
控制单元
控制单元是整个CPU的指挥控制中心,由指令寄存器IR(Instruction Register)、指令译码器ID(Instruction Decoder)和 操作控制器OC(Operation Controller) 等组成,对协调整个电脑有序工作极为重要。它根据用户预先编好的程序,依次从存储器中取出各条指令,放在指令寄存器IR中,通过指令译码(分析)确定应该进行什么操作,然后通过操作控制器OC,按确定的时序,向相应的部件发出微操作控制信号。操作控制器OC中主要包括:节拍脉冲发生器、控制矩阵、时钟脉冲发生器、复位电路和启停电路等控制逻辑。
运算单元
运算单元是运算器的核心。可以执行算术运算(包括加减乘数等基本运算及其附加运算)和逻辑运算(包括移位、逻辑测试或两个值比较)。相对控制单元而言,运算器接受控制单元的命令而进行动作,即运算单元所进行的全部操作都是由控制单元发出的控制信号来指挥的,所以它是执行部件。
存储单元
存储单元包括 CPU 片内缓存Cache和寄存器组,是 CPU 中暂时存放数据的地方,里面保存着那些等待处理的数据,或已经处理过的数据,CPU 访问寄存器所用的时间要比访问内存的时间短。 寄存器是CPU内部的元件,寄存器拥有非常高的读写速度,所以在寄存器之间的数据传送非常快。采用寄存器,可以减少 CPU 访问内存的次数,从而提高了 CPU 的工作速度。寄存器组可分为专用寄存器和通用寄存器。专用寄存器的作用是固定的,分别寄存相应的数据;而通用寄存器用途广泛并可由程序员规定其用途。
下表列出了CPU关键技术的发展历程以及代表系列,每一个关键技术的诞生都是环环相扣的,处理器这些技术发展历程都围绕着如何不让“CPU闲下来”这一个核心目标展开。
CPU缓存结构
现代CPU为了提升执行效率,减少CPU与内存的交互(交互影响CPU效率),一般在CPU上集成了多级缓存架构,常见的为三级缓存结构
- L1 Cache,分为数据缓存和指令缓存,逻辑核独占
- L2 Cache,物理核独占,逻辑核共享
- L3 Cache,所有物理核共享
- 存储器存储空间大小:内存>L3>L2>L1>寄存器;
- 存储器速度快慢排序:寄存器>L1>L2>L3>内存;
注意:缓存是由最小的存储区块-缓存行(cacheline)组成,缓存行大小通常为64byte。
缓存行是什么意思呢? 比如你的L1缓存大小是512kb,而cacheline = 64byte,那么就是L1里有512 * 1024/64个cacheline
CPU读取存储器数据过程
- CPU要取寄存器X的值,只需要一步:直接读取。
- CPU要取L1 cache的某个值,需要1-3步(或者更多):把cache行锁住,把某个数据拿来,解锁,如果没锁住就慢了。
- CPU要取L2 cache的某个值,先要到L1 cache里取,L1当中不存在,在L2里,L2开始加锁,加锁以后,把L2里的数据复制到L1,再执行读L1的过程,上面的3步,再解锁。
- CPU取L3 cache的也是一样,只不过先由L3复制到L2,从L2复制到L1,从L1到CPU。
- CPU取内存则最复杂:通知内存控制器占用总线带宽,通知内存加锁,发起内存读请求,等待回应,回应数据保存到L3(如果没有就到L2),再从L3/2到L1,再从L1到CPU,之后解除总线锁定。
CPU为何要有高速缓存
CPU在摩尔定律的指导下以每18个月翻一番的速度在发展,然而内存和硬盘的发展速度远远不及CPU。这就造成了高性能能的内存和硬盘价格及其昂贵。然而CPU的高度运算需要高速的数据。为了解决这个问题,CPU厂商在CPU中内置了少量的高速缓存以解决I\O速度和CPU运算速度之间的不匹配问题。
在CPU访问存储设备时,无论是存取数据抑或存取指令,都趋于聚集在一片连续的区域中,这就被称为局部性原理。
- 时间局部性(Temporal Locality):如果一个信息项正在被访问,那么在近期它很可能还会被再次访问。
比如循环、递归、方法的反复调用等。
- 空间局部性(Spatial Locality):如果一个存储器的位置被引用,那么将来他附近的位置也会被引用。
比如顺序执行的代码、连续创建的两个对象、数组等。
空间局部性案例:
- public class TwoDimensionalArraySum {
- private static final int RUNS = 100;
- private static final int DIMENSION_1 = 1024 * 1024;
- private static final int DIMENSION_2 = 6;
- private static long[][] longs;
- public static void main(String[] args) throws Exception {
- /*
- * 初始化数组
- */
- longs = new long[DIMENSION_1][];
- for (int i = 0; i < DIMENSION_1; i++) {
- longs[i] = new long[DIMENSION_2];
- for (int j = 0; j < DIMENSION_2; j++) {
- longs[i][j] = 1L;
- }
- }
- System.out.println("Array初始化完毕....");
- long sum = 0L;
- long start = System.currentTimeMillis();
- for (int r = 0; r < RUNS; r++) {
- for (int i = 0; i < DIMENSION_1; i++) {//DIMENSION_1=1024*1024
- for (int j=0;j<DIMENSION_2;j++){//6
- sum+=longs[i][j];
- }
- }
- }
- System.out.println("spend time1:"+(System.currentTimeMillis()-start));
- System.out.println("sum1:"+sum);
- sum = 0L;
- start = System.currentTimeMillis();
- for (int r = 0; r < RUNS; r++) {
- for (int j=0;j<DIMENSION_2;j++) {//6
- for (int i = 0; i < DIMENSION_1; i++){//1024*1024
- sum+=longs[i][j];
- }
- }
- }
- System.out.println("spend time2:"+(System.currentTimeMillis()-start));
- System.out.println("sum2:"+sum);
- }
- }
带有高速缓存的CPU执行计算的流程
- 程序以及数据被加载到主内存
- 指令和数据被加载到CPU的高速缓存
- CPU执行指令,把结果写到高速缓存
- 高速缓存中的数据写回主内存
CPU运行安全等级
CPU有4个运行级别,分别为:
- ring0
- ring1
- ring2
- ring3
Linux与Windows只用到了2个级别:ring0、ring3,操作系统内部内部程序指令通常运行在ring0级别,操作系统以外的第三方程序运行在ring3级别,第三方程序如果要调用操作系统内部函数功能,由于运行安全级别不够,必须切换CPU运行状态,从ring3切换到ring0,然后执行系统函数,说到这里相信大家明白为什么JVM创建线程,线程阻塞唤醒是重型操作了,因为CPU要切换运行状态。 下面我大概梳理一下JVM创建线程CPU的工作过程
- step1:CPU从ring3切换ring0创建线程
- step2:创建完毕,CPU从ring0切换回ring3
- step3:线程执行JVM程序
- step4:线程执行完毕,销毁还得切会ring0
操作系统内存管理
执行空间保护
操作系统有用户空间与内核空间两个概念,目的也是为了做到程序运行安全隔离与稳定,以32位操作系统4G大小的内存空间为例
Linux为内核代码和数据结构预留了几个页框,这些页永远不会被转出到磁盘上。从 0x00000000 到 0xC0000000(PAGE_OFFSET) 的线性地址可由用户代码 和 内核代码进行引用(即用户空间)。从0xC0000000(PAGE_OFFSET)到 0xFFFFFFFFF的线性地址只能由内核代码进行访问(即内核空间)。内核代码及其数据结构都必须位于这 1 GB的地址空间中,但是对于此地址空间而言,更大的消费者是物理地址的虚拟映射。
这意味着在 4 GB 的内存空间中,只有 3 GB 可以用于用户应用程序。进程与线程只能运行在用户方式(usermode)或内核方式(kernelmode)下。用户程序运行在用户方式下,而系统调用运行在内核方式下。在这两种方式下所用的堆栈不一样:用户方式下用的是一般的堆栈(用户空间的堆栈),而内核方式下用的是固定大小的堆栈(内核空间的对战,一般为一个内存页的大小),即每个进程与线程其实有两个堆栈,分别运行与用户态与内核态。
由空间划分我们再引申一下,CPU调度的基本单位线程,也划分为:
- 内核线程模型(KLT)
- 用户线程模型(ULT)
内核线程模型
内核线程(KLT):系统内核管理线程(KLT),内核保存线程的状态和上下文信息,线程阻塞不会引起进程阻塞。在多处理器系统上,多线程在多处理器上并行运行。线程的创建、调度和管理由内核完成,效率比ULT要慢,比进程操作快。
用户线程模型
用户线程(ULT):用户程序实现,不依赖操作系统核心,应用提供创建、同步、调度和管理线程的函数来控制用户线程。不需要用户态/内核态切换,速度快。内核对ULT无感知,线程阻塞则进程(包括它的所有线程)阻塞。
到这里,大家不妨思考一下,jvm是采用的哪一种线程模型?
进程与线程
什么是进程?
现代操作系统在运行一个程序时,会为其创建一个进程;例如,启动一个Java程序,操作系统就会创建一个Java进程。进程是OS(操作系统)资源分配的最小单位。
什么是线程?
线程是OS(操作系统)调度CPU的最小单元,也叫轻量级进程(Light Weight Process),在一个进程里可以创建多个线程,这些线程都拥有各自的计数器、堆栈和局部变量等属性,并且能够访问共享的内存变量。CPU在这些线程上高速切换,让使用者感觉到这些线程在同时执行,即并发的概念,相似的概念还有并行!
线程上下文切换过程:
虚拟机指令集架构
虚拟机指令集架构主要分两种:
- 栈指令集架构
- 寄存器指令集架构
关于指令集架构的wiki详细说明:http://zh.wikipedia.org/wiki/指令集架构
栈指令集架构
- 设计和实现更简单,适用于资源受限的系统;
- 避开了寄存器的分配难题:使用零地址指令方式分配;
- 指令流中的指令大部分是零地址指令,其执行过程依赖于操作栈,指令集更小,编译器容易实现;
- 不需要硬件支持,可移植性更好,更好实现跨平台。
寄存器指令集架构
典型的应用是x86的二进制指令集:比如传统的PC以及Android的Davlik虚拟机。
指令集架构则完全依赖硬件,可移植性差。
性能优秀和执行更高效。
花费更少的指令去完成一项操作。
在大部分情况下,基于寄存器架构的指令集往往都以一地址指令、二地址指令和三地址指令为主,而基于栈式架构的指令集却是以零地址指令为主。
- Java符合典型的栈指令集架构特征,像Python、Go都属于这种架构。