跳转至

操作系统核心概念回顾

本文档综合了两份演示文稿,对操作系统的核心概念进行了全面回顾,涵盖了从操作系统基础、进程与线程管理,到 CPU 调度、同步机制和死锁等关键主题。

操作系统概述 (R1: page 3-17)

操作系统(Operating System, OS)是计算机系统中最核心的系统软件,它在应用程序和底层硬件之间扮演着至关重要的桥梁角色。

什么是操作系统? (R1: page 4)

OS a resource abstractor and a resource allocator.

操作系统是一个软件层,位于应用程序和硬件之间。它的主要目的是管理计算机的硬件资源,并为用户和应用程序提供一个简单、一致的接口来使用这些硬件。如果没有操作系统,用户将需要直接与复杂的硬件交互,这将极其困难。

如图所示,计算机系统可以被抽象为四个层次: 1. 硬件 (Hardware): 提供基本的计算资源(CPU、内存、I/O 设备。 2. 操作系统 (OS): 控制和协调各个用户和应用程序对硬件资源的使用。 3. 系统和应用软件 (System and application programs): 如编译器、数据库系统、Web 浏览器等,它们使用操作系统提供的服务来解决用户的计算问题。 4. 用户 (Users): 通过应用软件与系统交互。

核心功能与运行模式 (R1: page 6-9)

为了有效管理资源并提高效率,操作系统引入了多道程序设计、分时系统等关键技术,并通过硬件支持的双模式操作来确保自身的稳定和安全。

  • 多道程序设计 (Multiprogramming): 内存中同时存放多个作业(Jobs。当一个作业需要等待 I/O 操作时,操作系统会切换到另一个作业,从而保证 CPU 始终有任务执行,提高了系统利用率。
  • 分时系统 (Timesharing / Multitasking): 这是多道程序设计的逻辑扩展。操作系统在不同作业之间进行极其频繁的切换(通常响应时间小于 1 ,使得每个用户都能与自己的程序(即进程)进行交互,感觉就像是独占了整个计算机。
双模式操作 (Dual-mode Operation) (R1: page 8-9)

为了保护操作系统自身及其管理的其他进程不受恶意或无意程序的破坏,现代 CPU 提供了至少两种操作模式:

  1. 用户模式 (User Mode): 应用程序运行的模式。在此模式下,程序能访问的指令和内存区域受到限制。
  2. 内核模式 (Kernel Mode): 操作系统内核运行的模式。在此模式下,代码可以执行所有指令并访问所有内存。

CPU 通过一个模式位 (mode bit) 来区分当前所处的模式。当应用程序需要执行特权操作(如 I/O 请求)时,它不能直接执行,而是必须通过系统调用 (System Call) 请求操作系统代为执行。这个过程会触发一个“陷阱 (trap)”,使 CPU 从用户模式切换到内核模式。当操作系统完成服务后,它会将模式切换回用户模式,并将控制权交还给应用程序。

中断 (Interrupt)异常 (Exception)系统调用 是从用户模式转换到内核模式的主要途径。这种设计是操作系统实现保护和资源管理的基础。

资源管理 (R1: page 13-17)

操作系统是计算机系统的资源管理器,主要负责以下几类资源的管理:

  1. 进程管理 (Process Management): 进程是“执行中的程序”,是操作系统进行资源分配和保护的基本单位。操作系统负责进程的创建、终止、挂起、恢复、同步和通信。
  2. 内存管理 (Memory Management): 内存是 CPU 能直接访问的存储。操作系统需要跟踪哪些内存正在被使用、由谁使用,并在进程需要时为其分配和回收内存。为了优化 CPU 利用率和响应时间,操作系统还为程序员提供了虚拟内存 (virtual memory) 的抽象。
  3. 文件系统管理 (File System Management): 操作系统以文件 (file) 的形式提供统一、逻辑的数据存储视图。文件通常被组织在目录 (directories) 中。操作系统负责文件的创建、删除、读写以及访问控制。

操作系统结构与服务 (R1: page 18-48)

操作系统向用户和系统自身提供一系列服务,并通过特定的结构来组织这些功能。

操作系统服务 (R1: page 19-21)

从不同视角看,操作系统的服务可分为两类:

1. 用户可见的服务 (User-Visible Services): - 用户界面 (UI): 包括命令行界面(CLI、图形用户界面(GUI)和批处理。 - 程序执行: 加载程序到内存,执行它,并处理其正常或异常的终止。 - I/O 操作: 管理程序与文件或 I/O 设备的交互。 - 文件系统操作: 文件的读、写、创建、删除、搜索和权限管理。 - 通信: 支持进程间的信息交换,可以通过共享内存或消息传递。 - 错误检测: 持续监控 CPU、内存、I/O 设备及用户程序中可能发生的错误,并采取措施保证系统的正确性和一致性。

2. 系统视角的服务 (System View Services): - 资源分配: 为并发运行的多个用户或作业分配 CPU、内存、文件、I/O 设备等资源。 - 记账 / 日志: 跟踪记录用户使用的资源类型和数量。 - 保护与安全 (Protection and Security): - 保护是控制进程或用户对系统资源访问的机制。例如,访问控制和进程隔离。 - 安全是基于保护机制实现的策略,用于防止内外部对系统的非法访问,如用户认证。

系统调用:连接用户程序与内核的桥梁 (R1: page 23-34)

系统调用是用户程序访问操作系统服务的编程接口。

API 与系统调用的关系 (R1: page 24-25, 27)

程序员通常不直接使用系统调用,而是通过高级的应用程序编程接口 (Application Programming Interface, API) 来编程。常见的 API 包括用于 Windows Win32 API,以及用于 UNIX/Linux/macOS POSIX API

API(例如 C 语言库中的 printf())作为用户程序和系统调用之间的“包装器 (wrapper)”。printf() 库函数最终会调用底层的 write() 系统调用来完成屏幕输出。使用 API 的主要好处是可移植性 (portability),因为只要遵循相同的 API 标准,代码就可以在不同操作系统上编译运行,而无需关心底层系统调用的具体实现。

系统调用的处理流程 (R1: page 26, 32-34): 以 x86-64 架构上的 write 系统调用为例: 1. 用户空间: C 库函数 write() 将系统调用号(syscall number)放入 %eax 寄存器,并将其他参数(文件描述符、缓冲区地址、大小)按约定放入其他寄存器。 2. 陷入内核: 程序执行 syscall 指令。这会导致 CPU 发生陷阱,模式从用户模式切换到内核模式,并将控制权转移到内核中一个预定义的入口点 (kernel_entry )。 3. 内核空间: - kernel_entry 代码首先保存所有用户空间寄存器的状态到当前进程的内核栈中。 - 内核通过 %eax 寄存器中的系统调用号,在系统调用表 (syscall_table) 中查找对应的处理函数(syscall_table[1] 指向 write 的实现)。 - 执行系统调用处理函数。 - 处理完成后,调用 ret_to_user,恢复之前保存的用户寄存器。 - 执行 iret (或类似指令) ,将 CPU 模式切换回用户模式,并返回到用户程序 syscall 指令的下一条指令继续执行。

操作系统结构模型 (R1: page 41-47)

操作系统的内部组件可以有多种组织方式: - 简单结构 (Simple Structure): MS-DOS,功能层级和接口划分不清晰,模块之间耦合度高,就像一盘意大利面。 - 宏内核 / 单体结构 (Monolithic Structure): 如传统的 UNIX 和现代的 Linux。所有核心功能(文件系统、CPU 调度、内存管理等)都运行在内核空间。优点是效率高,因为功能间的调用只是函数调用;缺点是代码庞大,一个模块的 bug 可能导致整个系统崩溃。 - 分层结构 (Layered Approach): 将操作系统划分为若干层,每一层只使用其下一层提供的服务。结构清晰,易于调试,但层级间的通信开销较大。 - 微内核结构 (Microkernel Structure): 将尽可能多的功能(如文件系统、设备驱动)移出内核,作为用户空间的服务器进程来运行。内核只保留最基本的功能(如进程通信、基本调度、内存管理。优点是更可靠、更安全、易于扩展;缺点是用户空间和内核空间之间的通信(通常是消息传递)会带来性能开销。

进程管理 (R1: page 49-75)

进程是操作系统中一个至关重要的概念,它是资源分配和调度的基础。

进程与程序 (R1: page 50-51)

进程 (Process)

进程是“一个正在执行中的程序”。它是一个动态的活跃的实体,而程序本身只是一个存放在磁盘上的静态的被动的文件。一个程序可以对应多个进程(例如,打开多个浏览器窗口

核心区别在于: - 进程是资源分配和保护的基本单位。操作系统为每个进程分配独立的地址空间、文件句柄等资源。 - 线程是 CPU 调度的基本单位(详见下一章)

一个进程的内存布局通常包括: - 文本段 (Text Section): 程序代码。 - 数据段 (Data Section): 全局变量。 - (Heap): 动态分配的内存。 - (Stack): 存储函数参数、局部变量和返回地址。 - 运行时状态: 包括程序计数器 (PC) CPU 寄存器的值。

进程控制块 (PCB) (R1: page 52)

操作系统在内核中为每个进程维护一个进程控制块 (Process Control Block, PCB),它包含了管理该进程所需的所有信息。在 Linux 中,这由 task_struct 结构体实现,其内容包括:

  • 进程 ID (pid)
  • 进程状态 (Process State): 如运行、就绪、等待等。
  • 程序计数器 (PC)CPU 寄存器: 当进程被中断时,这些信息被保存,以便后续恢复。
  • CPU 调度信息: 进程优先级、调度队列指针等。
  • 内存管理信息: 指向页表等数据结构的指针。
  • I/O 状态信息: 分配给进程的 I/O 设备和打开的文件列表。

进程的生命周期 (R1: page 56)

进程在其生命周期中会经历以下几种状态: - 新建 (New): 进程正在被创建。 - 运行 (Running): 指令正在被 CPU 执行。 - 等待 (Waiting): 进程正在等待某个事件发生(如 I/O 完成或收到信号。 - 就绪 (Ready): 进程已准备好,等待被分配给 CPU 运行。 - 终止 (Terminated): 进程已完成执行。

进程创建 (R1: page 57-65)

UNIX/Linux 系统中,进程通过 fork()exec() 系统调用来创建: - fork(): 创建一个与父进程几乎完全相同的新进程(子进程)。它复制父进程的地址空间、寄存器等。fork() 的奇妙之处在于它调用一次,返回两次:在父进程中返回子进程的 PID,在子进程中返回 0。 - exec(): 在一个进程的上下文中加载并运行一个新的程序。它会用新程序的代码、数据、堆栈等覆盖当前进程的内存空间。 - wait(): 父进程可以使用此调用来等待其子进程终止。

fork() exec() 组合使用 (R1: page 59)

这种模式是 Shell 执行命令的基础。

C
pid_t pid = fork(); // 1. 创建子进程
if (pid < 0) {
    // fork 失败
} else if (pid == 0) {
    // 2. 子进程执行此代码块
    execlp("/bin/ls", "ls", NULL); // 3. 加载并执行 'ls' 程序
} else {
    // 4. 父进程执行此代码块
    wait(NULL); // 5. 等待子进程执行完毕
    printf("Child Complete");
}
子进程通过 exec() 变身为 ls 命令,而父进程(通常是 Shell)则等待命令执行完成。
深入理解 fork() 的双返回值 (R1: page 62-64)

fork() 如何实现返回两个不同的值?这与内核处理系统调用的方式密切相关。 1. 当父进程调用 fork() 时,它像其他系统调用一样陷入内核。内核创建一个新的 task_struct 和子进程的内核栈,并复制父进程的资源。 2. 对于父进程: 内核完成 fork 操作后,将新创建子进程的 PID 作为返回值,存入父进程内核栈上保存的寄存器上下文中(如 ARM64 pt_regs。当父进程从系统调用返回用户空间时,这个返回值就被置入相应的寄存器,父进程便获取了子进程的 PID。 3. 对于子进程: 内核在创建子进程时,会将其 pt_regs 中用于存放返回值的寄存器位直接设置为 0。子进程被创建后处于就绪状态。当调度器选择子进程运行时,子进程的启动点并非其程序的开头,而是从一个特殊的内核函数 ret_from_fork 开始,该函数最终会完成从内核模式到用户模式的切换。在切换时,它会加载 pt_regs 中的值(包括那个被设为 0 的返回值,因此子进程在用户空间“看到”的 fork() 返回值就是 0

上下文切换 (Context Switch) (R1: page 69-72)

当操作系统需要将 CPU 从一个进程(或线程)切换到另一个时,就会发生上下文切换。这个过程包括: 1. 保存当前进程的上下文(CPU 寄存器状态、程序计数器等)到其 PCB 中。 2. 加载新进程的上下文到 CPU 寄存器中。

上下文切换是纯粹的系统开销 (overhead),因为在此期间 CPU 没有执行任何有用的用户代码。其耗时取决于硬件支持,例如,某些硬件提供多套寄存器组,可以加快切换速度。

线程管理 (R2: page 3-24)

在现代操作系统中,线程是比进程更轻量级的执行单位,它极大地提升了并发编程的效率和响应性。

为什么需要线程? (R2: page 4)

  • 并发执行: 一个应用程序中可能包含多个可以同时进行的任务,如 Web 服务器需要同时响应多个客户端请求,文本编辑器可以在用户输入的同时进行后台拼写检查。
  • 效率: 创建一个新进程的开销很大(需要分配全新的地址空间等,而创建一个新线程则非常“轻量级”,因为它与同进程的其他线程共享大部分资源。线程间的上下文切换也比进程间的切换快得多。
  • 简化编码: 将复杂的任务分解为多个独立的线程可以简化程序结构。

线程的定义 (R2: page 5)

线程 (Thread)

线程是进程内的一个基本执行单元,是 CPU 调度的基本单位。一个多线程进程可以同时执行多个任务。

  • 线程独有的资源:
  • 线程 ID
  • 程序计数器 (Program Counter)
  • 寄存器集合 (Register Set)
  • (Stack)
  • 线程共享的资源 ( 与同进程的其他线程共享 ):
  • 代码段 (Code Section)
  • 数据段 (Data Section)
  • (Heap)
  • 打开的文件和信号

线程的优缺点 (R2: page 8-10)

优点: 1. 经济性 (Economy): 创建和切换线程的成本远低于进程。线程切换时,由于共享地址空间,无需刷新 TLB (Translation Lookaside Buffer) 和缓存。 2. 资源共享 (Resource Sharing): 线程天然共享内存,无需像进程那样依赖复杂的 IPC 机制(如共享内存段)来进行数据交换。 3. 响应性 (Responsiveness): 在一个多线程应用中,即使一个线程被阻塞(例如,等待网络数据,其他线程仍然可以继续执行,从而保证了应用的响应能力。 4. 可伸缩性 (Scalability): 在多核处理器上,多线程可以实现真正的并行执行,有效利用多核优势。

缺点: 1. 弱隔离性: 由于共享内存,一个线程的错误(如非法内存访问,即段错误)会导致整个进程崩溃,进而影响所有其他线程。 2. 编程复杂性: 共享资源带来了同步问题(如竞态条件,需要程序员小心处理,这比单线程编程要困难得多。

用户线程与内核线程 (R2: page 11-12)

线程的实现可以分为两个层面: - 用户线程 (User Threads): 在用户空间由线程库(如 POSIX Pthreads, Win32 threads)来管理,内核对此一无所知。管理开销小,但如果一个用户线程发起了阻塞式系统调用,整个进程(包括所有其他用户线程)都会被阻塞。 - 内核线程 (Kernel Threads): 由操作系统内核直接支持和管理。一个内核线程阻塞不会影响其他线程。现代主流操作系统(如 Windows, Linux)都支持内核线程。

为了让用户线程能够真正运行,必须将其映射到内核线程上。

多线程模型 (R2: page 13-16)

用户线程与内核线程的映射关系有以下几种模型:

  1. 多对一模型 (Many-to-One):

    • 描述: 多个用户线程映射到一个内核线程。
    • 优点: 线程管理在用户空间完成,效率高。
    • 缺点:
      • 一个线程阻塞,整个进程阻塞。
      • 无法在多核处理器上实现并行。
    • 示例: Solaris Green Threads。
  2. 一对一模型 (One-to-One):

    • 描述: 每个用户线程映射到一个内核线程。
    • 优点:
      • 解决了阻塞问题,一个线程阻塞不影响其他线程。
      • 可以在多核上并行执行。
    • 缺点: 每创建一个用户线程都需要创建一个内核线程,开销较大,可能导致系统对线程数量有所限制。
    • 示例: Windows, Linux。这是目前最主流的模型。
  3. 多对多模型 (Many-to-Many):

    • 描述: M 个用户线程映射到 N 个内核线程(M >= N
    • 优点: 结合了前两种模型的优点,既允许创建大量用户线程,又能实现多核并行。
    • 缺点: 实现复杂。
    • 示例: 旧版 Solaris, Windows NT/2000 with ThreadFiber package

Linux 中的线程实现 (R2: page 18-24)

Linux 的轻量级进程 (LWP) (R2: page 19)

Linux 内核并不严格区分进程和线程。它使用轻量级进程 (Light-Weight Process, LWP) 的概念来指代线程。无论是创建进程还是线程,Linux 都使用 clone() 这个系统调用。

clone() 系统调用允许调用者精确地控制父子执行上下文之间共享哪些资源。通过传递不同的标志(flags,可以实现不同的效果:

  • clone(SIGCHLD) ( 无共享 ): 效果类似 fork(),创建一个新进程。
  • clone(CLONE_VM | CLONE_FS | CLONE_FILES | ...): 共享地址空间、文件系统信息、打开的文件等。这实际上创建了一个线程。

Linux 中,pthread_create() 库函数底层就是通过调用 clone() 来创建新线程的。

ps -elf 命令的输出可以看出,同一个进程下的所有线程共享同一个PID ( 这里指主线程的 ID,即线程组 ID TGID),但每个线程有自己唯一的 LWP ( 在内核中就是其 PID)

共享与非共享的内核视图 (R2: page 22-24): 通过分析内核数据结构,可以清晰地看到: - 共享: 同一个进程的所有 task_struct 共享同一个内存描述符 mm_struct。 - 不共享: 每个 task_struct 有自己唯一的 pid、独立的内核栈 stack 和独立的comm ( 命令名 )

CPU 调度 (R2: page 25-36)

CPU 调度是操作系统的核心功能之一,其目标是选择就绪队列中的一个进程(或线程,并为其分配 CPU

基本概念 (R2: page 26-27)

  • CPU-I/O 执行周期: 进程的执行是在 CPU 计算(CPU burst)和 I/O 等待(I/O burst)之间交替进行的。
  • 调度时机: CPU 调度决策可能在以下情况发生:
    1. 进程从运行态切换到等待态(如 I/O 请求
    2. 进程从运行态切换到就绪态(如时钟中断
    3. 进程从等待态切换到就绪态(如 I/O 完成
    4. 进程终止。
  • 抢占式 vs. 非抢占式调度:
    • 非抢占式 (Non-preemptive): 调度仅在情况 1 4 发生。一旦 CPU 分配给一个进程,该进程会一直持有 CPU 直到它自愿放弃(等待 I/O 或终止。也称为协作式调度 (cooperative scheduling)
    • 抢占式 (Preemptive): 调度也可能在情况 2 3 发生。操作系统可以强制剥夺当前进程的 CPU 使用权,并将其分配给另一个进程。现代通用操作系统都采用抢占式调度。

调度准则 (R2: page 28)

评估调度算法性能的主要准则包括:

  • CPU 利用率 (CPU utilization): CPU 处于忙碌状态的时间百分比。目标是最大化。
  • 吞吐量 (Throughput): 单位时间内完成的进程数量。目标是最大化。
  • 周转时间 (Turnaround time): 从进程提交到进程完成的总时间。目标是最小化。
  • 等待时间 (Waiting time): 进程在就绪队列中等待的总时间。目标是最小化。
  • 响应时间 (Response time): 从提交请求到产生第一次响应的时间。目标是最小化。

常用调度算法 (R2: page 29-36)

  1. 先来先服务 (First-Come, First-Served, FCFS) (R2: page 30)
    • 策略: 按照进程到达就绪队列的顺序进行调度。
    • 特点: 实现简单,但平均等待时间可能很长,特别是当一个长任务先于多个短任务到达时(护航效应。非抢占式。
  2. 最短作业优先 (Shortest-Job-First, SJF) (R2: page 31-33)
    • 策略: 选择下一个 CPU 执行周期最短的进程。
    • 特点:
      • 理论上最优: 对于给定的进程集合,SJF 能保证最小的平均等待时间
      • 实现的困难: 无法精确预知下一个 CPU 执行周期的长度。通常使用历史数据进行指数平均来预测。
      • 可以是抢占式非抢占式。抢占式版本称为最短剩余时间优先 (Shortest-Remaining-Time-First, SRTF),即当一个新进程到达且其执行时间比当前进程的剩余时间还短时,会发生抢占。
SRTF 调度示例 (R2: page 33)

假设有以下进程:

进程 到达时间 执行时间
P1 0 8
P2 1 4
P3 2 9
P4 3 5

调度过程: 1. 时刻 0: P1 到达,开始执行。 2. 时刻 1: P2 到达(执行时间 4),P1 剩余时间 7。P2 更短,P1 被抢占,P2 开始执行。 3. 时刻 2: P3 到达(执行时间 9),P2 剩余时间 3。P2 仍最短,继续执行。 4. 时刻 3: P4 到达(执行时间 5),P2 剩余时间 2。P2 仍最短,继续执行。 5. 时刻 5: P2 执行完毕。就绪队列中有 P1(剩 7), P3(9), P4(5)。P4 最短,开始执行。 6. 时刻 10: P4 执行完毕。就绪队列中有 P1(剩 7), P3(9)。P1 更短,开始执行。 7. 时刻 17: P1 执行完毕。P3 开始执行。 8. 时刻 26: P3 执行完毕。

Gantt : | P1(1) | P2(4) | P4(5) | P1(7) | P3(9) |

平均等待时间 = [(10-1) + (1-1) + (17-2) + (5-3)] / 4 = (9 + 0 + 15 + 2) / 4 = 6.5 msec。

  1. 优先级调度 (Priority Scheduling) (R2: page 34-35)
    • 策略: 为每个进程分配一个优先级,CPU 分配给优先级最高的进程。
    • 特点:
      • 可以是抢占式或非抢占式。
      • SJF 是优先级调度的一个特例,优先级是下一个 CPU 执行周期的倒数。
      • 问题: 可能导致饥饿 (Starvation),即低优先级进程可能永远得不到执行。
      • 解决方案: 老化 (Aging),即随着时间的推移,逐步提高等待时间过长进程的优先级。
  2. 轮转调度 (Round Robin, RR) (R2: page 36)
    • 策略: 专门为分时系统设计。将就绪队列视为一个循环队列,每个进程被分配一个固定的 CPU 时间片(time quantum, q。如果进程在一个时间片内未完成,它将被抢占并放回就绪队列的末尾。
    • 特点:
      • 时间片大小是关键:
        • q 太大:退化为 FCFS
        • q 太小:上下文切换开销过大,系统效率降低。
      • 通常时间片大小在 10-100 毫秒之间。

同步 (Synchronization) (R2: page 37-59)

当多个并发进程或线程需要访问共享数据时,必须对它们的执行顺序进行协调,以避免数据不一致的问题。

竞态条件与临界区 (Race Condition & Critical Section) (R2: page 39-42)

竞态条件 (Race Condition) (R2: page 40)

当多个进程(或线程)并发地访问和操作同一共享数据,而最终的结果取决于访问发生的特定顺序时,就称之为竞态条件

counter++ 的竞态条件 (R2: page 39)

counter++ 这个高级语言操作在机器层面通常需要三条指令: 1. mov 0x8049a1c, %eax (将内存中的 counter 值加载到寄存器 eax) 2. add $0x1, %eax (将寄存器 eax 的值加 1) 3. mov %eax, 0x8049a1c (将寄存器 eax 的新值写回内存)

假设两个线程同时执行 counter++,初始 counter 50。一种可能的交错执行顺序如下: 4. 线程1 执行 movadd,其 %eax 变为 51。 5. 发生中断,切换到线程 2。 6. 线程2 执行 movaddmov,它从内存加载 50,计算后将 51 写回内存。此时 counter 值为 51。 7. 切换回线程1,它从中断处继续,执行 mov,将自己寄存器中的 51 写回内存。

最终结果 counter 51,而不是期望的 52

为了解决竞态条件,我们需要识别出代码中访问共享资源的临界区 (Critical Section),并确保在任何时候,最多只有一个进程能在其临界区内执行。

临界区问题的解决方案 (R2: page 44-45)

任何一个有效的解决方案都必须满足以下三个要求: 1. 互斥 (Mutual Exclusion): 如果一个进程正在其临界区内执行,那么其他任何进程都不能进入其临界区。 2. 进步 (Progress): 如果没有进程在临界区内,并且有进程希望进入,那么只有那些不在剩余区(remainder section)的进程可以参与选择,且这种选择不能被无限期推迟。 3. 有界等待 (Bounded Waiting): 从一个进程发出进入临界区的请求,到该请求被允许为止,其他进程被允许进入临界区的次数必须是有限的。这可以防止饥饿。

同步原语 (R2: page 47-53)

操作系统和硬件提供了一系列同步工具,从低级到高级包括:

  1. 硬件指令 (Hardware Instructions) (R2: page 47)
    • 现代处理器提供特殊的原子指令 (atomic instructions),如 Test-and-SetCompare-and-Swap。这些指令在执行期间不会被中断,是构建更高级同步锁的基础。
  2. 互斥锁 (Mutex Locks) (R2: page 48-50)
    • 最简单的同步工具。通过 acquire() 获取锁,release() 释放锁来保护临界区。
    • 基于原子硬件指令的简单实现会导致忙等待 (busy waiting),即进程在循环中不断检查锁是否可用,浪费 CPU 时间。这种锁也称为自旋锁 (spinlock)。自旋锁在锁持有时间极短且在多核系统上时是高效的,因为它避免了上下文切换的开销。
  3. 信号量 (Semaphore) (R2: page 51-53)
    • 一个更强大的同步工具,由一个整数变量 S 和两个原子操作构成:wait(S)signal(S)(也称为 P()V()
    • 计数信号量: S的值可以为任意整数,用于控制对 N 个资源的访问。
    • 二元信号量: S的值只能是 0 1,功能类似互斥锁。
    • 避免忙等待的实现:
      • wait(S): S--。如果 S < 0,则将当前进程放入与信号量关联的等待队列并阻塞 (block)
      • signal(S): S++。如果 S <= 0,则从等待队列中唤醒 (wakeup) 一个进程。
    • 这里的 S 值的含义:若为正,表示可用资源数;若为负,其绝对值表示等待该资源的进程数。
生产者 - 消费者问题 (Bounded-Buffer Problem) (R2: page 56-59)

这是一个经典的同步问题,可用信号量完美解决。

  • 设置: 一个容量为 N 的有界缓冲区。
  • 目标: 生产者不能在缓冲区满时放入物品;消费者不能在缓冲区空时取出物品;同时只能有一个进程操作缓冲区。

解决方案: - semaphore mutex = 1; // 用于互斥访问缓冲区 - semaphore empty_slots = N; // 记录空槽位数量 - semaphore full_slots = 0; // 记录满槽位数量

生产者伪代码:

Text Only
do {
  // produce an item
  wait(empty_slots); // 等待有空位
  wait(mutex);       // 获取缓冲区访问权
  // add item to buffer
  signal(mutex);       // 释放缓冲区访问权
  signal(full_slots);  // 通知有一个物品已满
} while (TRUE);

消费者伪代码:

Text Only
do {
  wait(full_slots);  // 等待有物品
  wait(mutex);       // 获取缓冲区访问权
  // remove item from buffer
  signal(mutex);       // 释放缓冲区访问权
  signal(empty_slots); // 通知有一个槽位已空
  // consume the item
} while (TRUE);

死锁 (Deadlock) (R2: page 60-65)

死锁是多道程序环境下可能出现的一种严重问题。

死锁的定义与条件 (R2: page 61, 64)

死锁 (Deadlock)

当一组进程中的每个进程都在等待一个仅由该组中其他进程才能释放的资源时,这组进程就陷入了死锁状态。

死锁发生的四个必要条件:

  1. 互斥 (Mutual exclusion): 至少有一个资源必须以非共享模式持有,即一次只有一个进程可以使用。
  2. 持有并等待 (Hold and wait): 一个进程至少持有一个资源,并且正在等待获取由其他进程持有的额外资源。
  3. 非抢占 (No preemption): 资源不能被强制性地从持有它的进程中抢占,只能由持有它的进程在完成任务后自愿释放。
  4. 循环等待 (Circular wait): 存在一个等待进程集合 {P₀, P₁, ..., Pₙ},其中 P₀ 在等待 P₁ 持有的资源,P₁ 在等待 P₂ 持有的资源,...,Pₙ 在等待 P₀ 持有的资源。
死锁程序示例 (R2: page 62-63)

两个线程试图以相反的顺序获取两个互斥锁。

C
// Thread 1
pthread_mutex_lock(&first_mutex);
pthread_mutex_lock(&second_mutex);

// Thread 2
pthread_mutex_lock(&second_mutex);
pthread_mutex_lock(&first_mutex);
如果线程1获得了 first_mutex,同时线程2获得了 second_mutex,那么线程1将永远等待 second_mutex(由线程2持有),而线程2将永远等待 first_mutex(由线程 1 持有),形成死锁。

死锁处理策略 (R2: page 65)

主要有四种处理死锁的方法: 1. 死锁预防 (Prevention): 通过破坏死锁发生的四个必要条件中的至少一个来从结构上防止死锁。例如,要求所有进程一次性申请所有资源(破坏“持有并等待”,或者对资源类型进行排序,要求进程按序申请(破坏“循环等待”。这种方法通常过于严格,会降低资源利用率。 2. 死锁避免 (Avoidance): 系统在分配资源前,先判断此次分配是否会导致系统进入不安全状态(可能导致死锁的状态。如果会,则拒绝分配。这需要系统预先知道进程未来的资源需求,如银行家算法。 3. 死锁检测与恢复 (Detection and Recovery): 允许系统进入死锁状态,通过算法定期检测是否存在死锁。如果检测到,则采取措施进行恢复,如终止一个或多个死锁进程,或者抢占资源。 4. 忽略问题 (Ignoring the problem): 像鸵鸟一样把头埋进沙里,假装死锁从未发生。这是主流通用操作系统(如 UNIX, Linux, Windows)采用的策略。因为死锁预防和避免的代价太高,而死锁在通用系统中发生的频率相对较低,所以把处理死锁的责任交给了应用程序员。