开发者

Linux用户层和内核层锁的实现方式

目录
  • 一、系统调用futex介绍
    • 1. 核心机制
    • 2. 常见操作
    • 3. 工作流程示例(互斥锁)
    • 4. 优势
    • 5. 注意事项
    • 6. 典型应用
  • 二、linux中用户态的锁和内核的锁不是同一个实现吗?
    • 2.1 本质区别
    • 2.2 用户态锁如何工作(以pthread_mutex为例)
    • 2.3 内核锁的实现(以mutex_t为例)
    • 2.4 为什么用户态锁需要内核参与?
    • 2.5 性能对比
    • 2.6 协作关系图解
    • 2.7 关键结论
  • 三、arm64位app层的原子操作如何实现?和内核实现的原子操作一样吗?
    • 3.1、应用层原子操作的实现原理
      • 3.1.1 硬件指令支撑
      • 2. 编译器与标准库封装
      • 3. 内存序控制
    • 3.2 内核层原子操作的实现
      • 3.2.1 相同硬件基础
      • 3.2.2 关键差异:特权级扩展
      • 3.2.3 内核独占原语
    • 3.3 本质对比:相同硬件,不同使命
      • 3.4 为什么应用层不直接使用内核锁?
      • 四、用户态的自旋锁和互斥锁
        • 4.1 用户空间互斥锁(Mutex)
          • 4.1.1 核心特性:竞争时主动让出CPU
          • 4.1.2 关键设计:
        • 4.2 用户空间自旋锁(Spinlock)
          • 4.2.1 核心特性:竞争时忙等待(Busy-Wait)
          • 4.2.2 关键设计:
        • 4.3 核心对比:互斥锁 vs 自旋锁编程
          • 4.4 性能临界点:何时选择?
            • 4.5 ARM64 特殊优化
              • 4.5.1 自旋锁低功耗优化
              • 4.5.2 互斥锁适应性改进
            • 4.6 错误使用案例
              • 场景1:在单核系统用自旋锁
              • 场景2:在中断处理中用互斥锁
            • 4.7 总结:用户态锁的选择
            • 五、内核态的互斥锁和自旋锁
              • 5.1 内核自旋锁(Spinlock)
                • 5.1.1 设计目标:非睡眠场景的极速同步
                • 5.1.2 关键特性:
              • 5.2 内核互斥锁(Mutex)
                • 5.2.1 设计目标:可睡眠场景的灵活同步
                • 5.2.2 关键特性:
              • 5.2.3 核心对比:自旋锁 vs 互斥锁
                • 5.2.4 实现原理深度解析
                  • 5.2.4.1 自旋锁底层(ARM64 示例)
                  • 5.2.4.1 互斥锁状态机(核心状态)
                • 5.2.5 错误使用案例
                  • 案例1:在中断中使用互斥锁
                  • 案例2:未关闭中断的自旋锁
                  • 案例3:长临界区用自旋锁
                • 5.2.6 性能优化实践
                • 总结

                  一、系统调用futex介绍

                  futex(Fast Userspace Mutex)是 Linux 内核提供的一种底层同步原语,用于高效实现用户空间的锁(如互斥锁、信号量等)。

                  它的核心思想是通过减少不必要的内核态切换来优化性能,特别适用于高并发场景。

                  1. 核心机制

                  混合模式(用户态+内核态协作)

                  • 用户态原子操作

                  线程先尝试在用户空间通过原子指令(如 CAS)获取锁。若成功,则无需进入内核,性能极高。

                  CAS的全称为Compare And Swap,直译就是比较交换。是一条CPU的原子指令,其作用是让CPU先进行比较两个值是否相等,然后原子地更新某个位置的值,其实现方式是基于硬件平台的汇编指令

                  • 内核态阻塞

                  若锁已被占用,线程通过 futex 系统调用进入内核态阻塞(FUTEX_WAIT),直到锁释放后被唤醒(FUTEX_WAKE)。

                  关键系统调用

                  #include <linux/futex.h>
                  #include <sys/syscall.h>
                  
                  int syscall(SYS_futex, uint32_t *uaddr, int futex_op, uint32_t val, 
                              const struct timespec *timeout, uint32_t *uaddr2, uint32_t val3);
                  
                  • uaddr:指向用户空间的一个整数(锁的状态标志)。
                  • futex_op:操作类型(如 FUTEX_WAIT, FUTEX_WAKE)。
                  • val:辅助值(如等待时的预期值)。

                  2. 常见操作

                  操作行为
                  FUTEX_WAIT检查 *uaddr == val,若成立则阻塞线程;否则立即返回 EAGAIN。
                  FUTEX_WAKE唤醒最多 val 个在 uaddr 上阻塞的线程。
                  FUTEX_REQUEUE将部分线程从 uaddr 的等待队列迁移到 uaddr2 的等待队列(避免惊群)。
                  FUTEX_PRIVATE标志位,表示仅限进程内使用(优化性能)。

                  3. 工作流程示例(互斥锁)

                  加锁

                  // 用户态尝试原子交换
                  if (atomic_cas(uaddr, 0, 1) == success) return; // 成功获得锁
                  // 失败则进入内核等待
                  syscall(SYS_futex, uaddr, FUTEX_WAIT, 1, NULL, NULL, 0);
                  

                  解锁

                  atomic_set(uaddr, 0);                   // 先释放锁
                  syscall(SYS_futex, uaddr, FUTEX_WAKE, 1); // 唤醒一个等待线程
                  

                  4. 优势

                  • 性能:无竞争时完全在用户态运行,避免内核切换开销。
                  • 灵活性:可构建更高级的同步机制(如读写锁、条件变量)。
                  • 资源节省:内核仅在线程阻塞时介入,减少调度负担。

                  5. 注意事项

                  1. 优先级反转:需结合优先级继承(如 FUTEX_LOCK_PI)解决实时性问题。
                  2. 惊群效应:使用 FUTEX_REQUEUEFUTEX_WAKE_OP 分散唤醒压力。
                  3. ABA 问题FUTEX_WAIT 会验证 *uaddr == val,但需确保状态变更逻辑正确。

                  6. 典型应用

                  • Glibc 的 pthread 库:互斥锁(pthread_mutex_t)、条件变量(pthread_cond_t)、信号量(sem_t)、读写锁(pthread_rwlock_t)、屏障(pthread_barrier_t)底层使用 futex
                  • 高性能服务器:Redis、Nginx 等利用 futex 实现自定义锁。

                  提示:直接使用 futex 需谨慎!通常推荐通过高级 API(如 C++11 的 std::mutex)间接使用,避免复杂的内核交互细节。

                  二、Linux中用户态的锁和内核的锁不是同一个实现吗?

                  Linux 中用户态的锁和内核的锁是完全不同的实现机制和层次,但它们之间通过 futex 等机制实现了协作

                  以下是关键区别和联系:

                  2.1 本质区别

                  维度用户态锁 (如 pthread_mutex)内核锁 (如 spinlock_t, mutex_t)
                  实现位置用户空间库(如 glibc)实现Linux 内核源码实现
                  依赖机制基于原子指令 + futex 系统调用基于内核原子操作、中断控制、调度器
                  作用范围用户进程内的线程间同步内核线程/中断上下文/多核间的同步
                  内存可见性依赖进程的虚拟地址空间依赖物理内存和内核地址空间
                  阻塞行为通过 futex 让内核挂起线程直接调用内核调度器切换任务

                  2.2 用户态锁如何工作(以pthread_mutex为例)

                  // 伪代码:用户态锁的加锁流程
                  void pthread_mutex_lock(pthread_mutex_t *mutex) {
                      // 1. 用户态快速路径(无竞争)
                      if (atomic_cas(&mutex->state, UNLOCKED, LOCKED) == success) 
                          return;
                  
                      // 2. 慢速路径:通过 futex 请求内核协助
                      while (true) {
                          if (atomic_cas(&mutex->state, UNLOCKED, LOCKED_WAITERS) == success) 
                              return;
                          
                          // 调用 futex 让内核阻塞线程
                          syscall(SYS_futex, &mutex->state, FUTEX_WAIT_PRIVATE, LOCKED_WAITERS, NULL);
                      }
                  }
                  

                  关键点

                  • 用户态锁在无竞争时完全在用户空间运行(仅需几条原子指令);
                  • 仅在竞争时通过 futex 陷入内核挂起线程。

                  2.3 内核锁的实现(以mutex_t为例)

                  // 内核源编程码(kernel/locking/mutex.c)
                  void __sched mutex_lock(struct mutex *lock)
                  {
                  	might_sleep();
                  
                  	if (!__mutex_trylock_fast(lock)) // 1. 快速尝试
                  		__mutex_lock_slowpath(lock); // 2. 慢路径:内核调度介入
                  }
                  

                  关键点

                  • 内核锁全程在内核态执行,可直接调用调度器、中断控制等底层原语;
                  • 无需系统调用(因自身就在内核)。

                  2.4 为什么用户态锁需要内核参与?

                  用户态程序无法自行挂起线程——这必须由内核调度器完成。 当锁竞争时:

                  1. 用户态通过 futex(FUTEX_WAIT) 主动请求内核挂起自己;
                  2. 解锁时通过 futex(FUTEX_WAKE) 请求内核唤醒等待线程。

                  2.5 性能对比

                  场景用户态锁内核锁
                  无竞争≈10 ns(纯用户态原子操作)≈20 ns(内核原子操作)
                  有竞争μs 级(需陷入内核)μs 级(但无模式切换开销)
                  适用场景高并发用户程序内核代码、驱动开发

                  用户态锁在无竞争时性能接近无锁程序!

                  2.6 协作关系图解

                    用户程序
                       │
                       ├── 无竞争 → 用户态原子操作(极快)
                       │
                       └── 有竞争 → 调用 futex 陷入内核
                                   │
                                   ▼
                                内核调度器
                                   │
                                   ├── 挂起线程(FUTEX_WAIT)
                                   │
                                   └── 唤醒线程(FUTEX_WAKE)
                  

                  2.7 关键结论

                  1. 不是同一实现:用户态锁由库(如 glibc)基于原子指令 + futex 实现;内核锁由内核用更底层的机制实现。
                  2. 协作而非替代:用户态锁依赖内核提供阻塞/唤醒能力(通过 futex),形成跨层协作。
                  3. 性能分离:通过 futex 的混合模式,用户态锁在无竞争时完全避开内核,实现高性能。

                  这种设计是 Linux 高并发性能的关键——既给了用户态灵活的同步能力,又通过最小化内核介入保障了效率!

                  三、arm64位app层的原子操作如何实现?和内核实现的原子操作一样吗?

                  在 ARM64 架构的 Linux 系统中,应用层(app 层)的原子操作与内核层的原子操作在硬件基础上相同,但实现层级和功能目标存在本质差异

                  原子指令和内存屏障的关系:

                  • 原子指令 解决操作的原子性问题(怎么做)
                  • 内存屏障 解决操作的顺序和可见性问题(何时生效)
                  • 在复杂同步场景(如 mutex 或)中,二者缺一不可。

                  内存屏障(Memory Barrier)是计算机体系结构中的一种硬件级同步指令,用于解决多核处理器中内存访问的乱序执行可见性问题。其核心作用是限制指令重排确保内存一致性,在多线程、锁实现、无锁编程中至关重要。为什么需要内存屏障?

                  乱序执行的根源

                  • 编译器优化:编译器可能调整指令顺序以提升性能。
                  • CPU流水线:CPU为提升效率会乱序执行指令(Out-of-Order Execution)。
                  • 多级缓存:不同CPU核心的缓存(L1/L2)数据可能不一致。

                  典型问题场景

                  // 线程A
                  data = 42;        // 写数据
                  flag = 1;         // 写标志位
                  
                  // 线程B
                  while (flag != 1); // 等待标志位
                  print(data);       // 读取数据
                  

                  若没有内存屏障:

                  • CPU/编译器可能交换 data=42flag=1 的顺序 → 线程B看到 flag=1data 仍是旧值。
                  • 线程B的CPU缓存未更新 data 值 → 读到 data=0

                  内存屏障根据限制程度分为四类(以ARM64为例):

                  屏障类型作用ARM64指令使用场景
                  LoadLoad确保后续读操作不会重排到当前读之前ldar (Load-Acquire)读后需依赖之前读的结果
                  StoreStore确保当前写操作不会重排到后续写之后stlr (Store-Release)写后需立即被其他线程看到
                  LoadStore确保后续写操作不会重排到当前读之前包含在dmb ishld读后需立即写
                  StoreLoad确保后续读操作不会重排到当前写之前(最强屏障)dmb ish写后需立即读最新值

                  StoreLoad屏障最重:因为它需要刷新整个写缓冲区(Write Buffer),通常对应 dmb ish(ARM64)或 mfence(x86)。写操作后放 Release,读操作前放 Acquire —— 这对屏障组合可解决 90% 的线程同步问题。

                  3.1、应用层原子操作的实现原理

                  3.1.1 硬件指令支撑

                  ARM64 提供两类关键指令:

                  独占访问指令(ARMv8.0)

                  ldxr x0, [x1]    ; 独占加载:标记地址 x1 为当前 CPU 独占
                  stxr w2, x3, [x1] ; 独占存储:若标记未失效则写入 x3 → [x1],结果状态存入 w2
                  

                  通过循环重试实现原子操作(如 CAS):

                  // 原子比较交换(用户态伪代码)
                  //stxr仅在标记未被破坏时执行写入,否则失败并重试。这种“尝试-检测-重试”机制确保了“读-改-写”操作的原子性
                  bool atomic_cas(uint64_t *ptr, uint64_t old, uint64_t new) {
                      uint64_t tmp;
                      int status;
                      do {
                          asm volatile("ldxr %0, [%2]\n"   // 独占加载
                                       "cmp %0, %3\n"       // 比较旧值
                                       "b.ne 1f\n"          // 不相等则跳转
                                       "stxr %w1, %4, [%2]\n" // 尝试存储新值
                                       "1:"
                                       : "=&r"(tmp), "=&r"(status)
                                       : "r"(ptr), "r"(old), "r"(new));
                      } while (status != 0); // 失败则重试
                      return (tmp == old);
                  }
                  

                  LSE 指令(ARMv8.1+,大系统扩展)

                  单条指令完成原子操作,避免循环开销:

                  ldaddal x0, x1, [x2]  ; 原子操作:[x2] = [x2] + x0, x1 = 原值
                  

                  2. 编译器与标准库封装

                  GCC/Clang 内置函数直接映射到硬件指令:

                  // 原子加法(用户态)
                  __atomic_add_fetch(&counter, 1, __ATOMIC_SEQ_CST);
                  

                  C++11 原子类型:

                  std::atomic<int> counter;
                  counter.fetch_add(1, std::memory_order_relaxed);
                  

                  3. 内存序控制

                  通过屏障指令保证可见性:

                  dmb ish  ; 数据内存屏障(Inner Shareable Domain)
                  

                  3.2 内核层原子操作的实现

                  3.2.1 相同硬件基础

                  内核使用相同的 ARM64 原子指令(ldxr/stxr 或 LSE),例如:

                  // 内核原子加法(源码片段:arch/arm64/include/asm/atomic_ll_sc.h)
                  static inline void atomic_add(int i, atomic_t *v) {
                      unsig编程ned long tmp;
                      asm volatile("// atomic_add\n"
                          "1: ldxr %w0, %2\n"        // 独占加载
                          "add %w0, %w0, %w3\n"      // 执行加法
                          "stxr %w1, %w0, %2\n"      // 条件存储
                          "cbnz %w1, 1b"             // 失败则重试
                          : "=&r" (tmp), "=&r" (tmp2)
                          : "Q" (v->counter), "Ir" (i));
                  }
                  

                  3.2.2 关键差异:特权级扩展

                  内核原子操作需处理用户态无法触及的场景:

                  能力内核实现用户态限制
                  内存屏障直接调用 dmb ish 或 dsb sy只能使用普通屏障指令
                  中断控制可关闭中断(local_irq_save())避免并发无权操作中断
                  SMP 核间同步使用 smp_mb() 等跨核屏障仅限当前 CPU 缓存一致性
                  调度器协作自旋锁(spin_lock())在争用时结合调度器无调度干预权限

                  3.2.3 内核独占原语

                  用户态无法实现的原子操作:

                  • RCU(Read-Copy-Update):依赖内核线程和调度机制。
                  • 中断上下文原子操作:内核可在中断处理中安全使用原子变量。

                  3.3 本质对比:相同硬件,不同使命

                  维度应用层原子操作内核层原子操作
                  硬件基础相同 ARM64 指令(LSE/LDXR/STXR)相同指令 + 扩展屏障/中断控制
                  执行位置纯用户态(无特权指令)内核态(可调用特权指令)
                  内存序控制通过标准内存序参数(如 __ATOMIC_ACQ_REL)直接使用硬件屏障指令
                  阻塞行为非阻塞(自旋重试)可结合调度器(如自旋锁升级为睡眠)
                  适用场景细粒度数据操作(计数器、标志位)内核数据结构、驱动寄存器访问

                  3.4 为什么应用层不直接使用内核锁?

                  性能鸿沟

                  Atomic Add (user): 28 ns
                  Futex Lock (uncontended): 1200 ns
                  
                  • 用户态原子操作:≈10–50 ns(纯硬件指令)
                  • 内核锁(如 futex):≥1000 ns(系统调用 + 上下文切换)
                  • 实测数据(Cortex-A78 @2.8GHz):

                  功能冗余性

                  • 内核锁(如互斥锁)的底层仍依赖原子操作,用户态直接使用原子操作可避免陷入内核的开销。

                  安全边界

                  • 用户程序直接调用内核锁会突破进程隔离,需通过系统调用代理(如 futex),而原子操作无需跨特权边界。

                  四、用户态的自旋锁和互斥锁

                  4.1 用户空间互斥锁(Mutex)

                  4.1.1 核心特性:竞争时主动让出CPU

                  // 伪代码:用户态互斥锁实现(基于 futex)
                  void mutex_lock(mutex_t *m) {
                      // 1. 用户态快速路径(无竞争)
                      if (atomic_cas(&m->lock, 0, 1) == success) 
                          return;
                  
                      // 2. 慢速路径:标记有等待者,并陷入内核阻塞
                      atomic_set(&m->lock, 2); // 设置等待标志
                      syscall(SYS_futex, &m->lock, FUTEX_WAIT_PRIVATE, 2, NULL);
                  }
                  
                  void mutex_unlock(mutex_t *m) {
                      // 1. 释放锁并检查是否有等待者
                      if (atomic_swap(&m->lock, 0) == 2) { // 原值为2表示有等待者
                          // 2. 唤醒一个等待线程
                          syscall(SYS_futex, &m->lock, FUTEX_WAKE_PRIVATE, 1);
                      }
                  }
                  

                  4.1.2 关键设计:

                  混合模式优化

                  • 无竞争时:仅需 1次原子CAS操作(≈20ns)
                  • 有竞争时:通过 futex 陷入内核挂起线程,避免CPU空转

                  内核协作机制

                  • 依赖 futex 系统调用实现线程阻塞(FUTEX_WAIT)和唤醒(FUTEX_WAKE

                  典型行为

                  • 锁被占用时:线程进入睡眠状态,触发内核调度
                  • 解锁时:唤醒等待队列中的线程

                  4.2 用户空间自旋锁(Spinlock)

                  4.2.1 核心特性:竞争时忙等待(Busy-Wait)

                  // 伪代码:用户态自旋锁(纯原子操作)
                  void spin_lock(spinlock_t *lock) {
                      while (true) {
                          // 尝试获取锁:0表示空闲,1表示占用
                          if (atomic_exchange(&lock->flag, 1) == 0) 
                              return;
                          
                          // ARM64优化:降低CPU功耗
                          asm volatile("wfe" ::: "memory"); // Wait For Event
                      }
                  }
                  
                  void spin_unlock(spinlock_t *lock) {
                      atomic_store(&lock->flag, 0);
                      asm volatile("sev" ::: "memory"); // Send Event
                  }
                  

                  4.2.2 关键设计:

                  纯用户态执行

                  • 全程无系统调用,依赖原子指令(如 ldxr/stxr 或 LSE)
                  • 解锁时通过 sev 指令唤醒其他核心的 wfe 等待

                  忙等待优化

                  • 基础版:循环执行原子检查(高CPU占用)
                  • 优化版:插入 wfe 指令让CPU进入低功耗状态,直到 sev 事件唤醒

                  典型行为

                  • 锁被占用时:线程在用户态循环检测(可能结合 wfe
                  • 解锁时:直接修改锁状态,无内核交互

                  4.3 核心对比:互斥锁 vs 自旋锁

                  特性互斥锁 (Mutex)自旋锁 (Spinlock)
                  竞争策略阻塞线程(睡眠)忙等待(循环检测)
                  内核介入依赖 futex 系统调用无系统调用
                  无竞争开销≈20 ns(原子CAS)≈10 ns(原子交换)
                  高竞争开销微秒级(上下文切换)浪费CPU周期(纳秒级/循环)
                  线程状态睡眠(TASK_INTERRUPTIBLE)运行中(RUNNING)
                  适用场景长临界区(>1μs)或可能阻塞的操作短临界区(<1μs)且多核环境
                  ARM64优化FUTEX_WAIT + FUTEX_WAKEwfe + sev 低功耗等待
                  饥饿风险公平锁需额外设计(如队列)可能饥饿(无排队机制)

                  4.4 性能临界点:何时选择?

                  通过 临界区执行时间(C)上下文切换开销(S) 决策:

                  if C < S : 选自旋锁(避免切换开销)
                  if C > S : 选互斥锁(避免CPU浪费)
                  

                  典型值(Linux on ARM64):

                  • 上下文切换开销 S ≈ 1-3 μs
                  • 自旋锁单次循环 ≈5-20 ns

                  经验法则

                  • 临界区 < 1μs(如计数器增减):自旋锁
                  • 临界区 > 2μs(如链表操作):互斥锁
                  • 涉及I/O或睡眠操作:必须用互斥锁

                  4.5 ARM64 特殊优化

                  4.5.1 自旋锁低功耗优化

                  // 锁等待时进入低功耗状态
                  spin_wait:
                    wfe         // Wait For Event(暂停CPU流水线)
                    b check_lock // 被唤醒后重新检查锁状态
                  
                  // 解锁时触发事件
                  spin_unlock:
                    str wzr, [x0]      // 释放锁
                    sev         // Send Event(唤醒其他核心的wfe)
                  

                  4.5.2 互斥锁适应性改进

                  现代 pthread_mutex 在ARM64的实现:

                  • 第一阶段:用户态自旋(约100-200次循环)
                  • 第二阶段:调用 futex 睡眠
                  • 平衡短等待的性能和长等待的CPU效率

                  4.6 错误使用案例

                  场景1:在单核系统用自旋锁

                  // 错误!单核忙等待导致死锁
                  spin_lock(&lock);
                  // 若锁已被占用,当前线程永不释放CPU,持有锁的线程无法运行
                  

                  场景2:在中断处理中用互斥锁

                  // 内核场景(用户态无此问题)
                  void irq_handler() {
                      mutex_lock(&lock); // 可能睡眠 → 崩溃!
                  }
                  

                  4.7 总结:用户态锁的选择

                  场景推荐锁类型原因
                  短临界区 + 多核CPU自旋锁(带 wfe)避免上下文切换开销
                  长临界区/I/O操作互斥锁防止CPU空转
                  需要公平性(如数据库连接池)队列互斥锁解决线程饥饿问题
                  超高频计数器原子操作(非锁)完全无锁,性能极限

                  终极建议:

                  1. 优先使用标准库(如 pthread_mutex_tstd::mutex),其内部已做自适应优化
                  2. 仅在极端性能需求时考虑手写自旋锁,并插入 wfe 指令
                  3. perf 工具检测锁竞争率:perf stat -e L1-dcache-loads,mem_inst_retired.lock_loads

                  五、内核态的互斥锁和自旋锁

                  在 Linux 内核中,互斥锁(Mutex)自旋锁(Spinlock) 是两种最核心的同步原语,其设计与用户态实现有本质区别。以下是深度解析(基于 Linux 5.x 内核源码):

                  5.1 内核自旋锁(Spinlock)

                  5.1.1 设计目标:非睡眠场景的极速同步

                  // 典型用法(中断安全版)
                  DEFINE_SPINLOCK(my_lock);
                  unsigned long flags;
                  
                  spin_lock_irqsave(&my_lock, flags); // 关中断 + 拿锁
                  /* 临界区操作 */
                  spin_unlock_irqrestore(&my_lock, flags); // 放锁 + 开中断
                  

                  5.1.2 关键特性:

                  忙等待机制

                  • 通过原子指令(如 ARM64 ldaxr/stlxr)循环检测锁状态
                  • 等待时执行 wfe(ARM64)或 pause(x86)降低 CPU 功耗

                  中断安全性

                  变体行为
                  spin_lock()基础版本,不保证中断安全
                  spin_lock_irq()关本地中断
                  spin_lock_irqsave()关中断并保存中断状态
                  spin_lock_bh()关软中断(Bottom Half)

                  适用场景

                  • 中断上下文(不可睡眠)
                  • 短临界区(< 10 μs)
                  • 多核竞争激烈场景(如网络收发包)

                  5.2 内核互斥锁(Mutex)

                  5.2.1 设计目标:可睡眠场景的灵活同步

                  // 典型用法
                  DEFINE_MUTEX(my_mutex);
                  
                  mutex_lock(&my_mutex);  // 可能睡眠
                  /* 临界区(可包含阻塞操作) */
                  mutex_unlock(&my_mutex);
                  

                  5.2.2 关键特性:

                  自适应优化

                  内核互斥锁融合自旋与睡眠机制:

                  // 加锁流程伪代码(kernel/locking/mutex.c)
                  void mutex_lock(struct mutex *lock) {
                      // 1. 快速路径:用户态式原子获取
                      if (atomic_cas(lock->count, 1, 0)) 
                          return;
                      
                      // 2. 中速路径:短暂自旋(约100循环)
                      for (int i = 0; i < 100; i++) {
                          if (atomic_cas(lock->count, 1, 0)) 
                              return;
                          cpu_relax(); // 降低CPU压力(ARM64: wfe)
                      }
                      
                      // 3. 慢速路径:真正睡眠
                      __mutex_lock_slowpath(lock);
                  }
                  

                  高级特性

                  特性描述
                  优先级继承解决优先级反转(CONFIG_MUTEX_PI)
                  乐观自旋持有者运行时,等待者在用户态自旋避免切换(CONFIG_MUTEX_SPIN_ON_OWNER)
                  死锁检测CONFIG_DEBUG_MUTEXES 可追踪锁依赖

                  适用场景

                  • 进程上下文长临界区(> 10 μs)
                  • 可能阻塞的操作(如 I/O 等待)
                  • 需要避免优先级反转的实时任务

                  5.2.3 核心对比:自旋锁 vs 互斥锁

                  维度自旋锁 (Spinlock)互斥锁 (Mutex)
                  等待机制忙等待(Busy-Wait)可睡眠(Sleep-Wait)
                  上下文兼容性中断/进程上下文仅进程上下文(不可在中断使用)
                  临界区时长短(微秒级)长(毫秒级)
                  阻塞行为永不阻塞可能阻塞并触发调度
                  内存开销4-8 字节(简单状态)24-40 字节(含等待队列/PI数据)
                  ARM64 优化wfe + sevl 低功耗等待乐观自旋(Owner-CPU 检测)
                  典型使用场景中断处理、调度器、RCU文件系统、驱动长操作、用户空间同步
                  死锁风险高(需严格关中断)中(依赖正确解锁)

                  5.2.4 实现原理深度解析

                  5.2.4.1 自旋锁底层(ARM64 示例)

                  // arch/arm/include/asm/spinlock.h
                  static inline void arch_spin_lock(arch_spinlock_t *lock)
                  {
                  	unsigned long tmp;        // 用于存储 STREX 指令的返回结果(0表示成功,非0表示失败)
                  	u32 newval;               // 计算后的新锁值(当前锁值 + 一个 ticket)
                  	arch_spinlock_t lockval;  // 存储 LDREX 加载的当前锁状态
                  
                  	// 预取锁的内存到缓存,优化后续访问速度
                  	prefetchw(&lock->slock);
                  
                  	// 通过 LDREX/STREX 原子操作尝试获取 ticket(ARM 架构原子操作的核心)
                  	__asm__ __volatile__(
                  	"1:	ldrex	%0, [%3]\n"        // 加载当前锁值到 %0(lockval.slock)
                  	"	add	%1, %0, %4\n"        // 计算新锁值:当前锁值 + (1 << TICKET_SHIFT)(分配新 ticket)
                  	"	strex	%2, %1, [%3]\n"    // 尝试将新锁值写回内存,结果存入 %2(tmp)
                  	"	teq	%2, #0\n"            // 检查 STREX 是否成功(结果为0表示成功)
                  	"	bne	1b"                  // 失败则跳转到1标号重试
                  	: "=&r" (lockval), "=&r" (newval), "=&r" (tmp)  // 输出操作数(按顺序对应 %0/%1/%2)
                  	: "r" (&lock->slock), "I" (1 << TICKET_SHIFT)   // 输入操作数(锁地址和 ticket 偏移量)
                  	: "cc");                                        // 破坏的寄存器:条件码寄存器
                  
                  	// 等待当前线程的 ticket 被轮到(ticket 机制核心逻辑)
                  	// 当 lockval.tickets.next(当前线程的 ticket)等于 lockval.tickets.owner(当前持有锁的 ticket)时,获取锁成功
                  	while (lockval.tickets.next != lockval.tickets.owner) {
                  		wfe();  // 进入低功耗等待状态(Wait For Event),直到收到 SEV 事件唤醒
                  		// 重新读取最新的 owner 值(避免缓存脏数据,确保获取最新锁状态)
                  		lockval.tickets.owner = READ_ONCE(lock->tickets.owner);
                  	}
                  
                  编程	// 内存屏障:确保加锁后的操作不会被重排序到加锁之前,保证内存可见性
                  	smp_mb();
                  }
                  

                  5.2.4.1 互斥锁状态机(核心状态)

                  // include/linux/mutex.h
                  /*
                   * 互斥锁核心结构体,提供严格的互斥访问机制:
                   * 成员说明:
                   *   owner       - 原子长整型,记录当前持有锁的任务指针(低bit可能包含状态标志)
                   *   wait_lock   - 自旋锁,用于保护等待队列的并发访问
                   *   osq         - 乐观自旋队列(MCS锁),用于实现自旋优化(仅在CONFIG_MUTEX_SPIN_ON_OWNER启用时存在)
                   *   wait_list   - 等待该锁的任务链表头,使用内核标准链表结构
                   *   magic       - 调试标识指针,用于验证结构体有效性(仅在CONFIG_DEBUG_MUTEXES启用时存在)
                   *   dep_map     - 锁依赖跟踪映射表,用于死锁检测(仅在CONFIG_DEBUG_LOCK_ALLOC启用时存在)
                   *   android...  - Android OEM厂商自定义数据扩展区
                   */
                  struct mutex {
                  	atomic_long_t		owner;
                  	spinlock_t		wait_lock;
                  #ifdef CONFIG_MUTEX_SPIpythonN_ON_OWNER
                  	struct optimistic_spin_queue osq; /* Spinner MCS lock */
                  #endif
                  	struct list_head	wait_list;
                  #ifdef CONFIG_DEBUG_MUTEXES
                  	void			*magic;
                  #endif
                  #ifdef CONFIG_DEBUG_LOCK_ALLOC
                  	struct lockdep_map	dep_map;
                  #endif
                  	ANDROID_OEM_DATA_ARRAY(1, 2);
                  };
                  

                  状态位

                  • MUTEX_FLAG_WAITERS(有等待者)
                  • MUTEX_FLAG_HANDOFF(优先级继承传递)

                  5.2.5 错误使用案例

                  案例1:在中断中使用互斥锁

                  // 错误!导致内核崩溃
                  void irq_handler() {
                      mutex_lock(&lock);  // 可能触发调度 → 内核oops!
                  }
                  

                  案例2:未关闭中断的自旋锁

                  // 死锁风险!
                  spin_lock(&lock);
                  // 若中断到来并尝试获取同一锁 → 死锁
                  

                  案例3:长临界区用自旋锁

                  // CPU资源浪费
                  spin_lock(&lock);
                  msleep(10);  // 睡眠10ms → 其他核空转10ms
                  spin_unlock(&lock);
                  

                  5.2.6 性能优化实践

                  自旋锁

                  • 减少临界区到最小(仅保护必要数据)
                  • READ_ONCE()/WRITE_ONCE() 避免编译器优化冲突

                  互斥锁

                  • 启用 CONFIG_MUTEX_SPIN_ON_OWNER(默认开启)
                  • 避免嵌套锁(否则破坏乐观自旋)

                  替代方案

                  • 读多写少 → 读写锁(rwlock_tseqlock_t
                  • 无锁编程 → 原子操作或 RCU

                  总结

                  以上为个人经验,希望能给大家一个参考,也希望大家多多支持编程客栈(www.devze.com)。

                  0

                  上一篇:

                  下一篇:

                  精彩评论

                  暂无评论...
                  验证码 换一张
                  取 消

                  最新运维

                  运维排行榜