如何进行linux futex浅析

37次阅读
没有评论

共计 8379 个字符,预计需要花费 21 分钟才能阅读完成。

如何进行 linux futex 浅析,相信很多没有经验的人对此束手无策,为此本文总结了问题出现的原因和解决方法,通过这篇文章希望你能解决这个问题。

Futex,Fast Userspace muTEXes,作为 linux 下的一种快速同步(互斥)机制,已经存在了很长一段时间了(since linux 2.5.7)。它有什么优势?又提供了怎样一些功能,

futex 诞生之前

在 futex 诞生之前,linux 下的同步机制可以归为两类:用户态的同步机制 和 内核同步机制。用户态的同步机制基本上就是利用原子指令实现的 spinlock。最简单的实现就是使用一个整型数,0 表示未上锁,1 表示已上锁。trylock 操作就利用原子指令尝试将 0 改为 1:

bool trylock(int lockval) {int old;
 atomic { old = lockval; lockval = 1; } //  如:x86 下的 xchg 指令 return old == 0;
}

无论 spinlock 事先有没有被上锁,经历 trylock 之后,它肯定是已经上锁了。所以 lock 变量一定被置 1。而 trylock 是否成功,取决于 spinlock 是事先就被上了锁的(old==1),还是这次 trylock 上锁的 (old==0)。而使用原子指令则可以避免多个进程同时看到 old==0,并且都认为是自己改它改为 1 的。

spinlock 的 lock 操作则是一个死循环,不断尝试 trylock,直到成功。
对于一些很小的临界区,使用 spinlock 是很高效的。因为 trylock 失败时,可以预期持有锁的线程(进程)会很快退出临界区(释放锁)。所以死循环的忙等待很可能要比进程挂起等待更高效。
但是 spinlock 的应用场景有限,对于大的临界区,忙等待则是件很恐怖的事情,特别是当同步机制运用于等待某一事件时(比如服务器工作线程等待客户端发起请求)。所以很多情况下进程挂起等待是很有必要的。

内核提供的同步机制,诸如 semaphore、等,其实骨子里也是利用原子指令实现的 spinlock,内核在此基础上实现了进程的睡眠与唤醒。
使用这样的锁,能很好的支持进程挂起等待。但是最大的缺点是每次 lock 与 unlock 都是一次系统调用,即使没有锁冲突,也必须要通过系统调用进入内核之后才能识别。(关于系统调用开销大的问题,可以参阅:《从 read 看系统调用的耗时》。)

理想的同步机制应该是在没有锁冲突的情况下在用户态利用原子指令就解决问题,而需要挂起等待时再使用内核提供的系统调用进行睡眠与唤醒。换句话说,用户态的 spinlock 在 trylock 失败时,能不能让进程挂起,并且由持有锁的线程在 unlock 时将其唤醒?
如果你没有较深入地考虑过这个问题,很可能想当然的认为类似于这样就行了:

void lock(int lockval) {while (!trylock(lockval)) { wait(); //  如:raise(SIGSTOP)}
}

但是如果这样做的话,检测锁的 trylock 操作和挂起进程的 wait 操作之间会存在一个窗口,如果其间 lock 发生变化(比如锁的持有者释放了锁),调用者将进入不必要的 wait,甚至于 wait 之后再没有人能将它唤醒。(详见《linux 线程同步浅析》的讨论。)

在 futex 诞生之前,要实现我们理想中的锁会非常别扭。比如可以考虑用 sigsuspend 系统调用来实现进程挂起:

class mutex {private:int lockval;
 spinlocked_set pid_t  waiters; //  使用 spinlock 做保护的 setpublic:void lock() {pid_t mypid = getpid();
 waiters.insert(mypid); //  先将自己加入 mutex 的等待队列 while (!trylock(lockval)) { //  再尝试加锁 //  进程初始化时需要将 SIGUSER1 mask 掉,并在此时开启 sigsuspend(MASK_WITHOUT_SIGUSER1);
 }
 waiters.remove(mypid) //  上锁成功之后将自己从等待队列移除 }void unlock() { lockval = 0; //  先释放锁 pid_t waiter = waiters.first(); //  再检查等待队列 if (waiter != 0) { //  如果有人等待,发送 SIGUSER1 信号将其唤醒 kill(waiter, SIGUSER1);
 }
 }
}

注意,这里的 sigsuspend 不同于简单的 raise(SIGSTOP) 之类 wait 操作。如果 unlock 时用于唤醒的 kill 操作先于 sigsuspend 发生,sigsuspend 也一样能被唤醒。(详见《linux 线程同步浅析》的讨论。)
这样的实现有点类似于老版本的 phread_cond,应该还是能 work 的。有些不太爽的地方,比如 sigsuspend 系统调用是全局的,并不单单考虑某一把锁。也就是说,lockA 的 unlock 可以将等待 lockB 的进程唤醒。尽管进程被唤醒之后会继续 trylock,并不影响正确性;尽管多数情况下 lockA.unlock 也并不会试图去唤醒等待 lockB 的进程(除了一些竞争情况下),因为后者很可能并不在 lockA 的等待队列中。
另一方面,用户态实现的等待队列也不太爽。它对进程的生命周期是无法感知的,很可能进程挂了,pid 却还留在队列中(甚至于一段时间之后又有另一个不相干的进程重用了这个 pid,以至于它可能会收到莫名其妙的信号)。所以,unlock 的时候如果仅仅给队列中的一个进程发信号,很可能唤醒不了任何等待者。保险的做法只能是全部唤醒,从而引发“惊群“现象。不过,如果仅仅用在多线程(同一进程内部)倒也没关系,毕竟多线程不存在某个线程挂掉的情况(如果线程挂掉,整个进程都会挂掉),而对于线程响应信号而主动退出的情况也是可以在主动退出前注意处理一下等待队列清理的问题。

futex 来了

现在看来,要实现我们想要的锁,对内核就有两点需求:1、支持一种锁粒度的睡眠与唤醒操作;2、管理进程挂起时的等待队列。
于是 futex 就诞生了。futex 主要有 futex_wait 和 futex_wake 两个操作:

//  在 uaddr 指向的这个锁变量上挂起等待(仅当 *uaddr==val 时)int futex_wait(int *uaddr, int val);//  唤醒 n 个在 uaddr 指向的锁变量上挂起等待的进程 int futex_wake(int *uaddr, int n);

内核会动态维护一个跟 uaddr 指向的锁变量相关的等待队列。
注意 futex_wait 的第二个参数,由于用户态 trylock 与调用 futex_wait 之间存在一个窗口,其间 lockval 可能发生变化(比如正好有人 unlock 了)。所以用户态应该将自己看到的 *uaddr 的值作为第二个参数传递进去,futex_wait 真正将进程挂起之前一定得检查 lockval 是否发生了变化,并且检查过程跟进程挂起的过程得放在同一个临界区中。(参见《linux 线程同步浅析》的讨论。)如果 futex_wait 发现 lockval 发生了变化,则会立即返回,由用户态继续 trylock。

futex 实现了锁粒度的等待队列,而这个锁却并不需要事先向内核申明。任何时候,用户态调用 futex_wait 传入一个 uaddr,内核就会维护起与之配对的等待队列。
这件事情听上去好像很复杂,实际上却很简单。其实它并不需要为每一个 uaddr 单独维护一个队列,futex 只维护一个总的队列就行了,所有挂起的进程都放在里面。当然,队列中的节点需要能标识出相应进程在等待的是哪一个 uaddr。这样,当用户态调用 futex_wake 时,只需要遍历这个等待队列,把带有相同 uaddr 的节点所对应的进程唤醒就行了。
作为优化,futex 维护的这个等待队列由若干个带 spinlock 的链表构成。调用 futex_wait 挂起的进程,通过其 uaddr hash 到某一个具体的链表上去。这样一方面能分散对等待队列的竞争、另一方面减小单个队列的长度,便于 futex_wake 时的查找。每个链表各自持有一把 spinlock,将 *uaddr 和 val 的比较操作 与 把进程加入队列的操作 保护在一个临界区中。

另一个问题是关于 uaddr 参数的比较。futex 支持多进程,需要考虑同一个物理内存单元在不同进程中的虚拟地址不同的问题。那么不同进程传递进来的 uaddr 如何判断它们是否相等,就不是简单数值比较的事情。相同的 uaddr 不一定代表同一个内存,反之亦然。
两个进程(线程)要想共享同存,无外乎两种方式:通过文件映射(映射真实的文件或内存文件、ipc shmem,以及有亲缘关系的进程通过带 MAP_SHARED 标记的匿名映射共享内存)、通过匿名内存映射(比如多线程),这也是进程使用内存的唯二方式。
那么 futex 就应该支持这两种方式下的 uaddr 比较。匿名映射下,需要比较 uaddr 所在的地址空间(mm)和 uaddr 的值本身;文件映射下,需要比较 uaddr 所在的文件 inode 和 uaddr 在该 inode 中的偏移。注意,上面提到的内存共享方式中,有一种比较特殊:有亲缘关系的进程通过带 MAP_SHARED 标记的匿名映射共享内存。这种情况下表面上看使用的是匿名映射,但是内核在暗中却会转成到 /dev/zero 这个特殊文件的文件映射。若非如此,各个进程的地址空间不同,匿名映射下的 uaddr 永远不可能被 futex 认为相等。

futex 和它的兄弟姐妹们

futex_wait 和 futex_wake 就是 futex 的基本。之后,为了对其他同步方式做各种优化,futex 又增加了若干变种。
futex 等待系列的调用一般都可以传递 timeout 参数,支持超时唤醒。这一块逻辑相对较独立,本文中不再展开。

Bitset 系列

int futex_wait_bitset(int *uaddr, int val, int bitset);int futex_wake_bitset(int *uaddr, int n, int bitset);

额外传递了一个 bitset 参数,使用特定 bitset 进行 wait 的进程,只能被使用它的 bitset 超集的 wake 调用所唤醒。
这个东西给读写锁很好用,进程挂起的时候通过 bitset 标记自己是在等待读还是等待写。unlock 时决定应该唤醒一个写等待的进程、还是唤醒全部读等待的进程。
没有 bitset 这个功能的话,要么只能 unlock 的时候不区分读等待和写等待,全部唤醒;要么只能搞两个 uaddr,读写分别 futex_wait 其中一个,然后再用 spinlock 保护一下两个 uaddr 的同步。
(参阅:http://locklessinc.com/articles/sleeping_rwlocks/)

Requeue 系列

int futex_requeue(int *uaddr, int n, int *uaddr2, int n2);int futex_cmp_requeue(int *uaddr, int n, int *uaddr2, int n2, int val);

功能跟 futex_wake 有点相似,但不仅仅是唤醒 n 个等待 uaddr 的进程,而更进一步,将 n2 个等待 uaddr 的进程移到 uaddr2 的等待队列中(相当于也 futex_wake 它们,然后强制让它们 futex_wait 在 uaddr2 上面)。
在 futex_requeue 的基础上,futex_cmp_requeue 多了一个判断,仅当 *uaddr 与 val 相等时才执行操作,否则直接返回,让用户态去重试。
这个东西是为 pthread_cond_broadcast 准备的。还是先来回顾一下 pthread_cond 的逻辑(列一下,后面会多次用到):

pthread_cond_wait(mutex, cond):value = cond- value; /* 1 */pthread_mutex_unlock(mutex); /* 2 */retry:pthread_mutex_lock(cond- mutex); /* 10 */if (value == cond- value) { /* 11 */me- next_cond = cond- waiter;cond- waiter = me;
 pthread_mutex_unlock(cond- mutex);
 unable_to_run(me);
 goto retry;
 } else
 pthread_mutex_unlock(cond- mutex); /* 12 */pthread_mutex_lock(mutex); /* 13 */pthread_cond_signal(cond):pthread_mutex_lock(cond- mutex); /* 3 */cond- value++; /* 4 */if (cond- waiter) { /* 5 */sleeper = cond- waiter; /* 6 */cond- waiter = sleeper- next_cond; /* 7 */able_to_run(sleeper); /* 8 */}
 pthread_mutex_unlock(cond- mutex); /* 9 */

pthread_cond_broadcast 跟 pthread_cond_signal 类似,不过它会唤醒所有(而不是一个)等待者。注意,pthread_cond_wait 在被唤醒之后,第一件事情就是 lock(mutex)(第 13 步)。如果 pthread_cond_broadcast 一下子唤醒了 N 个等待者,它们醒来之后势必会争抢 mutex,造成千军万马过独木桥的 惊群 现象。
作为一种优化,pthread_cond_broadcast 不应该用 futex_wake 去唤醒所有等待者,而应该用 futex_requeue 唤醒一个等待者,然后将其他进程都转移到 mutex 的等待队列上去(随后再由 mutex 的 unlock 来逐个唤醒)。

为什么要有 futex_cmp_requeue 呢?因为 futex_requeue 其实是有问题的,它相当于直接把一批进程拖到 uaddr2 的等待队列里面去了,而没有在临界区里面做状态检查(回想一下 futex_wait 里面检查 *uaddr==val 的重要性)。那么,在进入 futex_requeue 和真正将进程移到 uaddr2 之间就存在一个窗口,这个间隙内可能有其他线程 futex_wake(uaddr2),这将无法唤醒这些正要移动却尚未移动的进程,可能造成这些进程今后再也无法被唤醒了。
不过尽管 futex_requeue 并不严谨,pthread_cond_broadcast 这个 case 却是 OK 的,因为在 pthread_cond_broadcast 唤醒等待者的时候,不可能有人 futex_wake(uaddr2),因为这个锁正在被 pthread_cond_broadcast 持有,它将在唤醒操作结束后(第 9 步)才会释放。这也就是为什么 futex_requeue 有问题,却堂而皇之的被 release 了。

Wake Operator

int futex_wake_op(int *uaddr1, int *uaddr2, int n1, int n2, int op);

这个系统调用有点像 CISC 的思路,一个调用中搞了很多动作。它尝试在 uaddr1 的等待队列中唤醒 n1 个进程,然后修改 uaddr2 的值,并且在 uaddr2 的值满足条件的情况下,唤醒 uaddr2 队列中的 n2 个进程。uaddr2 的值如何修改?又需要满足什么样的条件才唤醒 uaddr2?这些逻辑都 pack 在 op 参数中。
int 类型的 op 参数,其实是一个 struct:

struct op {//  修改 *uaddr2 的方法:SET (*uaddr2=OPARG)、ADD(*uaddr2+=OPARG)、// OR(*uaddr2|=OPARG)、ANDN(*uaddr2 =~OPARG)、XOR(*uaddr2^=OPARG)int OP : 4;//  判断 *uaddr2 是否满足条件的方法:EQ(==)、NE(!=)、LT()、LE( =)、GT()、GE( =)int CMP : 4;int OPARG : 12;//  修改 *uaddr2 的参数 int CMPARG : 12;//  判断 *uaddr2 是否满足条件的参数 }

futex_wake_op 搞这么一套复杂的逻辑,无非是希望一次系统调用里面处理两把锁,相当于用户态调用两次 futex_wake。
假设用户态需要释放 uaddr1 和 uaddr2 两把锁(值为 0 代表未上锁、1 代表上锁、2 代表上锁且有进程挂起等待),不使用 futex_wake_op 的话需要这么写:

int old1, old2;atomic { old1 = *uaddr1; *uaddr1 = 0; }if (old1 == 2) { futex_wake(uaddr1, n1);}
atomic { old2 = *uaddr2; *uaddr2 = 0; }if (old2 == 2) { futex_wake(uaddr2, n2);}

而使用 futex_wake_op 的话,只需要这样:

int old1;
atomic { old1 = *uaddr1; *uaddr1 = 0; }if (old1 == 2) {
 futex_wake_op(uaddr1, n1, uaddr2, n2, {
 // op 参数的意思:设置 *uaddr2=0,并且如果 old2==2,则执行唤醒
 OP=SET, OPARG=0, CMP=EQ, CMPARG=2
 } );
}else { ... //  单独处理 uaddr2}

搞这么复杂,其实并不仅仅是省一次系统调用的问题。因为有可能在 unlock(uaddr1) 之后,被唤醒的进程立马会去 lock(uaddr2)。而这时如果这边还没来得及 unlock(uaddr2) 的话,被唤醒的进程立刻又将被挂起,然后随着这边 unlock(uaddr2) 又会再度被唤醒。这不折腾么?
这个场景就可能发生在 pthread_cond_wait 和 pthread_cond_signal 之间。当 pthread_cond_signal 在唤醒等待者之后,会释放内部的锁(第 9 步)。而 pthread_cond_wait 在被唤醒之后立马又会尝试获取内部的锁,以重新检查状态(第 10 步)。若不是 futex_wake_op 将唤醒和释放锁两个动作一笔带过,这中间必定会有强烈的竞争。
当然,使用前面提到的 futex_cmp_requeue 也能避免过分竞争,pthread_cond_signal 不要直接唤醒等待者,而是将其 requeue 到内部锁的等待队列,等这边释放锁之后才真正将其唤醒。不过既然 pthread_cond_signal 立马就会释放内部锁,先 requeue 再 wake 多少还是啰嗦了些。

Priority Inheritance 系列

int futex_lock_pi(int *uaddr);int futex_trylock_pi(int *uaddr);int futex_unlock_pi(int *uaddr);int futex_wait_requeue_pi(int *uaddr1, int val1, int *uaddr2);int futex_cmp_requeue_pi(int *uaddr, int n1, int *uaddr2, int n2, int val);

Priority Inheritance,优先级继承,是解决优先级反转的一种办法。
futex_lock_pi/futex_trylock_pi/futex_unlock_pi,是带优先级继承的 futex 锁操作。
futex_cmp_requeue_pi 是带优先级继承版本的 futex_cmp_requeue,futex_wait_requeue_pi 是与之配套使用的,用于替代普通的 futex_wait。

看完上述内容,你们掌握如何进行 linux futex 浅析的方法了吗?如果还想学到更多技能或想了解更多相关内容,欢迎关注丸趣 TV 行业资讯频道,感谢各位的阅读!

正文完
 
丸趣
版权声明:本站原创文章,由 丸趣 2023-08-16发表,共计8379字。
转载说明:除特殊说明外本站除技术相关以外文章皆由网络搜集发布,转载请注明出处。
评论(没有评论)