从内核看文件描述符传递的实现

系统
文件描述符是内核提供的一个非常有用的技术,典型的在服务器中,主进程负责接收请求,然后把请求传递给子进程处理。本文分析在内核中,文件描述符传递是如何实现的。

[[406240]]

文件描述符是内核提供的一个非常有用的技术,典型的在服务器中,主进程负责接收请求,然后把请求传递给子进程处理。本文分析在内核中,文件描述符传递是如何实现的。

我们先看一下文件描述符传递到底是什么概念。假设主进程打开了一个文件,我们看看进程和文件系统的关系。

如果这时候主进程fork出一个子进程,那么架构如下。

我们看到主进程和子进程都指向同一个文件。那么如果这时候住进程又打开了一个文件。架构如下。

我们看到新打开的文件,子进程是不会再指向了的。假设文件底层的资源是TCP连接,而主进程想把这个关系同步到子进程中,即交给子进程处理,那怎么办呢?这时候就需要用到文件描述符传递。下面是我们期待的架构。

通常主进程会close掉对应的文件描述符,即解除引用关系。不过这里我们可以不关注这个。文件描述符这种能力不是天然,需要内核支持,如果我们单纯把fd(文件描述符)当作数据传给子进程,子进程无法指向对应的文件的。下面我们如何使用这个技术并通过内核来看看如何实现这个技术。下面使用代码摘自Libuv。

  1. int fd_to_send; 
  2.     // 核心数据结构 
  3.     struct msghdr msg; 
  4.     struct cmsghdr *cmsg; 
  5.     union { 
  6.       char data[64]; 
  7.       struct cmsghdr alias; 
  8.     } scratch; 
  9.     // 获取需要发送的文件描述符 
  10.     fd_to_send = uv__handle_fd((uv_handle_t*) req->send_handle); 
  11.  
  12.     memset(&scratch, 0, sizeof(scratch)); 
  13.  
  14.     msg.msg_name = NULL
  15.     msg.msg_namelen = 0; 
  16.     msg.msg_iov = iov; 
  17.     msg.msg_iovlen = iovcnt; 
  18.     msg.msg_flags = 0; 
  19.  
  20.     msg.msg_control = &scratch.alias; 
  21.     msg.msg_controllen = CMSG_SPACE(sizeof(fd_to_send)); 
  22.  
  23.     cmsg = CMSG_FIRSTHDR(&msg); 
  24.     cmsg->cmsg_level = SOL_SOCKET; 
  25.     cmsg->cmsg_type = SCM_RIGHTS; 
  26.     cmsg->cmsg_len = CMSG_LEN(sizeof(fd_to_send)); 
  27.  
  28.     /* silence aliasing warning */ 
  29.     { 
  30.       void* pv = CMSG_DATA(cmsg); 
  31.       int* pi = pv; 
  32.       *pi = fd_to_send; 
  33.     } 
  34.     // fd是Unix域对应的文件描述符 
  35.     int fd = uv__stream_fd(stream); 
  36.     // 发送文件描述符 
  37.     sendmsg(fd, &msg, 0); 

我们看到发送文件描述符是比较复杂的,使用的主要数据结构是msghdr。把需要发送的文件描述符保存到msghdr中,并设置一些标记。然后通过Unix域发送(Unix是唯一一种支持文件描述符传递的进程间通信方式)。我们下来主要来分析内核对sendmsg的实现。

  1. case SYS_SENDMSG: 
  2.         err = __sys_sendmsg(a0, (struct user_msghdr __user *)a1, 
  3.                     a[2], true); 

该系统调用对应的是__sys_sendmsg。

  1. long __sys_sendmsg(int fd, struct user_msghdr __user *msg, unsigned int flags, 
  2.            bool forbid_cmsg_compat){ 
  3.     int fput_needed, err; 
  4.     struct msghdr msg_sys; 
  5.     struct socket *sock; 
  6.     // 根据fd找到socket 
  7.     sock = sockfd_lookup_light(fd, &err, &fput_needed); 
  8.     ___sys_sendmsg(sock, msg, &msg_sys, flags, NULL, 0); 

后面的链路很长syssendmsg->__sys_sendmsg->sock_sendmsg->sock_sendmsg_nosec。

  1. static inline int sock_sendmsg_nosec(struct socket *sock, struct msghdr *msg){ 
  2.     int ret = INDIRECT_CALL_INET(sock->ops->sendmsg, inet6_sendmsg, 
  3.                      inet_sendmsg, sock, msg, 
  4.                      msg_data_left(msg)); 
  5.     BUG_ON(ret == -EIOCBQUEUED); 
  6.     return ret; 

我们看到最后调用sock->ops->sendmsg,我们看看Unix域对sendmsg的实现。Unix域有SOCK_STREAM和SOCK_DGRAM两种模式,我们选第一个分析就可以。

  1. static int unix_stream_sendmsg(struct socket *sock, struct msghdr *msg, 
  2.                    size_t len){ 
  3.     struct sock *sk = sock->sk; 
  4.     struct sock *other = NULL
  5.     int err, size
  6.     struct sk_buff *skb; 
  7.     int sent = 0; 
  8.     struct scm_cookie scm; 
  9.     bool fds_sent = false
  10.     int data_len; 
  11.     // 把文件描述符信息复制到scm 
  12.     scm_send(sock, msg, &scm, false); 
  13.     // 通信的对端 
  14.     other = unix_peer(sk); 
  15.     // 不断构建数据包skbuff发送,直到发送完毕 
  16.     while (sent < len) { 
  17.         // 分配一个sdk承载消息 
  18.         skb = sock_alloc_send_pskb(sk, size - data_len, data_len, 
  19.                        msg->msg_flags & MSG_DONTWAIT, &err, 
  20.                        get_order(UNIX_SKB_FRAGS_SZ)); 
  21.         // 把scm复制到skb               
  22.         err = unix_scm_to_skb(&scm, skb, !fds_sent); 
  23.         // 把数据写到skb 
  24.         err = skb_copy_datagram_from_iter(skb, 0, &msg->msg_iter, size); 
  25.         // 插入对端的消息队列 
  26.         skb_queue_tail(&other->sk_receive_queue, skb); 
  27.         // 通知对端有数据可读 
  28.         other->sk_data_ready(other); 
  29.         sent += size
  30.     } 
  31.     // ... 

我们看到,整体的逻辑不负责,主要是根据数据构造skb结构体,然后插入对端消息队列,最后通知对端有消息可读,我们这里只关注文件描述符的处理。首先我们看看scm_send。

  1. static __inline__ int scm_send(struct socket *sock, struct msghdr *msg, 
  2.                    struct scm_cookie *scm, bool forcecreds){ 
  3.     memset(scm, 0, sizeof(*scm)); 
  4.     scm->creds.uid = INVALID_UID; 
  5.     scm->creds.gid = INVALID_GID; 
  6.     unix_get_peersec_dgram(sock, scm); 
  7.     if (msg->msg_controllen <= 0) 
  8.         return 0; 
  9.     return __scm_send(sock, msg, scm);}int __scm_send(struct socket *sock, struct msghdr *msg, struct scm_cookie *p){ 
  10.     struct cmsghdr *cmsg; 
  11.     int err; 
  12.  
  13.     for_each_cmsghdr(cmsg, msg) { 
  14.         switch (cmsg->cmsg_type) 
  15.         { 
  16.         case SCM_RIGHTS: 
  17.             err=scm_fp_copy(cmsg, &p->fp); 
  18.             if (err<0) 
  19.                 goto error; 
  20.             break; 
  21.         } 
  22.     } 

我们看到__scm_send遍历待发送的数据,然后判断cmsg->cmsg_type的值,我们这里是SCM_RIGHTS(见最开始的使用代码),接着调用scm_fp_copy。

  1. static int scm_fp_copy(struct cmsghdr *cmsg, struct scm_fp_list **fplp){ 
  2.     int *fdp = (int*)CMSG_DATA(cmsg); 
  3.     struct scm_fp_list *fpl = *fplp; 
  4.     struct file **fpp; 
  5.     int i, num; 
  6.  
  7.     num = (cmsg->cmsg_len - sizeof(struct cmsghdr))/sizeof(int); 
  8.     if (!fpl) 
  9.     { 
  10.         fpl = kmalloc(sizeof(struct scm_fp_list), GFP_KERNEL); 
  11.         *fplp = fpl; 
  12.         fpl->count = 0; 
  13.         fpl->max = SCM_MAX_FD; 
  14.         fpl->user = NULL
  15.     } 
  16.     fpp = &fpl->fp[fpl->count]; 
  17.     // 遍历然后把fd对应的file保存到fpp中。 
  18.     for (i=0; i< num; i++) 
  19.     { 
  20.         int fd = fdp[i]; 
  21.         struct file *file; 
  22.  
  23.         if (fd < 0 || !(file = fget_raw(fd))) 
  24.             return -EBADF; 
  25.         *fpp++ = file; 
  26.         fpl->count++; 
  27.     } 
  28.  
  29.     if (!fpl->user
  30.         fpl->user = get_uid(current_user()); 
  31.  
  32.     return num; 

我们看到scm_fp_copy遍历然后把fd对应的file保存到fpp中。而fpp属于fpl属于fplp属于最开始的struct scm_cookie scm(unix_stream_sendmsg函数),即最后把fd对应的file保存到了scm中。接着我们回到unix_stream_sendmsg看unix_scm_to_skb。

  1. static int unix_scm_to_skb(struct scm_cookie *scm, struct sk_buff *skb, bool send_fds){ 
  2.     int err = 0; 
  3.  
  4.     UNIXCB(skb).pid  = get_pid(scm->pid); 
  5.     UNIXCB(skb).uid = scm->creds.uid; 
  6.     UNIXCB(skb).gid = scm->creds.gid; 
  7.     UNIXCB(skb).fp = NULL
  8.     unix_get_secdata(scm, skb); 
  9.     if (scm->fp && send_fds) 
  10.         // 写到skb 
  11.         err = unix_attach_fds(scm, skb); 
  12.  
  13.     skb->destructor = unix_destruct_scm; 
  14.     return err; 

接着看unix_attach_fds。

  1. int unix_attach_fds(struct scm_cookie *scm, struct sk_buff *skb){ 
  2.     int i; 
  3.     // 复制到skb 
  4.     UNIXCB(skb).fp = scm_fp_dup(scm->fp); 
  5.     return 0;}struct scm_fp_list *scm_fp_dup(struct scm_fp_list *fpl){ 
  6.     struct scm_fp_list *new_fpl; 
  7.     int i; 
  8.  
  9.     new_fpl = kmemdup(fpl, offsetof(struct scm_fp_list, fp[fpl->count]), 
  10.               GFP_KERNEL); 
  11.     if (new_fpl) { 
  12.         for (i = 0; i < fpl->count; i++) 
  13.             get_file(fpl->fp[i]); 
  14.         new_fpl->max = new_fpl->count
  15.         new_fpl->user = get_uid(fpl->user); 
  16.     } 
  17.     return new_fpl; 

至此我们看到数据和文件描述符都写到了skb中,并插入了对端的消息队列。我们接着分析对端时如何处理的。我们从recvmsg函数开始,对应Uinix域的实现时unix_stream_recvmsg。

  1. static int unix_stream_recvmsg(struct socket *sock, struct msghdr *msg, 
  2.                    size_t sizeint flags){ 
  3.     struct unix_stream_read_state state = { 
  4.         .recv_actor = unix_stream_read_actor, 
  5.         .socket = sock, 
  6.         .msg = msg, 
  7.         .size = size
  8.         .flags = flags 
  9.     }; 
  10.  
  11.     return unix_stream_read_generic(&state, true); 

接着看

  1. static int unix_stream_read_generic(struct unix_stream_read_state *state, 
  2.                     bool freezable){ 
  3.     struct scm_cookie scm; 
  4.     struct socket *sock = state->socket; 
  5.     struct sock *sk = sock->sk; 
  6.     struct unix_sock *u = unix_sk(sk); 
  7.  
  8.     // 拿到一个skb 
  9.     skb = skb_peek(&sk->sk_receive_queue); 
  10.     // 出队 
  11.     skb_unlink(skb, &sk->sk_receive_queue); 
  12.     // 复制skb数据到state->msg 
  13.     state->recv_actor(skb, skip, chunk, state); 
  14.     // 处理文件描述符 
  15.     if (UNIXCB(skb).fp) { 
  16.         scm_stat_del(sk, skb); 
  17.         // 复制skb的文件描述符信息到scm 
  18.         unix_detach_fds(&scm, skb); 
  19.     } 
  20.     if (state->msg) 
  21.         scm_recv(sock, state->msg, &scm, flags); 

内核首先通过钩子函数recv_actor把skb数据数据复制到state->msg,recv_actor对应函数是unix_stream_read_actor。

  1. static int unix_stream_read_actor(struct sk_buff *skb, 
  2.                   int skip, int chunk, 
  3.                   struct unix_stream_read_state *state){ 
  4.     int ret; 
  5.  
  6.     ret = skb_copy_datagram_msg(skb, UNIXCB(skb).consumed + skip, 
  7.                     state->msg, chunk); 
  8.     return ret ?: chunk; 

接着看unix_detach_fds。

  1. void unix_detach_fds(struct scm_cookie *scm, struct sk_buff *skb){ 
  2.     int i; 
  3.     // 写到scm中 
  4.     scm->fp = UNIXCB(skb).fp; 
  5.     UNIXCB(skb).fp = NULL

unix_detach_fds把文件描述符信息写到scm。最后调用scm_recv处理文件描述符。

  1. static __inline__ void scm_recv(struct socket *sock, struct msghdr *msg, 
  2.                 struct scm_cookie *scm, int flags){ 
  3.     scm_detach_fds(msg, scm);}void scm_detach_fds(struct msghdr *msg, struct scm_cookie *scm){ 
  4.     int fdmax = min_t(int, scm_max_fds(msg), scm->fp->count); 
  5.     int i; 
  6.  
  7.     for (i = 0; i < fdmax; i++) { 
  8.         err = receive_fd_user(scm->fp->fp[i], cmsg_data + i, o_flags); 
  9.         if (err < 0) 
  10.             break; 
  11.     } 

scm_detach_fds中调用了receive_fd_user处理一个文件描述符。其中第一个入参scm->fp->fp[i]是file结构体,即需传递到文件描述符对应的file。我们看看怎么处理的。

  1. static inline int receive_fd_user(struct file *file, int __user *ufd, 
  2.                   unsigned int o_flags){ 
  3.     return __receive_fd(-1, file, ufd, o_flags);}int __receive_fd(int fd, struct file *file, int __user *ufd, unsigned int o_flags){ 
  4.     int new_fd; 
  5.     // fd是-1,申请一个新的 
  6.     if (fd < 0) { 
  7.         new_fd = get_unused_fd_flags(o_flags); 
  8.     } else { 
  9.         new_fd = fd; 
  10.     } 
  11.  
  12.     if (fd < 0) { 
  13.         fd_install(new_fd, get_file(file)); 
  14.     } else { 
  15.         // ... 
  16.     } 
  17.     return new_fd; 

我们看到首先申请了当前进程的一个新的文件描述符。然后调用fd_install关联到file。

  1. void fd_install(unsigned int fd, struct file *file){    
  2.     // current->files是当前进程打开的文件描述符列表 
  3.     __fd_install(current->files, fd, file);}void __fd_install(struct files_struct *files, unsigned int fd, 
  4.         struct file *file){ 
  5.     struct fdtable *fdt; 
  6.     // 拿到管理文件描述符的数据结构 
  7.     fdt = rcu_dereference_sched(files->fdt); 
  8.     // 给某个元素赋值指向file 
  9.     rcu_assign_pointer(fdt->fd[fd], file); 

最后形成下图所示的架构。

后记,我们看到文件描述符传递的核心就是在发送的数据中记录要传递的文件描述符对应的file结构体,然后发送做好标记,接着接收的过程中,重新建立新的fd到传递的file的关联关系。

 

责任编辑:武晓燕 来源: 编程杂技
相关推荐

2019-03-05 22:15:08

BashLinux命令

2012-08-08 10:31:41

IBMdW

2023-12-13 14:01:34

Elasticsea文件描述符操作系统

2020-02-07 18:16:01

进程线程底层原理

2021-06-26 07:04:24

Epoll服务器机制

2019-07-05 14:20:45

RPC服务器模型

2017-02-05 10:06:53

Python黑魔法描述符

2009-07-08 09:46:45

Servlet注释部署描述符

2016-10-28 21:55:28

Javascript属性特性属性描述符

2023-04-06 15:22:15

Linux进程系统

2021-05-19 14:48:58

Linux文件fd

2009-09-04 14:04:53

C#文档

2021-07-07 23:38:05

内核IOLinux

2019-07-09 14:30:16

LinuxJava 服务器

2019-07-09 15:30:31

Linuxulimit文件描述符

2016-08-23 17:21:51

UnixLinux重定向

2016-09-20 15:21:35

LinuxInnoDBMysql

2019-03-27 09:14:38

CPU内核应用程序

2017-04-05 20:00:32

ChromeObjectJS代码

2021-05-06 10:33:30

C++Napiv8
点赞
收藏

51CTO技术栈公众号