我对网络IO的理解,你理解了吗?

存储 存储软件
Unix/Linux系统下IO主要分为磁盘IO,网络IO,我今天主要说一下对网络IO的理解,网络IO主要是socket套接字的读(read)、写(write),socket在Linux系统被抽象为流(stream)。

 Unix/Linux系统下IO主要分为磁盘IO,网络IO,我今天主要说一下对网络IO的理解,网络IO主要是socket套接字的读(read)、写(write),socket在Linux系统被抽象为流(stream)。

[[286833]]

网络IO模型

在Unix/Linux系统下,IO分为两个不同阶段:

  • 等待数据准备好
  • 从内核向进程复制数据

阻塞式I/O

阻塞式I/O(blocking I/O)是最简单的一种,默认情况下,socket 套接字的系统调用都是阻塞的,我以recv/recvfrom 理解一下网络IO的模型。当应用层的系统调用recv/recvfrom时,开启Linux的系统调用,开始准备数据,然后将数据从内核态复制到用户态,然后通知应用程序获取数据,整个过程都是阻塞的。两个阶段都会被阻塞。

 

我对网络IO的理解

 

阻塞I/O模型

图片来源于《Unix网络编程卷1》

阻塞I/O下开发的后台服务,一般都是通过多进程或者线程取出来请求,但是开辟进程或者线程是非常消耗系统资源的,当大量请求时,因为需要开辟更多的进程或者线程有可能将系统资源耗尽,因此这种模式不适合高并发的系统。

非阻塞式I/O

非阻塞IO(non-blocking I/O)在调用后,内核马上返回给进程,如果数据没有准备好,就返回一个error ,进程可以先去干其他事情,一会再次调用,直到数据准备好为止,循环往返的系统调用的过程称为轮询(pool),然后在从内核态将数据拷贝到用户态,但是这个拷贝的过程还是阻塞的。

我还是以recv/recvfrom为例说一下,首选需要将socket套接字设置成为非阻塞,进程开始调用recv/recvfrom,如果内核没有准备好数据时,立即返回给进程一个error码(在Linux下是EAGINE的错误码),进程接到error返回后,先去干其他的事情,进入了轮询,只等到数据准备好,然后将数据拷贝到用户态。

需要通过ioctl 函数将socket套接字设置成为非阻塞

  1. ioctl(fd, FIONBIO, &nb); 

 

我对网络IO的理解

 

非阻塞I/O模型

图片来源于《Unix网络编程卷1》

非阻塞I/O的第一阶段不会阻塞,但是第二个阶段将数据从内核态拷贝到用户态时会有阻塞。在开发后台服务,由于非阻塞I/O需要通过轮询的方式去知道是否数据准备好,轮询的方式特别耗CPU的资源。

I/O多路复用

在Linux下提供一种I/O多路复用(I/O multiplexing)的机制,这个机制允许同时监听多个socket套接字描述符fd,一旦某个fd就绪(就绪一般是有数据可读或者可写)时,能够通知进程进行相应的读写操作。

在Linux下有三个I/O多路复用的函数Select、Poll、Epoll,但是它们都是同步IO,因为它们都需要在数据准备好后,读写数据是阻塞的。

 

我对网络IO的理解

 

I/O多路复用模型

图片来源于《Unix网络编程卷1》

I/O多路复用是Linux处理高并发的技术,Epoll比Select、Poll性能更优越,后面会讲到它们的区别。优秀的高并发服务例如Nginx、Redis都是采用Epoll+Non-Blocking I/O的模式。

信号驱动式I/O

信号驱动式I/O是通过信号的方式通知数据准备好,然后再讲数据拷贝到应用层,拷贝阶段也是阻塞的。

 

我对网络IO的理解

 

信号驱动式I/O

图片来源于《Unix网络编程卷1》

异步I/O

异步I/O(asynchronous I/O或者AIO),数据准备通知和数据拷贝两个阶段都在内核态完成,两个阶段都不会阻塞,真正的异步I/O。

进程调用read/readfrom时,内核立刻返回,进程不会阻塞,进程可以去干其他的事情,当内核通知进程数据已经完成后,进程直接可以处理数据,不需要再拷贝数据,因为内核已经将数据从内核态拷贝到用户态,进程可以直接处理数据。

 

我对网络IO的理解

 

异步I/O模型

图片来源于《Unix网络编程卷1》

Linux对AIO支持不好,因此使用的不是太广泛。

同步和异步区别、阻塞和非阻塞的区别

同步和异步区别

对于这两个东西,POSIX其实是有官方定义的。A synchronous I/O operation causes the requesting process to be blocked until that I/O operation completes;An asynchronous I/O operation does not cause the requesting process to be blocked;

一个同步I/O操作会引起请求进程阻塞,只到这个I/O请求结束。

一个异步I/O操作不会引起请求进程阻塞。

从这个官方定义中,不管是Blocking I/O还是Non-Blocking I/O,其实都是synchronous I/O。因为它们一定都会阻塞在第二阶段拷贝数据那里。只有异步IO才是异步的。

 

我对网络IO的理解

 

同步异步对比

图片来源于知乎

阻塞和非阻塞的区别

阻塞和非阻塞主要区别其实是在第一阶段等待数据的时候。但是在第二阶段,阻塞和非阻塞其实是没有区别的。程序必须等待内核把收到的数据复制到进程缓冲区来。换句话说,非阻塞也不是真的一点都不”阻塞”,只是在不能立刻得到结果的时候不会傻乎乎地等在那里而已。

IO多路复用

Select、Poll、Epoll的区别

Select、poll、epoll都是I/O多路复用的机制,I/O多路复用就是通过一种机制,一个进程可以监视多个文件描述符fd,一旦某个描述符就绪(一般是读就绪或者写就绪),能够通知程序进行相应的读写操作。但select,poll,epoll本质上都是同步I/O,因为他们都需要在读写事件就绪后自己负责进行读写,也就是说这个读写过程是阻塞的,而异步I/O则无需自己负责进行读写,异步I/O的实现会负责把数据从内核拷贝到用户空间。

select

  1. int select (int n, fd_set *readfds, fd_set *writefds, fd_set *exceptfds, struct timeval *timeout); 

select 函数监视的文件描述符分3类,分别是writefds、readfds、和exceptfds。调用后select函数会阻塞,直到有描述符就绪(有数据 可读、可写、或者有except),或者超时(timeout指定等待时间,如果立即返回设为null即可),函数返回。当select函数返回后,可以 通过遍历fdset,来找到就绪的描述符。

select支持几乎所有的平台,跨平台是它的优点。

select缺点是:1)单个进程支持监控的文件描述符数量有限,Linux下一般是1024,可以修改提升限制,但是会造成效率低下。2)select通过轮询方式通知消息,效率比较低。

poll

  1. int poll (struct pollfd *fds, unsigned int nfds, int timeout); 

不同于select使用三个位图来表示三个fdset的方式,poll使用一个pollfd的指针实现。

  1. struct pollfd { 
  2.  int fd; /* file descriptor */ 
  3.  short events; /* requested events to watch */ 
  4.  short revents; /* returned events witnessed */ 
  5. }; 

pollfd结构包含了要监视的event和发生的event,不再使用select“参数-值”传递的方式。同时,pollfd并没有最大数量限制(但是数量过大后性能也是会下降)。和select函数一样,poll返回后,需要轮询pollfd来获取就绪的描述符。

从上面看,select和poll都需要在返回后,通过遍历文件描述符来获取已经就绪的socket。事实上,同时连接的大量客户端在一时刻可能只有很少的处于就绪状态,因此随着监视的描述符数量的增长,其效率也会线性下降。

epoll

epoll是在2.6内核中提出的,是之前的select和poll的增强版本,是Linux特有的。相对于select和poll来说,epoll更加灵活,没有描述符限制。epoll使用一个文件描述符管理多个描述符,将用户关系的文件描述符的事件存放到内核的一个事件表中,这样在用户空间和内核空间的copy只需一次。

  1. int epoll_create(int size);//创建一个epoll的句柄,size用来告诉内核这个监听的数目一共有多大 
  2. int epoll_ctl(int epfd, int op, int fd, struct epoll_event *event); 
  3. int epoll_wait(int epfd, struct epoll_event * events, int maxevents, int timeout); 

执行epoll_create时,创建了红黑树和就绪list链表;执行epoll_ctl时,如果增加fd,则检查在红黑树中是否存在,存在则立即返回,不存在则添加到红黑树中,然后向内核注册回调函数,用于当中断事件到来时向准备就绪的list链表中插入数据。执行epoll_wait时立即返回准备就绪链表里的数据即可。

工作模式

1. LT模式

LT(level triggered)是缺省的工作方式,并且同时支持block和no-block socket,在这种做法中,内核告诉你一个文件描述符是否就绪了,然后你可以对这个就绪的fd进行IO操作。如果你不做任何操作,内核还是会继续通知你的。

2. ET模式

ET(edge-triggered)是高速工作方式,只支持no-block socket。在这种模式下,当描述符从未就绪变为就绪时,内核通过epoll告诉你。然后它会假设你知道文件描述符已经就绪,并且不会再为那个文件描述符发送更多的就绪通知,直到你做了某些操作导致那个文件描述符不再为就绪状态了(比如,你在发送,接收或者接收请求,或者发送接收的数据少于一定量时导致了一个EWOULDBLOCK/EAGAIN 错误)。但是请注意,如果一直不对这个fd作IO操作(从而导致它再次变成未就绪),内核不会发送更多的通知(only once),因此必须把缓存区buff数据读取完毕,不然就可能会丢数据。

ET模式在很大程度上减少了epoll事件被重复触发的次数,因此效率要比LT模式高。epoll工作在ET模式的时候,必须使用非阻塞套接口,以避免由于一个文件句柄的阻塞读/阻塞写操作把处理多个文件描述符的任务饿死。

详细对比

 

我对网络IO的理解

 

三种I/O多路复用对比

Nginx中Epoll+非阻塞IO

Nginx高并发主要是通过Epoll模式+非阻塞I/O

Nginx对I/O多路复用进行封装,封装在结构体struct ngx_event_s,同时将事件封装在ngx_event_actions_t结构中。

  1. typedef struct { 
  2.  ngx_int_t (*add)(ngx_event_t *ev, ngx_int_t event, ngx_uint_t flags); 
  3.  ngx_int_t (*del)(ngx_event_t *ev, ngx_int_t event, ngx_uint_t flags); 
  4.  
  5.  ngx_int_t (*enable)(ngx_event_t *ev, ngx_int_t event, ngx_uint_t flags); 
  6.  ngx_int_t (*disable)(ngx_event_t *ev, ngx_int_t event, ngx_uint_t flags); 
  7.  
  8.  ngx_int_t (*add_conn)(ngx_connection_t *c); 
  9.  ngx_int_t (*del_conn)(ngx_connection_t *c, ngx_uint_t flags); 
  10.  
  11.  ngx_int_t (*notify)(ngx_event_handler_pt handler); 
  12.  
  13.  ngx_int_t (*process_events)(ngx_cycle_t *cycle, ngx_msec_t timer, 
  14.  ngx_uint_t flags); 
  15.  
  16.  ngx_int_t (*init)(ngx_cycle_t *cycle, ngx_msec_t timer); 
  17.  void (*done)(ngx_cycle_t *cycle); 
  18. } ngx_event_actions_t; 

初始化epoll句柄

  1. static ngx_int_t 
  2. ngx_epoll_init(ngx_cycle_t *cycle, ngx_msec_t timer) 
  3.  ngx_epoll_conf_t *epcf; 
  4.  
  5.  epcf = ngx_event_get_conf(cycle->conf_ctx, ngx_epoll_module); 
  6.  
  7.  if (ep == -1) { 
  8.  ep = epoll_create(cycle->connection_n / 2); 
  9.  
  10.  if (ep == -1) { 
  11.  ngx_log_error(NGX_LOG_EMERG, cycle->log, ngx_errno, 
  12.  "epoll_create() failed"); 
  13.  return NGX_ERROR; 
  14.  } 
  15.  ... 
  16.  } 

将fd设置为非阻塞

  1. (ngx_nonblocking(s) == -1) #nginx将fd设置非阻塞 

设置事件触发

  1. static ngx_int_t 
  2. ngx_epoll_add_event(ngx_event_t *ev, ngx_int_t event, ngx_uint_t flags) 
  3.  int op; 
  4.  uint32_t events, prev; 
  5.  ngx_event_t *e; 
  6.  ngx_connection_t *c; 
  7.  struct epoll_event ee; 
  8.  
  9.  c = ev->data; 
  10.  
  11.  events = (uint32_t) event; 
  12.  
  13.  if (event == NGX_READ_EVENT) { 
  14.  e = c->write; 
  15.  prev = EPOLLOUT; 
  16. #if (NGX_READ_EVENT != EPOLLIN|EPOLLRDHUP) 
  17.  events = EPOLLIN|EPOLLRDHUP; 
  18. #endif 
  19.  
  20.  } else { 
  21.  e = c->read
  22.  prev = EPOLLIN|EPOLLRDHUP; 
  23. #if (NGX_WRITE_EVENT != EPOLLOUT) 
  24.  events = EPOLLOUT; 
  25. #endif 
  26.  } 
  27.  
  28.  if (e->active) { 
  29.  op = EPOLL_CTL_MOD; 
  30.  events |= prev; 
  31.  
  32.  } else { 
  33.  op = EPOLL_CTL_ADD; 
  34.  } 
  35.  
  36. #if (NGX_HAVE_EPOLLEXCLUSIVE && NGX_HAVE_EPOLLRDHUP) 
  37.  if (flags & NGX_EXCLUSIVE_EVENT) { 
  38.  events &= ~EPOLLRDHUP; 
  39.  } 
  40. #endif 
  41.  
  42.  ee.events = events | (uint32_t) flags; 
  43.  ee.data.ptr = (void *) ((uintptr_t) c | ev->instance); 
  44.  
  45.  ngx_log_debug3(NGX_LOG_DEBUG_EVENT, ev->log, 0, 
  46.  "epoll add event: fd:%d op:%d ev:%08XD"
  47.  c->fd, op, ee.events); 
  48.  
  49.  if (epoll_ctl(ep, op, c->fd, &ee) == -1) { 
  50.  ngx_log_error(NGX_LOG_ALERT, ev->log, ngx_errno, 
  51.  "epoll_ctl(%d, %d) failed", op, c->fd); 
  52.  return NGX_ERROR; 
  53.  } 
  54.  
  55.  ev->active = 1; 
  56. #if 0 
  57.  ev->oneshot = (flags & NGX_ONESHOT_EVENT) ? 1 : 0; 
  58. #endif 
  59.  
  60.  return NGX_OK; 

处理就绪的事件

  1. static ngx_int_t 
  2. ngx_epoll_process_events(ngx_cycle_t *cycle, ngx_msec_t timer, ngx_uint_t flags) 
  3.  int events; 
  4.  uint32_t revents; 
  5.  ngx_int_t instance, i; 
  6.  ngx_uint_t level
  7.  ngx_err_t err; 
  8.  ngx_event_t *rev, *wev; 
  9.  ngx_queue_t *queue; 
  10.  ngx_connection_t *c; 
  11.  
  12.  /* NGX_TIMER_INFINITE == INFTIM */ 
  13.  
  14.  ngx_log_debug1(NGX_LOG_DEBUG_EVENT, cycle->log, 0, 
  15.  "epoll timer: %M", timer); 
  16.  
  17.  events = epoll_wait(ep, event_list, (int) nevents, timer); 
  18.  ... 

 

责任编辑:武晓燕 来源: 今日头条
相关推荐

2024-03-15 08:23:26

异步编程函数

2022-05-03 00:03:11

状态管理前端开发

2022-09-09 10:15:06

OAuthJava

2017-06-02 09:47:29

网络分层协议

2022-08-26 00:21:44

IO模型线程

2022-10-20 18:43:32

C语言golang安全

2023-11-07 08:19:35

IO多路复用磁盘、

2021-03-19 07:59:33

红黑树面试数据

2018-03-21 16:19:40

MVCMVPMVVM

2012-11-30 11:19:02

JavaScript

2020-04-16 10:55:03

Java虚拟机字节码

2023-11-28 12:25:02

多线程安全

2022-06-30 09:10:33

NoSQLHBaseRedis

2024-09-26 16:01:52

2022-03-27 09:06:25

vuexActionsMutations

2019-09-16 08:32:59

递归算法编程

2013-07-11 10:37:20

Java内存模型

2017-05-24 10:12:54

前端FlexboxCSS3

2022-07-06 08:30:36

vuereactvdom

2020-06-29 08:32:21

高并发程序员流量
点赞
收藏

51CTO技术栈公众号