一篇学会 Go 网络库 Gnet 解析

网络 网络优化
本篇文章主要分析gnet的。至于使用姿势就不发了,gnet有对应的demo库,可以自行体验。


开篇

我们分析了Go原生网络模型以及部分源码,绝大部分场景下(99%),使用原生netpoll已经足够了。

但是在一些海量并发连接下,原生netpoll会为每一个连接都开启一个goroutine处理,也就是1千万的连接就会创建一千万个goroutine。

这就给了这些特殊场景下的优化空间,这也是像gnet和cloudwego/netpoll诞生的原因之一吧。

本质上他们的底层核心都是一样的,都是基于epoll(linux)实现的。只是事件发生后,每个库的处理方式会有所不同。

本篇文章主要分析gnet的。至于使用姿势就不发了,gnet有对应的demo库,可以自行体验。

架构

直接引用gnet官网的一张图:

图片

gnet采用的是『主从多 Reactors』。也就是一个主线程负责监听端口连接,当一个客户端连接到来时,就把这个连接根据负载均衡算法分配给其中一个sub线程,由对应的sub线程去处理这个连接的读写事件以及管理它的死亡。

下面这张图就更清晰了。

图片

核心结构

我们先解释gnet的一些核心结构。

图片

engine就是程序最上层的结构了。

  • ln对应的listener就是服务启动后对应监听端口的监听器。
  • lb对应的loadBalancer就是负载均衡器。也就是当客户端连接服务时,负载均衡器会选择一个sub线程,把连接交给此线程处理。
  • mainLoop 就是我们的主线程了,对应的结构eventloop。当然我们的sub线程结构也是eventloop。结构相同,不同的是职责。主线程负责的是监听端口发生的客户端连接事件,然后再由负载均衡器把连接分配给一个sub线程。而sub线程负责的是绑定分配给他的连接(不止一个),且等待自己管理的所有连接后续读写事件,并进行处理。

接着看eventloop。

图片

  • netpoll.Poller:每一个 eventloop都对应一个epoll或者kqueue。
  • buffer用来作为读消息的缓冲区。
  • connCoun记录当前eventloop存储的tcp连接数。
  • udpSockets和connetcions分别管理着这个eventloop下所有的udp socket和tcp连接,注意他们的结构map。这里的int类型存储的就是fd。

对应conn结构。

图片

这里面有几个字段介绍下:

  • buffer:存储当前conn对端(client)发送的最新数据,比如发送了三次,那个此时buffer存储的是第三次的数据,代码里有。
  • inboundBuffer:存储对端发送的且未被用户读取的剩余数据,还是个Ring Buffer。
  • outboundBuffer:存储还未发送给对端的数据。(比如服务端响应客户端的数据,由于conn fd是不阻塞的,调用write返回不可写的时候,就可以先把数据放到这里)

conn相当于每个连接都会有自己独立的缓存空间。这样做是为了减少集中式管理内存带来的锁问题。使用Ring buffer是为了增加空间的复用性。

整体结构就这些。

核心逻辑

当程序启动时,

图片

会根据用户设置的options明确eventloop循环的数量,也就是有多少个sub线程。再进一步说,在linux环境就是会创建多少个epoll对象。

那么整个程序的epoll对象数量就是count(sub)+1(main Listener)。

图片

上图就是我说的,会根据设置的数量创建对应的eventloop,把对应的eventloop 注册到负载均衡器中。

当新连接到来时,就可以根据一定的算法(gnet提供了轮询、最少连接以及hash)挑选其中一个eventloop把连接分配给它。

我们先来看主线程,(由于我使用的是mac,所以后面关于IO多路复用,实现部分就是kqueue代码了,当然原理是一样的)。

图片

Polling就是等待网络事件到来,传递了一个闭包参数,更确切的说是一个事件到来时的回调函数,从名字可以看出,就是处理新连接的。

至于Polling函数。

图片

逻辑很简单,一个for循环等待事件到来,然后处理事件。

主线程的事件分两种:

一种是正常的fd发生网络连接事件。

一种是通过NOTE_TRIGGER立即激活的事件。

图片

通过NOTE_TRIGGER触发告诉你队列里有task任务,去执行task任务。

如果是正常的网络事件到来,就处理闭包函数,主线程处理的就是上面的accept连接函数。

图片

accept连接逻辑很简单,拿到连接的fd。设置fd非阻塞模式(想想连接是阻塞的会咋么样?),然后根据负载均衡算法选择一个sub 线程,通过register函数把此连接分配给它。

图片

register做了两件事,首先需要把当前连接注册到当前sub 线程的epoll or kqueue 对象中,新增read的flag。

接着就是把当前连接放入到connections的map结构中 fd->conn。

这样当对应的sub线程事件到来时,可以通过事件的fd找到是哪个连接,进行相应的处理。

图片

如果是可读事件。

图片

到这里分析差不多就结束了。

总结

在gnet里面,你可以看到,基本上所有的操作都无锁的。

那是因为事件到来时,采取的都是非阻塞的操作,且是串行处理对应的每个fd(conn)。每个conn操作的都是自身持有的缓存空间。同时处理完一轮触发的所有事件才会循环进入下一次等待,在此层面上解决了并发问题。

当然这样用户在使用的时候也需要注意一些问题,比如用户在自定义EventHandler中,如果要异步处理逻辑,就不能像下面这样开一个g然后在里面获取本次数据。

图片

而应该先拿到数据,再异步处理。

图片

issues上有提到,连接是使用map[int]*conn存储的。gnet本身的场景就是海量并发连接,内存会很大。进而big map存指针会对 GC造成很大的负担,毕竟它不像数组一样,是连续内存空间,易于GC扫描。

还有一点,在处理buffer数据的时候,就像上面看到的,本质上是将buffer数据copy给用户一份,那么就存在大量copy开销,在这一点上,字节的netpoll实现了Nocopy Buffer,改天研究一下。

责任编辑:武晓燕 来源: RememberGo
相关推荐

2021-07-16 22:43:10

Go并发Golang

2021-07-02 08:51:29

源码参数Thread

2022-05-17 08:02:55

GoTryLock模式

2023-12-05 07:14:27

AIGo

2021-11-15 10:29:39

Go语言类型

2022-09-23 07:15:22

docker网络Liunx

2024-05-10 08:15:32

go语言反射机制

2022-01-02 08:43:46

Python

2022-02-07 11:01:23

ZooKeeper

2021-07-02 09:45:29

MySQL InnoDB数据

2021-07-05 22:11:38

MySQL体系架构

2023-01-03 08:31:54

Spring读取器配置

2021-05-11 08:54:59

建造者模式设计

2021-07-06 08:59:18

抽象工厂模式

2022-08-26 09:29:01

Kubernetes策略Master

2023-11-28 08:29:31

Rust内存布局

2022-08-23 08:00:59

磁盘性能网络

2022-04-12 08:30:52

回调函数代码调试

2021-10-27 09:59:35

存储

2023-03-13 21:38:08

TCP数据IP地址
点赞
收藏

51CTO技术栈公众号