• 近期将进行后台系统升级,如有访问不畅,请稍后再试!
  • 极客文库-知识库上线!
  • 极客文库小编@勤劳的小蚂蚁,为您推荐每日资讯,欢迎关注!
  • 每日更新优质编程文章!
  • 更多功能模块开发中。。。

epoll 浅析以及 nio 中的 Selector


首先介绍下 epoll 的基本原理,网上有很多版本,这里选择一个个人觉得相对清晰的讲解(详情见 reference):

首先我们来定义流的概念,一个流可以是文件,socket,pipe 等等可以进行 I/O 操作的内核对象。

不管是文件,还是套接字,还是管道,我们都可以把他们看作流。

之后我们来讨论 I/O 的操作,通过 read,我们可以从流中读入数据;通过 write,我们可以往流写入数据。现在假定一个情形,我们需要从流中读数据,但是流中还没有数据,(典型的例子为,客户端要从 socket 读如数据,但是服务器还没有把数据传回来),这时候该怎么办?

阻塞:阻塞是个什么概念呢?比如某个时候你在等快递,但是你不知道快递什么时候过来,而且你没有别的事可以干(或者说接下来的事要等快递来了才能做);那么你可以去睡觉了,因为你知道快递把货送来时一定会给你打个电话(假定一定能叫醒你)。

非阻塞忙轮询:接着上面等快递的例子,如果用忙轮询的方法,那么你需要知道快递员的手机号,然后每分钟给他挂个电话:“你到了没?”

很明显一般人不会用第二种做法,不仅显很无脑,浪费话费不说,还占用了快递员大量的时间。

大部分程序也不会用第二种做法,因为第一种方法经济而简单,经济是指消耗很少的 CPU 时间,如果线程睡眠了,就掉出了系统的调度队列,暂时不会去瓜分 CPU 宝贵的时间片了。

为了了解阻塞是如何进行的,我们来讨论缓冲区,以及内核缓冲区,最终把 I/O 事件解释清楚。缓冲区的引入是为了减少频繁 I/O 操作而引起频繁的系统调用(你知道它很慢的),当你操作一个流时,更多的是以缓冲区为单位进行操作,这是相对于用户空间而言。对于内核来说,也需要缓冲区。

假设有一个管道,进程 A 为管道的写入方,B为管道的读出方。

假设一开始内核缓冲区是空的,B 作为读出方,被阻塞着。然后首先 A 往管道写入,这时候内核缓冲区由空的状态变到非空状态,内核就会产生一个事件告诉B该醒来了,这个事件姑且称之为“缓冲区非空”。

但是“缓冲区非空”事件通知 B 后,B 却还没有读出数据;且内核许诺了不能把写入管道中的数据丢掉这个时候,A写入的数据会滞留在内核缓冲区中,如果内核也缓冲区满了,B 仍未开始读数据,最终内核缓冲区会被填满,这个时候会产生一个 I/O 事件,告诉进程 A,你该等等(阻塞)了,我们把这个事件定义为“缓冲区满”。

假设后来B终于开始读数据了,于是内核的缓冲区空了出来,这时候内核会告诉 A,内核缓冲区有空位了,你可以从长眠中醒来了,继续写数据了,我们把这个事件叫做“缓冲区非满”

也许事件 Y1 已经通知了 A,但是 A 也没有数据写入了,而B继续读出数据,知道内核缓冲区空了。这个时候内核就告诉 B,你需要阻塞了!,我们把这个时间定为“缓冲区空”。

这四个情形涵盖了四个 I/O 事件,缓冲区满,缓冲区空,缓冲区非空,缓冲区非满(注都是说的内核缓冲区,且这四个术语都是我生造的,仅为解释其原理而造)。这四个 I/O 事件是进行阻塞同步的根本。(如果不能理解“同步”是什么概念,请学习操作系统的锁,信号量,条件变量等任务同步方面的相关知识)。

然后我们来说说阻塞 I/O 的缺点。但是阻塞 I/O 模式下,一个线程只能处理一个流的 I/O 事件。如果想要同时处理多个流,要么多进程(fork),要么多线程(pthread_create),很不幸这两种方法效率都不高。

于是再来考虑非阻塞忙轮询的 I/O 方式,我们发现我们可以同时处理多个流了(把一个流从阻塞模式切换到非阻塞模式再此不予讨论):

while true {
    for i in stream[]; {
        if i has data
            read until unavailable
    }
}

我们只要不停的把所有流从头到尾问一遍,又从头开始。这样就可以处理多个流了,但这样的做法显然不好,因为如果所有的流都没有数据,那么只会白白浪费 CPU。这里要补充一点,阻塞模式下,内核对于 I/O 事件的处理是阻塞或者唤醒,而非阻塞模式下则把 I/O 事件交给其他对象(后文介绍的 select 以及 epoll)处理甚至直接忽略。

为了避免 CPU 空转,可以引进了一个代理(一开始有一位叫做 select 的代理,后来又有一位叫做 poll 的代理,不过两者的本质是一样的)。这个代理比较厉害,可以同时观察许多流的 I/O 事件,在空闲的时候,会把当前线程阻塞掉,当有一个或多个流有 I/O 事件时,就从阻塞态中醒来,于是我们的程序就会轮询一遍所有的流(于是我们可以把“忙”字去掉了)。代码长这样:

while true {
    select(streams[])
    for i in streams[] {
        if i has data
            read until unavailable
    }
}

于是,如果没有 I/O 事件产生,我们的程序就会阻塞在 select 处。但是依然有个问题,我们从 select 那里仅仅知道了,有 I/O 事件发生了,但却并不知道是那几个流(可能有一个,多个,甚至全部),我们只能无差别轮询所有流,找出能读出数据,或者写入数据的流,对他们进行操作。

但是使用 select,我们有 O(n)的无差别轮询复杂度,同时处理的流越多,没一次无差别轮询时间就越长。再次

说了这么多,终于能好好解释 epoll 了

epoll 可以理解为 event poll,不同于忙轮询和无差别轮询,epoll 之会把哪个流发生了怎样的 I/O 事件通知我们。此时我们对这些流的操作都是有意义的。(复杂度降低到了 O(1))

在讨论 epoll 的实现细节之前,先把 epoll 的相关操作列出:

  • epoll_create 创建一个 epoll 对象,一般 epollfd = epoll_create()
  • epoll_ctl (epoll_add/epoll_del 的合体),往 epoll 对象中增加/删除某一个流的某一个事件

比如

  • epoll_ctl(epollfd, EPOLL_CTL_ADD, socket, EPOLLIN);//注册缓冲区非空事件,即有数据流入
  • epoll_ctl(epollfd, EPOLL_CTL_DEL, socket, EPOLLOUT);//注册缓冲区非满事件,即流可以被写入
  • epoll_wait(epollfd,…)等待直到注册的事件发生

(注:当对一个非阻塞流的读写发生缓冲区满或缓冲区空,write/read 会返回-1,并设置 errno=EAGAIN。而 epoll 只关心缓冲区非满和缓冲区非空事件)。

一个 epoll 模式的代码大概的样子是:

while true {
    active_stream[] = epoll_wait(epollfd)
    for i in active_stream[] {
        read or write till
    }
}

限于篇幅,我只说这么多,以揭示原理性的东西,至于 epoll 的使用细节,请参考 man 和 google,实现细节,请参阅 linux kernel source。

上文提到了 epoll 可以将哪个流发生了什么事件主动通知,而不需要轮询。那么到底是如何实现通知的呢?

这就和操作系统的原理相关,在内核的最底层是中断,类似系统回调的机制。网卡设备对应一个中断号, 当网卡收到网络端的消息的时候会向 CPU 发起中断请求, 然后 CPU 处理该请求. 通过驱动程序 进而操作系统得到通知, 系统然后通知 epoll, epoll 通知用户代码。它能显著提高程序在大量并发连接中只有少量活跃的情况下的系统 CPU 利用率,因为它会复用文件描述符集合来传递结果而不用迫使开发者每次等待事件之前都必须重新准备要被侦听的文件描述符集合,另一点原因就是获取事件的时候,它无须遍历整个被侦听的描述符集,只要遍历那些被内核IO事件异步唤醒而加入 Ready 队列的描述符集合就行了。

epoll 在被内核初始化时(操作系统启动),同时会开辟出 epoll 自己的内核高速 cache 区,用于安置每一个我们想监控的 socket,这些 socket 会以红黑树的形式保存在内核 cache 里,以支持快速的查找、插入、删除。这个内核高速 cache 区,就是建立连续的物理内存页,然后在之上建立 slab 层,简单的说,就是物理上分配好你想要的 size 的内存对象,每次使用时都是使用空闲的已分配好的对象。

所以简单总结下 epoll 和 select 的区别:

进程通过将一个或多个 fd 传递给 select 或 poll 系统调用,阻塞在 select;这样 select/poll 可以帮我们侦测许多 fd 是否就绪;但是 select/poll 是顺序扫描 fd 是否就绪,而且支持的 fd 数量有限。linux 还提供了一个 epoll 系统调用,epoll 是基于事件驱动方式,而不是顺序扫描,当有 fd 就绪时,立即回调函数 rollback

这种 epoll 的方式是不是能联想起 Java nio,关于 nio 请查看[高并发 Java 八] NIO和 AIO (https://my.oschina.net/hosee/blog/615269)。

不过 nio 中的 Selector 的取名总让我以为是类似于 select/poll 的模型,但是你会发现,当有数据被准备好时,调用完 select()后,会返回一个 SelectionKey,SelectionKey 表示在某个 selector 上的某个 Channel 的数据已经被准备好了。那到底底层实现是使用 select/poll 还是 epoll 呢?

public static SelectorProvider create() {
PrivilegedAction pa = new GetPropertyAction(“os.name”);
String osname = (String) AccessController.doPrivileged(pa);
    if (“SunOS”.equals(osname)) {
        return new sun.nio.ch.DevPollSelectorProvider();
    }
 
    // use EPollSelectorProvider for Linux kernels >= 2.6
    if (“Linux”.equals(osname)) {
        pa = new GetPropertyAction(“os.version”);
        String osversion = (String) AccessController.doPrivileged(pa);
        String[] vers = osversion.split(“\.”, 0);
        if (vers.length >= 2) {
            try {
                int major = Integer.parseInt(vers[0]);
                int minor = Integer.parseInt(vers[1]);
                if (major > 2 || (major == 2 && minor >= 6)) {
                    return new sun.nio.ch.EPollSelectorProvider();
                }
            } catch (NumberFormatException x) {
                // format not recognized
            }
        }
    }
 
    return new sun.nio.ch.PollSelectorProvider();
}

可以看到在 Linux 下,内核版本大于 2.6 时使用 epoll,小于 2.6 时使用 poll

Reference:


丨极客文库, 版权所有丨如未注明 , 均为原创丨
本网站采用知识共享署名-非商业性使用-相同方式共享 3.0 中国大陆许可协议进行授权
转载请注明原文链接:epoll 浅析以及 nio 中的 Selector
喜欢 (0)
[247507792@qq.com]
分享 (0)
勤劳的小蚂蚁
关于作者:
温馨提示:本文来源于网络,转载文章皆标明了出处,如果您发现侵权文章,请及时向站长反馈删除。

欢迎 注册账号 登录 发表评论!

  • 精品技术教程
  • 编程资源分享
  • 问答交流社区
  • 极客文库知识库

客服QQ


QQ:2248886839


工作时间:09:00-23:00