epoll的使用
实现原理
在网上整理了一些博客的内容,百度了一些内容,加了点自己的理解,现在的理解还过于浅显,对于具体的细节还一头雾水,过一段时间在重新过来修改
在之前我学习的进行tcp的套接字编程之中,使用的是select进行的多路复用,服务器端大概流程为
1.创建一个套接字create
2.初始化服务端的套接字地址结构
3.进行绑定band
4.化被动为主动,进行监听listen
5.通过accept()函数接收客户端的connect连接请求(udp的数据传输则不需要套接字处于连接状态)
当accept()连接成功后,就可以通过send和recv进行数据传输了
由于单个进程可监视的fd数量被限制,32位机默认1024,64位默认2048,并不能处理过大数目的socket描述符,当套接字比较多的时候,每次select()都要通过遍历FD_SETSIZE个Socket来完成调度,不管哪个Socket是活跃的,都遍历一遍。对系统CPU的利用率并不高。而epoll最大的优点就在于它只管你“活跃”的连接,而跟连接总数无关。
通过创建一个epoll模型,它能显著提高程序在大量并发连接中只有少量活跃的情况下的系统CPU利用率,它无须遍历整个被侦听的描述符集,只要遍历那些被内核IO事件异步唤醒而加入Ready队列的描述符集合就行了。
将服务端的套接字从listen的监听,变成加入epoll 的监视,创建事件数组,客户端发送一个 connect请求连接时,响应的不是服务端的accept .而是epoll.
当服务端接受到一个 connect时,内核监测的到有响应,会将其加入到 epoll 的请求队列,
然后 accept再从请求队列里进行连接。
那为什么epoll如此高效呢,主要原因有以下两点?
-
epoll对于句柄事件的选择不是遍历的,是事件响应的,就是句柄上事件来就马上选择出来,不需要遍历整个句柄链表,因此效率非常高,内核将句柄用红黑树保存的,IO效率不随FD数目增加而线性下降。
-
内存拷贝, select让内核把 FD 消息通知给用户空间的时候使用了内存拷贝的方式,开销较大,但是Epoll 在这点上使用了共享内存的方式,这个内存拷贝也省略了。
主要使用的函数
int epoll_create(int size);
int epoll_create1(int flags);
int epoll_ctl(int epfd, int op, int fd, struct epoll_event *event);
int epoll_wait(int epfd, struct epoll_event *events, int maxevents, int timeout);
epoll_create和epoll_create1
#include <sys/epoll.h>
int epoll_create(int size);
epoll_create 相当于创建了一个根结点(内部是红黑树);
size 为epoll 监听的最大个数
对于epoll_create1 的flag参数:
可以设置为0 或EPOLL_CLOEXEC。
为0时函数表现与epoll_create一致。
EPOLL_CLOEXEC标志与open 时的O_CLOEXEC 标志类似,即进程被替换时会关闭打开的文件描述符
(需要注意的是,epoll_create与epoll_create1当创建好epoll句柄后,它就是会占用一个fd值,
在linux下如果查看/proc/<pid>/fd/,是能够看到这个fd的,所以在使用完epoll后,**必须调用
close()关闭,否则可能导致fd被耗尽**)。
epoll_wait
#include <sys/epoll.h>
int epoll_wait(int epfd, struct epoll_event * events, int maxevents, int timeout);
epfd 根节点
events:结构体指针, 一般是一个数组
epoll_event结构体;
struct epoll_event
{
uint32_t events; /* Epoll events */
epoll_data_t data; /* User data variable */
};
typedef union epoll_data
{
void *ptr;
int fd;
uint32_t u32;
uint64_t u64;
} epoll_data_t;
一般data 共同体我们设置其成员fd即可,也就是epoll_ctl 函数的第三个参数。
maxevents:事件的最大个数, 或者说是数组的大小
timeout:超时时间, 含义与poll的timeout参数相同,设为-1表示永不超时;
epoll_ctl
#include <sys/epoll.h>
int epoll_ctl(int epfd, int op, int fd, struct epoll_event *event);
epfd 是 epoll_creat() 的返回值.
op 是ctl 要执行的操作
EPOLL_CTL_ADD,注册新的fd到epfd中;
EPOLL_CTL_MOD,修改已注册fd的事件;
EPOLL_CTL_DEL,从epfd中删除一个fd;
fd 是 用户关心的套接字描述符
1 | events宏集合 |
---|---|
EPOLLIN | 表示对应的文件描述符可以读(包括对端SOCKET正常关闭) |
EPOLLOUT | 表示对应的文件描述符可以写 |
EPOLLPRI | 表示对应的文件描述符有紧急的数据可读(这里应该表示有带外数据到来) |
EPOLLERR | 表示对应的文件描述符发生错误 |
EPOLLHUP | 表示对应的文件描述符被挂断 |
EPOLLET | 将EPOLL设为边缘触发(Edge Triggered)模式,这是相对于水平触发(Level Triggered)来说的 |
EPOLLONESHOT | 只监听一次事件,当监听完这次事件之后,如果还需要继续监听这个socket的话,需要再次把这个socket加入到EPOLL队列里 |
struct eventpoll{
....
/*红黑树的根节点,这颗树中存储着所有添加到epoll中的需要监控的事件*/
struct rb_root rbr;
/*双链表中则存放着将要通过epoll_wait返回给用户的满足条件的事件*/
struct list_head rdlist;
....
};
struct epitem{
struct rb_node rbn;//红黑树节点
struct list_head rdllink;//双向链表节点
struct epoll_filefd ffd; //事件句柄信息
struct eventpoll *ep; //指向其所属的eventpoll对象
struct epoll_event event; //期待发生的事件类型
}
ET/LT模式
epoll 默认的是 LT 触发模式 .
LT 一旦接受到数据,如果缓冲区还有数据,epoll 就不停的相应
ET 只响应一次,不管你缓冲取还有没有数据.(效率比较高)
总结:LT模式可能触发的次数更多, 一旦触发的次数多, 也就意味着效率会下降; 但这样也不能就说LT模式就比ET模式效率更低, 因为ET的使用对编程人员提出了更高更精细的要求,一旦使用者编程水平不够, 那ET模式还不如LT模式;
代码实现
#include <stdio.h>
#include <sys/epoll.h>
#include <netinet/in.h>
#include <arpa/inet.h>
#include<string.h>
#include<stdlib.h>
#include<unistd.h>
#include<sys/types.h>
#include<sys/socket.h>
#define PORT 4507
#define LISTENQ 10
#define EPOLEN 2000
#define MAXLINE 1024
int main(){
/* eopll_create(20); */
int listenfd,optval;
struct sockaddr_in servaddr;
//创建一个套接字
listenfd = socket(AF_INET,SOCK_STREAM,0);
if(listenfd < 0){
perror("listen");
/* exit(1); */
}
optval = 1;//设置该套接字使之可以重新绑定端口
if(setsockopt(listenfd,SOL_SOCKET,SO_REUSEADDR,(void*)&optval,sizeof(int)) < 0){
perror("setsockop");
/* exit(1); */
}
//初始化服务器地址
memset(&servaddr,0,sizeof(struct sockaddr_in));
servaddr.sin_family = AF_INET;
servaddr.sin_port = htons(PORT);
servaddr.sin_addr.s_addr = htonl(INADDR_ANY);
//绑定套接字
if(bind(listenfd,(struct sockaddr *)&servaddr,sizeof(struct sockaddr_in)) < 0){
perror("bind");
/* exit(1); */
}
//转化为监听套接字
if(listen(listenfd,LISTENQ) < 0){
perror("listensjh");
/* exit(1); */
}
//创建一个epoll
//参数含义epollid,和最多监视数量
int epfd;
epfd = epoll_create(EPOLEN);
//创建一个事件数组
//
struct epoll_event events[EPOLEN];
struct epoll_event ev;
ev.events = EPOLEN; //监听事件
ev.data.fd = listenfd; //监听套接字
//将listenfd加入epoll
epoll_ctl(epfd,EPOLL_CTL_ADD,listenfd,&ev);
int nfds = 0,connfd,sockfd;
while(1){
//委托内核检测事件
nfds = epoll_wait(epfd,events,EPOLEN,-1);
//You shi jian fa sheng
if(nfds > 0){
for(int i = 0;i < nfds;i++){
if(events[i].data.fd == listenfd){//如果是主socket的事件,则表示有新的连接
struct sockaddr_in cliaddr;
socklen_t cliaddrlen = sizeof(struct sockaddr); //>;
struct epoll_event ev;
connfd = accept(listenfd,(sockaddr *)&cliaddr,&cliaddrlen);//jie shou liang jie
if(connfd == -1){
perror("accept");
/* exit(1); */
}
ev.data.fd = connfd;
ev.events = EPOLLIN|EPOLLET;
epoll_ctl(epfd,EPOLL_CTL_ADD,connfd,&ev); //将新的fd添加到epoll的监听队列
}
else if(events[i].events&EPOLLIN){//接收到数据读socket
if((sockfd = events[i].data.fd) < 0) continue;
int n = read(sockfd,line,MAXLINE); //读
ev.data.ptr = md; //md为自定义类型,添加数据
ev.events = EPOLLOUT|EPOLLET;
epoll_ctl(epfd,EPOLL_CTL_MOD,sockfd,&ev);//修改标识符,等待下一个循环发送数据,异步处理的精髓
}
else if(events[i].events&EPOLLOUT) //有数据待发送,写socket
{
struct myepoll_data* md = (myepoll_data *)events[i].data.ptr; //取数据
sockfd = md->fd;
send(sockfd,md->ptr,strlen((char*md)->ptr),0); //发送数据
ev.data.fd = sockfd;
ev.events=EPOLLIN|EPOLLET;
epoll_ctl(epfd,EPOLL_CTL_MOD,sockfd,&ev); //修改标识符,等待下一个循环时接收数据
}
else
{
//其他情况的处理
}
}
}
}
return 0;
}
参考
select、poll、epoll之间的区别
Linux下的socket编程实践(十) epoll实现高并发的原理及其使用
一次读懂 Select、Poll、Epoll IO复用技术
epoll百度百科