BIND9的架构与机制笔记1

  BIND9采用的是事件驱动的机制来工作,而事件的源头则是IO,IO在linux使用的EPOLL的边缘触发模式。

  本篇说的是epoll,BIND9如果创建了watcher线程(宏USE_WATCHER_THREAD控制),这里就讨论有线程的情况,实际上即使不创建

线程干的也都是一样的活。在lib/isc/socket.c中setup_watcher函数:(所有的代码都是截取的epoll下的片段,因为还有kqueue,devpoll,select等的实现代码,太多了)

#elif defined(USE_EPOLL)
    manager->nevents = ISC_SOCKET_MAXEVENTS;
    manager->events = isc_mem_get(mctx, sizeof(struct epoll_event) *
                      manager->nevents);
    if (manager->events == NULL)
        return (ISC_R_NOMEMORY);
    manager->epoll_fd = epoll_create(manager->nevents);
    if (manager->epoll_fd == -1) {
        result = isc__errno2result(errno);
        isc__strerror(errno, strbuf, sizeof(strbuf));
        UNEXPECTED_ERROR(__FILE__, __LINE__,
                 "epoll_create %s: %s",
                 isc_msgcat_get(isc_msgcat, ISC_MSGSET_GENERAL,
                        ISC_MSG_FAILED, "failed"),
                 strbuf);
        isc_mem_put(mctx, manager->events,
                sizeof(struct epoll_event) * manager->nevents);
        return (result);
    }
#ifdef USE_WATCHER_THREAD
    result = watch_fd(manager, manager->pipe_fds[0], SELECT_POKE_READ);
    if (result != ISC_R_SUCCESS) {
        close(manager->epoll_fd);
        isc_mem_put(mctx, manager->events,
                sizeof(struct epoll_event) * manager->nevents);
        return (result);
    }
#endif    /* USE_WATCHER_THREAD */
View Code

先是创建了要监视的最大socket fd数目(manager->nevents)对应的epoll_event结构体数组,然后调用epoll_create函数创建一个epoll fd,参数则是指定监视的socket fd

最大数目。我的内核版本是3.13,man一下epoll_create发现它是这样说的:epoll_create()  creates  an  epoll(7) instance.  Since Linux 2.6.8, thesize argument is ignored, but must be  greater  than  zero。这个函数在2.6.8内核以后就忽略参数size了,但是传递的参数值一定要大于0。后来找了一下资料,网上的高手的博客说的就很清楚了http://www.cnblogs.com/apprentice89/p/3234677.html。继续往下说,后面的watch_fd实在创建线程的情况下才有,就是将pipe_fds[0]这个管道描述符,也就是一个可读的流,而上述的socket fd都是可以归为流。watch_fd的实现代码:

#elif defined(USE_EPOLL)
        struct epoll_event event;

        if (msg == SELECT_POKE_READ)
                event.events = EPOLLIN;
        else
                event.events = EPOLLOUT;
        memset(&event.data, 0, sizeof(event.data));
        event.data.fd = fd;
        if (epoll_ctl(manager->epoll_fd, EPOLL_CTL_ADD, fd, &event) == -1 &&
            errno != EEXIST) {
                result = isc__errno2result(errno);
        }

        return (result);
View Code

这是将pipe_fds[0]加入epoll_fd的监听队列,EPOLL_CTL_ADD是操作类型,注册该fd到epoll_fd上。这个管道的目的是接收管理该线程的消息,比如线程退出。

那么进入线程看:

static isc_threadresult_t
watcher(void *uap) {
    isc__socketmgr_t *manager = uap;
    isc_boolean_t done;
    int ctlfd;
    int cc;
#ifdef USE_KQUEUE
    const char *fnname = "kevent()";
#elif defined (USE_EPOLL)
    const char *fnname = "epoll_wait()";
#elif defined(USE_DEVPOLL)
    const char *fnname = "ioctl(DP_POLL)";
    struct dvpoll dvp;
#elif defined (USE_SELECT)
    const char *fnname = "select()";
    int maxfd;
#endif
    char strbuf[ISC_STRERRORSIZE];
#ifdef ISC_SOCKET_USE_POLLWATCH
    pollstate_t pollstate = poll_idle;
#endif

    /*
     * Get the control fd here.  This will never change.
     */
    ctlfd = manager->pipe_fds[0];
    done = ISC_FALSE;
    while (!done) {
        do {
#ifdef USE_KQUEUE
            cc = kevent(manager->kqueue_fd, NULL, 0,
                    manager->events, manager->nevents, NULL);
#elif defined(USE_EPOLL)
            cc = epoll_wait(manager->epoll_fd, manager->events,
                    manager->nevents, -1);
#elif defined(USE_DEVPOLL)
            dvp.dp_fds = manager->events;
            dvp.dp_nfds = manager->nevents;
#ifndef ISC_SOCKET_USE_POLLWATCH
            dvp.dp_timeout = -1;
#else
            if (pollstate == poll_idle)
                dvp.dp_timeout = -1;
            else
                dvp.dp_timeout = ISC_SOCKET_POLLWATCH_TIMEOUT;
#endif    /* ISC_SOCKET_USE_POLLWATCH */
            cc = ioctl(manager->devpoll_fd, DP_POLL, &dvp);
#elif defined(USE_SELECT)
            LOCK(&manager->lock);
            memcpy(manager->read_fds_copy, manager->read_fds,
                   manager->fd_bufsize);
            memcpy(manager->write_fds_copy, manager->write_fds,
                   manager->fd_bufsize);
            maxfd = manager->maxfd + 1;
            UNLOCK(&manager->lock);

            cc = select(maxfd, manager->read_fds_copy,
                    manager->write_fds_copy, NULL, NULL);
#endif    /* USE_KQUEUE */

            if (cc < 0 && !SOFT_ERROR(errno)) {
                isc__strerror(errno, strbuf, sizeof(strbuf));
                FATAL_ERROR(__FILE__, __LINE__,
                        "%s %s: %s", fnname,
                        isc_msgcat_get(isc_msgcat,
                               ISC_MSGSET_GENERAL,
                               ISC_MSG_FAILED,
                               "failed"), strbuf);
            }

#if defined(USE_DEVPOLL) && defined(ISC_SOCKET_USE_POLLWATCH)
            if (cc == 0) {
                if (pollstate == poll_active)
                    pollstate = poll_checking;
                else if (pollstate == poll_checking)
                    pollstate = poll_idle;
            } else if (cc > 0) {
                if (pollstate == poll_checking) {
                    /*
                     * XXX: We'd like to use a more
                     * verbose log level as it's actually an
                     * unexpected event, but the kernel bug
                     * reportedly happens pretty frequently
                     * (and it can also be a false positive)
                     * so it would be just too noisy.
                     */
                    manager_log(manager,
                            ISC_LOGCATEGORY_GENERAL,
                            ISC_LOGMODULE_SOCKET,
                            ISC_LOG_DEBUG(1),
                            "unexpected POLL timeout");
                }
                pollstate = poll_active;
            }
#endif
        } while (cc < 0);

#if defined(USE_KQUEUE) || defined (USE_EPOLL) || defined (USE_DEVPOLL)
        done = process_fds(manager, manager->events, cc);
#elif defined(USE_SELECT)
        process_fds(manager, maxfd, manager->read_fds_copy,
                manager->write_fds_copy);

        /*
         * Process reads on internal, control fd.
         */
        if (FD_ISSET(ctlfd, manager->read_fds_copy))
            done = process_ctlfd(manager);
#endif
    }

    manager_log(manager, TRACE, "%s",
            isc_msgcat_get(isc_msgcat, ISC_MSGSET_GENERAL,
                   ISC_MSG_EXITING, "watcher exiting"));

    return ((isc_threadresult_t)0);
}
View Code

无限循环,epoll_wait当监听的epoll_fd队列上有IO事件发生时,将对应的socket fd和事件放入events数组中,并且将这些注册在epoll_fd上的socket fd对应事件清空。

process_fds遍历数组,找到对应的socket fd,并判断该fd是不是线程控制管道,如果是则会在执行完其他socket fd上的对应事件后再处理管道中的控制消息。

static isc_boolean_t
process_fds(isc__socketmgr_t *manager, struct epoll_event *events, int nevents)
{
    int i;
    isc_boolean_t done = ISC_FALSE;
#ifdef USE_WATCHER_THREAD
    isc_boolean_t have_ctlevent = ISC_FALSE;
#endif

    if (nevents == manager->nevents) {
        manager_log(manager, ISC_LOGCATEGORY_GENERAL,
                ISC_LOGMODULE_SOCKET, ISC_LOG_INFO,
                "maximum number of FD events (%d) received",
                nevents);
    }

    for (i = 0; i < nevents; i++) {
        REQUIRE(events[i].data.fd < (int)manager->maxsocks);
#ifdef USE_WATCHER_THREAD
        if (events[i].data.fd == manager->pipe_fds[0]) {
            have_ctlevent = ISC_TRUE;
            continue;
        }
#endif
        if ((events[i].events & EPOLLERR) != 0 ||
            (events[i].events & EPOLLHUP) != 0) {
            /*
             * epoll does not set IN/OUT bits on an erroneous
             * condition, so we need to try both anyway.  This is a
             * bit inefficient, but should be okay for such rare
             * events.  Note also that the read or write attempt
             * won't block because we use non-blocking sockets.
             */
            events[i].events |= (EPOLLIN | EPOLLOUT);
        }
        process_fd(manager, events[i].data.fd,
               (events[i].events & EPOLLIN) != 0,
               (events[i].events & EPOLLOUT) != 0);
    }

#ifdef USE_WATCHER_THREAD
    if (have_ctlevent)
        done = process_ctlfd(manager);
#endif

    return (done);
}
View Code

 待续

转载于:https://www.cnblogs.com/ding-linux-coder/p/4432666.html

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
【优质项目推荐】 1、项目代码均经过严格本地测试,运行OK,确保功能稳定后才上传平台。可放心下载并立即投入使用,若遇到任何使用问题,随时欢迎私信反馈与沟通,博主会第一时间回复。 2、项目适用于计算机相关专业(如计科、信息安全、数据科学、人工智能、通信、物联网、自动化、电子信息等)的在校学生、专业教师,或企业员工,小白入门等都适用。 3、该项目不仅具有很高的学习借鉴价值,对于初学者来说,也是入门进阶的绝佳选择;当然也可以直接用于 毕设、课设、期末大作业或项目初期立项演示等。 3、开放创新:如果您有一定基础,且热爱探索钻研,可以在此代码基础上二次开发,进行修改、扩展,创造出属于自己的独特应用。 欢迎下载使用优质资源!欢迎借鉴使用,并欢迎学习交流,共同探索编程的无穷魅力! 基于业务逻辑生成特征变量python实现源码+数据集+超详细注释.zip基于业务逻辑生成特征变量python实现源码+数据集+超详细注释.zip基于业务逻辑生成特征变量python实现源码+数据集+超详细注释.zip基于业务逻辑生成特征变量python实现源码+数据集+超详细注释.zip基于业务逻辑生成特征变量python实现源码+数据集+超详细注释.zip基于业务逻辑生成特征变量python实现源码+数据集+超详细注释.zip基于业务逻辑生成特征变量python实现源码+数据集+超详细注释.zip 基于业务逻辑生成特征变量python实现源码+数据集+超详细注释.zip 基于业务逻辑生成特征变量python实现源码+数据集+超详细注释.zip
提供的源码资源涵盖了安卓应用、小程序、Python应用和Java应用等多个领域,每个领域都包含了丰富的实例和项目。这些源码都是基于各自平台的最新技术和标准编写,确保了在对应环境下能够无缝运行。同时,源码中配备了详细的注释和文档,帮助用户快速理解代码结构和实现逻辑。 适用人群: 这些源码资源特别适合大学生群体。无论你是计算机相关专业的学生,还是对其他领域编程感兴趣的学生,这些资源都能为你提供宝贵的学习和实践机会。通过学习和运行这些源码,你可以掌握各平台开发的基础知识,提升编程能力和项目实战经验。 使用场景及目标: 在学习阶段,你可以利用这些源码资源进行课程实践、课外项目或毕业设计。通过分析和运行源码,你将深入了解各平台开发的技术细节和最佳实践,逐步培养起自己的项目开发和问题解决能力。此外,在求职或创业过程中,具备跨平台开发能力的大学生将更具竞争力。 其他说明: 为了确保源码资源的可运行性和易用性,特别注意了以下几点:首先,每份源码都提供了详细的运行环境和依赖说明,确保用户能够轻松搭建起开发环境;其次,源码中的注释和文档都非常完善,方便用户快速上手和理解代码;最后,我会定期更新这些源码资源,以适应各平台技术的最新发展和市场需求。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值