linux container容器技术框架性理解

我对container原理的一些理解(基于linux kernel 2.6.38)

by kin

2011.04.17

=====================================================

 linux中称谓的container在内核层面由两个独立的机制保证,一个保证资源的隔离性,名为namespace;一个进行资源的控制,名为cgroup。

 

1   namespace

    inux现有的namespace有6种: uts, pid, ipc, mnt, net和user 。所有的namespace都和task_struct相关,其中uts, pid, ipc, mnt和net都处于task_struct->ns_proxy中,而user_namespace却是由task_struct相关联的user_struct指向决定的 。

 

1.1 uts

    最简单的主机名,一个namespace结构绑定这样一个字符串,uname的时候去current->nsproxy->uts_namespace下面取字符串就好了

1.2 ipc

ipc维护的是一个id到struct的映射关系,这种映射关系在内核由公用设施idr提供。所谓ipc的namespace就是每个namespace都有自己独立的idr,即独立的key->value的映射集合,不同的namespace通过key找value会在不同的idr中寻找,内核数据结构是公共可见的,隔离的仅仅是索引关系。

1.3 mnt

每个mnt_namespace有自己独立的vfsmount *root, 即根挂载点是互相独立的,同时由vfsmount->mnt_child串接起来的子mnt链表,以及继续往下都是彼此独立的,产生的外在效果就是某个mnt_namespace中的mount, umount不会 对其他namespace产生影响,因为整个mount树是每个namespace各有一份,彼此间无干扰, path lookup也在各自的mount树中进行。这里和chroot之类的又不一样,chroot改变的只是 task_struct相关的fs_struct中的root,影响的是path lookup的起始点,对整个mount树并无关系.

1.4 user

    user_namespace的实现方式和ipc类似,每个namespace各自维护一个uid到user_struct的映射,用hash表实现。但是uid会在两个地方体现,一个是user_struct中的uid,还有一个是cred中的uid。user_namespace影响范围局限在user_struct中,虽然clone(NEWUSER)时会把task_struct的cred中的uid,gid都设成0,然后这种关系又可以通过fork等传递下去,但是终究user_namespace并没有影响到cred里面数据,而且vfs里面inode是只有uid的,

不会有user_struct信息,因此某个具体的文件其uid是固定的,具体在某个namespace中如何显示用户名则不关内核层的事了,由/etc/passwd中定义的映射关系决定。

    另外还有个问题,比如跨两个namespace的unix套接字通信,有个选项叫PEERCRED,是拿对方节点的ucred结构,因为不同namespace,因此拿到的uid,gid都要进行user_namespace的重映射。这里重映射的策略就是:

    1)同user_namespace,OK。不需要

2)不同,则由于每个user_namespace都会记录创建自己的那个user_struct,因此一层层往上索引到init_user_ns,如果发现需要remap的那个user_struct是我们的祖先创建者,则map为0,否则则返回一个表示不存在的MAGIC NUMBER

 

1.5 pid

pid_namespace是每个namespace有一个单独的pid_map作为bitmap进行pid的分配,因此各个pid namespace的pid互不干扰,独立分配。同一个task_struct会从init_ns开始,到最终它所在的namespace,每一层都会有个单独的pid(也就是深层次的task_struct创建,在每一个层次的namespace都会进行pid的alloc),而所有这些pid信息都是栈式保存在struct pid结构中。

pid是唯一一个底层namespace会把上层namespace信息都保留下来的namespace, pid信息保存在struct pid中,而具体的(pid, ns)信息对则保存在upid中,pid会根据自己的namespace深度扩展一个upid的栈,在这个pid结构中,该task_struct从init_ns到实际所处的namespace整个树路径上的(pid,ns)信息都记录了,于是上面所说的跨namesapce unix socket通信取PEERCRED对pid的remap就很简单了,有父子关系,直接从pid的不同深度取另一个值就行了;如果没父子关系,则MAGIC NUMBER。

同时pid的upid栈中每个upid都会连入对应pid namespace的hash表中,那么该task_struct在每个namespace层次中都是可见的(可在ns对应hash表中找到),且pid号互不相关(看到的是对应栈层次上的upid->nr)。

由于历史因素,task_struct中除了用pid索引pid, ppid, pgid,sid,结构体本身还有pid,tgid等,这里的数据都是 取的init_ns中的对应数值.

 

1.6 net

net_ns是非常复杂的一块。mainline都做了几个版本来稳定它,主要是各个关键数据结构都加上了net信息,比如sock, 路由查找的fib, netfilter的rules,net_device等, net对于不同net的数据隔离和前面几种每个namespace自己建索引表不同,net的一般都在同一个索引表中,只是数据多加一维net信息,在查询时多加上对这一维的比较。相应的网络层关键处理函数都会多带一个net_namespace的参数. 在net_namespace结构体内部,主要保存了网络各层关键的sysctl信息,用于实现对不同net namespace可以进行不同的内核参数配置,以及不同的proc entry导出。

 

1.7 task_struct 在不同ns之间的转移

    最新的mainline kernel: 2.6.39rc3是没有实现这样的一个系统调用的。lxc内有个lxc-attach依赖一个setns的系统调用,这个系统调用原理就是通过你提供的/proc/pid/ns这样一个proc inode,来找到对应的namespace结构体,然后把current->nsproxy->xx_namespace设为那个,可能还要进行些额外的操作(比如pid的remap,user的remap之类的)就OK了。但是namespace本身就是提供的安全性隔离,这样做有安全风险,所以mainline kernel并没有merge这个patch。

 

1.8 如何创建新的namespace

    创建一个新的进程,man 2 clone

    当前进程,man 2 unshare

 

2. cgroup

cgroup是通过vfs的接口来进行配置的,它本身充当一个resource controller的角色,对一组进程进行资源控制,核心角色便是一组task_struct。

2.1 cgroup 的几个核心概念

cgroup核心的有三个概念:

  hierarchy : 就是mount的一个cgroup fs。

  subsystem : 一个subsystem对一种资源进行control

  cgroup : 一个hierarchy下面对进程的分组

 整体的逻辑可以这样来看:

 1) 一个hierarchy和多个subsystem绑定,该hierarchy只对这几个subsystem对应的resouce进行control

 2)不同的hierarchy绑定的subsystem是互斥的

 3)一个hierarchy下面可以通过mkdir方式创建不同的cgroup,这个cgroup下面可以attach一组进程,通过该cgroup指定的参数对这种进程资源使用进 行track和控制

 这样分可以使task A和task B在hierarchy A中在一个cgroup中控制CPU, 而task A和task B在hierarchy B中分别在两个cgroup中控制memory,提供 更灵活的策略

 

2.2 cgroup 在内核层次和task_struct的交互

一个cgroup和一个subsystem决定了一个cgroup_subsys_state, 每个进程都以css_set(一个静态数组)的方式保存了所有和它有关的cgroup_subsys_state,同样,每个cgroup也会保存这样一组。 cgroup_subsys_state又会作为每个subsystem自己结构体的内部成员包含,这样通过container_of很容易就可以找到subsystem自己的控制结构体,来进行各子系统自己的控制,于是每个task_struct都可以通过css_set找到它所属的subsystem结构体,来进行后面的操作.

而对于每个css_set, 也会把所有使用它的task连起来,这样cgroup导出所有当前绑定进程也有了依据(每个Cgroup链接一组css_set,每个css_set又会串联一组task_struct,挨个遍历)

 

2.3 cgroup 当前已有的subsys

kinwin@ustc-king:/data/linux-2.6$ grep "SUBSYS" include/linux/cgroup_subsys.h

/* Add subsystem definitions of the form SUBSYS(<name>) in this

SUBSYS(cpuset)

SUBSYS(debug)

SUBSYS(ns)

SUBSYS(cpu_cgroup)

SUBSYS(cpuacct)

SUBSYS(mem_cgroup)

SUBSYS(devices)

SUBSYS(freezer)

SUBSYS(net_cls)

SUBSYS(blkio)

SUBSYS(perf)

 

其中ns_cgroup已经被抛弃,通过cgroup.clone_children和手动attach进程来取代

 

2.4 cpu_cgroup

对CPU的使用率进行控制,根本上利用了CFS中已有的task group概念,最近出来的autogroup也是 利用了这样一个机制。内核中的调度针对的是sched_entity这样一个结构,sched_entity本身有一个run queue,同时它也会在别人的run queue上,以此层层嵌套下来,直至最后的可执行单元(task_struct)。于是一个cgroup的cpu resource controller

便是这样的一个sched_entity,所有attach到这个Cgroup的进程都在这个sched_entity下面 ,调度也都在这个sched_entity下面进行。

这样的一个树形架构下,每个sched_entity只负责进行在该sched_entity runquueu上的sched_entity进行CFS,即从红黑树最左端pick一个sched_entity,由该sched_entity进行下一个层次的CFS,而每次最终pick出来的task_struct的运行对所有它的父sched_entity的运行时间都有贡献,如此实现一个全局的CFS。并且实现task group or task group's group...

 

2.5 mem_cgroup

memory有全局的per zone lru list来进行page relcaim等,有全局的page数组来进行物理内存管理. memory_cgroup在cgroup层面上实现了per_cgroup lru list, 以及page_cgroup数组,memory_cgroup的lru操作及其他基于page的操作都是以page_cgroup为依据的,而page_cgroup和真正的page之间又会有个映射关系

mem_cgroup对于内存资源的控制,是对每个cgroup的使用内存情况进行记录,主要方式就是在真正分配物理页面的地方(缺页中断,或者分配page cache页等)都进行了hack(可以统计哪些页面取决于在哪些内存分配部分进行了分配物理页的hack, 目前应该是绝大部分都有进行hack),通过current->cgroups->subsys[xx]找到对应的mem_cgroup控制结构,

判断可否分配,可以就加上自己的计数,不行或达到某个limit,就会触发基于per-cgroup lru的reclaim, 再或者就触发cgoup内部的OOM killer等。

    但是内存作为一个最复杂的部分,mem_cgroup的发展也是今年Linux filesystem, storage, and memory management summit讨论最多的话题,

有以下几点

    1)重复的lru list,全局内存紧张依然会page reclaim,不分cgroup。而且两个lru list两次lru也重复了

    2) page_cgroup结构体可以变的没有,现在20 bytes(32bit)/40bytes(64 bit)太大了

    3) 全局和单个cgroup的权衡

    ...

 

2.6 net_cls

    主要利用了内核网络协议栈traffic control的相关东西,实现了一个cgroup的统一标记id,然后实现了一个叫cgoup的filter,这个filter就是根据当前进程所在的cgroup_subsys决定给sk_buff打上何样的id标记,然后这个标记就会被用于匹配相应的traffic control的qdisc和class来进行具体的流量控制策略。

2.7 device

在inode_permission中hook入cgroup的检查,对于inode->st_type为char或block类型的,会与保存在列表中的进行读,写权限匹配,根据匹配结果决定

    cgoup的inode检查返回允许否?

    在vfs_mknod hook入cgroup对mknod主从设备号的匹配检查,决定允许否?

 

2.8 freezer

给cgoup中每个task_struct设置下TIF_FREEZING,然后就开始try_to_freeze, 设置个PF_FROZON的flag,进程就开始空转了

for (;;) {                                                                                             

set_current_state(TASK_UNINTERRUPTIBLE);                                                            

if (!frozen(current))                                                                              

break;                                                                                         

schedule();                                                                                         

}                

而唤醒如上代码所示,就是去掉PF_FROZON这个flag的过程。

 

2.9 cpuset

    同sched_setaffinity,但是是对于一组进程设置CPU亲和性了。内核在CPU亲和性逻辑跟以前没什么区别,无非是把这些进程只调度到对应CPU的run queue而已。

同时cpuset还提供了一个只在对应cpu间进行负载均衡的特性,就是把对应的cpu作为一个sched doamin,可以在其中负载均衡。不过要求最好各个cgoup设置互斥的cpu,否则就会取cgroup的最大互斥并集作为sched domain,这样跨cgroup的load banlance又会导致其他的复杂因素。

 

3. lxc

lxc是一个用户空间的管理工具,提供用户友好的接口包装了内核提供的namespace和cgroup机制.

它主要实现原理是这样的:

0)  首先准备创建好网络设备(netlink创建设备),

  • openpty指定数目的pty(创建对应的/dev/ptmx和/dev/pts/xx对),作为lxc_console所用,slave会被mount bind到container的/dev/ttyx,通过master fd可和container中

起来的shell通信 

并open一个/dev/tty作为console所用,这个console设备也会被mount bind到container中,这个console fd就是用于lxc_start后获得的那个console与container的通信

1) 开始clone,创建新的namespace :父进程clone一个子进程,clone的时候指定新建所有的namespace,如此一个完全新的namespace就建立了。

子进程:

2) 父子同步 :子进程设置自己死了给父进程发sigkill,防止父进程空等, 同时也保证container中的init死掉同时会导致host中的lxc_start死掉.

父进程:

3) 建立对应的cgroup :父进程设置clone_children,然后创建新的cgroup,并将clone的pid attach到新创建 cgoup中。(等同于以前ns_cgroup所做的工作)

4) 挪移网络设备: 将配置在container中的网络设备通过发送netlink消息,带上IFLA_NET_NS_PID的rtattr,触发内核的dev_change_net_namespace,将net_device的namespace替换掉,

具体网络设备的change namespace涉及到在一个namespace的完全停止,解注册和在另一个namespace中的注册等流程。

子进程:

5) 设置container utsname

6) 设置container网络设备参数 :通过netlink消息给本net namespace 网络设备设置ip addr, hw addr, flags等信息

7) 修改cgroup中resouce control参数 :由于还没有chroot,可以修改自己cgroup中相应的resource control设置

8) 建立根文件系统并建立自己的挂载: mount rootfs, mount fstab等等

8) 建立host和container在终端方面的通讯渠道

把/dev/tty mount bind到container中,这样我们就可以:

            pty slave <----> pty master  <----> epoll 两端转发   console fd 来获得刚开始的一个Console

    把前面创建的pty的slave mount bind到container中的/dev/ttyx, 这样我们就可以通过对应的pty master fd实现和container中的通信:

           stdin,stdou  epoll 两端转发 <--------> pty master <------> mount bind到container中的/dev/ttyx

9) 改变根挂载点 : chroot并把从host中继承过来的mount关系在container中不会用到的umount掉及其他一些保证系统正常运转要干的其他工作

10) exec 开始init: container 1号进程exec创建自己的进程树

父进程,子进程同时运转

11) 父 epoll循环 :父进程醒来 ,开始一个epoll循环,主要处理console和container的两端转发epoll, 以及接收一些外来查询请求的unix套接口epoll

    比如查询container init在host中进程pid,这样我们可以kill -SIGKILL pid, 就可以杀掉整个container

通过unix套接字的msgcontrol传递pty的master fd(也就是被mount bind到container中/dev/ttyx的peer fd),用来实现lxc_console取container tty的作用。

unix套接字绑定在一个已知的路径下,在lxc 0.7.4中通过这个unix套接口实现有取container init pid,取tty fd,取container state及停止container的作用。

而基本所有的lxc小工具都是基于这个unix套接字来获取一些关于container的信息。

12)  子独立进程树下的运转: 在一个单独的namespace里面,有自己独立的resource control,单独的基础设施和用户空间进程树,一个隔离并资源控制的新环境,谓之container。便

运转起来了。


1.  Linux内核namespace机制

Linux Namespaces机制提供一种资源隔离方案。PID,IPC,Network等系统资源不再是全局性的,而是属于某个特定的Namespace。每个namespace下的资源对于其他namespace下的资源都是透明,不可见的。因此在操作系统层面上看,就会出现多个相同pid的进程。系统中可以同时存在两个进程号为0,1,2的进程,由于属于不同的namespace,所以它们之间并不冲突。而在用户层面上只能看到属于用户自己namespace下的资源,例如使用ps命令只能列出自己namespace下的进程。这样每个namespace看上去就像一个单独的Linux系统。

2 .  Linux内核中namespace结构体

Linux内核中提供了多个namespace,其中包括fs (mount),uts, network, sysvipc, 等。一个进程可以属于多个namesapce,既然namespace和进程相关,那么在task_struct结构体中就会包含和namespace相关联的变量。在task_struct 结构中有一个指向namespace结构体的指针nsproxy

structtask_struct {

……..

/* namespaces */

         structnsproxy *nsproxy;

…….

}

再看一下nsproxy是如何定义的,在include/linux/nsproxy.h文件中,这里一共定义了5个各自的命名空间结构体,在该结构体中定义了5个指向各个类型namespace的指针,由于多个进程可以使用同一个namespace,所以nsproxy可以共享使用,count字段是该结构的引用计数。

/* 'count' isthe number of tasks holding a reference.

 * The count for each namespace, then, will bethe number

 * of nsproxies pointing to it, not the numberof tasks.

 * The nsproxy is shared by tasks which shareall namespaces.

 * As soon as a single namespace is cloned orunshared, the

 * nsproxy is copied

*/

struct nsproxy {

         atomic_t count;

         struct uts_namespace *uts_ns;

         struct ipc_namespace *ipc_ns;

         struct mnt_namespace *mnt_ns;

         struct pid_namespace*pid_ns_for_children;

         struct net             *net_ns;

};

(1)     UTS命名空间包含了运行内核的名称、版本、底层体系结构类型等信息。UTSUNIX Timesharing System的简称。

(2)     保存在structipc_namespace中的所有与进程间通信(IPC)有关的信息。

(3)     已经装载的文件系统的视图,在structmnt_namespace中给出。

(4)     有关进程ID的信息,由structpid_namespace提供。

(5)     struct net_ns包含所有网络相关的命名空间参数。

系统中有一个默认的nsproxyinit_nsproxy,该结构在task初始化是也会被初始化。#defineINIT_TASK(tsk)  \

{

         .nsproxy   = &init_nsproxy,      

}

其中init_nsproxy的定义为:

static structkmem_cache *nsproxy_cachep;

 

struct nsproxyinit_nsproxy = {

         .count                         =ATOMIC_INIT(1),

         .uts_ns                       =&init_uts_ns,

#ifdefined(CONFIG_POSIX_MQUEUE) || defined(CONFIG_SYSVIPC)

         .ipc_ns                        =&init_ipc_ns,

#endif

         .mnt_ns                      =NULL,

         .pid_ns_for_children        = &init_pid_ns,

#ifdefCONFIG_NET

         .net_ns                       =&init_net,

#endif

};

对于         .mnt_ns   没有进行初始化,其余的namespace都进行了系统默认初始。

3. 使用clone创建自己的Namespace

如果要创建自己的命名空间,可以使用系统调用clone(),它在用户空间的原型为

int clone(int (*fn)(void *), void*child_stack, int flags, void *arg)

这里fn是函数指针,这个就是指向函数的指针,, child_stack是为子进程分配系统堆栈空间,flags就是标志用来描述你需要从父进程继承那些资源, arg就是传给子进程的参数也就是fn指向的函数参数。下面是flags可以取的值。这里只关心和namespace相关的参数。

CLONE_FS          子进程与父进程共享相同的文件系统,包括root、当前目录、umask

CLONE_NEWNS     clone需要自己的命名空间时设置这个标志,不能同时设置CLONE_NEWSCLONE_FS

Clone()函数是在libc库中定义的一个封装函数,它负责建立新轻量级进程的堆栈并且调用对编程者隐藏了clone系统条用。实现clone()系统调用的sys_clone()服务例程并没有fnarg参数。封装函数把fn指针存放在子进程堆栈的每个位置处,该位置就是该封装函数本身返回地址存放的位置。Arg指针正好存放在子进程堆栈中的fn的下面。当封装函数结束时,CPU从堆栈中取出返回地址,然后执行fn(arg)函数。

/* Prototype forthe glibc wrapper function */

       #include

       int clone(int (*fn)(void *), void*child_stack,

                 int flags, void *arg, ...

                 /* pid_t *ptid, structuser_desc *tls, pid_t *ctid */ );

       /* Prototype for the raw system call */

       long clone(unsigned long flags, void *child_stack,

                 void *ptid, void *ctid,

                 struct pt_regs *regs);

         我们在Linux内核中看到的实现函数,是经过libc库进行封装过的,在Linux内核中的fork.c文件中,有下面的定义,最终调用的都是do_fork()函数。

#ifdef __ARCH_WANT_SYS_CLONE

#ifdef CONFIG_CLONE_BACKWARDS

SYSCALL_DEFINE5(clone, unsigned long,clone_flags, unsigned long, newsp,

                    int __user *, parent_tidptr,

                    int, tls_val,

                    int __user *, child_tidptr)

#elif defined(CONFIG_CLONE_BACKWARDS2)

SYSCALL_DEFINE5(clone, unsigned long, newsp,unsigned long, clone_flags,

                    int __user *, parent_tidptr,

                    int __user *, child_tidptr,

                    int, tls_val)

#elif defined(CONFIG_CLONE_BACKWARDS3)

SYSCALL_DEFINE6(clone, unsigned long,clone_flags, unsigned long, newsp,

                   int,stack_size,

                   int__user *, parent_tidptr,

                   int__user *, child_tidptr,

                   int,tls_val)

#else

SYSCALL_DEFINE5(clone, unsigned long,clone_flags, unsigned long, newsp,

                    int __user *, parent_tidptr,

                    int __user *, child_tidptr,

                    int, tls_val)

#endif

{

         returndo_fork(clone_flags, newsp, 0, parent_tidptr, child_tidptr);

}

#endif

3.1  do_fork函数

         clone()函数中调用do_fork函数进行真正的处理,在do_fork函数中调用copy_process进程处理。

long do_fork(unsigned long clone_flags,

               unsigned long stack_start,

               unsigned long stack_size,

               int __user *parent_tidptr,

               int __user *child_tidptr)

{

         structtask_struct *p;

         inttrace = 0;

         longnr;

 

         /*

          * Determine whether and which event to reportto ptracer.  When

          * called from kernel_thread or CLONE_UNTRACEDis explicitly

          * requested, no event is reported; otherwise,report if the event

          * for the type of forking is enabled.

          */

         if(!(clone_flags & CLONE_UNTRACED)) {

                   if(clone_flags & CLONE_VFORK)

                            trace= PTRACE_EVENT_VFORK;

                   elseif ((clone_flags & CSIGNAL) != SIGCHLD)

                            trace= PTRACE_EVENT_CLONE;

                   else

                            trace= PTRACE_EVENT_FORK;

 

                   if(likely(!ptrace_event_enabled(current, trace)))

                            trace= 0;

         }

 

         p = copy_process(clone_flags, stack_start, stack_size,

                             child_tidptr, NULL, trace);

         /*

          * Do this prior waking up the new thread - thethread pointer

          * might get invalid after that point, if thethread exits quickly.

          */

         if(!IS_ERR(p)) {

                   structcompletion vfork;

                   structpid *pid;

 

                   trace_sched_process_fork(current,p);

 

                   pid= get_task_pid(p, PIDTYPE_PID);

                   nr= pid_vnr(pid);

 

                   if(clone_flags & CLONE_PARENT_SETTID)

                            put_user(nr,parent_tidptr);

 

                   if(clone_flags & CLONE_VFORK) {

                            p->vfork_done= &vfork;

                            init_completion(&vfork);

                            get_task_struct(p);

                   }

 

                   wake_up_new_task(p);

 

                   /*forking complete and child started to run, tell ptracer */

                   if(unlikely(trace))

                            ptrace_event_pid(trace,pid);

 

                   if(clone_flags & CLONE_VFORK) {

                            if(!wait_for_vfork_done(p, &vfork))

                                     ptrace_event_pid(PTRACE_EVENT_VFORK_DONE,pid);

                   }

 

                   put_pid(pid);

         }else {

                   nr= PTR_ERR(p);

         }

         returnnr;

}

3.2  copy_process函数

copy_process函数中调用copy_namespaces函数。

static structtask_struct *copy_process(unsigned long clone_flags,

                                               unsignedlong stack_start,

                                               unsignedlong stack_size,

                                               int__user *child_tidptr,

                                               structpid *pid,

                                               inttrace)

{

          int retval;

          struct task_struct *p;

/*下面的代码是对clone_flag标志进行检查,有部分表示是互斥的,例如CLONE_NEWNSCLONENEW_FS*/

          if ((clone_flags &(CLONE_NEWNS|CLONE_FS)) == (CLONE_NEWNS|CLONE_FS))

                   return ERR_PTR(-EINVAL);

 

          if ((clone_flags &(CLONE_NEWUSER|CLONE_FS)) == (CLONE_NEWUSER|CLONE_FS))

                   return ERR_PTR(-EINVAL);

 

          if ((clone_flags & CLONE_THREAD)&& !(clone_flags & CLONE_SIGHAND))

                   return ERR_PTR(-EINVAL);

 

          if ((clone_flags & CLONE_SIGHAND)&& !(clone_flags & CLONE_VM))

                   return ERR_PTR(-EINVAL);

 

          if ((clone_flags & CLONE_PARENT)&&

                                      current->signal->flags& SIGNAL_UNKILLABLE)

                   return ERR_PTR(-EINVAL);

 

……

retval = copy_namespaces(clone_flags, p);

          if (retval)

                   goto bad_fork_cleanup_mm;

          retval = copy_io(clone_flags, p);

          if (retval)

                   gotobad_fork_cleanup_namespaces;

          retval = copy_thread(clone_flags,stack_start, stack_size, p);

          if (retval)

                   goto bad_fork_cleanup_io;

/*do_fork中调用copy_process函数,该函数中pid参数为NULL,所以这里的if判断是成立的。为进程所在的namespace分配pid,在3.0的内核之前还有一个关键函数,就是namespace创建后和cgroup的关系,

if (current->nsproxy != p->nsproxy) {

retval = ns_cgroup_clone(p, pid);

if (retval)

goto bad_fork_free_pid;

但在3.0内核以后给删掉了,具体请参考remove the ns_cgroup*/

          if (pid != &init_struct_pid) {

                   retval = -ENOMEM;

                   pid =alloc_pid(p->nsproxy->pid_ns_for_children);

                   if (!pid)

                            gotobad_fork_cleanup_io;

          }…..

}

3.3  copy_namespaces 函数

         kernel/nsproxy.c文件中定义了copy_namespaces函数。

int copy_namespaces(unsigned long flags,struct task_struct *tsk)

{

         structnsproxy *old_ns = tsk->nsproxy;

         structuser_namespace *user_ns = task_cred_xxx(tsk, user_ns);

         structnsproxy *new_ns;

 /*首先检查flag,如果flag标志不是下面的五种之一,就会调用get_nsproxyold_ns递减引用计数,然后直接返回0*/

         if(likely(!(flags & (CLONE_NEWNS | CLONE_NEWUTS | CLONE_NEWIPC |

                                  CLONE_NEWPID | CLONE_NEWNET)))) {

                   get_nsproxy(old_ns);

                   return0;

         }

  /*当前进程是否有超级用户的权限*/

         if(!ns_capable(user_ns, CAP_SYS_ADMIN))

                   return-EPERM;

 

         /*

          * CLONE_NEWIPC must detach from the undolist:after switching

          * to a new ipc namespace, the semaphore arraysfrom the old

          * namespace are unreachable.  In clone parlance, CLONE_SYSVSEM

          * means share undolist with parent, so we mustforbid using

          * it along with CLONE_NEWIPC.

          CLONE_NEWIPC进行特殊的判断,*/

         if((flags & (CLONE_NEWIPC | CLONE_SYSVSEM)) ==

                   (CLONE_NEWIPC| CLONE_SYSVSEM))

                   return-EINVAL;

 /*为进程创建新的namespace*/

         new_ns= create_new_namespaces(flags, tsk, user_ns, tsk->fs);

         if(IS_ERR(new_ns))

                   return  PTR_ERR(new_ns);

 

         tsk->nsproxy= new_ns;

         return0;

}

3.4  create_new_namespaces函数

create_new_namespaces创建新的namespace

static struct nsproxy*create_new_namespaces(unsigned long flags,

         structtask_struct *tsk, struct user_namespace *user_ns,

         structfs_struct *new_fs)

{

         structnsproxy *new_nsp;

         interr;

    /*为新的nsproxy分配内存空间,并对其引用计数设置为初始1*/

         new_nsp= create_nsproxy();

         if(!new_nsp)

                   returnERR_PTR(-ENOMEM);

  /*如果Namespace中的各个标志位进行了设置,则会调用相应的namespace进行创建*/

         new_nsp->mnt_ns= copy_mnt_ns(flags, tsk->nsproxy->mnt_ns, user_ns, new_fs);

         if(IS_ERR(new_nsp->mnt_ns)) {

                   err= PTR_ERR(new_nsp->mnt_ns);

                   gotoout_ns;

         }

 

         new_nsp->uts_ns= copy_utsname(flags, user_ns, tsk->nsproxy->uts_ns);

         if(IS_ERR(new_nsp->uts_ns)) {

                   err= PTR_ERR(new_nsp->uts_ns);

                   gotoout_uts;

         }

 

         new_nsp->ipc_ns= copy_ipcs(flags, user_ns, tsk->nsproxy->ipc_ns);

         if(IS_ERR(new_nsp->ipc_ns)) {

                   err= PTR_ERR(new_nsp->ipc_ns);

                   gotoout_ipc;

         }

 

         new_nsp->pid_ns_for_children=

                   copy_pid_ns(flags,user_ns, tsk->nsproxy->pid_ns_for_children);

         if(IS_ERR(new_nsp->pid_ns_for_children)) {

                   err= PTR_ERR(new_nsp->pid_ns_for_children);

                   gotoout_pid;

         }

 

         new_nsp->net_ns= copy_net_ns(flags, user_ns, tsk->nsproxy->net_ns);

         if(IS_ERR(new_nsp->net_ns)) {

                   err= PTR_ERR(new_nsp->net_ns);

                   gotoout_net;

         }

 

         returnnew_nsp;

 

out_net:

         if(new_nsp->pid_ns_for_children)

                   put_pid_ns(new_nsp->pid_ns_for_children);

out_pid:

         if(new_nsp->ipc_ns)

                   put_ipc_ns(new_nsp->ipc_ns);

out_ipc:

         if(new_nsp->uts_ns)

                   put_uts_ns(new_nsp->uts_ns);

out_uts:

         if(new_nsp->mnt_ns)

                   put_mnt_ns(new_nsp->mnt_ns);

out_ns:

         kmem_cache_free(nsproxy_cachep,new_nsp);

         returnERR_PTR(err);

}

3.4.1 create_nsproxy函数

static inline struct nsproxy*create_nsproxy(void)

{

         structnsproxy *nsproxy;

 

         nsproxy= kmem_cache_alloc(nsproxy_cachep, GFP_KERNEL);

         if(nsproxy)

                   atomic_set(&nsproxy->count,1);

         returnnsproxy;

}

例子1namespace pid的例子


#include

#include

#include

#include

#include

#include

#include

 

static int fork_child(void *arg)

{

         inta = (int)arg;

         inti;

         pid_tpid;

         char*cmd  = "ps -el;

         printf("Inthe container, my pid is: %d\n", getpid());

 /*ps命令是解析procfs的内容得到结果的,而procfs根目录的进程pid目录是基于mount当时的pid namespace的,这个在procfsget_sb回调中体现的。因此只需要重新mount一下proc, mount-t proc proc /proc*/

         mount("proc","/proc", "proc", 0, "");

         for(i = 0; i

                   pid= fork();

                   if(pid <0)

                            returnpid;

                   elseif (pid)

                            printf("pidof my child is %d\n", pid);

                   elseif (pid == 0) {

                            sleep(30);

                            exit(0);

                   }

         }

         execl("/bin/bash","/bin/bash","-c",cmd, NULL);

         return0;

}

int main(int argc, char *argv[])

{

         intcpid;

         void*childstack, *stack;

         intflags;

         intret = 0;

         intstacksize = getpagesize() * 4;

         if(argc != 2) {

                   fprintf(stderr,"Wrong usage.\n");

                   return-1;

         }

         stack= malloc(stacksize);

         if(stack== NULL)

         {

                   return-1;

         }

         printf("Outof the container, my pid is: %d\n", getpid());

         childstack= stack + stacksize;

         flags= CLONE_NEWPID | CLONE_NEWNS;

         cpid= clone(fork_child, childstack, flags, (void *)atoi(argv[1]));

         printf("cpid:%d\n", cpid);

         if(cpid <0) {

                   perror("clone");

                   ret= -1;

                  goto out;

         }

         fprintf(stderr,"Parent sleeping 20 seconds\n");

         sleep(20);

         ret= 0;

out:

         free(stack);

         returnret;

}

}运行结果:

root@ubuntu:~/c_program#./namespace 7

Out of the container, my pid is: 8684

cpid: 8685

Parent sleeping 20 seconds

In the container, my pid is: 1

pid of my child is 2

pid of my child is 3

pid of my child is 4

pid of my child is 5

pid of my child is 6

pid of my child is 7

pid of my child is 8

F S  UID   PID  PPID  CPRI  NI ADDR SZ WCHAN  TTY         TIME CMD

4 R    0     1     0 0  80   0 - 1085 -      pts/0    00:00:00 ps

1 S    0     2     1 0  80   0 -  458 hrtime pts/0    00:00:00namespace

1 S    0     3     1 0  80   0 -  458 hrtime pts/0    00:00:00namespace

1 S    0     4     1 0  80   0 -  458 hrtime pts/0    00:00:00namespace

1 S    0     5     1 0  80   0 -  458 hrtime pts/0    00:00:00namespace

1 S    0     6     1 0  80   0 -  458 hrtime pts/0    00:00:00namespace

1 S    0     7     1 0  80   0 -  458 hrtime pts/0    00:00:00namespace

1 S    0     8     1 0  80   0 -  458 hrtime pts/0    00:00:00namespace

例子2UTS的例子

#define _GNU_SOURCE

#include

#include

#include

#include

#include

#include

#include

 

#define errExit(msg)    do { perror(msg); exit(EXIT_FAILURE); \

} while (0)

 

         staticint              /* Start function forcloned child */

childFunc(void *arg)

{

         structutsname uts;

         /*Change hostname in UTS namespace of child */

         if(sethostname(arg, strlen(arg)) == -1)

                   errExit("sethostname");

         /*Retrieve and display hostname */

         if(uname(&uts) == -1)

                   errExit("uname");

         printf("uts.nodenamein child:  %s\n", uts.nodename);

         /*Keep the namespace open for a while, by sleeping.

          *              This allows some experimentation--for example, another

          *                             process might jointhe namespace. */

         sleep(200);

         return0;           /* Child terminates now */

}

#define STACK_SIZE (1024 * 1024)    /* Stack size for cloned child */

 

         int

main(int argc, char *argv[])

{

         char*stack;                    /* Start ofstack buffer */

         char*stackTop;                 /* End ofstack buffer */

         pid_tpid;

         structutsname uts;

         if(argc < 2) {

                   fprintf(stderr,"Usage: %s \n", argv[0]);

                   exit(EXIT_SUCCESS);

         }

         /*Allocate stack for child */

         stack= malloc(STACK_SIZE);

         if(stack == NULL)

                   errExit("malloc");

         stackTop= stack + STACK_SIZE;  /* Assume stackgrows downward */

         /*Create child that has its own UTS namespace;

          *              child commences execution in childFunc() */

         pid= clone(childFunc, stackTop, CLONE_NEWUTS | SIGCHLD, argv[1]);

         if(pid == -1)

                   errExit("clone");

         printf("clone()returned %ld\n", (long) pid);

         /*Parent falls through to here */

         sleep(1);           /* Give child time to change itshostname */

 

         /*Display hostname in parent's UTS namespace. This will be

          *              different from hostname in child's UTS namespace. */

 

         if(uname(&uts) == -1)

                   errExit("uname");

         printf("uts.nodenamein parent: %s\n", uts.nodename);

         if(waitpid(pid, NULL, 0) == -1)    /* Waitfor child */

                   errExit("waitpid");

         printf("childhas terminated\n");

         exit(EXIT_SUCCESS);

}

root@ubuntu:~/c_program# ./namespace_1 test

clone() returned 4101

uts.nodename in child:  test

uts.nodename in parent: ubuntu

 

对于网络命名空间可以参考:

http://www.opencloudblog.com/?p=42

http://wenx05124561.blog.163.com/blog/static/124000805201311250241189/

http://man7.org/linux/man-pages/man2/clone.2.html


  • 0
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值