Android系统--Binder系统具体框架分析(二)Binder驱动情景分析

Android系统--Binder系统具体框架分析(二)Binder驱动情景分析

1. Binder驱动情景分析

1.1 进程间通信三要素

  • 目的:handle表示“服务”,即向实现该“服务”的进程发送数据;handle是“服务”的引用

int binder_call(struct binder_state *bs, struct binder_io *msg, struct binder_io *reply,   uint32_t target, uint32_t code)

 // bs:驱动信息

 // msg:含有服务的名字

 // reply:它会含有回复的数据

 // target:表示目的

 // code:调用的函数
  • 数据

1.2 handle的深入剖析

1.2.1 涉及handle的重要结构体
  • Binder中的handle:进程A对进程B提供的服务S的引用

    • 引用:通过struct binder_ref结构体关联服务节点
struct binder_ref {//就是 refs_by_desc、refs_by_node 这两个引用树种的数据结构.

    int debug_id;

    struct rb_node rb_node_desc;//连接des的引用树.

    struct rb_node rb_node_node;//连接node的引用树.

    struct hlist_node node_entry;

    struct binder_proc *proc; //该binder引用所属的进程,

    struct binder_node *node;//和远程的binder实体binder_node关联的地方.相对应.

    uint32_t desc;

    int strong;

    int weak;

    struct binder_ref_death *death;

};      
  • 服务:创建binder_node服务节点,指向进程B

struct binder_node {  

    int debug_id;  
  
    struct binder_work work;  
 
    union {  
 
        struct rb_node rb_node;  

        struct hlist_node dead_node;  

    };  

    struct binder_proc *proc;  

    struct hlist_head refs;  

    int internal_strong_refs;  

    int local_weak_refs;  

    int local_strong_refs;  

    void __user *ptr;  
 
    void __user *cookie;  

    unsigned has_strong_ref : 1;  

    unsigned pending_strong_ref : 1;  

    unsigned has_weak_ref : 1;  
 
    unsigned pending_weak_ref : 1;  

    unsigned has_async_transaction : 1;  

    unsigned accept_fds : 1;  

    int min_priority : 8;  

    struct list_head async_todo;  

};
  • 进程B:用结构体struct binder_proc表示
struct binder_proc {

    struct hlist_node proc_node;//连入总链表的点.

    struct rb_root threads; // 红黑树的节点,(不理解红黑树结构,暂时就当成该存储数据的地方即可)

    struct rb_root nodes;

    struct rb_root refs_by_desc;

    struct rb_root refs_by_node;

    int pid; //进程的id.

    struct vm_area_struct *vma;

    struct mm_struct *vma_vm_mm;

    struct task_struct *tsk;

    struct files_struct *files;

    struct hlist_node deferred_work_node;

    int deferred_work;

    void *buffer;//表示要映射的物理内存在内核空间中的起始位置

    //内核使用的虚拟地址与进程使用的虚拟地址之间的差值,即如果某个物理页面在内核空间中对应的虚拟地址是addr的话,

   //那么这个物理页面在进程空间对应的虚拟地址就为addr + user_buffer_offset

    ptrdiff_t user_buffer_offset; 

                                

    struct list_head buffers;//通过mmap映射的内存空间.

    struct rb_root free_buffers;//空闲的binder_buffer通过成员变量rb_node连入到struct binder_proc中的free_buffers表示的红黑树中去,

    struct rb_root allocated_buffers;//正在使用的binder_buffer通过成员变量rb_node连入到struct binder_proc中的allocated_buffers表                                        示的红黑树中去。

    size_t free_async_space;

 

    struct page **pages;// struct page 用来描述物理页面的数据结构

    size_t buffer_size; //表示要映射的内存的大小.

    uint32_t buffer_free;

    struct list_head todo;

    wait_queue_head_t wait;

    struct binder_stats stats;

    struct list_head delivered_death;

    int max_threads;

    int requested_threads;

    int requested_threads_started;

    int ready_threads;

    long default_priority;

    struct dentry *debugfs_entry;

};
  • 真实场景中有多个客户端服务对进程B要求服务,进程B创建多个线程提供服务,用struct rb_root结构体(红黑树)管理线程,线程用struct binder_thread描述

struct binder_thread {

    struct binder_proc *proc; //当前线程所属的进程。

    struct rb_node rb_node; //来连入binder_proc的threads红黑树.

    int pid;

    int looper;//表示线程的状态  就是上面enum的类型。

    struct binder_transaction *transaction_stack; //表示线程正在处理的事务

    struct list_head todo; //表示发往该线程的数据列表待处理的一次通信事务.

    uint32_t return_error; /* Write failed, return error code in read buf */

    uint32_t return_error2; /* Write failed, return error code in read */

        /* buffer. Used when sending a reply to a dead process that */

        /* we are also waiting on */

    wait_queue_head_t wait;  //用来阻塞线程等待某个事件的发生

    struct binder_stats stats; //用来保存一些统计信息

};
1.2.2 解析handle对Binder节点操作流程

(1)server传入一个flat_binder_object结构体给驱动,在内核态驱动里为每一个服务创建binder_node,biner_node.proc关联描述进程的结构体

(2)ServiceManager 在驱动中创建binder_ref结构体,引用binder_node服务节点

  • 在用户态创建服务链表(name,handle)

  • binder_ref.desc关联handle

(3)client向ServiceManager传入name查询对应服务

(4)servicemanager返回hanle给驱动程序

(5)驱动程序在servicemanager的binder_ref红黑树中根据handle找到binder_ref结构体,在根据binder_ref.node找到binder_node结构体,最后为client创建新的binder_ref,并关联找到的binder_node节点,他的结构体成员desc从1开始,驱动返回的desc给client,即为handle。

(6)总结client如何得到hanled:驱动根据handle找到binder_ref结构体->binder_node->进程server

1.3 client与server数据传输过程

  • client端(先读后写)

(1)client构造数据,调用ioctl发送数据

(2)驱动根据handle找到server进程

(3)将数据存入进程的binder_proc.todo

(4)等待唤醒(等待server传回数据)

(5)被唤醒

(6)从todo链表中取出数据,返回用户空间

  • server端(先写后读)

(1)等待数据传入,休眠

(2)client有数据写入,唤醒

(3)从binder_proc.todo链表当中取出数据,返回用户空间

(4)进行数据处理

(5)将结果写给client,也是放入client中的binder_proc.todo

(6)唤醒client

1.4 数据复制详解

  • 一般方法(需要两次)

(1)client构造数据

(2)client:copy_from_user

(3)server:copy_to_user

(4)用户态处理

  • Binder方法(一次)

(1)server mmap:用户态可以直接访问驱动中的某块内存

(2)client构造数据:copy_from_user,存放在server mmap映射的内存

(3)server直接获取使用数据

  • 描述一段通过mmap映射的内存空间--结构体binder_buffer来描述

struct binder_buffer {

    struct list_head entry; //连入 binder_proc的buffers

    //空闲的binder_buffer通过成员变量rb_node连入到binder_proc中的free_buffers表示的红黑树中.

    //正在使用的binder_buffer通过成员变量rb_node连入到binder_proc中的allocated_buffers表示的红黑树中去。

    struct rb_node rb_node;     

    unsigned free:1; //每一个binder_buffer又分为正在使用的和空闲的,通过free成员变量来区分.

    unsigned allow_user_free:1;

    unsigned async_transaction:1;

    unsigned debug_id:29;

 

    struct binder_transaction *transaction;

 

    struct binder_node *target_node;

    size_t data_size;

    size_t offsets_size;

    uint8_t data[0];

};
注:一次数据复制是针对传输数据,其binder_write_read还是需要两次复制。client调用ioctl发送数据,ioctl发送的是binder_write_read结构,其结构体中的成员指向传送数据。

1.5 改进binder分析一代码

  • 注册服务,直接将函数作为指针注册

/* add service */   

ret = svcmgr_publish(bs, svcmgr, "hello", hello_service_handler);

//注册    

if (ret) {

      fprintf(stderr, "failed to publish hello service\n");

      return -1;

}   

ret = svcmgr_publish(bs, svcmgr, "goodbye", goodbye_service_handler);

if (ret) {

      fprintf(stderr, "failed to publish goodbye service\n");

}
  • 将被调用函数指向handler,返回handler函数

int test_server_handler(struct binder_state *bs,struct binder_transaction_data *txn,struct binder_io *msg, struct binder_io *reply)

{   

    int (*handler)(struct binder_state *bs,struct binder_transaction_data *txn,struct binder_io *msg,struct binder_io *reply);  //构造处理方法    

    handler = (int (*)(struct binder_state *bs,struct binder_transaction_data *txn,struct binder_io *msg,struct binder_io *reply))txn->target.ptr;  //根据txn->target.ptr返回处理相应方法     

    return handler(bs, txn, msg, reply);  //返回所调用的处理方法

}

转载于:https://www.cnblogs.com/lkq1220/p/6480964.html

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值