cephfs kernel client写的过程

kernel 中ceph的客户端的源码在fs/ceph 中,这里我们以ceph的写操作为例。
从fs/ceph/file.c 中的ceph_file_fops 中可以知道写函数是ceph_write_iter
const struct file_operations ceph_file_fops = {
	.open = ceph_open,
	.release = ceph_release,
	.llseek = ceph_llseek,
	.read_iter = ceph_read_iter,
	.write_iter = ceph_write_iter,
	}

static ssize_t ceph_write_iter(struct kiocb *iocb, struct iov_iter *from)
{
	if ((got & (CEPH_CAP_FILE_BUFFER|CEPH_CAP_FILE_LAZYIO)) == 0 ||
	    (iocb->ki_flags & IOCB_DIRECT) || (fi->flags & CEPH_F_SYNC) ||
	    (ci->i_ceph_flags & CEPH_I_ERROR_WRITE)) {
		struct ceph_snap_context *snapc;
		struct iov_iter data;
		inode_unlock(inode);


		#从这里可以知道client的写可以分为direct io和 bufffer io两种方式
		/* we might need to revert back to that point */
		data = *from;
		if (iocb->ki_flags & IOCB_DIRECT)
			written = ceph_direct_read_write(iocb, &data, snapc,
							 &prealloc_cf);
		else
			written = ceph_sync_write(iocb, &data, pos, snapc);
		if (written > 0)
			iov_iter_advance(from, written);
		ceph_put_snap_context(snapc);
	}
}
这里以direct io写为例
可以看到写的过程中主要分为三个request ,分别是ceph_osdc_new_request->ceph_osdc_start_request->ceph_osdc_wait_request
static ssize_t
ceph_direct_read_write(struct kiocb *iocb, struct iov_iter *iter,
		       struct ceph_snap_context *snapc,
		       struct ceph_cap_flush **pcf)
{
	
	while (iov_iter_count(iter) > 0) {
		u64 size = dio_get_pagev_size(iter);
		size_t start = 0;
		ssize_t len;

		vino = ceph_vino(inode);
		#new request的主要作用是新建一个req,兵使用形参赋初值后,再将指针赋值给req
		req = ceph_osdc_new_request(&fsc->client->osdc, &ci->i_layout,
					    vino, pos, &size, 0,
					    1,
					    write ? CEPH_OSD_OP_WRITE :
						    CEPH_OSD_OP_READ,
					    flags, snapc,
					    ci->i_truncate_seq,
					    ci->i_truncate_size,
					    false);
		#start request的主要主要是调用submiet_quest来提交这个块设备
		ret = ceph_osdc_start_request(req->r_osdc, req, false);
		if (!ret)
		#这里会等待这个req被写入到磁盘中
			ret = ceph_osdc_wait_request(&fsc->client->osdc, req);

		
}
具体等待的函数如下:
int ceph_osdc_wait_request(struct ceph_osd_client *osdc,
			   struct ceph_osd_request *req)
{
	return wait_request_timeout(req, 0);
}
可见最终调用wait_for_completion_killable_timeout 来等待操作完成,从之前的分析指导wait_for_completion_killable_timeout 这个函数
在等待的过程中会让出cpu。这样就无法并发进行
static int wait_request_timeout(struct ceph_osd_request *req,
				unsigned long timeout)
{
	long left;

	dout("%s req %p tid %llu\n", __func__, req, req->r_tid);
	left = wait_for_completion_killable_timeout(&req->r_completion,
						ceph_timeout_jiffies(timeout));
	if (left <= 0) {
		left = left ?: -ETIMEDOUT;
		ceph_osdc_cancel_request(req);
	} else {
		left = req->r_result; /* completed */
	}

	return left;
}
从client写的过程可以知道,direct io的写会等到写完成后才返回,这里写完成可以指写入到磁盘中或者写入到kernel cache中,反正就是要等待
写完成后,才能进行下一次写过程。所以当个client 无法提高并发度,只能通过增减client的方式来增加并发度

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
kernel中读文件需要使用文件系统相关的API。在Linux中,文件系统相关的API主要是由VFS(Virtual File System)提供的。VFS是一个虚拟的文件系统,它把不同的物理文件系统(如ext4、NTFS等)抽象成相同的接口,使得应用程序可以使用相同的方式读不同的文件系统。 下面是在kernel中读文件的基本步骤: 1. 打开文件:使用VFS提供的open()函数打开需要读的文件。 2. 读文件:使用VFS提供的read()和write()函数读文件内容。 3. 关闭文件:使用VFS提供的close()函数关闭文件。 例如,下面是在kernel中读取文件的示例代码: ``` #include <linux/fs.h> #include <linux/uaccess.h> int read_file(const char *filename, char *buf, size_t len) { struct file *filp; mm_segment_t oldfs; loff_t pos = 0; int ret = 0; // 打开文件 filp = filp_open(filename, O_RDONLY, 0); if (!filp) { printk(KERN_ALERT "read_file: can't open file: %s\n", filename); return -ENOENT; } // 设置用户空间内存段 oldfs = get_fs(); set_fs(KERNEL_DS); // 读取文件内容 ret = vfs_read(filp, buf, len, &pos); // 恢复用户空间内存段 set_fs(oldfs); // 关闭文件 filp_close(filp, NULL); return ret; } ``` 上面的代码使用了VFS提供的filp_open()函数打开文件,使用vfs_read()函数读取文件内容,最后使用filp_close()函数关闭文件。注意,在读取文件内容之前,需要设置用户空间内存段,否则会导致内核崩溃。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值