共计 5010 个字符,预计需要花费 13 分钟才能阅读完成。
这篇文章给大家分享的是有关 cephfs kernel client 针对打开文件的操作代码的内容。丸趣 TV 小编觉得挺实用的,因此分享给大家做个参考,一起跟随丸趣 TV 小编过来看看吧。
针对打开文件的操作主要体现在 struct file_operations 数据结构中。在 cephfs kernel client 中具体实现如下:
const struct file_operations ceph_file_fops = {
.open = ceph_open,
.release = ceph_release,
.llseek = ceph_llseek,
.read_iter = ceph_read_iter,
.write_iter = ceph_write_iter,
.mmap = ceph_mmap,
.fsync = ceph_fsync,
.lock = ceph_lock,
.flock = ceph_flock,
.splice_read = generic_file_splice_read,
.splice_write = iter_file_splice_write,
.unlocked_ioctl = ceph_ioctl,
.compat_ioctl = ceph_ioctl,
.fallocate = ceph_fallocate,
};
ceph_open(struct inode *inode, struct file *file) 该函数在打开文件时被调用
|__调用 prepare_open_request() 函数来创建 ceph_mds_request 请求
|__调用 ceph_mdsc_do_request() 函数将 ceph_mds_request 请求同步的发送给 mds 进程
|__调用 ceph_init_file() 函数创建 ceph_file_info 数据结构且将该数据结构放入到 file- private_data 中
ceph_release(struct inode *inode, struct file *file) 该函数在关闭文件时被调用
|__调用 ceph_put_fmode() 函数减少打开文件的引用次数,若引用次数为 0,则从本地 cache 中删除该文件
ceph_llseek(struct file *file, loff_t offset, int whence)
|__若 whence 是 SEEK_END|SEEK_DATA|SEEK_HOLE
|__调用 ceph_do_getattr() 函数从 mds 集群中获取指定 inode 的 attrs 属性
|__调用 i_size_read() 函数得到当前 inode 的实际大小
|__根据 whence 的值调整 offset 的值
|__调用 vfs_setpos() 函数设置文件的当前位置为 offset
ceph_read_iter(struct kiocb *iocb, struct iov_iter *to) 该函数在读取文件内容的时候被调用
|__调用 ceph_get_caps() 函数得到 caps
|__对于同步读数据操作来说
|__若 iocb- ki_flags IOCB_DIRECT
|__调用 ceph_direct_read_write() 函数从 osds 集群中读取数据
|__若!iocb- ki_flags IOCB_DIRECT
|__调用 ceph_sync_read() 函数从 osds 集群中读取数据
|__对于非同步读取数据操作来说
|__调用 generic_file_read_iter() 函数实现异步数据的读取操作
ceph_write_iter(structd kiocb *iocb, struct iov_iter *from) 执行写操作时调用该函数执行
|__调用 generic_write_check() 函数在实际写之前进行必要的检查
|__调用 ceph_get_caps() 得到写权限
|__对于同步写操作
|__对于 iocb- ki_flags IOCB_DIRECT
|__调用 ceph_direct_read_write() 函数向 osds 集群中写入数据
|__对于! iocb- ki_flags IOCB_DIRECT
|__调用 ceph_sync_write() 函数向 osds 集群中红写入数据
|__对于非同步写操作
|__调用 generic_perform_write() 函数执行写操作
ceph_mmap(struct file *file, struct vm_area_struct *vma) 将文件内容影射到内存的操作时调用该函数执行
|__设置 vma 的 vm_ops=ceph_vmops
ceph_fsync(struct file *file, loff_t start , loff_t end, int datasync)
|__调用 ceph_sync_write_wait() 函数等待 inode 上所有未完成的 osd 请求执行完毕
|__调用 try_flush_caps() 函数将所有 dirty 的 caps 刷回到 mds
|__调用 unsafe_request_wait() 函数等待 inode 上所有针对 mds 请求执行完毕
ceph_lock(struct file *file, int cmd, struct file_lock *fl) 当用户态程序执行 fcntl lock 时调用该函数执行
|__调用 ceph_lock_message() 函数创建文件锁命令请求后,将该请求发送给 mds 集群
ceph_flock(struct file *file, int cmd, struct file_lock *fl)
|__调用 ceph_lock_message() 函数创建文件锁命令请求后,将该请求发送给 mds 集群
ceph_ioctl(struct file *file, unsigned int cmd, unsigned long arg)
|__根据 cmd 的值做不同的处理
|__cmd==CEPH_IOC_GET_LAYOUT
|__ceph_ioctl_get_layout()
|__ceph_do_getattr(CEPH_STAT_CAP_LAYOUT) 从 mds 集群中读取 file 对应的 inode 的 layout 信息到 ceph_inode_info 的 i_layout 中
|__将 i_layout 信息写入到 struct ceph_ioctl_layout 数据结构中且通过 copy_to_user() 函数将数据返回给用户态
|__cmd==CEPH_IOC_SET_LAYOUT
|__ceph_ioctl_set_layout()
|__调用 copy_from_user() 函数将新的 layout 信息从用户态复制到内核态
|__调用 ceph_do_getattr() 函数从 mds 集群中读取当前的 layout 信息
|__调用__validate_layout() 函数检查新设置的 layout 是否有效
|__调用 ceph_mdsc_create_request() 函数创建 request 请求
|__调用 ceph_mdsc_do_request() 函数同步的发送 request 请求到 mds 集群
|__cmd==CEPH_IOC_SET_LAYOUT_POLICY
|__ceph_ioctl_set_layout_policy()
|__调用 copy_from_user() 函数将新的 layout 信息从用户态复制到内核态
|__调用__validate_layout() 函数检查新设置的 layout 是否有效
|__调用 ceph_mdsc_create_request() 函数创建 request 请求
|__调用 ceph_mdsc_do_request() 函数同步的发送 request 请求到 mds 集群
|__cmd==CEPH_IOC_GET_DATALOC 计算 data 所在的 ceph 集群中的位置信息
|__ceph_ioctl_get_dataloc()
|__调用 copy_from_user() 函数将 ceph_ioctl_dataloc 信息复制到内核态
|__调用 ceph_calc_file_object_mapping() 函数计算 ceph_ioctl_dataloc 信息中指定文件所在的 oid 等信息
|__调用 ceph_object_locator_to_pg() 函数计算出 oid 所在的 pg 信息
|__调用 ceph_pg_to_acting_primary() 函数计算出 pg 所在的主 osd 信息
|__调用 copy_to_user() 函数将计算出来的信息发送回给用户态
|__cmd==CEPH_IOC_LAZYIO 设置 LAZYIO 标识
|__ceph_ioctl_lazyio()
|__ 判断 struct ceph_file_info 中的 fmode 是否未设置 CEPH_FILE_MODE_LAZY
|__设置 struct ceph_file_info 中的 fmode 拥有 CEPH_FILE_MODE_LAZY 标识
|__更新 ceph_inode_info 中的 i_nr_by_mode 数组
|__调用 ceph_check_caps() 函数更新 caps
|__cmd==CEPH_IOC_SYNCIO
|__ceph_ioctl_syncio()
|__设置 struct ceph_file_info 结构中的 flags 的 CEPH_F_SYNC 位
ceph_fallocate(struct file *file, int mode, loff_t offset, loff_t length)
|__若 mode==FALLOC_FL_PUNCH_HOLE
|__调用 ceph_zero_object() 函数在文件的指定 offset 开始到 offset+length 结束的地方设置文件内容为 0
|__若 offset+length size
|__调用 ceph_inode_set_size() 将文件的大小设置为 offset+length
|__调用 ceph_check_caps() 函数校验文件 caps 的认证是否有效
针对文件映射到内存的相关操作主要体现在 struct vm_operations_struct 数据结构中,具体内容如下:
static const struct vm_operations_struct ceph_vmops = {
.fault = ceph_filemap_fault,
.page_mkwrite = ceph_page_mkwrite,
};
ceph_filemap_fault(struct vm_area_struct *vma, struct vm_fault *vmf) 该函数在读取内存中的数据时发生内存缺页的时候被调用
|__调用 find_or_create_page() 函数从物理内存中获取到物理内存页
|__调用__ceph_do_getattr(CEPH_STAT_CAP_INLINE_DATA) 函数从 mds 集群中读取到数据
|__调用 flush_dcache_page() 函数将读取到的数据写入到物理内存页
|__调用 SetPageUptodate() 函数设置该物理内存页已经被更新
|__设置 vmf- page=page,即:将物理内存页添加到虚拟内存中
ceph_page_mkwrite(struct vm_area_struct *vma, struct vm_fault *vmf) 当页面从 readonly 状态变迁到 writeable 状态时该函数被调用
|__调用 ceph_update_writeable_page() 函数来设置 vmf- page 页为 writeable
|__调用 set_page_diry() 函数设置该物理内存页为 dirty 的
感谢各位的阅读!关于“cephfs kernel client 针对打开文件的操作代码”这篇文章就分享到这里了,希望以上内容可以对大家有一定的帮助,让大家可以学到更多知识,如果觉得文章不错,可以把它分享出去让更多的人看到吧!