Whamcloud - gitweb
LU-5971 llite: move vvp_io functions to vvp_io.c
[fs/lustre-release.git] / lustre / llite / vvp_io.c
index 88ccaa5..b393042 100644 (file)
 #include "vvp_internal.h"
 
 static struct vvp_io *cl2vvp_io(const struct lu_env *env,
-                                const struct cl_io_slice *slice);
+                               const struct cl_io_slice *slice)
+{
+       struct vvp_io *vio;
+
+       vio = container_of(slice, struct vvp_io, vui_cl);
+       LASSERT(vio == vvp_env_io(env));
+
+       return vio;
+}
 
 /**
  * True, if \a io is a normal io, False for splice_{read,write}
  */
-int cl_is_normalio(const struct lu_env *env, const struct cl_io *io)
+static int cl_is_normalio(const struct lu_env *env, const struct cl_io *io)
 {
-        struct vvp_io *vio = vvp_env_io(env);
+       struct vvp_io *vio = vvp_env_io(env);
 
-        LASSERT(io->ci_type == CIT_READ || io->ci_type == CIT_WRITE);
+       LASSERT(io->ci_type == CIT_READ || io->ci_type == CIT_WRITE);
 
-        return vio->cui_io_subtype == IO_NORMAL;
+       return vio->vui_io_subtype == IO_NORMAL;
 }
 
 /**
@@ -71,7 +79,7 @@ static bool can_populate_pages(const struct lu_env *env, struct cl_io *io,
                                struct inode *inode)
 {
        struct ll_inode_info    *lli = ll_i2info(inode);
-       struct ccc_io           *cio = ccc_env_io(env);
+       struct vvp_io           *vio = vvp_env_io(env);
        bool rc = true;
 
        switch (io->ci_type) {
@@ -79,7 +87,7 @@ static bool can_populate_pages(const struct lu_env *env, struct cl_io *io,
        case CIT_WRITE:
                /* don't need lock here to check lli_layout_gen as we have held
                 * extent lock and GROUP lock has to hold to swap layout */
-               if (ll_layout_version_get(lli) != cio->cui_layout_gen) {
+               if (ll_layout_version_get(lli) != vio->vui_layout_gen) {
                        io->ci_need_restart = 1;
                        /* this will return application a short read/write */
                        io->ci_continue = 0;
@@ -94,21 +102,174 @@ static bool can_populate_pages(const struct lu_env *env, struct cl_io *io,
        return rc;
 }
 
+static void vvp_object_size_lock(struct cl_object *obj)
+{
+       struct inode *inode = vvp_object_inode(obj);
+
+       ll_inode_size_lock(inode);
+       cl_object_attr_lock(obj);
+}
+
+static void vvp_object_size_unlock(struct cl_object *obj)
+{
+       struct inode *inode = vvp_object_inode(obj);
+
+       cl_object_attr_unlock(obj);
+       ll_inode_size_unlock(inode);
+}
+
+/**
+ * Helper function that if necessary adjusts file size (inode->i_size), when
+ * position at the offset \a pos is accessed. File size can be arbitrary stale
+ * on a Lustre client, but client at least knows KMS. If accessed area is
+ * inside [0, KMS], set file size to KMS, otherwise glimpse file size.
+ *
+ * Locking: i_size_lock is used to serialize changes to inode size and to
+ * protect consistency between inode size and cl_object
+ * attributes. cl_object_size_lock() protects consistency between cl_attr's of
+ * top-object and sub-objects.
+ */
+static int vvp_prep_size(const struct lu_env *env, struct cl_object *obj,
+                        struct cl_io *io, loff_t start, size_t count,
+                        int *exceed)
+{
+       struct cl_attr *attr  = ccc_env_thread_attr(env);
+       struct inode   *inode = vvp_object_inode(obj);
+       loff_t          pos   = start + count - 1;
+       loff_t kms;
+       int result;
+
+       /*
+        * Consistency guarantees: following possibilities exist for the
+        * relation between region being accessed and real file size at this
+        * moment:
+        *
+        *  (A): the region is completely inside of the file;
+        *
+        *  (B-x): x bytes of region are inside of the file, the rest is
+        *  outside;
+        *
+        *  (C): the region is completely outside of the file.
+        *
+        * This classification is stable under DLM lock already acquired by
+        * the caller, because to change the class, other client has to take
+        * DLM lock conflicting with our lock. Also, any updates to ->i_size
+        * by other threads on this client are serialized by
+        * ll_inode_size_lock(). This guarantees that short reads are handled
+        * correctly in the face of concurrent writes and truncates.
+        */
+       vvp_object_size_lock(obj);
+       result = cl_object_attr_get(env, obj, attr);
+       if (result == 0) {
+               kms = attr->cat_kms;
+               if (pos > kms) {
+                       /*
+                        * A glimpse is necessary to determine whether we
+                        * return a short read (B) or some zeroes at the end
+                        * of the buffer (C)
+                        */
+                       vvp_object_size_unlock(obj);
+                       result = cl_glimpse_lock(env, io, inode, obj, 0);
+                       if (result == 0 && exceed != NULL) {
+                               /* If objective page index exceed end-of-file
+                                * page index, return directly. Do not expect
+                                * kernel will check such case correctly.
+                                * linux-2.6.18-128.1.1 miss to do that.
+                                * --bug 17336 */
+                               loff_t size = i_size_read(inode);
+                               unsigned long cur_index = start >>
+                                       PAGE_CACHE_SHIFT;
+
+                               if ((size == 0 && cur_index != 0) ||
+                                   (((size - 1) >> PAGE_CACHE_SHIFT) <
+                                    cur_index))
+                                       *exceed = 1;
+                       }
+
+                       return result;
+               } else {
+                       /*
+                        * region is within kms and, hence, within real file
+                        * size (A). We need to increase i_size to cover the
+                        * read region so that generic_file_read() will do its
+                        * job, but that doesn't mean the kms size is
+                        * _correct_, it is only the _minimum_ size. If
+                        * someone does a stat they will get the correct size
+                        * which will always be >= the kms value here.
+                        * b=11081
+                        */
+                       if (i_size_read(inode) < kms) {
+                               i_size_write(inode, kms);
+                               CDEBUG(D_VFSTRACE,
+                                      DFID" updating i_size "LPU64"\n",
+                                      PFID(lu_object_fid(&obj->co_lu)),
+                                      (__u64)i_size_read(inode));
+                       }
+               }
+       }
+
+       vvp_object_size_unlock(obj);
+
+       return result;
+}
+
 /*****************************************************************************
  *
  * io operations.
  *
  */
 
+static int vvp_io_one_lock_index(const struct lu_env *env, struct cl_io *io,
+                                __u32 enqflags, enum cl_lock_mode mode,
+                                pgoff_t start, pgoff_t end)
+{
+       struct vvp_io          *vio   = vvp_env_io(env);
+       struct cl_lock_descr   *descr = &vio->vui_link.cill_descr;
+       struct cl_object       *obj   = io->ci_obj;
+
+       CLOBINVRNT(env, obj, vvp_object_invariant(obj));
+       ENTRY;
+
+       CDEBUG(D_VFSTRACE, "lock: %d [%lu, %lu]\n", mode, start, end);
+
+       memset(&vio->vui_link, 0, sizeof vio->vui_link);
+
+       if (vio->vui_fd && (vio->vui_fd->fd_flags & LL_FILE_GROUP_LOCKED)) {
+               descr->cld_mode = CLM_GROUP;
+               descr->cld_gid  = vio->vui_fd->fd_grouplock.cg_gid;
+       } else {
+               descr->cld_mode  = mode;
+       }
+
+       descr->cld_obj   = obj;
+       descr->cld_start = start;
+       descr->cld_end   = end;
+       descr->cld_enq_flags = enqflags;
+
+       cl_io_lock_add(env, io, &vio->vui_link);
+
+       RETURN(0);
+}
+
+static int vvp_io_one_lock(const struct lu_env *env, struct cl_io *io,
+                          __u32 enqflags, enum cl_lock_mode mode,
+                          loff_t start, loff_t end)
+{
+       struct cl_object *obj = io->ci_obj;
+
+       return vvp_io_one_lock_index(env, io, enqflags, mode,
+                                    cl_index(obj, start), cl_index(obj, end));
+}
+
 static int vvp_io_write_iter_init(const struct lu_env *env,
                                  const struct cl_io_slice *ios)
 {
-       struct ccc_io *cio = cl2ccc_io(env, ios);
+       struct vvp_io *vio = cl2vvp_io(env, ios);
 
-       cl_page_list_init(&cio->u.write.cui_queue);
-       cio->u.write.cui_written = 0;
-       cio->u.write.cui_from = 0;
-       cio->u.write.cui_to = PAGE_SIZE;
+       cl_page_list_init(&vio->u.write.vui_queue);
+       vio->u.write.vui_written = 0;
+       vio->u.write.vui_from = 0;
+       vio->u.write.vui_to = PAGE_SIZE;
 
        return 0;
 }
@@ -116,28 +277,28 @@ static int vvp_io_write_iter_init(const struct lu_env *env,
 static void vvp_io_write_iter_fini(const struct lu_env *env,
                                   const struct cl_io_slice *ios)
 {
-       struct ccc_io *cio = cl2ccc_io(env, ios);
+       struct vvp_io *vio = cl2vvp_io(env, ios);
 
-       LASSERT(cio->u.write.cui_queue.pl_nr == 0);
+       LASSERT(vio->u.write.vui_queue.pl_nr == 0);
 }
 
 static int vvp_io_fault_iter_init(const struct lu_env *env,
                                   const struct cl_io_slice *ios)
 {
-        struct vvp_io *vio   = cl2vvp_io(env, ios);
+       struct vvp_io *vio   = cl2vvp_io(env, ios);
        struct inode  *inode = vvp_object_inode(ios->cis_obj);
 
-        LASSERT(inode ==
-                cl2ccc_io(env, ios)->cui_fd->fd_file->f_dentry->d_inode);
-        vio->u.fault.ft_mtime = LTIME_S(inode->i_mtime);
-        return 0;
+       LASSERT(inode == vio->vui_fd->fd_file->f_dentry->d_inode);
+       vio->u.fault.ft_mtime = LTIME_S(inode->i_mtime);
+
+       return 0;
 }
 
 static void vvp_io_fini(const struct lu_env *env, const struct cl_io_slice *ios)
 {
        struct cl_io     *io  = ios->cis_io;
        struct cl_object *obj = io->ci_obj;
-       struct ccc_io    *cio = cl2ccc_io(env, ios);
+       struct vvp_io    *vio = cl2vvp_io(env, ios);
        struct inode     *inode = vvp_object_inode(obj);
 
        CLOBINVRNT(env, obj, vvp_object_invariant(obj));
@@ -146,7 +307,7 @@ static void vvp_io_fini(const struct lu_env *env, const struct cl_io_slice *ios)
                           "restore needed %d\n",
               PFID(lu_object_fid(&obj->co_lu)),
               io->ci_ignore_layout, io->ci_verify_layout,
-              cio->cui_layout_gen, io->ci_restore_needed);
+              vio->vui_layout_gen, io->ci_restore_needed);
 
        if (io->ci_restore_needed == 1) {
                int     rc;
@@ -180,12 +341,12 @@ static void vvp_io_fini(const struct lu_env *env, const struct cl_io_slice *ios)
 
                /* check layout version */
                ll_layout_refresh(inode, &gen);
-               io->ci_need_restart = cio->cui_layout_gen != gen;
+               io->ci_need_restart = vio->vui_layout_gen != gen;
                if (io->ci_need_restart) {
                        CDEBUG(D_VFSTRACE,
                               DFID" layout changed from %d to %d.\n",
                               PFID(lu_object_fid(&obj->co_lu)),
-                              cio->cui_layout_gen, gen);
+                              vio->vui_layout_gen, gen);
                        /* today successful restore is the only possible
                         * case */
                        /* restore was done, clear restoring state */
@@ -224,7 +385,7 @@ static enum cl_lock_mode vvp_mode_from_vma(struct vm_area_struct *vma)
 }
 
 static int vvp_mmap_locks(const struct lu_env *env,
-                          struct ccc_io *vio, struct cl_io *io)
+                         struct vvp_io *vio, struct cl_io *io)
 {
         struct ccc_thread_info *cti = ccc_env_info(env);
         struct mm_struct       *mm = current->mm;
@@ -242,15 +403,15 @@ static int vvp_mmap_locks(const struct lu_env *env,
         if (!cl_is_normalio(env, io))
                 RETURN(0);
 
-        if (vio->cui_iov == NULL) /* nfs or loop back device write */
-                RETURN(0);
+       if (vio->vui_iov == NULL) /* nfs or loop back device write */
+               RETURN(0);
 
-        /* No MM (e.g. NFS)? No vmas too. */
-        if (mm == NULL)
-                RETURN(0);
+       /* No MM (e.g. NFS)? No vmas too. */
+       if (mm == NULL)
+               RETURN(0);
 
-        for (seg = 0; seg < vio->cui_nrsegs; seg++) {
-                const struct iovec *iv = &vio->cui_iov[seg];
+       for (seg = 0; seg < vio->vui_nrsegs; seg++) {
+               const struct iovec *iv = &vio->vui_iov[seg];
 
                 addr = (unsigned long)iv->iov_base;
                 count = iv->iov_len;
@@ -308,23 +469,94 @@ static int vvp_mmap_locks(const struct lu_env *env,
        RETURN(result);
 }
 
+static void vvp_io_advance(const struct lu_env *env,
+                          const struct cl_io_slice *ios,
+                          size_t nob)
+{
+       struct vvp_io    *vio = cl2vvp_io(env, ios);
+       struct cl_io     *io  = ios->cis_io;
+       struct cl_object *obj = ios->cis_io->ci_obj;
+
+       CLOBINVRNT(env, obj, vvp_object_invariant(obj));
+
+       if (!cl_is_normalio(env, io))
+               return;
+
+       LASSERT(vio->vui_tot_nrsegs >= vio->vui_nrsegs);
+       LASSERT(vio->vui_tot_count  >= nob);
+
+       vio->vui_iov        += vio->vui_nrsegs;
+       vio->vui_tot_nrsegs -= vio->vui_nrsegs;
+       vio->vui_tot_count  -= nob;
+
+       /* update the iov */
+       if (vio->vui_iov_olen > 0) {
+               struct iovec *iv;
+
+               vio->vui_iov--;
+               vio->vui_tot_nrsegs++;
+               iv = &vio->vui_iov[0];
+               if (io->ci_continue) {
+                       iv->iov_base += iv->iov_len;
+                       LASSERT(vio->vui_iov_olen > iv->iov_len);
+                       iv->iov_len = vio->vui_iov_olen - iv->iov_len;
+               } else {
+                       /* restore the iov_len, in case of restart io. */
+                       iv->iov_len = vio->vui_iov_olen;
+               }
+               vio->vui_iov_olen = 0;
+       }
+}
+
+static void vvp_io_update_iov(const struct lu_env *env,
+                             struct vvp_io *vio, struct cl_io *io)
+{
+       int i;
+       size_t size = io->u.ci_rw.crw_count;
+
+       vio->vui_iov_olen = 0;
+       if (!cl_is_normalio(env, io) || vio->vui_tot_nrsegs == 0)
+               return;
+
+       for (i = 0; i < vio->vui_tot_nrsegs; i++) {
+               struct iovec *iv = &vio->vui_iov[i];
+
+               if (iv->iov_len < size) {
+                       size -= iv->iov_len;
+               } else {
+                       if (iv->iov_len > size) {
+                               vio->vui_iov_olen = iv->iov_len;
+                               iv->iov_len = size;
+                       }
+                       break;
+               }
+       }
+
+       vio->vui_nrsegs = i + 1;
+       LASSERTF(vio->vui_tot_nrsegs >= vio->vui_nrsegs,
+                "tot_nrsegs: %lu, nrsegs: %lu\n",
+                vio->vui_tot_nrsegs, vio->vui_nrsegs);
+}
+
 static int vvp_io_rw_lock(const struct lu_env *env, struct cl_io *io,
                           enum cl_lock_mode mode, loff_t start, loff_t end)
 {
-        struct ccc_io *cio = ccc_env_io(env);
-        int result;
-        int ast_flags = 0;
+       struct vvp_io *vio = vvp_env_io(env);
+       int result;
+       int ast_flags = 0;
 
-        LASSERT(io->ci_type == CIT_READ || io->ci_type == CIT_WRITE);
-        ENTRY;
+       LASSERT(io->ci_type == CIT_READ || io->ci_type == CIT_WRITE);
+       ENTRY;
+
+       vvp_io_update_iov(env, vio, io);
+
+       if (io->u.ci_rw.crw_nonblock)
+               ast_flags |= CEF_NONBLOCK;
 
-        ccc_io_update_iov(env, cio, io);
+       result = vvp_mmap_locks(env, vio, io);
+       if (result == 0)
+               result = vvp_io_one_lock(env, io, ast_flags, mode, start, end);
 
-        if (io->u.ci_rw.crw_nonblock)
-                ast_flags |= CEF_NONBLOCK;
-        result = vvp_mmap_locks(env, cio, io);
-        if (result == 0)
-                result = ccc_io_one_lock(env, io, ast_flags, mode, start, end);
         RETURN(result);
 }
 
@@ -349,9 +581,11 @@ static int vvp_io_fault_lock(const struct lu_env *env,
         /*
          * XXX LDLM_FL_CBPENDING
          */
-        return ccc_io_one_lock_index
-                (env, io, 0, vvp_mode_from_vma(vio->u.fault.ft_vma),
-                 io->u.ci_fault.ft_index, io->u.ci_fault.ft_index);
+       return vvp_io_one_lock_index(env,
+                                    io, 0,
+                                    vvp_mode_from_vma(vio->u.fault.ft_vma),
+                                    io->u.ci_fault.ft_index,
+                                    io->u.ci_fault.ft_index);
 }
 
 static int vvp_io_write_lock(const struct lu_env *env,
@@ -385,7 +619,7 @@ static int vvp_io_setattr_iter_init(const struct lu_env *env,
 static int vvp_io_setattr_lock(const struct lu_env *env,
                                const struct cl_io_slice *ios)
 {
-       struct ccc_io *cio = ccc_env_io(env);
+       struct vvp_io *vio = vvp_env_io(env);
        struct cl_io  *io  = ios->cis_io;
        __u64 new_size;
        __u32 enqflags = 0;
@@ -402,9 +636,11 @@ static int vvp_io_setattr_lock(const struct lu_env *env,
                         return 0;
                 new_size = 0;
         }
-        cio->u.setattr.cui_local_lock = SETATTR_EXTENT_LOCK;
-        return ccc_io_one_lock(env, io, enqflags, CLM_WRITE,
-                               new_size, OBD_OBJECT_EOF);
+
+       vio->u.setattr.vui_local_lock = SETATTR_EXTENT_LOCK;
+
+       return vvp_io_one_lock(env, io, enqflags, CLM_WRITE,
+                              new_size, OBD_OBJECT_EOF);
 }
 
 static int vvp_do_vmtruncate(struct inode *inode, size_t size)
@@ -454,10 +690,10 @@ static int vvp_io_setattr_time(const struct lu_env *env,
                 attr->cat_mtime = io->u.ci_setattr.sa_attr.lvb_mtime;
                 valid |= CAT_MTIME;
         }
-        result = cl_object_attr_set(env, obj, attr, valid);
-        cl_object_attr_unlock(obj);
+       result = cl_object_attr_update(env, obj, attr, valid);
+       cl_object_attr_unlock(obj);
 
-        return result;
+       return result;
 }
 
 static int vvp_io_setattr_start(const struct lu_env *env,
@@ -498,20 +734,18 @@ static void vvp_io_setattr_fini(const struct lu_env *env,
 }
 
 static int vvp_io_read_start(const struct lu_env *env,
-                             const struct cl_io_slice *ios)
+                            const struct cl_io_slice *ios)
 {
-        struct vvp_io     *vio   = cl2vvp_io(env, ios);
-        struct ccc_io     *cio   = cl2ccc_io(env, ios);
-        struct cl_io      *io    = ios->cis_io;
-        struct cl_object  *obj   = io->ci_obj;
+       struct vvp_io     *vio   = cl2vvp_io(env, ios);
+       struct cl_io      *io    = ios->cis_io;
+       struct cl_object  *obj   = io->ci_obj;
        struct inode      *inode = vvp_object_inode(obj);
-        struct ll_ra_read *bead  = &vio->cui_bead;
-        struct file       *file  = cio->cui_fd->fd_file;
+       struct file       *file  = vio->vui_fd->fd_file;
 
-        int     result;
-        loff_t  pos = io->u.ci_rd.rd.crw_pos;
-        long    cnt = io->u.ci_rd.rd.crw_count;
-        long    tot = cio->cui_tot_count;
+       int     result;
+       loff_t  pos = io->u.ci_rd.rd.crw_pos;
+       long    cnt = io->u.ci_rd.rd.crw_count;
+       long    tot = vio->vui_tot_count;
         int     exceed = 0;
 
        CLOBINVRNT(env, obj, vvp_object_invariant(obj));
@@ -521,7 +755,7 @@ static int vvp_io_read_start(const struct lu_env *env,
        if (!can_populate_pages(env, io, inode))
                return 0;
 
-        result = ccc_prep_size(env, obj, io, pos, tot, &exceed);
+       result = vvp_prep_size(env, obj, io, pos, tot, &exceed);
         if (result != 0)
                 return result;
         else if (exceed != 0)
@@ -531,46 +765,46 @@ static int vvp_io_read_start(const struct lu_env *env,
                         "Read ino %lu, %lu bytes, offset %lld, size %llu\n",
                         inode->i_ino, cnt, pos, i_size_read(inode));
 
-        /* turn off the kernel's read-ahead */
-        cio->cui_fd->fd_file->f_ra.ra_pages = 0;
+       /* turn off the kernel's read-ahead */
+       vio->vui_fd->fd_file->f_ra.ra_pages = 0;
 
-        /* initialize read-ahead window once per syscall */
-        if (!vio->cui_ra_window_set) {
-                vio->cui_ra_window_set = 1;
-                bead->lrr_start = cl_index(obj, pos);
-               bead->lrr_count = cl_index(obj, tot + PAGE_CACHE_SIZE - 1);
-                ll_ra_read_in(file, bead);
-        }
+       /* initialize read-ahead window once per syscall */
+       if (!vio->vui_ra_valid) {
+               vio->vui_ra_valid = true;
+               vio->vui_ra_start = cl_index(obj, pos);
+               vio->vui_ra_count = cl_index(obj, tot + PAGE_CACHE_SIZE - 1);
+               ll_ras_enter(file);
+       }
 
-        /* BUG: 5972 */
-        file_accessed(file);
-        switch (vio->cui_io_subtype) {
-        case IO_NORMAL:
-               LASSERT(cio->cui_iocb->ki_pos == pos);
-               result = generic_file_aio_read(cio->cui_iocb,
-                                              cio->cui_iov, cio->cui_nrsegs,
-                                              cio->cui_iocb->ki_pos);
+       /* BUG: 5972 */
+       file_accessed(file);
+       switch (vio->vui_io_subtype) {
+       case IO_NORMAL:
+               LASSERT(vio->vui_iocb->ki_pos == pos);
+               result = generic_file_aio_read(vio->vui_iocb,
+                                              vio->vui_iov, vio->vui_nrsegs,
+                                              vio->vui_iocb->ki_pos);
                break;
-        case IO_SPLICE:
-                result = generic_file_splice_read(file, &pos,
-                                vio->u.splice.cui_pipe, cnt,
-                                vio->u.splice.cui_flags);
-                /* LU-1109: do splice read stripe by stripe otherwise if it
-                 * may make nfsd stuck if this read occupied all internal pipe
-                 * buffers. */
-                io->ci_continue = 0;
-                break;
-        default:
-                CERROR("Wrong IO type %u\n", vio->cui_io_subtype);
-                LBUG();
-        }
+       case IO_SPLICE:
+               result = generic_file_splice_read(file, &pos,
+                                                 vio->u.splice.vui_pipe, cnt,
+                                                 vio->u.splice.vui_flags);
+               /* LU-1109: do splice read stripe by stripe otherwise if it
+                * may make nfsd stuck if this read occupied all internal pipe
+                * buffers. */
+               io->ci_continue = 0;
+               break;
+       default:
+               CERROR("Wrong IO type %u\n", vio->vui_io_subtype);
+               LBUG();
+       }
 
 out:
        if (result >= 0) {
                if (result < cnt)
                        io->ci_continue = 0;
                io->ci_nob += result;
-               ll_rw_stats_tally(ll_i2sbi(inode), current->pid, cio->cui_fd,
+               ll_rw_stats_tally(ll_i2sbi(inode), current->pid, vio->vui_fd,
                                  pos, result, READ);
                result = 0;
        }
@@ -578,17 +812,6 @@ out:
        return result;
 }
 
-static void vvp_io_read_fini(const struct lu_env *env, const struct cl_io_slice *ios)
-{
-       struct vvp_io *vio = cl2vvp_io(env, ios);
-       struct ccc_io *cio = cl2ccc_io(env, ios);
-
-       if (vio->cui_ra_window_set)
-               ll_ra_read_ex(cio->cui_fd->fd_file, &vio->cui_bead);
-
-       vvp_io_fini(env, ios);
-}
-
 static int vvp_io_commit_sync(const struct lu_env *env, struct cl_io *io,
                              struct cl_page_list *plist, int from, int to)
 {
@@ -696,25 +919,25 @@ int vvp_io_write_commit(const struct lu_env *env, struct cl_io *io)
 {
        struct cl_object *obj = io->ci_obj;
        struct inode *inode = vvp_object_inode(obj);
-       struct ccc_io *cio = ccc_env_io(env);
-       struct cl_page_list *queue = &cio->u.write.cui_queue;
+       struct vvp_io *vio = vvp_env_io(env);
+       struct cl_page_list *queue = &vio->u.write.vui_queue;
        struct cl_page *page;
        int rc = 0;
        int bytes = 0;
-       unsigned int npages = cio->u.write.cui_queue.pl_nr;
+       unsigned int npages = vio->u.write.vui_queue.pl_nr;
        ENTRY;
 
        if (npages == 0)
                RETURN(0);
 
        CDEBUG(D_VFSTRACE, "commit async pages: %d, from %d, to %d\n",
-               npages, cio->u.write.cui_from, cio->u.write.cui_to);
+               npages, vio->u.write.vui_from, vio->u.write.vui_to);
 
        LASSERT(page_list_sanity_check(obj, queue));
 
        /* submit IO with async write */
        rc = cl_io_commit_async(env, io, queue,
-                               cio->u.write.cui_from, cio->u.write.cui_to,
+                               vio->u.write.vui_from, vio->u.write.vui_to,
                                write_commit_callback);
        npages -= queue->pl_nr; /* already committed pages */
        if (npages > 0) {
@@ -722,18 +945,18 @@ int vvp_io_write_commit(const struct lu_env *env, struct cl_io *io)
                bytes = npages << PAGE_SHIFT;
 
                /* first page */
-               bytes -= cio->u.write.cui_from;
+               bytes -= vio->u.write.vui_from;
                if (queue->pl_nr == 0) /* last page */
-                       bytes -= PAGE_SIZE - cio->u.write.cui_to;
+                       bytes -= PAGE_SIZE - vio->u.write.vui_to;
                LASSERTF(bytes > 0, "bytes = %d, pages = %d\n", bytes, npages);
 
-               cio->u.write.cui_written += bytes;
+               vio->u.write.vui_written += bytes;
 
                CDEBUG(D_VFSTRACE, "Committed %d pages %d bytes, tot: %ld\n",
-                       npages, bytes, cio->u.write.cui_written);
+                       npages, bytes, vio->u.write.vui_written);
 
                /* the first page must have been written. */
-               cio->u.write.cui_from = 0;
+               vio->u.write.vui_from = 0;
        }
        LASSERT(page_list_sanity_check(obj, queue));
        LASSERT(ergo(rc == 0, queue->pl_nr == 0));
@@ -741,10 +964,10 @@ int vvp_io_write_commit(const struct lu_env *env, struct cl_io *io)
        /* out of quota, try sync write */
        if (rc == -EDQUOT && !cl_io_is_mkwrite(io)) {
                rc = vvp_io_commit_sync(env, io, queue,
-                                       cio->u.write.cui_from,
-                                       cio->u.write.cui_to);
+                                       vio->u.write.vui_from,
+                                       vio->u.write.vui_to);
                if (rc > 0) {
-                       cio->u.write.cui_written += rc;
+                       vio->u.write.vui_written += rc;
                        rc = 0;
                }
        }
@@ -775,7 +998,7 @@ int vvp_io_write_commit(const struct lu_env *env, struct cl_io *io)
 static int vvp_io_write_start(const struct lu_env *env,
                               const struct cl_io_slice *ios)
 {
-        struct ccc_io      *cio   = cl2ccc_io(env, ios);
+       struct vvp_io      *vio   = cl2vvp_io(env, ios);
         struct cl_io       *io    = ios->cis_io;
         struct cl_object   *obj   = io->ci_obj;
        struct inode       *inode = vvp_object_inode(obj);
@@ -788,21 +1011,21 @@ static int vvp_io_write_start(const struct lu_env *env,
        if (!can_populate_pages(env, io, inode))
                RETURN(0);
 
-        if (cl_io_is_append(io)) {
-                /*
-                 * PARALLEL IO This has to be changed for parallel IO doing
-                 * out-of-order writes.
-                 */
+       if (cl_io_is_append(io)) {
+               /*
+                * PARALLEL IO This has to be changed for parallel IO doing
+                * out-of-order writes.
+                */
                ll_merge_attr(env, inode);
-                pos = io->u.ci_wr.wr.crw_pos = i_size_read(inode);
-                cio->cui_iocb->ki_pos = pos;
-        } else {
-               LASSERT(cio->cui_iocb->ki_pos == pos);
+               pos = io->u.ci_wr.wr.crw_pos = i_size_read(inode);
+               vio->vui_iocb->ki_pos = pos;
+       } else {
+               LASSERT(vio->vui_iocb->ki_pos == pos);
        }
 
        CDEBUG(D_VFSTRACE, "write: [%lli, %lli)\n", pos, pos + (long long)cnt);
 
-       if (cio->cui_iov == NULL) {
+       if (vio->vui_iov == NULL) {
                /* from a temp io in ll_cl_init(). */
                result = 0;
        } else {
@@ -814,13 +1037,13 @@ static int vvp_io_write_start(const struct lu_env *env,
                 * consistency, proper locking to protect against writes,
                 * trucates, etc. is handled in the higher layers of lustre.
                 */
-               result = __generic_file_aio_write(cio->cui_iocb,
-                                                 cio->cui_iov, cio->cui_nrsegs,
-                                                 &cio->cui_iocb->ki_pos);
+               result = __generic_file_aio_write(vio->vui_iocb,
+                                                 vio->vui_iov, vio->vui_nrsegs,
+                                                 &vio->vui_iocb->ki_pos);
                if (result > 0 || result == -EIOCBQUEUED) {
                        ssize_t err;
 
-                       err = generic_write_sync(cio->cui_iocb->ki_filp,
+                       err = generic_write_sync(vio->vui_iocb->ki_filp,
                                                 pos, result);
                        if (err < 0 && result > 0)
                                result = err;
@@ -829,8 +1052,8 @@ static int vvp_io_write_start(const struct lu_env *env,
        }
        if (result > 0) {
                result = vvp_io_write_commit(env, io);
-               if (cio->u.write.cui_written > 0) {
-                       result = cio->u.write.cui_written;
+               if (vio->u.write.vui_written > 0) {
+                       result = vio->u.write.vui_written;
                        io->ci_nob += result;
 
                        CDEBUG(D_VFSTRACE, "write: nob %zd, result: %zd\n",
@@ -847,7 +1070,7 @@ static int vvp_io_write_start(const struct lu_env *env,
                if (result < cnt)
                        io->ci_continue = 0;
                ll_rw_stats_tally(ll_i2sbi(inode), current->pid,
-                                 cio->cui_fd, pos, result, WRITE);
+                                 vio->vui_fd, pos, result, WRITE);
                result = 0;
        }
 
@@ -856,38 +1079,40 @@ static int vvp_io_write_start(const struct lu_env *env,
 
 static int vvp_io_kernel_fault(struct vvp_fault_io *cfio)
 {
-        struct vm_fault *vmf = cfio->fault.ft_vmf;
+       struct vm_fault *vmf = cfio->ft_vmf;
 
-        cfio->fault.ft_flags = filemap_fault(cfio->ft_vma, vmf);
-       cfio->fault.ft_flags_valid = 1;
+       cfio->ft_flags = filemap_fault(cfio->ft_vma, vmf);
+       cfio->ft_flags_valid = 1;
 
-        if (vmf->page) {
-                LL_CDEBUG_PAGE(D_PAGE, vmf->page, "got addr %p type NOPAGE\n",
-                               vmf->virtual_address);
-                if (unlikely(!(cfio->fault.ft_flags & VM_FAULT_LOCKED))) {
-                        lock_page(vmf->page);
-                       cfio->fault.ft_flags |= VM_FAULT_LOCKED;
-                }
+       if (vmf->page) {
+               LL_CDEBUG_PAGE(D_PAGE, vmf->page, "got addr %p type NOPAGE\n",
+                              vmf->virtual_address);
+               if (unlikely(!(cfio->ft_flags & VM_FAULT_LOCKED))) {
+                       lock_page(vmf->page);
+                       cfio->ft_flags |= VM_FAULT_LOCKED;
+               }
 
-                cfio->ft_vmpage = vmf->page;
-                return 0;
-        }
+               cfio->ft_vmpage = vmf->page;
 
-        if (cfio->fault.ft_flags & VM_FAULT_SIGBUS) {
-                CDEBUG(D_PAGE, "got addr %p - SIGBUS\n", vmf->virtual_address);
-                return -EFAULT;
-        }
+               return 0;
+       }
 
-        if (cfio->fault.ft_flags & VM_FAULT_OOM) {
-                CDEBUG(D_PAGE, "got addr %p - OOM\n", vmf->virtual_address);
-                return -ENOMEM;
-        }
+       if (cfio->ft_flags & VM_FAULT_SIGBUS) {
+               CDEBUG(D_PAGE, "got addr %p - SIGBUS\n", vmf->virtual_address);
+               return -EFAULT;
+       }
 
-        if (cfio->fault.ft_flags & VM_FAULT_RETRY)
-                return -EAGAIN;
+       if (cfio->ft_flags & VM_FAULT_OOM) {
+               CDEBUG(D_PAGE, "got addr %p - OOM\n", vmf->virtual_address);
+               return -ENOMEM;
+       }
+
+       if (cfio->ft_flags & VM_FAULT_RETRY)
+               return -EAGAIN;
+
+       CERROR("unknown error in page fault %d\n", cfio->ft_flags);
 
-        CERROR("unknow error in page fault %d!\n", cfio->fault.ft_flags);
-        return -EINVAL;
+       return -EINVAL;
 }
 
 static void mkwrite_commit_callback(const struct lu_env *env, struct cl_io *io,
@@ -928,7 +1153,7 @@ static int vvp_io_fault_start(const struct lu_env *env,
         /* offset of the last byte on the page */
         offset = cl_offset(obj, fio->ft_index + 1) - 1;
         LASSERT(cl_index(obj, offset) == fio->ft_index);
-        result = ccc_prep_size(env, obj, io, 0, offset + 1, NULL);
+       result = vvp_prep_size(env, obj, io, 0, offset + 1, NULL);
        if (result != 0)
                RETURN(result);
 
@@ -1059,7 +1284,9 @@ out:
        /* return unlocked vmpage to avoid deadlocking */
        if (vmpage != NULL)
                unlock_page(vmpage);
-       cfio->fault.ft_flags &= ~VM_FAULT_LOCKED;
+
+       cfio->ft_flags &= ~VM_FAULT_LOCKED;
+
        return result;
 }
 
@@ -1081,7 +1308,7 @@ static int vvp_io_read_page(const struct lu_env *env,
        struct cl_page            *page   = slice->cpl_page;
        struct inode              *inode  = vvp_object_inode(slice->cpl_obj);
        struct ll_sb_info         *sbi    = ll_i2sbi(inode);
-       struct ll_file_data       *fd     = cl2ccc_io(env, ios)->cui_fd;
+       struct ll_file_data       *fd     = cl2vvp_io(env, ios)->vui_fd;
        struct ll_readahead_state *ras    = &fd->fd_ras;
        struct cl_2queue          *queue  = &io->ci_queue;
 
@@ -1110,21 +1337,27 @@ static int vvp_io_read_page(const struct lu_env *env,
        RETURN(0);
 }
 
+static void vvp_io_end(const struct lu_env *env, const struct cl_io_slice *ios)
+{
+       CLOBINVRNT(env, ios->cis_io->ci_obj,
+                  vvp_object_invariant(ios->cis_io->ci_obj));
+}
+
 static const struct cl_io_operations vvp_io_ops = {
-        .op = {
-                [CIT_READ] = {
-                        .cio_fini      = vvp_io_read_fini,
-                        .cio_lock      = vvp_io_read_lock,
-                        .cio_start     = vvp_io_read_start,
-                        .cio_advance   = ccc_io_advance
-                },
+       .op = {
+               [CIT_READ] = {
+                       .cio_fini       = vvp_io_fini,
+                       .cio_lock       = vvp_io_read_lock,
+                       .cio_start      = vvp_io_read_start,
+                       .cio_advance    = vvp_io_advance,
+               },
                 [CIT_WRITE] = {
                        .cio_fini      = vvp_io_fini,
                        .cio_iter_init = vvp_io_write_iter_init,
                        .cio_iter_fini = vvp_io_write_iter_fini,
                        .cio_lock      = vvp_io_write_lock,
                        .cio_start     = vvp_io_write_start,
-                       .cio_advance   = ccc_io_advance
+                       .cio_advance   = vvp_io_advance,
                 },
                 [CIT_SETATTR] = {
                         .cio_fini       = vvp_io_setattr_fini,
@@ -1138,7 +1371,7 @@ static const struct cl_io_operations vvp_io_ops = {
                         .cio_iter_init = vvp_io_fault_iter_init,
                         .cio_lock      = vvp_io_fault_lock,
                         .cio_start     = vvp_io_fault_start,
-                        .cio_end       = ccc_io_end
+                       .cio_end       = vvp_io_end,
                 },
                [CIT_FSYNC] = {
                        .cio_start  = vvp_io_fsync_start,
@@ -1155,22 +1388,21 @@ int vvp_io_init(const struct lu_env *env, struct cl_object *obj,
                 struct cl_io *io)
 {
        struct vvp_io      *vio   = vvp_env_io(env);
-       struct ccc_io      *cio   = ccc_env_io(env);
        struct inode       *inode = vvp_object_inode(obj);
-        int                 result;
+       int                 result;
 
        CLOBINVRNT(env, obj, vvp_object_invariant(obj));
-        ENTRY;
+       ENTRY;
 
        CDEBUG(D_VFSTRACE, DFID" ignore/verify layout %d/%d, layout version %d "
-                          "restore needed %d\n",
+              "restore needed %d\n",
               PFID(lu_object_fid(&obj->co_lu)),
               io->ci_ignore_layout, io->ci_verify_layout,
-              cio->cui_layout_gen, io->ci_restore_needed);
+              vio->vui_layout_gen, io->ci_restore_needed);
 
-        CL_IO_SLICE_CLEAN(cio, cui_cl);
-        cl_io_slice_add(io, &cio->cui_cl, obj, &vvp_io_ops);
-        vio->cui_ra_window_set = 0;
+       CL_IO_SLICE_CLEAN(vio, vui_cl);
+       cl_io_slice_add(io, &vio->vui_cl, obj, &vvp_io_ops);
+       vio->vui_ra_valid = false;
        result = 0;
        if (io->ci_type == CIT_READ || io->ci_type == CIT_WRITE) {
                size_t count;
@@ -1181,10 +1413,10 @@ int vvp_io_init(const struct lu_env *env, struct cl_object *obj,
                  *  results."  -- Single Unix Spec */
                 if (count == 0)
                         result = 1;
-                else {
-                        cio->cui_tot_count = count;
-                        cio->cui_tot_nrsegs = 0;
-                }
+               else {
+                       vio->vui_tot_count = count;
+                       vio->vui_tot_nrsegs = 0;
+               }
 
                /* for read/write, we store the jobid in the inode, and
                 * it'll be fetched by osc when building RPC.
@@ -1208,7 +1440,7 @@ int vvp_io_init(const struct lu_env *env, struct cl_object *obj,
         * even for operations requiring to open file, such as read and write,
         * because it might not grant layout lock in IT_OPEN. */
        if (result == 0 && !io->ci_ignore_layout) {
-               result = ll_layout_refresh(inode, &cio->cui_layout_gen);
+               result = ll_layout_refresh(inode, &vio->vui_layout_gen);
                if (result == -ENOENT)
                        /* If the inode on MDS has been removed, but the objects
                         * on OSTs haven't been destroyed (async unlink), layout
@@ -1223,11 +1455,3 @@ int vvp_io_init(const struct lu_env *env, struct cl_object *obj,
 
        RETURN(result);
 }
-
-static struct vvp_io *cl2vvp_io(const struct lu_env *env,
-                                const struct cl_io_slice *slice)
-{
-        /* Caling just for assertion */
-        cl2ccc_io(env, slice);
-        return vvp_env_io(env);
-}