Whamcloud - gitweb
LU-7198 clio: remove mtime check in vvp_io_fault_start()
[fs/lustre-release.git] / lustre / llite / vvp_io.c
index 9cf8687..a076e5a 100644 (file)
@@ -27,7 +27,7 @@
  * Copyright (c) 2008, 2010, Oracle and/or its affiliates. All rights reserved.
  * Use is subject to license terms.
  *
- * Copyright (c) 2011, 2014, Intel Corporation.
+ * Copyright (c) 2011, 2015, Intel Corporation.
  */
 /*
  * This file is part of Lustre, http://www.lustre.org/
 #include "llite_internal.h"
 #include "vvp_internal.h"
 
+static struct vvp_io *cl2vvp_io(const struct lu_env *env,
+                               const struct cl_io_slice *slice)
+{
+       struct vvp_io *vio;
+
+       vio = container_of(slice, struct vvp_io, vui_cl);
+       LASSERT(vio == vvp_env_io(env));
+
+       return vio;
+}
+
 /**
  * True, if \a io is a normal io, False for splice_{read,write}
  */
-int cl_is_normalio(const struct lu_env *env, const struct cl_io *io)
+static int cl_is_normalio(const struct lu_env *env, const struct cl_io *io)
 {
        struct vvp_io *vio = vvp_env_io(env);
 
@@ -76,9 +87,10 @@ static bool can_populate_pages(const struct lu_env *env, struct cl_io *io,
        case CIT_WRITE:
                /* don't need lock here to check lli_layout_gen as we have held
                 * extent lock and GROUP lock has to hold to swap layout */
-               if (ll_layout_version_get(lli) != vio->vui_layout_gen) {
+               if (ll_layout_version_get(lli) != vio->vui_layout_gen ||
+                   OBD_FAIL_CHECK_RESET(OBD_FAIL_LLITE_LOST_LAYOUT, 0)) {
                        io->ci_need_restart = 1;
-                       /* this will return application a short read/write */
+                       /* this will cause a short read/write */
                        io->ci_continue = 0;
                        rc = false;
                }
@@ -91,12 +103,166 @@ static bool can_populate_pages(const struct lu_env *env, struct cl_io *io,
        return rc;
 }
 
+static void vvp_object_size_lock(struct cl_object *obj)
+{
+       struct inode *inode = vvp_object_inode(obj);
+
+       ll_inode_size_lock(inode);
+       cl_object_attr_lock(obj);
+}
+
+static void vvp_object_size_unlock(struct cl_object *obj)
+{
+       struct inode *inode = vvp_object_inode(obj);
+
+       cl_object_attr_unlock(obj);
+       ll_inode_size_unlock(inode);
+}
+
+/**
+ * Helper function that if necessary adjusts file size (inode->i_size), when
+ * position at the offset \a pos is accessed. File size can be arbitrary stale
+ * on a Lustre client, but client at least knows KMS. If accessed area is
+ * inside [0, KMS], set file size to KMS, otherwise glimpse file size.
+ *
+ * Locking: i_size_lock is used to serialize changes to inode size and to
+ * protect consistency between inode size and cl_object
+ * attributes. cl_object_size_lock() protects consistency between cl_attr's of
+ * top-object and sub-objects.
+ */
+static int vvp_prep_size(const struct lu_env *env, struct cl_object *obj,
+                        struct cl_io *io, loff_t start, size_t count,
+                        int *exceed)
+{
+       struct cl_attr *attr  = vvp_env_thread_attr(env);
+       struct inode   *inode = vvp_object_inode(obj);
+       loff_t          pos   = start + count - 1;
+       loff_t kms;
+       int result;
+
+       /*
+        * Consistency guarantees: following possibilities exist for the
+        * relation between region being accessed and real file size at this
+        * moment:
+        *
+        *  (A): the region is completely inside of the file;
+        *
+        *  (B-x): x bytes of region are inside of the file, the rest is
+        *  outside;
+        *
+        *  (C): the region is completely outside of the file.
+        *
+        * This classification is stable under DLM lock already acquired by
+        * the caller, because to change the class, other client has to take
+        * DLM lock conflicting with our lock. Also, any updates to ->i_size
+        * by other threads on this client are serialized by
+        * ll_inode_size_lock(). This guarantees that short reads are handled
+        * correctly in the face of concurrent writes and truncates.
+        */
+       vvp_object_size_lock(obj);
+       result = cl_object_attr_get(env, obj, attr);
+       if (result == 0) {
+               kms = attr->cat_kms;
+               if (pos > kms) {
+                       /*
+                        * A glimpse is necessary to determine whether we
+                        * return a short read (B) or some zeroes at the end
+                        * of the buffer (C)
+                        */
+                       vvp_object_size_unlock(obj);
+                       result = cl_glimpse_lock(env, io, inode, obj, 0);
+                       if (result == 0 && exceed != NULL) {
+                               /* If objective page index exceed end-of-file
+                                * page index, return directly. Do not expect
+                                * kernel will check such case correctly.
+                                * linux-2.6.18-128.1.1 miss to do that.
+                                * --bug 17336 */
+                               loff_t size = i_size_read(inode);
+                               unsigned long cur_index = start >>
+                                       PAGE_CACHE_SHIFT;
+
+                               if ((size == 0 && cur_index != 0) ||
+                                   (((size - 1) >> PAGE_CACHE_SHIFT) <
+                                    cur_index))
+                                       *exceed = 1;
+                       }
+
+                       return result;
+               } else {
+                       /*
+                        * region is within kms and, hence, within real file
+                        * size (A). We need to increase i_size to cover the
+                        * read region so that generic_file_read() will do its
+                        * job, but that doesn't mean the kms size is
+                        * _correct_, it is only the _minimum_ size. If
+                        * someone does a stat they will get the correct size
+                        * which will always be >= the kms value here.
+                        * b=11081
+                        */
+                       if (i_size_read(inode) < kms) {
+                               i_size_write(inode, kms);
+                               CDEBUG(D_VFSTRACE,
+                                      DFID" updating i_size "LPU64"\n",
+                                      PFID(lu_object_fid(&obj->co_lu)),
+                                      (__u64)i_size_read(inode));
+                       }
+               }
+       }
+
+       vvp_object_size_unlock(obj);
+
+       return result;
+}
+
 /*****************************************************************************
  *
  * io operations.
  *
  */
 
+static int vvp_io_one_lock_index(const struct lu_env *env, struct cl_io *io,
+                                __u32 enqflags, enum cl_lock_mode mode,
+                                pgoff_t start, pgoff_t end)
+{
+       struct vvp_io          *vio   = vvp_env_io(env);
+       struct cl_lock_descr   *descr = &vio->vui_link.cill_descr;
+       struct cl_object       *obj   = io->ci_obj;
+
+       CLOBINVRNT(env, obj, vvp_object_invariant(obj));
+       ENTRY;
+
+       CDEBUG(D_VFSTRACE, "lock: %d [%lu, %lu]\n", mode, start, end);
+
+       memset(&vio->vui_link, 0, sizeof vio->vui_link);
+
+       if (vio->vui_fd && (vio->vui_fd->fd_flags & LL_FILE_GROUP_LOCKED)) {
+               descr->cld_mode = CLM_GROUP;
+               descr->cld_gid  = vio->vui_fd->fd_grouplock.lg_gid;
+               enqflags |= CEF_LOCK_MATCH;
+       } else {
+               descr->cld_mode  = mode;
+       }
+
+       descr->cld_obj   = obj;
+       descr->cld_start = start;
+       descr->cld_end   = end;
+       descr->cld_enq_flags = enqflags;
+
+       cl_io_lock_add(env, io, &vio->vui_link);
+
+       RETURN(0);
+}
+
+static int vvp_io_one_lock(const struct lu_env *env, struct cl_io *io,
+                          __u32 enqflags, enum cl_lock_mode mode,
+                          loff_t start, loff_t end)
+{
+       struct cl_object *obj = io->ci_obj;
+
+       return vvp_io_one_lock_index(env, io, enqflags, mode,
+                                    cl_index(obj, start), cl_index(obj, end));
+}
+
 static int vvp_io_write_iter_init(const struct lu_env *env,
                                  const struct cl_io_slice *ios)
 {
@@ -124,7 +290,7 @@ static int vvp_io_fault_iter_init(const struct lu_env *env,
        struct vvp_io *vio   = cl2vvp_io(env, ios);
        struct inode  *inode = vvp_object_inode(ios->cis_obj);
 
-       LASSERT(inode == vio->vui_fd->fd_file->f_dentry->d_inode);
+       LASSERT(inode == vio->vui_fd->fd_file->f_path.dentry->d_inode);
        vio->u.fault.ft_mtime = LTIME_S(inode->i_mtime);
 
        return 0;
@@ -145,7 +311,7 @@ static void vvp_io_fini(const struct lu_env *env, const struct cl_io_slice *ios)
               io->ci_ignore_layout, io->ci_verify_layout,
               vio->vui_layout_gen, io->ci_restore_needed);
 
-       if (io->ci_restore_needed == 1) {
+       if (io->ci_restore_needed) {
                int     rc;
 
                /* file was detected release, we need to restore it
@@ -155,7 +321,7 @@ static void vvp_io_fini(const struct lu_env *env, const struct cl_io_slice *ios)
                /* if restore registration failed, no restart,
                 * we will return -ENODATA */
                /* The layout will change after restore, so we need to
-                * block on layout lock hold by the MDT
+                * block on layout lock held by the MDT
                 * as MDT will not send new layout in lvb (see LU-3124)
                 * we have to explicitly fetch it, all this will be done
                 * by ll_layout_refresh()
@@ -186,8 +352,8 @@ static void vvp_io_fini(const struct lu_env *env, const struct cl_io_slice *ios)
                        /* today successful restore is the only possible
                         * case */
                        /* restore was done, clear restoring state */
-                       ll_i2info(vvp_object_inode(obj))->lli_flags &=
-                               ~LLIF_FILE_RESTORING;
+                       ll_file_clear_flag(ll_i2info(vvp_object_inode(obj)),
+                                          LLIF_FILE_RESTORING);
                }
        }
 }
@@ -223,43 +389,52 @@ static enum cl_lock_mode vvp_mode_from_vma(struct vm_area_struct *vma)
 static int vvp_mmap_locks(const struct lu_env *env,
                          struct vvp_io *vio, struct cl_io *io)
 {
-        struct ccc_thread_info *cti = ccc_env_info(env);
-        struct mm_struct       *mm = current->mm;
-        struct vm_area_struct  *vma;
-        struct cl_lock_descr   *descr = &cti->cti_descr;
-        ldlm_policy_data_t      policy;
-        unsigned long           addr;
-        unsigned long           seg;
-        ssize_t                 count;
-       int                     result = 0;
-        ENTRY;
-
-        LASSERT(io->ci_type == CIT_READ || io->ci_type == CIT_WRITE);
-
-        if (!cl_is_normalio(env, io))
-                RETURN(0);
-
-       if (vio->vui_iov == NULL) /* nfs or loop back device write */
+       struct vvp_thread_info *vti = vvp_env_info(env);
+       struct mm_struct *mm = current->mm;
+       struct vm_area_struct *vma;
+       struct cl_lock_descr *descr = &vti->vti_descr;
+       union ldlm_policy_data policy;
+#ifdef HAVE_FILE_OPERATIONS_READ_WRITE_ITER
+       struct iovec iov;
+       struct iov_iter i;
+#else
+       unsigned long seg;
+#endif
+       int result = 0;
+       ENTRY;
+
+       LASSERT(io->ci_type == CIT_READ || io->ci_type == CIT_WRITE);
+
+       if (!cl_is_normalio(env, io))
+               RETURN(0);
+
+       /* nfs or loop back device write */
+       if (vio->vui_iter == NULL)
                RETURN(0);
 
        /* No MM (e.g. NFS)? No vmas too. */
        if (mm == NULL)
                RETURN(0);
 
-       for (seg = 0; seg < vio->vui_nrsegs; seg++) {
-               const struct iovec *iv = &vio->vui_iov[seg];
+#ifdef HAVE_FILE_OPERATIONS_READ_WRITE_ITER
+       iov_for_each(iov, i, *(vio->vui_iter)) {
+#else /* !HAVE_FILE_OPERATIONS_READ_WRITE_ITER */
+       for (seg = 0; seg < vio->vui_iter->nr_segs; seg++) {
+               const struct iovec iov = vio->vui_iter->iov[seg];
+#endif /* HAVE_FILE_OPERATIONS_READ_WRITE_ITER */
+               unsigned long addr = (unsigned long)iov.iov_base;
+               size_t count = iov.iov_len;
 
-                addr = (unsigned long)iv->iov_base;
-                count = iv->iov_len;
                 if (count == 0)
                         continue;
 
-                count += addr & (~CFS_PAGE_MASK);
-                addr &= CFS_PAGE_MASK;
+               count += addr & ~PAGE_MASK;
+               addr &= PAGE_MASK;
 
                 down_read(&mm->mmap_sem);
                 while((vma = our_vma(mm, addr, count)) != NULL) {
-                        struct inode *inode = vma->vm_file->f_dentry->d_inode;
+                       struct dentry *de = vma->vm_file->f_path.dentry;
+                       struct inode *inode = de->d_inode;
                         int flags = CEF_MUST;
 
                        if (ll_file_nolock(vma->vm_file)) {
@@ -305,6 +480,100 @@ static int vvp_mmap_locks(const struct lu_env *env,
        RETURN(result);
 }
 
+static void vvp_io_advance(const struct lu_env *env,
+                          const struct cl_io_slice *ios,
+                          size_t nob)
+{
+       struct vvp_io    *vio = cl2vvp_io(env, ios);
+       struct cl_io     *io  = ios->cis_io;
+       struct cl_object *obj = ios->cis_io->ci_obj;
+#ifndef HAVE_FILE_OPERATIONS_READ_WRITE_ITER
+       struct iovec     *iov;
+#endif
+       CLOBINVRNT(env, obj, vvp_object_invariant(obj));
+
+       if (!cl_is_normalio(env, io))
+               return;
+
+#ifdef HAVE_FILE_OPERATIONS_READ_WRITE_ITER
+       vio->vui_tot_count -= nob;
+       iov_iter_reexpand(vio->vui_iter, vio->vui_tot_count);
+#else /* !HAVE_FILE_OPERATIONS_READ_WRITE_ITER */
+       LASSERT(vio->vui_tot_nrsegs >= vio->vui_iter->nr_segs);
+       LASSERT(vio->vui_tot_count  >= nob);
+
+       /* Restore the iov changed in vvp_io_update_iov() */
+       if (vio->vui_iov_olen > 0) {
+               unsigned long idx = vio->vui_iter->nr_segs - 1;
+
+               /* In the latest kernels iov is const so that
+                * changes are done using iter helpers. In older
+                * kernels those helpers don't exist we lustre
+                * has to do some of the management of the iter
+                * itself. */
+               iov = (struct iovec *)&vio->vui_iter->iov[idx];
+               iov->iov_len = vio->vui_iov_olen;
+               vio->vui_iov_olen = 0;
+       }
+
+       /* In the latest kernels special helpers exist to help
+        * advance the iov but we don't have that in older kernels
+        * so we need to do the book keeping ourselves. */
+       iov = (struct iovec *)vio->vui_iter->iov;
+       while (nob > 0) {
+               if (iov->iov_len > nob) {
+                       iov->iov_len -= nob;
+                       iov->iov_base += nob;
+                       break;
+               }
+
+               nob -= iov->iov_len;
+               iov++;
+               vio->vui_tot_nrsegs--;
+       }
+
+       vio->vui_iter->iov = iov;
+       vio->vui_tot_count -= nob;
+#endif /* HAVE_FILE_OPERATIONS_READ_WRITE_ITER */
+}
+
+static void vvp_io_update_iov(const struct lu_env *env,
+                             struct vvp_io *vio, struct cl_io *io)
+{
+       size_t size = io->u.ci_rw.crw_count;
+#ifdef HAVE_FILE_OPERATIONS_READ_WRITE_ITER
+       if (!cl_is_normalio(env, io) || vio->vui_iter == NULL)
+               return;
+
+       iov_iter_truncate(vio->vui_iter, size);
+#else /* !HAVE_FILE_OPERATIONS_READ_WRITE_ITER */
+       unsigned long i;
+
+       vio->vui_iov_olen = 0;
+       if (!cl_is_normalio(env, io) || vio->vui_tot_nrsegs == 0)
+               return;
+
+       for (i = 0; i < vio->vui_tot_nrsegs; i++) {
+               struct iovec *iv = (struct iovec *) &vio->vui_iter->iov[i];
+
+               if (iv->iov_len < size) {
+                       size -= iv->iov_len;
+               } else {
+                       if (iv->iov_len > size) {
+                               vio->vui_iov_olen = iv->iov_len;
+                               iv->iov_len = size;
+                       }
+                       break;
+               }
+       }
+
+       vio->vui_iter->nr_segs = i + 1;
+       LASSERTF(vio->vui_tot_nrsegs >= vio->vui_iter->nr_segs,
+                "tot_nrsegs: %lu, nrsegs: %lu\n",
+                vio->vui_tot_nrsegs, vio->vui_iter->nr_segs);
+#endif /* !HAVE_FILE_OPERATIONS_READ_WRITE_ITER */
+}
+
 static int vvp_io_rw_lock(const struct lu_env *env, struct cl_io *io,
                           enum cl_lock_mode mode, loff_t start, loff_t end)
 {
@@ -386,7 +655,6 @@ static int vvp_io_setattr_iter_init(const struct lu_env *env,
 static int vvp_io_setattr_lock(const struct lu_env *env,
                                const struct cl_io_slice *ios)
 {
-       struct vvp_io *vio = vvp_env_io(env);
        struct cl_io  *io  = ios->cis_io;
        __u64 new_size;
        __u32 enqflags = 0;
@@ -396,15 +664,21 @@ static int vvp_io_setattr_lock(const struct lu_env *env,
                 if (new_size == 0)
                         enqflags = CEF_DISCARD_DATA;
         } else {
-                if ((io->u.ci_setattr.sa_attr.lvb_mtime >=
-                     io->u.ci_setattr.sa_attr.lvb_ctime) ||
-                    (io->u.ci_setattr.sa_attr.lvb_atime >=
-                     io->u.ci_setattr.sa_attr.lvb_ctime))
-                        return 0;
-                new_size = 0;
-        }
+               unsigned int valid = io->u.ci_setattr.sa_valid;
+
+               if (!(valid & TIMES_SET_FLAGS))
+                       return 0;
+
+               if ((!(valid & ATTR_MTIME) ||
+                    io->u.ci_setattr.sa_attr.lvb_mtime >=
+                    io->u.ci_setattr.sa_attr.lvb_ctime) &&
+                   (!(valid & ATTR_ATIME) ||
+                    io->u.ci_setattr.sa_attr.lvb_atime >=
+                    io->u.ci_setattr.sa_attr.lvb_ctime))
+                       return 0;
 
-       vio->u.setattr.vui_local_lock = SETATTR_EXTENT_LOCK;
+               new_size = 0;
+       }
 
        return vvp_io_one_lock(env, io, enqflags, CLM_WRITE,
                               new_size, OBD_OBJECT_EOF);
@@ -430,20 +704,12 @@ static int vvp_do_vmtruncate(struct inode *inode, size_t size)
        return result;
 }
 
-static int vvp_io_setattr_trunc(const struct lu_env *env,
-                                const struct cl_io_slice *ios,
-                                struct inode *inode, loff_t size)
-{
-       inode_dio_wait(inode);
-       return 0;
-}
-
 static int vvp_io_setattr_time(const struct lu_env *env,
                                const struct cl_io_slice *ios)
 {
         struct cl_io       *io    = ios->cis_io;
         struct cl_object   *obj   = io->ci_obj;
-        struct cl_attr     *attr  = ccc_env_thread_attr(env);
+       struct cl_attr     *attr  = vvp_env_thread_attr(env);
         int result;
         unsigned valid = CAT_CTIME;
 
@@ -466,30 +732,35 @@ static int vvp_io_setattr_time(const struct lu_env *env,
 static int vvp_io_setattr_start(const struct lu_env *env,
                                const struct cl_io_slice *ios)
 {
-       struct cl_io    *io    = ios->cis_io;
-       struct inode    *inode = vvp_object_inode(io->ci_obj);
-       int result = 0;
+       struct cl_io            *io    = ios->cis_io;
+       struct inode            *inode = vvp_object_inode(io->ci_obj);
+       struct ll_inode_info    *lli   = ll_i2info(inode);
 
        mutex_lock(&inode->i_mutex);
-       if (cl_io_is_trunc(io))
-               result = vvp_io_setattr_trunc(env, ios, inode,
-                                       io->u.ci_setattr.sa_attr.lvb_size);
-       if (result == 0)
-               result = vvp_io_setattr_time(env, ios);
-       return result;
+       if (cl_io_is_trunc(io)) {
+               down_write(&lli->lli_trunc_sem);
+               inode_dio_wait(inode);
+       }
+
+       if (io->u.ci_setattr.sa_valid & TIMES_SET_FLAGS)
+               return vvp_io_setattr_time(env, ios);
+
+       return 0;
 }
 
 static void vvp_io_setattr_end(const struct lu_env *env,
                                const struct cl_io_slice *ios)
 {
-       struct cl_io *io    = ios->cis_io;
-       struct inode *inode = vvp_object_inode(io->ci_obj);
+       struct cl_io            *io    = ios->cis_io;
+       struct inode            *inode = vvp_object_inode(io->ci_obj);
+       struct ll_inode_info    *lli   = ll_i2info(inode);
 
        if (cl_io_is_trunc(io)) {
                /* Truncate in memory pages - they must be clean pages
                 * because osc has already notified to destroy osc_extents. */
                vvp_do_vmtruncate(inode, io->u.ci_setattr.sa_attr.lvb_size);
                inode_dio_write_done(inode);
+               up_write(&lli->lli_trunc_sem);
        }
        mutex_unlock(&inode->i_mutex);
 }
@@ -497,17 +768,26 @@ static void vvp_io_setattr_end(const struct lu_env *env,
 static void vvp_io_setattr_fini(const struct lu_env *env,
                                const struct cl_io_slice *ios)
 {
+       bool restore_needed = ios->cis_io->ci_restore_needed;
+       struct inode *inode = vvp_object_inode(ios->cis_obj);
+
        vvp_io_fini(env, ios);
+
+       if (restore_needed && !ios->cis_io->ci_restore_needed) {
+               /* restore finished, set data modified flag for HSM */
+               ll_file_set_flag(ll_i2info(inode), LLIF_DATA_MODIFIED);
+       }
 }
 
 static int vvp_io_read_start(const struct lu_env *env,
                             const struct cl_io_slice *ios)
 {
-       struct vvp_io     *vio   = cl2vvp_io(env, ios);
-       struct cl_io      *io    = ios->cis_io;
-       struct cl_object  *obj   = io->ci_obj;
-       struct inode      *inode = vvp_object_inode(obj);
-       struct file       *file  = vio->vui_fd->fd_file;
+       struct vvp_io           *vio   = cl2vvp_io(env, ios);
+       struct cl_io            *io    = ios->cis_io;
+       struct cl_object        *obj   = io->ci_obj;
+       struct inode            *inode = vvp_object_inode(obj);
+       struct ll_inode_info    *lli   = ll_i2info(inode);
+       struct file             *file  = vio->vui_fd->fd_file;
 
        int     result;
        loff_t  pos = io->u.ci_rd.rd.crw_pos;
@@ -517,20 +797,23 @@ static int vvp_io_read_start(const struct lu_env *env,
 
        CLOBINVRNT(env, obj, vvp_object_invariant(obj));
 
-        CDEBUG(D_VFSTRACE, "read: -> [%lli, %lli)\n", pos, pos + cnt);
+       CDEBUG(D_VFSTRACE, "read: -> [%lli, %lli)\n", pos, pos + cnt);
+
+       if (vio->vui_io_subtype == IO_NORMAL)
+               down_read(&lli->lli_trunc_sem);
 
        if (!can_populate_pages(env, io, inode))
                return 0;
 
-        result = ccc_prep_size(env, obj, io, pos, tot, &exceed);
-        if (result != 0)
-                return result;
-        else if (exceed != 0)
-                goto out;
+       result = vvp_prep_size(env, obj, io, pos, tot, &exceed);
+       if (result != 0)
+               return result;
+       else if (exceed != 0)
+               goto out;
 
-        LU_OBJECT_HEADER(D_INODE, env, &obj->co_lu,
-                        "Read ino %lu, %lu bytes, offset %lld, size %llu\n",
-                        inode->i_ino, cnt, pos, i_size_read(inode));
+       LU_OBJECT_HEADER(D_INODE, env, &obj->co_lu,
+                       "Read ino %lu, %lu bytes, offset %lld, size %llu\n",
+                       inode->i_ino, cnt, pos, i_size_read(inode));
 
        /* turn off the kernel's read-ahead */
        vio->vui_fd->fd_file->f_ra.ra_pages = 0;
@@ -548,9 +831,14 @@ static int vvp_io_read_start(const struct lu_env *env,
        switch (vio->vui_io_subtype) {
        case IO_NORMAL:
                LASSERT(vio->vui_iocb->ki_pos == pos);
+#ifdef HAVE_FILE_OPERATIONS_READ_WRITE_ITER
+               result = generic_file_read_iter(vio->vui_iocb, vio->vui_iter);
+#else
                result = generic_file_aio_read(vio->vui_iocb,
-                                              vio->vui_iov, vio->vui_nrsegs,
+                                              vio->vui_iter->iov,
+                                              vio->vui_iter->nr_segs,
                                               vio->vui_iocb->ki_pos);
+#endif
                break;
        case IO_SPLICE:
                result = generic_file_splice_read(file, &pos,
@@ -640,16 +928,11 @@ static int vvp_io_commit_sync(const struct lu_env *env, struct cl_io *io,
 static void write_commit_callback(const struct lu_env *env, struct cl_io *io,
                                struct cl_page *page)
 {
-       struct vvp_page *vpg;
        struct page *vmpage = page->cp_vmpage;
-       struct cl_object *clob = cl_io_top(io)->ci_obj;
 
        SetPageUptodate(vmpage);
        set_page_dirty(vmpage);
 
-       vpg = cl2vvp_page(cl_object_page_slice(clob, page));
-       vvp_write_pending(cl2vvp(clob), vpg);
-
        cl_page_disown(env, io, page);
 
        /* held in ll_cl_init() */
@@ -765,15 +1048,19 @@ int vvp_io_write_commit(const struct lu_env *env, struct cl_io *io)
 static int vvp_io_write_start(const struct lu_env *env,
                               const struct cl_io_slice *ios)
 {
-       struct vvp_io      *vio   = cl2vvp_io(env, ios);
-        struct cl_io       *io    = ios->cis_io;
-        struct cl_object   *obj   = io->ci_obj;
-       struct inode       *inode = vvp_object_inode(obj);
-        ssize_t result = 0;
-        loff_t pos = io->u.ci_wr.wr.crw_pos;
-        size_t cnt = io->u.ci_wr.wr.crw_count;
+       struct vvp_io           *vio   = cl2vvp_io(env, ios);
+       struct cl_io            *io    = ios->cis_io;
+       struct cl_object        *obj   = io->ci_obj;
+       struct inode            *inode = vvp_object_inode(obj);
+       struct ll_inode_info    *lli   = ll_i2info(inode);
+       ssize_t                  result = 0;
+       loff_t                   pos = io->u.ci_wr.wr.crw_pos;
+       size_t                   cnt = io->u.ci_wr.wr.crw_count;
 
-        ENTRY;
+       ENTRY;
+
+       if (vio->vui_io_subtype == IO_NORMAL)
+               down_read(&lli->lli_trunc_sem);
 
        if (!can_populate_pages(env, io, inode))
                RETURN(0);
@@ -792,7 +1079,19 @@ static int vvp_io_write_start(const struct lu_env *env,
 
        CDEBUG(D_VFSTRACE, "write: [%lli, %lli)\n", pos, pos + (long long)cnt);
 
-       if (vio->vui_iov == NULL) {
+       /* The maximum Lustre file size is variable, based on the OST maximum
+        * object size and number of stripes.  This needs another check in
+        * addition to the VFS checks earlier. */
+       if (pos + cnt > ll_file_maxbytes(inode)) {
+               CDEBUG(D_INODE,
+                      "%s: file "DFID" offset %llu > maxbytes "LPU64"\n",
+                      ll_get_fsname(inode->i_sb, NULL, 0),
+                      PFID(ll_inode2fid(inode)), pos + cnt,
+                      ll_file_maxbytes(inode));
+               RETURN(-EFBIG);
+       }
+
+       if (vio->vui_iter == NULL) {
                /* from a temp io in ll_cl_init(). */
                result = 0;
        } else {
@@ -804,9 +1103,14 @@ static int vvp_io_write_start(const struct lu_env *env,
                 * consistency, proper locking to protect against writes,
                 * trucates, etc. is handled in the higher layers of lustre.
                 */
+#ifdef HAVE_FILE_OPERATIONS_READ_WRITE_ITER
+               result = generic_file_write_iter(vio->vui_iocb, vio->vui_iter);
+#else
                result = __generic_file_aio_write(vio->vui_iocb,
-                                                 vio->vui_iov, vio->vui_nrsegs,
+                                                 vio->vui_iter->iov,
+                                                 vio->vui_iter->nr_segs,
                                                  &vio->vui_iocb->ki_pos);
+#endif
                if (result > 0 || result == -EIOCBQUEUED) {
                        ssize_t err;
 
@@ -828,11 +1132,7 @@ static int vvp_io_write_start(const struct lu_env *env,
                }
        }
        if (result > 0) {
-               struct ll_inode_info *lli = ll_i2info(inode);
-
-               spin_lock(&lli->lli_lock);
-               lli->lli_flags |= LLIF_DATA_MODIFIED;
-               spin_unlock(&lli->lli_lock);
+               ll_file_set_flag(ll_i2info(inode), LLIF_DATA_MODIFIED);
 
                if (result < cnt)
                        io->ci_continue = 0;
@@ -844,6 +1144,17 @@ static int vvp_io_write_start(const struct lu_env *env,
        RETURN(result);
 }
 
+static void vvp_io_rw_end(const struct lu_env *env,
+                         const struct cl_io_slice *ios)
+{
+       struct vvp_io           *vio = cl2vvp_io(env, ios);
+       struct inode            *inode = vvp_object_inode(ios->cis_obj);
+       struct ll_inode_info    *lli = ll_i2info(inode);
+
+       if (vio->vui_io_subtype == IO_NORMAL)
+               up_read(&lli->lli_trunc_sem);
+}
+
 static int vvp_io_kernel_fault(struct vvp_fault_io *cfio)
 {
        struct vm_fault *vmf = cfio->ft_vmf;
@@ -885,42 +1196,33 @@ static int vvp_io_kernel_fault(struct vvp_fault_io *cfio)
 static void mkwrite_commit_callback(const struct lu_env *env, struct cl_io *io,
                                    struct cl_page *page)
 {
-       struct vvp_page *vpg;
-       struct cl_object *clob = cl_io_top(io)->ci_obj;
-
        set_page_dirty(page->cp_vmpage);
-
-       vpg = cl2vvp_page(cl_object_page_slice(clob, page));
-       vvp_write_pending(cl2vvp(clob), vpg);
 }
 
 static int vvp_io_fault_start(const struct lu_env *env,
                               const struct cl_io_slice *ios)
 {
-       struct vvp_io       *vio     = cl2vvp_io(env, ios);
-       struct cl_io        *io      = ios->cis_io;
-       struct cl_object    *obj     = io->ci_obj;
-       struct inode        *inode   = vvp_object_inode(obj);
-       struct cl_fault_io  *fio     = &io->u.ci_fault;
-       struct vvp_fault_io *cfio    = &vio->u.fault;
-       loff_t               offset;
-       int                  result  = 0;
-       struct page          *vmpage  = NULL;
-       struct cl_page      *page;
-       loff_t               size;
-       pgoff_t              last_index;
+       struct vvp_io           *vio   = cl2vvp_io(env, ios);
+       struct cl_io            *io    = ios->cis_io;
+       struct cl_object        *obj   = io->ci_obj;
+       struct inode            *inode = vvp_object_inode(obj);
+       struct ll_inode_info    *lli   = ll_i2info(inode);
+       struct cl_fault_io      *fio   = &io->u.ci_fault;
+       struct vvp_fault_io     *cfio  = &vio->u.fault;
+       loff_t                   offset;
+       int                      result = 0;
+       struct page             *vmpage = NULL;
+       struct cl_page          *page;
+       loff_t                   size;
+       pgoff_t                  last_index;
        ENTRY;
 
-        if (fio->ft_executable &&
-            LTIME_S(inode->i_mtime) != vio->u.fault.ft_mtime)
-                CWARN("binary "DFID
-                      " changed while waiting for the page fault lock\n",
-                      PFID(lu_object_fid(&obj->co_lu)));
+       down_read(&lli->lli_trunc_sem);
 
         /* offset of the last byte on the page */
         offset = cl_offset(obj, fio->ft_index + 1) - 1;
         LASSERT(cl_index(obj, offset) == fio->ft_index);
-        result = ccc_prep_size(env, obj, io, 0, offset + 1, NULL);
+       result = vvp_prep_size(env, obj, io, 0, offset + 1, NULL);
        if (result != 0)
                RETURN(result);
 
@@ -1002,7 +1304,7 @@ static int vvp_io_fault_start(const struct lu_env *env,
 
                        /* size fixup */
                        if (last_index == vvp_index(vpg))
-                               to = size & ~CFS_PAGE_MASK;
+                               to = size & ~PAGE_MASK;
 
                        /* Do not set Dirty bit here so that in case IO is
                         * started before the page is really made dirty, we
@@ -1057,6 +1359,17 @@ out:
        return result;
 }
 
+static void vvp_io_fault_end(const struct lu_env *env,
+                            const struct cl_io_slice *ios)
+{
+       struct inode            *inode = vvp_object_inode(ios->cis_obj);
+       struct ll_inode_info    *lli   = ll_i2info(inode);
+
+       CLOBINVRNT(env, ios->cis_io->ci_obj,
+                  vvp_object_invariant(ios->cis_io->ci_obj));
+       up_read(&lli->lli_trunc_sem);
+}
+
 static int vvp_io_fsync_start(const struct lu_env *env,
                              const struct cl_io_slice *ios)
 {
@@ -1066,42 +1379,24 @@ static int vvp_io_fsync_start(const struct lu_env *env,
        return 0;
 }
 
-static int vvp_io_read_page(const struct lu_env *env,
-                            const struct cl_io_slice *ios,
-                            const struct cl_page_slice *slice)
+static int vvp_io_read_ahead(const struct lu_env *env,
+                            const struct cl_io_slice *ios,
+                            pgoff_t start, struct cl_read_ahead *ra)
 {
-       struct cl_io              *io     = ios->cis_io;
-       struct vvp_page           *vpg    = cl2vvp_page(slice);
-       struct cl_page            *page   = slice->cpl_page;
-       struct inode              *inode  = vvp_object_inode(slice->cpl_obj);
-       struct ll_sb_info         *sbi    = ll_i2sbi(inode);
-       struct ll_file_data       *fd     = cl2vvp_io(env, ios)->vui_fd;
-       struct ll_readahead_state *ras    = &fd->fd_ras;
-       struct cl_2queue          *queue  = &io->ci_queue;
-
+       int result = 0;
        ENTRY;
 
-       if (sbi->ll_ra_info.ra_max_pages_per_file > 0 &&
-           sbi->ll_ra_info.ra_max_pages > 0)
-               ras_update(sbi, inode, ras, vvp_index(vpg),
-                          vpg->vpg_defer_uptodate);
+       if (ios->cis_io->ci_type == CIT_READ ||
+           ios->cis_io->ci_type == CIT_FAULT) {
+               struct vvp_io *vio = cl2vvp_io(env, ios);
 
-       if (vpg->vpg_defer_uptodate) {
-               vpg->vpg_ra_used = 1;
-               cl_page_export(env, page, 1);
+               if (unlikely(vio->vui_fd->fd_flags & LL_FILE_GROUP_LOCKED)) {
+                       ra->cra_end = CL_PAGE_EOF;
+                       result = +1; /* no need to call down */
+               }
        }
 
-       /*
-        * Add page into the queue even when it is marked uptodate above.
-        * this will unlock it automatically as part of cl_page_list_disown().
-        */
-       cl_2queue_add(queue, page);
-       if (sbi->ll_ra_info.ra_max_pages_per_file > 0 &&
-           sbi->ll_ra_info.ra_max_pages > 0)
-               ll_readahead(env, io, &queue->c2_qin, ras,
-                            vpg->vpg_defer_uptodate);
-
-       RETURN(0);
+       RETURN(result);
 }
 
 static const struct cl_io_operations vvp_io_ops = {
@@ -1110,6 +1405,7 @@ static const struct cl_io_operations vvp_io_ops = {
                        .cio_fini       = vvp_io_fini,
                        .cio_lock       = vvp_io_read_lock,
                        .cio_start      = vvp_io_read_start,
+                       .cio_end        = vvp_io_rw_end,
                        .cio_advance    = vvp_io_advance,
                },
                 [CIT_WRITE] = {
@@ -1118,6 +1414,7 @@ static const struct cl_io_operations vvp_io_ops = {
                        .cio_iter_fini = vvp_io_write_iter_fini,
                        .cio_lock      = vvp_io_write_lock,
                        .cio_start     = vvp_io_write_start,
+                       .cio_end       = vvp_io_rw_end,
                        .cio_advance   = vvp_io_advance,
                 },
                 [CIT_SETATTR] = {
@@ -1132,17 +1429,20 @@ static const struct cl_io_operations vvp_io_ops = {
                         .cio_iter_init = vvp_io_fault_iter_init,
                         .cio_lock      = vvp_io_fault_lock,
                         .cio_start     = vvp_io_fault_start,
-                       .cio_end       = vvp_io_end,
+                       .cio_end       = vvp_io_fault_end,
                 },
                [CIT_FSYNC] = {
-                       .cio_start  = vvp_io_fsync_start,
-                       .cio_fini   = vvp_io_fini
+                       .cio_start      = vvp_io_fsync_start,
+                       .cio_fini       = vvp_io_fini
+               },
+               [CIT_MISC] = {
+                       .cio_fini       = vvp_io_fini
+               },
+               [CIT_LADVISE] = {
+                       .cio_fini       = vvp_io_fini
                },
-                [CIT_MISC] = {
-                        .cio_fini   = vvp_io_fini
-                }
-        },
-        .cio_read_page     = vvp_io_read_page,
+       },
+       .cio_read_ahead = vvp_io_read_ahead
 };
 
 int vvp_io_init(const struct lu_env *env, struct cl_object *obj,
@@ -1176,7 +1476,9 @@ int vvp_io_init(const struct lu_env *env, struct cl_object *obj,
                         result = 1;
                else {
                        vio->vui_tot_count = count;
+#ifndef HAVE_FILE_OPERATIONS_READ_WRITE_ITER
                        vio->vui_tot_nrsegs = 0;
+#endif
                }
 
                /* for read/write, we store the jobid in the inode, and