Whamcloud - gitweb
LU-6179 llite: Implement ladvise lockahead
[fs/lustre-release.git] / lustre / include / cl_object.h
index 64bc6bf..00bd414 100644 (file)
  *
  * You should have received a copy of the GNU General Public License
  * version 2 along with this program; If not, see
- * http://www.sun.com/software/products/lustre/docs/GPLv2.pdf
- *
- * Please contact Sun Microsystems, Inc., 4150 Network Circle, Santa Clara,
- * CA 95054 USA or visit www.sun.com if you need additional information or
- * have any questions.
+ * http://www.gnu.org/licenses/gpl-2.0.html
  *
  * GPL HEADER END
  */
@@ -27,7 +23,7 @@
  * Copyright (c) 2008, 2010, Oracle and/or its affiliates. All rights reserved.
  * Use is subject to license terms.
  *
- * Copyright (c) 2011, 2015, Intel Corporation.
+ * Copyright (c) 2011, 2016, Intel Corporation.
  */
 /*
  * This file is part of Lustre, http://www.lustre.org/
@@ -93,6 +89,7 @@
  * super-class definitions.
  */
 #include <libcfs/libcfs.h>
+#include <libcfs/libcfs_ptask.h>
 #include <lu_object.h>
 #include <linux/atomic.h>
 #include <linux/mutex.h>
@@ -121,6 +118,8 @@ struct cl_io_slice;
 
 struct cl_req_attr;
 
+extern struct cfs_ptask_engine *cl_io_engine;
+
 /**
  * Device in the client stack.
  *
@@ -148,11 +147,11 @@ struct cl_attr {
          */
         loff_t cat_kms;
         /** Modification time. Measured in seconds since epoch. */
-        time_t cat_mtime;
+        time64_t cat_mtime;
         /** Access time. Measured in seconds since epoch. */
-        time_t cat_atime;
+        time64_t cat_atime;
         /** Change time. Measured in seconds since epoch. */
-        time_t cat_ctime;
+        time64_t cat_ctime;
         /**
          * Blocks allocated to this cl_object on the server file system.
          *
@@ -170,20 +169,24 @@ struct cl_attr {
 
        /* nlink of the directory */
        __u64  cat_nlink;
+
+       /* Project identifier for quota purpose. */
+       __u32  cat_projid;
 };
 
 /**
  * Fields in cl_attr that are being set.
  */
 enum cl_attr_valid {
-        CAT_SIZE   = 1 << 0,
-        CAT_KMS    = 1 << 1,
-        CAT_MTIME  = 1 << 3,
-        CAT_ATIME  = 1 << 4,
-        CAT_CTIME  = 1 << 5,
-        CAT_BLOCKS = 1 << 6,
-        CAT_UID    = 1 << 7,
-        CAT_GID    = 1 << 8
+       CAT_SIZE   = 1 << 0,
+       CAT_KMS    = 1 << 1,
+       CAT_MTIME  = 1 << 3,
+       CAT_ATIME  = 1 << 4,
+       CAT_CTIME  = 1 << 5,
+       CAT_BLOCKS = 1 << 6,
+       CAT_UID    = 1 << 7,
+       CAT_GID    = 1 << 8,
+       CAT_PROJID = 1 << 9
 };
 
 /**
@@ -288,6 +291,8 @@ struct cl_layout {
        size_t          cl_size;
        /** Layout generation. */
        u32             cl_layout_gen;
+       /** whether layout is a composite one */
+       bool            cl_is_composite;
 };
 
 /**
@@ -388,7 +393,7 @@ struct cl_object_operations {
         * Object getstripe method.
         */
        int (*coo_getstripe)(const struct lu_env *env, struct cl_object *obj,
-                            struct lov_user_md __user *lum);
+                            struct lov_user_md __user *lum, size_t size);
        /**
         * Get FIEMAP mapping from the object.
         */
@@ -714,8 +719,6 @@ enum cl_page_type {
 struct cl_page {
        /** Reference counter. */
        atomic_t                 cp_ref;
-       /** Transfer error. */
-       int                      cp_error;
        /** An object this page is a part of. Immutable after creation. */
        struct cl_object        *cp_obj;
        /** vmpage */
@@ -1359,7 +1362,7 @@ struct cl_2queue {
 /** IO types */
 enum cl_io_type {
         /** read system call */
-        CIT_READ,
+       CIT_READ = 1,
         /** write system call */
         CIT_WRITE,
         /** truncate, utime system calls */
@@ -1456,7 +1459,9 @@ struct cl_read_ahead {
         * This is determined DLM lock coverage, RPC and stripe boundary.
         * cra_end is included. */
        pgoff_t cra_end;
-       /* Release routine. If readahead holds resources underneath, this
+       /* optimal RPC size for this read, by pages */
+       unsigned long cra_rpc_size;
+       /* Release callback. If readahead holds resources underneath, this
         * function should be called to release it. */
        void    (*cra_release)(const struct lu_env *env, void *cbdata);
        /* Callback data for cra_release routine */
@@ -1602,25 +1607,30 @@ enum cl_enq_flags {
          * -EWOULDBLOCK is returned immediately.
          */
         CEF_NONBLOCK     = 0x00000001,
-        /**
-         * take lock asynchronously (out of order), as it cannot
-         * deadlock. This is for LDLM_FL_HAS_INTENT locks used for glimpsing.
-         */
-        CEF_ASYNC        = 0x00000002,
+       /**
+        * Tell lower layers this is a glimpse request, translated to
+        * LDLM_FL_HAS_INTENT at LDLM layer.
+        *
+        * Also, because glimpse locks never block other locks, we count this
+        * as automatically compatible with other osc locks.
+        * (see osc_lock_compatible)
+        */
+       CEF_GLIMPSE        = 0x00000002,
         /**
          * tell the server to instruct (though a flag in the blocking ast) an
          * owner of the conflicting lock, that it can drop dirty pages
          * protected by this lock, without sending them to the server.
          */
         CEF_DISCARD_DATA = 0x00000004,
-        /**
-         * tell the sub layers that it must be a `real' lock. This is used for
-         * mmapped-buffer locks and glimpse locks that must be never converted
-         * into lockless mode.
-         *
-         * \see vvp_mmap_locks(), cl_glimpse_lock().
-         */
-        CEF_MUST         = 0x00000008,
+       /**
+        * tell the sub layers that it must be a `real' lock. This is used for
+        * mmapped-buffer locks, glimpse locks, manually requested locks
+        * (LU_LADVISE_LOCKAHEAD) that must never be converted into lockless
+        * mode.
+        *
+        * \see vvp_mmap_locks(), cl_glimpse_lock, cl_request_lock().
+        */
+       CEF_MUST         = 0x00000008,
         /**
          * tell the sub layers that never request a `real' lock. This flag is
          * not used currently.
@@ -1633,9 +1643,16 @@ enum cl_enq_flags {
          */
         CEF_NEVER        = 0x00000010,
         /**
-         * for async glimpse lock.
+        * tell the dlm layer this is a speculative lock request
+        * speculative lock requests are locks which are not requested as part
+        * of an I/O operation.  Instead, they are requested because we expect
+        * to use them in the future.  They are requested asynchronously at the
+        * ptlrpc layer.
+        *
+        * Currently used for asynchronous glimpse locks and manually requested
+        * locks (LU_LADVISE_LOCKAHEAD).
          */
-        CEF_AGL          = 0x00000020,
+       CEF_SPECULATIVE          = 0x00000020,
        /**
         * enqueue a lock to test DLM lock existence.
         */
@@ -1646,9 +1663,13 @@ enum cl_enq_flags {
         */
        CEF_LOCK_MATCH  = 0x00000080,
        /**
+        * tell the DLM layer to lock only the requested range
+        */
+       CEF_LOCK_NO_EXPAND    = 0x00000100,
+       /**
         * mask of enq_flags.
         */
-       CEF_MASK         = 0x000000ff,
+       CEF_MASK         = 0x000001ff,
 };
 
 /**
@@ -1726,10 +1747,21 @@ enum cl_fsync_mode {
        CL_FSYNC_ALL   = 3
 };
 
-struct cl_io_rw_common {
-        loff_t      crw_pos;
-        size_t      crw_count;
-        int         crw_nonblock;
+struct cl_io_range {
+       loff_t cir_pos;
+       size_t cir_count;
+};
+
+struct cl_io_pt {
+       struct cl_io_pt         *cip_next;
+       struct cfs_ptask         cip_task;
+       struct kiocb             cip_iocb;
+       struct iov_iter          cip_iter;
+       struct file             *cip_file;
+       enum cl_io_type          cip_iot;
+       loff_t                   cip_pos;
+       size_t                   cip_count;
+       ssize_t                  cip_result;
 };
 
 /**
@@ -1760,20 +1792,22 @@ struct cl_io {
         /** lock requirements, this is just a help info for sublayers. */
         enum cl_io_lock_dmd            ci_lockreq;
         union {
-                struct cl_rd_io {
-                        struct cl_io_rw_common rd;
-                } ci_rd;
-               struct cl_wr_io {
-                       struct cl_io_rw_common wr;
-                       int                    wr_append;
-                       int                    wr_sync;
-               } ci_wr;
-               struct cl_io_rw_common ci_rw;
+               struct cl_rw_io {
+                       struct iov_iter          rw_iter;
+                       struct kiocb             rw_iocb;
+                       struct cl_io_range       rw_range;
+                       struct file             *rw_file;
+                       unsigned int             rw_nonblock:1,
+                                                rw_append:1,
+                                                rw_sync:1;
+                       int (*rw_ptask)(struct cfs_ptask *ptask);
+               } ci_rw;
                struct cl_setattr_io {
                        struct ost_lvb           sa_attr;
                        unsigned int             sa_attr_flags;
                        unsigned int             sa_valid;
                        int                      sa_stripe_index;
+                       struct ost_layout        sa_layout;
                        const struct lu_fid     *sa_parent_fid;
                } ci_setattr;
                struct cl_data_version_io {
@@ -1832,6 +1866,11 @@ struct cl_io {
         */
                             ci_ignore_layout:1,
        /**
+        * Need MDS intervention to complete a write. This usually means the
+        * corresponding component is not initialized for the writing extent.
+        */
+                            ci_need_write_intent:1,
+       /**
         * Check if layout changed after the IO finishes. Mainly for HSM
         * requirement. If IO occurs to openning files, it doesn't need to
         * verify layout because HSM won't release openning files.
@@ -1846,7 +1885,11 @@ struct cl_io {
        /**
         * O_NOATIME
         */
-                            ci_noatime:1;
+                            ci_noatime:1,
+       /** Set to 1 if parallel execution is allowed for current I/O? */
+                            ci_pio:1,
+       /* Tell sublayers not to expand LDLM locks requested for this IO */
+                            ci_lock_no_expand:1;
        /**
         * Number of pages owned by this IO. For invariant checking.
         */
@@ -2026,7 +2069,7 @@ int  cl_conf_set          (const struct lu_env *env, struct cl_object *obj,
 int  cl_object_prune      (const struct lu_env *env, struct cl_object *obj);
 void cl_object_kill       (const struct lu_env *env, struct cl_object *obj);
 int cl_object_getstripe(const struct lu_env *env, struct cl_object *obj,
-                       struct lov_user_md __user *lum);
+                       struct lov_user_md __user *lum, size_t size);
 int cl_object_fiemap(const struct lu_env *env, struct cl_object *obj,
                     struct ll_fiemap_info_key *fmkey, struct fiemap *fiemap,
                     size_t *buflen);
@@ -2275,19 +2318,18 @@ void  cl_io_rw_advance   (const struct lu_env *env, struct cl_io *io,
                           size_t nob);
 int   cl_io_cancel       (const struct lu_env *env, struct cl_io *io,
                           struct cl_page_list *queue);
-int   cl_io_is_going     (const struct lu_env *env);
 
 /**
  * True, iff \a io is an O_APPEND write(2).
  */
 static inline int cl_io_is_append(const struct cl_io *io)
 {
-        return io->ci_type == CIT_WRITE && io->u.ci_wr.wr_append;
+       return io->ci_type == CIT_WRITE && io->u.ci_rw.rw_append;
 }
 
 static inline int cl_io_is_sync_write(const struct cl_io *io)
 {
-       return io->ci_type == CIT_WRITE && io->u.ci_wr.wr_sync;
+       return io->ci_type == CIT_WRITE && io->u.ci_rw.rw_sync;
 }
 
 static inline int cl_io_is_mkwrite(const struct cl_io *io)
@@ -2362,8 +2404,6 @@ void cl_page_list_del    (const struct lu_env *env,
                           struct cl_page_list *plist, struct cl_page *page);
 void cl_page_list_disown (const struct lu_env *env,
                           struct cl_io *io, struct cl_page_list *plist);
-int  cl_page_list_own    (const struct lu_env *env,
-                          struct cl_io *io, struct cl_page_list *plist);
 void cl_page_list_assume (const struct lu_env *env,
                           struct cl_io *io, struct cl_page_list *plist);
 void cl_page_list_discard(const struct lu_env *env,
@@ -2442,35 +2482,12 @@ void cl_sync_io_end(const struct lu_env *env, struct cl_sync_io *anchor);
  *     - allocation and destruction of environment is amortized by caching no
  *     longer used environments instead of destroying them;
  *
- *     - there is a notion of "current" environment, attached to the kernel
- *     data structure representing current thread Top-level lustre code
- *     allocates an environment and makes it current, then calls into
- *     non-lustre code, that in turn calls lustre back. Low-level lustre
- *     code thus called can fetch environment created by the top-level code
- *     and reuse it, avoiding additional environment allocation.
- *       Right now, three interfaces can attach the cl_env to running thread:
- *       - cl_env_get
- *       - cl_env_implant
- *       - cl_env_reexit(cl_env_reenter had to be called priorly)
- *
  * \see lu_env, lu_context, lu_context_key
  * @{ */
 
-struct cl_env_nest {
-       __u16   cen_refcheck;
-       void *cen_cookie;
-};
-
-struct lu_env *cl_env_peek(__u16 *refcheck);
 struct lu_env *cl_env_get(__u16 *refcheck);
 struct lu_env *cl_env_alloc(__u16 *refcheck, __u32 tags);
-struct lu_env *cl_env_nested_get(struct cl_env_nest *nest);
 void cl_env_put(struct lu_env *env, __u16 *refcheck);
-void cl_env_nested_put(struct cl_env_nest *nest, struct lu_env *env);
-void *cl_env_reenter(void);
-void cl_env_reexit(void *cookie);
-void cl_env_implant(struct lu_env *env, __u16 *refcheck);
-void cl_env_unplant(struct lu_env *env, __u16 *refcheck);
 unsigned cl_env_cache_purge(unsigned nr);
 struct lu_env *cl_env_percpu_get(void);
 void cl_env_percpu_put(struct lu_env *env);