Whamcloud - gitweb
LU-3963 obdclass: convert to linux list api
[fs/lustre-release.git] / lustre / include / lclient.h
index b21778a..afa462c 100644 (file)
 #ifndef LCLIENT_H
 #define LCLIENT_H
 
+#include <lustre/lustre_idl.h>
+#include <cl_object.h>
+
+enum obd_notify_event;
+struct inode;
+struct lov_stripe_md;
+struct lustre_md;
+struct obd_capa;
+struct obd_device;
+struct obd_export;
+struct page;
+
 blkcnt_t dirty_cnt(struct inode *inode);
 
 int cl_glimpse_size0(struct inode *inode, int agl);
@@ -124,7 +136,7 @@ struct ccc_io {
 };
 
 /**
- * True, if \a io is a normal io, False for other (sendfile, splice*).
+ * True, if \a io is a normal io, False for other splice_{read,write}.
  * must be impementated in arch specific code.
  */
 int cl_is_normalio(const struct lu_env *env, const struct cl_io *io);
@@ -193,7 +205,7 @@ struct ccc_object {
          *
          * \see ccc_page::cpg_pending_linkage
          */
-        cfs_list_t             cob_pending_list;
+       struct list_head        cob_pending_list;
 
         /**
          * Access this counter is protected by inode->i_sem. Now that
@@ -201,12 +213,12 @@ struct ccc_object {
          * we don't need to hold any lock..
          */
         int                     cob_transient_pages;
-        /**
-         * Number of outstanding mmaps on this file.
-         *
-         * \see ll_vm_open(), ll_vm_close().
-         */
-        cfs_atomic_t            cob_mmap_cnt;
+       /**
+        * Number of outstanding mmaps on this file.
+        *
+        * \see ll_vm_open(), ll_vm_close().
+        */
+       atomic_t                cob_mmap_cnt;
 
        /**
         * various flags
@@ -225,20 +237,20 @@ struct ccc_object {
  * ccc-private page state.
  */
 struct ccc_page {
-        struct cl_page_slice cpg_cl;
-        int                  cpg_defer_uptodate;
-        int                  cpg_ra_used;
-        int                  cpg_write_queued;
-        /**
-         * Non-empty iff this page is already counted in
-         * ccc_object::cob_pending_list. Protected by
-         * ccc_object::cob_pending_guard. This list is only used as a flag,
-         * that is, never iterated through, only checked for list_empty(), but
-         * having a list is useful for debugging.
-         */
-        cfs_list_t           cpg_pending_linkage;
-        /** VM page */
-       struct page          *cpg_page;
+       struct cl_page_slice cpg_cl;
+       unsigned        cpg_defer_uptodate:1,
+                       cpg_ra_used:1,
+                       cpg_write_queued:1;
+       /**
+        * Non-empty iff this page is already counted in
+        * ccc_object::cob_pending_list. Protected by
+        * ccc_object::cob_pending_guard. This list is only used as a flag,
+        * that is, never iterated through, only checked for list_empty(), but
+        * having a list is useful for debugging.
+        */
+       struct list_head cpg_pending_linkage;
+       /** VM page */
+       struct page     *cpg_page;
 };
 
 static inline struct ccc_page *cl2ccc_page(const struct cl_page_slice *slice)
@@ -313,8 +325,6 @@ int ccc_object_glimpse(const struct lu_env *env,
                        const struct cl_object *obj, struct ost_lvb *lvb);
 int ccc_conf_set(const struct lu_env *env, struct cl_object *obj,
                  const struct cl_object_conf *conf);
-int ccc_page_is_under_lock(const struct lu_env *env,
-                           const struct cl_page_slice *slice, struct cl_io *io);
 int ccc_fail(const struct lu_env *env, const struct cl_page_slice *slice);
 void ccc_transient_page_verify(const struct cl_page *page);
 int  ccc_transient_page_own(const struct lu_env *env,
@@ -340,6 +350,7 @@ void ccc_lock_delete(const struct lu_env *env,
 void ccc_lock_fini(const struct lu_env *env,struct cl_lock_slice *slice);
 int ccc_lock_enqueue(const struct lu_env *env,const struct cl_lock_slice *slice,
                      struct cl_io *io, __u32 enqflags);
+int ccc_lock_use(const struct lu_env *env,const struct cl_lock_slice *slice);
 int ccc_lock_unuse(const struct lu_env *env,const struct cl_lock_slice *slice);
 int ccc_lock_wait(const struct lu_env *env,const struct cl_lock_slice *slice);
 int ccc_lock_fits_into(const struct lu_env *env,
@@ -447,14 +458,59 @@ void ccc_inode_lsm_put(struct inode *inode, struct lov_stripe_md *lsm);
  * layer for recovery purposes.
  */
 struct cl_client_cache {
-       cfs_atomic_t            ccc_users;    /* # of users (OSCs) */
-       cfs_list_t              ccc_lru;      /* LRU of cached clean pages */
-       spinlock_t              ccc_lru_lock; /* lock for list */
-       cfs_atomic_t            ccc_lru_left; /* # of LRU entries available */
-       unsigned long           ccc_lru_max;  /* Max # of LRU entries */
-       unsigned int            ccc_lru_shrinkers;  /* # of threads shrinking */
-       cfs_atomic_t            ccc_unstable_nr;    /* # of pages pinned */
-       wait_queue_head_t       ccc_unstable_waitq; /* Signaled on BRW commit */
+       /**
+        * # of users (OSCs)
+        */
+       atomic_t                ccc_users;
+       /**
+        * # of LRU entries available
+        */
+       atomic_t                ccc_lru_left;
+       /**
+        * List of entities(OSCs) for this LRU cache
+        */
+       struct list_head        ccc_lru;
+       /**
+        * Max # of LRU entries
+        */
+       unsigned long           ccc_lru_max;
+       /**
+        * Lock to protect ccc_lru list
+        */
+       spinlock_t              ccc_lru_lock;
+       /**
+        * # of threads are doing shrinking
+        */
+       unsigned int            ccc_lru_shrinkers;
+       /**
+        * Set if unstable check is enabled
+        */
+       unsigned int            ccc_unstable_check:1;
+       /**
+        * Waitq for awaiting unstable pages to reach zero.
+        * Used at umounting time and signaled on BRW commit
+        */
+       wait_queue_head_t       ccc_unstable_waitq;
+       /**
+        * # of unstable pages for this mount point
+        */
+       atomic_t                ccc_unstable_nr;
+};
+
+enum {
+       LUSTRE_OPC_MKDIR    = 0,
+       LUSTRE_OPC_SYMLINK  = 1,
+       LUSTRE_OPC_MKNOD    = 2,
+       LUSTRE_OPC_CREATE   = 3,
+       LUSTRE_OPC_ANY      = 5
+};
+
+enum op_cli_flags {
+       CLI_SET_MEA     = 1 << 0,
+       CLI_RM_ENTRY    = 1 << 1,
+       CLI_HASH64      = 1 << 2,
+       CLI_API32       = 1 << 3,
+       CLI_MIGRATE     = 1 << 4,
 };
 
 #endif /*LCLIENT_H */