Whamcloud - gitweb
LU-2089 ofd: do not pin pages provided by osd
[fs/lustre-release.git] / lustre / include / lustre_net.h
index 82fe858..8f7575e 100644 (file)
@@ -1,6 +1,4 @@
-/* -*- mode: c; c-basic-offset: 8; indent-tabs-mode: nil; -*-
- * vim:expandtab:shiftwidth=8:tabstop=8:
- *
+/*
  * GPL HEADER START
  *
  * DO NOT ALTER OR REMOVE COPYRIGHT NOTICES OR THIS FILE HEADER.
@@ -28,6 +26,8 @@
 /*
  * Copyright (c) 2007, 2010, Oracle and/or its affiliates. All rights reserved.
  * Use is subject to license terms.
+ *
+ * Copyright (c) 2011, 2012, Whamcloud, Inc.
  */
 /*
  * This file is part of Lustre, http://www.lustre.org/
 # endif
 #endif /* __KERNEL__ */
 
+#define PTLRPC_NTHRS_INIT      2
+
 /**
- * The following constants determine how memory is used to buffer incoming
- * service requests.
+ * Buffer Constants
+ *
+ * Constants determine how memory is used to buffer incoming service requests.
  *
  * ?_NBUFS              # buffers to allocate when growing the pool
  * ?_BUFSIZE            # bytes in a single request buffer
  * Messages larger than ?_MAXREQSIZE are dropped.  Request buffers are
  * considered full when less than ?_MAXREQSIZE is left in them.
  */
-#define LDLM_THREADS_AUTO_MIN (2)
-#define LDLM_THREADS_AUTO_MAX min_t(unsigned, cfs_num_online_cpus() * \
-                                  cfs_num_online_cpus() * 32, 128)
-#define LDLM_BL_THREADS  LDLM_THREADS_AUTO_MIN
+/**
+ * Thread Constants
+ *
+ * Constants determine how threads are created for ptlrpc service.
+ *
+ * ?_NTHRS_INIT                # threads to create for each service partition on
+ *                       initializing. If it's non-affinity service and
+ *                       there is only one partition, it's the overall #
+ *                       threads for the service while initializing.
+ * ?_NTHRS_BASE                # threads should be created at least for each
+ *                       ptlrpc partition to keep the service healthy.
+ *                       It's the low-water mark of threads upper-limit
+ *                       for each partition.
+ * ?_THR_FACTOR         # threads can be added on threads upper-limit for
+ *                       each CPU core. This factor is only for reference,
+ *                       we might decrease value of factor if number of cores
+ *                       per CPT is above a limit.
+ * ?_NTHRS_MAX         # overall threads can be created for a service,
+ *                       it's a soft limit because if service is running
+ *                       on machine with hundreds of cores and tens of
+ *                       CPU partitions, we need to guarantee each partition
+ *                       has ?_NTHRS_BASE threads, which means total threads
+ *                       will be ?_NTHRS_BASE * number_of_cpts which can
+ *                       exceed ?_NTHRS_MAX.
+ *
+ * Examples
+ *
+ * #define MDT_NTHRS_INIT      2
+ * #define MDT_NTHRS_BASE      64
+ * #define MDT_NTHRS_FACTOR    8
+ * #define MDT_NTHRS_MAX       1024
+ *
+ * Example 1):
+ * ---------------------------------------------------------------------
+ * Server(A) has 16 cores, user configured it to 4 partitions so each
+ * partition has 4 cores, then actual number of service threads on each
+ * partition is:
+ *     MDT_NTHRS_BASE(64) + cores(4) * MDT_NTHRS_FACTOR(8) = 96
+ *
+ * Total number of threads for the service is:
+ *     96 * partitions(4) = 384
+ *
+ * Example 2):
+ * ---------------------------------------------------------------------
+ * Server(B) has 32 cores, user configured it to 4 partitions so each
+ * partition has 8 cores, then actual number of service threads on each
+ * partition is:
+ *     MDT_NTHRS_BASE(64) + cores(8) * MDT_NTHRS_FACTOR(8) = 128
+ *
+ * Total number of threads for the service is:
+ *     128 * partitions(4) = 512
+ *
+ * Example 3):
+ * ---------------------------------------------------------------------
+ * Server(B) has 96 cores, user configured it to 8 partitions so each
+ * partition has 12 cores, then actual number of service threads on each
+ * partition is:
+ *     MDT_NTHRS_BASE(64) + cores(12) * MDT_NTHRS_FACTOR(8) = 160
+ *
+ * Total number of threads for the service is:
+ *     160 * partitions(8) = 1280
+ *
+ * However, it's above the soft limit MDT_NTHRS_MAX, so we choose this number
+ * as upper limit of threads number for each partition:
+ *     MDT_NTHRS_MAX(1024) / partitions(8) = 128
+ *
+ * Example 4):
+ * ---------------------------------------------------------------------
+ * Server(C) have a thousand of cores and user configured it to 32 partitions
+ *     MDT_NTHRS_BASE(64) * 32 = 2048
+ *
+ * which is already above soft limit MDT_NTHRS_MAX(1024), but we still need
+ * to guarantee that each partition has at least MDT_NTHRS_BASE(64) threads
+ * to keep service healthy, so total number of threads will just be 2048.
+ *
+ * NB: we don't suggest to choose server with that many cores because backend
+ *     filesystem itself, buffer cache, or underlying network stack might
+ *     have some SMP scalability issues at that large scale.
+ *
+ *     If user already has a fat machine with hundreds or thousands of cores,
+ *     there are two choices for configuration:
+ *     a) create CPU table from subset of all CPUs and run Lustre on
+ *        top of this subset
+ *     b) bind service threads on a few partitions, see modparameters of
+ *        MDS and OSS for details
+*
+ * NB: these calculations (and examples below) are simplified to help
+ *     understanding, the real implementation is a little more complex,
+ *     please see ptlrpc_server_nthreads_check() for details.
+ *
+ */
+
+ /*
+  * LDLM threads constants:
+  *
+  * Given 8 as factor and 24 as base threads number
+  *
+  * example 1)
+  * On 4-core machine we will have 24 + 8 * 4 = 56 threads.
+  *
+  * example 2)
+  * On 8-core machine with 2 partitions we will have 24 + 4 * 8 = 56
+  * threads for each partition and total threads number will be 112.
+  *
+  * example 3)
+  * On 64-core machine with 8 partitions we will need LDLM_NTHRS_BASE(24)
+  * threads for each partition to keep service healthy, so total threads
+  * number should be 24 * 8 = 192.
+  *
+  * So with these constants, threads number wil be at the similar level
+  * of old versions, unless target machine has over a hundred cores
+  */
+#define LDLM_THR_FACTOR                8
+#define LDLM_NTHRS_INIT                PTLRPC_NTHRS_INIT
+#define LDLM_NTHRS_BASE                24
+#define LDLM_NTHRS_MAX         (cfs_num_online_cpus() == 1 ? 64 : 128)
+
+#define LDLM_BL_THREADS  LDLM_NTHRS_AUTO_INIT
 #define LDLM_NBUFS      (64 * cfs_num_online_cpus())
 #define LDLM_BUFSIZE    (8 * 1024)
 #define LDLM_MAXREQSIZE (5 * 1024)
 #define LDLM_MAXREPSIZE (1024)
 
-/** Absolute limits */
-#define MDT_MIN_THREADS 2UL
+ /*
+  * MDS threads constants:
+  *
+  * Please see examples in "Thread Constants", MDS threads number will be at
+  * the comparable level of old versions, unless the server has many cores.
+  */
 #ifndef MDT_MAX_THREADS
-#define MDT_MAX_THREADS 512UL
+#define MDT_MAX_THREADS                1024
+#define MDT_MAX_OTHR_THREADS   256
+
+#else /* MDT_MAX_THREADS */
+#if MDT_MAX_THREADS < PTLRPC_NTHRS_INIT
+#undef MDT_MAX_THREADS
+#define MDT_MAX_THREADS        PTLRPC_NTHRS_INIT
 #endif
-#define MDS_NBUFS       (64 * cfs_num_online_cpus())
-#define MDS_BUFSIZE     (8 * 1024)
+#define MDT_MAX_OTHR_THREADS   max(PTLRPC_NTHRS_INIT, MDT_MAX_THREADS / 2)
+#endif
+
+/* default service */
+#define MDT_THR_FACTOR         8
+#define MDT_NTHRS_INIT         PTLRPC_NTHRS_INIT
+#define MDT_NTHRS_MAX          MDT_MAX_THREADS
+#define MDT_NTHRS_BASE         min(64, MDT_NTHRS_MAX)
+
+/* read-page service */
+#define MDT_RDPG_THR_FACTOR    4
+#define MDT_RDPG_NTHRS_INIT    PTLRPC_NTHRS_INIT
+#define MDT_RDPG_NTHRS_MAX     MDT_MAX_OTHR_THREADS
+#define MDT_RDPG_NTHRS_BASE    min(48, MDT_RDPG_NTHRS_MAX)
+
+/* these should be removed when we remove setattr service in the future */
+#define MDT_SETA_THR_FACTOR    4
+#define MDT_SETA_NTHRS_INIT    PTLRPC_NTHRS_INIT
+#define MDT_SETA_NTHRS_MAX     MDT_MAX_OTHR_THREADS
+#define MDT_SETA_NTHRS_BASE    min(48, MDT_SETA_NTHRS_MAX)
+
+/* non-affinity threads */
+#define MDT_OTHR_NTHRS_INIT    PTLRPC_NTHRS_INIT
+#define MDT_OTHR_NTHRS_MAX     MDT_MAX_OTHR_THREADS
+
+#define MDS_NBUFS              (64 * cfs_num_online_cpus())
 /**
  * Assume file name length = FNAME_MAX = 256 (true for ext3).
  *        path name length = PATH_MAX = 4096
- *        LOV MD size max  = EA_MAX = 4000
+ *        LOV MD size max  = EA_MAX = 48000 (2000 stripes)
  * symlink:  FNAME_MAX + PATH_MAX  <- largest
  * link:     FNAME_MAX + PATH_MAX  (mds_rec_link < mds_rec_create)
  * rename:   FNAME_MAX + FNAME_MAX
  * open:     FNAME_MAX + EA_MAX
  *
  * MDS_MAXREQSIZE ~= 4736 bytes =
- * lustre_msg + ldlm_request + mds_body + mds_rec_create + FNAME_MAX + PATH_MAX
+ * lustre_msg + ldlm_request + mdt_body + mds_rec_create + FNAME_MAX + PATH_MAX
  * MDS_MAXREPSIZE ~= 8300 bytes = lustre_msg + llog_header
  * or, for mds_close() and mds_reint_unlink() on a many-OST filesystem:
- *      = 9210 bytes = lustre_msg + mds_body + 160 * (easize + cookiesize)
+ *      = 9210 bytes = lustre_msg + mdt_body + 160 * (easize + cookiesize)
  *
  * Realistic size is about 512 bytes (20 character name + 128 char symlink),
  * except in the open case where there are a large number of OSTs in a LOV.
  */
-#define MDS_MAXREQSIZE  (5 * 1024)
-#define MDS_MAXREPSIZE  max(9 * 1024, 362 + LOV_MAX_STRIPE_COUNT * 56)
+#define MDS_MAXREPSIZE  max(10 * 1024, 362 + LOV_MAX_STRIPE_COUNT * 56)
+#define MDS_MAXREQSIZE  MDS_MAXREPSIZE
+
+/** MDS_BUFSIZE = max_reqsize + max sptlrpc payload size */
+#define MDS_BUFSIZE     (MDS_MAXREQSIZE + 1024)
 
-/** FLD_MAXREQSIZE == lustre_msg + __u32 padding + ptlrpc_body + opc + md_fld */
+/** FLD_MAXREQSIZE == lustre_msg + __u32 padding + ptlrpc_body + opc */
 #define FLD_MAXREQSIZE  (160)
 
-/** FLD_MAXREPSIZE == lustre_msg + ptlrpc_body + md_fld */
+/** FLD_MAXREPSIZE == lustre_msg + ptlrpc_body */
 #define FLD_MAXREPSIZE  (152)
 
 /**
 #define SEQ_MAXREPSIZE  (152)
 
 /** MGS threads must be >= 3, see bug 22458 comment #28 */
-#define MGS_THREADS_AUTO_MIN 3
-#define MGS_THREADS_AUTO_MAX 32
+#define MGS_NTHRS_INIT (PTLRPC_NTHRS_INIT + 1)
+#define MGS_NTHRS_MAX  32
+
 #define MGS_NBUFS       (64 * cfs_num_online_cpus())
 #define MGS_BUFSIZE     (8 * 1024)
 #define MGS_MAXREQSIZE  (7 * 1024)
 #define MGS_MAXREPSIZE  (9 * 1024)
 
-/** Absolute OSS limits */
-#define OSS_THREADS_MIN 3       /* difficult replies, HPQ, others */
-#define OSS_THREADS_MAX 512
+ /*
+  * OSS threads constants:
+  *
+  * Given 8 as factor and 64 as base threads number
+  *
+  * example 1):
+  * On 8-core server configured to 2 partitions, we will have
+  * 64 + 8 * 4 = 96 threads for each partition, 192 total threads.
+  *
+  * example 2):
+  * On 32-core machine configured to 4 partitions, we will have
+  * 64 + 8 * 8 = 112 threads for each partition, so total threads number
+  * will be 112 * 4 = 448.
+  *
+  * example 3):
+  * On 64-core machine configured to 4 partitions, we will have
+  * 64 + 16 * 8 = 192 threads for each partition, so total threads number
+  * will be 192 * 4 = 768 which is above limit OSS_NTHRS_MAX(512), so we
+  * cut off the value to OSS_NTHRS_MAX(512) / 4 which is 128 threads
+  * for each partition.
+  *
+  * So we can see that with these constants, threads number wil be at the
+  * similar level of old versions, unless the server has many cores.
+  */
+ /* depress threads factor for VM with small memory size */
+#define OSS_THR_FACTOR         min_t(int, 8, \
+                               CFS_NUM_CACHEPAGES >> (28 - CFS_PAGE_SHIFT))
+#define OSS_NTHRS_INIT         (PTLRPC_NTHRS_INIT + 1)
+#define OSS_NTHRS_BASE         64
+#define OSS_NTHRS_MAX          512
+
+/* threads for handling "create" request */
+#define OSS_CR_THR_FACTOR      1
+#define OSS_CR_NTHRS_INIT      PTLRPC_NTHRS_INIT
+#define OSS_CR_NTHRS_BASE      8
+#define OSS_CR_NTHRS_MAX       64
+
 #define OST_NBUFS       (64 * cfs_num_online_cpus())
 #define OST_BUFSIZE     (8 * 1024)
 
@@ -240,11 +429,12 @@ union ptlrpc_async_args {
          * least big enough for that.
          */
         void      *pointer_arg[11];
-        __u64      space[6];
+       __u64      space[7];
 };
 
 struct ptlrpc_request_set;
 typedef int (*set_interpreter_func)(struct ptlrpc_request_set *, void *, int);
+typedef int (*set_producer_func)(struct ptlrpc_request_set *, void *);
 
 /**
  * Definition of request set structure.
@@ -258,31 +448,44 @@ typedef int (*set_interpreter_func)(struct ptlrpc_request_set *, void *, int);
  * returned.
  */
 struct ptlrpc_request_set {
-        /** number of uncompleted requests */
-        cfs_atomic_t          set_remaining;
-        /** wait queue to wait on for request events */
-        cfs_waitq_t           set_waitq;
-        cfs_waitq_t          *set_wakeup_ptr;
-        /** List of requests in the set */
-        cfs_list_t            set_requests;
-        /**
-         * List of completion callbacks to be called when the set is completed
-         * This is only used if \a set_interpret is NULL.
-         * Links struct ptlrpc_set_cbdata.
-         */
-        cfs_list_t            set_cblist;
-        /** Completion callback, if only one. */
-        set_interpreter_func  set_interpret;
-        /** opaq argument passed to completion \a set_interpret callback. */
-        void                 *set_arg;
-        /**
-         * Lock for \a set_new_requests manipulations
-         * locked so that any old caller can communicate requests to
-         * the set holder who can then fold them into the lock-free set
-         */
-        cfs_spinlock_t        set_new_req_lock;
-        /** List of new yet unsent requests. Only used with ptlrpcd now. */
-        cfs_list_t            set_new_requests;
+       cfs_atomic_t          set_refcount;
+       /** number of in queue requests */
+       cfs_atomic_t          set_new_count;
+       /** number of uncompleted requests */
+       cfs_atomic_t          set_remaining;
+       /** wait queue to wait on for request events */
+       cfs_waitq_t           set_waitq;
+       cfs_waitq_t          *set_wakeup_ptr;
+       /** List of requests in the set */
+       cfs_list_t            set_requests;
+       /**
+        * List of completion callbacks to be called when the set is completed
+        * This is only used if \a set_interpret is NULL.
+        * Links struct ptlrpc_set_cbdata.
+        */
+       cfs_list_t            set_cblist;
+       /** Completion callback, if only one. */
+       set_interpreter_func  set_interpret;
+       /** opaq argument passed to completion \a set_interpret callback. */
+       void                 *set_arg;
+       /**
+        * Lock for \a set_new_requests manipulations
+        * locked so that any old caller can communicate requests to
+        * the set holder who can then fold them into the lock-free set
+        */
+       cfs_spinlock_t        set_new_req_lock;
+       /** List of new yet unsent requests. Only used with ptlrpcd now. */
+       cfs_list_t            set_new_requests;
+
+       /** rq_status of requests that have been freed already */
+       int                   set_rc;
+       /** Additional fields used by the flow control extension */
+       /** Maximum number of RPCs in flight */
+       int                   set_max_inflight;
+       /** Callback function used to generate RPCs */
+       set_producer_func     set_producer;
+       /** opaq argument passed to the producer callback */
+       void                 *set_producer_arg;
 };
 
 /**
@@ -298,6 +501,7 @@ struct ptlrpc_set_cbdata {
 };
 
 struct ptlrpc_bulk_desc;
+struct ptlrpc_service_part;
 
 /**
  * ptlrpc callback & work item stuff
@@ -353,7 +557,7 @@ struct ptlrpc_reply_state {
         /** xid */
         __u64                  rs_xid;
         struct obd_export     *rs_export;
-        struct ptlrpc_service *rs_service;
+       struct ptlrpc_service_part *rs_svcpt;
         /** Lnet metadata handle for the reply */
         lnet_handle_md_t       rs_md_h;
         cfs_atomic_t           rs_refcount;
@@ -440,6 +644,10 @@ struct ptlrpc_hpreq_ops {
          * Check if the request is a high priority one.
          */
         int  (*hpreq_check)(struct ptlrpc_request *);
+        /**
+         * Called after the request has been handled.
+         */
+        void (*hpreq_fini)(struct ptlrpc_request *);
 };
 
 /**
@@ -449,8 +657,10 @@ struct ptlrpc_hpreq_ops {
  * in Lustre.
  */
 struct ptlrpc_request {
-        /* Request type: one of PTL_RPC_MSG_* */
-        int rq_type;
+       /* Request type: one of PTL_RPC_MSG_* */
+       int rq_type;
+       /** Result of request processing */
+       int rq_status;
         /**
          * Linkage item through which this request is included into
          * sending/delayed lists on client and into rqbd list on server
@@ -470,18 +680,20 @@ struct ptlrpc_request {
         cfs_list_t rq_exp_list;
         /** server-side hp handlers */
         struct ptlrpc_hpreq_ops *rq_ops;
+
+       /** initial thread servicing this request */
+       struct ptlrpc_thread *rq_svc_thread;
+
         /** history sequence # */
         __u64 rq_history_seq;
         /** the index of service's srv_at_array into which request is linked */
         time_t rq_at_index;
-        /** Result of request processing */
-        int rq_status;
         /** Lock to protect request flags and some other important bits, like
          * rq_list
          */
         cfs_spinlock_t rq_lock;
         /** client-side flags are serialized by rq_lock */
-        unsigned long rq_intr:1, rq_replied:1, rq_err:1,
+       unsigned int rq_intr:1, rq_replied:1, rq_err:1,
                 rq_timedout:1, rq_resend:1, rq_restart:1,
                 /**
                  * when ->rq_replay is set, request is kept by the client even
@@ -505,20 +717,22 @@ struct ptlrpc_request {
                 rq_reply_truncate:1,
                 rq_committed:1,
                 /* whether the "rq_set" is a valid one */
-                rq_invalid_rqset:1;
+                rq_invalid_rqset:1,
+               rq_generation_set:1,
+               /* do not resend request on -EINPROGRESS */
+               rq_no_retry_einprogress:1;
+
+       unsigned int rq_nr_resend;
 
         enum rq_phase rq_phase; /* one of RQ_PHASE_* */
         enum rq_phase rq_next_phase; /* one of RQ_PHASE_* to be used next */
         cfs_atomic_t rq_refcount;/* client-side refcount for SENT race,
                                     server-side refcounf for multiple replies */
 
-        /** initial thread servicing this request */
-        struct ptlrpc_thread *rq_svc_thread;
-
-        /** Portal to which this request would be sent */
-        int rq_request_portal;  /* XXX FIXME bug 249 */
-        /** Portal where to wait for reply and where reply would be sent */
-        int rq_reply_portal;    /* XXX FIXME bug 249 */
+       /** Portal to which this request would be sent */
+       short rq_request_portal;  /* XXX FIXME bug 249 */
+       /** Portal where to wait for reply and where reply would be sent */
+       short rq_reply_portal;    /* XXX FIXME bug 249 */
 
         /**
          * client-side:
@@ -528,11 +742,10 @@ struct ptlrpc_request {
         int rq_nob_received;
         /** Request length */
         int rq_reqlen;
-         /** Request message - what client sent */
-        struct lustre_msg *rq_reqmsg;
-
         /** Reply length */
         int rq_replen;
+       /** Request message - what client sent */
+       struct lustre_msg *rq_reqmsg;
         /** Reply message - server response */
         struct lustre_msg *rq_repmsg;
         /** Transaction number */
@@ -556,7 +769,8 @@ struct ptlrpc_request {
         struct sptlrpc_flavor    rq_flvr;        /**< for client & server */
         enum lustre_sec_part     rq_sp_from;
 
-        unsigned long            /* client/server security flags */
+       /* client/server security flags */
+       unsigned int
                                  rq_ctx_init:1,      /* context initiation */
                                  rq_ctx_fini:1,      /* context destroy */
                                  rq_bulk_read:1,     /* request bulk read */
@@ -580,21 +794,21 @@ struct ptlrpc_request {
         /* (server side), pointed directly into req buffer */
         struct ptlrpc_user_desc *rq_user_desc;
 
-        /** early replies go to offset 0, regular replies go after that */
-        unsigned int             rq_reply_off;
-
         /* various buffer pointers */
         struct lustre_msg       *rq_reqbuf;      /* req wrapper */
+       char                    *rq_repbuf;      /* rep buffer */
+       struct lustre_msg       *rq_repdata;     /* rep wrapper msg */
+       struct lustre_msg       *rq_clrbuf;      /* only in priv mode */
         int                      rq_reqbuf_len;  /* req wrapper buf len */
         int                      rq_reqdata_len; /* req wrapper msg len */
-        char                    *rq_repbuf;      /* rep buffer */
         int                      rq_repbuf_len;  /* rep buffer len */
-        struct lustre_msg       *rq_repdata;     /* rep wrapper msg */
         int                      rq_repdata_len; /* rep wrapper msg len */
-        struct lustre_msg       *rq_clrbuf;      /* only in priv mode */
         int                      rq_clrbuf_len;  /* only in priv mode */
         int                      rq_clrdata_len; /* only in priv mode */
 
+       /** early replies go to offset 0, regular replies go after that */
+       unsigned int             rq_reply_off;
+
         /** @} */
 
         /** Fields that help to see if request and reply were swabbed or not */
@@ -623,9 +837,6 @@ struct ptlrpc_request {
         struct ptlrpc_reply_state *rq_reply_state;
         /** incoming request buffer */
         struct ptlrpc_request_buffer_desc *rq_rqbd;
-#ifdef CRAY_XT3
-        __u32                rq_uid;            /* peer uid, used in MDS only */
-#endif
 
         /** client-only incoming reply */
         lnet_handle_md_t     rq_reply_md_h;
@@ -677,10 +888,10 @@ struct ptlrpc_request {
         int    rq_timeout;
 
         /** Multi-rpc bits */
-        /** Link item for request set lists */
-        cfs_list_t  rq_set_chain;
         /** Per-request waitq introduced by bug 21938 for recovery waiting */
         cfs_waitq_t rq_set_waitq;
+       /** Link item for request set lists */
+       cfs_list_t  rq_set_chain;
         /** Link back to the request set */
         struct ptlrpc_request_set *rq_set;
         /** Async completion handler, called when reply is received */
@@ -823,25 +1034,22 @@ ptlrpc_rqphase2str(struct ptlrpc_request *req)
 
 #define REQ_FLAGS_FMT "%s:%s%s%s%s%s%s%s%s%s%s%s%s"
 
-void _debug_req(struct ptlrpc_request *req, __u32 mask,
+void _debug_req(struct ptlrpc_request *req,
                 struct libcfs_debug_msg_data *data, const char *fmt, ...)
-        __attribute__ ((format (printf, 4, 5)));
+        __attribute__ ((format (printf, 3, 4)));
 
 /**
  * Helper that decides if we need to print request accordig to current debug
  * level settings
  */
-#define debug_req(cdls, level, req, file, func, line, fmt, a...)              \
+#define debug_req(msgdata, mask, cdls, req, fmt, a...)                        \
 do {                                                                          \
-        CFS_CHECK_STACK();                                                    \
+        CFS_CHECK_STACK(msgdata, mask, cdls);                                 \
                                                                               \
-        if (((level) & D_CANTMASK) != 0 ||                                    \
-            ((libcfs_debug & (level)) != 0 &&                                 \
-             (libcfs_subsystem_debug & DEBUG_SUBSYSTEM) != 0)) {              \
-                static struct libcfs_debug_msg_data _req_dbg_data =           \
-                DEBUG_MSG_DATA_INIT(cdls, DEBUG_SUBSYSTEM, file, func, line); \
-                _debug_req((req), (level), &_req_dbg_data, fmt, ##a);         \
-        }                                                                     \
+        if (((mask) & D_CANTMASK) != 0 ||                                     \
+            ((libcfs_debug & (mask)) != 0 &&                                  \
+             (libcfs_subsystem_debug & DEBUG_SUBSYSTEM) != 0))                \
+                _debug_req((req), msgdata, fmt, ##a);                         \
 } while(0)
 
 /**
@@ -852,11 +1060,12 @@ do {                                                                          \
 do {                                                                          \
         if ((level) & (D_ERROR | D_WARNING)) {                                \
                 static cfs_debug_limit_state_t cdls;                          \
-                debug_req(&cdls, level, req, __FILE__, __func__, __LINE__,    \
-                          "@@@ "fmt" ", ## args);                             \
-        } else                                                                \
-                debug_req(NULL, level, req, __FILE__, __func__, __LINE__,     \
-                          "@@@ "fmt" ", ## args);                             \
+                LIBCFS_DEBUG_MSG_DATA_DECL(msgdata, level, &cdls);            \
+                debug_req(&msgdata, level, &cdls, req, "@@@ "fmt" ", ## args);\
+        } else {                                                              \
+                LIBCFS_DEBUG_MSG_DATA_DECL(msgdata, level, NULL);             \
+                debug_req(&msgdata, level, NULL, req, "@@@ "fmt" ", ## args); \
+        }                                                                     \
 } while (0)
 /** @} */
 
@@ -945,6 +1154,7 @@ enum {
         SVC_SIGNAL      = 1 << 5,
 };
 
+#define PTLRPC_THR_NAME_LEN            32
 /**
  * Definition of server service thread structure
  */
@@ -973,11 +1183,72 @@ struct ptlrpc_thread {
         /**
          * the svc this thread belonged to b=18582
          */
-        struct ptlrpc_service *t_svc;
-        cfs_waitq_t t_ctl_waitq;
-        struct lu_env *t_env;
+       struct ptlrpc_service_part      *t_svcpt;
+       cfs_waitq_t                     t_ctl_waitq;
+       struct lu_env                   *t_env;
+       char                            t_name[PTLRPC_THR_NAME_LEN];
 };
 
+static inline int thread_is_init(struct ptlrpc_thread *thread)
+{
+       return thread->t_flags == 0;
+}
+
+static inline int thread_is_stopped(struct ptlrpc_thread *thread)
+{
+        return !!(thread->t_flags & SVC_STOPPED);
+}
+
+static inline int thread_is_stopping(struct ptlrpc_thread *thread)
+{
+        return !!(thread->t_flags & SVC_STOPPING);
+}
+
+static inline int thread_is_starting(struct ptlrpc_thread *thread)
+{
+        return !!(thread->t_flags & SVC_STARTING);
+}
+
+static inline int thread_is_running(struct ptlrpc_thread *thread)
+{
+        return !!(thread->t_flags & SVC_RUNNING);
+}
+
+static inline int thread_is_event(struct ptlrpc_thread *thread)
+{
+        return !!(thread->t_flags & SVC_EVENT);
+}
+
+static inline int thread_is_signal(struct ptlrpc_thread *thread)
+{
+        return !!(thread->t_flags & SVC_SIGNAL);
+}
+
+static inline void thread_clear_flags(struct ptlrpc_thread *thread, __u32 flags)
+{
+        thread->t_flags &= ~flags;
+}
+
+static inline void thread_set_flags(struct ptlrpc_thread *thread, __u32 flags)
+{
+        thread->t_flags = flags;
+}
+
+static inline void thread_add_flags(struct ptlrpc_thread *thread, __u32 flags)
+{
+        thread->t_flags |= flags;
+}
+
+static inline int thread_test_and_clear_flags(struct ptlrpc_thread *thread,
+                                              __u32 flags)
+{
+        if (thread->t_flags & flags) {
+                thread->t_flags &= ~flags;
+                return 1;
+        }
+        return 0;
+}
+
 /**
  * Request buffer descriptor structure.
  * This is a structure that contains one posted request buffer for service.
@@ -991,7 +1262,7 @@ struct ptlrpc_request_buffer_desc {
         /** History of requests for this buffer */
         cfs_list_t             rqbd_reqs;
         /** Back pointer to service for which this buffer is registered */
-        struct ptlrpc_service *rqbd_service;
+       struct ptlrpc_service_part *rqbd_svcpt;
         /** LNet descriptor */
         lnet_handle_md_t       rqbd_md_h;
         int                    rqbd_refcount;
@@ -1005,11 +1276,33 @@ struct ptlrpc_request_buffer_desc {
         struct ptlrpc_request  rqbd_req;
 };
 
-typedef int  (*svc_thr_init_t)(struct ptlrpc_thread *thread);
-typedef void (*svc_thr_done_t)(struct ptlrpc_thread *thread);
 typedef int  (*svc_handler_t)(struct ptlrpc_request *req);
-typedef int  (*svc_hpreq_handler_t)(struct ptlrpc_request *);
-typedef void (*svc_req_printfn_t)(void *, struct ptlrpc_request *);
+
+struct ptlrpc_service_ops {
+       /**
+        * if non-NULL called during thread creation (ptlrpc_start_thread())
+        * to initialize service specific per-thread state.
+        */
+       int             (*so_thr_init)(struct ptlrpc_thread *thr);
+       /**
+        * if non-NULL called during thread shutdown (ptlrpc_main()) to
+        * destruct state created by ->srv_init().
+        */
+       void            (*so_thr_done)(struct ptlrpc_thread *thr);
+       /**
+        * Handler function for incoming requests for this service
+        */
+       int             (*so_req_handler)(struct ptlrpc_request *req);
+       /**
+        * function to determine priority of the request, it's called
+        * on every new request
+        */
+       int             (*so_hpreq_handler)(struct ptlrpc_request *);
+       /**
+        * service-specific print fn
+        */
+       void            (*so_req_printer)(void *, struct ptlrpc_request *);
+};
 
 #ifndef __cfs_cacheline_aligned
 /* NB: put it here for reducing patche dependence */
@@ -1027,61 +1320,25 @@ typedef void (*svc_req_printfn_t)(void *, struct ptlrpc_request *);
  * The service is listening on a particular portal (like tcp port)
  * and perform actions for a specific server like IO service for OST
  * or general metadata service for MDS.
- *
- * ptlrpc service has four locks:
- * \a srv_lock
- *    serialize operations on rqbd and requests waiting for preprocess
- * \a srv_rq_lock
- *    serialize operations active requests sent to this portal
- * \a srv_at_lock
- *    serialize adaptive timeout stuff
- * \a srv_rs_lock
- *    serialize operations on RS list (reply states)
- *
- * We don't have any use-case to take two or more locks at the same time
- * for now, so there is no lock order issue.
  */
 struct ptlrpc_service {
+       /** serialize /proc operations */
+       cfs_spinlock_t                  srv_lock;
         /** most often accessed fields */
         /** chain thru all services */
         cfs_list_t                      srv_list;
+       /** service operations table */
+       struct ptlrpc_service_ops       srv_ops;
         /** only statically allocated strings here; we don't clean them */
         char                           *srv_name;
         /** only statically allocated strings here; we don't clean them */
         char                           *srv_thread_name;
         /** service thread list */
         cfs_list_t                      srv_threads;
-        /** threads to start at beginning of service */
-        int                             srv_threads_min;
-        /** thread upper limit */
-        int                             srv_threads_max;
-        /** always increasing number */
-        unsigned                        srv_threads_next_id;
-        /** # of starting threads */
-        int                             srv_threads_starting;
-        /** # running threads */
-        int                             srv_threads_running;
-
-        /** service operations, move to ptlrpc_svc_ops_t in the future */
-        /** @{ */
-        /**
-         * if non-NULL called during thread creation (ptlrpc_start_thread())
-         * to initialize service specific per-thread state.
-         */
-        svc_thr_init_t                  srv_init;
-        /**
-         * if non-NULL called during thread shutdown (ptlrpc_main()) to
-         * destruct state created by ->srv_init().
-         */
-        svc_thr_done_t                  srv_done;
-        /** Handler function for incoming requests for this service */
-        svc_handler_t                   srv_handler;
-        /** hp request handler */
-        svc_hpreq_handler_t             srv_hpreq_handler;
-        /** service-specific print fn */
-        svc_req_printfn_t               srv_req_printfn;
-        /** @} */
-
+       /** threads # should be created for each partition on initializing */
+       int                             srv_nthrs_cpt_init;
+       /** limit of threads number for each partition */
+       int                             srv_nthrs_cpt_limit;
         /** Root of /proc dir tree for this service */
         cfs_proc_dir_entry_t           *srv_procroot;
         /** Pointer to statistic data for this service */
@@ -1107,104 +1364,157 @@ struct ptlrpc_service {
         __u32                           srv_ctx_tags;
         /** soft watchdog timeout multiplier */
         int                             srv_watchdog_factor;
-        /** bind threads to CPUs */
-        unsigned                        srv_cpu_affinity:1;
         /** under unregister_service */
         unsigned                        srv_is_stopping:1;
 
-        /**
-         * serialize the following fields, used for protecting
-         * rqbd list and incoming requests waiting for preprocess
-         */
-        cfs_spinlock_t                  srv_lock  __cfs_cacheline_aligned;
-        /** incoming reqs */
-        cfs_list_t                      srv_req_in_queue;
-        /** total # req buffer descs allocated */
-        int                             srv_nbufs;
-        /** # posted request buffers */
-        int                             srv_nrqbd_receiving;
-        /** timeout before re-posting reqs, in tick */
-        cfs_duration_t                  srv_rqbd_timeout;
-        /** request buffers to be reposted */
-        cfs_list_t                      srv_idle_rqbds;
-        /** req buffers receiving */
-        cfs_list_t                      srv_active_rqbds;
-        /** request buffer history */
-        cfs_list_t                      srv_history_rqbds;
-        /** # request buffers in history */
-        int                             srv_n_history_rqbds;
-        /** max # request buffers in history */
-        int                             srv_max_history_rqbds;
-        /** request history */
-        cfs_list_t                      srv_request_history;
-        /** next request sequence # */
-        __u64                           srv_request_seq;
-        /** highest seq culled from history */
-        __u64                           srv_request_max_cull_seq;
-        /**
-         * all threads sleep on this. This wait-queue is signalled when new
-         * incoming request arrives and when difficult reply has to be handled.
-         */
-        cfs_waitq_t                     srv_waitq;
-
-        /**
-         * serialize the following fields, used for processing requests
-         * sent to this portal
-         */
-        cfs_spinlock_t                  srv_rq_lock __cfs_cacheline_aligned;
-        /** # reqs in either of the queues below */
-        /** reqs waiting for service */
-        cfs_list_t                      srv_request_queue;
-        /** high priority queue */
-        cfs_list_t                      srv_request_hpq;
-        /** # incoming reqs */
-        int                             srv_n_queued_reqs;
-        /** # reqs being served */
-        int                             srv_n_active_reqs;
-        /** # HPreqs being served */
-        int                             srv_n_active_hpreq;
-        /** # hp requests handled */
-        int                             srv_hpreq_count;
-
-        /** AT stuff */
-        /** @{ */
-        /**
-         * serialize the following fields, used for changes on
-         * adaptive timeout
-         */
-        cfs_spinlock_t                  srv_at_lock __cfs_cacheline_aligned;
-        /** estimated rpc service time */
-        struct adaptive_timeout         srv_at_estimate;
-        /** reqs waiting for replies */
-        struct ptlrpc_at_array          srv_at_array;
-        /** early reply timer */
-        cfs_timer_t                     srv_at_timer;
-        /** check early replies */
-        unsigned                        srv_at_check;
-        /** debug */
-        cfs_time_t                      srv_at_checktime;
-        /** @} */
+       /** max # request buffers in history per partition */
+       int                             srv_hist_nrqbds_cpt_max;
+       /** number of CPTs this service bound on */
+       int                             srv_ncpts;
+       /** CPTs array this service bound on */
+       __u32                           *srv_cpts;
+       /** 2^srv_cptab_bits >= cfs_cpt_numbert(srv_cptable) */
+       int                             srv_cpt_bits;
+       /** CPT table this service is running over */
+       struct cfs_cpt_table            *srv_cptable;
+       /**
+        * partition data for ptlrpc service
+        */
+       struct ptlrpc_service_part      *srv_parts[0];
+};
 
-        /**
-         * serialize the following fields, used for processing
-         * replies for this portal
-         */
-        cfs_spinlock_t                  srv_rs_lock __cfs_cacheline_aligned;
-        /** all the active replies */
-        cfs_list_t                      srv_active_replies;
+/**
+ * Definition of PortalRPC service partition data.
+ * Although a service only has one instance of it right now, but we
+ * will have multiple instances very soon (instance per CPT).
+ *
+ * it has four locks:
+ * \a scp_lock
+ *    serialize operations on rqbd and requests waiting for preprocess
+ * \a scp_req_lock
+ *    serialize operations active requests sent to this portal
+ * \a scp_at_lock
+ *    serialize adaptive timeout stuff
+ * \a scp_rep_lock
+ *    serialize operations on RS list (reply states)
+ *
+ * We don't have any use-case to take two or more locks at the same time
+ * for now, so there is no lock order issue.
+ */
+struct ptlrpc_service_part {
+       /** back reference to owner */
+       struct ptlrpc_service           *scp_service __cfs_cacheline_aligned;
+       /* CPT id, reserved */
+       int                             scp_cpt;
+       /** always increasing number */
+       int                             scp_thr_nextid;
+       /** # of starting threads */
+       int                             scp_nthrs_starting;
+       /** # of stopping threads, reserved for shrinking threads */
+       int                             scp_nthrs_stopping;
+       /** # running threads */
+       int                             scp_nthrs_running;
+       /** service threads list */
+       cfs_list_t                      scp_threads;
+
+       /**
+        * serialize the following fields, used for protecting
+        * rqbd list and incoming requests waiting for preprocess,
+        * threads starting & stopping are also protected by this lock.
+        */
+       cfs_spinlock_t                  scp_lock  __cfs_cacheline_aligned;
+       /** total # req buffer descs allocated */
+       int                             scp_nrqbds_total;
+       /** # posted request buffers for receiving */
+       int                             scp_nrqbds_posted;
+       /** # incoming reqs */
+       int                             scp_nreqs_incoming;
+       /** request buffers to be reposted */
+       cfs_list_t                      scp_rqbd_idle;
+       /** req buffers receiving */
+       cfs_list_t                      scp_rqbd_posted;
+       /** incoming reqs */
+       cfs_list_t                      scp_req_incoming;
+       /** timeout before re-posting reqs, in tick */
+       cfs_duration_t                  scp_rqbd_timeout;
+       /**
+        * all threads sleep on this. This wait-queue is signalled when new
+        * incoming request arrives and when difficult reply has to be handled.
+        */
+       cfs_waitq_t                     scp_waitq;
+
+       /** request history */
+       cfs_list_t                      scp_hist_reqs;
+       /** request buffer history */
+       cfs_list_t                      scp_hist_rqbds;
+       /** # request buffers in history */
+       int                             scp_hist_nrqbds;
+       /** sequence number for request */
+       __u64                           scp_hist_seq;
+       /** highest seq culled from history */
+       __u64                           scp_hist_seq_culled;
+
+       /**
+        * serialize the following fields, used for processing requests
+        * sent to this portal
+        */
+       cfs_spinlock_t                  scp_req_lock __cfs_cacheline_aligned;
+       /** # reqs in either of the queues below */
+       /** reqs waiting for service */
+       cfs_list_t                      scp_req_pending;
+       /** high priority queue */
+       cfs_list_t                      scp_hreq_pending;
+       /** # reqs being served */
+       int                             scp_nreqs_active;
+       /** # HPreqs being served */
+       int                             scp_nhreqs_active;
+       /** # hp requests handled */
+       int                             scp_hreq_count;
+
+       /** AT stuff */
+       /** @{ */
+       /**
+        * serialize the following fields, used for changes on
+        * adaptive timeout
+        */
+       cfs_spinlock_t                  scp_at_lock __cfs_cacheline_aligned;
+       /** estimated rpc service time */
+       struct adaptive_timeout         scp_at_estimate;
+       /** reqs waiting for replies */
+       struct ptlrpc_at_array          scp_at_array;
+       /** early reply timer */
+       cfs_timer_t                     scp_at_timer;
+       /** debug */
+       cfs_time_t                      scp_at_checktime;
+       /** check early replies */
+       unsigned                        scp_at_check;
+       /** @} */
+
+       /**
+        * serialize the following fields, used for processing
+        * replies for this portal
+        */
+       cfs_spinlock_t                  scp_rep_lock __cfs_cacheline_aligned;
+       /** all the active replies */
+       cfs_list_t                      scp_rep_active;
 #ifndef __KERNEL__
-        /** replies waiting for service */
-        cfs_list_t                      srv_reply_queue;
+       /** replies waiting for service */
+       cfs_list_t                      scp_rep_queue;
 #endif
-        /** List of free reply_states */
-        cfs_list_t                      srv_free_rs_list;
-        /** waitq to run, when adding stuff to srv_free_rs_list */
-        cfs_waitq_t                     srv_free_rs_waitq;
-        /** # 'difficult' replies */
-        cfs_atomic_t                    srv_n_difficult_replies;
-        //struct ptlrpc_srv_ni srv_interfaces[0];
+       /** List of free reply_states */
+       cfs_list_t                      scp_rep_idle;
+       /** waitq to run, when adding stuff to srv_free_rs_list */
+       cfs_waitq_t                     scp_rep_waitq;
+       /** # 'difficult' replies */
+       cfs_atomic_t                    scp_nreps_difficult;
 };
 
+#define ptlrpc_service_for_each_part(part, i, svc)                     \
+       for (i = 0;                                                     \
+            i < (svc)->srv_ncpts &&                                    \
+            (svc)->srv_parts != NULL &&                                \
+            ((part) = (svc)->srv_parts[i]) != NULL; i++)
+
 /**
  * Declaration of ptlrpcd control structure
  */
@@ -1237,6 +1547,22 @@ struct ptlrpcd_ctl {
          * Environment for request interpreters to run in.
          */
         struct lu_env               pc_env;
+        /**
+         * Index of ptlrpcd thread in the array.
+         */
+        int                         pc_index;
+        /**
+         * Number of the ptlrpcd's partners.
+         */
+        int                         pc_npartners;
+        /**
+         * Pointer to the array of partners' ptlrpcd_ctl structure.
+         */
+        struct ptlrpcd_ctl        **pc_partners;
+        /**
+         * Record the partner index to be processed next.
+         */
+        int                         pc_cursor;
 #ifndef __KERNEL__
         /**
          * Async rpcs flag to make sure that ptlrpcd_check() is called only
@@ -1277,7 +1603,11 @@ enum ptlrpcd_ctl_flags {
         /**
          * This is a recovery ptlrpc thread.
          */
-        LIOD_RECOVERY    = 1 << 3
+        LIOD_RECOVERY    = 1 << 3,
+        /**
+         * The ptlrpcd is bound to some CPU core.
+         */
+        LIOD_BIND        = 1 << 4,
 };
 
 /* ptlrpc/events.c */
@@ -1289,12 +1619,14 @@ extern int ptlrpc_uuid_to_peer(struct obd_uuid *uuid,
  * underlying buffer
  * @{
  */
-extern void request_out_callback (lnet_event_t *ev);
+extern void request_out_callback(lnet_event_t *ev);
 extern void reply_in_callback(lnet_event_t *ev);
-extern void client_bulk_callback (lnet_event_t *ev);
+extern void client_bulk_callback(lnet_event_t *ev);
 extern void request_in_callback(lnet_event_t *ev);
 extern void reply_out_callback(lnet_event_t *ev);
-extern void server_bulk_callback (lnet_event_t *ev);
+#ifdef HAVE_SERVER_SUPPORT
+extern void server_bulk_callback(lnet_event_t *ev);
+#endif
 /** @} */
 
 /* ptlrpc/connection.c */
@@ -1312,10 +1644,11 @@ extern lnet_pid_t ptl_get_pid(void);
  * Actual interfacing with LNet to put/get/register/unregister stuff
  * @{
  */
+#ifdef HAVE_SERVER_SUPPORT
+struct ptlrpc_bulk_desc *ptlrpc_prep_bulk_exp(struct ptlrpc_request *req,
+                                              int npages, int type, int portal);
 int ptlrpc_start_bulk_transfer(struct ptlrpc_bulk_desc *desc);
 void ptlrpc_abort_bulk(struct ptlrpc_bulk_desc *desc);
-int ptlrpc_register_bulk(struct ptlrpc_request *req);
-int ptlrpc_unregister_bulk(struct ptlrpc_request *req, int async);
 
 static inline int ptlrpc_server_bulk_active(struct ptlrpc_bulk_desc *desc)
 {
@@ -1328,6 +1661,10 @@ static inline int ptlrpc_server_bulk_active(struct ptlrpc_bulk_desc *desc)
         cfs_spin_unlock(&desc->bd_lock);
         return rc;
 }
+#endif
+
+int ptlrpc_register_bulk(struct ptlrpc_request *req);
+int ptlrpc_unregister_bulk(struct ptlrpc_request *req, int async);
 
 static inline int ptlrpc_client_bulk_active(struct ptlrpc_request *req)
 {
@@ -1358,7 +1695,7 @@ int ptlrpc_error(struct ptlrpc_request *req);
 void ptlrpc_resend_req(struct ptlrpc_request *request);
 int ptlrpc_at_get_net_latency(struct ptlrpc_request *req);
 int ptl_send_rpc(struct ptlrpc_request *request, int noreply);
-int ptlrpc_register_rqbd (struct ptlrpc_request_buffer_desc *rqbd);
+int ptlrpc_register_rqbd(struct ptlrpc_request_buffer_desc *rqbd);
 /** @} */
 
 /* ptlrpc/client.c */
@@ -1381,6 +1718,8 @@ void ptlrpc_cleanup_imp(struct obd_import *imp);
 void ptlrpc_abort_set(struct ptlrpc_request_set *set);
 
 struct ptlrpc_request_set *ptlrpc_prep_set(void);
+struct ptlrpc_request_set *ptlrpc_prep_fcset(int max, set_producer_func func,
+                                            void *arg);
 int ptlrpc_set_add_cb(struct ptlrpc_request_set *set,
                       set_interpreter_func fn, void *data);
 int ptlrpc_set_next_timeout(struct ptlrpc_request_set *);
@@ -1391,8 +1730,8 @@ void ptlrpc_interrupted_set(void *data);
 void ptlrpc_mark_interrupted(struct ptlrpc_request *req);
 void ptlrpc_set_destroy(struct ptlrpc_request_set *);
 void ptlrpc_set_add_req(struct ptlrpc_request_set *, struct ptlrpc_request *);
-int ptlrpc_set_add_new_req(struct ptlrpcd_ctl *pc,
-                           struct ptlrpc_request *req);
+void ptlrpc_set_add_new_req(struct ptlrpcd_ctl *pc,
+                            struct ptlrpc_request *req);
 
 void ptlrpc_free_rq_pool(struct ptlrpc_request_pool *pool);
 void ptlrpc_add_rqs_to_pool(struct ptlrpc_request_pool *pool, int num_rq);
@@ -1431,32 +1770,105 @@ struct ptlrpc_request *ptlrpc_prep_req_pool(struct obd_import *imp,
 void ptlrpc_req_finished(struct ptlrpc_request *request);
 void ptlrpc_req_finished_with_imp_lock(struct ptlrpc_request *request);
 struct ptlrpc_request *ptlrpc_request_addref(struct ptlrpc_request *req);
-struct ptlrpc_bulk_desc *ptlrpc_prep_bulk_imp (struct ptlrpc_request *req,
-                                               int npages, int type, int portal);
-struct ptlrpc_bulk_desc *ptlrpc_prep_bulk_exp(struct ptlrpc_request *req,
+struct ptlrpc_bulk_desc *ptlrpc_prep_bulk_imp(struct ptlrpc_request *req,
                                               int npages, int type, int portal);
-void ptlrpc_free_bulk(struct ptlrpc_bulk_desc *bulk);
-void ptlrpc_prep_bulk_page(struct ptlrpc_bulk_desc *desc,
-                           cfs_page_t *page, int pageoffset, int len);
+void __ptlrpc_free_bulk(struct ptlrpc_bulk_desc *bulk, int pin);
+static inline void ptlrpc_free_bulk(struct ptlrpc_bulk_desc *bulk)
+{
+       __ptlrpc_free_bulk(bulk, 1);
+}
+static inline void ptlrpc_free_bulk_nopin(struct ptlrpc_bulk_desc *bulk)
+{
+       __ptlrpc_free_bulk(bulk, 0);
+}
+void __ptlrpc_prep_bulk_page(struct ptlrpc_bulk_desc *desc,
+                            cfs_page_t *page, int pageoffset, int len, int);
+static inline void ptlrpc_prep_bulk_page(struct ptlrpc_bulk_desc *desc,
+                                        cfs_page_t *page, int pageoffset,
+                                        int len)
+{
+       __ptlrpc_prep_bulk_page(desc, page, pageoffset, len, 1);
+}
+
+static inline void ptlrpc_prep_bulk_page_nopin(struct ptlrpc_bulk_desc *desc,
+                                              cfs_page_t *page, int pageoffset,
+                                              int len)
+{
+       __ptlrpc_prep_bulk_page(desc, page, pageoffset, len, 0);
+}
+
 void ptlrpc_retain_replayable_request(struct ptlrpc_request *req,
                                       struct obd_import *imp);
 __u64 ptlrpc_next_xid(void);
 __u64 ptlrpc_sample_next_xid(void);
 __u64 ptlrpc_req_xid(struct ptlrpc_request *request);
 
+/* Set of routines to run a function in ptlrpcd context */
+void *ptlrpcd_alloc_work(struct obd_import *imp,
+                         int (*cb)(const struct lu_env *, void *), void *data);
+void ptlrpcd_destroy_work(void *handler);
+int ptlrpcd_queue_work(void *handler);
+
 /** @} */
+struct ptlrpc_service_buf_conf {
+       /* nbufs is how many buffers to post */
+       unsigned int                    bc_nbufs;
+       /* buffer size to post */
+       unsigned int                    bc_buf_size;
+       /* portal to listed for requests on */
+       unsigned int                    bc_req_portal;
+       /* portal of where to send replies to */
+       unsigned int                    bc_rep_portal;
+       /* maximum request size to be accepted for this service */
+       unsigned int                    bc_req_max_size;
+       /* maximum reply size this service can ever send */
+       unsigned int                    bc_rep_max_size;
+};
+
+struct ptlrpc_service_thr_conf {
+       /* threadname should be 8 characters or less - 6 will be added on */
+       char                            *tc_thr_name;
+       /* threads increasing factor for each CPU */
+       unsigned int                    tc_thr_factor;
+       /* service threads # to start on each partition while initializing */
+       unsigned int                    tc_nthrs_init;
+       /*
+        * low water of threads # upper-limit on each partition while running,
+        * service availability may be impacted if threads number is lower
+        * than this value. It can be ZERO if the service doesn't require
+        * CPU affinity or there is only one partition.
+        */
+       unsigned int                    tc_nthrs_base;
+       /* "soft" limit for total threads number */
+       unsigned int                    tc_nthrs_max;
+       /* user specified threads number, it will be validated due to
+        * other members of this structure. */
+       unsigned int                    tc_nthrs_user;
+       /* set NUMA node affinity for service threads */
+       unsigned int                    tc_cpu_affinity;
+       /* Tags for lu_context associated with service thread */
+       __u32                           tc_ctx_tags;
+};
+
+struct ptlrpc_service_cpt_conf {
+       struct cfs_cpt_table            *cc_cptable;
+       /* string pattern to describe CPTs for a service */
+       char                            *cc_pattern;
+};
 
 struct ptlrpc_service_conf {
-        int psc_nbufs;
-        int psc_bufsize;
-        int psc_max_req_size;
-        int psc_max_reply_size;
-        int psc_req_portal;
-        int psc_rep_portal;
-        int psc_watchdog_factor;
-        int psc_min_threads;
-        int psc_max_threads;
-        __u32 psc_ctx_tags;
+       /* service name */
+       char                            *psc_name;
+       /* soft watchdog timeout multiplifier to print stuck service traces */
+       unsigned int                    psc_watchdog_factor;
+       /* buffer information */
+       struct ptlrpc_service_buf_conf  psc_buf;
+       /* thread information */
+       struct ptlrpc_service_thr_conf  psc_thr;
+       /* CPU partition information */
+       struct ptlrpc_service_cpt_conf  psc_cpt;
+       /* function table */
+       struct ptlrpc_service_ops       psc_ops;
 };
 
 /* ptlrpc/service.c */
@@ -1466,33 +1878,20 @@ struct ptlrpc_service_conf {
  *
  * @{
  */
-void ptlrpc_save_lock (struct ptlrpc_request *req,
-                       struct lustre_handle *lock, int mode, int no_ack);
+void ptlrpc_save_lock(struct ptlrpc_request *req,
+                      struct lustre_handle *lock, int mode, int no_ack);
 void ptlrpc_commit_replies(struct obd_export *exp);
-void ptlrpc_dispatch_difficult_reply (struct ptlrpc_reply_state *rs);
-void ptlrpc_schedule_difficult_reply (struct ptlrpc_reply_state *rs);
-struct ptlrpc_service *ptlrpc_init_svc_conf(struct ptlrpc_service_conf *c,
-                                            svc_handler_t h, char *name,
-                                            struct proc_dir_entry *proc_entry,
-                                            svc_req_printfn_t prntfn,
-                                            char *threadname);
-
-struct ptlrpc_service *ptlrpc_init_svc(int nbufs, int bufsize, int max_req_size,
-                                       int max_reply_size,
-                                       int req_portal, int rep_portal,
-                                       int watchdog_factor,
-                                       svc_handler_t, char *name,
-                                       cfs_proc_dir_entry_t *proc_entry,
-                                       svc_req_printfn_t,
-                                       int min_threads, int max_threads,
-                                       char *threadname, __u32 ctx_tags,
-                                       svc_hpreq_handler_t);
+void ptlrpc_dispatch_difficult_reply(struct ptlrpc_reply_state *rs);
+void ptlrpc_schedule_difficult_reply(struct ptlrpc_reply_state *rs);
+int ptlrpc_hpreq_handler(struct ptlrpc_request *req);
+struct ptlrpc_service *ptlrpc_register_service(
+                               struct ptlrpc_service_conf *conf,
+                               struct proc_dir_entry *proc_entry);
 void ptlrpc_stop_all_threads(struct ptlrpc_service *svc);
 
 int ptlrpc_start_threads(struct ptlrpc_service *svc);
-int ptlrpc_start_thread(struct ptlrpc_service *svc);
 int ptlrpc_unregister_service(struct ptlrpc_service *service);
-int liblustre_check_services (void *arg);
+int liblustre_check_services(void *arg);
 void ptlrpc_daemonize(char *name);
 int ptlrpc_service_health_check(struct ptlrpc_service *);
 void ptlrpc_hpreq_reorder(struct ptlrpc_request *req);
@@ -1506,11 +1905,6 @@ void ptlrpc_hr_fini(void);
 # define ptlrpc_hr_fini() do {} while(0)
 #endif
 
-struct ptlrpc_svc_data {
-        char *name;
-        struct ptlrpc_service *svc;
-        struct ptlrpc_thread *thread;
-};
 /** @} */
 
 /* ptlrpc/import.c */
@@ -1522,6 +1916,8 @@ int ptlrpc_connect_import(struct obd_import *imp);
 int ptlrpc_init_import(struct obd_import *imp);
 int ptlrpc_disconnect_import(struct obd_import *imp, int noclose);
 int ptlrpc_import_recovery_state_machine(struct obd_import *imp);
+void deuuidify(char *uuid, const char *prefix, char **uuid_start,
+               int *uuid_len);
 
 /* ptlrpc/pack_generic.c */
 int ptlrpc_reconnect_import(struct obd_import *imp);
@@ -1565,7 +1961,7 @@ void *lustre_msg_buf(struct lustre_msg *m, int n, int minlen);
 int lustre_msg_buflen(struct lustre_msg *m, int n);
 void lustre_msg_set_buflen(struct lustre_msg *m, int n, int len);
 int lustre_msg_bufcount(struct lustre_msg *m);
-char *lustre_msg_string (struct lustre_msg *m, int n, int max_len);
+char *lustre_msg_string(struct lustre_msg *m, int n, int max_len);
 __u32 lustre_msghdr_get_flags(struct lustre_msg *msg);
 void lustre_msghdr_set_flags(struct lustre_msg *msg, __u32 flags);
 __u32 lustre_msg_get_flags(struct lustre_msg *msg);
@@ -1594,8 +1990,9 @@ int lustre_msg_is_v1(struct lustre_msg *msg);
 __u32 lustre_msg_get_magic(struct lustre_msg *msg);
 __u32 lustre_msg_get_timeout(struct lustre_msg *msg);
 __u32 lustre_msg_get_service_time(struct lustre_msg *msg);
+char *lustre_msg_get_jobid(struct lustre_msg *msg);
 __u32 lustre_msg_get_cksum(struct lustre_msg *msg);
-#if LUSTRE_VERSION_CODE < OBD_OCD_VERSION(2, 9, 0, 0)
+#if LUSTRE_VERSION_CODE < OBD_OCD_VERSION(2, 7, 50, 0)
 __u32 lustre_msg_calc_cksum(struct lustre_msg *msg, int compat18);
 #else
 # warning "remove checksum compatibility support for b1_8"
@@ -1614,6 +2011,7 @@ void ptlrpc_req_set_repsize(struct ptlrpc_request *req, int count, __u32 *sizes)
 void ptlrpc_request_set_replen(struct ptlrpc_request *req);
 void lustre_msg_set_timeout(struct lustre_msg *msg, __u32 timeout);
 void lustre_msg_set_service_time(struct lustre_msg *msg, __u32 service_time);
+void lustre_msg_set_jobid(struct lustre_msg *msg, char *jobid);
 void lustre_msg_set_cksum(struct lustre_msg *msg, __u32 cksum);
 
 static inline void
@@ -1773,6 +2171,22 @@ static inline int ptlrpc_no_resend(struct ptlrpc_request *req)
         return req->rq_no_resend;
 }
 
+static inline int
+ptlrpc_server_get_timeout(struct ptlrpc_service_part *svcpt)
+{
+       int at = AT_OFF ? 0 : at_get(&svcpt->scp_at_estimate);
+
+       return svcpt->scp_service->srv_watchdog_factor *
+              max_t(int, at, obd_timeout);
+}
+
+static inline struct ptlrpc_service *
+ptlrpc_req2svc(struct ptlrpc_request *req)
+{
+       LASSERT(req->rq_rqbd != NULL);
+       return req->rq_rqbd->rqbd_svcpt->scp_service;
+}
+
 /* ldlm/ldlm_lib.c */
 /**
  * Target client logic
@@ -1794,7 +2208,9 @@ int import_set_conn_priority(struct obd_import *imp, struct obd_uuid *uuid);
 void client_destroy_import(struct obd_import *imp);
 /** @} */
 
+#ifdef HAVE_SERVER_SUPPORT
 int server_disconnect_export(struct obd_export *exp);
+#endif
 
 /* ptlrpc/pinger.c */
 /**
@@ -1826,26 +2242,42 @@ void ping_evictor_stop(void);
 int ptlrpc_check_and_wait_suspend(struct ptlrpc_request *req);
 /** @} */
 
-/* ptlrpc/ptlrpcd.c */
-
-/**
- * Ptlrpcd scope is a set of two threads: ptlrpcd-foo and ptlrpcd-foo-rcv,
- * these threads are used to asynchronously send requests queued with
- * ptlrpcd_add_req(req, PCSOPE_FOO), and to handle completion call-backs for
- * such requests. Multiple scopes are needed to avoid dead-locks.
- */
-enum ptlrpcd_scope {
-        /** Scope of bulk read-write rpcs. */
-        PSCOPE_BRW,
-        /** Everything else. */
-        PSCOPE_OTHER,
-        PSCOPE_NR
-};
+/* ptlrpc daemon bind policy */
+typedef enum {
+        /* all ptlrpcd threads are free mode */
+        PDB_POLICY_NONE          = 1,
+        /* all ptlrpcd threads are bound mode */
+        PDB_POLICY_FULL          = 2,
+        /* <free1 bound1> <free2 bound2> ... <freeN boundN> */
+        PDB_POLICY_PAIR          = 3,
+        /* <free1 bound1> <bound1 free2> ... <freeN boundN> <boundN free1>,
+         * means each ptlrpcd[X] has two partners: thread[X-1] and thread[X+1].
+         * If kernel supports NUMA, pthrpcd threads are binded and
+         * grouped by NUMA node */
+        PDB_POLICY_NEIGHBOR      = 4,
+} pdb_policy_t;
+
+/* ptlrpc daemon load policy
+ * It is caller's duty to specify how to push the async RPC into some ptlrpcd
+ * queue, but it is not enforced, affected by "ptlrpcd_bind_policy". If it is
+ * "PDB_POLICY_FULL", then the RPC will be processed by the selected ptlrpcd,
+ * Otherwise, the RPC may be processed by the selected ptlrpcd or its partner,
+ * depends on which is scheduled firstly, to accelerate the RPC processing. */
+typedef enum {
+        /* on the same CPU core as the caller */
+        PDL_POLICY_SAME         = 1,
+        /* within the same CPU partition, but not the same core as the caller */
+        PDL_POLICY_LOCAL        = 2,
+        /* round-robin on all CPU cores, but not the same core as the caller */
+        PDL_POLICY_ROUND        = 3,
+        /* the specified CPU core is preferred, but not enforced */
+        PDL_POLICY_PREFERRED    = 4,
+} pdl_policy_t;
 
-int ptlrpcd_start(const char *name, struct ptlrpcd_ctl *pc);
+/* ptlrpc/ptlrpcd.c */
 void ptlrpcd_stop(struct ptlrpcd_ctl *pc, int force);
 void ptlrpcd_wake(struct ptlrpc_request *req);
-int ptlrpcd_add_req(struct ptlrpc_request *req, enum ptlrpcd_scope scope);
+void ptlrpcd_add_req(struct ptlrpc_request *req, pdl_policy_t policy, int idx);
 void ptlrpcd_add_rqset(struct ptlrpc_request_set *set);
 int ptlrpcd_addref(void);
 void ptlrpcd_decref(void);
@@ -1868,14 +2300,13 @@ static inline void ptlrpc_lprocfs_brw(struct ptlrpc_request *req, int bytes) {}
 /** @} */
 
 /* ptlrpc/llog_server.c */
-int llog_origin_handle_create(struct ptlrpc_request *req);
+int llog_origin_handle_open(struct ptlrpc_request *req);
 int llog_origin_handle_destroy(struct ptlrpc_request *req);
 int llog_origin_handle_prev_block(struct ptlrpc_request *req);
 int llog_origin_handle_next_block(struct ptlrpc_request *req);
 int llog_origin_handle_read_header(struct ptlrpc_request *req);
 int llog_origin_handle_close(struct ptlrpc_request *req);
 int llog_origin_handle_cancel(struct ptlrpc_request *req);
-int llog_catinfo(struct ptlrpc_request *req);
 
 /* ptlrpc/llog_client.c */
 extern struct llog_operations llog_client_ops;