Whamcloud - gitweb
LU-10157 lnet: restore an maximal fragments count
[fs/lustre-release.git] / lnet / include / lnet / lib-types.h
index c3feaea..c4b6222 100644 (file)
 
 #include <uapi/linux/lnet/lnet-dlc.h>
 #include <uapi/linux/lnet/lnetctl.h>
+#include <uapi/linux/lnet/nidstr.h>
 
 /* Max payload size */
 #define LNET_MAX_PAYLOAD       LNET_MTU
 
-#define LNET_MAX_IOV           (LNET_MAX_PAYLOAD >> PAGE_SHIFT)
+/** limit on the number of fragments in discontiguous MDs */
+#define LNET_MAX_IOV   256
 
 /*
  * This is the maximum health value.
@@ -166,8 +168,7 @@ struct lnet_msg {
        unsigned int          msg_wanted;
        unsigned int          msg_offset;
        unsigned int          msg_niov;
-       struct kvec          *msg_iov;
-       lnet_kiov_t          *msg_kiov;
+       struct bio_vec       *msg_kiov;
 
        struct lnet_event       msg_ev;
        struct lnet_hdr         msg_hdr;
@@ -181,20 +182,9 @@ struct lnet_libhandle {
 #define lh_entry(ptr, type, member) \
        ((type *)((char *)(ptr)-(char *)(&((type *)0)->member)))
 
-struct lnet_eq {
-       struct list_head        eq_list;
-       struct lnet_libhandle   eq_lh;
-       unsigned long           eq_enq_seq;
-       unsigned long           eq_deq_seq;
-       unsigned int            eq_size;
-       lnet_eq_handler_t       eq_callback;
-       struct lnet_event       *eq_events;
-       int                     **eq_refs;      /* percpt refcount for EQ */
-};
-
 struct lnet_me {
        struct list_head        me_list;
-       struct lnet_libhandle   me_lh;
+       int                     me_cpt;
        struct lnet_process_id  me_match_id;
        unsigned int            me_portal;
        unsigned int            me_pos;         /* hash offset in mt_hash */
@@ -219,17 +209,14 @@ struct lnet_libmd {
        unsigned int             md_niov;       /* # frags at end of struct */
        void                    *md_user_ptr;
        struct lnet_rsp_tracker *md_rspt_ptr;
-       struct lnet_eq          *md_eq;
+       lnet_handler_t           md_handler;
        struct lnet_handle_md    md_bulk_handle;
-       union {
-               struct kvec      iov[LNET_MAX_IOV];
-               lnet_kiov_t      kiov[LNET_MAX_IOV];
-       } md_iov;
+       struct bio_vec           md_kiov[LNET_MAX_IOV];
 };
 
-#define LNET_MD_FLAG_ZOMBIE     (1 << 0)
-#define LNET_MD_FLAG_AUTO_UNLINK (1 << 1)
-#define LNET_MD_FLAG_ABORTED    (1 << 2)
+#define LNET_MD_FLAG_ZOMBIE     BIT(0)
+#define LNET_MD_FLAG_AUTO_UNLINK BIT(1)
+#define LNET_MD_FLAG_ABORTED    BIT(2)
 
 struct lnet_test_peer {
        /* info about peers we are trying to fail */
@@ -248,10 +235,6 @@ struct lnet_ni;                                     /* forward ref */
 struct socket;
 
 struct lnet_lnd {
-       /* fields managed by portals */
-       struct list_head        lnd_list;       /* stash in the LND table */
-       int                     lnd_refcount;   /* # active instances */
-
        /* fields initialized by the LND */
        __u32                   lnd_type;
 
@@ -260,11 +243,7 @@ struct lnet_lnd {
        int  (*lnd_ctl)(struct lnet_ni *ni, unsigned int cmd, void *arg);
 
        /* In data movement APIs below, payload buffers are described as a set
-        * of 'niov' fragments which are...
-        * EITHER
-        *    in virtual memory (struct kvec *iov != NULL)
-        * OR
-        *    in pages (kernel only: plt_kiov_t *kiov != NULL).
+        * of 'niov' fragments which are in pages.
         * The LND may NOT overwrite these fragment descriptors.
         * An 'offset' and may specify a byte offset within the set of
         * fragments to start from
@@ -285,7 +264,7 @@ struct lnet_lnd {
         * credit if the LND does flow control. */
        int (*lnd_recv)(struct lnet_ni *ni, void *private, struct lnet_msg *msg,
                        int delayed, unsigned int niov,
-                       struct kvec *iov, lnet_kiov_t *kiov,
+                       struct bio_vec *kiov,
                        unsigned int offset, unsigned int mlen, unsigned int rlen);
 
        /* lnet_parse() has had to delay processing of this message
@@ -300,9 +279,6 @@ struct lnet_lnd {
        /* notification of peer down */
        void (*lnd_notify_peer_down)(lnet_nid_t peer);
 
-       /* query of peer aliveness */
-       void (*lnd_query)(struct lnet_ni *ni, lnet_nid_t peer, time64_t *when);
-
        /* accept a new connection */
        int (*lnd_accept)(struct lnet_ni *ni, struct socket *sock);
 };
@@ -402,7 +378,7 @@ struct lnet_net {
        bool                    net_tunables_set;
 
        /* procedural interface */
-       struct lnet_lnd         *net_lnd;
+       const struct lnet_lnd   *net_lnd;
 
        /* list of NIs on this net */
        struct list_head        net_ni_list;
@@ -413,9 +389,6 @@ struct lnet_net {
        /* dying LND instances */
        struct list_head        net_ni_zombie;
 
-       /* network state */
-       enum lnet_net_state     net_state;
-
        /* when I was last alive */
        time64_t                net_last_alive;
 
@@ -519,6 +492,7 @@ struct lnet_ni {
 struct lnet_ping_buffer {
        int                     pb_nnis;
        atomic_t                pb_refcnt;
+       bool                    pb_needs_post;
        struct lnet_ping_info   pb_info;
 };
 
@@ -596,13 +570,13 @@ struct lnet_peer_ni {
 };
 
 /* Preferred path added due to traffic on non-MR peer_ni */
-#define LNET_PEER_NI_NON_MR_PREF       (1 << 0)
+#define LNET_PEER_NI_NON_MR_PREF       BIT(0)
 /* peer is being recovered. */
-#define LNET_PEER_NI_RECOVERY_PENDING  (1 << 1)
+#define LNET_PEER_NI_RECOVERY_PENDING  BIT(1)
 /* recovery ping failed */
-#define LNET_PEER_NI_RECOVERY_FAILED   (1 << 2)
+#define LNET_PEER_NI_RECOVERY_FAILED   BIT(2)
 /* peer is being deleted */
-#define LNET_PEER_NI_DELETING          (1 << 3)
+#define LNET_PEER_NI_DELETING          BIT(3)
 
 struct lnet_peer {
        /* chain on pt_peer_list */
@@ -620,6 +594,9 @@ struct lnet_peer {
        /* primary NID of the peer */
        lnet_nid_t              lp_primary_nid;
 
+       /* source NID to use during discovery */
+       lnet_nid_t              lp_disc_src_nid;
+
        /* net to perform discovery on */
        __u32                   lp_disc_net_id;
 
@@ -629,7 +606,7 @@ struct lnet_peer {
        /* number of NIDs on this peer */
        int                     lp_nnis;
 
-       /* # refs from lnet_route_t::lr_gateway */
+       /* # refs from lnet_route::lr_gateway */
        int                     lp_rtr_refcount;
 
        /*
@@ -691,6 +668,9 @@ struct lnet_peer {
 
        /* tasks waiting on discovery of this peer */
        wait_queue_head_t       lp_dc_waitq;
+
+       /* cached peer aliveness */
+       bool                    lp_alive;
 };
 
 /*
@@ -705,9 +685,9 @@ struct lnet_peer {
  *
  * A peer is marked ROUTER if it indicates so in the feature bit.
  */
-#define LNET_PEER_MULTI_RAIL   (1 << 0)        /* Multi-rail aware */
-#define LNET_PEER_NO_DISCOVERY (1 << 1)        /* Peer disabled discovery */
-#define LNET_PEER_ROUTER_ENABLED (1 << 2)      /* router feature enabled */
+#define LNET_PEER_MULTI_RAIL           BIT(0)  /* Multi-rail aware */
+#define LNET_PEER_NO_DISCOVERY         BIT(1)  /* Peer disabled discovery */
+#define LNET_PEER_ROUTER_ENABLED       BIT(2)  /* router feature enabled */
 
 /*
  * A peer is marked CONFIGURED if it was configured by DLC.
@@ -722,34 +702,39 @@ struct lnet_peer {
  * A peer that was created as the result of inbound traffic will not
  * be marked at all.
  */
-#define LNET_PEER_CONFIGURED   (1 << 3)        /* Configured via DLC */
-#define LNET_PEER_DISCOVERED   (1 << 4)        /* Peer was discovered */
-#define LNET_PEER_REDISCOVER   (1 << 5)        /* Discovery was disabled */
+#define LNET_PEER_CONFIGURED           BIT(3)  /* Configured via DLC */
+#define LNET_PEER_DISCOVERED           BIT(4)  /* Peer was discovered */
+#define LNET_PEER_REDISCOVER           BIT(5)  /* Discovery was disabled */
 /*
  * A peer is marked DISCOVERING when discovery is in progress.
  * The other flags below correspond to stages of discovery.
  */
-#define LNET_PEER_DISCOVERING  (1 << 6)        /* Discovering */
-#define LNET_PEER_DATA_PRESENT (1 << 7)        /* Remote peer data present */
-#define LNET_PEER_NIDS_UPTODATE        (1 << 8)        /* Remote peer info uptodate */
-#define LNET_PEER_PING_SENT    (1 << 9)        /* Waiting for REPLY to Ping */
-#define LNET_PEER_PUSH_SENT    (1 << 10)       /* Waiting for ACK of Push */
-#define LNET_PEER_PING_FAILED  (1 << 11)       /* Ping send failure */
-#define LNET_PEER_PUSH_FAILED  (1 << 12)       /* Push send failure */
+#define LNET_PEER_DISCOVERING          BIT(6)  /* Discovering */
+#define LNET_PEER_DATA_PRESENT         BIT(7)  /* Remote peer data present */
+#define LNET_PEER_NIDS_UPTODATE                BIT(8)  /* Remote peer info uptodate */
+#define LNET_PEER_PING_SENT            BIT(9)  /* Waiting for REPLY to Ping */
+#define LNET_PEER_PUSH_SENT            BIT(10) /* Waiting for ACK of Push */
+#define LNET_PEER_PING_FAILED          BIT(11) /* Ping send failure */
+#define LNET_PEER_PUSH_FAILED          BIT(12) /* Push send failure */
 /*
  * A ping can be forced as a way to fix up state, or as a manual
  * intervention by an admin.
  * A push can be forced in circumstances that would normally not
  * allow for one to happen.
  */
-#define LNET_PEER_FORCE_PING   (1 << 13)       /* Forced Ping */
-#define LNET_PEER_FORCE_PUSH   (1 << 14)       /* Forced Push */
+#define LNET_PEER_FORCE_PING           BIT(13) /* Forced Ping */
+#define LNET_PEER_FORCE_PUSH           BIT(14) /* Forced Push */
 
 /* force delete even if router */
-#define LNET_PEER_RTR_NI_FORCE_DEL (1 << 15)
+#define LNET_PEER_RTR_NI_FORCE_DEL     BIT(15)
 
 /* gw undergoing alive discovery */
-#define LNET_PEER_RTR_DISCOVERY (1 << 16)
+#define LNET_PEER_RTR_DISCOVERY                BIT(16)
+/* gw has undergone discovery (does not indicate success or failure) */
+#define LNET_PEER_RTR_DISCOVERED       BIT(17)
+
+/* peer is marked for deletion */
+#define LNET_PEER_MARK_DELETION                BIT(18)
 
 struct lnet_peer_net {
        /* chain on lp_peer_nets */
@@ -764,6 +749,9 @@ struct lnet_peer_net {
        /* Net ID */
        __u32                   lpn_net_id;
 
+       /* peer net health */
+       int                     lpn_healthv;
+
        /* time of last router net check attempt */
        time64_t                lpn_rtrcheck_timestamp;
 
@@ -783,7 +771,6 @@ struct lnet_peer_net {
  *
  * protected by lnet_net_lock/EX for update
  *    pt_version
- *    pt_number
  *    pt_hash[...]
  *    pt_peer_list
  *    pt_peers
@@ -795,7 +782,6 @@ struct lnet_peer_net {
  */
 struct lnet_peer_table {
        int                     pt_version;     /* /proc validity stamp */
-       int                     pt_number;      /* # peers_ni extant */
        struct list_head        *pt_hash;       /* NID->peer hash */
        struct list_head        pt_peer_list;   /* peers */
        int                     pt_peers;       /* # peers */
@@ -821,6 +807,8 @@ struct lnet_route {
        int                     lr_seq;         /* sequence for round-robin */
        __u32                   lr_hops;        /* how far I am */
        unsigned int            lr_priority;    /* route priority */
+       bool                    lr_alive;       /* cached route aliveness */
+       bool                    lr_single_hop;  /* this route is single-hop */
 };
 
 #define LNET_REMOTE_NETS_HASH_DEFAULT  (1U << 7)
@@ -863,28 +851,28 @@ struct lnet_rtrbufpool {
 struct lnet_rtrbuf {
        struct list_head         rb_list;       /* chain on rbp_bufs */
        struct lnet_rtrbufpool  *rb_pool;       /* owning pool */
-       lnet_kiov_t              rb_kiov[0];    /* the buffer space */
+       struct bio_vec           rb_kiov[0];    /* the buffer space */
 };
 
 #define LNET_PEER_HASHSIZE   503               /* prime! */
 
 enum lnet_match_flags {
        /* Didn't match anything */
-       LNET_MATCHMD_NONE       = (1 << 0),
+       LNET_MATCHMD_NONE       = BIT(0),
        /* Matched OK */
-       LNET_MATCHMD_OK         = (1 << 1),
+       LNET_MATCHMD_OK         = BIT(1),
        /* Must be discarded */
-       LNET_MATCHMD_DROP       = (1 << 2),
+       LNET_MATCHMD_DROP       = BIT(2),
        /* match and buffer is exhausted */
-       LNET_MATCHMD_EXHAUSTED  = (1 << 3),
+       LNET_MATCHMD_EXHAUSTED  = BIT(3),
        /* match or drop */
        LNET_MATCHMD_FINISH     = (LNET_MATCHMD_OK | LNET_MATCHMD_DROP),
 };
 
 /* Options for struct lnet_portal::ptl_options */
-#define LNET_PTL_LAZY              (1 << 0)
-#define LNET_PTL_MATCH_UNIQUE      (1 << 1)    /* unique match, for RDMA */
-#define LNET_PTL_MATCH_WILDCARD     (1 << 2)   /* wildcard match, request portal */
+#define LNET_PTL_LAZY          BIT(0)
+#define LNET_PTL_MATCH_UNIQUE  BIT(1)  /* unique match, for RDMA */
+#define LNET_PTL_MATCH_WILDCARD        BIT(2)  /* wildcard match, request portal */
 
 /* parameter for matching operations (GET, PUT) */
 struct lnet_match_info {
@@ -972,9 +960,13 @@ struct lnet_msg_container {
        int                     msc_nfinalizers;
        /* msgs waiting to complete finalizing */
        struct list_head        msc_finalizing;
+       /* msgs waiting to be resent */
+       struct list_head        msc_resending;
        struct list_head        msc_active;     /* active message list */
        /* threads doing finalization */
        void                    **msc_finalizers;
+       /* threads doing resends */
+       void                    **msc_resenders;
 };
 
 /* Peer Discovery states */
@@ -1005,14 +997,11 @@ struct lnet {
        int                             ln_nportals;
        /* the vector of portals */
        struct lnet_portal              **ln_portals;
-       /* percpt ME containers */
-       struct lnet_res_container       **ln_me_containers;
        /* percpt MD container */
        struct lnet_res_container       **ln_md_containers;
 
        /* Event Queue container */
        struct lnet_res_container       ln_eq_container;
-       wait_queue_head_t               ln_eq_waitq;
        spinlock_t                      ln_eq_wait_lock;
 
        unsigned int                    ln_remote_nets_hbits;
@@ -1059,7 +1048,7 @@ struct lnet {
         * ln_api_mutex.
         */
        struct lnet_handle_md           ln_ping_target_md;
-       struct lnet_handle_eq           ln_ping_target_eq;
+       lnet_handler_t                  ln_ping_target_handler;
        struct lnet_ping_buffer         *ln_ping_target;
        atomic_t                        ln_ping_target_seqno;
 
@@ -1071,13 +1060,13 @@ struct lnet {
         * buffer may linger a while after it has been unlinked, in
         * which case the event handler cleans up.
         */
-       struct lnet_handle_eq           ln_push_target_eq;
+       lnet_handler_t                  ln_push_target_handler;
        struct lnet_handle_md           ln_push_target_md;
        struct lnet_ping_buffer         *ln_push_target;
        int                             ln_push_target_nnis;
 
        /* discovery event queue handle */
-       struct lnet_handle_eq           ln_dc_eqh;
+       lnet_handler_t                  ln_dc_handler;
        /* discovery requests */
        struct list_head                ln_dc_request;
        /* discovery working list */
@@ -1108,10 +1097,10 @@ struct lnet {
        /* uniquely identifies this ni in this epoch */
        __u64                           ln_interface_cookie;
        /* registered LNDs */
-       struct list_head                ln_lnds;
+       const struct lnet_lnd           *ln_lnds[NUM_LNDS];
 
        /* test protocol compatibility flags */
-       int                             ln_testprotocompat;
+       unsigned long                   ln_testprotocompat;
 
        /* 0 - load the NIs from the mod params
         * 1 - do not load the NIs from the mod params
@@ -1121,10 +1110,10 @@ struct lnet {
        bool                            ln_nis_from_mod_params;
 
        /*
-        * waitq for the monitor thread. The monitor thread takes care of
+        * completion for the monitor thread. The monitor thread takes care of
         * checking routes, timedout messages and resending messages.
         */
-       wait_queue_head_t               ln_mt_waitq;
+       struct completion               ln_mt_wait_complete;
 
        /* per-cpt resend queues */
        struct list_head                **ln_mt_resendqs;
@@ -1140,8 +1129,15 @@ struct lnet {
         * based on the mdh cookie.
         */
        struct list_head                **ln_mt_rstq;
-       /* recovery eq handler */
-       struct lnet_handle_eq           ln_mt_eqh;
+       /*
+        * A response tracker becomes a zombie when the associated MD is queued
+        * for unlink before the response tracker is detached from the MD. An
+        * entry on a zombie list can be freed when either the remaining
+        * operations on the MD complete or when LNet has shut down.
+        */
+       struct list_head                **ln_mt_zombie_rstqs;
+       /* recovery handler */
+       lnet_handler_t                  ln_mt_handler;
 
        /*
         * Completed when the discovery and monitor threads can enter their