Whamcloud - gitweb
Revert "LU-5570 lnet: check router aliveness timestamp"
[fs/lustre-release.git] / lnet / include / lnet / lib-types.h
1 /*
2  * GPL HEADER START
3  *
4  * DO NOT ALTER OR REMOVE COPYRIGHT NOTICES OR THIS FILE HEADER.
5  *
6  * This program is free software; you can redistribute it and/or modify
7  * it under the terms of the GNU General Public License version 2 only,
8  * as published by the Free Software Foundation.
9  *
10  * This program is distributed in the hope that it will be useful, but
11  * WITHOUT ANY WARRANTY; without even the implied warranty of
12  * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
13  * General Public License version 2 for more details (a copy is included
14  * in the LICENSE file that accompanied this code).
15  *
16  * You should have received a copy of the GNU General Public License
17  * version 2 along with this program; If not, see
18  * http://www.sun.com/software/products/lustre/docs/GPLv2.pdf
19  *
20  * Please contact Sun Microsystems, Inc., 4150 Network Circle, Santa Clara,
21  * CA 95054 USA or visit www.sun.com if you need additional information or
22  * have any questions.
23  *
24  * GPL HEADER END
25  */
26 /*
27  * Copyright (c) 2003, 2010, Oracle and/or its affiliates. All rights reserved.
28  * Use is subject to license terms.
29  *
30  * Copyright (c) 2012, 2014, Intel Corporation.
31  */
32 /*
33  * This file is part of Lustre, http://www.lustre.org/
34  * Lustre is a trademark of Sun Microsystems, Inc.
35  *
36  * lnet/include/lnet/lib-types.h
37  *
38  * Types used by the library side routines that do not need to be
39  * exposed to the user application
40  */
41
42 #ifndef __LNET_LIB_TYPES_H__
43 #define __LNET_LIB_TYPES_H__
44
45 #ifdef __KERNEL__
46 # include <linux/uio.h>
47 # include <linux/types.h>
48 #else /* !__KERNEL__ */
49 # define LNET_USE_LIB_FREELIST
50 # include <sys/types.h>
51 #endif /* __KERNEL__ */
52
53 #include <libcfs/libcfs.h>
54 #include <libcfs/list.h>
55 #include <lnet/types.h>
56 #include <lnet/lnetctl.h>
57
58 #define WIRE_ATTR       __attribute__((packed))
59
60 /* Packed version of lnet_process_id_t to transfer via network */
61 typedef struct {
62         lnet_nid_t nid;
63         lnet_pid_t pid;   /* node id / process id */
64 } WIRE_ATTR lnet_process_id_packed_t;
65
66 /* The wire handle's interface cookie only matches one network interface in
67  * one epoch (i.e. new cookie when the interface restarts or the node
68  * reboots).  The object cookie only matches one object on that interface
69  * during that object's lifetime (i.e. no cookie re-use). */
70 typedef struct {
71         __u64 wh_interface_cookie;
72         __u64 wh_object_cookie;
73 } WIRE_ATTR lnet_handle_wire_t;
74
75 typedef enum {
76         LNET_MSG_ACK = 0,
77         LNET_MSG_PUT,
78         LNET_MSG_GET,
79         LNET_MSG_REPLY,
80         LNET_MSG_HELLO,
81 } lnet_msg_type_t;
82
83 /* The variant fields of the portals message header are aligned on an 8
84  * byte boundary in the message header.  Note that all types used in these
85  * wire structs MUST be fixed size and the smaller types are placed at the
86  * end. */
87 typedef struct lnet_ack {
88         lnet_handle_wire_t  dst_wmd;
89         __u64               match_bits;
90         __u32               mlength;
91 } WIRE_ATTR lnet_ack_t;
92
93 typedef struct lnet_put {
94         lnet_handle_wire_t  ack_wmd;
95         __u64               match_bits;
96         __u64               hdr_data;
97         __u32               ptl_index;
98         __u32               offset;
99 } WIRE_ATTR lnet_put_t;
100
101 typedef struct lnet_get {
102         lnet_handle_wire_t  return_wmd;
103         __u64               match_bits;
104         __u32               ptl_index;
105         __u32               src_offset;
106         __u32               sink_length;
107 } WIRE_ATTR lnet_get_t;
108
109 typedef struct lnet_reply {
110         lnet_handle_wire_t  dst_wmd;
111 } WIRE_ATTR lnet_reply_t;
112
113 typedef struct lnet_hello {
114         __u64              incarnation;
115         __u32              type;
116 } WIRE_ATTR lnet_hello_t;
117
118 typedef struct {
119         lnet_nid_t          dest_nid;
120         lnet_nid_t          src_nid;
121         lnet_pid_t          dest_pid;
122         lnet_pid_t          src_pid;
123         __u32               type;               /* lnet_msg_type_t */
124         __u32               payload_length;     /* payload data to follow */
125         /*<------__u64 aligned------->*/
126         union {
127                 lnet_ack_t   ack;
128                 lnet_put_t   put;
129                 lnet_get_t   get;
130                 lnet_reply_t reply;
131                 lnet_hello_t hello;
132         } msg;
133 } WIRE_ATTR lnet_hdr_t;
134
135 /* A HELLO message contains a magic number and protocol version
136  * code in the header's dest_nid, the peer's NID in the src_nid, and
137  * LNET_MSG_HELLO in the type field.  All other common fields are zero
138  * (including payload_size; i.e. no payload).
139  * This is for use by byte-stream LNDs (e.g. TCP/IP) to check the peer is
140  * running the same protocol and to find out its NID. These LNDs should
141  * exchange HELLO messages when a connection is first established.  Individual
142  * LNDs can put whatever else they fancy in lnet_hdr_t::msg.
143  */
144 typedef struct {
145         __u32   magic;                          /* LNET_PROTO_TCP_MAGIC */
146         __u16   version_major;                  /* increment on incompatible change */
147         __u16   version_minor;                  /* increment on compatible change */
148 } WIRE_ATTR lnet_magicversion_t;
149
150 /* PROTO MAGIC for LNDs */
151 #define LNET_PROTO_IB_MAGIC                 0x0be91b91
152 #define LNET_PROTO_RA_MAGIC                 0x0be91b92
153 #define LNET_PROTO_QSW_MAGIC                0x0be91b93
154 #define LNET_PROTO_GNI_MAGIC                0xb00fbabe /* ask Kim */
155 #define LNET_PROTO_TCP_MAGIC                0xeebc0ded
156 #define LNET_PROTO_PTL_MAGIC                0x50746C4E /* 'PtlN' unique magic */
157 #define LNET_PROTO_MX_MAGIC                 0x4d583130 /* 'MX10'! */
158 #define LNET_PROTO_ACCEPTOR_MAGIC           0xacce7100
159 #define LNET_PROTO_PING_MAGIC               0x70696E67 /* 'ping' */
160
161 /* Placeholder for a future "unified" protocol across all LNDs */
162 /* Current LNDs that receive a request with this magic will respond with a
163  * "stub" reply using their current protocol */
164 #define LNET_PROTO_MAGIC                    0x45726963 /* ! */
165
166
167 #define LNET_PROTO_TCP_VERSION_MAJOR        1
168 #define LNET_PROTO_TCP_VERSION_MINOR        0
169
170 /* Acceptor connection request */
171 typedef struct {
172         __u32       acr_magic;                  /* PTL_ACCEPTOR_PROTO_MAGIC */
173         __u32       acr_version;                /* protocol version */
174         __u64       acr_nid;                    /* target NID */
175 } WIRE_ATTR lnet_acceptor_connreq_t;
176
177 #define LNET_PROTO_ACCEPTOR_VERSION       1
178
179 /* forward refs */
180 struct lnet_libmd;
181
182 typedef struct lnet_msg {
183         struct list_head        msg_activelist;
184         struct list_head        msg_list;       /* Q for credits/MD */
185
186         lnet_process_id_t       msg_target;
187         /* where is it from, it's only for building event */
188         lnet_nid_t              msg_from;
189         __u32                   msg_type;
190
191         /* commited for sending */
192         unsigned int            msg_tx_committed:1;
193         /* CPT # this message committed for sending */
194         unsigned int            msg_tx_cpt:15;
195         /* commited for receiving */
196         unsigned int            msg_rx_committed:1;
197         /* CPT # this message committed for receiving */
198         unsigned int            msg_rx_cpt:15;
199         /* queued for tx credit */
200         unsigned int            msg_tx_delayed:1;
201         /* queued for RX buffer */
202         unsigned int            msg_rx_delayed:1;
203         /* ready for pending on RX delay list */
204         unsigned int            msg_rx_ready_delay:1;
205
206         unsigned int          msg_vmflush:1;      /* VM trying to free memory */
207         unsigned int          msg_target_is_router:1; /* sending to a router */
208         unsigned int          msg_routing:1;      /* being forwarded */
209         unsigned int          msg_ack:1;          /* ack on finalize (PUT) */
210         unsigned int          msg_sending:1;      /* outgoing message */
211         unsigned int          msg_receiving:1;    /* being received */
212         unsigned int          msg_txcredit:1;     /* taken an NI send credit */
213         unsigned int          msg_peertxcredit:1; /* taken a peer send credit */
214         unsigned int          msg_rtrcredit:1;    /* taken a globel router credit */
215         unsigned int          msg_peerrtrcredit:1; /* taken a peer router credit */
216         unsigned int          msg_onactivelist:1; /* on the activelist */
217         unsigned int          msg_rdma_get:1;
218
219         struct lnet_peer     *msg_txpeer;         /* peer I'm sending to */
220         struct lnet_peer     *msg_rxpeer;         /* peer I received from */
221
222         void                 *msg_private;
223         struct lnet_libmd    *msg_md;
224
225         unsigned int          msg_len;
226         unsigned int          msg_wanted;
227         unsigned int          msg_offset;
228         unsigned int          msg_niov;
229         struct iovec         *msg_iov;
230         lnet_kiov_t          *msg_kiov;
231
232         lnet_event_t          msg_ev;
233         lnet_hdr_t            msg_hdr;
234 } lnet_msg_t;
235
236
237 typedef struct lnet_libhandle {
238         struct list_head        lh_hash_chain;
239         __u64                   lh_cookie;
240 } lnet_libhandle_t;
241
242 #define lh_entry(ptr, type, member) \
243         ((type *)((char *)(ptr)-(char *)(&((type *)0)->member)))
244
245 typedef struct lnet_eq {
246         struct list_head        eq_list;
247         lnet_libhandle_t        eq_lh;
248         lnet_seq_t              eq_enq_seq;
249         lnet_seq_t              eq_deq_seq;
250         unsigned int            eq_size;
251         lnet_eq_handler_t       eq_callback;
252         lnet_event_t            *eq_events;
253         int                     **eq_refs;      /* percpt refcount for EQ */
254 } lnet_eq_t;
255
256 typedef struct lnet_me {
257         struct list_head        me_list;
258         lnet_libhandle_t        me_lh;
259         lnet_process_id_t       me_match_id;
260         unsigned int            me_portal;
261         unsigned int            me_pos;         /* hash offset in mt_hash */
262         __u64                   me_match_bits;
263         __u64                   me_ignore_bits;
264         lnet_unlink_t           me_unlink;
265         struct lnet_libmd      *me_md;
266 } lnet_me_t;
267
268 typedef struct lnet_libmd {
269         struct list_head        md_list;
270         lnet_libhandle_t        md_lh;
271         lnet_me_t              *md_me;
272         char                   *md_start;
273         unsigned int            md_offset;
274         unsigned int            md_length;
275         unsigned int            md_max_size;
276         int                     md_threshold;
277         int                     md_refcount;
278         unsigned int            md_options;
279         unsigned int            md_flags;
280         void                   *md_user_ptr;
281         lnet_eq_t              *md_eq;
282         unsigned int            md_niov;        /* # frags */
283         union {
284                 struct iovec    iov[LNET_MAX_IOV];
285                 lnet_kiov_t     kiov[LNET_MAX_IOV];
286         } md_iov;
287 } lnet_libmd_t;
288
289 #define LNET_MD_FLAG_ZOMBIE      (1 << 0)
290 #define LNET_MD_FLAG_AUTO_UNLINK (1 << 1)
291 #define LNET_MD_FLAG_ABORTED     (1 << 2)
292
293 #ifdef LNET_USE_LIB_FREELIST
294 typedef struct
295 {
296         /* single contiguous array of objects */
297         void                   *fl_objs;
298         /* the number of them */
299         int                     fl_nobjs;
300         /* the size (including overhead) of each of them */
301         int                     fl_objsize;
302         /* where they are enqueued */
303         struct list_head        fl_list;
304 } lnet_freelist_t;
305
306 typedef struct
307 {
308         struct list_head        fo_list;        /* enqueue on fl_list */
309         void                   *fo_contents;    /* aligned contents */
310 } lnet_freeobj_t;
311 #endif
312
313 typedef struct {
314         /* info about peers we are trying to fail */
315         struct list_head        tp_list;        /* ln_test_peers */
316         lnet_nid_t              tp_nid;         /* matching nid */
317         unsigned int            tp_threshold;   /* # failures to simulate */
318 } lnet_test_peer_t;
319
320 #define LNET_COOKIE_TYPE_MD    1
321 #define LNET_COOKIE_TYPE_ME    2
322 #define LNET_COOKIE_TYPE_EQ    3
323 #define LNET_COOKIE_TYPE_BITS  2
324 #define LNET_COOKIE_MASK        ((1ULL << LNET_COOKIE_TYPE_BITS) - 1ULL)
325
326 struct lnet_ni;                                  /* forward ref */
327
328 typedef struct lnet_lnd
329 {
330         /* fields managed by portals */
331         struct list_head        lnd_list;       /* stash in the LND table */
332         int                     lnd_refcount;   /* # active instances */
333
334         /* fields initialised by the LND */
335         unsigned int          lnd_type;
336
337         int  (*lnd_startup) (struct lnet_ni *ni);
338         void (*lnd_shutdown) (struct lnet_ni *ni);
339         int  (*lnd_ctl)(struct lnet_ni *ni, unsigned int cmd, void *arg);
340
341         /* In data movement APIs below, payload buffers are described as a set
342          * of 'niov' fragments which are...
343          * EITHER
344          *    in virtual memory (struct iovec *iov != NULL)
345          * OR
346          *    in pages (kernel only: plt_kiov_t *kiov != NULL).
347          * The LND may NOT overwrite these fragment descriptors.
348          * An 'offset' and may specify a byte offset within the set of
349          * fragments to start from
350          */
351
352         /* Start sending a preformatted message.  'private' is NULL for PUT and
353          * GET messages; otherwise this is a response to an incoming message
354          * and 'private' is the 'private' passed to lnet_parse().  Return
355          * non-zero for immediate failure, otherwise complete later with
356          * lnet_finalize() */
357         int (*lnd_send)(struct lnet_ni *ni, void *private, lnet_msg_t *msg);
358
359         /* Start receiving 'mlen' bytes of payload data, skipping the following
360          * 'rlen' - 'mlen' bytes. 'private' is the 'private' passed to
361          * lnet_parse().  Return non-zero for immedaite failure, otherwise
362          * complete later with lnet_finalize().  This also gives back a receive
363          * credit if the LND does flow control. */
364         int (*lnd_recv)(struct lnet_ni *ni, void *private, lnet_msg_t *msg,
365                         int delayed, unsigned int niov,
366                         struct iovec *iov, lnet_kiov_t *kiov,
367                         unsigned int offset, unsigned int mlen, unsigned int rlen);
368
369         /* lnet_parse() has had to delay processing of this message
370          * (e.g. waiting for a forwarding buffer or send credits).  Give the
371          * LND a chance to free urgently needed resources.  If called, return 0
372          * for success and do NOT give back a receive credit; that has to wait
373          * until lnd_recv() gets called.  On failure return < 0 and
374          * release resources; lnd_recv() will not be called. */
375         int (*lnd_eager_recv)(struct lnet_ni *ni, void *private, lnet_msg_t *msg,
376                               void **new_privatep);
377
378         /* notification of peer health */
379         void (*lnd_notify)(struct lnet_ni *ni, lnet_nid_t peer, int alive);
380
381         /* query of peer aliveness */
382         void (*lnd_query)(struct lnet_ni *ni, lnet_nid_t peer, cfs_time_t *when);
383
384 #if defined(__KERNEL__) || defined(HAVE_LIBPTHREAD)
385         /* accept a new connection */
386         int (*lnd_accept)(struct lnet_ni *ni, cfs_socket_t *sock);
387 #endif
388
389 #ifndef __KERNEL__
390         /* wait for something to happen */
391         void (*lnd_wait)(struct lnet_ni *ni, int milliseconds);
392
393         /* ensure non-RDMA messages can be received outside liblustre */
394         int (*lnd_setasync)(struct lnet_ni *ni, lnet_process_id_t id, int nasync);
395 #endif
396 } lnd_t;
397
398 #define LNET_NI_STATUS_UP      0x15aac0de
399 #define LNET_NI_STATUS_DOWN    0xdeadface
400 #define LNET_NI_STATUS_INVALID 0x00000000
401 typedef struct {
402         lnet_nid_t ns_nid;
403         __u32      ns_status;
404         __u32      ns_unused;
405 } WIRE_ATTR lnet_ni_status_t;
406
407 struct lnet_tx_queue {
408         int                     tq_credits;     /* # tx credits free */
409         int                     tq_credits_min; /* lowest it's been */
410         int                     tq_credits_max; /* total # tx credits */
411         struct list_head        tq_delayed;     /* delayed TXs */
412 };
413
414 #define LNET_MAX_INTERFACES     16
415
416 typedef struct lnet_ni {
417 #ifdef __KERNEL__
418         spinlock_t              ni_lock;
419 #else
420 # ifndef HAVE_LIBPTHREAD
421         int                     ni_lock;
422 # else
423         pthread_mutex_t         ni_lock;
424 # endif
425 #endif
426         struct list_head        ni_list;        /* chain on ln_nis */
427         struct list_head        ni_cptlist;     /* chain on ln_nis_cpt */
428         int                     ni_maxtxcredits; /* # tx credits  */
429         /* # per-peer send credits */
430         int                     ni_peertxcredits;
431         /* # per-peer router buffer credits */
432         int                     ni_peerrtrcredits;
433         /* seconds to consider peer dead */
434         int                     ni_peertimeout;
435         int                     ni_ncpts;       /* number of CPTs */
436         __u32                   *ni_cpts;       /* bond NI on some CPTs */
437         lnet_nid_t              ni_nid;         /* interface's NID */
438         void                    *ni_data;       /* instance-specific data */
439         lnd_t                   *ni_lnd;        /* procedural interface */
440         struct lnet_tx_queue    **ni_tx_queues; /* percpt TX queues */
441         int                     **ni_refs;      /* percpt reference count */
442         long                    ni_last_alive;  /* when I was last alive */
443         lnet_ni_status_t        *ni_status;     /* my health status */
444         /* equivalent interfaces to use */
445         char                    *ni_interfaces[LNET_MAX_INTERFACES];
446 } lnet_ni_t;
447
448 #define LNET_PROTO_PING_MATCHBITS       0x8000000000000000LL
449
450 /* NB: value of these features equal to LNET_PROTO_PING_VERSION_x
451  * of old LNet, so there shouldn't be any compatibility issue */
452 #define LNET_PING_FEAT_INVAL            (0)             /* no feature */
453 #define LNET_PING_FEAT_BASE             (1 << 0)        /* just a ping */
454 #define LNET_PING_FEAT_NI_STATUS        (1 << 1)        /* return NI status */
455 #define LNET_PING_FEAT_RTE_DISABLED     (1 << 2)        /* Routing enabled */
456
457 #define LNET_PING_FEAT_MASK             (LNET_PING_FEAT_BASE | \
458                                          LNET_PING_FEAT_NI_STATUS)
459
460 typedef struct {
461         __u32                   pi_magic;
462         __u32                   pi_features;
463         lnet_pid_t              pi_pid;
464         __u32                   pi_nnis;
465         lnet_ni_status_t        pi_ni[0];
466 } WIRE_ATTR lnet_ping_info_t;
467
468 /* router checker data, per router */
469 #define LNET_MAX_RTR_NIS   16
470 #define LNET_PINGINFO_SIZE offsetof(lnet_ping_info_t, pi_ni[LNET_MAX_RTR_NIS])
471 typedef struct {
472         /* chain on the_lnet.ln_zombie_rcd or ln_deathrow_rcd */
473         struct list_head        rcd_list;
474         lnet_handle_md_t        rcd_mdh;        /* ping buffer MD */
475         struct lnet_peer        *rcd_gateway;   /* reference to gateway */
476         lnet_ping_info_t        *rcd_pinginfo;  /* ping buffer */
477 } lnet_rc_data_t;
478
479 typedef struct lnet_peer {
480         /* chain on peer hash */
481         struct list_head        lp_hashlist;
482         /* messages blocking for tx credits */
483         struct list_head        lp_txq;
484         /* messages blocking for router credits */
485         struct list_head        lp_rtrq;
486         /* chain on router list */
487         struct list_head        lp_rtr_list;
488         /* # tx credits available */
489         int                     lp_txcredits;
490         /* low water mark */
491         int                     lp_mintxcredits;
492         /* # router credits */
493         int                     lp_rtrcredits;
494         /* low water mark */
495         int                     lp_minrtrcredits;
496         /* alive/dead? */
497         unsigned int            lp_alive:1;
498         /* notification outstanding? */
499         unsigned int            lp_notify:1;
500         /* outstanding notification for LND? */
501         unsigned int            lp_notifylnd:1;
502         /* some thread is handling notification */
503         unsigned int            lp_notifying:1;
504         /* SEND event outstanding from ping */
505         unsigned int            lp_ping_notsent;
506         /* # times router went dead<->alive */
507         int                     lp_alive_count;
508         /* bytes queued for sending */
509         long                    lp_txqnob;
510         /* time of last aliveness news */
511         cfs_time_t              lp_timestamp;
512         /* time of last ping attempt */
513         cfs_time_t              lp_ping_timestamp;
514         /* != 0 if ping reply expected */
515         cfs_time_t              lp_ping_deadline;
516         /* when I was last alive */
517         cfs_time_t              lp_last_alive;
518         /* when lp_ni was queried last time */
519         cfs_time_t              lp_last_query;
520         /* interface peer is on */
521         lnet_ni_t               *lp_ni;
522         lnet_nid_t              lp_nid;         /* peer's NID */
523         int                     lp_refcount;    /* # refs */
524         int                     lp_cpt;         /* CPT this peer attached on */
525         /* # refs from lnet_route_t::lr_gateway */
526         int                     lp_rtr_refcount;
527         /* returned RC ping features */
528         unsigned int            lp_ping_feats;
529         struct list_head        lp_routes;      /* routers on this peer */
530         lnet_rc_data_t          *lp_rcd;        /* router checker state */
531 } lnet_peer_t;
532
533 /* peer hash size */
534 #define LNET_PEER_HASH_BITS     9
535 #define LNET_PEER_HASH_SIZE     (1 << LNET_PEER_HASH_BITS)
536
537 /* peer hash table */
538 struct lnet_peer_table {
539         int                     pt_version;     /* /proc validity stamp */
540         int                     pt_number;      /* # peers extant */
541         int                     pt_zombies;     /* # zombies to go to deathrow
542                                                  * (and not there yet) */
543         struct list_head        pt_deathrow;    /* zombie peers */
544         struct list_head        *pt_hash;       /* NID->peer hash */
545 };
546
547 /* peer aliveness is enabled only on routers for peers in a network where the
548  * lnet_ni_t::ni_peertimeout has been set to a positive value */
549 #define lnet_peer_aliveness_enabled(lp) (the_lnet.ln_routing != 0 && \
550                                          (lp)->lp_ni->ni_peertimeout > 0)
551
552 typedef struct {
553         struct list_head        lr_list;        /* chain on net */
554         struct list_head        lr_gwlist;      /* chain on gateway */
555         lnet_peer_t             *lr_gateway;    /* router node */
556         __u32                   lr_net;         /* remote network number */
557         int                     lr_seq;         /* sequence for round-robin */
558         unsigned int            lr_downis;      /* number of down NIs */
559         unsigned int            lr_hops;        /* how far I am */
560         unsigned int            lr_priority;    /* route priority */
561 } lnet_route_t;
562
563 #define LNET_REMOTE_NETS_HASH_DEFAULT   (1U << 7)
564 #define LNET_REMOTE_NETS_HASH_MAX       (1U << 16)
565 #define LNET_REMOTE_NETS_HASH_SIZE      (1 << the_lnet.ln_remote_nets_hbits)
566
567 typedef struct {
568         /* chain on ln_remote_nets_hash */
569         struct list_head        lrn_list;
570         /* routes to me */
571         struct list_head        lrn_routes;
572         /* my net number */
573         __u32                   lrn_net;
574 } lnet_remotenet_t;
575
576 /** lnet message has credit and can be submitted to lnd for send/receive */
577 #define LNET_CREDIT_OK          0
578 /** lnet message is waiting for credit */
579 #define LNET_CREDIT_WAIT        1
580
581 typedef struct {
582         /* my free buffer pool */
583         struct list_head        rbp_bufs;
584         /* messages blocking for a buffer */
585         struct list_head        rbp_msgs;
586         /* # pages in each buffer */
587         int                     rbp_npages;
588         /* # buffers */
589         int                     rbp_nbuffers;
590         /* # free buffers / blocked messages */
591         int                     rbp_credits;
592         /* low water mark */
593         int                     rbp_mincredits;
594 } lnet_rtrbufpool_t;
595
596 typedef struct {
597         struct list_head         rb_list;       /* chain on rbp_bufs */
598         lnet_rtrbufpool_t       *rb_pool;       /* owning pool */
599         lnet_kiov_t              rb_kiov[0];    /* the buffer space */
600 } lnet_rtrbuf_t;
601
602 typedef struct lnet_counters {
603         __u32 msgs_alloc;
604         __u32 msgs_max;
605         __u32 errors;
606         __u32 send_count;
607         __u32 recv_count;
608         __u32 route_count;
609         __u32 drop_count;
610         __u64 send_length;
611         __u64 recv_length;
612         __u64 route_length;
613         __u64 drop_length;
614 } WIRE_ATTR lnet_counters_t;
615
616 #define LNET_PEER_HASHSIZE   503                /* prime! */
617
618 #define LNET_TINY_BUF_IDX       0
619 #define LNET_SMALL_BUF_IDX      1
620 #define LNET_LARGE_BUF_IDX      2
621
622 /* # different router buffer pools */
623 #define LNET_NRBPOOLS           (LNET_LARGE_BUF_IDX + 1)
624
625 enum {
626         /* Didn't match anything */
627         LNET_MATCHMD_NONE       = (1 << 0),
628         /* Matched OK */
629         LNET_MATCHMD_OK         = (1 << 1),
630         /* Must be discarded */
631         LNET_MATCHMD_DROP       = (1 << 2),
632         /* match and buffer is exhausted */
633         LNET_MATCHMD_EXHAUSTED  = (1 << 3),
634         /* match or drop */
635         LNET_MATCHMD_FINISH     = (LNET_MATCHMD_OK | LNET_MATCHMD_DROP),
636 };
637
638 /* Options for lnet_portal_t::ptl_options */
639 #define LNET_PTL_LAZY               (1 << 0)
640 #define LNET_PTL_MATCH_UNIQUE       (1 << 1)    /* unique match, for RDMA */
641 #define LNET_PTL_MATCH_WILDCARD     (1 << 2)    /* wildcard match, request portal */
642
643 /* parameter for matching operations (GET, PUT) */
644 struct lnet_match_info {
645         __u64                   mi_mbits;
646         lnet_process_id_t       mi_id;
647         unsigned int            mi_opc;
648         unsigned int            mi_portal;
649         unsigned int            mi_rlength;
650         unsigned int            mi_roffset;
651 };
652
653 /* ME hash of RDMA portal */
654 #define LNET_MT_HASH_BITS               8
655 #define LNET_MT_HASH_SIZE               (1 << LNET_MT_HASH_BITS)
656 #define LNET_MT_HASH_MASK               (LNET_MT_HASH_SIZE - 1)
657 /* we allocate (LNET_MT_HASH_SIZE + 1) entries for lnet_match_table::mt_hash,
658  * the last entry is reserved for MEs with ignore-bits */
659 #define LNET_MT_HASH_IGNORE             LNET_MT_HASH_SIZE
660 /* __u64 has 2^6 bits, so need 2^(LNET_MT_HASH_BITS - LNET_MT_BITS_U64) which
661  * is 4 __u64s as bit-map, and add an extra __u64 (only use one bit) for the
662  * ME-list with ignore-bits, which is mtable::mt_hash[LNET_MT_HASH_IGNORE] */
663 #define LNET_MT_BITS_U64                6       /* 2^6 bits */
664 #define LNET_MT_EXHAUSTED_BITS          (LNET_MT_HASH_BITS - LNET_MT_BITS_U64)
665 #define LNET_MT_EXHAUSTED_BMAP          ((1 << LNET_MT_EXHAUSTED_BITS) + 1)
666
667 /* portal match table */
668 struct lnet_match_table {
669         /* reserved for upcoming patches, CPU partition ID */
670         unsigned int            mt_cpt;
671         unsigned int            mt_portal;      /* portal index */
672         /* match table is set as "enabled" if there's non-exhausted MD
673          * attached on mt_mhash, it's only valide for wildcard portal */
674         unsigned int            mt_enabled;
675         /* bitmap to flag whether MEs on mt_hash are exhausted or not */
676         __u64                   mt_exhausted[LNET_MT_EXHAUSTED_BMAP];
677         struct list_head        *mt_mhash;      /* matching hash */
678 };
679
680 /* these are only useful for wildcard portal */
681 /* Turn off message rotor for wildcard portals */
682 #define LNET_PTL_ROTOR_OFF      0
683 /* round-robin dispatch all PUT messages for wildcard portals */
684 #define LNET_PTL_ROTOR_ON       1
685 /* round-robin dispatch routed PUT message for wildcard portals */
686 #define LNET_PTL_ROTOR_RR_RT    2
687 /* dispatch routed PUT message by hashing source NID for wildcard portals */
688 #define LNET_PTL_ROTOR_HASH_RT  3
689
690 typedef struct lnet_portal {
691 #ifdef __KERNEL__
692         spinlock_t              ptl_lock;
693 #else
694 # ifndef HAVE_LIBPTHREAD
695         int                     ptl_lock;
696 # else
697         pthread_mutex_t         ptl_lock;
698 # endif
699 #endif
700         unsigned int            ptl_index;      /* portal ID, reserved */
701         /* flags on this portal: lazy, unique... */
702         unsigned int            ptl_options;
703         /* list of messags which are stealing buffer */
704         struct list_head        ptl_msg_stealing;
705         /* messages blocking for MD */
706         struct list_head        ptl_msg_delayed;
707         /* Match table for each CPT */
708         struct lnet_match_table **ptl_mtables;
709         /* spread rotor of incoming "PUT" */
710         unsigned int            ptl_rotor;
711         /* # active entries for this portal */
712         int                     ptl_mt_nmaps;
713         /* array of active entries' cpu-partition-id */
714         int                     ptl_mt_maps[0];
715 } lnet_portal_t;
716
717 #define LNET_LH_HASH_BITS       12
718 #define LNET_LH_HASH_SIZE       (1ULL << LNET_LH_HASH_BITS)
719 #define LNET_LH_HASH_MASK       (LNET_LH_HASH_SIZE - 1)
720
721 /* resource container (ME, MD, EQ) */
722 struct lnet_res_container {
723         unsigned int            rec_type;       /* container type */
724         __u64                   rec_lh_cookie;  /* cookie generator */
725         struct list_head        rec_active;     /* active resource list */
726         struct list_head        *rec_lh_hash;   /* handle hash */
727 #ifdef LNET_USE_LIB_FREELIST
728         lnet_freelist_t         rec_freelist;   /* freelist for resources */
729 #endif
730 };
731
732 /* message container */
733 struct lnet_msg_container {
734         int                     msc_init;       /* initialized or not */
735         /* max # threads finalizing */
736         int                     msc_nfinalizers;
737         /* msgs waiting to complete finalizing */
738         struct list_head        msc_finalizing;
739         struct list_head        msc_active;     /* active message list */
740         /* threads doing finalization */
741         void                    **msc_finalizers;
742 #ifdef LNET_USE_LIB_FREELIST
743         lnet_freelist_t         msc_freelist;   /* freelist for messages */
744 #endif
745 };
746
747 /* Router Checker states */
748 #define LNET_RC_STATE_SHUTDOWN          0       /* not started */
749 #define LNET_RC_STATE_RUNNING           1       /* started up OK */
750 #define LNET_RC_STATE_STOPPING          2       /* telling thread to stop */
751
752 typedef struct
753 {
754         /* CPU partition table of LNet */
755         struct cfs_cpt_table            *ln_cpt_table;
756         /* number of CPTs in ln_cpt_table */
757         unsigned int                    ln_cpt_number;
758         unsigned int                    ln_cpt_bits;
759
760         /* protect LNet resources (ME/MD/EQ) */
761         struct cfs_percpt_lock          *ln_res_lock;
762         /* # portals */
763         int                             ln_nportals;
764         /* the vector of portals */
765         lnet_portal_t                   **ln_portals;
766         /* percpt ME containers */
767         struct lnet_res_container       **ln_me_containers;
768         /* percpt MD container */
769         struct lnet_res_container       **ln_md_containers;
770
771         /* Event Queue container */
772         struct lnet_res_container       ln_eq_container;
773 #ifdef __KERNEL__
774         wait_queue_head_t               ln_eq_waitq;
775         spinlock_t                      ln_eq_wait_lock;
776 #else
777 # ifndef HAVE_LIBPTHREAD
778         int                             ln_eq_wait_lock;
779 # else
780         pthread_cond_t                  ln_eq_cond;
781         pthread_mutex_t                 ln_eq_wait_lock;
782 # endif
783 #endif
784         unsigned int                    ln_remote_nets_hbits;
785
786         /* protect NI, peer table, credits, routers, rtrbuf... */
787         struct cfs_percpt_lock          *ln_net_lock;
788         /* percpt message containers for active/finalizing/freed message */
789         struct lnet_msg_container       **ln_msg_containers;
790         lnet_counters_t                 **ln_counters;
791         struct lnet_peer_table          **ln_peer_tables;
792         /* failure simulation */
793         struct list_head                ln_test_peers;
794         struct list_head                ln_drop_rules;
795         struct list_head                ln_delay_rules;
796
797         struct list_head                ln_nis;         /* LND instances */
798         /* NIs bond on specific CPT(s) */
799         struct list_head                ln_nis_cpt;
800         /* dying LND instances */
801         struct list_head                ln_nis_zombie;
802         lnet_ni_t                       *ln_loni;       /* the loopback NI */
803         /* NI to wait for events in */
804         lnet_ni_t                       *ln_eq_waitni;
805
806         /* remote networks with routes to them */
807         struct list_head                *ln_remote_nets_hash;
808         /* validity stamp */
809         __u64                           ln_remote_nets_version;
810         /* list of all known routers */
811         struct list_head                ln_routers;
812         /* validity stamp */
813         __u64                           ln_routers_version;
814         /* percpt router buffer pools */
815         lnet_rtrbufpool_t               **ln_rtrpools;
816
817         lnet_handle_md_t                ln_ping_target_md;
818         lnet_handle_eq_t                ln_ping_target_eq;
819         lnet_ping_info_t                *ln_ping_info;
820
821         /* router checker startup/shutdown state */
822         int                             ln_rc_state;
823         /* router checker's event queue */
824         lnet_handle_eq_t                ln_rc_eqh;
825         /* rcd still pending on net */
826         struct list_head                ln_rcd_deathrow;
827         /* rcd ready for free */
828         struct list_head                ln_rcd_zombie;
829 #ifdef __KERNEL__
830         /* serialise startup/shutdown */
831         struct semaphore                ln_rc_signal;
832
833         struct mutex                    ln_api_mutex;
834         struct mutex                    ln_lnd_mutex;
835         struct mutex                    ln_delay_mutex;
836 #else
837 # ifndef HAVE_LIBPTHREAD
838         int                             ln_api_mutex;
839         int                             ln_lnd_mutex;
840 # else
841         pthread_mutex_t                 ln_api_mutex;
842         pthread_mutex_t                 ln_lnd_mutex;
843 # endif
844 #endif
845         int                             ln_init;        /* LNetInit() called? */
846         /* Have I called LNetNIInit myself? */
847         int                             ln_niinit_self;
848         /* LNetNIInit/LNetNIFini counter */
849         int                             ln_refcount;
850         /* shutdown in progress */
851         int                             ln_shutdown;
852
853         int                             ln_routing;     /* am I a router? */
854         lnet_pid_t                      ln_pid;         /* requested pid */
855         /* uniquely identifies this ni in this epoch */
856         __u64                           ln_interface_cookie;
857         /* registered LNDs */
858         struct list_head                ln_lnds;
859
860         /* test protocol compatibility flags */
861         int                             ln_testprotocompat;
862
863         /* 0 - load the NIs from the mod params
864          * 1 - do not load the NIs from the mod params
865          * Reverse logic to ensure that other calls to LNetNIInit
866          * need no change
867          */
868         bool                            ln_nis_from_mod_params;
869
870 #ifndef __KERNEL__
871         /* Temporary workaround to allow uOSS and test programs force
872          * server mode in userspace. The only place where we use it is
873          * lnet_prepare(). The only way to turn this flag on is to
874          * call lnet_server_mode() */
875         int                             ln_server_mode_flag;
876 #endif
877 } lnet_t;
878
879 #endif