Whamcloud - gitweb
b=16034,i=nic:
[fs/lustre-release.git] / lnet / klnds / ptllnd / ptllnd.c
1 /* -*- mode: c; c-basic-offset: 8; indent-tabs-mode: nil; -*-
2  * vim:expandtab:shiftwidth=8:tabstop=8:
3  *
4  * GPL HEADER START
5  *
6  * DO NOT ALTER OR REMOVE COPYRIGHT NOTICES OR THIS FILE HEADER.
7  *
8  * This program is free software; you can redistribute it and/or modify
9  * it under the terms of the GNU General Public License version 2 only,
10  * as published by the Free Software Foundation.
11  *
12  * This program is distributed in the hope that it will be useful, but
13  * WITHOUT ANY WARRANTY; without even the implied warranty of
14  * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
15  * General Public License version 2 for more details (a copy is included
16  * in the LICENSE file that accompanied this code).
17  *
18  * You should have received a copy of the GNU General Public License
19  * version 2 along with this program; If not, see
20  * http://www.sun.com/software/products/lustre/docs/GPLv2.pdf
21  *
22  * Please contact Sun Microsystems, Inc., 4150 Network Circle, Santa Clara,
23  * CA 95054 USA or visit www.sun.com if you need additional information or
24  * have any questions.
25  *
26  * GPL HEADER END
27  */
28 /*
29  * Copyright  2008 Sun Microsystems, Inc. All rights reserved
30  * Use is subject to license terms.
31  */
32 /*
33  * This file is part of Lustre, http://www.lustre.org/
34  * Lustre is a trademark of Sun Microsystems, Inc.
35  *
36  * lnet/klnds/ptllnd/ptllnd.c
37  *
38  * Author: PJ Kirner <pjkirner@clusterfs.com>
39  */
40
41 #include "ptllnd.h"
42
43 lnd_t kptllnd_lnd = {
44         .lnd_type       = PTLLND,
45         .lnd_startup    = kptllnd_startup,
46         .lnd_shutdown   = kptllnd_shutdown,
47         .lnd_ctl        = kptllnd_ctl,
48         .lnd_query      = kptllnd_query,
49         .lnd_send       = kptllnd_send,
50         .lnd_recv       = kptllnd_recv,
51         .lnd_eager_recv = kptllnd_eager_recv,
52 };
53
54 kptl_data_t kptllnd_data;
55
56 char *
57 kptllnd_ptlid2str(ptl_process_id_t id)
58 {
59         static char    strs[64][32];
60         static int     idx = 0;
61
62         unsigned long  flags;
63         char          *str;
64         
65         spin_lock_irqsave(&kptllnd_data.kptl_ptlid2str_lock, flags);
66         str = strs[idx++];
67         if (idx >= sizeof(strs)/sizeof(strs[0]))
68                 idx = 0;
69         spin_unlock_irqrestore(&kptllnd_data.kptl_ptlid2str_lock, flags);
70
71         snprintf(str, sizeof(strs[0]), FMT_PTLID, id.pid, id.nid);
72         return str;
73 }
74
75 void 
76 kptllnd_assert_wire_constants (void)
77 {
78         /* Wire protocol assertions generated by 'wirecheck'
79          * running on Linux fedora 2.6.11-co-0.6.4 #1 Mon Jun 19 05:36:13 UTC 2006 i686 i686 i386 GNU
80          * with gcc version 4.1.1 20060525 (Red Hat 4.1.1-1) */
81
82
83         /* Constants... */
84         CLASSERT (PTL_RESERVED_MATCHBITS == 0x100);
85         CLASSERT (LNET_MSG_MATCHBITS == 0);
86         CLASSERT (PTLLND_MSG_MAGIC == 0x50746C4E);
87         CLASSERT (PTLLND_MSG_VERSION == 0x04);
88         CLASSERT (PTLLND_RDMA_OK == 0x00);
89         CLASSERT (PTLLND_RDMA_FAIL == 0x01);
90         CLASSERT (PTLLND_MSG_TYPE_INVALID == 0x00);
91         CLASSERT (PTLLND_MSG_TYPE_PUT == 0x01);
92         CLASSERT (PTLLND_MSG_TYPE_GET == 0x02);
93         CLASSERT (PTLLND_MSG_TYPE_IMMEDIATE == 0x03);
94         CLASSERT (PTLLND_MSG_TYPE_NOOP == 0x04);
95         CLASSERT (PTLLND_MSG_TYPE_HELLO == 0x05);
96         CLASSERT (PTLLND_MSG_TYPE_NAK == 0x06);
97
98         /* Checks for struct kptl_msg_t */
99         CLASSERT ((int)sizeof(kptl_msg_t) == 136);
100         CLASSERT ((int)offsetof(kptl_msg_t, ptlm_magic) == 0);
101         CLASSERT ((int)sizeof(((kptl_msg_t *)0)->ptlm_magic) == 4);
102         CLASSERT ((int)offsetof(kptl_msg_t, ptlm_version) == 4);
103         CLASSERT ((int)sizeof(((kptl_msg_t *)0)->ptlm_version) == 2);
104         CLASSERT ((int)offsetof(kptl_msg_t, ptlm_type) == 6);
105         CLASSERT ((int)sizeof(((kptl_msg_t *)0)->ptlm_type) == 1);
106         CLASSERT ((int)offsetof(kptl_msg_t, ptlm_credits) == 7);
107         CLASSERT ((int)sizeof(((kptl_msg_t *)0)->ptlm_credits) == 1);
108         CLASSERT ((int)offsetof(kptl_msg_t, ptlm_nob) == 8);
109         CLASSERT ((int)sizeof(((kptl_msg_t *)0)->ptlm_nob) == 4);
110         CLASSERT ((int)offsetof(kptl_msg_t, ptlm_cksum) == 12);
111         CLASSERT ((int)sizeof(((kptl_msg_t *)0)->ptlm_cksum) == 4);
112         CLASSERT ((int)offsetof(kptl_msg_t, ptlm_srcnid) == 16);
113         CLASSERT ((int)sizeof(((kptl_msg_t *)0)->ptlm_srcnid) == 8);
114         CLASSERT ((int)offsetof(kptl_msg_t, ptlm_srcstamp) == 24);
115         CLASSERT ((int)sizeof(((kptl_msg_t *)0)->ptlm_srcstamp) == 8);
116         CLASSERT ((int)offsetof(kptl_msg_t, ptlm_dstnid) == 32);
117         CLASSERT ((int)sizeof(((kptl_msg_t *)0)->ptlm_dstnid) == 8);
118         CLASSERT ((int)offsetof(kptl_msg_t, ptlm_dststamp) == 40);
119         CLASSERT ((int)sizeof(((kptl_msg_t *)0)->ptlm_dststamp) == 8);
120         CLASSERT ((int)offsetof(kptl_msg_t, ptlm_srcpid) == 48);
121         CLASSERT ((int)sizeof(((kptl_msg_t *)0)->ptlm_srcpid) == 4);
122         CLASSERT ((int)offsetof(kptl_msg_t, ptlm_dstpid) == 52);
123         CLASSERT ((int)sizeof(((kptl_msg_t *)0)->ptlm_dstpid) == 4);
124         CLASSERT ((int)offsetof(kptl_msg_t, ptlm_u.immediate) == 56);
125         CLASSERT ((int)sizeof(((kptl_msg_t *)0)->ptlm_u.immediate) == 72);
126         CLASSERT ((int)offsetof(kptl_msg_t, ptlm_u.rdma) == 56);
127         CLASSERT ((int)sizeof(((kptl_msg_t *)0)->ptlm_u.rdma) == 80);
128         CLASSERT ((int)offsetof(kptl_msg_t, ptlm_u.hello) == 56);
129         CLASSERT ((int)sizeof(((kptl_msg_t *)0)->ptlm_u.hello) == 12);
130
131         /* Checks for struct kptl_immediate_msg_t */
132         CLASSERT ((int)sizeof(kptl_immediate_msg_t) == 72);
133         CLASSERT ((int)offsetof(kptl_immediate_msg_t, kptlim_hdr) == 0);
134         CLASSERT ((int)sizeof(((kptl_immediate_msg_t *)0)->kptlim_hdr) == 72);
135         CLASSERT ((int)offsetof(kptl_immediate_msg_t, kptlim_payload[13]) == 85);
136         CLASSERT ((int)sizeof(((kptl_immediate_msg_t *)0)->kptlim_payload[13]) == 1);
137
138         /* Checks for struct kptl_rdma_msg_t */
139         CLASSERT ((int)sizeof(kptl_rdma_msg_t) == 80);
140         CLASSERT ((int)offsetof(kptl_rdma_msg_t, kptlrm_hdr) == 0);
141         CLASSERT ((int)sizeof(((kptl_rdma_msg_t *)0)->kptlrm_hdr) == 72);
142         CLASSERT ((int)offsetof(kptl_rdma_msg_t, kptlrm_matchbits) == 72);
143         CLASSERT ((int)sizeof(((kptl_rdma_msg_t *)0)->kptlrm_matchbits) == 8);
144
145         /* Checks for struct kptl_hello_msg_t */
146         CLASSERT ((int)sizeof(kptl_hello_msg_t) == 12);
147         CLASSERT ((int)offsetof(kptl_hello_msg_t, kptlhm_matchbits) == 0);
148         CLASSERT ((int)sizeof(((kptl_hello_msg_t *)0)->kptlhm_matchbits) == 8);
149         CLASSERT ((int)offsetof(kptl_hello_msg_t, kptlhm_max_msg_size) == 8);
150         CLASSERT ((int)sizeof(((kptl_hello_msg_t *)0)->kptlhm_max_msg_size) == 4);
151 }
152
153 const char *kptllnd_evtype2str(int type)
154 {
155 #define DO_TYPE(x) case x: return #x;
156         switch(type)
157         {
158                 DO_TYPE(PTL_EVENT_GET_START);
159                 DO_TYPE(PTL_EVENT_GET_END);
160                 DO_TYPE(PTL_EVENT_PUT_START);
161                 DO_TYPE(PTL_EVENT_PUT_END);
162                 DO_TYPE(PTL_EVENT_REPLY_START);
163                 DO_TYPE(PTL_EVENT_REPLY_END);
164                 DO_TYPE(PTL_EVENT_ACK);
165                 DO_TYPE(PTL_EVENT_SEND_START);
166                 DO_TYPE(PTL_EVENT_SEND_END);
167                 DO_TYPE(PTL_EVENT_UNLINK);
168         default:
169                 return "<unknown event type>";
170         }
171 #undef DO_TYPE
172 }
173
174 const char *kptllnd_msgtype2str(int type)
175 {
176 #define DO_TYPE(x) case x: return #x;
177         switch(type)
178         {
179                 DO_TYPE(PTLLND_MSG_TYPE_INVALID);
180                 DO_TYPE(PTLLND_MSG_TYPE_PUT);
181                 DO_TYPE(PTLLND_MSG_TYPE_GET);
182                 DO_TYPE(PTLLND_MSG_TYPE_IMMEDIATE);
183                 DO_TYPE(PTLLND_MSG_TYPE_HELLO);
184                 DO_TYPE(PTLLND_MSG_TYPE_NOOP);
185                 DO_TYPE(PTLLND_MSG_TYPE_NAK);
186         default:
187                 return "<unknown msg type>";
188         }
189 #undef DO_TYPE
190 }
191
192 const char *kptllnd_errtype2str(int type)
193 {
194 #define DO_TYPE(x) case x: return #x;
195         switch(type)
196         {
197                 DO_TYPE(PTL_OK);
198                 DO_TYPE(PTL_SEGV);
199                 DO_TYPE(PTL_NO_SPACE);
200                 DO_TYPE(PTL_ME_IN_USE);
201                 DO_TYPE(PTL_NAL_FAILED);
202                 DO_TYPE(PTL_NO_INIT);
203                 DO_TYPE(PTL_IFACE_DUP);
204                 DO_TYPE(PTL_IFACE_INVALID);
205                 DO_TYPE(PTL_HANDLE_INVALID);
206                 DO_TYPE(PTL_MD_INVALID);
207                 DO_TYPE(PTL_ME_INVALID);
208                 DO_TYPE(PTL_PROCESS_INVALID);
209                 DO_TYPE(PTL_PT_INDEX_INVALID);
210                 DO_TYPE(PTL_SR_INDEX_INVALID);
211                 DO_TYPE(PTL_EQ_INVALID);
212                 DO_TYPE(PTL_EQ_DROPPED);
213                 DO_TYPE(PTL_EQ_EMPTY);
214                 DO_TYPE(PTL_MD_NO_UPDATE);
215                 DO_TYPE(PTL_FAIL);
216                 DO_TYPE(PTL_AC_INDEX_INVALID);
217                 DO_TYPE(PTL_MD_ILLEGAL);
218                 DO_TYPE(PTL_ME_LIST_TOO_LONG);
219                 DO_TYPE(PTL_MD_IN_USE);
220                 DO_TYPE(PTL_NI_INVALID);
221                 DO_TYPE(PTL_PID_INVALID);
222                 DO_TYPE(PTL_PT_FULL);
223                 DO_TYPE(PTL_VAL_FAILED);
224                 DO_TYPE(PTL_NOT_IMPLEMENTED);
225                 DO_TYPE(PTL_NO_ACK);
226                 DO_TYPE(PTL_EQ_IN_USE);
227                 DO_TYPE(PTL_PID_IN_USE);
228                 DO_TYPE(PTL_INV_EQ_SIZE);
229                 DO_TYPE(PTL_AGAIN);
230         default:
231                 return "<unknown event type>";
232         }
233 #undef DO_TYPE
234 }
235
236 __u32
237 kptllnd_cksum (void *ptr, int nob)
238 {
239         char  *c  = ptr;
240         __u32  sum = 0;
241
242         while (nob-- > 0)
243                 sum = ((sum << 1) | (sum >> 31)) + *c++;
244
245         /* ensure I don't return 0 (== no checksum) */
246         return (sum == 0) ? 1 : sum;
247 }
248
249 void
250 kptllnd_init_msg(kptl_msg_t *msg, int type, int body_nob)
251 {
252         msg->ptlm_type = type;
253         msg->ptlm_nob  = (offsetof(kptl_msg_t, ptlm_u) + body_nob + 7) & ~7;
254         
255         LASSERT(msg->ptlm_nob <= *kptllnd_tunables.kptl_max_msg_size);
256 }
257
258 void
259 kptllnd_msg_pack(kptl_msg_t *msg, kptl_peer_t *peer)
260 {
261         msg->ptlm_magic    = PTLLND_MSG_MAGIC;
262         msg->ptlm_version  = PTLLND_MSG_VERSION;
263         /* msg->ptlm_type  Filled in kptllnd_init_msg()  */
264         msg->ptlm_credits  = peer->peer_outstanding_credits;
265         /* msg->ptlm_nob   Filled in kptllnd_init_msg()  */
266         msg->ptlm_cksum    = 0;
267         msg->ptlm_srcnid   = kptllnd_data.kptl_ni->ni_nid;
268         msg->ptlm_srcstamp = peer->peer_myincarnation;
269         msg->ptlm_dstnid   = peer->peer_id.nid;
270         msg->ptlm_dststamp = peer->peer_incarnation;
271         msg->ptlm_srcpid   = the_lnet.ln_pid;
272         msg->ptlm_dstpid   = peer->peer_id.pid;
273
274         if (*kptllnd_tunables.kptl_checksum) {
275                 /* NB ptlm_cksum zero while computing cksum */
276                 msg->ptlm_cksum = kptllnd_cksum(msg, 
277                                                 offsetof(kptl_msg_t, ptlm_u));
278         }
279 }
280
281 int
282 kptllnd_msg_unpack(kptl_msg_t *msg, int nob)
283 {
284         const int hdr_size = offsetof(kptl_msg_t, ptlm_u);
285         __u32     msg_cksum;
286         __u16     msg_version;
287         int       flip;
288
289         /* 6 bytes are enough to have received magic + version */
290         if (nob < 6) {
291                 CERROR("Very Short message: %d\n", nob);
292                 return -EPROTO;
293         }
294
295         /*
296          * Determine if we need to flip
297          */
298         if (msg->ptlm_magic == PTLLND_MSG_MAGIC) {
299                 flip = 0;
300         } else if (msg->ptlm_magic == __swab32(PTLLND_MSG_MAGIC)) {
301                 flip = 1;
302         } else {
303                 CERROR("Bad magic: %08x\n", msg->ptlm_magic);
304                 return -EPROTO;
305         }
306
307         msg_version = flip ? __swab16(msg->ptlm_version) : msg->ptlm_version;
308
309         if (msg_version != PTLLND_MSG_VERSION) {
310                 CERROR("Bad version: got %04x expected %04x\n",
311                         (__u32)msg_version, PTLLND_MSG_VERSION);
312                 return -EPROTO;
313         }
314
315         if (nob < hdr_size) {
316                 CERROR("Short message: got %d, wanted at least %d\n",
317                        nob, hdr_size);
318                 return -EPROTO;
319         }
320
321         /* checksum must be computed with
322          * 1) ptlm_cksum zero and
323          * 2) BEFORE anything gets modified/flipped
324          */
325         msg_cksum = flip ? __swab32(msg->ptlm_cksum) : msg->ptlm_cksum;
326         msg->ptlm_cksum = 0;
327         if (msg_cksum != 0 &&
328             msg_cksum != kptllnd_cksum(msg, hdr_size)) {
329                 CERROR("Bad checksum\n");
330                 return -EPROTO;
331         }
332
333         msg->ptlm_version = msg_version;
334         msg->ptlm_cksum = msg_cksum;
335         
336         if (flip) {
337                 /* These two are 1 byte long so we don't swap them
338                    But check this assumtion*/
339                 CLASSERT (sizeof(msg->ptlm_type) == 1);
340                 CLASSERT (sizeof(msg->ptlm_credits) == 1);
341                 /* src & dst stamps are opaque cookies */
342                 __swab32s(&msg->ptlm_nob);
343                 __swab64s(&msg->ptlm_srcnid);
344                 __swab64s(&msg->ptlm_dstnid);
345                 __swab32s(&msg->ptlm_srcpid);
346                 __swab32s(&msg->ptlm_dstpid);
347         }
348
349         if (msg->ptlm_nob != nob) {
350                 CERROR("msg_nob corrupt: got 0x%08x, wanted %08x\n",
351                        msg->ptlm_nob, nob);
352                 return -EPROTO;
353         }
354
355         switch(msg->ptlm_type)
356         {
357         case PTLLND_MSG_TYPE_PUT:
358         case PTLLND_MSG_TYPE_GET:
359                 if (nob < hdr_size + sizeof(kptl_rdma_msg_t)) {
360                         CERROR("Short rdma request: got %d, want %d\n",
361                                nob, hdr_size + (int)sizeof(kptl_rdma_msg_t));
362                         return -EPROTO;
363                 }
364
365                 if (flip)
366                         __swab64s(&msg->ptlm_u.rdma.kptlrm_matchbits);
367
368                 if (msg->ptlm_u.rdma.kptlrm_matchbits < PTL_RESERVED_MATCHBITS) {
369                         CERROR("Bad matchbits "LPX64"\n",
370                                msg->ptlm_u.rdma.kptlrm_matchbits);
371                         return -EPROTO;
372                 }
373                 break;
374
375         case PTLLND_MSG_TYPE_IMMEDIATE:
376                 if (nob < offsetof(kptl_msg_t, 
377                                    ptlm_u.immediate.kptlim_payload)) {
378                         CERROR("Short immediate: got %d, want %d\n", nob,
379                                (int)offsetof(kptl_msg_t, 
380                                              ptlm_u.immediate.kptlim_payload));
381                         return -EPROTO;
382                 }
383                 /* Do nothing */
384                 break;
385                         
386         case PTLLND_MSG_TYPE_NOOP:
387         case PTLLND_MSG_TYPE_NAK:
388                 /* Do nothing */
389                 break;
390
391         case PTLLND_MSG_TYPE_HELLO:
392                 if (nob < hdr_size + sizeof(kptl_hello_msg_t)) {
393                         CERROR("Short hello: got %d want %d\n",
394                                nob, hdr_size + (int)sizeof(kptl_hello_msg_t));
395                         return -EPROTO;
396                 }
397                 if (flip) {
398                         __swab64s(&msg->ptlm_u.hello.kptlhm_matchbits);
399                         __swab32s(&msg->ptlm_u.hello.kptlhm_max_msg_size);
400                 }
401                 break;
402
403         default:
404                 CERROR("Bad message type: 0x%02x\n", (__u32)msg->ptlm_type);
405                 return -EPROTO;
406         }
407
408         return 0;
409 }
410
411 int
412 kptllnd_ctl(lnet_ni_t *ni, unsigned int cmd, void *arg)
413 {
414         struct libcfs_ioctl_data *data = arg;
415         int          rc = -EINVAL;
416
417         CDEBUG(D_NET, ">>> kptllnd_ctl cmd=%u arg=%p\n", cmd, arg);
418
419         /*
420          * Validate that the context block is actually
421          * pointing to this interface
422          */
423         LASSERT (ni == kptllnd_data.kptl_ni);
424
425         switch(cmd) {
426         case IOC_LIBCFS_DEL_PEER: {
427                 lnet_process_id_t id;
428                 
429                 id.nid = data->ioc_nid;
430                 id.pid = data->ioc_u32[1];
431                 
432                 rc = kptllnd_peer_del(id);
433                 break;
434         }
435
436         case IOC_LIBCFS_GET_PEER: {
437                 lnet_process_id_t   id = {.nid = LNET_NID_ANY,
438                                           .pid = LNET_PID_ANY};
439                 __u64               incarnation = 0;
440                 __u64               next_matchbits = 0;
441                 __u64               last_matchbits_seen = 0;
442                 int                 state = 0;
443                 int                 sent_hello = 0;
444                 int                 refcount = 0;
445                 int                 nsendq = 0;
446                 int                 nactiveq = 0;
447                 int                 credits = 0;
448                 int                 outstanding_credits = 0;
449
450                 rc = kptllnd_get_peer_info(data->ioc_count, &id,
451                                            &state, &sent_hello,
452                                            &refcount, &incarnation,
453                                            &next_matchbits, &last_matchbits_seen,
454                                            &nsendq, &nactiveq,
455                                            &credits, &outstanding_credits);
456                 /* wince... */
457                 data->ioc_nid = id.nid;
458                 data->ioc_net = state;
459                 data->ioc_flags  = sent_hello;
460                 data->ioc_count = refcount;
461                 data->ioc_u64[0] = incarnation;
462                 data->ioc_u32[0] = (__u32)next_matchbits;
463                 data->ioc_u32[1] = (__u32)(next_matchbits >> 32);
464                 data->ioc_u32[2] = (__u32)last_matchbits_seen;
465                 data->ioc_u32[3] = (__u32)(last_matchbits_seen >> 32);
466                 data->ioc_u32[4] = id.pid;
467                 data->ioc_u32[5] = (nsendq << 16) | nactiveq;
468                 data->ioc_u32[6] = (credits << 16) | outstanding_credits;
469                 break;
470         }
471                 
472         default:
473                 rc=-EINVAL;
474                 break;
475         }
476         CDEBUG(D_NET, "<<< kptllnd_ctl rc=%d\n", rc);
477         return rc;
478 }
479
480 void
481 kptllnd_query (lnet_ni_t *ni, lnet_nid_t nid, time_t *when)
482 {
483         kptl_peer_t       *peer = NULL;
484         lnet_process_id_t  id = {.nid = nid, .pid = LUSTRE_SRV_LNET_PID};
485         unsigned long      flags;
486
487         /* NB: kptllnd_find_target connects to peer if necessary */
488         if (kptllnd_find_target(&peer, id) != 0)
489                 return;
490
491         spin_lock_irqsave(&peer->peer_lock, flags);
492         if (peer->peer_last_alive != 0)
493                 *when = cfs_time_current_sec() -
494                         cfs_duration_sec(cfs_time_current() -
495                                          peer->peer_last_alive);
496         spin_unlock_irqrestore(&peer->peer_lock, flags);
497         kptllnd_peer_decref(peer);
498         return;
499 }
500
501 int
502 kptllnd_startup (lnet_ni_t *ni)
503 {
504         int             rc;
505         int             i;
506         int             spares;
507         struct timeval  tv;
508         ptl_err_t       ptl_rc;
509
510         LASSERT (ni->ni_lnd == &kptllnd_lnd);
511
512         if (kptllnd_data.kptl_init != PTLLND_INIT_NOTHING) {
513                 CERROR("Only 1 instance supported\n");
514                 return -EPERM;
515         }
516
517         if (*kptllnd_tunables.kptl_max_procs_per_node < 1) {
518                 CERROR("max_procs_per_node must be >= 1\n");
519                 return -EINVAL;
520         }
521
522         if (*kptllnd_tunables.kptl_peercredits > PTLLND_MSG_MAX_CREDITS) {
523                 CERROR("peercredits must be <= %d\n", PTLLND_MSG_MAX_CREDITS);
524                 return -EINVAL;
525         }
526
527         *kptllnd_tunables.kptl_max_msg_size &= ~7;
528         if (*kptllnd_tunables.kptl_max_msg_size < PTLLND_MIN_BUFFER_SIZE)
529                 *kptllnd_tunables.kptl_max_msg_size = PTLLND_MIN_BUFFER_SIZE;
530
531         CLASSERT ((PTLLND_MIN_BUFFER_SIZE & 7) == 0);
532         CLASSERT (sizeof(kptl_msg_t) <= PTLLND_MIN_BUFFER_SIZE);
533
534         /*
535          * zero pointers, flags etc
536          * put everything into a known state.
537          */
538         memset (&kptllnd_data, 0, sizeof (kptllnd_data));
539         kptllnd_data.kptl_eqh = PTL_INVALID_HANDLE;
540         kptllnd_data.kptl_nih = PTL_INVALID_HANDLE;
541
542         /*
543          * Setup the sched locks/lists/waitq
544          */
545         spin_lock_init(&kptllnd_data.kptl_sched_lock);
546         init_waitqueue_head(&kptllnd_data.kptl_sched_waitq);
547         INIT_LIST_HEAD(&kptllnd_data.kptl_sched_txq);
548         INIT_LIST_HEAD(&kptllnd_data.kptl_sched_rxq);
549         INIT_LIST_HEAD(&kptllnd_data.kptl_sched_rxbq);
550
551         /* init kptl_ptlid2str_lock before any call to kptllnd_ptlid2str */
552         spin_lock_init(&kptllnd_data.kptl_ptlid2str_lock);
553
554         /*
555          * Setup the tx locks/lists
556          */
557         spin_lock_init(&kptllnd_data.kptl_tx_lock);
558         INIT_LIST_HEAD(&kptllnd_data.kptl_idle_txs);
559         atomic_set(&kptllnd_data.kptl_ntx, 0);
560
561         /*
562          * Uptick the module reference count
563          */
564         PORTAL_MODULE_USE;
565
566         /*
567          * Setup pointers between the ni and context data block
568          */
569         kptllnd_data.kptl_ni = ni;
570         ni->ni_data = &kptllnd_data;
571
572         /*
573          * Setup Credits
574          */
575         ni->ni_maxtxcredits = *kptllnd_tunables.kptl_credits;
576         ni->ni_peertxcredits = *kptllnd_tunables.kptl_peercredits;
577
578         kptllnd_data.kptl_expected_peers =
579                 *kptllnd_tunables.kptl_max_nodes *
580                 *kptllnd_tunables.kptl_max_procs_per_node;
581         
582         /*
583          * Initialize the Network interface instance
584          * We use the default because we don't have any
585          * way to choose a better interface.
586          * Requested and actual limits are ignored.
587          */
588         ptl_rc = PtlNIInit(
589 #ifdef _USING_LUSTRE_PORTALS_
590                 PTL_IFACE_DEFAULT,
591 #else
592                 CRAY_KERN_NAL,
593 #endif
594                 *kptllnd_tunables.kptl_pid, NULL, NULL,
595                 &kptllnd_data.kptl_nih);
596
597         /*
598          * Note: PTL_IFACE_DUP simply means that the requested
599          * interface was already inited and that we're sharing it.
600          * Which is ok.
601          */
602         if (ptl_rc != PTL_OK && ptl_rc != PTL_IFACE_DUP) {
603                 CERROR ("PtlNIInit: error %s(%d)\n",
604                         kptllnd_errtype2str(ptl_rc), ptl_rc);
605                 rc = -EINVAL;
606                 goto failed;
607         }
608
609         /* NB eq size irrelevant if using a callback */
610         ptl_rc = PtlEQAlloc(kptllnd_data.kptl_nih,
611                             8,                       /* size */
612                             kptllnd_eq_callback,     /* handler callback */
613                             &kptllnd_data.kptl_eqh); /* output handle */
614         if (ptl_rc != PTL_OK) {
615                 CERROR("PtlEQAlloc failed %s(%d)\n",
616                        kptllnd_errtype2str(ptl_rc), ptl_rc);
617                 rc = -ENOMEM;
618                 goto failed;
619         }
620
621         /*
622          * Fetch the lower NID
623          */
624         ptl_rc = PtlGetId(kptllnd_data.kptl_nih,
625                           &kptllnd_data.kptl_portals_id);
626         if (ptl_rc != PTL_OK) {
627                 CERROR ("PtlGetID: error %s(%d)\n",
628                         kptllnd_errtype2str(ptl_rc), ptl_rc);
629                 rc = -EINVAL;
630                 goto failed;
631         }
632
633         if (kptllnd_data.kptl_portals_id.pid != *kptllnd_tunables.kptl_pid) {
634                 /* The kernel ptllnd must have the expected PID */
635                 CERROR("Unexpected PID: %u (%u expected)\n",
636                        kptllnd_data.kptl_portals_id.pid,
637                        *kptllnd_tunables.kptl_pid);
638                 rc = -EINVAL;
639                 goto failed;
640         }
641
642         ni->ni_nid = kptllnd_ptl2lnetnid(kptllnd_data.kptl_portals_id.nid);
643
644         CDEBUG(D_NET, "ptl id=%s, lnet id=%s\n", 
645                kptllnd_ptlid2str(kptllnd_data.kptl_portals_id),
646                libcfs_nid2str(ni->ni_nid));
647
648         /* Initialized the incarnation - it must be for-all-time unique, even
649          * accounting for the fact that we increment it when we disconnect a
650          * peer that's using it */
651         do_gettimeofday(&tv);
652         kptllnd_data.kptl_incarnation = (((__u64)tv.tv_sec) * 1000000) +
653                                         tv.tv_usec;
654         CDEBUG(D_NET, "Incarnation="LPX64"\n", kptllnd_data.kptl_incarnation);
655
656         /*
657          * Allocate and setup the peer hash table
658          */
659         rwlock_init(&kptllnd_data.kptl_peer_rw_lock);
660         init_waitqueue_head(&kptllnd_data.kptl_watchdog_waitq);
661         atomic_set(&kptllnd_data.kptl_needs_ptltrace, 0);
662         INIT_LIST_HEAD(&kptllnd_data.kptl_closing_peers);
663         INIT_LIST_HEAD(&kptllnd_data.kptl_zombie_peers);
664
665         kptllnd_data.kptl_peer_hash_size =
666                 *kptllnd_tunables.kptl_peer_hash_table_size;
667         LIBCFS_ALLOC(kptllnd_data.kptl_peers,
668                      (kptllnd_data.kptl_peer_hash_size * 
669                       sizeof(struct list_head)));
670         if (kptllnd_data.kptl_peers == NULL) {
671                 CERROR("Failed to allocate space for peer hash table size=%d\n",
672                         kptllnd_data.kptl_peer_hash_size);
673                 rc = -ENOMEM;
674                 goto failed;
675         }
676         for (i = 0; i < kptllnd_data.kptl_peer_hash_size; i++)
677                 INIT_LIST_HEAD(&kptllnd_data.kptl_peers[i]);
678
679         LIBCFS_ALLOC(kptllnd_data.kptl_nak_msg, offsetof(kptl_msg_t, ptlm_u));
680         if (kptllnd_data.kptl_nak_msg == NULL) {
681                 CERROR("Can't allocate NAK msg\n");
682                 rc = -ENOMEM;
683                 goto failed;
684         }
685         memset(kptllnd_data.kptl_nak_msg, 0, offsetof(kptl_msg_t, ptlm_u));
686         kptllnd_init_msg(kptllnd_data.kptl_nak_msg, PTLLND_MSG_TYPE_NAK, 0);
687         kptllnd_data.kptl_nak_msg->ptlm_magic    = PTLLND_MSG_MAGIC;
688         kptllnd_data.kptl_nak_msg->ptlm_version  = PTLLND_MSG_VERSION;
689         kptllnd_data.kptl_nak_msg->ptlm_srcpid   = the_lnet.ln_pid;
690         kptllnd_data.kptl_nak_msg->ptlm_srcnid   = ni->ni_nid;
691         kptllnd_data.kptl_nak_msg->ptlm_srcstamp = kptllnd_data.kptl_incarnation;
692         kptllnd_data.kptl_nak_msg->ptlm_dstpid   = LNET_PID_ANY;
693         kptllnd_data.kptl_nak_msg->ptlm_dstnid   = LNET_NID_ANY;
694
695         kptllnd_rx_buffer_pool_init(&kptllnd_data.kptl_rx_buffer_pool);
696
697         kptllnd_data.kptl_rx_cache = 
698                 cfs_mem_cache_create("ptllnd_rx",
699                                      sizeof(kptl_rx_t) + 
700                                      *kptllnd_tunables.kptl_max_msg_size,
701                                      0,    /* offset */
702                                      0);   /* flags */
703         if (kptllnd_data.kptl_rx_cache == NULL) {
704                 CERROR("Can't create slab for RX descriptors\n");
705                 rc = -ENOMEM;
706                 goto failed;
707         }
708
709         /* lists/ptrs/locks initialised */
710         kptllnd_data.kptl_init = PTLLND_INIT_DATA;
711
712         /*****************************************************/
713
714         rc = kptllnd_setup_tx_descs();
715         if (rc != 0) {
716                 CERROR("Can't pre-allocate %d TX descriptors: %d\n",
717                        *kptllnd_tunables.kptl_ntx, rc);
718                 goto failed;
719         }
720         
721         /* Start the scheduler threads for handling incoming requests.  No need
722          * to advance the state because this will be automatically cleaned up
723          * now that PTLNAT_INIT_DATA state has been entered */
724         CDEBUG(D_NET, "starting %d scheduler threads\n", PTLLND_N_SCHED);
725         for (i = 0; i < PTLLND_N_SCHED; i++) {
726                 rc = kptllnd_thread_start(kptllnd_scheduler, (void *)((long)i));
727                 if (rc != 0) {
728                         CERROR("Can't spawn scheduler[%d]: %d\n", i, rc);
729                         goto failed;
730                 }
731         }
732
733         rc = kptllnd_thread_start(kptllnd_watchdog, NULL);
734         if (rc != 0) {
735                 CERROR("Can't spawn watchdog: %d\n", rc);
736                 goto failed;
737         }
738
739         /* Ensure that 'rxb_nspare' buffers can be off the net (being emptied)
740          * and we will still have enough buffers posted for all our peers */
741         spares = *kptllnd_tunables.kptl_rxb_nspare *
742                  ((*kptllnd_tunables.kptl_rxb_npages * PAGE_SIZE)/
743                   *kptllnd_tunables.kptl_max_msg_size);
744
745         /* reserve and post the buffers */
746         rc = kptllnd_rx_buffer_pool_reserve(&kptllnd_data.kptl_rx_buffer_pool,
747                                             kptllnd_data.kptl_expected_peers +
748                                             spares);
749         if (rc != 0) {
750                 CERROR("Can't reserve RX Buffer pool: %d\n", rc);
751                 goto failed;
752         }
753
754         /* flag everything initialised */
755         kptllnd_data.kptl_init = PTLLND_INIT_ALL;
756
757         /*****************************************************/
758
759         if (*kptllnd_tunables.kptl_checksum)
760                 CWARN("Checksumming enabled\n");
761         
762         CDEBUG(D_NET, "<<< kptllnd_startup SUCCESS\n");
763         return 0;
764
765  failed:
766         CDEBUG(D_NET, "kptllnd_startup failed rc=%d\n", rc);
767         kptllnd_shutdown(ni);
768         return rc;
769 }
770
771 void
772 kptllnd_shutdown (lnet_ni_t *ni)
773 {
774         int               i;
775         ptl_err_t         prc;
776         lnet_process_id_t process_id;
777         unsigned long     flags;
778
779         CDEBUG(D_MALLOC, "before LND cleanup: kmem %d\n",
780                atomic_read (&libcfs_kmemory));
781
782         LASSERT (ni == kptllnd_data.kptl_ni);
783
784         switch (kptllnd_data.kptl_init) {
785         default:
786                 LBUG();
787
788         case PTLLND_INIT_ALL:
789         case PTLLND_INIT_DATA:
790                 /* Stop receiving */
791                 kptllnd_rx_buffer_pool_fini(&kptllnd_data.kptl_rx_buffer_pool);
792                 LASSERT (list_empty(&kptllnd_data.kptl_sched_rxq));
793                 LASSERT (list_empty(&kptllnd_data.kptl_sched_rxbq));
794
795                 /* Hold peertable lock to interleave cleanly with peer birth/death */
796                 write_lock_irqsave(&kptllnd_data.kptl_peer_rw_lock, flags);
797
798                 LASSERT (kptllnd_data.kptl_shutdown == 0);
799                 kptllnd_data.kptl_shutdown = 1; /* phase 1 == destroy peers */
800
801                 /* no new peers possible now */
802                 write_unlock_irqrestore(&kptllnd_data.kptl_peer_rw_lock, 
803                                         flags);
804
805                 /* nuke all existing peers */
806                 process_id.nid = LNET_NID_ANY;
807                 process_id.pid = LNET_PID_ANY;
808                 kptllnd_peer_del(process_id);
809
810                 read_lock_irqsave(&kptllnd_data.kptl_peer_rw_lock, flags);
811
812                 LASSERT (kptllnd_data.kptl_n_active_peers == 0);
813
814                 i = 2;
815                 while (kptllnd_data.kptl_npeers != 0) {
816                         i++;
817                         CDEBUG(((i & (-i)) == i) ? D_WARNING : D_NET,
818                                "Waiting for %d peers to terminate\n",
819                                kptllnd_data.kptl_npeers);
820
821                         read_unlock_irqrestore(&kptllnd_data.kptl_peer_rw_lock, 
822                                                flags);
823
824                         cfs_pause(cfs_time_seconds(1));
825
826                         read_lock_irqsave(&kptllnd_data.kptl_peer_rw_lock, 
827                                           flags);
828                 }
829
830                 LASSERT(list_empty(&kptllnd_data.kptl_closing_peers));
831                 LASSERT(list_empty(&kptllnd_data.kptl_zombie_peers));
832                 LASSERT (kptllnd_data.kptl_peers != NULL);
833                 for (i = 0; i < kptllnd_data.kptl_peer_hash_size; i++)
834                         LASSERT (list_empty (&kptllnd_data.kptl_peers[i]));
835
836                 read_unlock_irqrestore(&kptllnd_data.kptl_peer_rw_lock, flags);
837                 CDEBUG(D_NET, "All peers deleted\n");
838
839                 /* Shutdown phase 2: kill the daemons... */
840                 kptllnd_data.kptl_shutdown = 2;
841                 mb();
842                 
843                 i = 2;
844                 while (atomic_read (&kptllnd_data.kptl_nthreads) != 0) {
845                         /* Wake up all threads*/
846                         wake_up_all(&kptllnd_data.kptl_sched_waitq);
847                         wake_up_all(&kptllnd_data.kptl_watchdog_waitq);
848
849                         i++;
850                         CDEBUG(((i & (-i)) == i) ? D_WARNING : D_NET, /* power of 2? */
851                                "Waiting for %d threads to terminate\n",
852                                atomic_read(&kptllnd_data.kptl_nthreads));
853                         cfs_pause(cfs_time_seconds(1));
854                 }
855
856                 CDEBUG(D_NET, "All Threads stopped\n");
857                 LASSERT(list_empty(&kptllnd_data.kptl_sched_txq));
858
859                 kptllnd_cleanup_tx_descs();
860
861                 /* Nothing here now, but libcfs might soon require
862                  * us to explicitly destroy wait queues and semaphores
863                  * that would be done here */
864
865                 /* fall through */
866
867         case PTLLND_INIT_NOTHING:
868                 CDEBUG(D_NET, "PTLLND_INIT_NOTHING\n");
869                 break;
870         }
871
872         if (!PtlHandleIsEqual(kptllnd_data.kptl_eqh, PTL_INVALID_HANDLE)) {
873                 prc = PtlEQFree(kptllnd_data.kptl_eqh);
874                 if (prc != PTL_OK)
875                         CERROR("Error %s(%d) freeing portals EQ\n",
876                                kptllnd_errtype2str(prc), prc);
877         }
878
879         if (!PtlHandleIsEqual(kptllnd_data.kptl_nih, PTL_INVALID_HANDLE)) {
880                 prc = PtlNIFini(kptllnd_data.kptl_nih);
881                 if (prc != PTL_OK)
882                         CERROR("Error %s(%d) finalizing portals NI\n",
883                                kptllnd_errtype2str(prc), prc);
884         }
885         
886         LASSERT (atomic_read(&kptllnd_data.kptl_ntx) == 0);
887         LASSERT (list_empty(&kptllnd_data.kptl_idle_txs));
888
889         if (kptllnd_data.kptl_rx_cache != NULL)
890                 cfs_mem_cache_destroy(kptllnd_data.kptl_rx_cache);
891
892         if (kptllnd_data.kptl_peers != NULL)
893                 LIBCFS_FREE (kptllnd_data.kptl_peers,
894                              sizeof (struct list_head) *
895                              kptllnd_data.kptl_peer_hash_size);
896
897         if (kptllnd_data.kptl_nak_msg != NULL)
898                 LIBCFS_FREE (kptllnd_data.kptl_nak_msg,
899                              offsetof(kptl_msg_t, ptlm_u));
900
901         memset(&kptllnd_data, 0, sizeof(kptllnd_data));
902
903         CDEBUG(D_MALLOC, "after LND cleanup: kmem %d\n",
904                atomic_read (&libcfs_kmemory));
905
906         PORTAL_MODULE_UNUSE;
907 }
908
909 int __init
910 kptllnd_module_init (void)
911 {
912         int    rc;
913
914         kptllnd_assert_wire_constants();
915
916         rc = kptllnd_tunables_init();
917         if (rc != 0)
918                 return rc;
919
920         kptllnd_init_ptltrace();
921
922         lnet_register_lnd(&kptllnd_lnd);
923
924         return 0;
925 }
926
927 void __exit
928 kptllnd_module_fini (void)
929 {
930         lnet_unregister_lnd(&kptllnd_lnd);
931         kptllnd_tunables_fini();
932 }
933
934 MODULE_AUTHOR("Sun Microsystems, Inc. <http://www.lustre.org/>");
935 MODULE_DESCRIPTION("Kernel Portals LND v1.00");
936 MODULE_LICENSE("GPL");
937
938 module_init(kptllnd_module_init);
939 module_exit(kptllnd_module_fini);