Whamcloud - gitweb
eb13d738674345c8be05f2aa1aab427c6f1fc9e7
[fs/lustre-release.git] / lnet / klnds / ralnd / ralnd.c
1 /* -*- mode: c; c-basic-offset: 8; indent-tabs-mode: nil; -*-
2  * vim:expandtab:shiftwidth=8:tabstop=8:
3  *
4  * Copyright (C) 2004 Cluster File Systems, Inc.
5  *   Author: Eric Barton <eric@bartonsoftware.com>
6  *
7  *   This file is part of Lustre, http://www.lustre.org.
8  *
9  *   Lustre is free software; you can redistribute it and/or
10  *   modify it under the terms of version 2 of the GNU General Public
11  *   License as published by the Free Software Foundation.
12  *
13  *   Lustre is distributed in the hope that it will be useful,
14  *   but WITHOUT ANY WARRANTY; without even the implied warranty of
15  *   MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
16  *   GNU General Public License for more details.
17  *
18  *   You should have received a copy of the GNU General Public License
19  *   along with Lustre; if not, write to the Free Software
20  *   Foundation, Inc., 675 Mass Ave, Cambridge, MA 02139, USA.
21  *
22  */
23 #include "ranal.h"
24
25 static int        kranal_devids[] = {RAPK_MAIN_DEVICE_ID,
26                                      RAPK_EXPANSION_DEVICE_ID};
27
28 nal_t                   kranal_api;
29 ptl_handle_ni_t         kranal_ni;
30 kra_data_t              kranal_data;
31 kra_tunables_t          kranal_tunables;
32
33 #define RANAL_SYSCTL_TIMEOUT           1
34 #define RANAL_SYSCTL_LISTENER_TIMEOUT  2
35 #define RANAL_SYSCTL_BACKLOG           3
36 #define RANAL_SYSCTL_PORT              4
37 #define RANAL_SYSCTL_MAX_IMMEDIATE     5
38
39 #define RANAL_SYSCTL                   202
40
41 static ctl_table kranal_ctl_table[] = {
42         {RANAL_SYSCTL_TIMEOUT, "timeout",
43          &kranal_tunables.kra_timeout, sizeof(int),
44          0644, NULL, &proc_dointvec},
45         {RANAL_SYSCTL_LISTENER_TIMEOUT, "listener_timeout",
46          &kranal_tunables.kra_listener_timeout, sizeof(int),
47          0644, NULL, &proc_dointvec},
48         {RANAL_SYSCTL_BACKLOG, "backlog",
49          &kranal_tunables.kra_backlog, sizeof(int),
50          0644, NULL, kranal_listener_procint},
51         {RANAL_SYSCTL_PORT, "port",
52          &kranal_tunables.kra_port, sizeof(int),
53          0644, NULL, kranal_listener_procint},
54         {RANAL_SYSCTL_MAX_IMMEDIATE, "max_immediate",
55          &kranal_tunables.kra_max_immediate, sizeof(int),
56          0644, NULL, &proc_dointvec},
57         { 0 }
58 };
59
60 static ctl_table kranal_top_ctl_table[] = {
61         {RANAL_SYSCTL, "ranal", NULL, 0, 0555, kranal_ctl_table},
62         { 0 }
63 };
64
65 int
66 kranal_sock_write (struct socket *sock, void *buffer, int nob)
67 {
68         int           rc;
69         mm_segment_t  oldmm = get_fs();
70         struct iovec  iov = {
71                 .iov_base = buffer,
72                 .iov_len  = nob
73         };
74         struct msghdr msg = {
75                 .msg_name       = NULL,
76                 .msg_namelen    = 0,
77                 .msg_iov        = &iov,
78                 .msg_iovlen     = 1,
79                 .msg_control    = NULL,
80                 .msg_controllen = 0,
81                 .msg_flags      = MSG_DONTWAIT
82         };
83
84         /* We've set up the socket's send buffer to be large enough for
85          * everything we send, so a single non-blocking send should
86          * complete without error. */
87
88         set_fs(KERNEL_DS);
89         rc = sock_sendmsg(sock, &msg, iov.iov_len);
90         set_fs(oldmm);
91
92         if (rc == nob)
93                 return 0;
94
95         if (rc >= 0)
96                 return -EAGAIN;
97
98         return rc;
99 }
100
101 int
102 kranal_sock_read (struct socket *sock, void *buffer, int nob, int timeout)
103 {
104         int            rc;
105         mm_segment_t   oldmm = get_fs();
106         long           ticks = timeout * HZ;
107         unsigned long  then;
108         struct timeval tv;
109
110         LASSERT (nob > 0);
111         LASSERT (ticks > 0);
112
113         for (;;) {
114                 struct iovec  iov = {
115                         .iov_base = buffer,
116                         .iov_len  = nob
117                 };
118                 struct msghdr msg = {
119                         .msg_name       = NULL,
120                         .msg_namelen    = 0,
121                         .msg_iov        = &iov,
122                         .msg_iovlen     = 1,
123                         .msg_control    = NULL,
124                         .msg_controllen = 0,
125                         .msg_flags      = 0
126                 };
127
128                 /* Set receive timeout to remaining time */
129                 tv = (struct timeval) {
130                         .tv_sec = ticks / HZ,
131                         .tv_usec = ((ticks % HZ) * 1000000) / HZ
132                 };
133                 set_fs(KERNEL_DS);
134                 rc = sock_setsockopt(sock, SOL_SOCKET, SO_RCVTIMEO,
135                                      (char *)&tv, sizeof(tv));
136                 set_fs(oldmm);
137                 if (rc != 0) {
138                         CERROR("Can't set socket recv timeout %d: %d\n",
139                                timeout, rc);
140                         return rc;
141                 }
142
143                 set_fs(KERNEL_DS);
144                 then = jiffies;
145                 rc = sock_recvmsg(sock, &msg, iov.iov_len, 0);
146                 ticks -= jiffies - then;
147                 set_fs(oldmm);
148
149                 if (rc < 0)
150                         return rc;
151
152                 if (rc == 0)
153                         return -ECONNABORTED;
154
155                 buffer = ((char *)buffer) + rc;
156                 nob -= rc;
157
158                 if (nob == 0)
159                         return 0;
160
161                 if (ticks <= 0)
162                         return -ETIMEDOUT;
163         }
164 }
165
166 int
167 kranal_create_sock(struct socket **sockp)
168 {
169         struct socket       *sock;
170         int                  rc;
171         int                  option;
172         mm_segment_t         oldmm = get_fs();
173
174         rc = sock_create(PF_INET, SOCK_STREAM, 0, &sock);
175         if (rc != 0) {
176                 CERROR("Can't create socket: %d\n", rc);
177                 return rc;
178         }
179
180         /* Ensure sending connection info doesn't block */
181         option = 2 * sizeof(kra_connreq_t);
182         set_fs(KERNEL_DS);
183         rc = sock_setsockopt(sock, SOL_SOCKET, SO_SNDBUF,
184                              (char *)&option, sizeof(option));
185         set_fs(oldmm);
186         if (rc != 0) {
187                 CERROR("Can't set send buffer %d: %d\n", option, rc);
188                 goto failed;
189         }
190
191         option = 1;
192         set_fs(KERNEL_DS);
193         rc = sock_setsockopt(sock, SOL_SOCKET, SO_REUSEADDR,
194                              (char *)&option, sizeof(option));
195         set_fs(oldmm);
196         if (rc != 0) {
197                 CERROR("Can't set SO_REUSEADDR: %d\n", rc);
198                 goto failed;
199         }
200
201         *sockp = sock;
202         return 0;
203
204  failed:
205         sock_release(sock);
206         return rc;
207 }
208
209 void
210 kranal_pause(int ticks)
211 {
212         set_current_state(TASK_UNINTERRUPTIBLE);
213         schedule_timeout(ticks);
214 }
215
216 void
217 kranal_pack_connreq(kra_connreq_t *connreq, kra_conn_t *conn, ptl_nid_t dstnid)
218 {
219         RAP_RETURN   rrc;
220
221         memset(connreq, 0, sizeof(*connreq));
222
223         connreq->racr_magic     = RANAL_MSG_MAGIC;
224         connreq->racr_version   = RANAL_MSG_VERSION;
225         connreq->racr_devid     = conn->rac_device->rad_id;
226         connreq->racr_srcnid    = kranal_lib.libnal_ni.ni_pid.nid;
227         connreq->racr_dstnid    = dstnid;
228         connreq->racr_peerstamp = kranal_data.kra_peerstamp;
229         connreq->racr_connstamp = conn->rac_my_connstamp;
230         connreq->racr_timeout   = conn->rac_timeout;
231
232         rrc = RapkGetRiParams(conn->rac_rihandle, &connreq->racr_riparams);
233         LASSERT(rrc == RAP_SUCCESS);
234 }
235
236 int
237 kranal_recv_connreq(struct socket *sock, kra_connreq_t *connreq, int timeout)
238 {
239         int         rc;
240
241         rc = kranal_sock_read(sock, connreq, sizeof(*connreq), timeout);
242         if (rc != 0) {
243                 CERROR("Read failed: %d\n", rc);
244                 return rc;
245         }
246
247         if (connreq->racr_magic != RANAL_MSG_MAGIC) {
248                 if (__swab32(connreq->racr_magic) != RANAL_MSG_MAGIC) {
249                         CERROR("Unexpected magic %08x\n", connreq->racr_magic);
250                         return -EPROTO;
251                 }
252
253                 __swab32s(&connreq->racr_magic);
254                 __swab16s(&connreq->racr_version);
255                 __swab16s(&connreq->racr_devid);
256                 __swab64s(&connreq->racr_srcnid);
257                 __swab64s(&connreq->racr_dstnid);
258                 __swab64s(&connreq->racr_peerstamp);
259                 __swab64s(&connreq->racr_connstamp);
260                 __swab32s(&connreq->racr_timeout);
261
262                 __swab32s(&connreq->racr_riparams.HostId);
263                 __swab32s(&connreq->racr_riparams.FmaDomainHndl);
264                 __swab32s(&connreq->racr_riparams.PTag);
265                 __swab32s(&connreq->racr_riparams.CompletionCookie);
266         }
267
268         if (connreq->racr_version != RANAL_MSG_VERSION) {
269                 CERROR("Unexpected version %d\n", connreq->racr_version);
270                 return -EPROTO;
271         }
272
273         if (connreq->racr_srcnid == PTL_NID_ANY ||
274             connreq->racr_dstnid == PTL_NID_ANY) {
275                 CERROR("Received PTL_NID_ANY\n");
276                 return -EPROTO;
277         }
278
279         if (connreq->racr_timeout < RANAL_MIN_TIMEOUT) {
280                 CERROR("Received timeout %d < MIN %d\n",
281                        connreq->racr_timeout, RANAL_MIN_TIMEOUT);
282                 return -EPROTO;
283         }
284
285         return 0;
286 }
287
288 int
289 kranal_close_stale_conns_locked (kra_peer_t *peer, kra_conn_t *newconn)
290 {
291         kra_conn_t         *conn;
292         struct list_head   *ctmp;
293         struct list_head   *cnxt;
294         int                 loopback;
295         int                 count = 0;
296
297         loopback = peer->rap_nid == kranal_lib.libnal_ni.ni_pid.nid;
298
299         list_for_each_safe (ctmp, cnxt, &peer->rap_conns) {
300                 conn = list_entry(ctmp, kra_conn_t, rac_list);
301
302                 if (conn == newconn)
303                         continue;
304
305                 if (conn->rac_peerstamp != newconn->rac_peerstamp) {
306                         CDEBUG(D_NET, "Closing stale conn nid:"LPX64
307                                " peerstamp:"LPX64"("LPX64")\n", peer->rap_nid,
308                                conn->rac_peerstamp, newconn->rac_peerstamp);
309                         LASSERT (conn->rac_peerstamp < newconn->rac_peerstamp);
310                         count++;
311                         kranal_close_conn_locked(conn, -ESTALE);
312                         continue;
313                 }
314
315                 if (conn->rac_device != newconn->rac_device)
316                         continue;
317
318                 if (loopback &&
319                     newconn->rac_my_connstamp == conn->rac_peer_connstamp &&
320                     newconn->rac_peer_connstamp == conn->rac_my_connstamp)
321                         continue;
322
323                 LASSERT (conn->rac_peer_connstamp < newconn->rac_peer_connstamp);
324
325                 CDEBUG(D_NET, "Closing stale conn nid:"LPX64
326                        " connstamp:"LPX64"("LPX64")\n", peer->rap_nid,
327                        conn->rac_peer_connstamp, newconn->rac_peer_connstamp);
328
329                 count++;
330                 kranal_close_conn_locked(conn, -ESTALE);
331         }
332
333         return count;
334 }
335
336 int
337 kranal_conn_isdup_locked(kra_peer_t *peer, kra_conn_t *newconn)
338 {
339         kra_conn_t       *conn;
340         struct list_head *tmp;
341         int               loopback;
342
343         loopback = peer->rap_nid == kranal_lib.libnal_ni.ni_pid.nid;
344
345         list_for_each(tmp, &peer->rap_conns) {
346                 conn = list_entry(tmp, kra_conn_t, rac_list);
347
348                 /* 'newconn' is from an earlier version of 'peer'!!! */
349                 if (newconn->rac_peerstamp < conn->rac_peerstamp)
350                         return 1;
351
352                 /* 'conn' is from an earlier version of 'peer': it will be
353                  * removed when we cull stale conns later on... */
354                 if (newconn->rac_peerstamp > conn->rac_peerstamp)
355                         continue;
356
357                 /* Different devices are OK */
358                 if (conn->rac_device != newconn->rac_device)
359                         continue;
360
361                 /* It's me connecting to myself */
362                 if (loopback &&
363                     newconn->rac_my_connstamp == conn->rac_peer_connstamp &&
364                     newconn->rac_peer_connstamp == conn->rac_my_connstamp)
365                         continue;
366
367                 /* 'newconn' is an earlier connection from 'peer'!!! */
368                 if (newconn->rac_peer_connstamp < conn->rac_peer_connstamp)
369                         return 2;
370
371                 /* 'conn' is an earlier connection from 'peer': it will be
372                  * removed when we cull stale conns later on... */
373                 if (newconn->rac_peer_connstamp > conn->rac_peer_connstamp)
374                         continue;
375
376                 /* 'newconn' has the SAME connection stamp; 'peer' isn't
377                  * playing the game... */
378                 return 3;
379         }
380
381         return 0;
382 }
383
384 void
385 kranal_set_conn_uniqueness (kra_conn_t *conn)
386 {
387         unsigned long  flags;
388
389         write_lock_irqsave(&kranal_data.kra_global_lock, flags);
390
391         conn->rac_my_connstamp = kranal_data.kra_connstamp++;
392
393         do {    /* allocate a unique cqid */
394                 conn->rac_cqid = kranal_data.kra_next_cqid++;
395         } while (kranal_cqid2conn_locked(conn->rac_cqid) != NULL);
396
397         write_unlock_irqrestore(&kranal_data.kra_global_lock, flags);
398 }
399
400 int
401 kranal_create_conn(kra_conn_t **connp, kra_device_t *dev)
402 {
403         kra_conn_t    *conn;
404         RAP_RETURN     rrc;
405
406         LASSERT (!in_interrupt());
407         PORTAL_ALLOC(conn, sizeof(*conn));
408
409         if (conn == NULL)
410                 return -ENOMEM;
411
412         memset(conn, 0, sizeof(*conn));
413         atomic_set(&conn->rac_refcount, 1);
414         INIT_LIST_HEAD(&conn->rac_list);
415         INIT_LIST_HEAD(&conn->rac_hashlist);
416         INIT_LIST_HEAD(&conn->rac_schedlist);
417         INIT_LIST_HEAD(&conn->rac_fmaq);
418         INIT_LIST_HEAD(&conn->rac_rdmaq);
419         INIT_LIST_HEAD(&conn->rac_replyq);
420         spin_lock_init(&conn->rac_lock);
421
422         kranal_set_conn_uniqueness(conn);
423
424         conn->rac_device = dev;
425         conn->rac_timeout = MAX(kranal_tunables.kra_timeout, RANAL_MIN_TIMEOUT);
426         kranal_update_reaper_timeout(conn->rac_timeout);
427
428         rrc = RapkCreateRi(dev->rad_handle, conn->rac_cqid,
429                            &conn->rac_rihandle);
430         if (rrc != RAP_SUCCESS) {
431                 CERROR("RapkCreateRi failed: %d\n", rrc);
432                 PORTAL_FREE(conn, sizeof(*conn));
433                 return -ENETDOWN;
434         }
435
436         atomic_inc(&kranal_data.kra_nconns);
437         *connp = conn;
438         return 0;
439 }
440
441 void
442 kranal_destroy_conn(kra_conn_t *conn)
443 {
444         RAP_RETURN         rrc;
445
446         LASSERT (!in_interrupt());
447         LASSERT (!conn->rac_scheduled);
448         LASSERT (list_empty(&conn->rac_list));
449         LASSERT (list_empty(&conn->rac_hashlist));
450         LASSERT (list_empty(&conn->rac_schedlist));
451         LASSERT (atomic_read(&conn->rac_refcount) == 0);
452         LASSERT (list_empty(&conn->rac_fmaq));
453         LASSERT (list_empty(&conn->rac_rdmaq));
454         LASSERT (list_empty(&conn->rac_replyq));
455
456         rrc = RapkDestroyRi(conn->rac_device->rad_handle,
457                             conn->rac_rihandle);
458         LASSERT (rrc == RAP_SUCCESS);
459
460         if (conn->rac_peer != NULL)
461                 kranal_peer_decref(conn->rac_peer);
462
463         PORTAL_FREE(conn, sizeof(*conn));
464         atomic_dec(&kranal_data.kra_nconns);
465 }
466
467 void
468 kranal_terminate_conn_locked (kra_conn_t *conn)
469 {
470         LASSERT (!in_interrupt());
471         LASSERT (conn->rac_state == RANAL_CONN_CLOSING);
472         LASSERT (!list_empty(&conn->rac_hashlist));
473         LASSERT (list_empty(&conn->rac_list));
474
475         /* Remove from conn hash table: no new callbacks */
476         list_del_init(&conn->rac_hashlist);
477         kranal_conn_decref(conn);
478
479         conn->rac_state = RANAL_CONN_CLOSED;
480
481         /* schedule to clear out all uncompleted comms in context of dev's
482          * scheduler */
483         kranal_schedule_conn(conn);
484 }
485
486 void
487 kranal_close_conn_locked (kra_conn_t *conn, int error)
488 {
489         kra_peer_t        *peer = conn->rac_peer;
490
491         CDEBUG(error == 0 ? D_NET : D_ERROR,
492                "closing conn to "LPX64": error %d\n", peer->rap_nid, error);
493
494         LASSERT (!in_interrupt());
495         LASSERT (conn->rac_state == RANAL_CONN_ESTABLISHED);
496         LASSERT (!list_empty(&conn->rac_hashlist));
497         LASSERT (!list_empty(&conn->rac_list));
498
499         list_del_init(&conn->rac_list);
500
501         if (list_empty(&peer->rap_conns) &&
502             peer->rap_persistence == 0) {
503                 /* Non-persistent peer with no more conns... */
504                 kranal_unlink_peer_locked(peer);
505         }
506
507         /* Reset RX timeout to ensure we wait for an incoming CLOSE for the
508          * full timeout.  If we get a CLOSE we know the peer has stopped all
509          * RDMA.  Otherwise if we wait for the full timeout we can also be sure
510          * all RDMA has stopped. */
511         conn->rac_last_rx = jiffies;
512         mb();
513
514         conn->rac_state = RANAL_CONN_CLOSING;
515         kranal_schedule_conn(conn);             /* schedule sending CLOSE */
516
517         kranal_conn_decref(conn);               /* lose peer's ref */
518 }
519
520 void
521 kranal_close_conn (kra_conn_t *conn, int error)
522 {
523         unsigned long    flags;
524
525
526         write_lock_irqsave(&kranal_data.kra_global_lock, flags);
527
528         if (conn->rac_state == RANAL_CONN_ESTABLISHED)
529                 kranal_close_conn_locked(conn, error);
530
531         write_unlock_irqrestore(&kranal_data.kra_global_lock, flags);
532 }
533
534 int
535 kranal_set_conn_params(kra_conn_t *conn, kra_connreq_t *connreq,
536                        __u32 peer_ip, int peer_port)
537 {
538         kra_device_t  *dev = conn->rac_device;
539         unsigned long  flags;
540         RAP_RETURN     rrc;
541
542         /* CAVEAT EMPTOR: we're really overloading rac_last_tx + rac_keepalive
543          * to do RapkCompleteSync() timekeeping (see kibnal_scheduler). */
544         conn->rac_last_tx = jiffies;
545         conn->rac_keepalive = 0;
546
547         rrc = RapkSetRiParams(conn->rac_rihandle, &connreq->racr_riparams);
548         if (rrc != RAP_SUCCESS) {
549                 CERROR("Error setting riparams from %u.%u.%u.%u/%d: %d\n",
550                        HIPQUAD(peer_ip), peer_port, rrc);
551                 return -ECONNABORTED;
552         }
553
554         /* Schedule conn on rad_new_conns */
555         kranal_conn_addref(conn);
556         spin_lock_irqsave(&dev->rad_lock, flags);
557         list_add_tail(&conn->rac_schedlist, &dev->rad_new_conns);
558         wake_up(&dev->rad_waitq);
559         spin_unlock_irqrestore(&dev->rad_lock, flags);
560
561         rrc = RapkWaitToConnect(conn->rac_rihandle);
562         if (rrc != RAP_SUCCESS) {
563                 CERROR("Error waiting to connect to %u.%u.%u.%u/%d: %d\n",
564                        HIPQUAD(peer_ip), peer_port, rrc);
565                 return -ECONNABORTED;
566         }
567
568         /* Scheduler doesn't touch conn apart from to deschedule and decref it
569          * after RapkCompleteSync() return success, so conn is all mine */
570
571         conn->rac_peerstamp = connreq->racr_peerstamp;
572         conn->rac_peer_connstamp = connreq->racr_connstamp;
573         conn->rac_keepalive = RANAL_TIMEOUT2KEEPALIVE(connreq->racr_timeout);
574         kranal_update_reaper_timeout(conn->rac_keepalive);
575         return 0;
576 }
577
578 int
579 kranal_passive_conn_handshake (struct socket *sock, ptl_nid_t *src_nidp,
580                                ptl_nid_t *dst_nidp, kra_conn_t **connp)
581 {
582         struct sockaddr_in   addr;
583         __u32                peer_ip;
584         unsigned int         peer_port;
585         kra_connreq_t        rx_connreq;
586         kra_connreq_t        tx_connreq;
587         kra_conn_t          *conn;
588         kra_device_t        *dev;
589         int                  rc;
590         int                  len;
591         int                  i;
592
593         len = sizeof(addr);
594         rc = sock->ops->getname(sock, (struct sockaddr *)&addr, &len, 2);
595         if (rc != 0) {
596                 CERROR("Can't get peer's IP: %d\n", rc);
597                 return rc;
598         }
599
600         peer_ip = ntohl(addr.sin_addr.s_addr);
601         peer_port = ntohs(addr.sin_port);
602
603         if (peer_port >= 1024) {
604                 CERROR("Refusing unprivileged connection from %u.%u.%u.%u/%d\n",
605                        HIPQUAD(peer_ip), peer_port);
606                 return -ECONNREFUSED;
607         }
608
609         rc = kranal_recv_connreq(sock, &rx_connreq,
610                                  kranal_tunables.kra_listener_timeout);
611         if (rc != 0) {
612                 CERROR("Can't rx connreq from %u.%u.%u.%u/%d: %d\n",
613                        HIPQUAD(peer_ip), peer_port, rc);
614                 return rc;
615         }
616
617         for (i = 0;;i++) {
618                 if (i == kranal_data.kra_ndevs) {
619                         CERROR("Can't match dev %d from %u.%u.%u.%u/%d\n",
620                                rx_connreq.racr_devid, HIPQUAD(peer_ip), peer_port);
621                         return -ENODEV;
622                 }
623                 dev = &kranal_data.kra_devices[i];
624                 if (dev->rad_id == rx_connreq.racr_devid)
625                         break;
626         }
627
628         rc = kranal_create_conn(&conn, dev);
629         if (rc != 0)
630                 return rc;
631
632         kranal_pack_connreq(&tx_connreq, conn, rx_connreq.racr_srcnid);
633
634         rc = kranal_sock_write(sock, &tx_connreq, sizeof(tx_connreq));
635         if (rc != 0) {
636                 CERROR("Can't tx connreq to %u.%u.%u.%u/%d: %d\n",
637                        HIPQUAD(peer_ip), peer_port, rc);
638                 kranal_conn_decref(conn);
639                 return rc;
640         }
641
642         rc = kranal_set_conn_params(conn, &rx_connreq, peer_ip, peer_port);
643         if (rc != 0) {
644                 kranal_conn_decref(conn);
645                 return rc;
646         }
647
648         *connp = conn;
649         *src_nidp = rx_connreq.racr_srcnid;
650         *dst_nidp = rx_connreq.racr_dstnid;
651         return 0;
652 }
653
654 int
655 ranal_connect_sock(kra_peer_t *peer, struct socket **sockp)
656 {
657         struct sockaddr_in  locaddr;
658         struct sockaddr_in  srvaddr;
659         struct socket      *sock;
660         unsigned int        port;
661         int                 rc;
662
663         for (port = 1023; port >= 512; port--) {
664
665                 memset(&locaddr, 0, sizeof(locaddr));
666                 locaddr.sin_family      = AF_INET;
667                 locaddr.sin_port        = htons(port);
668                 locaddr.sin_addr.s_addr = htonl(INADDR_ANY);
669
670                 memset (&srvaddr, 0, sizeof (srvaddr));
671                 srvaddr.sin_family      = AF_INET;
672                 srvaddr.sin_port        = htons (peer->rap_port);
673                 srvaddr.sin_addr.s_addr = htonl (peer->rap_ip);
674
675                 rc = kranal_create_sock(&sock);
676                 if (rc != 0)
677                         return rc;
678
679                 rc = sock->ops->bind(sock,
680                                      (struct sockaddr *)&locaddr, sizeof(locaddr));
681                 if (rc != 0) {
682                         sock_release(sock);
683
684                         if (rc == -EADDRINUSE) {
685                                 CDEBUG(D_NET, "Port %d already in use\n", port);
686                                 continue;
687                         }
688
689                         CERROR("Can't bind to reserved port %d: %d\n", port, rc);
690                         return rc;
691                 }
692
693                 rc = sock->ops->connect(sock,
694                                         (struct sockaddr *)&srvaddr, sizeof(srvaddr),
695                                         0);
696                 if (rc == 0) {
697                         *sockp = sock;
698                         return 0;
699                 }
700
701                 sock_release(sock);
702
703                 if (rc != -EADDRNOTAVAIL) {
704                         CERROR("Can't connect port %d to %u.%u.%u.%u/%d: %d\n",
705                                port, HIPQUAD(peer->rap_ip), peer->rap_port, rc);
706                         return rc;
707                 }
708
709                 CDEBUG(D_NET, "Port %d not available for %u.%u.%u.%u/%d\n",
710                        port, HIPQUAD(peer->rap_ip), peer->rap_port);
711         }
712
713         /* all ports busy */
714         return -EHOSTUNREACH;
715 }
716
717
718 int
719 kranal_active_conn_handshake(kra_peer_t *peer,
720                              ptl_nid_t *dst_nidp, kra_conn_t **connp)
721 {
722         kra_connreq_t       connreq;
723         kra_conn_t         *conn;
724         kra_device_t       *dev;
725         struct socket      *sock;
726         int                 rc;
727         unsigned int        idx;
728
729         /* spread connections over all devices using both peer NIDs to ensure
730          * all nids use all devices */
731         idx = peer->rap_nid + kranal_lib.libnal_ni.ni_pid.nid;
732         dev = &kranal_data.kra_devices[idx % kranal_data.kra_ndevs];
733
734         rc = kranal_create_conn(&conn, dev);
735         if (rc != 0)
736                 return rc;
737
738         kranal_pack_connreq(&connreq, conn, peer->rap_nid);
739
740         rc = ranal_connect_sock(peer, &sock);
741         if (rc != 0)
742                 goto failed_0;
743
744         /* CAVEAT EMPTOR: the passive side receives with a SHORT rx timeout
745          * immediately after accepting a connection, so we connect and then
746          * send immediately. */
747
748         rc = kranal_sock_write(sock, &connreq, sizeof(connreq));
749         if (rc != 0) {
750                 CERROR("Can't tx connreq to %u.%u.%u.%u/%d: %d\n",
751                        HIPQUAD(peer->rap_ip), peer->rap_port, rc);
752                 goto failed_1;
753         }
754
755         rc = kranal_recv_connreq(sock, &connreq, kranal_tunables.kra_timeout);
756         if (rc != 0) {
757                 CERROR("Can't rx connreq from %u.%u.%u.%u/%d: %d\n",
758                        HIPQUAD(peer->rap_ip), peer->rap_port, rc);
759                 goto failed_1;
760         }
761
762         sock_release(sock);
763         rc = -EPROTO;
764
765         if (connreq.racr_srcnid != peer->rap_nid) {
766                 CERROR("Unexpected srcnid from %u.%u.%u.%u/%d: "
767                        "received "LPX64" expected "LPX64"\n",
768                        HIPQUAD(peer->rap_ip), peer->rap_port,
769                        connreq.racr_srcnid, peer->rap_nid);
770                 goto failed_0;
771         }
772
773         if (connreq.racr_devid != dev->rad_id) {
774                 CERROR("Unexpected device id from %u.%u.%u.%u/%d: "
775                        "received %d expected %d\n",
776                        HIPQUAD(peer->rap_ip), peer->rap_port,
777                        connreq.racr_devid, dev->rad_id);
778                 goto failed_0;
779         }
780
781         rc = kranal_set_conn_params(conn, &connreq,
782                                     peer->rap_ip, peer->rap_port);
783         if (rc != 0)
784                 goto failed_0;
785
786         *connp = conn;
787         *dst_nidp = connreq.racr_dstnid;
788         return 0;
789
790  failed_1:
791         sock_release(sock);
792  failed_0:
793         kranal_conn_decref(conn);
794         return rc;
795 }
796
797 int
798 kranal_conn_handshake (struct socket *sock, kra_peer_t *peer)
799 {
800         kra_peer_t        *peer2;
801         kra_tx_t          *tx;
802         ptl_nid_t          peer_nid;
803         ptl_nid_t          dst_nid;
804         unsigned long      flags;
805         kra_conn_t        *conn;
806         int                rc;
807         int                nstale;
808         int                new_peer = 0;
809
810         if (sock == NULL) {
811                 /* active: connd wants to connect to 'peer' */
812                 LASSERT (peer != NULL);
813                 LASSERT (peer->rap_connecting);
814
815                 rc = kranal_active_conn_handshake(peer, &dst_nid, &conn);
816                 if (rc != 0)
817                         return rc;
818
819                 write_lock_irqsave(&kranal_data.kra_global_lock, flags);
820
821                 if (!kranal_peer_active(peer)) {
822                         /* raced with peer getting unlinked */
823                         write_unlock_irqrestore(&kranal_data.kra_global_lock,
824                                                 flags);
825                         kranal_conn_decref(conn);
826                         return -ESTALE;
827                 }
828
829                 peer_nid = peer->rap_nid;
830         } else {
831                 /* passive: listener accepted 'sock' */
832                 LASSERT (peer == NULL);
833
834                 rc = kranal_passive_conn_handshake(sock, &peer_nid,
835                                                    &dst_nid, &conn);
836                 if (rc != 0)
837                         return rc;
838
839                 /* assume this is a new peer */
840                 peer = kranal_create_peer(peer_nid);
841                 if (peer == NULL) {
842                         CERROR("Can't allocate peer for "LPX64"\n", peer_nid);
843                         kranal_conn_decref(conn);
844                         return -ENOMEM;
845                 }
846
847                 write_lock_irqsave(&kranal_data.kra_global_lock, flags);
848
849                 peer2 = kranal_find_peer_locked(peer_nid);
850                 if (peer2 == NULL) {
851                         new_peer = 1;
852                 } else {
853                         /* peer_nid already in the peer table */
854                         kranal_peer_decref(peer);
855                         peer = peer2;
856                 }
857         }
858
859         LASSERT ((!new_peer) != (!kranal_peer_active(peer)));
860
861         /* Refuse connection if peer thinks we are a different NID.  We check
862          * this while holding the global lock, to synch with connection
863          * destruction on NID change. */
864         if (dst_nid != kranal_lib.libnal_ni.ni_pid.nid) {
865                 write_unlock_irqrestore(&kranal_data.kra_global_lock, flags);
866
867                 CERROR("Stale/bad connection with "LPX64
868                        ": dst_nid "LPX64", expected "LPX64"\n",
869                        peer_nid, dst_nid, kranal_lib.libnal_ni.ni_pid.nid);
870                 rc = -ESTALE;
871                 goto failed;
872         }
873
874         /* Refuse to duplicate an existing connection (both sides might try to
875          * connect at once).  NB we return success!  We _are_ connected so we
876          * _don't_ have any blocked txs to complete with failure. */
877         rc = kranal_conn_isdup_locked(peer, conn);
878         if (rc != 0) {
879                 LASSERT (!list_empty(&peer->rap_conns));
880                 LASSERT (list_empty(&peer->rap_tx_queue));
881                 write_unlock_irqrestore(&kranal_data.kra_global_lock, flags);
882                 CWARN("Not creating duplicate connection to "LPX64": %d\n",
883                       peer_nid, rc);
884                 rc = 0;
885                 goto failed;
886         }
887
888         if (new_peer) {
889                 /* peer table takes my ref on the new peer */
890                 list_add_tail(&peer->rap_list,
891                               kranal_nid2peerlist(peer_nid));
892         }
893
894         /* initialise timestamps before reaper looks at them */
895         conn->rac_last_tx = conn->rac_last_rx = jiffies;
896
897         kranal_peer_addref(peer);               /* +1 ref for conn */
898         conn->rac_peer = peer;
899         list_add_tail(&conn->rac_list, &peer->rap_conns);
900
901         kranal_conn_addref(conn);               /* +1 ref for conn table */
902         list_add_tail(&conn->rac_hashlist,
903                       kranal_cqid2connlist(conn->rac_cqid));
904
905         /* Schedule all packets blocking for a connection */
906         while (!list_empty(&peer->rap_tx_queue)) {
907                 tx = list_entry(peer->rap_tx_queue.next,
908                                 kra_tx_t, tx_list);
909
910                 list_del(&tx->tx_list);
911                 kranal_post_fma(conn, tx);
912         }
913
914         nstale = kranal_close_stale_conns_locked(peer, conn);
915
916         write_unlock_irqrestore(&kranal_data.kra_global_lock, flags);
917
918         /* CAVEAT EMPTOR: passive peer can disappear NOW */
919
920         if (nstale != 0)
921                 CWARN("Closed %d stale conns to "LPX64"\n", nstale, peer_nid);
922
923         CWARN("New connection to "LPX64" on devid[%d] = %d\n",
924                peer_nid, conn->rac_device->rad_idx, conn->rac_device->rad_id);
925
926         /* Ensure conn gets checked.  Transmits may have been queued and an
927          * FMA event may have happened before it got in the cq hash table */
928         kranal_schedule_conn(conn);
929         return 0;
930
931  failed:
932         if (new_peer)
933                 kranal_peer_decref(peer);
934         kranal_conn_decref(conn);
935         return rc;
936 }
937
938 void
939 kranal_connect (kra_peer_t *peer)
940 {
941         kra_tx_t          *tx;
942         unsigned long      flags;
943         struct list_head   zombies;
944         int                rc;
945
946         LASSERT (peer->rap_connecting);
947
948         CDEBUG(D_NET, "About to handshake "LPX64"\n", peer->rap_nid);
949
950         rc = kranal_conn_handshake(NULL, peer);
951
952         CDEBUG(D_NET, "Done handshake "LPX64":%d \n", peer->rap_nid, rc);
953
954         write_lock_irqsave(&kranal_data.kra_global_lock, flags);
955
956         LASSERT (peer->rap_connecting);
957         peer->rap_connecting = 0;
958
959         if (rc == 0) {
960                 /* kranal_conn_handshake() queues blocked txs immediately on
961                  * success to avoid messages jumping the queue */
962                 LASSERT (list_empty(&peer->rap_tx_queue));
963
964                 /* reset reconnection timeouts */
965                 peer->rap_reconnect_interval = RANAL_MIN_RECONNECT_INTERVAL;
966                 peer->rap_reconnect_time = CURRENT_SECONDS;
967
968                 write_unlock_irqrestore(&kranal_data.kra_global_lock, flags);
969                 return;
970         }
971
972         LASSERT (peer->rap_reconnect_interval != 0);
973         peer->rap_reconnect_time = CURRENT_SECONDS + peer->rap_reconnect_interval;
974         peer->rap_reconnect_interval = MAX(RANAL_MAX_RECONNECT_INTERVAL,
975                                            1 * peer->rap_reconnect_interval);
976
977         /* Grab all blocked packets while we have the global lock */
978         list_add(&zombies, &peer->rap_tx_queue);
979         list_del_init(&peer->rap_tx_queue);
980
981         write_unlock_irqrestore(&kranal_data.kra_global_lock, flags);
982
983         if (list_empty(&zombies))
984                 return;
985
986         CWARN("Dropping packets for "LPX64": connection failed\n",
987               peer->rap_nid);
988
989         do {
990                 tx = list_entry(zombies.next, kra_tx_t, tx_list);
991
992                 list_del(&tx->tx_list);
993                 kranal_tx_done(tx, -EHOSTUNREACH);
994
995         } while (!list_empty(&zombies));
996 }
997
998 void
999 kranal_free_acceptsock (kra_acceptsock_t *ras)
1000 {
1001         sock_release(ras->ras_sock);
1002         PORTAL_FREE(ras, sizeof(*ras));
1003 }
1004
1005 int
1006 kranal_listener (void *arg)
1007 {
1008         struct sockaddr_in addr;
1009         wait_queue_t       wait;
1010         struct socket     *sock;
1011         kra_acceptsock_t  *ras;
1012         int                port;
1013         char               name[16];
1014         int                rc;
1015         unsigned long      flags;
1016
1017         /* Parent thread holds kra_nid_mutex, and is, or is about to
1018          * block on kra_listener_signal */
1019
1020         port = kranal_tunables.kra_port;
1021         snprintf(name, sizeof(name), "kranal_lstn%03d", port);
1022         kportal_daemonize(name);
1023         kportal_blockallsigs();
1024
1025         init_waitqueue_entry(&wait, current);
1026
1027         rc = kranal_create_sock(&sock);
1028         if (rc != 0)
1029                 goto out_0;
1030
1031         memset(&addr, 0, sizeof(addr));
1032         addr.sin_family      = AF_INET;
1033         addr.sin_port        = htons(port);
1034         addr.sin_addr.s_addr = INADDR_ANY;
1035
1036         rc = sock->ops->bind(sock, (struct sockaddr *)&addr, sizeof(addr));
1037         if (rc != 0) {
1038                 CERROR("Can't bind to port %d\n", port);
1039                 goto out_1;
1040         }
1041
1042         rc = sock->ops->listen(sock, kranal_tunables.kra_backlog);
1043         if (rc != 0) {
1044                 CERROR("Can't set listen backlog %d: %d\n",
1045                        kranal_tunables.kra_backlog, rc);
1046                 goto out_1;
1047         }
1048
1049         LASSERT (kranal_data.kra_listener_sock == NULL);
1050         kranal_data.kra_listener_sock = sock;
1051
1052         /* unblock waiting parent */
1053         LASSERT (kranal_data.kra_listener_shutdown == 0);
1054         up(&kranal_data.kra_listener_signal);
1055
1056         /* Wake me any time something happens on my socket */
1057         add_wait_queue(sock->sk->sk_sleep, &wait);
1058         ras = NULL;
1059
1060         while (kranal_data.kra_listener_shutdown == 0) {
1061
1062                 if (ras == NULL) {
1063                         PORTAL_ALLOC(ras, sizeof(*ras));
1064                         if (ras == NULL) {
1065                                 CERROR("Out of Memory: pausing...\n");
1066                                 kranal_pause(HZ);
1067                                 continue;
1068                         }
1069                         ras->ras_sock = NULL;
1070                 }
1071
1072                 if (ras->ras_sock == NULL) {
1073                         ras->ras_sock = sock_alloc();
1074                         if (ras->ras_sock == NULL) {
1075                                 CERROR("Can't allocate socket: pausing...\n");
1076                                 kranal_pause(HZ);
1077                                 continue;
1078                         }
1079                         /* XXX this should add a ref to sock->ops->owner, if
1080                          * TCP could be a module */
1081                         ras->ras_sock->type = sock->type;
1082                         ras->ras_sock->ops = sock->ops;
1083                 }
1084
1085                 set_current_state(TASK_INTERRUPTIBLE);
1086
1087                 rc = sock->ops->accept(sock, ras->ras_sock, O_NONBLOCK);
1088
1089                 /* Sleep for socket activity? */
1090                 if (rc == -EAGAIN &&
1091                     kranal_data.kra_listener_shutdown == 0)
1092                         schedule();
1093
1094                 set_current_state(TASK_RUNNING);
1095
1096                 if (rc == 0) {
1097                         spin_lock_irqsave(&kranal_data.kra_connd_lock, flags);
1098
1099                         list_add_tail(&ras->ras_list,
1100                                       &kranal_data.kra_connd_acceptq);
1101
1102                         spin_unlock_irqrestore(&kranal_data.kra_connd_lock, flags);
1103                         wake_up(&kranal_data.kra_connd_waitq);
1104
1105                         ras = NULL;
1106                         continue;
1107                 }
1108
1109                 if (rc != -EAGAIN) {
1110                         CERROR("Accept failed: %d, pausing...\n", rc);
1111                         kranal_pause(HZ);
1112                 }
1113         }
1114
1115         if (ras != NULL) {
1116                 if (ras->ras_sock != NULL)
1117                         sock_release(ras->ras_sock);
1118                 PORTAL_FREE(ras, sizeof(*ras));
1119         }
1120
1121         rc = 0;
1122         remove_wait_queue(sock->sk->sk_sleep, &wait);
1123  out_1:
1124         sock_release(sock);
1125         kranal_data.kra_listener_sock = NULL;
1126  out_0:
1127         /* set completion status and unblock thread waiting for me
1128          * (parent on startup failure, executioner on normal shutdown) */
1129         kranal_data.kra_listener_shutdown = rc;
1130         up(&kranal_data.kra_listener_signal);
1131
1132         return 0;
1133 }
1134
1135 int
1136 kranal_start_listener (void)
1137 {
1138         long           pid;
1139         int            rc;
1140
1141         CDEBUG(D_NET, "Starting listener\n");
1142
1143         /* Called holding kra_nid_mutex: listener stopped */
1144         LASSERT (kranal_data.kra_listener_sock == NULL);
1145
1146         kranal_data.kra_listener_shutdown = 0;
1147         pid = kernel_thread(kranal_listener, NULL, 0);
1148         if (pid < 0) {
1149                 CERROR("Can't spawn listener: %ld\n", pid);
1150                 return (int)pid;
1151         }
1152
1153         /* Block until listener has started up. */
1154         down(&kranal_data.kra_listener_signal);
1155
1156         rc = kranal_data.kra_listener_shutdown;
1157         LASSERT ((rc != 0) == (kranal_data.kra_listener_sock == NULL));
1158
1159         CDEBUG(D_NET, "Listener %ld started OK\n", pid);
1160         return rc;
1161 }
1162
1163 void
1164 kranal_stop_listener(int clear_acceptq)
1165 {
1166         struct list_head  zombie_accepts;
1167         unsigned long     flags;
1168         kra_acceptsock_t *ras;
1169
1170         CDEBUG(D_NET, "Stopping listener\n");
1171
1172         /* Called holding kra_nid_mutex: listener running */
1173         LASSERT (kranal_data.kra_listener_sock != NULL);
1174
1175         kranal_data.kra_listener_shutdown = 1;
1176         wake_up_all(kranal_data.kra_listener_sock->sk->sk_sleep);
1177
1178         /* Block until listener has torn down. */
1179         down(&kranal_data.kra_listener_signal);
1180
1181         LASSERT (kranal_data.kra_listener_sock == NULL);
1182         CDEBUG(D_NET, "Listener stopped\n");
1183
1184         if (!clear_acceptq)
1185                 return;
1186
1187         /* Close any unhandled accepts */
1188         spin_lock_irqsave(&kranal_data.kra_connd_lock, flags);
1189
1190         list_add(&zombie_accepts, &kranal_data.kra_connd_acceptq);
1191         list_del_init(&kranal_data.kra_connd_acceptq);
1192
1193         spin_unlock_irqrestore(&kranal_data.kra_connd_lock, flags);
1194
1195         while (!list_empty(&zombie_accepts)) {
1196                 ras = list_entry(zombie_accepts.next,
1197                                  kra_acceptsock_t, ras_list);
1198                 list_del(&ras->ras_list);
1199                 kranal_free_acceptsock(ras);
1200         }
1201 }
1202
1203 #if LINUX_VERSION_CODE < KERNEL_VERSION(2,6,8)
1204 int
1205 kranal_listener_procint(ctl_table *table, int write, struct file *filp,
1206                         void *buffer, size_t *lenp)
1207 #else
1208 int
1209 kranal_listener_procint(ctl_table *table, int write, struct file *filp,
1210                         void *buffer, size_t *lenp, loff_t *ppos)
1211 #endif
1212 {
1213         int   *tunable = (int *)table->data;
1214         int    old_val;
1215         int    rc;
1216
1217         /* No race with nal initialisation since the nal is setup all the time
1218          * it's loaded.  When that changes, change this! */
1219         LASSERT (kranal_data.kra_init == RANAL_INIT_ALL);
1220
1221         down(&kranal_data.kra_nid_mutex);
1222
1223         LASSERT (tunable == &kranal_tunables.kra_port ||
1224                  tunable == &kranal_tunables.kra_backlog);
1225         old_val = *tunable;
1226
1227 #if LINUX_VERSION_CODE < KERNEL_VERSION(2,6,8)
1228         rc = proc_dointvec(table, write, filp, buffer, lenp);
1229 #else
1230         rc = proc_dointvec(table, write, filp, buffer, lenp, ppos);
1231 #endif
1232
1233         if (write &&
1234             (*tunable != old_val ||
1235              kranal_data.kra_listener_sock == NULL)) {
1236
1237                 if (kranal_data.kra_listener_sock != NULL)
1238                         kranal_stop_listener(0);
1239
1240                 rc = kranal_start_listener();
1241
1242                 if (rc != 0) {
1243                         CWARN("Unable to start listener with new tunable:"
1244                               " reverting to old value\n");
1245                         *tunable = old_val;
1246                         kranal_start_listener();
1247                 }
1248         }
1249
1250         up(&kranal_data.kra_nid_mutex);
1251
1252         LASSERT (kranal_data.kra_init == RANAL_INIT_ALL);
1253         return rc;
1254 }
1255
1256 int
1257 kranal_set_mynid(ptl_nid_t nid)
1258 {
1259         unsigned long    flags;
1260         lib_ni_t        *ni = &kranal_lib.libnal_ni;
1261         int              rc = 0;
1262
1263         CDEBUG(D_NET, "setting mynid to "LPX64" (old nid="LPX64")\n",
1264                nid, ni->ni_pid.nid);
1265
1266         down(&kranal_data.kra_nid_mutex);
1267
1268         if (nid == ni->ni_pid.nid) {
1269                 /* no change of NID */
1270                 up(&kranal_data.kra_nid_mutex);
1271                 return 0;
1272         }
1273
1274         if (kranal_data.kra_listener_sock != NULL)
1275                 kranal_stop_listener(1);
1276
1277         write_lock_irqsave(&kranal_data.kra_global_lock, flags);
1278         kranal_data.kra_peerstamp++;
1279         ni->ni_pid.nid = nid;
1280         write_unlock_irqrestore(&kranal_data.kra_global_lock, flags);
1281
1282         /* Delete all existing peers and their connections after new
1283          * NID/connstamp set to ensure no old connections in our brave
1284          * new world. */
1285         kranal_del_peer(PTL_NID_ANY, 0);
1286
1287         if (nid != PTL_NID_ANY)
1288                 rc = kranal_start_listener();
1289
1290         up(&kranal_data.kra_nid_mutex);
1291         return rc;
1292 }
1293
1294 kra_peer_t *
1295 kranal_create_peer (ptl_nid_t nid)
1296 {
1297         kra_peer_t *peer;
1298
1299         LASSERT (nid != PTL_NID_ANY);
1300
1301         PORTAL_ALLOC(peer, sizeof(*peer));
1302         if (peer == NULL)
1303                 return NULL;
1304
1305         memset(peer, 0, sizeof(*peer));         /* zero flags etc */
1306
1307         peer->rap_nid = nid;
1308         atomic_set(&peer->rap_refcount, 1);     /* 1 ref for caller */
1309
1310         INIT_LIST_HEAD(&peer->rap_list);
1311         INIT_LIST_HEAD(&peer->rap_connd_list);
1312         INIT_LIST_HEAD(&peer->rap_conns);
1313         INIT_LIST_HEAD(&peer->rap_tx_queue);
1314
1315         peer->rap_reconnect_time = CURRENT_SECONDS;
1316         peer->rap_reconnect_interval = RANAL_MIN_RECONNECT_INTERVAL;
1317
1318         atomic_inc(&kranal_data.kra_npeers);
1319         return peer;
1320 }
1321
1322 void
1323 kranal_destroy_peer (kra_peer_t *peer)
1324 {
1325         CDEBUG(D_NET, "peer "LPX64" %p deleted\n", peer->rap_nid, peer);
1326
1327         LASSERT (atomic_read(&peer->rap_refcount) == 0);
1328         LASSERT (peer->rap_persistence == 0);
1329         LASSERT (!kranal_peer_active(peer));
1330         LASSERT (!peer->rap_connecting);
1331         LASSERT (list_empty(&peer->rap_conns));
1332         LASSERT (list_empty(&peer->rap_tx_queue));
1333         LASSERT (list_empty(&peer->rap_connd_list));
1334
1335         PORTAL_FREE(peer, sizeof(*peer));
1336
1337         /* NB a peer's connections keep a reference on their peer until
1338          * they are destroyed, so we can be assured that _all_ state to do
1339          * with this peer has been cleaned up when its refcount drops to
1340          * zero. */
1341         atomic_dec(&kranal_data.kra_npeers);
1342 }
1343
1344 kra_peer_t *
1345 kranal_find_peer_locked (ptl_nid_t nid)
1346 {
1347         struct list_head *peer_list = kranal_nid2peerlist(nid);
1348         struct list_head *tmp;
1349         kra_peer_t       *peer;
1350
1351         list_for_each (tmp, peer_list) {
1352
1353                 peer = list_entry(tmp, kra_peer_t, rap_list);
1354
1355                 LASSERT (peer->rap_persistence > 0 ||     /* persistent peer */
1356                          !list_empty(&peer->rap_conns));  /* active conn */
1357
1358                 if (peer->rap_nid != nid)
1359                         continue;
1360
1361                 CDEBUG(D_NET, "got peer [%p] -> "LPX64" (%d)\n",
1362                        peer, nid, atomic_read(&peer->rap_refcount));
1363                 return peer;
1364         }
1365         return NULL;
1366 }
1367
1368 kra_peer_t *
1369 kranal_find_peer (ptl_nid_t nid)
1370 {
1371         kra_peer_t     *peer;
1372
1373         read_lock(&kranal_data.kra_global_lock);
1374         peer = kranal_find_peer_locked(nid);
1375         if (peer != NULL)                       /* +1 ref for caller? */
1376                 kranal_peer_addref(peer);
1377         read_unlock(&kranal_data.kra_global_lock);
1378
1379         return peer;
1380 }
1381
1382 void
1383 kranal_unlink_peer_locked (kra_peer_t *peer)
1384 {
1385         LASSERT (peer->rap_persistence == 0);
1386         LASSERT (list_empty(&peer->rap_conns));
1387
1388         LASSERT (kranal_peer_active(peer));
1389         list_del_init(&peer->rap_list);
1390
1391         /* lose peerlist's ref */
1392         kranal_peer_decref(peer);
1393 }
1394
1395 int
1396 kranal_get_peer_info (int index, ptl_nid_t *nidp, __u32 *ipp, int *portp,
1397                       int *persistencep)
1398 {
1399         kra_peer_t        *peer;
1400         struct list_head  *ptmp;
1401         int                i;
1402
1403         read_lock(&kranal_data.kra_global_lock);
1404
1405         for (i = 0; i < kranal_data.kra_peer_hash_size; i++) {
1406
1407                 list_for_each(ptmp, &kranal_data.kra_peers[i]) {
1408
1409                         peer = list_entry(ptmp, kra_peer_t, rap_list);
1410                         LASSERT (peer->rap_persistence > 0 ||
1411                                  !list_empty(&peer->rap_conns));
1412
1413                         if (index-- > 0)
1414                                 continue;
1415
1416                         *nidp = peer->rap_nid;
1417                         *ipp = peer->rap_ip;
1418                         *portp = peer->rap_port;
1419                         *persistencep = peer->rap_persistence;
1420
1421                         read_unlock(&kranal_data.kra_global_lock);
1422                         return 0;
1423                 }
1424         }
1425
1426         read_unlock(&kranal_data.kra_global_lock);
1427         return -ENOENT;
1428 }
1429
1430 int
1431 kranal_add_persistent_peer (ptl_nid_t nid, __u32 ip, int port)
1432 {
1433         unsigned long      flags;
1434         kra_peer_t        *peer;
1435         kra_peer_t        *peer2;
1436
1437         if (nid == PTL_NID_ANY)
1438                 return -EINVAL;
1439
1440         peer = kranal_create_peer(nid);
1441         if (peer == NULL)
1442                 return -ENOMEM;
1443
1444         write_lock_irqsave(&kranal_data.kra_global_lock, flags);
1445
1446         peer2 = kranal_find_peer_locked(nid);
1447         if (peer2 != NULL) {
1448                 kranal_peer_decref(peer);
1449                 peer = peer2;
1450         } else {
1451                 /* peer table takes existing ref on peer */
1452                 list_add_tail(&peer->rap_list,
1453                               kranal_nid2peerlist(nid));
1454         }
1455
1456         peer->rap_ip = ip;
1457         peer->rap_port = port;
1458         peer->rap_persistence++;
1459
1460         write_unlock_irqrestore(&kranal_data.kra_global_lock, flags);
1461         return 0;
1462 }
1463
1464 void
1465 kranal_del_peer_locked (kra_peer_t *peer, int single_share)
1466 {
1467         struct list_head *ctmp;
1468         struct list_head *cnxt;
1469         kra_conn_t       *conn;
1470
1471         if (!single_share)
1472                 peer->rap_persistence = 0;
1473         else if (peer->rap_persistence > 0)
1474                 peer->rap_persistence--;
1475
1476         if (peer->rap_persistence != 0)
1477                 return;
1478
1479         if (list_empty(&peer->rap_conns)) {
1480                 kranal_unlink_peer_locked(peer);
1481         } else {
1482                 list_for_each_safe(ctmp, cnxt, &peer->rap_conns) {
1483                         conn = list_entry(ctmp, kra_conn_t, rac_list);
1484
1485                         kranal_close_conn_locked(conn, 0);
1486                 }
1487                 /* peer unlinks itself when last conn is closed */
1488         }
1489 }
1490
1491 int
1492 kranal_del_peer (ptl_nid_t nid, int single_share)
1493 {
1494         unsigned long      flags;
1495         struct list_head  *ptmp;
1496         struct list_head  *pnxt;
1497         kra_peer_t        *peer;
1498         int                lo;
1499         int                hi;
1500         int                i;
1501         int                rc = -ENOENT;
1502
1503         write_lock_irqsave(&kranal_data.kra_global_lock, flags);
1504
1505         if (nid != PTL_NID_ANY)
1506                 lo = hi = kranal_nid2peerlist(nid) - kranal_data.kra_peers;
1507         else {
1508                 lo = 0;
1509                 hi = kranal_data.kra_peer_hash_size - 1;
1510         }
1511
1512         for (i = lo; i <= hi; i++) {
1513                 list_for_each_safe (ptmp, pnxt, &kranal_data.kra_peers[i]) {
1514                         peer = list_entry(ptmp, kra_peer_t, rap_list);
1515                         LASSERT (peer->rap_persistence > 0 ||
1516                                  !list_empty(&peer->rap_conns));
1517
1518                         if (!(nid == PTL_NID_ANY || peer->rap_nid == nid))
1519                                 continue;
1520
1521                         kranal_del_peer_locked(peer, single_share);
1522                         rc = 0;         /* matched something */
1523
1524                         if (single_share)
1525                                 goto out;
1526                 }
1527         }
1528  out:
1529         write_unlock_irqrestore(&kranal_data.kra_global_lock, flags);
1530
1531         return rc;
1532 }
1533
1534 kra_conn_t *
1535 kranal_get_conn_by_idx (int index)
1536 {
1537         kra_peer_t        *peer;
1538         struct list_head  *ptmp;
1539         kra_conn_t        *conn;
1540         struct list_head  *ctmp;
1541         int                i;
1542
1543         read_lock (&kranal_data.kra_global_lock);
1544
1545         for (i = 0; i < kranal_data.kra_peer_hash_size; i++) {
1546                 list_for_each (ptmp, &kranal_data.kra_peers[i]) {
1547
1548                         peer = list_entry(ptmp, kra_peer_t, rap_list);
1549                         LASSERT (peer->rap_persistence > 0 ||
1550                                  !list_empty(&peer->rap_conns));
1551
1552                         list_for_each (ctmp, &peer->rap_conns) {
1553                                 if (index-- > 0)
1554                                         continue;
1555
1556                                 conn = list_entry(ctmp, kra_conn_t, rac_list);
1557                                 CDEBUG(D_NET, "++conn[%p] -> "LPX64" (%d)\n",
1558                                        conn, conn->rac_peer->rap_nid,
1559                                        atomic_read(&conn->rac_refcount));
1560                                 atomic_inc(&conn->rac_refcount);
1561                                 read_unlock(&kranal_data.kra_global_lock);
1562                                 return conn;
1563                         }
1564                 }
1565         }
1566
1567         read_unlock(&kranal_data.kra_global_lock);
1568         return NULL;
1569 }
1570
1571 int
1572 kranal_close_peer_conns_locked (kra_peer_t *peer, int why)
1573 {
1574         kra_conn_t         *conn;
1575         struct list_head   *ctmp;
1576         struct list_head   *cnxt;
1577         int                 count = 0;
1578
1579         list_for_each_safe (ctmp, cnxt, &peer->rap_conns) {
1580                 conn = list_entry(ctmp, kra_conn_t, rac_list);
1581
1582                 count++;
1583                 kranal_close_conn_locked(conn, why);
1584         }
1585
1586         return count;
1587 }
1588
1589 int
1590 kranal_close_matching_conns (ptl_nid_t nid)
1591 {
1592         unsigned long       flags;
1593         kra_peer_t         *peer;
1594         struct list_head   *ptmp;
1595         struct list_head   *pnxt;
1596         int                 lo;
1597         int                 hi;
1598         int                 i;
1599         int                 count = 0;
1600
1601         write_lock_irqsave(&kranal_data.kra_global_lock, flags);
1602
1603         if (nid != PTL_NID_ANY)
1604                 lo = hi = kranal_nid2peerlist(nid) - kranal_data.kra_peers;
1605         else {
1606                 lo = 0;
1607                 hi = kranal_data.kra_peer_hash_size - 1;
1608         }
1609
1610         for (i = lo; i <= hi; i++) {
1611                 list_for_each_safe (ptmp, pnxt, &kranal_data.kra_peers[i]) {
1612
1613                         peer = list_entry(ptmp, kra_peer_t, rap_list);
1614                         LASSERT (peer->rap_persistence > 0 ||
1615                                  !list_empty(&peer->rap_conns));
1616
1617                         if (!(nid == PTL_NID_ANY || nid == peer->rap_nid))
1618                                 continue;
1619
1620                         count += kranal_close_peer_conns_locked(peer, 0);
1621                 }
1622         }
1623
1624         write_unlock_irqrestore(&kranal_data.kra_global_lock, flags);
1625
1626         /* wildcards always succeed */
1627         if (nid == PTL_NID_ANY)
1628                 return 0;
1629
1630         return (count == 0) ? -ENOENT : 0;
1631 }
1632
1633 int
1634 kranal_cmd(struct portals_cfg *pcfg, void * private)
1635 {
1636         int rc = -EINVAL;
1637
1638         LASSERT (pcfg != NULL);
1639
1640         switch(pcfg->pcfg_command) {
1641         case NAL_CMD_GET_PEER: {
1642                 ptl_nid_t   nid = 0;
1643                 __u32       ip = 0;
1644                 int         port = 0;
1645                 int         share_count = 0;
1646
1647                 rc = kranal_get_peer_info(pcfg->pcfg_count,
1648                                           &nid, &ip, &port, &share_count);
1649                 pcfg->pcfg_nid   = nid;
1650                 pcfg->pcfg_size  = 0;
1651                 pcfg->pcfg_id    = ip;
1652                 pcfg->pcfg_misc  = port;
1653                 pcfg->pcfg_count = 0;
1654                 pcfg->pcfg_wait  = share_count;
1655                 break;
1656         }
1657         case NAL_CMD_ADD_PEER: {
1658                 rc = kranal_add_persistent_peer(pcfg->pcfg_nid,
1659                                                 pcfg->pcfg_id, /* IP */
1660                                                 pcfg->pcfg_misc); /* port */
1661                 break;
1662         }
1663         case NAL_CMD_DEL_PEER: {
1664                 rc = kranal_del_peer(pcfg->pcfg_nid,
1665                                      /* flags == single_share */
1666                                      pcfg->pcfg_flags != 0);
1667                 break;
1668         }
1669         case NAL_CMD_GET_CONN: {
1670                 kra_conn_t *conn = kranal_get_conn_by_idx(pcfg->pcfg_count);
1671
1672                 if (conn == NULL)
1673                         rc = -ENOENT;
1674                 else {
1675                         rc = 0;
1676                         pcfg->pcfg_nid   = conn->rac_peer->rap_nid;
1677                         pcfg->pcfg_id    = conn->rac_device->rad_id;
1678                         pcfg->pcfg_misc  = 0;
1679                         pcfg->pcfg_flags = 0;
1680                         kranal_conn_decref(conn);
1681                 }
1682                 break;
1683         }
1684         case NAL_CMD_CLOSE_CONNECTION: {
1685                 rc = kranal_close_matching_conns(pcfg->pcfg_nid);
1686                 break;
1687         }
1688         case NAL_CMD_REGISTER_MYNID: {
1689                 if (pcfg->pcfg_nid == PTL_NID_ANY)
1690                         rc = -EINVAL;
1691                 else
1692                         rc = kranal_set_mynid(pcfg->pcfg_nid);
1693                 break;
1694         }
1695         }
1696
1697         return rc;
1698 }
1699
1700 void
1701 kranal_free_txdescs(struct list_head *freelist)
1702 {
1703         kra_tx_t    *tx;
1704
1705         while (!list_empty(freelist)) {
1706                 tx = list_entry(freelist->next, kra_tx_t, tx_list);
1707
1708                 list_del(&tx->tx_list);
1709                 PORTAL_FREE(tx->tx_phys, PTL_MD_MAX_IOV * sizeof(*tx->tx_phys));
1710                 PORTAL_FREE(tx, sizeof(*tx));
1711         }
1712 }
1713
1714 int
1715 kranal_alloc_txdescs(struct list_head *freelist, int n)
1716 {
1717         int            isnblk = (freelist == &kranal_data.kra_idle_nblk_txs);
1718         int            i;
1719         kra_tx_t      *tx;
1720
1721         LASSERT (freelist == &kranal_data.kra_idle_txs ||
1722                  freelist == &kranal_data.kra_idle_nblk_txs);
1723         LASSERT (list_empty(freelist));
1724
1725         for (i = 0; i < n; i++) {
1726
1727                 PORTAL_ALLOC(tx, sizeof(*tx));
1728                 if (tx == NULL) {
1729                         CERROR("Can't allocate %stx[%d]\n",
1730                                isnblk ? "nblk " : "", i);
1731                         kranal_free_txdescs(freelist);
1732                         return -ENOMEM;
1733                 }
1734
1735                 PORTAL_ALLOC(tx->tx_phys,
1736                              PTL_MD_MAX_IOV * sizeof(*tx->tx_phys));
1737                 if (tx->tx_phys == NULL) {
1738                         CERROR("Can't allocate %stx[%d]->tx_phys\n",
1739                                isnblk ? "nblk " : "", i);
1740
1741                         PORTAL_FREE(tx, sizeof(*tx));
1742                         kranal_free_txdescs(freelist);
1743                         return -ENOMEM;
1744                 }
1745
1746                 tx->tx_isnblk = isnblk;
1747                 tx->tx_buftype = RANAL_BUF_NONE;
1748                 tx->tx_msg.ram_type = RANAL_MSG_NONE;
1749
1750                 list_add(&tx->tx_list, freelist);
1751         }
1752
1753         return 0;
1754 }
1755
1756 int
1757 kranal_device_init(int id, kra_device_t *dev)
1758 {
1759         const int         total_ntx = RANAL_NTX + RANAL_NTX_NBLK;
1760         RAP_RETURN        rrc;
1761
1762         dev->rad_id = id;
1763         rrc = RapkGetDeviceByIndex(id, kranal_device_callback,
1764                                    &dev->rad_handle);
1765         if (rrc != RAP_SUCCESS) {
1766                 CERROR("Can't get Rapidarray Device %d: %d\n", id, rrc);
1767                 goto failed_0;
1768         }
1769
1770         rrc = RapkReserveRdma(dev->rad_handle, total_ntx);
1771         if (rrc != RAP_SUCCESS) {
1772                 CERROR("Can't reserve %d RDMA descriptors"
1773                        " for device %d: %d\n", total_ntx, id, rrc);
1774                 goto failed_1;
1775         }
1776
1777         rrc = RapkCreateCQ(dev->rad_handle, total_ntx, RAP_CQTYPE_SEND,
1778                            &dev->rad_rdma_cqh);
1779         if (rrc != RAP_SUCCESS) {
1780                 CERROR("Can't create rdma cq size %d"
1781                        " for device %d: %d\n", total_ntx, id, rrc);
1782                 goto failed_1;
1783         }
1784
1785         rrc = RapkCreateCQ(dev->rad_handle, RANAL_FMA_CQ_SIZE, RAP_CQTYPE_RECV,
1786                            &dev->rad_fma_cqh);
1787         if (rrc != RAP_SUCCESS) {
1788                 CERROR("Can't create fma cq size %d"
1789                        " for device %d: %d\n", RANAL_FMA_CQ_SIZE, id, rrc);
1790                 goto failed_2;
1791         }
1792
1793         return 0;
1794
1795  failed_2:
1796         RapkDestroyCQ(dev->rad_handle, dev->rad_rdma_cqh);
1797  failed_1:
1798         RapkReleaseDevice(dev->rad_handle);
1799  failed_0:
1800         return -ENODEV;
1801 }
1802
1803 void
1804 kranal_device_fini(kra_device_t *dev)
1805 {
1806         LASSERT(dev->rad_scheduler == NULL);
1807         RapkDestroyCQ(dev->rad_handle, dev->rad_fma_cqh);
1808         RapkDestroyCQ(dev->rad_handle, dev->rad_rdma_cqh);
1809         RapkReleaseDevice(dev->rad_handle);
1810 }
1811
1812 void
1813 kranal_api_shutdown (nal_t *nal)
1814 {
1815         int           i;
1816         unsigned long flags;
1817
1818         if (nal->nal_refct != 0) {
1819                 /* This module got the first ref */
1820                 PORTAL_MODULE_UNUSE;
1821                 return;
1822         }
1823
1824         CDEBUG(D_MALLOC, "before NAL cleanup: kmem %d\n",
1825                atomic_read(&portal_kmemory));
1826
1827         LASSERT (nal == &kranal_api);
1828
1829         switch (kranal_data.kra_init) {
1830         default:
1831                 CERROR("Unexpected state %d\n", kranal_data.kra_init);
1832                 LBUG();
1833
1834         case RANAL_INIT_ALL:
1835                 /* stop calls to nal_cmd */
1836                 libcfs_nal_cmd_unregister(RANAL);
1837                 /* No new persistent peers */
1838
1839                 /* resetting my NID to unadvertises me, removes my
1840                  * listener and nukes all current peers */
1841                 kranal_set_mynid(PTL_NID_ANY);
1842                 /* no new peers or conns */
1843
1844                 /* Wait for all peer/conn state to clean up */
1845                 i = 2;
1846                 while (atomic_read(&kranal_data.kra_nconns) != 0 ||
1847                        atomic_read(&kranal_data.kra_npeers) != 0) {
1848                         i++;
1849                         CDEBUG(((i & (-i)) == i) ? D_WARNING : D_NET, /* power of 2? */
1850                                "waiting for %d peers and %d conns to close down\n",
1851                                atomic_read(&kranal_data.kra_npeers),
1852                                atomic_read(&kranal_data.kra_nconns));
1853                         kranal_pause(HZ);
1854                 }
1855                 /* fall through */
1856
1857         case RANAL_INIT_LIB:
1858                 lib_fini(&kranal_lib);
1859                 /* fall through */
1860
1861         case RANAL_INIT_DATA:
1862                 break;
1863         }
1864
1865         /* Conn/Peer state all cleaned up BEFORE setting shutdown, so threads
1866          * don't have to worry about shutdown races */
1867         LASSERT (atomic_read(&kranal_data.kra_nconns) == 0);
1868         LASSERT (atomic_read(&kranal_data.kra_npeers) == 0);
1869         
1870         /* flag threads to terminate; wake and wait for them to die */
1871         kranal_data.kra_shutdown = 1;
1872
1873         for (i = 0; i < kranal_data.kra_ndevs; i++) {
1874                 kra_device_t *dev = &kranal_data.kra_devices[i];
1875
1876                 LASSERT (list_empty(&dev->rad_ready_conns));
1877                 LASSERT (list_empty(&dev->rad_new_conns));
1878                 LASSERT (dev->rad_nphysmap == 0);
1879                 LASSERT (dev->rad_nppphysmap == 0);
1880                 LASSERT (dev->rad_nvirtmap == 0);
1881                 LASSERT (dev->rad_nobvirtmap == 0);
1882                 
1883                 spin_lock_irqsave(&dev->rad_lock, flags);
1884                 wake_up(&dev->rad_waitq);
1885                 spin_unlock_irqrestore(&dev->rad_lock, flags);
1886         }
1887
1888         spin_lock_irqsave(&kranal_data.kra_reaper_lock, flags);
1889         wake_up_all(&kranal_data.kra_reaper_waitq);
1890         spin_unlock_irqrestore(&kranal_data.kra_reaper_lock, flags);
1891
1892         LASSERT (list_empty(&kranal_data.kra_connd_peers));
1893         spin_lock_irqsave(&kranal_data.kra_connd_lock, flags);
1894         wake_up_all(&kranal_data.kra_connd_waitq);
1895         spin_unlock_irqrestore(&kranal_data.kra_connd_lock, flags);
1896
1897         i = 2;
1898         while (atomic_read(&kranal_data.kra_nthreads) != 0) {
1899                 i++;
1900                 CDEBUG(((i & (-i)) == i) ? D_WARNING : D_NET, /* power of 2? */
1901                        "Waiting for %d threads to terminate\n",
1902                        atomic_read(&kranal_data.kra_nthreads));
1903                 kranal_pause(HZ);
1904         }
1905
1906         LASSERT (atomic_read(&kranal_data.kra_npeers) == 0);
1907         if (kranal_data.kra_peers != NULL) {
1908                 for (i = 0; i < kranal_data.kra_peer_hash_size; i++)
1909                         LASSERT (list_empty(&kranal_data.kra_peers[i]));
1910
1911                 PORTAL_FREE(kranal_data.kra_peers,
1912                             sizeof (struct list_head) *
1913                             kranal_data.kra_peer_hash_size);
1914         }
1915
1916         LASSERT (atomic_read(&kranal_data.kra_nconns) == 0);
1917         if (kranal_data.kra_conns != NULL) {
1918                 for (i = 0; i < kranal_data.kra_conn_hash_size; i++)
1919                         LASSERT (list_empty(&kranal_data.kra_conns[i]));
1920
1921                 PORTAL_FREE(kranal_data.kra_conns,
1922                             sizeof (struct list_head) *
1923                             kranal_data.kra_conn_hash_size);
1924         }
1925
1926         for (i = 0; i < kranal_data.kra_ndevs; i++)
1927                 kranal_device_fini(&kranal_data.kra_devices[i]);
1928
1929         kranal_free_txdescs(&kranal_data.kra_idle_txs);
1930         kranal_free_txdescs(&kranal_data.kra_idle_nblk_txs);
1931
1932         CDEBUG(D_MALLOC, "after NAL cleanup: kmem %d\n",
1933                atomic_read(&portal_kmemory));
1934         printk(KERN_INFO "Lustre: RapidArray NAL unloaded (final mem %d)\n",
1935                atomic_read(&portal_kmemory));
1936
1937         kranal_data.kra_init = RANAL_INIT_NOTHING;
1938 }
1939
1940 int
1941 kranal_api_startup (nal_t *nal, ptl_pid_t requested_pid,
1942                     ptl_ni_limits_t *requested_limits,
1943                     ptl_ni_limits_t *actual_limits)
1944 {
1945         struct timeval    tv;
1946         ptl_process_id_t  process_id;
1947         int               pkmem = atomic_read(&portal_kmemory);
1948         int               rc;
1949         int               i;
1950         kra_device_t     *dev;
1951
1952         LASSERT (nal == &kranal_api);
1953
1954         if (nal->nal_refct != 0) {
1955                 if (actual_limits != NULL)
1956                         *actual_limits = kranal_lib.libnal_ni.ni_actual_limits;
1957                 /* This module got the first ref */
1958                 PORTAL_MODULE_USE;
1959                 return PTL_OK;
1960         }
1961
1962         LASSERT (kranal_data.kra_init == RANAL_INIT_NOTHING);
1963
1964         memset(&kranal_data, 0, sizeof(kranal_data)); /* zero pointers, flags etc */
1965
1966         /* CAVEAT EMPTOR: Every 'Fma' message includes the sender's NID and
1967          * a unique (for all time) connstamp so we can uniquely identify
1968          * the sender.  The connstamp is an incrementing counter
1969          * initialised with seconds + microseconds at startup time.  So we
1970          * rely on NOT creating connections more frequently on average than
1971          * 1MHz to ensure we don't use old connstamps when we reboot. */
1972         do_gettimeofday(&tv);
1973         kranal_data.kra_connstamp =
1974         kranal_data.kra_peerstamp = (((__u64)tv.tv_sec) * 1000000) + tv.tv_usec;
1975
1976         init_MUTEX(&kranal_data.kra_nid_mutex);
1977         init_MUTEX_LOCKED(&kranal_data.kra_listener_signal);
1978
1979         rwlock_init(&kranal_data.kra_global_lock);
1980
1981         for (i = 0; i < RANAL_MAXDEVS; i++ ) {
1982                 kra_device_t  *dev = &kranal_data.kra_devices[i];
1983
1984                 dev->rad_idx = i;
1985                 INIT_LIST_HEAD(&dev->rad_ready_conns);
1986                 INIT_LIST_HEAD(&dev->rad_new_conns);
1987                 init_waitqueue_head(&dev->rad_waitq);
1988                 spin_lock_init(&dev->rad_lock);
1989         }
1990
1991         kranal_data.kra_new_min_timeout = MAX_SCHEDULE_TIMEOUT;
1992         init_waitqueue_head(&kranal_data.kra_reaper_waitq);
1993         spin_lock_init(&kranal_data.kra_reaper_lock);
1994
1995         INIT_LIST_HEAD(&kranal_data.kra_connd_acceptq);
1996         INIT_LIST_HEAD(&kranal_data.kra_connd_peers);
1997         init_waitqueue_head(&kranal_data.kra_connd_waitq);
1998         spin_lock_init(&kranal_data.kra_connd_lock);
1999
2000         INIT_LIST_HEAD(&kranal_data.kra_idle_txs);
2001         INIT_LIST_HEAD(&kranal_data.kra_idle_nblk_txs);
2002         init_waitqueue_head(&kranal_data.kra_idle_tx_waitq);
2003         spin_lock_init(&kranal_data.kra_tx_lock);
2004
2005         /* OK to call kranal_api_shutdown() to cleanup now */
2006         kranal_data.kra_init = RANAL_INIT_DATA;
2007
2008         kranal_data.kra_peer_hash_size = RANAL_PEER_HASH_SIZE;
2009         PORTAL_ALLOC(kranal_data.kra_peers,
2010                      sizeof(struct list_head) * kranal_data.kra_peer_hash_size);
2011         if (kranal_data.kra_peers == NULL)
2012                 goto failed;
2013
2014         for (i = 0; i < kranal_data.kra_peer_hash_size; i++)
2015                 INIT_LIST_HEAD(&kranal_data.kra_peers[i]);
2016
2017         kranal_data.kra_conn_hash_size = RANAL_PEER_HASH_SIZE;
2018         PORTAL_ALLOC(kranal_data.kra_conns,
2019                      sizeof(struct list_head) * kranal_data.kra_conn_hash_size);
2020         if (kranal_data.kra_conns == NULL)
2021                 goto failed;
2022
2023         for (i = 0; i < kranal_data.kra_conn_hash_size; i++)
2024                 INIT_LIST_HEAD(&kranal_data.kra_conns[i]);
2025
2026         rc = kranal_alloc_txdescs(&kranal_data.kra_idle_txs, RANAL_NTX);
2027         if (rc != 0)
2028                 goto failed;
2029
2030         rc = kranal_alloc_txdescs(&kranal_data.kra_idle_nblk_txs,RANAL_NTX_NBLK);
2031         if (rc != 0)
2032                 goto failed;
2033
2034         process_id.pid = requested_pid;
2035         process_id.nid = PTL_NID_ANY;           /* don't know my NID yet */
2036
2037         rc = lib_init(&kranal_lib, nal, process_id,
2038                       requested_limits, actual_limits);
2039         if (rc != PTL_OK) {
2040                 CERROR("lib_init failed: error %d\n", rc);
2041                 goto failed;
2042         }
2043
2044         /* lib interface initialised */
2045         kranal_data.kra_init = RANAL_INIT_LIB;
2046         /*****************************************************/
2047
2048         rc = kranal_thread_start(kranal_reaper, NULL);
2049         if (rc != 0) {
2050                 CERROR("Can't spawn ranal reaper: %d\n", rc);
2051                 goto failed;
2052         }
2053
2054         for (i = 0; i < RANAL_N_CONND; i++) {
2055                 rc = kranal_thread_start(kranal_connd, (void *)(unsigned long)i);
2056                 if (rc != 0) {
2057                         CERROR("Can't spawn ranal connd[%d]: %d\n",
2058                                i, rc);
2059                         goto failed;
2060                 }
2061         }
2062
2063         LASSERT (kranal_data.kra_ndevs == 0);
2064
2065         for (i = 0; i < sizeof(kranal_devids)/sizeof(kranal_devids[0]); i++) {
2066                 LASSERT (i < RANAL_MAXDEVS);
2067
2068                 dev = &kranal_data.kra_devices[kranal_data.kra_ndevs];
2069
2070                 rc = kranal_device_init(kranal_devids[i], dev);
2071                 if (rc == 0)
2072                         kranal_data.kra_ndevs++;
2073         }
2074         
2075         if (kranal_data.kra_ndevs == 0) {
2076                 CERROR("Can't initialise any RapidArray devices\n");
2077                 goto failed;
2078         }
2079         
2080         for (i = 0; i < kranal_data.kra_ndevs; i++) {
2081                 dev = &kranal_data.kra_devices[i];
2082                 rc = kranal_thread_start(kranal_scheduler, dev);
2083                 if (rc != 0) {
2084                         CERROR("Can't spawn ranal scheduler[%d]: %d\n",
2085                                i, rc);
2086                         goto failed;
2087                 }
2088         }
2089
2090         rc = libcfs_nal_cmd_register(RANAL, &kranal_cmd, NULL);
2091         if (rc != 0) {
2092                 CERROR("Can't initialise command interface (rc = %d)\n", rc);
2093                 goto failed;
2094         }
2095
2096         /* flag everything initialised */
2097         kranal_data.kra_init = RANAL_INIT_ALL;
2098         /*****************************************************/
2099
2100         CDEBUG(D_MALLOC, "initial kmem %d\n", atomic_read(&portal_kmemory));
2101         printk(KERN_INFO "Lustre: RapidArray NAL loaded "
2102                "(initial mem %d)\n", pkmem);
2103
2104         return PTL_OK;
2105
2106  failed:
2107         kranal_api_shutdown(&kranal_api);
2108         return PTL_FAIL;
2109 }
2110
2111 void __exit
2112 kranal_module_fini (void)
2113 {
2114         if (kranal_tunables.kra_sysctl != NULL)
2115                 unregister_sysctl_table(kranal_tunables.kra_sysctl);
2116
2117         PtlNIFini(kranal_ni);
2118
2119         ptl_unregister_nal(RANAL);
2120 }
2121
2122 int __init
2123 kranal_module_init (void)
2124 {
2125         int    rc;
2126
2127         /* the following must be sizeof(int) for
2128          * proc_dointvec/kranal_listener_procint() */
2129         LASSERT (sizeof(kranal_tunables.kra_timeout) == sizeof(int));
2130         LASSERT (sizeof(kranal_tunables.kra_listener_timeout) == sizeof(int));
2131         LASSERT (sizeof(kranal_tunables.kra_backlog) == sizeof(int));
2132         LASSERT (sizeof(kranal_tunables.kra_port) == sizeof(int));
2133         LASSERT (sizeof(kranal_tunables.kra_max_immediate) == sizeof(int));
2134
2135         kranal_api.nal_ni_init = kranal_api_startup;
2136         kranal_api.nal_ni_fini = kranal_api_shutdown;
2137
2138         /* Initialise dynamic tunables to defaults once only */
2139         kranal_tunables.kra_timeout = RANAL_TIMEOUT;
2140         kranal_tunables.kra_listener_timeout = RANAL_LISTENER_TIMEOUT;
2141         kranal_tunables.kra_backlog = RANAL_BACKLOG;
2142         kranal_tunables.kra_port = RANAL_PORT;
2143         kranal_tunables.kra_max_immediate = RANAL_MAX_IMMEDIATE;
2144
2145         rc = ptl_register_nal(RANAL, &kranal_api);
2146         if (rc != PTL_OK) {
2147                 CERROR("Can't register RANAL: %d\n", rc);
2148                 return -ENOMEM;               /* or something... */
2149         }
2150
2151         /* Pure gateways want the NAL started up at module load time... */
2152         rc = PtlNIInit(RANAL, LUSTRE_SRV_PTL_PID, NULL, NULL, &kranal_ni);
2153         if (rc != PTL_OK && rc != PTL_IFACE_DUP) {
2154                 ptl_unregister_nal(RANAL);
2155                 return -ENODEV;
2156         }
2157
2158         kranal_tunables.kra_sysctl =
2159                 register_sysctl_table(kranal_top_ctl_table, 0);
2160         if (kranal_tunables.kra_sysctl == NULL) {
2161                 CERROR("Can't register sysctl table\n");
2162                 PtlNIFini(kranal_ni);
2163                 ptl_unregister_nal(RANAL);
2164                 return -ENOMEM;
2165         }
2166
2167         return 0;
2168 }
2169
2170 MODULE_AUTHOR("Cluster File Systems, Inc. <info@clusterfs.com>");
2171 MODULE_DESCRIPTION("Kernel RapidArray NAL v0.01");
2172 MODULE_LICENSE("GPL");
2173
2174 module_init(kranal_module_init);
2175 module_exit(kranal_module_fini);