Whamcloud - gitweb
LU-3963 libcfs: convert LNET layer to linux list api
[fs/lustre-release.git] / lnet / klnds / socklnd / socklnd_proto.c
1 /*
2  * Copyright (c) 2009, 2010, Oracle and/or its affiliates. All rights reserved.
3  *
4  * Copyright (c) 2012, Intel Corporation.
5  *
6  *   Author: Zach Brown <zab@zabbo.net>
7  *   Author: Peter J. Braam <braam@clusterfs.com>
8  *   Author: Phil Schwan <phil@clusterfs.com>
9  *   Author: Eric Barton <eric@bartonsoftware.com>
10  *
11  *   This file is part of Portals, http://www.sf.net/projects/sandiaportals/
12  *
13  *   Portals is free software; you can redistribute it and/or
14  *   modify it under the terms of version 2 of the GNU General Public
15  *   License as published by the Free Software Foundation.
16  *
17  *   Portals is distributed in the hope that it will be useful,
18  *   but WITHOUT ANY WARRANTY; without even the implied warranty of
19  *   MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
20  *   GNU General Public License for more details.
21  *
22  *   You should have received a copy of the GNU General Public License
23  *   along with Portals; if not, write to the Free Software
24  *   Foundation, Inc., 675 Mass Ave, Cambridge, MA 02139, USA.
25  */
26
27 #include "socklnd.h"
28
29 /*
30  * Protocol entries :
31  *   pro_send_hello       : send hello message
32  *   pro_recv_hello       : receive hello message
33  *   pro_pack             : pack message header
34  *   pro_unpack           : unpack message header
35  *   pro_queue_tx_zcack() : Called holding BH lock: kss_lock
36  *                          return 1 if ACK is piggybacked, otherwise return 0
37  *   pro_queue_tx_msg()   : Called holding BH lock: kss_lock
38  *                          return the ACK that piggybacked by my message, or NULL
39  *   pro_handle_zcreq()   : handler of incoming ZC-REQ
40  *   pro_handle_zcack()   : handler of incoming ZC-ACK
41  *   pro_match_tx()       : Called holding glock
42  */
43
44 static ksock_tx_t *
45 ksocknal_queue_tx_msg_v1(ksock_conn_t *conn, ksock_tx_t *tx_msg)
46 {
47         /* V1.x, just enqueue it */
48         list_add_tail(&tx_msg->tx_list, &conn->ksnc_tx_queue);
49         return NULL;
50 }
51
52 void
53 ksocknal_next_tx_carrier(ksock_conn_t *conn)
54 {
55         ksock_tx_t     *tx = conn->ksnc_tx_carrier;
56
57         /* Called holding BH lock: conn->ksnc_scheduler->kss_lock */
58         LASSERT(!list_empty(&conn->ksnc_tx_queue));
59         LASSERT(tx != NULL);
60
61         /* Next TX that can carry ZC-ACK or LNet message */
62         if (tx->tx_list.next == &conn->ksnc_tx_queue) {
63                 /* no more packets queued */
64                 conn->ksnc_tx_carrier = NULL;
65         } else {
66                 conn->ksnc_tx_carrier = list_entry(tx->tx_list.next,
67                                                        ksock_tx_t, tx_list);
68                 LASSERT(conn->ksnc_tx_carrier->tx_msg.ksm_type ==
69                         tx->tx_msg.ksm_type);
70         }
71 }
72
73 static int
74 ksocknal_queue_tx_zcack_v2(ksock_conn_t *conn,
75                            ksock_tx_t *tx_ack, __u64 cookie)
76 {
77         ksock_tx_t *tx = conn->ksnc_tx_carrier;
78
79         LASSERT (tx_ack == NULL ||
80                  tx_ack->tx_msg.ksm_type == KSOCK_MSG_NOOP);
81
82         /*
83          * Enqueue or piggyback tx_ack / cookie
84          * . no tx can piggyback cookie of tx_ack (or cookie), just
85          *   enqueue the tx_ack (if tx_ack != NUL) and return NULL.
86          * . There is tx can piggyback cookie of tx_ack (or cookie),
87          *   piggyback the cookie and return the tx.
88          */
89         if (tx == NULL) {
90                 if (tx_ack != NULL) {
91                         list_add_tail(&tx_ack->tx_list,
92                                           &conn->ksnc_tx_queue);
93                         conn->ksnc_tx_carrier = tx_ack;
94                 }
95                 return 0;
96         }
97
98         if (tx->tx_msg.ksm_type == KSOCK_MSG_NOOP) {
99                 /* tx is noop zc-ack, can't piggyback zc-ack cookie */
100                 if (tx_ack != NULL)
101                         list_add_tail(&tx_ack->tx_list,
102                                           &conn->ksnc_tx_queue);
103                 return 0;
104         }
105
106         LASSERT(tx->tx_msg.ksm_type == KSOCK_MSG_LNET);
107         LASSERT(tx->tx_msg.ksm_zc_cookies[1] == 0);
108
109         if (tx_ack != NULL)
110                 cookie = tx_ack->tx_msg.ksm_zc_cookies[1];
111
112         /* piggyback the zc-ack cookie */
113         tx->tx_msg.ksm_zc_cookies[1] = cookie;
114         /* move on to the next TX which can carry cookie */
115         ksocknal_next_tx_carrier(conn);
116
117         return 1;
118 }
119
120 static ksock_tx_t *
121 ksocknal_queue_tx_msg_v2(ksock_conn_t *conn, ksock_tx_t *tx_msg)
122 {
123         ksock_tx_t  *tx  = conn->ksnc_tx_carrier;
124
125         /*
126          * Enqueue tx_msg:
127          * . If there is no NOOP on the connection, just enqueue
128          *   tx_msg and return NULL
129          * . If there is NOOP on the connection, piggyback the cookie
130          *   and replace the NOOP tx, and return the NOOP tx.
131          */
132         if (tx == NULL) { /* nothing on queue */
133                 list_add_tail(&tx_msg->tx_list, &conn->ksnc_tx_queue);
134                 conn->ksnc_tx_carrier = tx_msg;
135                 return NULL;
136         }
137
138         if (tx->tx_msg.ksm_type == KSOCK_MSG_LNET) { /* nothing to carry */
139                 list_add_tail(&tx_msg->tx_list, &conn->ksnc_tx_queue);
140                 return NULL;
141         }
142
143         LASSERT (tx->tx_msg.ksm_type == KSOCK_MSG_NOOP);
144
145         /* There is a noop zc-ack can be piggybacked */
146         tx_msg->tx_msg.ksm_zc_cookies[1] = tx->tx_msg.ksm_zc_cookies[1];
147         ksocknal_next_tx_carrier(conn);
148
149         /* use new_tx to replace the noop zc-ack packet */
150         list_add(&tx_msg->tx_list, &tx->tx_list);
151         list_del(&tx->tx_list);
152
153         return tx;
154 }
155
156 static int
157 ksocknal_queue_tx_zcack_v3(ksock_conn_t *conn,
158                            ksock_tx_t *tx_ack, __u64 cookie)
159 {
160         ksock_tx_t *tx;
161
162         if (conn->ksnc_type != SOCKLND_CONN_ACK)
163                 return ksocknal_queue_tx_zcack_v2(conn, tx_ack, cookie);
164
165         /* non-blocking ZC-ACK (to router) */
166         LASSERT (tx_ack == NULL ||
167                  tx_ack->tx_msg.ksm_type == KSOCK_MSG_NOOP);
168
169         if ((tx = conn->ksnc_tx_carrier) == NULL) {
170                 if (tx_ack != NULL) {
171                         list_add_tail(&tx_ack->tx_list,
172                                           &conn->ksnc_tx_queue);
173                         conn->ksnc_tx_carrier = tx_ack;
174                 }
175                 return 0;
176         }
177
178         /* conn->ksnc_tx_carrier != NULL */
179
180         if (tx_ack != NULL)
181                 cookie = tx_ack->tx_msg.ksm_zc_cookies[1];
182
183         if (cookie == SOCKNAL_KEEPALIVE_PING) /* ignore keepalive PING */
184                 return 1;
185
186         if (tx->tx_msg.ksm_zc_cookies[1] == SOCKNAL_KEEPALIVE_PING) {
187                 /* replace the keepalive PING with a real ACK */
188                 LASSERT (tx->tx_msg.ksm_zc_cookies[0] == 0);
189                 tx->tx_msg.ksm_zc_cookies[1] = cookie;
190                 return 1;
191         }
192
193         if (cookie == tx->tx_msg.ksm_zc_cookies[0] ||
194             cookie == tx->tx_msg.ksm_zc_cookies[1]) {
195                 CWARN("%s: duplicated ZC cookie: "LPU64"\n",
196                       libcfs_id2str(conn->ksnc_peer->ksnp_id), cookie);
197                 return 1; /* XXX return error in the future */
198         }
199
200         if (tx->tx_msg.ksm_zc_cookies[0] == 0) {
201                 /* NOOP tx has only one ZC-ACK cookie, can carry at least one more */
202                 if (tx->tx_msg.ksm_zc_cookies[1] > cookie) {
203                         tx->tx_msg.ksm_zc_cookies[0] = tx->tx_msg.ksm_zc_cookies[1];
204                         tx->tx_msg.ksm_zc_cookies[1] = cookie;
205                 } else {
206                         tx->tx_msg.ksm_zc_cookies[0] = cookie;
207                 }
208
209                 if (tx->tx_msg.ksm_zc_cookies[0] - tx->tx_msg.ksm_zc_cookies[1] > 2) {
210                         /* not likely to carry more ACKs, skip it to simplify logic */
211                         ksocknal_next_tx_carrier(conn);
212                 }
213
214                 return 1;
215         }
216
217         /* takes two or more cookies already */
218
219         if (tx->tx_msg.ksm_zc_cookies[0] > tx->tx_msg.ksm_zc_cookies[1]) {
220                 __u64   tmp = 0;
221
222                 /* two seperated cookies: (a+2, a) or (a+1, a) */
223                 LASSERT (tx->tx_msg.ksm_zc_cookies[0] -
224                          tx->tx_msg.ksm_zc_cookies[1] <= 2);
225
226                 if (tx->tx_msg.ksm_zc_cookies[0] -
227                     tx->tx_msg.ksm_zc_cookies[1] == 2) {
228                         if (cookie == tx->tx_msg.ksm_zc_cookies[1] + 1)
229                                 tmp = cookie;
230                 } else if (cookie == tx->tx_msg.ksm_zc_cookies[1] - 1) {
231                         tmp = tx->tx_msg.ksm_zc_cookies[1];
232                 } else if (cookie == tx->tx_msg.ksm_zc_cookies[0] + 1) {
233                         tmp = tx->tx_msg.ksm_zc_cookies[0];
234                 }
235
236                 if (tmp != 0) {
237                         /* range of cookies */
238                         tx->tx_msg.ksm_zc_cookies[0] = tmp - 1;
239                         tx->tx_msg.ksm_zc_cookies[1] = tmp + 1;
240                         return 1;
241                 }
242
243         } else {
244                 /* ksm_zc_cookies[0] < ksm_zc_cookies[1], it is range of cookies */
245                 if (cookie >= tx->tx_msg.ksm_zc_cookies[0] &&
246                     cookie <= tx->tx_msg.ksm_zc_cookies[1]) {
247                         CWARN("%s: duplicated ZC cookie: "LPU64"\n",
248                               libcfs_id2str(conn->ksnc_peer->ksnp_id), cookie);
249                         return 1; /* XXX: return error in the future */
250                 }
251
252                 if (cookie == tx->tx_msg.ksm_zc_cookies[1] + 1) {
253                         tx->tx_msg.ksm_zc_cookies[1] = cookie;
254                         return 1;
255                 }
256
257                 if (cookie == tx->tx_msg.ksm_zc_cookies[0] - 1) {
258                         tx->tx_msg.ksm_zc_cookies[0] = cookie;
259                         return 1;
260                 }
261         }
262
263         /* failed to piggyback ZC-ACK */
264         if (tx_ack != NULL) {
265                 list_add_tail(&tx_ack->tx_list, &conn->ksnc_tx_queue);
266                 /* the next tx can piggyback at least 1 ACK */
267                 ksocknal_next_tx_carrier(conn);
268         }
269
270         return 0;
271 }
272
273 static int
274 ksocknal_match_tx(ksock_conn_t *conn, ksock_tx_t *tx, int nonblk)
275 {
276         int nob;
277
278 #if SOCKNAL_VERSION_DEBUG
279         if (!*ksocknal_tunables.ksnd_typed_conns)
280                 return SOCKNAL_MATCH_YES;
281 #endif
282
283         if (tx == NULL || tx->tx_lnetmsg == NULL) {
284                 /* noop packet */
285                 nob = offsetof(ksock_msg_t, ksm_u);
286         } else {
287                 nob = tx->tx_lnetmsg->msg_len +
288                       ((conn->ksnc_proto == &ksocknal_protocol_v1x) ?
289                        sizeof(lnet_hdr_t) : sizeof(ksock_msg_t));
290         }
291
292         /* default checking for typed connection */
293         switch (conn->ksnc_type) {
294         default:
295                 CERROR("ksnc_type bad: %u\n", conn->ksnc_type);
296                 LBUG();
297         case SOCKLND_CONN_ANY:
298                 return SOCKNAL_MATCH_YES;
299
300         case SOCKLND_CONN_BULK_IN:
301                 return SOCKNAL_MATCH_MAY;
302
303         case SOCKLND_CONN_BULK_OUT:
304                 if (nob < *ksocknal_tunables.ksnd_min_bulk)
305                         return SOCKNAL_MATCH_MAY;
306                 else
307                         return SOCKNAL_MATCH_YES;
308
309         case SOCKLND_CONN_CONTROL:
310                 if (nob >= *ksocknal_tunables.ksnd_min_bulk)
311                         return SOCKNAL_MATCH_MAY;
312                 else
313                         return SOCKNAL_MATCH_YES;
314         }
315 }
316
317 static int
318 ksocknal_match_tx_v3(ksock_conn_t *conn, ksock_tx_t *tx, int nonblk)
319 {
320         int nob;
321
322         if (tx == NULL || tx->tx_lnetmsg == NULL)
323                 nob = offsetof(ksock_msg_t, ksm_u);
324         else
325                 nob = tx->tx_lnetmsg->msg_len + sizeof(ksock_msg_t);
326
327         switch (conn->ksnc_type) {
328         default:
329                 CERROR("ksnc_type bad: %u\n", conn->ksnc_type);
330                 LBUG();
331         case SOCKLND_CONN_ANY:
332                 return SOCKNAL_MATCH_NO;
333
334         case SOCKLND_CONN_ACK:
335                 if (nonblk)
336                         return SOCKNAL_MATCH_YES;
337                 else if (tx == NULL || tx->tx_lnetmsg == NULL)
338                         return SOCKNAL_MATCH_MAY;
339                 else
340                         return SOCKNAL_MATCH_NO;
341
342         case SOCKLND_CONN_BULK_OUT:
343                 if (nonblk)
344                         return SOCKNAL_MATCH_NO;
345                 else if (nob < *ksocknal_tunables.ksnd_min_bulk)
346                         return SOCKNAL_MATCH_MAY;
347                 else
348                         return SOCKNAL_MATCH_YES;
349
350         case SOCKLND_CONN_CONTROL:
351                 if (nonblk)
352                         return SOCKNAL_MATCH_NO;
353                 else if (nob >= *ksocknal_tunables.ksnd_min_bulk)
354                         return SOCKNAL_MATCH_MAY;
355                 else
356                         return SOCKNAL_MATCH_YES;
357         }
358 }
359
360 /* (Sink) handle incoming ZC request from sender */
361 static int
362 ksocknal_handle_zcreq(ksock_conn_t *c, __u64 cookie, int remote)
363 {
364         ksock_peer_t   *peer = c->ksnc_peer;
365         ksock_conn_t   *conn;
366         ksock_tx_t     *tx;
367         int             rc;
368
369         read_lock(&ksocknal_data.ksnd_global_lock);
370
371         conn = ksocknal_find_conn_locked(peer, NULL, !!remote);
372         if (conn != NULL) {
373                 ksock_sched_t *sched = conn->ksnc_scheduler;
374
375                 LASSERT(conn->ksnc_proto->pro_queue_tx_zcack != NULL);
376
377                 spin_lock_bh(&sched->kss_lock);
378
379                 rc = conn->ksnc_proto->pro_queue_tx_zcack(conn, NULL, cookie);
380
381                 spin_unlock_bh(&sched->kss_lock);
382
383                 if (rc) { /* piggybacked */
384                         read_unlock(&ksocknal_data.ksnd_global_lock);
385                         return 0;
386                 }
387         }
388
389         read_unlock(&ksocknal_data.ksnd_global_lock);
390
391         /* ACK connection is not ready, or can't piggyback the ACK */
392         tx = ksocknal_alloc_tx_noop(cookie, !!remote);
393         if (tx == NULL)
394                 return -ENOMEM;
395
396         if ((rc = ksocknal_launch_packet(peer->ksnp_ni, tx, peer->ksnp_id)) == 0)
397                 return 0;
398
399         ksocknal_free_tx(tx);
400         return rc;
401 }
402
403 /* (Sender) handle ZC_ACK from sink */
404 static int
405 ksocknal_handle_zcack(ksock_conn_t *conn, __u64 cookie1, __u64 cookie2)
406 {
407         ksock_peer_t      *peer = conn->ksnc_peer;
408         ksock_tx_t        *tx;
409         ksock_tx_t        *tmp;
410         struct list_head        zlist = LIST_HEAD_INIT(zlist);
411         int                count;
412
413         if (cookie1 == 0)
414                 cookie1 = cookie2;
415
416         count = (cookie1 > cookie2) ? 2 : (cookie2 - cookie1 + 1);
417
418         if (cookie2 == SOCKNAL_KEEPALIVE_PING &&
419             conn->ksnc_proto == &ksocknal_protocol_v3x) {
420                 /* keepalive PING for V3.x, just ignore it */
421                 return count == 1 ? 0 : -EPROTO;
422         }
423
424         spin_lock(&peer->ksnp_lock);
425
426         list_for_each_entry_safe(tx, tmp,
427                                      &peer->ksnp_zc_req_list, tx_zc_list) {
428                 __u64 c = tx->tx_msg.ksm_zc_cookies[0];
429
430                 if (c == cookie1 || c == cookie2 || (cookie1 < c && c < cookie2)) {
431                         tx->tx_msg.ksm_zc_cookies[0] = 0;
432                         list_del(&tx->tx_zc_list);
433                         list_add(&tx->tx_zc_list, &zlist);
434
435                         if (--count == 0)
436                                 break;
437                 }
438         }
439
440         spin_unlock(&peer->ksnp_lock);
441
442         while (!list_empty(&zlist)) {
443                 tx = list_entry(zlist.next, ksock_tx_t, tx_zc_list);
444                 list_del(&tx->tx_zc_list);
445                 ksocknal_tx_decref(tx);
446         }
447
448         return count == 0 ? 0 : -EPROTO;
449 }
450
451 static int
452 ksocknal_send_hello_v1 (ksock_conn_t *conn, ksock_hello_msg_t *hello)
453 {
454         cfs_socket_t        *sock = conn->ksnc_sock;
455         lnet_hdr_t          *hdr;
456         lnet_magicversion_t *hmv;
457         int                  rc;
458         int                  i;
459
460         CLASSERT(sizeof(lnet_magicversion_t) == offsetof(lnet_hdr_t, src_nid));
461
462         LIBCFS_ALLOC(hdr, sizeof(*hdr));
463         if (hdr == NULL) {
464                 CERROR("Can't allocate lnet_hdr_t\n");
465                 return -ENOMEM;
466         }
467
468         hmv = (lnet_magicversion_t *)&hdr->dest_nid;
469
470         /* Re-organize V2.x message header to V1.x (lnet_hdr_t)
471          * header and send out */
472         hmv->magic         = cpu_to_le32 (LNET_PROTO_TCP_MAGIC);
473         hmv->version_major = cpu_to_le16 (KSOCK_PROTO_V1_MAJOR);
474         hmv->version_minor = cpu_to_le16 (KSOCK_PROTO_V1_MINOR);
475
476         if (the_lnet.ln_testprotocompat != 0) {
477                 /* single-shot proto check */
478                 LNET_LOCK();
479                 if ((the_lnet.ln_testprotocompat & 1) != 0) {
480                         hmv->version_major++;   /* just different! */
481                         the_lnet.ln_testprotocompat &= ~1;
482                 }
483                 if ((the_lnet.ln_testprotocompat & 2) != 0) {
484                         hmv->magic = LNET_PROTO_MAGIC;
485                         the_lnet.ln_testprotocompat &= ~2;
486                 }
487                 LNET_UNLOCK();
488         }
489
490         hdr->src_nid        = cpu_to_le64 (hello->kshm_src_nid);
491         hdr->src_pid        = cpu_to_le32 (hello->kshm_src_pid);
492         hdr->type           = cpu_to_le32 (LNET_MSG_HELLO);
493         hdr->payload_length = cpu_to_le32 (hello->kshm_nips * sizeof(__u32));
494         hdr->msg.hello.type = cpu_to_le32 (hello->kshm_ctype);
495         hdr->msg.hello.incarnation = cpu_to_le64 (hello->kshm_src_incarnation);
496
497         rc = libcfs_sock_write(sock, hdr, sizeof(*hdr),lnet_acceptor_timeout());
498
499         if (rc != 0) {
500                 CNETERR("Error %d sending HELLO hdr to %u.%u.%u.%u/%d\n",
501                         rc, HIPQUAD(conn->ksnc_ipaddr), conn->ksnc_port);
502                 goto out;
503         }
504
505         if (hello->kshm_nips == 0)
506                 goto out;
507
508         for (i = 0; i < (int) hello->kshm_nips; i++) {
509                 hello->kshm_ips[i] = __cpu_to_le32 (hello->kshm_ips[i]);
510         }
511
512         rc = libcfs_sock_write(sock, hello->kshm_ips,
513                                hello->kshm_nips * sizeof(__u32),
514                                lnet_acceptor_timeout());
515         if (rc != 0) {
516                 CNETERR("Error %d sending HELLO payload (%d)"
517                         " to %u.%u.%u.%u/%d\n", rc, hello->kshm_nips,
518                         HIPQUAD(conn->ksnc_ipaddr), conn->ksnc_port);
519         }
520 out:
521         LIBCFS_FREE(hdr, sizeof(*hdr));
522
523         return rc;
524 }
525
526 static int
527 ksocknal_send_hello_v2 (ksock_conn_t *conn, ksock_hello_msg_t *hello)
528 {
529         cfs_socket_t   *sock = conn->ksnc_sock;
530         int             rc;
531
532         hello->kshm_magic   = LNET_PROTO_MAGIC;
533         hello->kshm_version = conn->ksnc_proto->pro_version;
534
535         if (the_lnet.ln_testprotocompat != 0) {
536                 /* single-shot proto check */
537                 LNET_LOCK();
538                 if ((the_lnet.ln_testprotocompat & 1) != 0) {
539                         hello->kshm_version++;   /* just different! */
540                         the_lnet.ln_testprotocompat &= ~1;
541                 }
542                 LNET_UNLOCK();
543         }
544
545         rc = libcfs_sock_write(sock, hello, offsetof(ksock_hello_msg_t, kshm_ips),
546                                lnet_acceptor_timeout());
547
548         if (rc != 0) {
549                 CNETERR("Error %d sending HELLO hdr to %u.%u.%u.%u/%d\n",
550                         rc, HIPQUAD(conn->ksnc_ipaddr), conn->ksnc_port);
551                 return rc;
552         }
553
554         if (hello->kshm_nips == 0)
555                 return 0;
556
557         rc = libcfs_sock_write(sock, hello->kshm_ips,
558                                hello->kshm_nips * sizeof(__u32),
559                                lnet_acceptor_timeout());
560         if (rc != 0) {
561                 CNETERR("Error %d sending HELLO payload (%d)"
562                         " to %u.%u.%u.%u/%d\n", rc, hello->kshm_nips,
563                         HIPQUAD(conn->ksnc_ipaddr), conn->ksnc_port);
564         }
565
566         return rc;
567 }
568
569 static int
570 ksocknal_recv_hello_v1(ksock_conn_t *conn, ksock_hello_msg_t *hello,int timeout)
571 {
572         cfs_socket_t        *sock = conn->ksnc_sock;
573         lnet_hdr_t          *hdr;
574         int                  rc;
575         int                  i;
576
577         LIBCFS_ALLOC(hdr, sizeof(*hdr));
578         if (hdr == NULL) {
579                 CERROR("Can't allocate lnet_hdr_t\n");
580                 return -ENOMEM;
581         }
582
583         rc = libcfs_sock_read(sock, &hdr->src_nid,
584                               sizeof (*hdr) - offsetof (lnet_hdr_t, src_nid),
585                               timeout);
586         if (rc != 0) {
587                 CERROR ("Error %d reading rest of HELLO hdr from %u.%u.%u.%u\n",
588                         rc, HIPQUAD(conn->ksnc_ipaddr));
589                 LASSERT (rc < 0 && rc != -EALREADY);
590                 goto out;
591         }
592
593         /* ...and check we got what we expected */
594         if (hdr->type != cpu_to_le32 (LNET_MSG_HELLO)) {
595                 CERROR ("Expecting a HELLO hdr,"
596                         " but got type %d from %u.%u.%u.%u\n",
597                         le32_to_cpu (hdr->type),
598                         HIPQUAD(conn->ksnc_ipaddr));
599                 rc = -EPROTO;
600                 goto out;
601         }
602
603         hello->kshm_src_nid         = le64_to_cpu (hdr->src_nid);
604         hello->kshm_src_pid         = le32_to_cpu (hdr->src_pid);
605         hello->kshm_src_incarnation = le64_to_cpu (hdr->msg.hello.incarnation);
606         hello->kshm_ctype           = le32_to_cpu (hdr->msg.hello.type);
607         hello->kshm_nips            = le32_to_cpu (hdr->payload_length) /
608                                          sizeof (__u32);
609
610         if (hello->kshm_nips > LNET_MAX_INTERFACES) {
611                 CERROR("Bad nips %d from ip %u.%u.%u.%u\n",
612                        hello->kshm_nips, HIPQUAD(conn->ksnc_ipaddr));
613                 rc = -EPROTO;
614                 goto out;
615         }
616
617         if (hello->kshm_nips == 0)
618                 goto out;
619
620         rc = libcfs_sock_read(sock, hello->kshm_ips,
621                               hello->kshm_nips * sizeof(__u32), timeout);
622         if (rc != 0) {
623                 CERROR ("Error %d reading IPs from ip %u.%u.%u.%u\n",
624                         rc, HIPQUAD(conn->ksnc_ipaddr));
625                 LASSERT (rc < 0 && rc != -EALREADY);
626                 goto out;
627         }
628
629         for (i = 0; i < (int) hello->kshm_nips; i++) {
630                 hello->kshm_ips[i] = __le32_to_cpu(hello->kshm_ips[i]);
631
632                 if (hello->kshm_ips[i] == 0) {
633                         CERROR("Zero IP[%d] from ip %u.%u.%u.%u\n",
634                                i, HIPQUAD(conn->ksnc_ipaddr));
635                         rc = -EPROTO;
636                         break;
637                 }
638         }
639 out:
640         LIBCFS_FREE(hdr, sizeof(*hdr));
641
642         return rc;
643 }
644
645 static int
646 ksocknal_recv_hello_v2 (ksock_conn_t *conn, ksock_hello_msg_t *hello, int timeout)
647 {
648         cfs_socket_t      *sock = conn->ksnc_sock;
649         int                rc;
650         int                i;
651
652         if (hello->kshm_magic == LNET_PROTO_MAGIC)
653                 conn->ksnc_flip = 0;
654         else
655                 conn->ksnc_flip = 1;
656
657         rc = libcfs_sock_read(sock, &hello->kshm_src_nid,
658                               offsetof(ksock_hello_msg_t, kshm_ips) -
659                                        offsetof(ksock_hello_msg_t, kshm_src_nid),
660                               timeout);
661         if (rc != 0) {
662                 CERROR ("Error %d reading HELLO from %u.%u.%u.%u\n",
663                         rc, HIPQUAD(conn->ksnc_ipaddr));
664                 LASSERT (rc < 0 && rc != -EALREADY);
665                 return rc;
666         }
667
668         if (conn->ksnc_flip) {
669                 __swab32s(&hello->kshm_src_pid);
670                 __swab64s(&hello->kshm_src_nid);
671                 __swab32s(&hello->kshm_dst_pid);
672                 __swab64s(&hello->kshm_dst_nid);
673                 __swab64s(&hello->kshm_src_incarnation);
674                 __swab64s(&hello->kshm_dst_incarnation);
675                 __swab32s(&hello->kshm_ctype);
676                 __swab32s(&hello->kshm_nips);
677         }
678
679         if (hello->kshm_nips > LNET_MAX_INTERFACES) {
680                 CERROR("Bad nips %d from ip %u.%u.%u.%u\n",
681                        hello->kshm_nips, HIPQUAD(conn->ksnc_ipaddr));
682                 return -EPROTO;
683         }
684
685         if (hello->kshm_nips == 0)
686                 return 0;
687
688         rc = libcfs_sock_read(sock, hello->kshm_ips,
689                               hello->kshm_nips * sizeof(__u32), timeout);
690         if (rc != 0) {
691                 CERROR ("Error %d reading IPs from ip %u.%u.%u.%u\n",
692                         rc, HIPQUAD(conn->ksnc_ipaddr));
693                 LASSERT (rc < 0 && rc != -EALREADY);
694                 return rc;
695         }
696
697         for (i = 0; i < (int) hello->kshm_nips; i++) {
698                 if (conn->ksnc_flip)
699                         __swab32s(&hello->kshm_ips[i]);
700
701                 if (hello->kshm_ips[i] == 0) {
702                         CERROR("Zero IP[%d] from ip %u.%u.%u.%u\n",
703                                i, HIPQUAD(conn->ksnc_ipaddr));
704                         return -EPROTO;
705                 }
706         }
707
708         return 0;
709 }
710
711 static void
712 ksocknal_pack_msg_v1(ksock_tx_t *tx)
713 {
714         /* V1.x has no KSOCK_MSG_NOOP */
715         LASSERT(tx->tx_msg.ksm_type != KSOCK_MSG_NOOP);
716         LASSERT(tx->tx_lnetmsg != NULL);
717
718         tx->tx_iov[0].iov_base = (void *)&tx->tx_lnetmsg->msg_hdr;
719         tx->tx_iov[0].iov_len  = sizeof(lnet_hdr_t);
720
721         tx->tx_resid = tx->tx_nob = tx->tx_lnetmsg->msg_len + sizeof(lnet_hdr_t);
722 }
723
724 static void
725 ksocknal_pack_msg_v2(ksock_tx_t *tx)
726 {
727         tx->tx_iov[0].iov_base = (void *)&tx->tx_msg;
728
729         if (tx->tx_lnetmsg != NULL) {
730                 LASSERT(tx->tx_msg.ksm_type != KSOCK_MSG_NOOP);
731
732                 tx->tx_msg.ksm_u.lnetmsg.ksnm_hdr = tx->tx_lnetmsg->msg_hdr;
733                 tx->tx_iov[0].iov_len = sizeof(ksock_msg_t);
734                 tx->tx_resid = tx->tx_nob = sizeof(ksock_msg_t) + tx->tx_lnetmsg->msg_len;
735         } else {
736                 LASSERT(tx->tx_msg.ksm_type == KSOCK_MSG_NOOP);
737
738                 tx->tx_iov[0].iov_len = offsetof(ksock_msg_t, ksm_u.lnetmsg.ksnm_hdr);
739                 tx->tx_resid = tx->tx_nob = offsetof(ksock_msg_t,  ksm_u.lnetmsg.ksnm_hdr);
740         }
741         /* Don't checksum before start sending, because packet can be piggybacked with ACK */
742 }
743
744 static void
745 ksocknal_unpack_msg_v1(ksock_msg_t *msg)
746 {
747         msg->ksm_csum           = 0;
748         msg->ksm_type           = KSOCK_MSG_LNET;
749         msg->ksm_zc_cookies[0]  = msg->ksm_zc_cookies[1]  = 0;
750 }
751
752 static void
753 ksocknal_unpack_msg_v2(ksock_msg_t *msg)
754 {
755         return;  /* Do nothing */
756 }
757
758 ksock_proto_t  ksocknal_protocol_v1x =
759 {
760         .pro_version            = KSOCK_PROTO_V1,
761         .pro_send_hello         = ksocknal_send_hello_v1,
762         .pro_recv_hello         = ksocknal_recv_hello_v1,
763         .pro_pack               = ksocknal_pack_msg_v1,
764         .pro_unpack             = ksocknal_unpack_msg_v1,
765         .pro_queue_tx_msg       = ksocknal_queue_tx_msg_v1,
766         .pro_handle_zcreq       = NULL,
767         .pro_handle_zcack       = NULL,
768         .pro_queue_tx_zcack     = NULL,
769         .pro_match_tx           = ksocknal_match_tx
770 };
771
772 ksock_proto_t  ksocknal_protocol_v2x =
773 {
774         .pro_version            = KSOCK_PROTO_V2,
775         .pro_send_hello         = ksocknal_send_hello_v2,
776         .pro_recv_hello         = ksocknal_recv_hello_v2,
777         .pro_pack               = ksocknal_pack_msg_v2,
778         .pro_unpack             = ksocknal_unpack_msg_v2,
779         .pro_queue_tx_msg       = ksocknal_queue_tx_msg_v2,
780         .pro_queue_tx_zcack     = ksocknal_queue_tx_zcack_v2,
781         .pro_handle_zcreq       = ksocknal_handle_zcreq,
782         .pro_handle_zcack       = ksocknal_handle_zcack,
783         .pro_match_tx           = ksocknal_match_tx
784 };
785
786 ksock_proto_t  ksocknal_protocol_v3x =
787 {
788         .pro_version            = KSOCK_PROTO_V3,
789         .pro_send_hello         = ksocknal_send_hello_v2,
790         .pro_recv_hello         = ksocknal_recv_hello_v2,
791         .pro_pack               = ksocknal_pack_msg_v2,
792         .pro_unpack             = ksocknal_unpack_msg_v2,
793         .pro_queue_tx_msg       = ksocknal_queue_tx_msg_v2,
794         .pro_queue_tx_zcack     = ksocknal_queue_tx_zcack_v3,
795         .pro_handle_zcreq       = ksocknal_handle_zcreq,
796         .pro_handle_zcack       = ksocknal_handle_zcack,
797         .pro_match_tx           = ksocknal_match_tx_v3
798 };
799