Whamcloud - gitweb
9a391cde5c94e43ec2599d62787977398ffb98ff
[fs/lustre-release.git] / lnet / lnet / lib-md.c
1 /* -*- mode: c; c-basic-offset: 8; indent-tabs-mode: nil; -*-
2  * vim:expandtab:shiftwidth=8:tabstop=8:
3  *
4  * lib/lib-md.c
5  * Memory Descriptor management routines
6  *
7  *  Copyright (c) 2001-2003 Cluster File Systems, Inc.
8  *  Copyright (c) 2001-2002 Sandia National Laboratories
9  *
10  *   This file is part of Lustre, http://www.sf.net/projects/lustre/
11  *
12  *   Lustre is free software; you can redistribute it and/or
13  *   modify it under the terms of version 2 of the GNU General Public
14  *   License as published by the Free Software Foundation.
15  *
16  *   Lustre is distributed in the hope that it will be useful,
17  *   but WITHOUT ANY WARRANTY; without even the implied warranty of
18  *   MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
19  *   GNU General Public License for more details.
20  *
21  *   You should have received a copy of the GNU General Public License
22  *   along with Lustre; if not, write to the Free Software
23  *   Foundation, Inc., 675 Mass Ave, Cambridge, MA 02139, USA.
24  */
25
26 #ifndef __KERNEL__
27 # include <stdio.h>
28 #else
29 # define DEBUG_SUBSYSTEM S_PORTALS
30 # include <linux/kp30.h>
31 #endif
32
33 #include <portals/lib-p30.h>
34 #include <portals/arg-blocks.h>
35
36 /* must be called with state lock held */
37 void lib_md_unlink(nal_cb_t * nal, lib_md_t * md)
38 {
39         if ((md->md_flags & PTL_MD_FLAG_ZOMBIE) == 0) {
40                 /* first unlink attempt... */
41                 lib_me_t *me = md->me;
42
43                 md->md_flags |= PTL_MD_FLAG_ZOMBIE;
44
45                 /* Disassociate from ME (if any), and unlink it if it was created
46                  * with PTL_UNLINK */
47                 if (me != NULL) {
48                         me->md = NULL;
49                         if (me->unlink == PTL_UNLINK)
50                                 lib_me_unlink(nal, me);
51                 }
52
53                 /* emsure all future handle lookups fail */
54                 lib_invalidate_handle(nal, &md->md_lh);
55         }
56
57         if (md->pending != 0) {
58                 CDEBUG(D_NET, "Queueing unlink of md %p\n", md);
59                 return;
60         }
61
62         CDEBUG(D_NET, "Unlinking md %p\n", md);
63
64         if ((md->options & PTL_MD_KIOV) != 0) {
65                 if (nal->cb_unmap_pages != NULL)
66                         nal->cb_unmap_pages (nal, md->md_niov, md->md_iov.kiov, 
67                                              &md->md_addrkey);
68         } else if (nal->cb_unmap != NULL) {
69                 nal->cb_unmap (nal, md->md_niov, md->md_iov.iov, 
70                                &md->md_addrkey);
71         }
72
73         if (md->eq != NULL) {
74                 md->eq->eq_refcount--;
75                 LASSERT (md->eq->eq_refcount >= 0);
76         }
77
78         list_del (&md->md_list);
79         lib_md_free(nal, md);
80 }
81
82 /* must be called with state lock held */
83 static int lib_md_build(nal_cb_t *nal, lib_md_t *new, void *private,
84                         ptl_md_t *md, ptl_handle_eq_t *eqh, int unlink)
85 {
86         lib_eq_t     *eq = NULL;
87         int           rc;
88         int           i;
89
90         /* NB we are passed an allocated, but uninitialised/active md.
91          * if we return success, caller may lib_md_unlink() it.
92          * otherwise caller may only lib_md_free() it.
93          */
94
95         if (!PtlHandleIsEqual (*eqh, PTL_EQ_NONE)) {
96                 eq = ptl_handle2eq(eqh, nal);
97                 if (eq == NULL)
98                         return PTL_EQ_INVALID;
99         }
100
101         /* Must check this _before_ allocation.  Also, note that non-iov
102          * MDs must set md_niov to 0. */
103         LASSERT((md->options & (PTL_MD_IOVEC | PTL_MD_KIOV)) == 0 ||
104                 md->niov <= PTL_MD_MAX_IOV);
105
106         /* This implementation doesn't know how to create START events or
107          * disable END events.  Best to LASSERT our caller is compliant so
108          * we find out quickly...  */
109         LASSERT (PtlHandleIsEqual (*eqh, PTL_EQ_NONE) ||
110                  ((md->options & PTL_MD_EVENT_START_DISABLE) != 0 &&
111                   (md->options & PTL_MD_EVENT_END_DISABLE) == 0));
112
113         if ((md->options & PTL_MD_MAX_SIZE) != 0 && /* max size used */
114             (md->max_size < 0 || md->max_size > md->length)) // illegal max_size
115                 return PTL_MD_INVALID;
116
117         new->me = NULL;
118         new->start = md->start;
119         new->length = md->length;
120         new->offset = 0;
121         new->max_size = md->max_size;
122         new->options = md->options;
123         new->user_ptr = md->user_ptr;
124         new->eq = eq;
125         new->threshold = md->threshold;
126         new->pending = 0;
127         new->md_flags = (unlink == PTL_UNLINK) ? PTL_MD_FLAG_AUTO_UNLINK : 0;
128
129         if ((md->options & PTL_MD_IOVEC) != 0) {
130                 int total_length = 0;
131
132                 if ((md->options & PTL_MD_KIOV) != 0) /* Can't specify both */
133                         return PTL_MD_INVALID; 
134
135                 new->md_niov = md->niov;
136                 
137                 if (nal->cb_read (nal, private, new->md_iov.iov, md->start,
138                                   md->niov * sizeof (new->md_iov.iov[0])))
139                         return PTL_SEGV;
140
141                 for (i = 0; i < new->md_niov; i++) {
142                         /* We take the base address on trust */
143                         if (new->md_iov.iov[i].iov_len <= 0) /* invalid length */
144                                 return PTL_VAL_FAILED;
145
146                         total_length += new->md_iov.iov[i].iov_len;
147                 }
148
149                 if (md->length > total_length)
150                         return PTL_IOV_TOO_SMALL;
151                 
152                 if (nal->cb_map != NULL) {
153                         rc = nal->cb_map (nal, new->md_niov, new->md_iov.iov, 
154                                           &new->md_addrkey);
155                         if (rc != PTL_OK)
156                                 return (rc);
157                 }
158         } else if ((md->options & PTL_MD_KIOV) != 0) {
159 #ifndef __KERNEL__
160                 return PTL_MD_INVALID;
161 #else
162                 int total_length = 0;
163                 
164                 /* Trap attempt to use paged I/O if unsupported early. */
165                 if (nal->cb_send_pages == NULL ||
166                     nal->cb_recv_pages == NULL)
167                         return PTL_MD_INVALID;
168
169                 new->md_niov = md->niov;
170
171                 if (nal->cb_read (nal, private, new->md_iov.kiov, md->start,
172                                   md->niov * sizeof (new->md_iov.kiov[0])))
173                         return PTL_SEGV;
174                 
175                 for (i = 0; i < new->md_niov; i++) {
176                         /* We take the page pointer on trust */
177                         if (new->md_iov.kiov[i].kiov_offset + 
178                             new->md_iov.kiov[i].kiov_len > PAGE_SIZE )
179                                 return PTL_VAL_FAILED; /* invalid length */
180
181                         total_length += new->md_iov.kiov[i].kiov_len;
182                 }
183
184                 if (md->length > total_length)
185                         return PTL_IOV_TOO_SMALL;
186
187                 if (nal->cb_map_pages != NULL) {
188                         rc = nal->cb_map_pages (nal, new->md_niov, new->md_iov.kiov, 
189                                                 &new->md_addrkey);
190                         if (rc != PTL_OK)
191                                 return (rc);
192                 }
193 #endif
194         } else {   /* contiguous */
195                 new->md_niov = 1;
196                 new->md_iov.iov[0].iov_base = md->start;
197                 new->md_iov.iov[0].iov_len = md->length;
198
199                 if (nal->cb_map != NULL) {
200                         rc = nal->cb_map (nal, new->md_niov, new->md_iov.iov, 
201                                           &new->md_addrkey);
202                         if (rc != PTL_OK)
203                                 return (rc);
204                 }
205         } 
206
207         if (eq != NULL)
208                 eq->eq_refcount++;
209
210         /* It's good; let handle2md succeed and add to active mds */
211         lib_initialise_handle (nal, &new->md_lh, PTL_COOKIE_TYPE_MD);
212         list_add (&new->md_list, &nal->ni.ni_active_mds);
213
214         return PTL_OK;
215 }
216
217 /* must be called with state lock held */
218 void lib_md_deconstruct(nal_cb_t * nal, lib_md_t * md, ptl_md_t * new)
219 {
220         /* NB this doesn't copy out all the iov entries so when a
221          * discontiguous MD is copied out, the target gets to know the
222          * original iov pointer (in start) and the number of entries it had
223          * and that's all.
224          */
225         new->start = md->start;
226         new->length = md->length;
227         new->threshold = md->threshold;
228         new->max_size = md->max_size;
229         new->options = md->options;
230         new->user_ptr = md->user_ptr;
231         ptl_eq2handle(&new->eventq, md->eq);
232         new->niov = ((md->options & (PTL_MD_IOVEC | PTL_MD_KIOV)) == 0) ? 0 : md->md_niov;
233 }
234
235 int do_PtlMDAttach(nal_cb_t * nal, void *private, void *v_args, void *v_ret)
236 {
237         /*
238          * Incoming:
239          *      ptl_handle_me_t current_in
240          *      ptl_md_t md_in
241          *      ptl_unlink_t unlink_in
242          *
243          * Outgoing:
244          *      ptl_handle_md_t         * handle_out
245          */
246
247         PtlMDAttach_in *args = v_args;
248         PtlMDAttach_out *ret = v_ret;
249         lib_me_t *me;
250         lib_md_t *md;
251         unsigned long flags;
252
253         if ((args->md_in.options & (PTL_MD_KIOV | PTL_MD_IOVEC)) != 0 &&
254             args->md_in.niov > PTL_MD_MAX_IOV) /* too many fragments */
255                 return (ret->rc = PTL_IOV_TOO_MANY);
256
257         md = lib_md_alloc(nal, &args->md_in);
258         if (md == NULL)
259                 return (ret->rc = PTL_NO_SPACE);
260
261         state_lock(nal, &flags);
262
263         me = ptl_handle2me(&args->me_in, nal);
264         if (me == NULL) {
265                 ret->rc = PTL_ME_INVALID;
266         } else if (me->md != NULL) {
267                 ret->rc = PTL_ME_IN_USE;
268         } else {
269                 ret->rc = lib_md_build(nal, md, private, &args->md_in,
270                                        &args->eq_in, args->unlink_in);
271
272                 if (ret->rc == PTL_OK) {
273                         me->md = md;
274                         md->me = me;
275
276                         ptl_md2handle(&ret->handle_out, md);
277
278                         state_unlock (nal, &flags);
279                         return (PTL_OK);
280                 }
281         }
282
283         lib_md_free (nal, md);
284
285         state_unlock (nal, &flags);
286         return (ret->rc);
287 }
288
289 int do_PtlMDBind(nal_cb_t * nal, void *private, void *v_args, void *v_ret)
290 {
291         /*
292          * Incoming:
293          *      ptl_handle_ni_t ni_in
294          *      ptl_md_t md_in
295          *
296          * Outgoing:
297          *      ptl_handle_md_t         * handle_out
298          */
299
300         PtlMDBind_in *args = v_args;
301         PtlMDBind_out *ret = v_ret;
302         lib_md_t *md;
303         unsigned long flags;
304
305         if ((args->md_in.options & (PTL_MD_KIOV | PTL_MD_IOVEC)) != 0 &&
306             args->md_in.niov > PTL_MD_MAX_IOV) /* too many fragments */
307                 return (ret->rc = PTL_IOV_TOO_MANY);
308
309         md = lib_md_alloc(nal, &args->md_in);
310         if (md == NULL)
311                 return (ret->rc = PTL_NO_SPACE);
312
313         state_lock(nal, &flags);
314
315         ret->rc = lib_md_build(nal, md, private, &args->md_in, 
316                                &args->eq_in, args->unlink_in);
317
318         if (ret->rc == PTL_OK) {
319                 ptl_md2handle(&ret->handle_out, md);
320
321                 state_unlock(nal, &flags);
322                 return (PTL_OK);
323         }
324
325         lib_md_free (nal, md);
326
327         state_unlock(nal, &flags);
328         return (ret->rc);
329 }
330
331 int do_PtlMDUnlink(nal_cb_t * nal, void *private, void *v_args, void *v_ret)
332 {
333         PtlMDUnlink_in  *args = v_args;
334         PtlMDUnlink_out *ret = v_ret;
335         ptl_event_t      ev;
336         lib_md_t        *md;
337         unsigned long    flags;
338
339         state_lock(nal, &flags);
340
341         md = ptl_handle2md(&args->md_in, nal);
342         if (md == NULL) {
343                 state_unlock(nal, &flags);
344                 return (ret->rc = PTL_MD_INVALID);
345         }
346
347         /* If the MD is busy, lib_md_unlink just marks it for deletion, and
348          * when the NAL is done, the completion event flags that the MD was
349          * unlinked.  Otherwise, we enqueue an event now... */
350
351         if (md->eq != NULL &&
352             md->pending == 0) {
353                 memset(&ev, 0, sizeof(ev));
354
355                 ev.type = PTL_EVENT_UNLINK;
356                 ev.ni_fail_type = PTL_OK;
357                 ev.unlinked = 1;
358                 lib_md_deconstruct(nal, md, &ev.mem_desc);
359                 
360                 lib_enq_event_locked(nal, private, md->eq, &ev);
361         }
362
363         lib_md_deconstruct(nal, md, &ret->status_out);
364         lib_md_unlink(nal, md);
365         ret->rc = PTL_OK;
366
367         state_unlock(nal, &flags);
368
369         return (PTL_OK);
370 }
371
372 int do_PtlMDUpdate_internal(nal_cb_t * nal, void *private, void *v_args,
373                             void *v_ret)
374 {
375         /*
376          * Incoming:
377          *      ptl_handle_md_t md_in
378          *      ptl_md_t                * old_inout
379          *      ptl_md_t                * new_inout
380          *      ptl_handle_eq_t testq_in
381          *      ptl_seq_t               sequence_in
382          *
383          * Outgoing:
384          *      ptl_md_t                * old_inout
385          *      ptl_md_t                * new_inout
386          */
387         PtlMDUpdate_internal_in *args = v_args;
388         PtlMDUpdate_internal_out *ret = v_ret;
389         lib_md_t *md;
390         lib_eq_t *test_eq = NULL;
391         ptl_md_t *new = &args->new_inout;
392         unsigned long flags;
393
394         state_lock(nal, &flags);
395
396         md = ptl_handle2md(&args->md_in, nal);
397         if (md == NULL) {
398                  ret->rc = PTL_MD_INVALID;
399                  goto out;
400         }
401
402         if (args->old_inout_valid)
403                 lib_md_deconstruct(nal, md, &ret->old_inout);
404
405         if (!args->new_inout_valid) {
406                 ret->rc = PTL_OK;
407                 goto out;
408         }
409
410         /* XXX fttb, the new MD must be the same type wrt fragmentation */
411         if (((new->options ^ md->options) & 
412              (PTL_MD_IOVEC | PTL_MD_KIOV)) != 0) {
413                 ret->rc = PTL_MD_INVALID;
414                 goto out;
415         }
416
417         if (new->niov > md->md_niov) {
418                 ret->rc = PTL_IOV_TOO_MANY;
419                 goto out;
420         } 
421
422         if (new->niov < md->md_niov) {
423                 ret->rc = PTL_IOV_TOO_SMALL;
424                 goto out;
425         }
426
427         if (!PtlHandleIsEqual (args->testq_in, PTL_EQ_NONE)) {
428                 test_eq = ptl_handle2eq(&args->testq_in, nal);
429                 if (test_eq == NULL) {
430                         ret->rc = PTL_EQ_INVALID;
431                         goto out;
432                 }
433         }
434
435         if (md->pending != 0) {
436                         ret->rc = PTL_MD_NO_UPDATE;
437                         goto out;
438         }
439
440         if (test_eq == NULL ||
441             test_eq->sequence == args->sequence_in) {
442                 lib_me_t *me = md->me;
443                 int       unlink = (md->md_flags & PTL_MD_FLAG_AUTO_UNLINK) ?
444                                    PTL_UNLINK : PTL_RETAIN;
445
446                 // #warning this does not track eq refcounts properly 
447                 ret->rc = lib_md_build(nal, md, private,
448                                        new, &new->eventq, unlink);
449
450                 md->me = me;
451         } else {
452                 ret->rc = PTL_MD_NO_UPDATE;
453         }
454
455  out:
456         state_unlock(nal, &flags);
457         return (ret->rc);
458 }