Whamcloud - gitweb
land b_eq on HEAD
[fs/lustre-release.git] / lustre / portals / portals / lib-md.c
1 /* -*- mode: c; c-basic-offset: 8; indent-tabs-mode: nil; -*-
2  * vim:expandtab:shiftwidth=8:tabstop=8:
3  *
4  * lib/lib-md.c
5  * Memory Descriptor management routines
6  *
7  *  Copyright (c) 2001-2003 Cluster File Systems, Inc.
8  *  Copyright (c) 2001-2002 Sandia National Laboratories
9  *
10  *   This file is part of Lustre, http://www.sf.net/projects/lustre/
11  *
12  *   Lustre is free software; you can redistribute it and/or
13  *   modify it under the terms of version 2 of the GNU General Public
14  *   License as published by the Free Software Foundation.
15  *
16  *   Lustre is distributed in the hope that it will be useful,
17  *   but WITHOUT ANY WARRANTY; without even the implied warranty of
18  *   MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
19  *   GNU General Public License for more details.
20  *
21  *   You should have received a copy of the GNU General Public License
22  *   along with Lustre; if not, write to the Free Software
23  *   Foundation, Inc., 675 Mass Ave, Cambridge, MA 02139, USA.
24  */
25
26 #ifndef __KERNEL__
27 # include <stdio.h>
28 #else
29 # define DEBUG_SUBSYSTEM S_PORTALS
30 # include <linux/kp30.h>
31 #endif
32
33 #include <portals/lib-p30.h>
34 #include <portals/arg-blocks.h>
35
36 /*
37  * must be called with state lock held
38  */
39 void lib_md_unlink(nal_cb_t * nal, lib_md_t * md)
40 {
41         lib_me_t *me = md->me;
42
43         if (md->pending != 0) {
44                 CDEBUG(D_NET, "Queueing unlink of md %p\n", md);
45                 md->md_flags |= PTL_MD_FLAG_UNLINK;
46                 return;
47         }
48
49         CDEBUG(D_NET, "Unlinking md %p\n", md);
50
51         if ((md->options & PTL_MD_KIOV) != 0) {
52                 if (nal->cb_unmap_pages != NULL)
53                         nal->cb_unmap_pages (nal, md->md_niov, md->md_iov.kiov, 
54                                              &md->md_addrkey);
55         } else if (nal->cb_unmap != NULL)
56                 nal->cb_unmap (nal, md->md_niov, md->md_iov.iov, 
57                                &md->md_addrkey);
58
59         if (me) {
60                 me->md = NULL;
61                 if (me->unlink == PTL_UNLINK)
62                         lib_me_unlink(nal, me);
63         }
64
65         if (md->eq != NULL)
66         {
67                 md->eq->eq_refcount--;
68                 LASSERT (md->eq->eq_refcount >= 0);
69         }
70
71         lib_invalidate_handle (nal, &md->md_lh);
72         list_del (&md->md_list);
73         lib_md_free(nal, md);
74 }
75
76 /* must be called with state lock held */
77 static int lib_md_build(nal_cb_t *nal, lib_md_t *new, void *private,
78                         ptl_md_t *md, ptl_handle_eq_t *eqh, int unlink)
79 {
80         const int     max_size_opts = PTL_MD_AUTO_UNLINK |
81                                       PTL_MD_MAX_SIZE;
82         lib_eq_t     *eq = NULL;
83         int           rc;
84         int           i;
85
86         /* NB we are passed an allocated, but uninitialised/active md.
87          * if we return success, caller may lib_md_unlink() it.
88          * otherwise caller may only lib_md_free() it.
89          */
90
91         if (!PtlHandleEqual (*eqh, PTL_EQ_NONE)) {
92                 eq = ptl_handle2eq(eqh, nal);
93                 if (eq == NULL)
94                         return PTL_INV_EQ;
95         }
96
97         /* Must check this _before_ allocation.  Also, note that non-iov
98          * MDs must set md_niov to 0. */
99         LASSERT((md->options & (PTL_MD_IOV | PTL_MD_KIOV)) == 0 ||
100                 md->niov <= PTL_MD_MAX_IOV);
101
102         if ((md->options & max_size_opts) != 0 && /* max size used */
103             (md->max_size < 0 || md->max_size > md->length)) // illegal max_size
104                 return PTL_INV_MD;
105
106         new->me = NULL;
107         new->start = md->start;
108         new->length = md->length;
109         new->offset = 0;
110         new->max_size = md->max_size;
111         new->unlink = unlink;
112         new->options = md->options;
113         new->user_ptr = md->user_ptr;
114         new->eq = eq;
115         new->threshold = md->threshold;
116         new->pending = 0;
117         new->md_flags = 0;
118
119         if ((md->options & PTL_MD_IOV) != 0) {
120                 int total_length = 0;
121
122                 if ((md->options & PTL_MD_KIOV) != 0) /* Can't specify both */
123                         return PTL_INV_MD; 
124
125                 new->md_niov = md->niov;
126                 
127                 if (nal->cb_read (nal, private, new->md_iov.iov, md->start,
128                                   md->niov * sizeof (new->md_iov.iov[0])))
129                         return PTL_SEGV;
130
131                 for (i = 0; i < new->md_niov; i++) {
132                         /* We take the base address on trust */
133                         if (new->md_iov.iov[i].iov_len <= 0) /* invalid length */
134                                 return PTL_VAL_FAILED;
135
136                         total_length += new->md_iov.iov[i].iov_len;
137                 }
138
139                 if (md->length > total_length)
140                         return PTL_IOV_TOO_SMALL;
141                 
142                 if (nal->cb_map != NULL) {
143                         rc = nal->cb_map (nal, new->md_niov, new->md_iov.iov, 
144                                           &new->md_addrkey);
145                         if (rc != PTL_OK)
146                                 return (rc);
147                 }
148         } else if ((md->options & PTL_MD_KIOV) != 0) {
149 #ifndef __KERNEL__
150                 return PTL_INV_MD;
151 #else
152                 int total_length = 0;
153                 
154                 /* Trap attempt to use paged I/O if unsupported early. */
155                 if (nal->cb_send_pages == NULL ||
156                     nal->cb_recv_pages == NULL)
157                         return PTL_INV_MD;
158
159                 new->md_niov = md->niov;
160
161                 if (nal->cb_read (nal, private, new->md_iov.kiov, md->start,
162                                   md->niov * sizeof (new->md_iov.kiov[0])))
163                         return PTL_SEGV;
164                 
165                 for (i = 0; i < new->md_niov; i++) {
166                         /* We take the page pointer on trust */
167                         if (new->md_iov.kiov[i].kiov_offset + 
168                             new->md_iov.kiov[i].kiov_len > PAGE_SIZE )
169                                 return PTL_VAL_FAILED; /* invalid length */
170
171                         total_length += new->md_iov.kiov[i].kiov_len;
172                 }
173
174                 if (md->length > total_length)
175                         return PTL_IOV_TOO_SMALL;
176
177                 if (nal->cb_map_pages != NULL) {
178                         rc = nal->cb_map_pages (nal, new->md_niov, new->md_iov.kiov, 
179                                                 &new->md_addrkey);
180                         if (rc != PTL_OK)
181                                 return (rc);
182                 }
183 #endif
184         } else {   /* contiguous */
185                 new->md_niov = 1;
186                 new->md_iov.iov[0].iov_base = md->start;
187                 new->md_iov.iov[0].iov_len = md->length;
188
189                 if (nal->cb_map != NULL) {
190                         rc = nal->cb_map (nal, new->md_niov, new->md_iov.iov, 
191                                           &new->md_addrkey);
192                         if (rc != PTL_OK)
193                                 return (rc);
194                 }
195         } 
196
197         if (eq != NULL)
198                 eq->eq_refcount++;
199
200         /* It's good; let handle2md succeed and add to active mds */
201         lib_initialise_handle (nal, &new->md_lh, PTL_COOKIE_TYPE_MD);
202         list_add (&new->md_list, &nal->ni.ni_active_mds);
203
204         return PTL_OK;
205 }
206
207 /* must be called with state lock held */
208 void lib_md_deconstruct(nal_cb_t * nal, lib_md_t * md, ptl_md_t * new)
209 {
210         /* NB this doesn't copy out all the iov entries so when a
211          * discontiguous MD is copied out, the target gets to know the
212          * original iov pointer (in start) and the number of entries it had
213          * and that's all.
214          */
215         new->start = md->start;
216         new->length = md->length;
217         new->threshold = md->threshold;
218         new->max_size = md->max_size;
219         new->options = md->options;
220         new->user_ptr = md->user_ptr;
221         ptl_eq2handle(&new->eventq, md->eq);
222         new->niov = ((md->options & (PTL_MD_IOV | PTL_MD_KIOV)) == 0) ? 0 : md->md_niov;
223 }
224
225 int do_PtlMDAttach(nal_cb_t * nal, void *private, void *v_args, void *v_ret)
226 {
227         /*
228          * Incoming:
229          *      ptl_handle_me_t current_in
230          *      ptl_md_t md_in
231          *      ptl_unlink_t unlink_in
232          *
233          * Outgoing:
234          *      ptl_handle_md_t         * handle_out
235          */
236
237         PtlMDAttach_in *args = v_args;
238         PtlMDAttach_out *ret = v_ret;
239         lib_me_t *me;
240         lib_md_t *md;
241         unsigned long flags;
242
243         if ((args->md_in.options & (PTL_MD_KIOV | PTL_MD_IOV)) != 0 &&
244             args->md_in.niov > PTL_MD_MAX_IOV) /* too many fragments */
245                 return (ret->rc = PTL_IOV_TOO_MANY);
246
247         md = lib_md_alloc(nal, &args->md_in);
248         if (md == NULL)
249                 return (ret->rc = PTL_NOSPACE);
250
251         state_lock(nal, &flags);
252
253         me = ptl_handle2me(&args->me_in, nal);
254         if (me == NULL) {
255                 ret->rc = PTL_INV_ME;
256         } else if (me->md != NULL) {
257                 ret->rc = PTL_INUSE;
258         } else {
259                 ret->rc = lib_md_build(nal, md, private, &args->md_in,
260                                        &args->eq_in, args->unlink_in);
261
262                 if (ret->rc == PTL_OK) {
263                         me->md = md;
264                         md->me = me;
265
266                         ptl_md2handle(&ret->handle_out, md);
267
268                         state_unlock (nal, &flags);
269                         return (PTL_OK);
270                 }
271         }
272
273         lib_md_free (nal, md);
274
275         state_unlock (nal, &flags);
276         return (ret->rc);
277 }
278
279 int do_PtlMDBind(nal_cb_t * nal, void *private, void *v_args, void *v_ret)
280 {
281         /*
282          * Incoming:
283          *      ptl_handle_ni_t ni_in
284          *      ptl_md_t md_in
285          *
286          * Outgoing:
287          *      ptl_handle_md_t         * handle_out
288          */
289
290         PtlMDBind_in *args = v_args;
291         PtlMDBind_out *ret = v_ret;
292         lib_md_t *md;
293         unsigned long flags;
294
295         if ((args->md_in.options & (PTL_MD_KIOV | PTL_MD_IOV)) != 0 &&
296             args->md_in.niov > PTL_MD_MAX_IOV) /* too many fragments */
297                 return (ret->rc = PTL_IOV_TOO_MANY);
298
299         md = lib_md_alloc(nal, &args->md_in);
300         if (md == NULL)
301                 return (ret->rc = PTL_NOSPACE);
302
303         state_lock(nal, &flags);
304
305         ret->rc = lib_md_build(nal, md, private,
306                                &args->md_in, &args->eq_in, PTL_UNLINK);
307
308         if (ret->rc == PTL_OK) {
309                 ptl_md2handle(&ret->handle_out, md);
310
311                 state_unlock(nal, &flags);
312                 return (PTL_OK);
313         }
314
315         lib_md_free (nal, md);
316
317         state_unlock(nal, &flags);
318         return (ret->rc);
319 }
320
321 int do_PtlMDUnlink(nal_cb_t * nal, void *private, void *v_args, void *v_ret)
322 {
323         PtlMDUnlink_in  *args = v_args;
324         PtlMDUnlink_out *ret = v_ret;
325         ptl_event_t      ev;
326         lib_md_t        *md;
327         unsigned long    flags;
328
329         state_lock(nal, &flags);
330
331         md = ptl_handle2md(&args->md_in, nal);
332         if (md == NULL) {
333                 state_unlock(nal, &flags);
334                 return (ret->rc = PTL_INV_MD);
335         }
336
337         /* If the MD is busy, lib_md_unlink just marks it for deletion, and
338          * when the NAL is done, the completion event flags that the MD was
339          * unlinked.  Otherwise, we enqueue an event now... */
340
341         if (md->eq != NULL &&
342             md->pending == 0) {
343                 memset(&ev, 0, sizeof(ev));
344
345                 ev.type = PTL_EVENT_UNLINK;
346                 ev.status = PTL_OK;
347                 ev.unlinked = 1;
348                 lib_md_deconstruct(nal, md, &ev.mem_desc);
349                 
350                 lib_enq_event_locked(nal, private, md->eq, &ev);
351         }
352
353         lib_md_deconstruct(nal, md, &ret->status_out);
354         lib_md_unlink(nal, md);
355         ret->rc = PTL_OK;
356
357         state_unlock(nal, &flags);
358
359         return (PTL_OK);
360 }
361
362 int do_PtlMDUpdate_internal(nal_cb_t * nal, void *private, void *v_args,
363                             void *v_ret)
364 {
365         /*
366          * Incoming:
367          *      ptl_handle_md_t md_in
368          *      ptl_md_t                * old_inout
369          *      ptl_md_t                * new_inout
370          *      ptl_handle_eq_t testq_in
371          *      ptl_seq_t               sequence_in
372          *
373          * Outgoing:
374          *      ptl_md_t                * old_inout
375          *      ptl_md_t                * new_inout
376          */
377         PtlMDUpdate_internal_in *args = v_args;
378         PtlMDUpdate_internal_out *ret = v_ret;
379         lib_md_t *md;
380         lib_eq_t *test_eq = NULL;
381         ptl_md_t *new = &args->new_inout;
382         unsigned long flags;
383
384         state_lock(nal, &flags);
385
386         md = ptl_handle2md(&args->md_in, nal);
387         if (md == NULL) {
388                  ret->rc = PTL_INV_MD;
389                  goto out;
390         }
391
392         if (args->old_inout_valid)
393                 lib_md_deconstruct(nal, md, &ret->old_inout);
394
395         if (!args->new_inout_valid) {
396                 ret->rc = PTL_OK;
397                 goto out;
398         }
399
400         /* XXX fttb, the new MD must be the same type wrt fragmentation */
401         if (((new->options ^ md->options) & 
402              (PTL_MD_IOV | PTL_MD_KIOV)) != 0) {
403                 ret->rc = PTL_INV_MD;
404                 goto out;
405         }
406
407         if (new->niov > md->md_niov) {
408                 ret->rc = PTL_IOV_TOO_MANY;
409                 goto out;
410         } 
411
412         if (new->niov < md->md_niov) {
413                 ret->rc = PTL_IOV_TOO_SMALL;
414                 goto out;
415         }
416
417         if (!PtlHandleEqual (args->testq_in, PTL_EQ_NONE)) {
418                 test_eq = ptl_handle2eq(&args->testq_in, nal);
419                 if (test_eq == NULL) {
420                         ret->rc = PTL_INV_EQ;
421                         goto out;
422                 }
423         }
424
425         if (md->pending != 0) {
426                         ret->rc = PTL_NOUPDATE;
427                         goto out;
428         }
429
430         if (test_eq == NULL ||
431             test_eq->sequence == args->sequence_in) {
432                 lib_me_t *me = md->me;
433
434                 // #warning this does not track eq refcounts properly 
435                 ret->rc = lib_md_build(nal, md, private,
436                                        new, &new->eventq, md->unlink);
437
438                 md->me = me;
439         } else {
440                 ret->rc = PTL_NOUPDATE;
441         }
442
443  out:
444         state_unlock(nal, &flags);
445         return (ret->rc);
446 }