Whamcloud - gitweb
i=liang,b=13065:
[fs/lustre-release.git] / lnet / lnet / lib-md.c
1 /* -*- mode: c; c-basic-offset: 8; indent-tabs-mode: nil; -*-
2  * vim:expandtab:shiftwidth=8:tabstop=8:
3  *
4  * GPL HEADER START
5  *
6  * DO NOT ALTER OR REMOVE COPYRIGHT NOTICES OR THIS FILE HEADER.
7  *
8  * This program is free software; you can redistribute it and/or modify
9  * it under the terms of the GNU General Public License version 2 only,
10  * as published by the Free Software Foundation.
11  *
12  * This program is distributed in the hope that it will be useful, but
13  * WITHOUT ANY WARRANTY; without even the implied warranty of
14  * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
15  * General Public License version 2 for more details (a copy is included
16  * in the LICENSE file that accompanied this code).
17  *
18  * You should have received a copy of the GNU General Public License
19  * version 2 along with this program; If not, see
20  * http://www.sun.com/software/products/lustre/docs/GPLv2.pdf
21  *
22  * Please contact Sun Microsystems, Inc., 4150 Network Circle, Santa Clara,
23  * CA 95054 USA or visit www.sun.com if you need additional information or
24  * have any questions.
25  *
26  * GPL HEADER END
27  */
28 /*
29  * Copyright  2008 Sun Microsystems, Inc. All rights reserved
30  * Use is subject to license terms.
31  */
32 /*
33  * This file is part of Lustre, http://www.lustre.org/
34  * Lustre is a trademark of Sun Microsystems, Inc.
35  *
36  * lnet/lnet/lib-md.c
37  *
38  * Memory Descriptor management routines
39  */
40
41 #define DEBUG_SUBSYSTEM S_LNET
42
43 #include <lnet/lib-lnet.h>
44
45 /* must be called with LNET_LOCK held */
46 void
47 lnet_md_unlink(lnet_libmd_t *md)
48 {
49         if ((md->md_flags & LNET_MD_FLAG_ZOMBIE) == 0) {
50                 /* first unlink attempt... */
51                 lnet_me_t *me = md->md_me;
52
53                 md->md_flags |= LNET_MD_FLAG_ZOMBIE;
54
55                 /* Disassociate from ME (if any), and unlink it if it was created
56                  * with LNET_UNLINK */
57                 if (me != NULL) {
58                         md->md_me = NULL;
59                         me->me_md = NULL;
60                         if (me->me_unlink == LNET_UNLINK)
61                                 lnet_me_unlink(me);
62                 }
63
64                 /* ensure all future handle lookups fail */
65                 lnet_invalidate_handle(&md->md_lh);
66         }
67
68         if (md->md_refcount != 0) {
69                 CDEBUG(D_NET, "Queueing unlink of md %p\n", md);
70                 return;
71         }
72
73         CDEBUG(D_NET, "Unlinking md %p\n", md);
74
75         if (md->md_eq != NULL) {
76                 md->md_eq->eq_refcount--;
77                 LASSERT (md->md_eq->eq_refcount >= 0);
78         }
79
80         LASSERT (!list_empty(&md->md_list));
81         list_del_init (&md->md_list);
82         lnet_md_free(md);
83 }
84
85 /* must be called with LNET_LOCK held */
86 static int
87 lib_md_build(lnet_libmd_t *lmd, lnet_md_t *umd, int unlink)
88 {
89         lnet_eq_t   *eq = NULL;
90         int          i;
91         unsigned int niov;
92         int          total_length = 0;
93
94         /* NB we are passed an allocated, but uninitialised/active md.
95          * if we return success, caller may lnet_md_unlink() it.
96          * otherwise caller may only lnet_md_free() it.
97          */
98
99         if (!LNetHandleIsInvalid (umd->eq_handle)) {
100                 eq = lnet_handle2eq(&umd->eq_handle);
101                 if (eq == NULL)
102                         return -ENOENT;
103         }
104
105         /* This implementation doesn't know how to create START events or
106          * disable END events.  Best to LASSERT our caller is compliant so
107          * we find out quickly...  */
108         /*  TODO - reevaluate what should be here in light of 
109          * the removal of the start and end events
110          * maybe there we shouldn't even allow LNET_EQ_NONE!)
111         LASSERT (eq == NULL);
112          */
113
114         lmd->md_me = NULL;
115         lmd->md_start = umd->start;
116         lmd->md_offset = 0;
117         lmd->md_max_size = umd->max_size;
118         lmd->md_options = umd->options;
119         lmd->md_user_ptr = umd->user_ptr;
120         lmd->md_eq = eq;
121         lmd->md_threshold = umd->threshold;
122         lmd->md_refcount = 0;
123         lmd->md_flags = (unlink == LNET_UNLINK) ? LNET_MD_FLAG_AUTO_UNLINK : 0;
124
125         if ((umd->options & LNET_MD_IOVEC) != 0) {
126
127                 if ((umd->options & LNET_MD_KIOV) != 0) /* Can't specify both */
128                         return -EINVAL;
129
130                 lmd->md_niov = niov = umd->length;
131                 memcpy(lmd->md_iov.iov, umd->start,
132                        niov * sizeof (lmd->md_iov.iov[0]));
133
134                 for (i = 0; i < (int)niov; i++) {
135                         /* We take the base address on trust */
136                         if (lmd->md_iov.iov[i].iov_len <= 0) /* invalid length */
137                                 return -EINVAL;
138
139                         total_length += lmd->md_iov.iov[i].iov_len;
140                 }
141
142                 lmd->md_length = total_length;
143
144                 if ((umd->options & LNET_MD_MAX_SIZE) != 0 && /* max size used */
145                     (umd->max_size < 0 ||
146                      umd->max_size > total_length)) // illegal max_size
147                         return -EINVAL;
148
149         } else if ((umd->options & LNET_MD_KIOV) != 0) {
150 #ifndef __KERNEL__
151                 return -EINVAL;
152 #else
153                 lmd->md_niov = niov = umd->length;
154                 memcpy(lmd->md_iov.kiov, umd->start,
155                        niov * sizeof (lmd->md_iov.kiov[0]));
156
157                 for (i = 0; i < (int)niov; i++) {
158                         /* We take the page pointer on trust */
159                         if (lmd->md_iov.kiov[i].kiov_offset +
160                             lmd->md_iov.kiov[i].kiov_len > CFS_PAGE_SIZE )
161                                 return -EINVAL; /* invalid length */
162
163                         total_length += lmd->md_iov.kiov[i].kiov_len;
164                 }
165
166                 lmd->md_length = total_length;
167
168                 if ((umd->options & LNET_MD_MAX_SIZE) != 0 && /* max size used */
169                     (umd->max_size < 0 ||
170                      umd->max_size > total_length)) // illegal max_size
171                         return -EINVAL;
172 #endif
173         } else {   /* contiguous */
174                 lmd->md_length = umd->length;
175                 lmd->md_niov = niov = 1;
176                 lmd->md_iov.iov[0].iov_base = umd->start;
177                 lmd->md_iov.iov[0].iov_len = umd->length;
178
179                 if ((umd->options & LNET_MD_MAX_SIZE) != 0 && /* max size used */
180                     (umd->max_size < 0 ||
181                      umd->max_size > (int)umd->length)) // illegal max_size
182                         return -EINVAL;
183         }
184
185         if (eq != NULL)
186                 eq->eq_refcount++;
187
188         /* It's good; let handle2md succeed and add to active mds */
189         lnet_initialise_handle (&lmd->md_lh, LNET_COOKIE_TYPE_MD);
190         LASSERT (list_empty(&lmd->md_list));
191         list_add (&lmd->md_list, &the_lnet.ln_active_mds);
192
193         return 0;
194 }
195
196 /* must be called with LNET_LOCK held */
197 void
198 lnet_md_deconstruct(lnet_libmd_t *lmd, lnet_md_t *umd)
199 {
200         /* NB this doesn't copy out all the iov entries so when a
201          * discontiguous MD is copied out, the target gets to know the
202          * original iov pointer (in start) and the number of entries it had
203          * and that's all.
204          */
205         umd->start = lmd->md_start;
206         umd->length = ((lmd->md_options & (LNET_MD_IOVEC | LNET_MD_KIOV)) == 0) ?
207                       lmd->md_length : lmd->md_niov;
208         umd->threshold = lmd->md_threshold;
209         umd->max_size = lmd->md_max_size;
210         umd->options = lmd->md_options;
211         umd->user_ptr = lmd->md_user_ptr;
212         lnet_eq2handle(&umd->eq_handle, lmd->md_eq);
213 }
214
215 int
216 LNetMDAttach(lnet_handle_me_t meh, lnet_md_t umd,
217              lnet_unlink_t unlink, lnet_handle_md_t *handle)
218 {
219         lnet_me_t     *me;
220         lnet_libmd_t  *md;
221         int            rc;
222
223         LASSERT (the_lnet.ln_init);
224         LASSERT (the_lnet.ln_refcount > 0);
225
226         if ((umd.options & (LNET_MD_KIOV | LNET_MD_IOVEC)) != 0 &&
227             umd.length > LNET_MAX_IOV) /* too many fragments */
228                 return -EINVAL;
229
230         if ((umd.options & (LNET_MD_OP_GET | LNET_MD_OP_PUT)) == 0)
231                 return -EINVAL;
232
233         md = lnet_md_alloc(&umd);
234         if (md == NULL)
235                 return -ENOMEM;
236
237         LNET_LOCK();
238
239         me = lnet_handle2me(&meh);
240         if (me == NULL) {
241                 rc = -ENOENT;
242         } else if (me->me_md != NULL) {
243                 rc = -EBUSY;
244         } else {
245                 rc = lib_md_build(md, &umd, unlink);
246                 if (rc == 0) {
247                         the_lnet.ln_portals[me->me_portal].ptl_ml_version++;
248
249                         me->me_md = md;
250                         md->md_me = me;
251
252                         lnet_md2handle(handle, md);
253
254                         /* check if this MD matches any blocked msgs */
255                         lnet_match_blocked_msg(md);   /* expects LNET_LOCK held */
256
257                         LNET_UNLOCK();
258                         return (0);
259                 }
260         }
261
262         lnet_md_free (md);
263
264         LNET_UNLOCK();
265         return (rc);
266 }
267
268 int
269 LNetMDBind(lnet_md_t umd, lnet_unlink_t unlink, lnet_handle_md_t *handle)
270 {
271         lnet_libmd_t  *md;
272         int            rc;
273
274         LASSERT (the_lnet.ln_init);
275         LASSERT (the_lnet.ln_refcount > 0);
276
277         if ((umd.options & (LNET_MD_KIOV | LNET_MD_IOVEC)) != 0 &&
278             umd.length > LNET_MAX_IOV) /* too many fragments */
279                 return -EINVAL;
280
281         if ((umd.options & (LNET_MD_OP_GET | LNET_MD_OP_PUT)) != 0)
282                 return -EINVAL;
283
284         md = lnet_md_alloc(&umd);
285         if (md == NULL)
286                 return -ENOMEM;
287
288         LNET_LOCK();
289
290         rc = lib_md_build(md, &umd, unlink);
291
292         if (rc == 0) {
293                 lnet_md2handle(handle, md);
294
295                 LNET_UNLOCK();
296                 return (0);
297         }
298
299         lnet_md_free (md);
300
301         LNET_UNLOCK();
302         return (rc);
303 }
304
305 int
306 LNetMDUnlink (lnet_handle_md_t mdh)
307 {
308         lnet_event_t     ev;
309         lnet_libmd_t    *md;
310
311         LASSERT (the_lnet.ln_init);
312         LASSERT (the_lnet.ln_refcount > 0);
313
314         LNET_LOCK();
315
316         md = lnet_handle2md(&mdh);
317         if (md == NULL) {
318                 LNET_UNLOCK();
319                 return -ENOENT;
320         }
321
322         /* If the MD is busy, lnet_md_unlink just marks it for deletion, and
323          * when the NAL is done, the completion event flags that the MD was
324          * unlinked.  Otherwise, we enqueue an event now... */
325
326         if (md->md_eq != NULL &&
327             md->md_refcount == 0) {
328                 lnet_build_unlink_event(md, &ev);
329                 lnet_enq_event_locked(md->md_eq, &ev);
330         }
331
332         lnet_md_unlink(md);
333
334         LNET_UNLOCK();
335         return 0;
336 }