Whamcloud - gitweb
LU-12140 lnet: adds checking msg len
[fs/lustre-release.git] / lnet / lnet / lib-md.c
index 821178d..7737744 100644 (file)
  *
  * You should have received a copy of the GNU General Public License
  * version 2 along with this program; If not, see
- * http://www.sun.com/software/products/lustre/docs/GPLv2.pdf
- *
- * Please contact Sun Microsystems, Inc., 4150 Network Circle, Santa Clara,
- * CA 95054 USA or visit www.sun.com if you need additional information or
- * have any questions.
+ * http://www.gnu.org/licenses/gpl-2.0.html
  *
  * GPL HEADER END
  */
 /*
  * Copyright (c) 2003, 2010, Oracle and/or its affiliates. All rights reserved.
  * Use is subject to license terms.
+ *
+ * Copyright (c) 2012, 2017, Intel Corporation.
  */
 /*
  * This file is part of Lustre, http://www.lustre.org/
 
 #include <lnet/lib-lnet.h>
 
-/* must be called with LNET_LOCK held */
+/* must be called with lnet_res_lock held */
 void
-lnet_md_unlink(lnet_libmd_t *md)
+lnet_md_unlink(struct lnet_libmd *md)
 {
-        if ((md->md_flags & LNET_MD_FLAG_ZOMBIE) == 0) {
-                /* first unlink attempt... */
-                lnet_me_t *me = md->md_me;
-
-                md->md_flags |= LNET_MD_FLAG_ZOMBIE;
-
-                /* Disassociate from ME (if any), and unlink it if it was created
-                 * with LNET_UNLINK */
-                if (me != NULL) {
-                        md->md_me = NULL;
-                        me->me_md = NULL;
-                        if (me->me_unlink == LNET_UNLINK)
-                                lnet_me_unlink(me);
-                }
-
-                /* ensure all future handle lookups fail */
+       if ((md->md_flags & LNET_MD_FLAG_ZOMBIE) == 0) {
+               /* first unlink attempt... */
+               struct lnet_me *me = md->md_me;
+
+               md->md_flags |= LNET_MD_FLAG_ZOMBIE;
+
+               /* Disassociate from ME (if any), and unlink it if it was created
+                * with LNET_UNLINK */
+               if (me != NULL) {
+                       /* detach MD from portal */
+                       lnet_ptl_detach_md(me, md);
+                       if (me->me_unlink == LNET_UNLINK)
+                               lnet_me_unlink(me);
+               }
+
+               /* ensure all future handle lookups fail */
                lnet_res_lh_invalidate(&md->md_lh);
-        }
+       }
+
+       if (md->md_refcount != 0) {
+               CDEBUG(D_NET, "Queueing unlink of md %p\n", md);
+               return;
+       }
 
-        if (md->md_refcount != 0) {
-                CDEBUG(D_NET, "Queueing unlink of md %p\n", md);
-                return;
-        }
+       CDEBUG(D_NET, "Unlinking md %p\n", md);
 
-        CDEBUG(D_NET, "Unlinking md %p\n", md);
+       if (md->md_eq != NULL) {
+               int     cpt = lnet_cpt_of_cookie(md->md_lh.lh_cookie);
 
-        if (md->md_eq != NULL) {
-                md->md_eq->eq_refcount--;
-                LASSERT (md->md_eq->eq_refcount >= 0);
-        }
+               LASSERT(*md->md_eq->eq_refs[cpt] > 0);
+               (*md->md_eq->eq_refs[cpt])--;
+       }
 
-        LASSERT (!cfs_list_empty(&md->md_list));
-        cfs_list_del_init (&md->md_list);
-       lnet_md_free_locked(md);
+       LASSERT(!list_empty(&md->md_list));
+       list_del_init(&md->md_list);
+       lnet_md_free(md);
 }
 
-/* must be called with LNET_LOCK held */
-static int
-lib_md_build(lnet_libmd_t *lmd, lnet_md_t *umd, int unlink)
+struct page *
+lnet_kvaddr_to_page(unsigned long vaddr)
 {
-        lnet_eq_t   *eq = NULL;
-        int          i;
-        unsigned int niov;
-        int          total_length = 0;
-
-        /* NB we are passed an allocated, but uninitialised/active md.
-         * if we return success, caller may lnet_md_unlink() it.
-         * otherwise caller may only lnet_md_free() it.
-         */
-
-        if (!LNetHandleIsInvalid (umd->eq_handle)) {
-                eq = lnet_handle2eq(&umd->eq_handle);
-                if (eq == NULL)
-                        return -ENOENT;
-        }
-
-        /* This implementation doesn't know how to create START events or
-         * disable END events.  Best to LASSERT our caller is compliant so
-         * we find out quickly...  */
-        /*  TODO - reevaluate what should be here in light of 
-         * the removal of the start and end events
-         * maybe there we shouldn't even allow LNET_EQ_NONE!)
-        LASSERT (eq == NULL);
-         */
-
-        lmd->md_me = NULL;
-        lmd->md_start = umd->start;
-        lmd->md_offset = 0;
-        lmd->md_max_size = umd->max_size;
-        lmd->md_options = umd->options;
-        lmd->md_user_ptr = umd->user_ptr;
-        lmd->md_eq = eq;
-        lmd->md_threshold = umd->threshold;
-        lmd->md_refcount = 0;
-        lmd->md_flags = (unlink == LNET_UNLINK) ? LNET_MD_FLAG_AUTO_UNLINK : 0;
-
-        if ((umd->options & LNET_MD_IOVEC) != 0) {
-
-                if ((umd->options & LNET_MD_KIOV) != 0) /* Can't specify both */
-                        return -EINVAL;
-
-                lmd->md_niov = niov = umd->length;
-                memcpy(lmd->md_iov.iov, umd->start,
-                       niov * sizeof (lmd->md_iov.iov[0]));
-
-                for (i = 0; i < (int)niov; i++) {
-                        /* We take the base address on trust */
-                        if (lmd->md_iov.iov[i].iov_len <= 0) /* invalid length */
-                                return -EINVAL;
-
-                        total_length += lmd->md_iov.iov[i].iov_len;
-                }
-
-                lmd->md_length = total_length;
-
-                if ((umd->options & LNET_MD_MAX_SIZE) != 0 && /* max size used */
-                    (umd->max_size < 0 ||
-                     umd->max_size > total_length)) // illegal max_size
-                        return -EINVAL;
-
-        } else if ((umd->options & LNET_MD_KIOV) != 0) {
-#ifndef __KERNEL__
-                return -EINVAL;
+       if (is_vmalloc_addr((void *)vaddr))
+               return vmalloc_to_page((void *)vaddr);
+
+#ifdef CONFIG_HIGHMEM
+
+#ifdef HAVE_KMAP_TO_PAGE
+       /*
+        * This ifdef is added to handle the kernel versions
+        * which have kmap_to_page() function exported. If so,
+        * we should use it. Otherwise, remain with the legacy check.
+        */
+       return kmap_to_page((void *)vaddr);
+#else
+
+       if (vaddr >= PKMAP_ADDR(0) && vaddr < PKMAP_ADDR(LAST_PKMAP)) {
+               /* No highmem pages only used for bulk (kiov) I/O */
+               CERROR("find page for address in highmem\n");
+               LBUG();
+       }
+       return virt_to_page(vaddr);
+#endif /* HAVE_KMAP_TO_PAGE */
 #else
-                lmd->md_niov = niov = umd->length;
-                memcpy(lmd->md_iov.kiov, umd->start,
-                       niov * sizeof (lmd->md_iov.kiov[0]));
-
-                for (i = 0; i < (int)niov; i++) {
-                        /* We take the page pointer on trust */
-                        if (lmd->md_iov.kiov[i].kiov_offset +
-                            lmd->md_iov.kiov[i].kiov_len > CFS_PAGE_SIZE )
-                                return -EINVAL; /* invalid length */
-
-                        total_length += lmd->md_iov.kiov[i].kiov_len;
-                }
-
-                lmd->md_length = total_length;
-
-                if ((umd->options & LNET_MD_MAX_SIZE) != 0 && /* max size used */
-                    (umd->max_size < 0 ||
-                     umd->max_size > total_length)) // illegal max_size
-                        return -EINVAL;
-#endif
-        } else {   /* contiguous */
-                lmd->md_length = umd->length;
-                lmd->md_niov = niov = 1;
-                lmd->md_iov.iov[0].iov_base = umd->start;
-                lmd->md_iov.iov[0].iov_len = umd->length;
-
-                if ((umd->options & LNET_MD_MAX_SIZE) != 0 && /* max size used */
-                    (umd->max_size < 0 ||
-                     umd->max_size > (int)umd->length)) // illegal max_size
-                        return -EINVAL;
-        }
-
-        if (eq != NULL)
-                eq->eq_refcount++;
-
-        /* It's good; let handle2md succeed and add to active mds */
-       lnet_res_lh_initialize(&the_lnet.ln_md_container, &lmd->md_lh);
-       LASSERT(cfs_list_empty(&lmd->md_list));
-       cfs_list_add(&lmd->md_list, &the_lnet.ln_md_container.rec_active);
+
+       return virt_to_page(vaddr);
+#endif /* CONFIG_HIGHMEM */
+}
+EXPORT_SYMBOL(lnet_kvaddr_to_page);
+
+int
+lnet_cpt_of_md(struct lnet_libmd *md, unsigned int offset)
+{
+       int cpt = CFS_CPT_ANY;
+       unsigned int niov;
+
+       /*
+        * if the md_options has a bulk handle then we want to look at the
+        * bulk md because that's the data which we will be DMAing
+        */
+       if (md && (md->md_options & LNET_MD_BULK_HANDLE) != 0 &&
+           !LNetMDHandleIsInvalid(md->md_bulk_handle))
+               md = lnet_handle2md(&md->md_bulk_handle);
+
+       if (!md || md->md_niov == 0)
+               return CFS_CPT_ANY;
+
+       niov = md->md_niov;
+
+       /*
+        * There are three cases to handle:
+        *  1. The MD is using lnet_kiov_t
+        *  2. The MD is using struct kvec
+        *  3. Contiguous buffer allocated via vmalloc
+        *
+        *  in case 2 we can use virt_to_page() macro to get the page
+        *  address of the memory kvec describes.
+        *
+        *  in case 3 use is_vmalloc_addr() and vmalloc_to_page()
+        *
+        * The offset provided can be within the first iov/kiov entry or
+        * it could go beyond it. In that case we need to make sure to
+        * look at the page which actually contains the data that will be
+        * DMAed.
+        */
+       if ((md->md_options & LNET_MD_KIOV) != 0) {
+               lnet_kiov_t *kiov = md->md_iov.kiov;
+
+               while (offset >= kiov->kiov_len) {
+                       offset -= kiov->kiov_len;
+                       niov--;
+                       kiov++;
+                       if (niov == 0) {
+                               CERROR("offset %d goes beyond kiov\n", offset);
+                               goto out;
+                       }
+               }
+
+               cpt = cfs_cpt_of_node(lnet_cpt_table(),
+                               page_to_nid(kiov->kiov_page));
+       } else {
+               struct kvec *iov = md->md_iov.iov;
+               unsigned long vaddr;
+               struct page *page;
+
+               while (offset >= iov->iov_len) {
+                       offset -= iov->iov_len;
+                       niov--;
+                       iov++;
+                       if (niov == 0) {
+                               CERROR("offset %d goes beyond iov\n", offset);
+                               goto out;
+                       }
+               }
+
+               vaddr = ((unsigned long)iov->iov_base) + offset;
+               page = lnet_kvaddr_to_page(vaddr);
+               if (!page) {
+                       CERROR("Couldn't resolve vaddr 0x%lx to page\n", vaddr);
+                       goto out;
+               }
+               cpt = cfs_cpt_of_node(lnet_cpt_table(), page_to_nid(page));
+       }
+
+out:
+       return cpt;
+}
+
+static int
+lnet_md_build(struct lnet_libmd *lmd, struct lnet_md *umd, int unlink)
+{
+       int          i;
+       unsigned int niov;
+       int          total_length = 0;
+
+       lmd->md_me = NULL;
+       lmd->md_start = umd->start;
+       lmd->md_offset = 0;
+       lmd->md_max_size = umd->max_size;
+       lmd->md_options = umd->options;
+       lmd->md_user_ptr = umd->user_ptr;
+       lmd->md_eq = NULL;
+       lmd->md_threshold = umd->threshold;
+       lmd->md_refcount = 0;
+       lmd->md_flags = (unlink == LNET_UNLINK) ? LNET_MD_FLAG_AUTO_UNLINK : 0;
+       lmd->md_bulk_handle = umd->bulk_handle;
+
+       if ((umd->options & LNET_MD_IOVEC) != 0) {
+
+               if ((umd->options & LNET_MD_KIOV) != 0) /* Can't specify both */
+                       return -EINVAL;
+
+               lmd->md_niov = niov = umd->length;
+               memcpy(lmd->md_iov.iov, umd->start,
+                      niov * sizeof(lmd->md_iov.iov[0]));
+
+               for (i = 0; i < (int)niov; i++) {
+                       /* We take the base address on trust */
+                       if (lmd->md_iov.iov[i].iov_len <= 0) /* invalid length */
+                               return -EINVAL;
+
+                       total_length += lmd->md_iov.iov[i].iov_len;
+               }
+
+               lmd->md_length = total_length;
+
+               if ((umd->options & LNET_MD_MAX_SIZE) != 0 && /* max size used */
+                   (umd->max_size < 0 ||
+                    umd->max_size > total_length)) // illegal max_size
+                       return -EINVAL;
+
+       } else if ((umd->options & LNET_MD_KIOV) != 0) {
+               lmd->md_niov = niov = umd->length;
+               memcpy(lmd->md_iov.kiov, umd->start,
+                      niov * sizeof(lmd->md_iov.kiov[0]));
+
+               for (i = 0; i < (int)niov; i++) {
+                       /* We take the page pointer on trust */
+                       if (lmd->md_iov.kiov[i].kiov_offset +
+                           lmd->md_iov.kiov[i].kiov_len > PAGE_SIZE)
+                               return -EINVAL; /* invalid length */
+
+                       total_length += lmd->md_iov.kiov[i].kiov_len;
+               }
+
+               lmd->md_length = total_length;
+
+               if ((umd->options & LNET_MD_MAX_SIZE) != 0 && /* max size used */
+                   (umd->max_size < 0 ||
+                    umd->max_size > total_length)) // illegal max_size
+                       return -EINVAL;
+       } else {   /* contiguous */
+               lmd->md_length = umd->length;
+               lmd->md_niov = niov = 1;
+               lmd->md_iov.iov[0].iov_base = umd->start;
+               lmd->md_iov.iov[0].iov_len = umd->length;
+
+               if ((umd->options & LNET_MD_MAX_SIZE) != 0 && /* max size used */
+                   (umd->max_size < 0 ||
+                    umd->max_size > (int)umd->length)) // illegal max_size
+                       return -EINVAL;
+       }
 
        return 0;
 }
 
-/* must be called with LNET_LOCK held */
+/* must be called with resource lock held */
+static int
+lnet_md_link(struct lnet_libmd *md, struct lnet_handle_eq eq_handle, int cpt)
+{
+       struct lnet_res_container *container = the_lnet.ln_md_containers[cpt];
+
+       /* NB we are passed an allocated, but inactive md.
+        * if we return success, caller may lnet_md_unlink() it.
+        * otherwise caller may only lnet_md_free() it.
+        */
+       /* This implementation doesn't know how to create START events or
+        * disable END events.  Best to LASSERT our caller is compliant so
+        * we find out quickly...  */
+       /*  TODO - reevaluate what should be here in light of
+        * the removal of the start and end events
+        * maybe there we shouldn't even allow LNET_EQ_NONE!)
+        * LASSERT (eq == NULL);
+        */
+       if (!LNetEQHandleIsInvalid(eq_handle)) {
+               md->md_eq = lnet_handle2eq(&eq_handle);
+
+               if (md->md_eq == NULL)
+                       return -ENOENT;
+
+               (*md->md_eq->eq_refs[cpt])++;
+       }
+
+       lnet_res_lh_initialize(container, &md->md_lh);
+
+       LASSERT(list_empty(&md->md_list));
+       list_add(&md->md_list, &container->rec_active);
+
+       return 0;
+}
+
+/* must be called with lnet_res_lock held */
 void
-lnet_md_deconstruct(lnet_libmd_t *lmd, lnet_md_t *umd)
+lnet_md_deconstruct(struct lnet_libmd *lmd, struct lnet_md *umd)
 {
-        /* NB this doesn't copy out all the iov entries so when a
-         * discontiguous MD is copied out, the target gets to know the
-         * original iov pointer (in start) and the number of entries it had
-         * and that's all.
-         */
-        umd->start = lmd->md_start;
-        umd->length = ((lmd->md_options & (LNET_MD_IOVEC | LNET_MD_KIOV)) == 0) ?
-                      lmd->md_length : lmd->md_niov;
-        umd->threshold = lmd->md_threshold;
-        umd->max_size = lmd->md_max_size;
-        umd->options = lmd->md_options;
-        umd->user_ptr = lmd->md_user_ptr;
-        lnet_eq2handle(&umd->eq_handle, lmd->md_eq);
+       /* NB this doesn't copy out all the iov entries so when a
+        * discontiguous MD is copied out, the target gets to know the
+        * original iov pointer (in start) and the number of entries it had
+        * and that's all.
+        */
+       umd->start = lmd->md_start;
+       umd->length = ((lmd->md_options & (LNET_MD_IOVEC | LNET_MD_KIOV)) == 0) ?
+                     lmd->md_length : lmd->md_niov;
+       umd->threshold = lmd->md_threshold;
+       umd->max_size = lmd->md_max_size;
+       umd->options = lmd->md_options;
+       umd->user_ptr = lmd->md_user_ptr;
+       lnet_eq2handle(&umd->eq_handle, lmd->md_eq);
 }
 
-int
-lnet_md_validate(lnet_md_t *umd)
+static int
+lnet_md_validate(struct lnet_md *umd)
 {
-        if (umd->start == NULL && umd->length != 0) {
-                CERROR("MD start pointer can not be NULL with length %u\n",
-                       umd->length);
-                return -EINVAL;
-        }
-
-        if ((umd->options & (LNET_MD_KIOV | LNET_MD_IOVEC)) != 0 &&
-            umd->length > LNET_MAX_IOV) {
-                CERROR("Invalid option: too many fragments %u, %d max\n",
-                       umd->length, LNET_MAX_IOV);
-                return -EINVAL;
-        }
-
-        return 0;
+       if (umd->start == NULL && umd->length != 0) {
+               CERROR("MD start pointer can not be NULL with length %u\n",
+                      umd->length);
+               return -EINVAL;
+       }
+
+       if ((umd->options & (LNET_MD_KIOV | LNET_MD_IOVEC)) != 0 &&
+           umd->length > LNET_MAX_IOV) {
+               CERROR("Invalid option: too many fragments %u, %d max\n",
+                      umd->length, LNET_MAX_IOV);
+               return -EINVAL;
+       } else if (umd->length > LNET_MTU) {
+               CERROR("Invalid length: too big fragment size %u, %d max\n",
+                      umd->length, LNET_MTU);
+               return -EINVAL;
+       }
+
+       return 0;
 }
 
 /**
@@ -245,7 +360,7 @@ lnet_md_validate(lnet_md_t *umd)
  * \param handle On successful returns, a handle to the newly created MD is
  * saved here. This handle can be used later in LNetMDUnlink().
  *
- * \retval 0       On success.
+ * \retval 0      On success.
  * \retval -EINVAL If \a umd is not valid.
  * \retval -ENOMEM If new MD cannot be allocated.
  * \retval -ENOENT Either \a meh or \a umd.eq_handle does not point to a
@@ -255,58 +370,69 @@ lnet_md_validate(lnet_md_t *umd)
  * a MD.
  */
 int
-LNetMDAttach(lnet_handle_me_t meh, lnet_md_t umd,
-             lnet_unlink_t unlink, lnet_handle_md_t *handle)
+LNetMDAttach(struct lnet_handle_me meh, struct lnet_md umd,
+            enum lnet_unlink unlink, struct lnet_handle_md *handle)
 {
-        lnet_me_t     *me;
-        lnet_libmd_t  *md;
-        int            rc;
+       struct list_head        matches = LIST_HEAD_INIT(matches);
+       struct list_head        drops = LIST_HEAD_INIT(drops);
+       struct lnet_me          *me;
+       struct lnet_libmd       *md;
+       int                     cpt;
+       int                     rc;
+
+       LASSERT(the_lnet.ln_refcount > 0);
+
+       if (lnet_md_validate(&umd) != 0)
+               return -EINVAL;
+
+       if ((umd.options & (LNET_MD_OP_GET | LNET_MD_OP_PUT)) == 0) {
+               CERROR("Invalid option: no MD_OP set\n");
+               return -EINVAL;
+       }
 
-        LASSERT (the_lnet.ln_init);
-        LASSERT (the_lnet.ln_refcount > 0);
+       md = lnet_md_alloc(&umd);
+       if (md == NULL)
+               return -ENOMEM;
 
-        if (lnet_md_validate(&umd) != 0)
-                return -EINVAL;
+       rc = lnet_md_build(md, &umd, unlink);
+       if (rc != 0)
+               goto out_free;
 
-        if ((umd.options & (LNET_MD_OP_GET | LNET_MD_OP_PUT)) == 0) {
-                CERROR("Invalid option: no MD_OP set\n");
-                return -EINVAL;
-        }
+       cpt = lnet_cpt_of_cookie(meh.cookie);
 
-        md = lnet_md_alloc(&umd);
-        if (md == NULL)
-                return -ENOMEM;
+       lnet_res_lock(cpt);
 
-        LNET_LOCK();
+       me = lnet_handle2me(&meh);
+       if (me == NULL)
+               rc = -ENOENT;
+       else if (me->me_md != NULL)
+               rc = -EBUSY;
+       else
+               rc = lnet_md_link(md, umd.eq_handle, cpt);
 
-        me = lnet_handle2me(&meh);
-        if (me == NULL) {
-                rc = -ENOENT;
-        } else if (me->me_md != NULL) {
-                rc = -EBUSY;
-        } else {
-                rc = lib_md_build(md, &umd, unlink);
-                if (rc == 0) {
-                        the_lnet.ln_portals[me->me_portal].ptl_ml_version++;
+       if (rc != 0)
+               goto out_unlock;
 
-                        me->me_md = md;
-                        md->md_me = me;
+       /* attach this MD to portal of ME and check if it matches any
+        * blocked msgs on this portal */
+       lnet_ptl_attach_md(me, md, &matches, &drops);
 
-                        lnet_md2handle(handle, md);
+       lnet_md2handle(handle, md);
 
-                        /* check if this MD matches any blocked msgs */
-                        lnet_match_blocked_msg(md);   /* expects LNET_LOCK held */
+       lnet_res_unlock(cpt);
 
-                        LNET_UNLOCK();
-                        return (0);
-                }
-        }
+       lnet_drop_delayed_msg_list(&drops, "Bad match");
+       lnet_recv_delayed_msg_list(&matches);
 
-       lnet_md_free_locked(md);
+       return 0;
 
-        LNET_UNLOCK();
-        return (rc);
+out_unlock:
+       lnet_res_unlock(cpt);
+out_free:
+       lnet_md_free(md);
+       return rc;
 }
+EXPORT_SYMBOL(LNetMDAttach);
 
 /**
  * Create a "free floating" memory descriptor - a MD that is not associated
@@ -317,7 +443,7 @@ LNetMDAttach(lnet_handle_me_t meh, lnet_md_t umd,
  * saved here. This handle can be used later in LNetMDUnlink(), LNetPut(),
  * and LNetGet() operations.
  *
- * \retval 0       On success.
+ * \retval 0      On success.
  * \retval -EINVAL If \a umd is not valid.
  * \retval -ENOMEM If new MD cannot be allocated.
  * \retval -ENOENT \a umd.eq_handle does not point to a valid EQ. Note that
@@ -325,46 +451,55 @@ LNetMDAttach(lnet_handle_me_t meh, lnet_md_t umd,
  * LNetInvalidateHandle() on it.
  */
 int
-LNetMDBind(lnet_md_t umd, lnet_unlink_t unlink, lnet_handle_md_t *handle)
+LNetMDBind(struct lnet_md umd, enum lnet_unlink unlink,
+          struct lnet_handle_md *handle)
 {
-        lnet_libmd_t  *md;
-        int            rc;
+       struct lnet_libmd       *md;
+       int             cpt;
+       int             rc;
+
+       LASSERT(the_lnet.ln_refcount > 0);
 
-        LASSERT (the_lnet.ln_init);
-        LASSERT (the_lnet.ln_refcount > 0);
+       if (lnet_md_validate(&umd) != 0)
+               return -EINVAL;
 
-        if (lnet_md_validate(&umd) != 0)
-                return -EINVAL;
+       if ((umd.options & (LNET_MD_OP_GET | LNET_MD_OP_PUT)) != 0) {
+               CERROR("Invalid option: GET|PUT illegal on active MDs\n");
+               return -EINVAL;
+       }
 
-        if ((umd.options & (LNET_MD_OP_GET | LNET_MD_OP_PUT)) != 0) {
-                CERROR("Invalid option: GET|PUT illegal on active MDs\n");
-                return -EINVAL;
-        }
+       md = lnet_md_alloc(&umd);
+       if (md == NULL)
+               return -ENOMEM;
 
-        md = lnet_md_alloc(&umd);
-        if (md == NULL)
-                return -ENOMEM;
+       rc = lnet_md_build(md, &umd, unlink);
+       if (rc != 0)
+               goto out_free;
 
-        LNET_LOCK();
+       cpt = lnet_res_lock_current();
 
-        rc = lib_md_build(md, &umd, unlink);
+       rc = lnet_md_link(md, umd.eq_handle, cpt);
+       if (rc != 0)
+               goto out_unlock;
 
-        if (rc == 0) {
-                lnet_md2handle(handle, md);
+       lnet_md2handle(handle, md);
 
-                LNET_UNLOCK();
-                return (0);
-        }
+       lnet_res_unlock(cpt);
+       return 0;
 
-       lnet_md_free_locked(md);
+ out_unlock:
+       lnet_res_unlock(cpt);
 
-        LNET_UNLOCK();
-        return (rc);
+ out_free:
+       lnet_md_free(md);
+       return rc;
 }
+EXPORT_SYMBOL(LNetMDBind);
 
 /**
  * Unlink the memory descriptor from any ME it may be linked to and release
- * the internal resources associated with it.
+ * the internal resources associated with it. As a result, active messages
+ * associated with the MD may get aborted.
  *
  * This function does not free the memory region associated with the MD;
  * i.e., the memory the user allocated for this MD. If the ME associated with
@@ -388,38 +523,39 @@ LNetMDBind(lnet_md_t umd, lnet_unlink_t unlink, lnet_handle_md_t *handle)
  *
  * \param mdh A handle for the MD to be unlinked.
  *
- * \retval 0       On success.
+ * \retval 0      On success.
  * \retval -ENOENT If \a mdh does not point to a valid MD object.
  */
 int
-LNetMDUnlink (lnet_handle_md_t mdh)
+LNetMDUnlink(struct lnet_handle_md mdh)
 {
-        lnet_event_t     ev;
-        lnet_libmd_t    *md;
-
-        LASSERT (the_lnet.ln_init);
-        LASSERT (the_lnet.ln_refcount > 0);
-
-        LNET_LOCK();
-
-        md = lnet_handle2md(&mdh);
-        if (md == NULL) {
-                LNET_UNLOCK();
-                return -ENOENT;
-        }
-
-        /* If the MD is busy, lnet_md_unlink just marks it for deletion, and
-         * when the NAL is done, the completion event flags that the MD was
-         * unlinked.  Otherwise, we enqueue an event now... */
-
-        if (md->md_eq != NULL &&
-            md->md_refcount == 0) {
-                lnet_build_unlink_event(md, &ev);
+       struct lnet_event ev;
+       struct lnet_libmd *md;
+       int cpt;
+
+       LASSERT(the_lnet.ln_refcount > 0);
+
+       cpt = lnet_cpt_of_cookie(mdh.cookie);
+       lnet_res_lock(cpt);
+
+       md = lnet_handle2md(&mdh);
+       if (md == NULL) {
+               lnet_res_unlock(cpt);
+               return -ENOENT;
+       }
+
+       md->md_flags |= LNET_MD_FLAG_ABORTED;
+       /* If the MD is busy, lnet_md_unlink just marks it for deletion, and
+        * when the LND is done, the completion event flags that the MD was
+        * unlinked. Otherwise, we enqueue an event now... */
+       if (md->md_eq != NULL && md->md_refcount == 0) {
+               lnet_build_unlink_event(md, &ev);
                lnet_eq_enqueue_event(md->md_eq, &ev);
-        }
+       }
 
-        lnet_md_unlink(md);
+       lnet_md_unlink(md);
 
-        LNET_UNLOCK();
-        return 0;
+       lnet_res_unlock(cpt);
+       return 0;
 }
+EXPORT_SYMBOL(LNetMDUnlink);