Whamcloud - gitweb
land 0.5.20.3 b_devel onto HEAD (b_devel will remain)
[fs/lustre-release.git] / lustre / ldlm / l_lock.c
1 /* -*- mode: c; c-basic-offset: 8; indent-tabs-mode: nil; -*-
2  * vim:expandtab:shiftwidth=8:tabstop=8:
3  *
4  * Copyright (C) 2001, 2002 Cluster File Systems, Inc.
5  *
6  *   This file is part of Lustre, http://www.sf.net/projects/lustre/
7  *
8  *   Lustre is free software; you can redistribute it and/or
9  *   modify it under the terms of version 2 of the GNU General Public
10  *   License as published by the Free Software Foundation.
11  *
12  *   Lustre is distributed in the hope that it will be useful,
13  *   but WITHOUT ANY WARRANTY; without even the implied warranty of
14  *   MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
15  *   GNU General Public License for more details.
16  *
17  *   You should have received a copy of the GNU General Public License
18  *   along with Lustre; if not, write to the Free Software
19  *   Foundation, Inc., 675 Mass Ave, Cambridge, MA 02139, USA.
20  *
21  */
22
23 #define DEBUG_SUBSYSTEM S_LDLM
24 #ifdef __KERNEL__
25 #include <linux/config.h>
26 #include <linux/kernel.h>
27 #include <linux/mm.h>
28 #include <linux/string.h>
29 #include <linux/stat.h>
30 #include <linux/errno.h>
31 #include <linux/unistd.h>
32 #include <linux/version.h>
33
34 #include <asm/system.h>
35 #include <asm/uaccess.h>
36
37 #include <linux/fs.h>
38 #include <linux/stat.h>
39 #include <asm/uaccess.h>
40 #include <asm/segment.h>
41 #include <linux/mm.h>
42 #include <linux/pagemap.h>
43 #include <linux/smp_lock.h>
44 #else 
45 #include <liblustre.h>
46 #endif
47
48 #include <linux/lustre_dlm.h>
49 #include <linux/obd_class.h>
50 #include <linux/lustre_lib.h>
51
52 /* invariants:
53  - only the owner of the lock changes l_owner/l_depth
54  - if a non-owner changes or checks the variables a spin lock is taken
55 */
56
57 void l_lock_init(struct lustre_lock *lock)
58 {
59         sema_init(&lock->l_sem, 1);
60         spin_lock_init(&lock->l_spin);
61 }
62
63 void l_lock(struct lustre_lock *lock)
64 {
65         int owner = 0;
66
67         spin_lock(&lock->l_spin);
68         if (lock->l_owner == current)
69                 owner = 1;
70         spin_unlock(&lock->l_spin);
71
72         /* This is safe to increment outside the spinlock because we
73          * can only have 1 CPU running on the current task
74          * (i.e. l_owner == current), regardless of the number of CPUs.
75          */
76         if (owner) {
77                 ++lock->l_depth;
78         } else {
79                 down(&lock->l_sem);
80                 spin_lock(&lock->l_spin);
81                 lock->l_owner = current;
82                 lock->l_depth = 0;
83                 spin_unlock(&lock->l_spin);
84         }
85 }
86
87 void l_unlock(struct lustre_lock *lock)
88 {
89         LASSERT(lock->l_owner == current);
90         LASSERT(lock->l_depth >= 0);
91
92         spin_lock(&lock->l_spin);
93         if (--lock->l_depth < 0) {
94                 lock->l_owner = NULL;
95                 spin_unlock(&lock->l_spin);
96                 up(&lock->l_sem);
97                 return;
98         }
99         spin_unlock(&lock->l_spin);
100 }
101
102 int l_has_lock(struct lustre_lock *lock)
103 {
104         int depth = -1, owner = 0;
105
106         spin_lock(&lock->l_spin);
107         if (lock->l_owner == current) {
108                 depth = lock->l_depth;
109                 owner = 1;
110         }
111         spin_unlock(&lock->l_spin);
112
113         if (depth >= 0)
114                 CDEBUG(D_INFO, "lock_depth: %d\n", depth);
115         return owner;
116 }