Whamcloud - gitweb
LU-5396: add sparse locking annotations
[fs/lustre-release.git] / libcfs / libcfs / libcfs_lock.c
1 /*
2  * GPL HEADER START
3  *
4  * DO NOT ALTER OR REMOVE COPYRIGHT NOTICES OR THIS FILE HEADER.
5  *
6  * This program is free software; you can redistribute it and/or modify
7  * it under the terms of the GNU General Public License version 2 only,
8  * as published by the Free Software Foundation.
9  *
10  * This program is distributed in the hope that it will be useful, but
11  * WITHOUT ANY WARRANTY; without even the implied warranty of
12  * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
13  * General Public License version 2 for more details (a copy is included
14  * in the LICENSE file that accompanied this code).
15  *
16  * You should have received a copy of the GNU General Public License
17  * version 2 along with this program; if not, write to the
18  * Free Software Foundation, Inc., 59 Temple Place - Suite 330,
19  * Boston, MA 021110-1307, USA
20  *
21  * GPL HEADER END
22  */
23 /* Copyright (c) 2010, Oracle and/or its affiliates. All rights reserved.
24  * Copyright (c) 2012, Intel Corporation.
25  */
26 /*
27  * This file is part of Lustre, http://www.lustre.org/
28  * Lustre is a trademark of Sun Microsystems, Inc.
29  *
30  * Author: liang@whamcloud.com
31  */
32
33 #define DEBUG_SUBSYSTEM S_LNET
34
35 #include <libcfs/libcfs.h>
36
37 #ifdef __KERNEL__
38
39 /** destroy cpu-partition lock, see libcfs_private.h for more detail */
40 void
41 cfs_percpt_lock_free(struct cfs_percpt_lock *pcl)
42 {
43         LASSERT(pcl->pcl_locks != NULL);
44         LASSERT(!pcl->pcl_locked);
45
46         cfs_percpt_free(pcl->pcl_locks);
47         LIBCFS_FREE(pcl, sizeof(*pcl));
48 }
49 EXPORT_SYMBOL(cfs_percpt_lock_free);
50
51 /**
52  * create cpu-partition lock, see libcfs_private.h for more detail.
53  *
54  * cpu-partition lock is designed for large-scale SMP system, so we need to
55  * reduce cacheline conflict as possible as we can, that's the
56  * reason we always allocate cacheline-aligned memory block.
57  */
58 struct cfs_percpt_lock *
59 cfs_percpt_lock_alloc(struct cfs_cpt_table *cptab)
60 {
61         struct cfs_percpt_lock  *pcl;
62         spinlock_t              *lock;
63         int                     i;
64
65         /* NB: cptab can be NULL, pcl will be for HW CPUs on that case */
66         LIBCFS_ALLOC(pcl, sizeof(*pcl));
67         if (pcl == NULL)
68                 return NULL;
69
70         pcl->pcl_cptab = cptab;
71         pcl->pcl_locks = cfs_percpt_alloc(cptab, sizeof(*lock));
72         if (pcl->pcl_locks == NULL) {
73                 LIBCFS_FREE(pcl, sizeof(*pcl));
74                 return NULL;
75         }
76
77         cfs_percpt_for_each(lock, i, pcl->pcl_locks)
78                 spin_lock_init(lock);
79
80         return pcl;
81 }
82 EXPORT_SYMBOL(cfs_percpt_lock_alloc);
83
84 /**
85  * lock a CPU partition
86  *
87  * \a index != CFS_PERCPT_LOCK_EX
88  *     hold private lock indexed by \a index
89  *
90  * \a index == CFS_PERCPT_LOCK_EX
91  *     exclusively lock @pcl and nobody can take private lock
92  */
93 void
94 cfs_percpt_lock(struct cfs_percpt_lock *pcl, int index)
95 __acquires(pcl->pcl_locks)
96 {
97         int     ncpt = cfs_cpt_number(pcl->pcl_cptab);
98         int     i;
99
100         LASSERT(index >= CFS_PERCPT_LOCK_EX && index < ncpt);
101
102         if (ncpt == 1) {
103                 index = 0;
104         } else { /* serialize with exclusive lock */
105                 while (pcl->pcl_locked)
106                         cpu_relax();
107         }
108
109         if (likely(index != CFS_PERCPT_LOCK_EX)) {
110                 spin_lock(pcl->pcl_locks[index]);
111                 return;
112         }
113
114         /* exclusive lock request */
115         for (i = 0; i < ncpt; i++) {
116                 spin_lock(pcl->pcl_locks[i]);
117                 if (i == 0) {
118                         LASSERT(!pcl->pcl_locked);
119                         /* nobody should take private lock after this
120                          * so I wouldn't starve for too long time */
121                         pcl->pcl_locked = 1;
122                 }
123         }
124 }
125 EXPORT_SYMBOL(cfs_percpt_lock);
126
127 /** unlock a CPU partition */
128 void
129 cfs_percpt_unlock(struct cfs_percpt_lock *pcl, int index)
130 __releases(pcl->pcl_locks)
131 {
132         int     ncpt = cfs_cpt_number(pcl->pcl_cptab);
133         int     i;
134
135         index = ncpt == 1 ? 0 : index;
136
137         if (likely(index != CFS_PERCPT_LOCK_EX)) {
138                 spin_unlock(pcl->pcl_locks[index]);
139                 return;
140         }
141
142         for (i = ncpt - 1; i >= 0; i--) {
143                 if (i == 0) {
144                         LASSERT(pcl->pcl_locked);
145                         pcl->pcl_locked = 0;
146                 }
147                 spin_unlock(pcl->pcl_locks[i]);
148         }
149 }
150 EXPORT_SYMBOL(cfs_percpt_unlock);
151
152 #else /* !__KERNEL__ */
153 # ifdef HAVE_LIBPTHREAD
154
155 struct cfs_percpt_lock *
156 cfs_percpt_lock_alloc(struct cfs_cpt_table *cptab)
157 {
158         struct cfs_percpt_lock *pcl;
159
160         CFS_ALLOC_PTR(pcl);
161         if (pcl != NULL)
162                 pthread_mutex_init(&pcl->pcl_mutex, NULL);
163
164         return pcl;
165 }
166
167 void
168 cfs_percpt_lock_free(struct cfs_percpt_lock *pcl)
169 {
170         pthread_mutex_destroy(&pcl->pcl_mutex);
171         CFS_FREE_PTR(pcl);
172 }
173
174 void
175 cfs_percpt_lock(struct cfs_percpt_lock *pcl, int lock)
176 {
177         pthread_mutex_lock(&(pcl)->pcl_mutex);
178 }
179
180 void
181 cfs_percpt_unlock(struct cfs_percpt_lock *pcl, int lock)
182 {
183         pthread_mutex_unlock(&(pcl)->pcl_mutex);
184 }
185
186 # else /* !HAVE_LIBPTHREAD */
187
188 struct cfs_percpt_lock *
189 cfs_percpt_lock_alloc(struct cfs_cpt_table *cptab)
190 {
191         return ((struct cfs_percpt_lock *) &CFS_PERCPT_LOCK_MAGIC);
192 }
193
194 void
195 cfs_percpt_lock_free(struct cfs_percpt_lock *pcl)
196 {
197         LASSERT(pcl == (struct cfs_percpt_lock *) &CFS_PERCPT_LOCK_MAGIC);
198 }
199
200 void
201 cfs_percpt_lock(struct cfs_percpt_lock *pcl, int index)
202 {
203         LASSERT(pcl == (struct cfs_percpt_lock *) &CFS_PERCPT_LOCK_MAGIC);
204 }
205
206 void
207 cfs_percpt_unlock(struct cfs_percpt_lock *pcl, int index)
208 {
209         LASSERT(pcl == (struct cfs_percpt_lock *) &CFS_PERCPT_LOCK_MAGIC);
210 }
211
212 # endif /* HAVE_LIBPTHREAD */
213 #endif /* __KERNEL__ */
214
215 /** free cpu-partition refcount */
216 void
217 cfs_percpt_atomic_free(atomic_t **refs)
218 {
219         cfs_percpt_free(refs);
220 }
221 EXPORT_SYMBOL(cfs_percpt_atomic_free);
222
223 /** allocate cpu-partition refcount with initial value @init_val */
224 atomic_t **
225 cfs_percpt_atomic_alloc(struct cfs_cpt_table *cptab, int init_val)
226 {
227         atomic_t        **refs;
228         atomic_t        *ref;
229         int             i;
230
231         refs = cfs_percpt_alloc(cptab, sizeof(*ref));
232         if (refs == NULL)
233                 return NULL;
234
235         cfs_percpt_for_each(ref, i, refs)
236                 atomic_set(ref, init_val);
237         return refs;
238 }
239 EXPORT_SYMBOL(cfs_percpt_atomic_alloc);
240
241 /** return sum of cpu-partition refs */
242 int
243 cfs_percpt_atomic_summary(atomic_t **refs)
244 {
245         atomic_t        *ref;
246         int             i;
247         int             val = 0;
248
249         cfs_percpt_for_each(ref, i, refs)
250                 val += atomic_read(ref);
251
252         return val;
253 }
254 EXPORT_SYMBOL(cfs_percpt_atomic_summary);