Whamcloud - gitweb
fixes:
[fs/lustre-release.git] / lustre / obdclass / capa.c
1 /* -*- mode: c; c-basic-offset: 8; indent-tabs-mode: nil; -*-
2  * vim:expandtab:shiftwidth=8:tabstop=8:
3  *
4  *  lustre/obdclass/capa.c
5  *  Lustre Capability Cache Management
6  *
7  *  Copyright (c) 2001-2003 Cluster File Systems, Inc.
8  *   Author: Lai Siyao<lsy@clusterfs.com>
9  *
10  *   This file is part of Lustre, http://www.lustre.org.
11  *
12  *   Lustre is free software; you can redistribute it and/or
13  *   modify it under the terms of version 2 of the GNU General Public
14  *   License as published by the Free Software Foundation.
15  *
16  *   Lustre is distributed in the hope that it will be useful,
17  *   but WITHOUT ANY WARRANTY; without even the implied warranty of
18  *   MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
19  *   GNU General Public License for more details.
20  *
21  *   You should have received a copy of the GNU General Public License
22  *   along with Lustre; if not, write to the Free Software
23  *   Foundation, Inc., 675 Mass Ave, Cambridge, MA 02139, USA.
24  */
25 #ifndef EXPORT_SYMTAB
26 # define EXPORT_SYMTAB
27 #endif
28
29 #define DEBUG_SUBSYSTEM S_SEC
30
31 #ifdef __KERNEL__
32 #include <linux/version.h>
33 #include <linux/fs.h>
34 #include <asm/unistd.h>
35 #include <linux/slab.h>
36 #include <linux/module.h>
37 #include <linux/init.h>
38
39 #include <linux/obd_class.h>
40 #include <linux/lustre_debug.h>
41 #include <linux/lustre_idl.h>
42 #include <linux/lustre_sec.h>
43 #else
44 #include <liblustre.h>
45 #endif
46
47 #include <libcfs/list.h>
48 #include <linux/lustre_sec.h>
49
50 kmem_cache_t *capa_cachep = NULL;
51
52 /* capa_lock protect capa hash, list and content. */
53 spinlock_t capa_lock = SPIN_LOCK_UNLOCKED;
54 struct hlist_head *capa_hash;
55 struct list_head capa_list[3];
56 static int capa_count[3] = { 0 };
57
58 /* TODO: mdc and llite all need this, so define it here.
59  * in the future it will be moved to ll_sb_info to support multi-
60  * mount point */
61 struct timer_list ll_capa_timer;
62
63 EXPORT_SYMBOL(capa_lock);
64 EXPORT_SYMBOL(capa_hash);
65 EXPORT_SYMBOL(capa_list);
66 EXPORT_SYMBOL(ll_capa_timer);
67
68 static inline int const
69 capa_hashfn(unsigned int uid, int capa_op, __u64 mdsid, unsigned long ino)
70 {
71         return (ino ^ uid) * (unsigned long)capa_op * (unsigned long)mdsid %
72                NR_CAPAHASH;
73 }
74
75 int capa_op(int flags)
76 {
77         if (flags & (FMODE_WRITE|MDS_OPEN_TRUNC))
78                 return MAY_WRITE;
79         else if (flags & FMODE_READ)
80                 return MAY_READ;
81
82         LBUG(); /* should be either MAY_READ or MAY_WRITE */
83         return 0;
84 }
85
86 static struct obd_capa *
87 find_capa(struct hlist_head *head, uid_t uid, int capa_op, __u64 mdsid,
88           unsigned long ino, int type)
89 {
90         struct hlist_node *pos;
91         struct obd_capa *ocapa;
92         uid_t ouid;
93
94         hlist_for_each_entry(ocapa, pos, head, c_hash) {
95                 if (ocapa->c_capa.lc_ino != ino)
96                         continue;
97                 if (ocapa->c_capa.lc_mdsid != mdsid)
98                         continue;
99                 if (ocapa->c_capa.lc_op != capa_op)
100                         continue;
101                 if (ocapa->c_type != type)
102                         continue;
103
104                 if (ocapa->c_type == CLIENT_CAPA &&
105                     ocapa->c_capa.lc_flags & CAPA_FL_REMUID)
106                         ouid = ocapa->c_capa.lc_ruid;
107                 else
108                         ouid = ocapa->c_capa.lc_uid;
109
110                 if (ouid != uid)
111                         continue;
112
113                 DEBUG_CAPA(D_CACHE, &ocapa->c_capa, "found");
114
115                 return ocapa;
116         }
117
118         return NULL;
119 }
120
121 inline void __capa_get(struct obd_capa *ocapa)
122 {
123         atomic_inc(&ocapa->c_refc);
124 }
125
126 static struct obd_capa *
127 find_capa_locked(struct hlist_head *head, uid_t uid, int capa_op, __u64 mdsid,
128                  unsigned long ino, int type)
129 {
130         struct obd_capa *ocapa;
131
132         spin_lock(&capa_lock);
133         ocapa = find_capa(head, uid, capa_op, mdsid, ino, type);
134         if (ocapa)
135                 __capa_get(ocapa);
136         spin_unlock(&capa_lock);
137
138         return ocapa;
139 }
140
141 static struct obd_capa *alloc_capa(void)
142 {
143         struct obd_capa *ocapa;
144
145         OBD_SLAB_ALLOC(ocapa, capa_cachep, SLAB_NOFS, sizeof(*ocapa));
146         if (ocapa) {
147                 INIT_HLIST_NODE(&ocapa->c_hash);
148                 INIT_LIST_HEAD(&ocapa->c_list);
149         }
150
151         return ocapa;
152 }
153
154 static void destroy_capa(struct obd_capa *ocapa)
155 {
156         OBD_SLAB_FREE(ocapa, capa_cachep, sizeof(*ocapa));
157 }
158
159 int capa_cache_init(void)
160 {
161         int nr_hash, i;
162
163         OBD_ALLOC(capa_hash, PAGE_SIZE);
164         if (!capa_hash)
165                 return -ENOMEM;
166
167         nr_hash = PAGE_SIZE / sizeof(struct hlist_head);
168         LASSERT(nr_hash > NR_CAPAHASH);
169
170         for (i = 0; i < NR_CAPAHASH; i++)
171                 INIT_HLIST_HEAD(capa_hash + i);
172
173         for (i = 0; i < 3; i++)
174                 INIT_LIST_HEAD(&capa_list[i]);
175
176         return 0;
177 }
178
179 void capa_cache_cleanup(void)
180 {
181         struct obd_capa *ocapa;
182         struct hlist_node *pos, *n;
183
184         hlist_for_each_entry_safe(ocapa, pos, n, capa_hash, c_hash) {
185                 LASSERT(ocapa->c_type != CLIENT_CAPA);
186                 hlist_del(&ocapa->c_hash);
187                 list_del(&ocapa->c_list);
188                 OBD_FREE(ocapa, sizeof(*ocapa));
189         }
190
191         OBD_FREE(capa_hash, PAGE_SIZE);
192 }
193
194
195 static inline void list_add_capa(struct obd_capa *ocapa, struct list_head *head)
196 {
197         struct obd_capa *tmp;
198
199         /* XXX: capa is sorted in client, this could be optimized */
200         if (ocapa->c_type == CLIENT_CAPA) {
201                 list_for_each_entry_reverse(tmp, head, c_list) {
202                         if (ocapa->c_capa.lc_expiry > tmp->c_capa.lc_expiry) {
203                                 list_add(&ocapa->c_list, &tmp->c_list);
204                                 return;
205                         }
206                 }
207         }
208
209         list_add_tail(&ocapa->c_list, head);
210 }
211
212 static inline void do_update_capa(struct obd_capa *ocapa, struct lustre_capa *capa)
213 {
214         memcpy(&ocapa->c_capa, capa, sizeof(*capa));
215 }
216
217 static struct obd_capa *
218 get_new_capa_locked(struct hlist_head *head, int type, struct lustre_capa *capa,
219                     struct inode *inode, struct lustre_handle *handle)
220 {
221         uid_t uid = capa->lc_uid;
222         int capa_op = capa->lc_op;
223         __u64 mdsid = capa->lc_mdsid;
224         unsigned long ino = capa->lc_ino;
225         struct obd_capa *ocapa, *old;
226
227         ocapa = alloc_capa();
228         if (!ocapa)
229                 return NULL;
230
231         spin_lock(&capa_lock);
232         old = find_capa(head, uid, capa_op, mdsid, ino, type);
233         if (!old) {
234                 do_update_capa(ocapa, capa);
235                 ocapa->c_type = type;
236
237                 if (type == CLIENT_CAPA) {
238                         LASSERT(inode);
239                         LASSERT(handle);
240 #ifdef __KERNEL__
241                         igrab(inode);
242 #endif
243                         ocapa->c_inode = inode;
244                         memcpy(&ocapa->c_handle, handle, sizeof(*handle));
245                 }
246
247                 DEBUG_CAPA(D_CACHE, &ocapa->c_capa, "new");
248
249                 list_add_capa(ocapa, &capa_list[type]);
250                 hlist_add_head(&ocapa->c_hash, capa_hash);
251                 capa_count[type]++;
252
253                 __capa_get(ocapa);
254
255                 if (type != CLIENT_CAPA && capa_count[type] > CAPA_CACHE_SIZE) {
256                         struct list_head *node = capa_list[type].next;
257                         struct obd_capa *tcapa;
258                         int count = 0;
259
260                         /* free 12 unused capa from head */
261                         while (node->next != &capa_list[type] && count < 12) {
262                                 tcapa = list_entry(node, struct obd_capa, c_list);
263                                 node = node->next;
264                                 if (atomic_read(&tcapa->c_refc) > 0)
265                                         continue;
266                                 list_del(&tcapa->c_list);
267                                 hlist_del(&tcapa->c_hash);
268                                 destroy_capa(tcapa);
269                                 capa_count[type]--;
270                                 count++;
271                         }
272                 }
273                                         
274                 spin_unlock(&capa_lock);
275                 return ocapa;
276         }
277
278         __capa_get(old);
279         spin_unlock(&capa_lock);
280
281         destroy_capa(ocapa);
282         return old;
283 }
284
285 static struct obd_capa *
286 capa_get_locked(uid_t uid, int capa_op,__u64 mdsid, unsigned long ino,
287                 int type, struct lustre_capa *capa, struct inode *inode,
288                 struct lustre_handle *handle)
289 {
290         struct hlist_head *head = capa_hash +
291                                   capa_hashfn(uid, capa_op, mdsid, ino);
292         struct obd_capa *ocapa;
293
294         ocapa = find_capa_locked(head, uid, capa_op, mdsid, ino, type);
295         if (ocapa)
296                 return ocapa;
297         
298         if (capa)
299                 ocapa = get_new_capa_locked(head, type, capa, inode, handle);
300         return ocapa;
301 }
302
303 struct obd_capa *
304 capa_get(uid_t uid, int capa_op, __u64 mdsid, unsigned long ino, int type,
305          struct lustre_capa *capa, struct inode *inode,
306          struct lustre_handle *handle)
307 {
308         return capa_get_locked(uid, capa_op, mdsid, ino, type, capa, inode,
309                                handle);
310 }
311
312 static void __capa_put(struct obd_capa *ocapa, int type)
313 {
314         hlist_del_init(&ocapa->c_hash);
315         list_del_init(&ocapa->c_list);
316         capa_count[type]--;
317 }
318
319 void capa_put(struct obd_capa *ocapa, int type)
320 {
321         ENTRY;
322
323         if (ocapa) {
324                 if (atomic_dec_and_lock(&ocapa->c_refc, &capa_lock)) {
325                         if (type == CLIENT_CAPA) {
326 #ifdef __KERNEL__
327                                 iput(ocapa->c_inode);
328 #endif
329                                 __capa_put(ocapa, type);
330                                 destroy_capa(ocapa);
331                         }
332                         spin_unlock(&capa_lock);
333                 }
334         }
335
336         EXIT;
337 }
338
339 static int update_capa_locked(struct lustre_capa *capa, int type)
340 {
341         uid_t uid = capa->lc_uid;
342         int capa_op = capa->lc_op;
343         __u64 mdsid = capa->lc_mdsid;
344         unsigned long ino = capa->lc_ino;
345         struct hlist_head *head = capa_hash +
346                                   capa_hashfn(uid, capa_op, mdsid, ino);
347         struct obd_capa *ocapa;
348         ENTRY;
349
350         spin_lock(&capa_lock);
351         ocapa = find_capa(head, uid, capa_op, mdsid, ino, type);
352         if (ocapa)
353                 do_update_capa(ocapa, capa);
354         spin_unlock(&capa_lock);
355
356         if (ocapa == NULL && type == MDS_CAPA) {
357                 ocapa = get_new_capa_locked(head, type, capa, NULL, NULL);
358                 capa_put(ocapa, type);
359         }
360
361         RETURN(ocapa ? 0 : -ENOENT);
362 }
363
364 int capa_renew(struct lustre_capa *capa, int type)
365 {
366         DEBUG_CAPA(D_INFO, capa, "renew");
367
368         return update_capa_locked(capa, type);
369 }
370
371 void capa_hmac(struct crypto_tfm *tfm, __u8 *key, struct lustre_capa *capa)
372 {
373         int keylen = CAPA_KEY_LEN;
374         struct scatterlist sl = {
375                 .page   = virt_to_page(capa),
376                 .offset = (unsigned long)(capa) % PAGE_SIZE,
377                 .length = sizeof(struct lustre_capa_data),
378         };
379
380         LASSERT(tfm);
381         crypto_hmac(tfm, key, &keylen, &sl, 1, capa->lc_hmac);
382 }
383
384 void capa_dup(void *dst, struct obd_capa *ocapa)
385 {
386         spin_lock(&capa_lock);
387         memcpy(dst, &ocapa->c_capa, sizeof(ocapa->c_capa));
388         spin_unlock(&capa_lock);
389 }
390
391 void capa_dup2(void *dst, struct lustre_capa *capa)
392 {
393         spin_lock(&capa_lock);
394         memcpy(dst, capa, sizeof(*capa));
395         spin_unlock(&capa_lock);
396 }
397
398 int capa_expired(struct lustre_capa *capa)
399 {
400         struct timeval tv;
401
402         do_gettimeofday(&tv);
403         return (capa->lc_expiry < tv.tv_sec) ? 1 : 0;
404 }
405
406 int __capa_is_to_expire(struct obd_capa *ocapa)
407 {
408         struct timeval tv;
409         int pre_expiry = capa_pre_expiry(&ocapa->c_capa);
410
411         do_gettimeofday(&tv);
412         return (ocapa->c_capa.lc_expiry - pre_expiry - 1 <= tv.tv_sec)? 1 : 0;
413 }
414
415 int capa_is_to_expire(struct obd_capa *ocapa)
416 {
417         int rc;
418
419         spin_lock(&capa_lock);
420         rc = __capa_is_to_expire(ocapa);
421         spin_unlock(&capa_lock);
422
423         return rc;
424 }
425
426 EXPORT_SYMBOL(capa_op);
427 EXPORT_SYMBOL(capa_get);
428 EXPORT_SYMBOL(capa_put);
429 EXPORT_SYMBOL(capa_renew);
430 EXPORT_SYMBOL(__capa_get);
431 EXPORT_SYMBOL(capa_hmac);
432 EXPORT_SYMBOL(capa_dup);
433 EXPORT_SYMBOL(capa_dup2);
434 EXPORT_SYMBOL(capa_expired);
435 EXPORT_SYMBOL(__capa_is_to_expire);
436 EXPORT_SYMBOL(capa_is_to_expire);