Whamcloud - gitweb
c15c69ddedc232285e47fb2add2698905b4f82fd
[fs/lustre-release.git] / lustre / include / linux / lustre_compat25.h
1 /*
2  * GPL HEADER START
3  *
4  * DO NOT ALTER OR REMOVE COPYRIGHT NOTICES OR THIS FILE HEADER.
5  *
6  * This program is free software; you can redistribute it and/or modify
7  * it under the terms of the GNU General Public License version 2 only,
8  * as published by the Free Software Foundation.
9  *
10  * This program is distributed in the hope that it will be useful, but
11  * WITHOUT ANY WARRANTY; without even the implied warranty of
12  * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
13  * General Public License version 2 for more details (a copy is included
14  * in the LICENSE file that accompanied this code).
15  *
16  * You should have received a copy of the GNU General Public License
17  * version 2 along with this program; If not, see
18  * http://www.sun.com/software/products/lustre/docs/GPLv2.pdf
19  *
20  * Please contact Sun Microsystems, Inc., 4150 Network Circle, Santa Clara,
21  * CA 95054 USA or visit www.sun.com if you need additional information or
22  * have any questions.
23  *
24  * GPL HEADER END
25  */
26 /*
27  * Copyright (c) 2003, 2010, Oracle and/or its affiliates. All rights reserved.
28  * Use is subject to license terms.
29  *
30  * Copyright (c) 2011, 2013, Intel Corporation.
31  */
32 /*
33  * This file is part of Lustre, http://www.lustre.org/
34  * Lustre is a trademark of Sun Microsystems, Inc.
35  */
36
37 #ifndef _LINUX_COMPAT25_H
38 #define _LINUX_COMPAT25_H
39
40 #include <linux/fs_struct.h>
41 #include <linux/namei.h>
42 #include <libcfs/linux/portals_compat25.h>
43
44 #include <linux/lustre_patchless_compat.h>
45
46 #ifdef HAVE_FS_STRUCT_RWLOCK
47 # define LOCK_FS_STRUCT(fs)     write_lock(&(fs)->lock)
48 # define UNLOCK_FS_STRUCT(fs)   write_unlock(&(fs)->lock)
49 #else
50 # define LOCK_FS_STRUCT(fs)     spin_lock(&(fs)->lock)
51 # define UNLOCK_FS_STRUCT(fs)   spin_unlock(&(fs)->lock)
52 #endif
53
54 static inline void ll_set_fs_pwd(struct fs_struct *fs, struct vfsmount *mnt,
55                                  struct dentry *dentry)
56 {
57         struct path path;
58         struct path old_pwd;
59
60         path.mnt = mnt;
61         path.dentry = dentry;
62         LOCK_FS_STRUCT(fs);
63         old_pwd = fs->pwd;
64         path_get(&path);
65         fs->pwd = path;
66         UNLOCK_FS_STRUCT(fs);
67
68         if (old_pwd.dentry)
69                 path_put(&old_pwd);
70 }
71
72 /*
73  * set ATTR_BLOCKS to a high value to avoid any risk of collision with other
74  * ATTR_* attributes (see bug 13828)
75  */
76 #define ATTR_BLOCKS    (1 << 27)
77
78 #define current_ngroups current_cred()->group_info->ngroups
79 #define current_groups current_cred()->group_info->small_block
80
81 /*
82  * OBD need working random driver, thus all our
83  * initialization routines must be called after device
84  * driver initialization
85  */
86 #ifndef MODULE
87 #undef module_init
88 #define module_init(a)     late_initcall(a)
89 #endif
90
91 #define LTIME_S(time)                   (time.tv_sec)
92
93 #ifdef HAVE_GENERIC_PERMISSION_2ARGS
94 # define ll_generic_permission(inode, mask, flags, check_acl) \
95          generic_permission(inode, mask)
96 #elif defined HAVE_GENERIC_PERMISSION_4ARGS
97 # define ll_generic_permission(inode, mask, flags, check_acl) \
98          generic_permission(inode, mask, flags, check_acl)
99 #else
100 # define ll_generic_permission(inode, mask, flags, check_acl) \
101          generic_permission(inode, mask, check_acl)
102 #endif
103
104 #ifdef HAVE_DENTRY_OPEN_USE_PATH
105 #define ll_dentry_open(a,b,c)   dentry_open(a,b,c)
106 #else
107 /*
108  * dentry_open handles its own reference counting since Linux v3.6
109  * (commit 765927b2). Callers should free their own references.
110  *
111  * Prior versions expected the caller to increment the references.
112  * The references are retained on success and freed on error.
113  */
114 static inline struct file *ll_dentry_open(struct path *path, int flags,
115                                           const struct cred *cred)
116 {
117         mntget(path->mnt);
118         dget(path->dentry);
119         return dentry_open(path->dentry, path->mnt, flags, cred);
120 }
121 #endif
122
123 #ifdef HAVE_4ARGS_VFS_SYMLINK
124 #define ll_vfs_symlink(dir, dentry, mnt, path, mode) \
125                 vfs_symlink(dir, dentry, path, mode)
126 #else
127 #define ll_vfs_symlink(dir, dentry, mnt, path, mode) \
128                        vfs_symlink(dir, dentry, path)
129 #endif
130
131 #if !defined(HAVE_FILE_LLSEEK_SIZE) || defined(HAVE_FILE_LLSEEK_SIZE_5ARGS)
132 #define ll_generic_file_llseek_size(file, offset, origin, maxbytes, eof) \
133                 generic_file_llseek_size(file, offset, origin, maxbytes, eof);
134 #else
135 #define ll_generic_file_llseek_size(file, offset, origin, maxbytes, eof) \
136                 generic_file_llseek_size(file, offset, origin, maxbytes);
137 #endif
138
139 #ifdef HAVE_INODE_DIO_WAIT
140 /* inode_dio_wait(i) use as-is for write lock */
141 # define inode_dio_write_done(i)        do {} while (0) /* for write unlock */
142 # define inode_dio_read(i)              atomic_inc(&(i)->i_dio_count)
143 /* inode_dio_done(i) use as-is for read unlock */
144 #else
145 # define inode_dio_wait(i)              down_write(&(i)->i_alloc_sem)
146 # define inode_dio_write_done(i)        up_write(&(i)->i_alloc_sem)
147 # define inode_dio_read(i)              down_read(&(i)->i_alloc_sem)
148 # define inode_dio_done(i)              up_read(&(i)->i_alloc_sem)
149 #endif
150
151 #ifdef HAVE_RW_TREE_LOCK
152 #define TREE_READ_LOCK_IRQ(mapping)     read_lock_irq(&(mapping)->tree_lock)
153 #define TREE_READ_UNLOCK_IRQ(mapping)   read_unlock_irq(&(mapping)->tree_lock)
154 #else
155 #define TREE_READ_LOCK_IRQ(mapping)     spin_lock_irq(&(mapping)->tree_lock)
156 #define TREE_READ_UNLOCK_IRQ(mapping)   spin_unlock_irq(&(mapping)->tree_lock)
157 #endif
158
159 #ifndef FS_HAS_FIEMAP
160 #define FS_HAS_FIEMAP                   (0)
161 #endif
162
163 /* add a lustre compatible layer for crypto API */
164 #include <linux/crypto.h>
165 #define ll_crypto_hash          crypto_hash
166 #define ll_crypto_cipher        crypto_blkcipher
167 #define ll_crypto_alloc_hash(name, type, mask)  crypto_alloc_hash(name, type, mask)
168 #define ll_crypto_hash_setkey(tfm, key, keylen) crypto_hash_setkey(tfm, key, keylen)
169 #define ll_crypto_hash_init(desc)               crypto_hash_init(desc)
170 #define ll_crypto_hash_update(desc, sl, bytes)  crypto_hash_update(desc, sl, bytes)
171 #define ll_crypto_hash_final(desc, out)         crypto_hash_final(desc, out)
172 #define ll_crypto_blkcipher_setkey(tfm, key, keylen) \
173                 crypto_blkcipher_setkey(tfm, key, keylen)
174 #define ll_crypto_blkcipher_set_iv(tfm, src, len) \
175                 crypto_blkcipher_set_iv(tfm, src, len)
176 #define ll_crypto_blkcipher_get_iv(tfm, dst, len) \
177                 crypto_blkcipher_get_iv(tfm, dst, len)
178 #define ll_crypto_blkcipher_encrypt(desc, dst, src, bytes) \
179                 crypto_blkcipher_encrypt(desc, dst, src, bytes)
180 #define ll_crypto_blkcipher_decrypt(desc, dst, src, bytes) \
181                 crypto_blkcipher_decrypt(desc, dst, src, bytes)
182 #define ll_crypto_blkcipher_encrypt_iv(desc, dst, src, bytes) \
183                 crypto_blkcipher_encrypt_iv(desc, dst, src, bytes)
184 #define ll_crypto_blkcipher_decrypt_iv(desc, dst, src, bytes) \
185                 crypto_blkcipher_decrypt_iv(desc, dst, src, bytes)
186
187 static inline
188 struct ll_crypto_cipher *ll_crypto_alloc_blkcipher(const char *name,
189                                                    u32 type, u32 mask)
190 {
191         struct ll_crypto_cipher *rtn = crypto_alloc_blkcipher(name, type, mask);
192
193         return (rtn == NULL ? ERR_PTR(-ENOMEM) : rtn);
194 }
195
196 static inline int ll_crypto_hmac(struct ll_crypto_hash *tfm,
197                                  u8 *key, unsigned int *keylen,
198                                  struct scatterlist *sg,
199                                  unsigned int size, u8 *result)
200 {
201         struct hash_desc desc;
202         int              rv;
203         desc.tfm   = tfm;
204         desc.flags = 0;
205         rv = crypto_hash_setkey(desc.tfm, key, *keylen);
206         if (rv) {
207                 CERROR("failed to hash setkey: %d\n", rv);
208                 return rv;
209         }
210         return crypto_hash_digest(&desc, sg, size, result);
211 }
212 static inline
213 unsigned int ll_crypto_tfm_alg_max_keysize(struct crypto_blkcipher *tfm)
214 {
215         return crypto_blkcipher_tfm(tfm)->__crt_alg->cra_blkcipher.max_keysize;
216 }
217 static inline
218 unsigned int ll_crypto_tfm_alg_min_keysize(struct crypto_blkcipher *tfm)
219 {
220         return crypto_blkcipher_tfm(tfm)->__crt_alg->cra_blkcipher.min_keysize;
221 }
222
223 #define ll_crypto_hash_blocksize(tfm)       crypto_hash_blocksize(tfm)
224 #define ll_crypto_hash_digestsize(tfm)      crypto_hash_digestsize(tfm)
225 #define ll_crypto_blkcipher_ivsize(tfm)     crypto_blkcipher_ivsize(tfm)
226 #define ll_crypto_blkcipher_blocksize(tfm)  crypto_blkcipher_blocksize(tfm)
227 #define ll_crypto_free_hash(tfm)            crypto_free_hash(tfm)
228 #define ll_crypto_free_blkcipher(tfm)       crypto_free_blkcipher(tfm)
229
230 #ifdef for_each_possible_cpu
231 #define cfs_for_each_possible_cpu(cpu) for_each_possible_cpu(cpu)
232 #elif defined(for_each_cpu)
233 #define cfs_for_each_possible_cpu(cpu) for_each_cpu(cpu)
234 #endif
235
236 #ifdef HAVE_BIO_ENDIO_2ARG
237 #define cfs_bio_io_error(a,b)   bio_io_error((a))
238 #define cfs_bio_endio(a,b,c)    bio_endio((a),(c))
239 #else
240 #define cfs_bio_io_error(a,b)   bio_io_error((a),(b))
241 #define cfs_bio_endio(a,b,c)    bio_endio((a),(b),(c))
242 #endif
243
244 #ifndef HAVE_SIMPLE_SETATTR
245 #define simple_setattr(dentry, ops) inode_setattr((dentry)->d_inode, ops)
246 #endif
247
248 #ifndef SLAB_DESTROY_BY_RCU
249 #define SLAB_DESTROY_BY_RCU 0
250 #endif
251
252 static inline int
253 ll_quota_on(struct super_block *sb, int off, int ver, char *name, int remount)
254 {
255         int rc;
256
257         if (sb->s_qcop->quota_on) {
258 #ifdef HAVE_QUOTA_ON_USE_PATH
259                 struct path path;
260
261                 rc = kern_path(name, LOOKUP_FOLLOW, &path);
262                 if (!rc)
263                         return rc;
264 #endif
265                 rc = sb->s_qcop->quota_on(sb, off, ver
266 #ifdef HAVE_QUOTA_ON_USE_PATH
267                                             , &path
268 #else
269                                             , name
270 #endif
271 #ifdef HAVE_QUOTA_ON_5ARGS
272                                             , remount
273 #endif
274                                            );
275 #ifdef HAVE_QUOTA_ON_USE_PATH
276                 path_put(&path);
277 #endif
278                 return rc;
279         }
280         else
281                 return -ENOSYS;
282 }
283
284 static inline int ll_quota_off(struct super_block *sb, int off, int remount)
285 {
286         if (sb->s_qcop->quota_off) {
287                 return sb->s_qcop->quota_off(sb, off
288 #ifdef HAVE_QUOTA_OFF_3ARGS
289                                              , remount
290 #endif
291                                             );
292         }
293         else
294                 return -ENOSYS;
295 }
296
297 #ifndef HAVE_DQUOT_SUSPEND
298 # define ll_vfs_dq_init             vfs_dq_init
299 # define ll_vfs_dq_drop             vfs_dq_drop
300 # define ll_vfs_dq_transfer         vfs_dq_transfer
301 # define ll_vfs_dq_off(sb, remount) vfs_dq_off(sb, remount)
302 #else
303 # define ll_vfs_dq_init             dquot_initialize
304 # define ll_vfs_dq_drop             dquot_drop
305 # define ll_vfs_dq_transfer         dquot_transfer
306 # define ll_vfs_dq_off(sb, remount) dquot_suspend(sb, -1)
307 #endif
308
309 #ifndef HAVE_BLKDEV_GET_BY_DEV
310 # define blkdev_get_by_dev(dev, mode, holder) open_by_devnum(dev, mode)
311 #endif
312
313 #ifndef HAVE_BLK_QUEUE_MAX_SEGMENTS
314 #define blk_queue_max_segments(rq, seg)                      \
315         do { blk_queue_max_phys_segments(rq, seg);           \
316              blk_queue_max_hw_segments(rq, seg); } while (0)
317 #else
318 #define queue_max_phys_segments(rq)       queue_max_segments(rq)
319 #define queue_max_hw_segments(rq)         queue_max_segments(rq)
320 #endif
321
322 #ifdef HAVE_KMAP_ATOMIC_HAS_1ARG
323 #define ll_kmap_atomic(a, b)    kmap_atomic(a)
324 #define ll_kunmap_atomic(a, b)  kunmap_atomic(a)
325 #else
326 #define ll_kmap_atomic(a, b)    kmap_atomic(a, b)
327 #define ll_kunmap_atomic(a, b)  kunmap_atomic(a, b)
328 #endif
329
330 #ifndef HAVE_CLEAR_INODE
331 #define clear_inode(i)          end_writeback(i)
332 #endif
333
334 #ifdef HAVE_DENTRY_D_ALIAS_HLIST
335 #define ll_d_hlist_node hlist_node
336 #define ll_d_hlist_empty(list) hlist_empty(list)
337 #define ll_d_hlist_entry(ptr, type, name) hlist_entry(ptr.first, type, name)
338 #define ll_d_hlist_for_each(tmp, i_dentry) hlist_for_each(tmp, i_dentry)
339 #ifdef HAVE_HLIST_FOR_EACH_3ARG
340 #define ll_d_hlist_for_each_entry(dentry, p, i_dentry, alias) \
341         p = NULL; hlist_for_each_entry(dentry, i_dentry, alias)
342 #else
343 #define ll_d_hlist_for_each_entry(dentry, p, i_dentry, alias) \
344         hlist_for_each_entry(dentry, p, i_dentry, alias)
345 #endif
346 #define DECLARE_LL_D_HLIST_NODE_PTR(name) struct ll_d_hlist_node *name
347 #else
348 #define ll_d_hlist_node list_head
349 #define ll_d_hlist_empty(list) list_empty(list)
350 #define ll_d_hlist_entry(ptr, type, name) list_entry(ptr.next, type, name)
351 #define ll_d_hlist_for_each(tmp, i_dentry) list_for_each(tmp, i_dentry)
352 #define ll_d_hlist_for_each_entry(dentry, p, i_dentry, alias) \
353         list_for_each_entry(dentry, i_dentry, alias)
354 #define DECLARE_LL_D_HLIST_NODE_PTR(name) /* nothing */
355 #endif
356
357
358 #ifndef HAVE_BI_HW_SEGMENTS
359 #define bio_hw_segments(q, bio) 0
360 #endif
361
362 #ifndef QUOTA_OK
363 # define QUOTA_OK 0
364 #endif
365 #ifndef NO_QUOTA
366 # define NO_QUOTA (-EDQUOT)
367 #endif
368
369 #ifndef SEEK_DATA
370 #define SEEK_DATA      3       /* seek to the next data */
371 #endif
372 #ifndef SEEK_HOLE
373 #define SEEK_HOLE      4       /* seek to the next hole */
374 #endif
375
376 #ifndef FMODE_UNSIGNED_OFFSET
377 #define FMODE_UNSIGNED_OFFSET   ((__force fmode_t)0x2000)
378 #endif
379
380 #if !defined(_ASM_GENERIC_BITOPS_EXT2_NON_ATOMIC_H_) && !defined(ext2_set_bit)
381 # define ext2_set_bit             __test_and_set_bit_le
382 # define ext2_clear_bit           __test_and_clear_bit_le
383 # define ext2_test_bit            test_bit_le
384 # define ext2_find_first_zero_bit find_first_zero_bit_le
385 # define ext2_find_next_zero_bit  find_next_zero_bit_le
386 #endif
387
388 #ifdef ATTR_TIMES_SET
389 # define TIMES_SET_FLAGS (ATTR_MTIME_SET | ATTR_ATIME_SET | ATTR_TIMES_SET)
390 #else
391 # define TIMES_SET_FLAGS (ATTR_MTIME_SET | ATTR_ATIME_SET)
392 #endif
393
394 #ifndef HAVE_LM_XXX_LOCK_MANAGER_OPS
395 # define lm_compare_owner       fl_compare_owner
396 #endif
397
398 /*
399  * After 3.1, kernel's nameidata.intent.open.flags is different
400  * with lustre's lookup_intent.it_flags, as lustre's it_flags'
401  * lower bits equal to FMODE_xxx while kernel doesn't transliterate
402  * lower bits of nameidata.intent.open.flags to FMODE_xxx.
403  * */
404 #include <linux/version.h>
405 static inline int ll_namei_to_lookup_intent_flag(int flag)
406 {
407 #if LINUX_VERSION_CODE >= KERNEL_VERSION(3, 1, 0)
408         flag = (flag & ~O_ACCMODE) | OPEN_FMODE(flag);
409 #endif
410         return flag;
411 }
412
413 #ifdef HAVE_VOID_MAKE_REQUEST_FN
414 # define ll_mrf_ret void
415 # define LL_MRF_RETURN(rc)
416 #else
417 # define ll_mrf_ret int
418 # define LL_MRF_RETURN(rc) RETURN(rc)
419 #endif
420
421 #include <linux/fs.h>
422 #ifndef HAVE_PROTECT_I_NLINK
423 static inline void set_nlink(struct inode *inode, unsigned int nlink)
424 {
425         inode->i_nlink = nlink;
426 }
427 #endif
428
429 #ifdef HAVE_INODEOPS_USE_UMODE_T
430 # define ll_umode_t     umode_t
431 #else
432 # define ll_umode_t     int
433 #endif
434
435 #include <linux/dcache.h>
436 #ifndef HAVE_D_MAKE_ROOT
437 static inline struct dentry *d_make_root(struct inode *root)
438 {
439         struct dentry *res = d_alloc_root(root);
440
441         if (res == NULL && root)
442                 iput(root);
443
444         return res;
445 }
446 #endif
447
448 #ifdef HAVE_DIRTY_INODE_HAS_FLAG
449 # define ll_dirty_inode(inode, flag)    (inode)->i_sb->s_op->dirty_inode((inode), flag)
450 #else
451 # define ll_dirty_inode(inode, flag)    (inode)->i_sb->s_op->dirty_inode((inode))
452 #endif
453
454 #endif /* _COMPAT25_H */