Whamcloud - gitweb
c23e5595d29cc6c2886b1cc079c2b92566c3b4d2
[fs/lustre-release.git] / lustre / include / linux / lustre_compat25.h
1 /*
2  * GPL HEADER START
3  *
4  * DO NOT ALTER OR REMOVE COPYRIGHT NOTICES OR THIS FILE HEADER.
5  *
6  * This program is free software; you can redistribute it and/or modify
7  * it under the terms of the GNU General Public License version 2 only,
8  * as published by the Free Software Foundation.
9  *
10  * This program is distributed in the hope that it will be useful, but
11  * WITHOUT ANY WARRANTY; without even the implied warranty of
12  * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
13  * General Public License version 2 for more details (a copy is included
14  * in the LICENSE file that accompanied this code).
15  *
16  * You should have received a copy of the GNU General Public License
17  * version 2 along with this program; If not, see
18  * http://www.sun.com/software/products/lustre/docs/GPLv2.pdf
19  *
20  * Please contact Sun Microsystems, Inc., 4150 Network Circle, Santa Clara,
21  * CA 95054 USA or visit www.sun.com if you need additional information or
22  * have any questions.
23  *
24  * GPL HEADER END
25  */
26 /*
27  * Copyright (c) 2003, 2010, Oracle and/or its affiliates. All rights reserved.
28  * Use is subject to license terms.
29  *
30  * Copyright (c) 2011, 2013, Intel Corporation.
31  */
32 /*
33  * This file is part of Lustre, http://www.lustre.org/
34  * Lustre is a trademark of Sun Microsystems, Inc.
35  */
36
37 #ifndef _LINUX_COMPAT25_H
38 #define _LINUX_COMPAT25_H
39
40 #include <linux/fs_struct.h>
41 #include <linux/namei.h>
42 #include <libcfs/linux/portals_compat25.h>
43
44 #include <linux/lustre_patchless_compat.h>
45
46 #ifdef HAVE_FS_STRUCT_RWLOCK
47 # define LOCK_FS_STRUCT(fs)     write_lock(&(fs)->lock)
48 # define UNLOCK_FS_STRUCT(fs)   write_unlock(&(fs)->lock)
49 #else
50 # define LOCK_FS_STRUCT(fs)     spin_lock(&(fs)->lock)
51 # define UNLOCK_FS_STRUCT(fs)   spin_unlock(&(fs)->lock)
52 #endif
53
54 static inline void ll_set_fs_pwd(struct fs_struct *fs, struct vfsmount *mnt,
55                                  struct dentry *dentry)
56 {
57         struct path path;
58         struct path old_pwd;
59
60         path.mnt = mnt;
61         path.dentry = dentry;
62         LOCK_FS_STRUCT(fs);
63         old_pwd = fs->pwd;
64         path_get(&path);
65         fs->pwd = path;
66         UNLOCK_FS_STRUCT(fs);
67
68         if (old_pwd.dentry)
69                 path_put(&old_pwd);
70 }
71
72 /*
73  * set ATTR_BLOCKS to a high value to avoid any risk of collision with other
74  * ATTR_* attributes (see bug 13828)
75  */
76 #define ATTR_BLOCKS    (1 << 27)
77
78 #define current_ngroups current_cred()->group_info->ngroups
79 #define current_groups current_cred()->group_info->small_block
80
81 /*
82  * OBD need working random driver, thus all our
83  * initialization routines must be called after device
84  * driver initialization
85  */
86 #ifndef MODULE
87 #undef module_init
88 #define module_init(a)     late_initcall(a)
89 #endif
90
91 #define LTIME_S(time)                   (time.tv_sec)
92
93 #ifdef HAVE_GENERIC_PERMISSION_2ARGS
94 # define ll_generic_permission(inode, mask, flags, check_acl) \
95          generic_permission(inode, mask)
96 #elif defined HAVE_GENERIC_PERMISSION_4ARGS
97 # define ll_generic_permission(inode, mask, flags, check_acl) \
98          generic_permission(inode, mask, flags, check_acl)
99 #else
100 # define ll_generic_permission(inode, mask, flags, check_acl) \
101          generic_permission(inode, mask, check_acl)
102 #endif
103
104 #ifdef HAVE_DENTRY_OPEN_USE_PATH
105 #define ll_dentry_open(a,b,c)   dentry_open(a,b,c)
106 #else
107 /*
108  * dentry_open handles its own reference counting since Linux v3.6
109  * (commit 765927b2). Callers should free their own references.
110  *
111  * Prior versions expected the caller to increment the references.
112  * The references are retained on success and freed on error.
113  */
114 static inline struct file *ll_dentry_open(struct path *path, int flags,
115                                           const struct cred *cred)
116 {
117         mntget(path->mnt);
118         dget(path->dentry);
119         return dentry_open(path->dentry, path->mnt, flags, cred);
120 }
121 #endif
122
123 #ifdef HAVE_4ARGS_VFS_SYMLINK
124 #define ll_vfs_symlink(dir, dentry, mnt, path, mode) \
125                 vfs_symlink(dir, dentry, path, mode)
126 #else
127 #define ll_vfs_symlink(dir, dentry, mnt, path, mode) \
128                        vfs_symlink(dir, dentry, path)
129 #endif
130
131 #if !defined(HAVE_FILE_LLSEEK_SIZE) || defined(HAVE_FILE_LLSEEK_SIZE_5ARGS)
132 #define ll_generic_file_llseek_size(file, offset, origin, maxbytes, eof) \
133                 generic_file_llseek_size(file, offset, origin, maxbytes, eof);
134 #else
135 #define ll_generic_file_llseek_size(file, offset, origin, maxbytes, eof) \
136                 generic_file_llseek_size(file, offset, origin, maxbytes);
137 #endif
138
139 #ifdef HAVE_INODE_DIO_WAIT
140 /* inode_dio_wait(i) use as-is for write lock */
141 # define inode_dio_write_done(i)        do {} while (0) /* for write unlock */
142 # define inode_dio_read(i)              atomic_inc(&(i)->i_dio_count)
143 /* inode_dio_done(i) use as-is for read unlock */
144 #else
145 # define inode_dio_wait(i)              down_write(&(i)->i_alloc_sem)
146 # define inode_dio_write_done(i)        up_write(&(i)->i_alloc_sem)
147 # define inode_dio_read(i)              down_read(&(i)->i_alloc_sem)
148 # define inode_dio_done(i)              up_read(&(i)->i_alloc_sem)
149 #endif
150
151 #ifndef FS_HAS_FIEMAP
152 #define FS_HAS_FIEMAP                   (0)
153 #endif
154
155 /* add a lustre compatible layer for crypto API */
156 #include <linux/crypto.h>
157 #define ll_crypto_hash          crypto_hash
158 #define ll_crypto_cipher        crypto_blkcipher
159 #define ll_crypto_alloc_hash(name, type, mask)  crypto_alloc_hash(name, type, mask)
160 #define ll_crypto_hash_setkey(tfm, key, keylen) crypto_hash_setkey(tfm, key, keylen)
161 #define ll_crypto_hash_init(desc)               crypto_hash_init(desc)
162 #define ll_crypto_hash_update(desc, sl, bytes)  crypto_hash_update(desc, sl, bytes)
163 #define ll_crypto_hash_final(desc, out)         crypto_hash_final(desc, out)
164 #define ll_crypto_blkcipher_setkey(tfm, key, keylen) \
165                 crypto_blkcipher_setkey(tfm, key, keylen)
166 #define ll_crypto_blkcipher_set_iv(tfm, src, len) \
167                 crypto_blkcipher_set_iv(tfm, src, len)
168 #define ll_crypto_blkcipher_get_iv(tfm, dst, len) \
169                 crypto_blkcipher_get_iv(tfm, dst, len)
170 #define ll_crypto_blkcipher_encrypt(desc, dst, src, bytes) \
171                 crypto_blkcipher_encrypt(desc, dst, src, bytes)
172 #define ll_crypto_blkcipher_decrypt(desc, dst, src, bytes) \
173                 crypto_blkcipher_decrypt(desc, dst, src, bytes)
174 #define ll_crypto_blkcipher_encrypt_iv(desc, dst, src, bytes) \
175                 crypto_blkcipher_encrypt_iv(desc, dst, src, bytes)
176 #define ll_crypto_blkcipher_decrypt_iv(desc, dst, src, bytes) \
177                 crypto_blkcipher_decrypt_iv(desc, dst, src, bytes)
178
179 static inline
180 struct ll_crypto_cipher *ll_crypto_alloc_blkcipher(const char *name,
181                                                    u32 type, u32 mask)
182 {
183         struct ll_crypto_cipher *rtn = crypto_alloc_blkcipher(name, type, mask);
184
185         return (rtn == NULL ? ERR_PTR(-ENOMEM) : rtn);
186 }
187
188 static inline int ll_crypto_hmac(struct ll_crypto_hash *tfm,
189                                  u8 *key, unsigned int *keylen,
190                                  struct scatterlist *sg,
191                                  unsigned int size, u8 *result)
192 {
193         struct hash_desc desc;
194         int              rv;
195         desc.tfm   = tfm;
196         desc.flags = 0;
197         rv = crypto_hash_setkey(desc.tfm, key, *keylen);
198         if (rv) {
199                 CERROR("failed to hash setkey: %d\n", rv);
200                 return rv;
201         }
202         return crypto_hash_digest(&desc, sg, size, result);
203 }
204 static inline
205 unsigned int ll_crypto_tfm_alg_max_keysize(struct crypto_blkcipher *tfm)
206 {
207         return crypto_blkcipher_tfm(tfm)->__crt_alg->cra_blkcipher.max_keysize;
208 }
209 static inline
210 unsigned int ll_crypto_tfm_alg_min_keysize(struct crypto_blkcipher *tfm)
211 {
212         return crypto_blkcipher_tfm(tfm)->__crt_alg->cra_blkcipher.min_keysize;
213 }
214
215 #define ll_crypto_hash_blocksize(tfm)       crypto_hash_blocksize(tfm)
216 #define ll_crypto_hash_digestsize(tfm)      crypto_hash_digestsize(tfm)
217 #define ll_crypto_blkcipher_ivsize(tfm)     crypto_blkcipher_ivsize(tfm)
218 #define ll_crypto_blkcipher_blocksize(tfm)  crypto_blkcipher_blocksize(tfm)
219 #define ll_crypto_free_hash(tfm)            crypto_free_hash(tfm)
220 #define ll_crypto_free_blkcipher(tfm)       crypto_free_blkcipher(tfm)
221
222 #ifdef for_each_possible_cpu
223 #define cfs_for_each_possible_cpu(cpu) for_each_possible_cpu(cpu)
224 #elif defined(for_each_cpu)
225 #define cfs_for_each_possible_cpu(cpu) for_each_cpu(cpu)
226 #endif
227
228 #ifdef HAVE_BIO_ENDIO_2ARG
229 #define cfs_bio_io_error(a,b)   bio_io_error((a))
230 #define cfs_bio_endio(a,b,c)    bio_endio((a),(c))
231 #else
232 #define cfs_bio_io_error(a,b)   bio_io_error((a),(b))
233 #define cfs_bio_endio(a,b,c)    bio_endio((a),(b),(c))
234 #endif
235
236 #ifndef HAVE_SIMPLE_SETATTR
237 #define simple_setattr(dentry, ops) inode_setattr((dentry)->d_inode, ops)
238 #endif
239
240 #ifndef SLAB_DESTROY_BY_RCU
241 #define SLAB_DESTROY_BY_RCU 0
242 #endif
243
244 static inline int
245 ll_quota_on(struct super_block *sb, int off, int ver, char *name, int remount)
246 {
247         int rc;
248
249         if (sb->s_qcop->quota_on) {
250 #ifdef HAVE_QUOTA_ON_USE_PATH
251                 struct path path;
252
253                 rc = kern_path(name, LOOKUP_FOLLOW, &path);
254                 if (!rc)
255                         return rc;
256 #endif
257                 rc = sb->s_qcop->quota_on(sb, off, ver
258 #ifdef HAVE_QUOTA_ON_USE_PATH
259                                             , &path
260 #else
261                                             , name
262 #endif
263 #ifdef HAVE_QUOTA_ON_5ARGS
264                                             , remount
265 #endif
266                                            );
267 #ifdef HAVE_QUOTA_ON_USE_PATH
268                 path_put(&path);
269 #endif
270                 return rc;
271         }
272         else
273                 return -ENOSYS;
274 }
275
276 static inline int ll_quota_off(struct super_block *sb, int off, int remount)
277 {
278         if (sb->s_qcop->quota_off) {
279                 return sb->s_qcop->quota_off(sb, off
280 #ifdef HAVE_QUOTA_OFF_3ARGS
281                                              , remount
282 #endif
283                                             );
284         }
285         else
286                 return -ENOSYS;
287 }
288
289 #ifndef HAVE_DQUOT_SUSPEND
290 # define ll_vfs_dq_init             vfs_dq_init
291 # define ll_vfs_dq_drop             vfs_dq_drop
292 # define ll_vfs_dq_transfer         vfs_dq_transfer
293 # define ll_vfs_dq_off(sb, remount) vfs_dq_off(sb, remount)
294 #else
295 # define ll_vfs_dq_init             dquot_initialize
296 # define ll_vfs_dq_drop             dquot_drop
297 # define ll_vfs_dq_transfer         dquot_transfer
298 # define ll_vfs_dq_off(sb, remount) dquot_suspend(sb, -1)
299 #endif
300
301 #ifndef HAVE_BLKDEV_GET_BY_DEV
302 # define blkdev_get_by_dev(dev, mode, holder) open_by_devnum(dev, mode)
303 #endif
304
305 #ifndef HAVE_BLK_QUEUE_MAX_SEGMENTS
306 #define blk_queue_max_segments(rq, seg)                      \
307         do { blk_queue_max_phys_segments(rq, seg);           \
308              blk_queue_max_hw_segments(rq, seg); } while (0)
309 #else
310 #define queue_max_phys_segments(rq)       queue_max_segments(rq)
311 #define queue_max_hw_segments(rq)         queue_max_segments(rq)
312 #endif
313
314 #ifdef HAVE_KMAP_ATOMIC_HAS_1ARG
315 #define ll_kmap_atomic(a, b)    kmap_atomic(a)
316 #define ll_kunmap_atomic(a, b)  kunmap_atomic(a)
317 #else
318 #define ll_kmap_atomic(a, b)    kmap_atomic(a, b)
319 #define ll_kunmap_atomic(a, b)  kunmap_atomic(a, b)
320 #endif
321
322 #ifndef HAVE_CLEAR_INODE
323 #define clear_inode(i)          end_writeback(i)
324 #endif
325
326 #ifdef HAVE_DENTRY_D_ALIAS_HLIST
327 #define ll_d_hlist_node hlist_node
328 #define ll_d_hlist_empty(list) hlist_empty(list)
329 #define ll_d_hlist_entry(ptr, type, name) hlist_entry(ptr.first, type, name)
330 #define ll_d_hlist_for_each(tmp, i_dentry) hlist_for_each(tmp, i_dentry)
331 #ifdef HAVE_HLIST_FOR_EACH_3ARG
332 #define ll_d_hlist_for_each_entry(dentry, p, i_dentry, alias) \
333         p = NULL; hlist_for_each_entry(dentry, i_dentry, alias)
334 #else
335 #define ll_d_hlist_for_each_entry(dentry, p, i_dentry, alias) \
336         hlist_for_each_entry(dentry, p, i_dentry, alias)
337 #endif
338 #define DECLARE_LL_D_HLIST_NODE_PTR(name) struct ll_d_hlist_node *name
339 #else
340 #define ll_d_hlist_node list_head
341 #define ll_d_hlist_empty(list) list_empty(list)
342 #define ll_d_hlist_entry(ptr, type, name) list_entry(ptr.next, type, name)
343 #define ll_d_hlist_for_each(tmp, i_dentry) list_for_each(tmp, i_dentry)
344 #define ll_d_hlist_for_each_entry(dentry, p, i_dentry, alias) \
345         list_for_each_entry(dentry, i_dentry, alias)
346 #define DECLARE_LL_D_HLIST_NODE_PTR(name) /* nothing */
347 #endif
348
349
350 #ifndef HAVE_BI_HW_SEGMENTS
351 #define bio_hw_segments(q, bio) 0
352 #endif
353
354 #ifndef QUOTA_OK
355 # define QUOTA_OK 0
356 #endif
357 #ifndef NO_QUOTA
358 # define NO_QUOTA (-EDQUOT)
359 #endif
360
361 #ifndef SEEK_DATA
362 #define SEEK_DATA      3       /* seek to the next data */
363 #endif
364 #ifndef SEEK_HOLE
365 #define SEEK_HOLE      4       /* seek to the next hole */
366 #endif
367
368 #ifndef FMODE_UNSIGNED_OFFSET
369 #define FMODE_UNSIGNED_OFFSET   ((__force fmode_t)0x2000)
370 #endif
371
372 #if !defined(_ASM_GENERIC_BITOPS_EXT2_NON_ATOMIC_H_) && !defined(ext2_set_bit)
373 # define ext2_set_bit             __test_and_set_bit_le
374 # define ext2_clear_bit           __test_and_clear_bit_le
375 # define ext2_test_bit            test_bit_le
376 # define ext2_find_first_zero_bit find_first_zero_bit_le
377 # define ext2_find_next_zero_bit  find_next_zero_bit_le
378 #endif
379
380 #ifdef ATTR_TIMES_SET
381 # define TIMES_SET_FLAGS (ATTR_MTIME_SET | ATTR_ATIME_SET | ATTR_TIMES_SET)
382 #else
383 # define TIMES_SET_FLAGS (ATTR_MTIME_SET | ATTR_ATIME_SET)
384 #endif
385
386 #ifndef HAVE_LM_XXX_LOCK_MANAGER_OPS
387 # define lm_compare_owner       fl_compare_owner
388 #endif
389
390 /*
391  * After 3.1, kernel's nameidata.intent.open.flags is different
392  * with lustre's lookup_intent.it_flags, as lustre's it_flags'
393  * lower bits equal to FMODE_xxx while kernel doesn't transliterate
394  * lower bits of nameidata.intent.open.flags to FMODE_xxx.
395  * */
396 #include <linux/version.h>
397 static inline int ll_namei_to_lookup_intent_flag(int flag)
398 {
399 #if LINUX_VERSION_CODE >= KERNEL_VERSION(3, 1, 0)
400         flag = (flag & ~O_ACCMODE) | OPEN_FMODE(flag);
401 #endif
402         return flag;
403 }
404
405 #ifdef HAVE_VOID_MAKE_REQUEST_FN
406 # define ll_mrf_ret void
407 # define LL_MRF_RETURN(rc)
408 #else
409 # define ll_mrf_ret int
410 # define LL_MRF_RETURN(rc) RETURN(rc)
411 #endif
412
413 #include <linux/fs.h>
414 #ifndef HAVE_PROTECT_I_NLINK
415 static inline void set_nlink(struct inode *inode, unsigned int nlink)
416 {
417         inode->i_nlink = nlink;
418 }
419 #endif
420
421 #ifdef HAVE_INODEOPS_USE_UMODE_T
422 # define ll_umode_t     umode_t
423 #else
424 # define ll_umode_t     int
425 #endif
426
427 #include <linux/dcache.h>
428 #ifndef HAVE_D_MAKE_ROOT
429 static inline struct dentry *d_make_root(struct inode *root)
430 {
431         struct dentry *res = d_alloc_root(root);
432
433         if (res == NULL && root)
434                 iput(root);
435
436         return res;
437 }
438 #endif
439
440 #ifdef HAVE_DIRTY_INODE_HAS_FLAG
441 # define ll_dirty_inode(inode, flag)    (inode)->i_sb->s_op->dirty_inode((inode), flag)
442 #else
443 # define ll_dirty_inode(inode, flag)    (inode)->i_sb->s_op->dirty_inode((inode))
444 #endif
445
446 #endif /* _COMPAT25_H */