Whamcloud - gitweb
LU-8304 libcfs: convert debug_ctlwq to a completion.
[fs/lustre-release.git] / lustre / include / lustre_compat.h
1 /*
2  * GPL HEADER START
3  *
4  * DO NOT ALTER OR REMOVE COPYRIGHT NOTICES OR THIS FILE HEADER.
5  *
6  * This program is free software; you can redistribute it and/or modify
7  * it under the terms of the GNU General Public License version 2 only,
8  * as published by the Free Software Foundation.
9  *
10  * This program is distributed in the hope that it will be useful, but
11  * WITHOUT ANY WARRANTY; without even the implied warranty of
12  * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
13  * General Public License version 2 for more details (a copy is included
14  * in the LICENSE file that accompanied this code).
15  *
16  * You should have received a copy of the GNU General Public License
17  * version 2 along with this program; If not, see
18  * http://www.gnu.org/licenses/gpl-2.0.html
19  *
20  * GPL HEADER END
21  */
22 /*
23  * Copyright (c) 2003, 2010, Oracle and/or its affiliates. All rights reserved.
24  * Use is subject to license terms.
25  *
26  * Copyright (c) 2011, 2017, Intel Corporation.
27  */
28 /*
29  * This file is part of Lustre, http://www.lustre.org/
30  * Lustre is a trademark of Sun Microsystems, Inc.
31  */
32
33 #ifndef _LUSTRE_COMPAT_H
34 #define _LUSTRE_COMPAT_H
35
36 #include <linux/aio.h>
37 #include <linux/fs.h>
38 #include <linux/fs_struct.h>
39 #include <linux/namei.h>
40 #include <linux/pagemap.h>
41 #include <linux/posix_acl_xattr.h>
42 #include <linux/bio.h>
43 #include <linux/xattr.h>
44 #include <linux/workqueue.h>
45 #include <linux/blkdev.h>
46 #include <linux/slab.h>
47
48 #include <libcfs/linux/linux-fs.h>
49 #include <obd_support.h>
50
51 #define current_ngroups current_cred()->group_info->ngroups
52 #define current_groups current_cred()->group_info->small_block
53
54 #ifdef HAVE_4ARGS_VFS_SYMLINK
55 #define ll_vfs_symlink(dir, dentry, mnt, path, mode) \
56                 vfs_symlink(dir, dentry, path, mode)
57 #else
58 #define ll_vfs_symlink(dir, dentry, mnt, path, mode) \
59                        vfs_symlink(dir, dentry, path)
60 #endif
61
62 #if !defined(HAVE_FILE_LLSEEK_SIZE) || defined(HAVE_FILE_LLSEEK_SIZE_5ARGS)
63 #define ll_generic_file_llseek_size(file, offset, origin, maxbytes, eof) \
64                 generic_file_llseek_size(file, offset, origin, maxbytes, eof);
65 #else
66 #define ll_generic_file_llseek_size(file, offset, origin, maxbytes, eof) \
67                 generic_file_llseek_size(file, offset, origin, maxbytes);
68 #endif
69
70 #ifdef HAVE_INODE_DIO_WAIT
71 /* inode_dio_wait(i) use as-is for write lock */
72 # define inode_dio_write_done(i)        do {} while (0) /* for write unlock */
73 #else
74 # define inode_dio_wait(i)              down_write(&(i)->i_alloc_sem)
75 # define inode_dio_write_done(i)        up_write(&(i)->i_alloc_sem)
76 #endif
77
78 #ifndef HAVE_INIT_LIST_HEAD_RCU
79 static inline void INIT_LIST_HEAD_RCU(struct list_head *list)
80 {
81         WRITE_ONCE(list->next, list);
82         WRITE_ONCE(list->prev, list);
83 }
84 #endif
85
86 #ifdef HAVE_BVEC_ITER
87 #define bio_idx(bio)                    (bio->bi_iter.bi_idx)
88 #define bio_set_sector(bio, sector)     (bio->bi_iter.bi_sector = sector)
89 #define bvl_to_page(bvl)                (bvl->bv_page)
90 #else
91 #define bio_idx(bio)                    (bio->bi_idx)
92 #define bio_set_sector(bio, sector)     (bio->bi_sector = sector)
93 #define bio_sectors(bio)                ((bio)->bi_size >> 9)
94 #ifndef HAVE_BIO_END_SECTOR
95 #define bio_end_sector(bio)             (bio->bi_sector + bio_sectors(bio))
96 #endif
97 #define bvl_to_page(bvl)                (bvl->bv_page)
98 #endif
99
100 #ifdef HAVE_BVEC_ITER
101 #define bio_start_sector(bio) (bio->bi_iter.bi_sector)
102 #else
103 #define bio_start_sector(bio) (bio->bi_sector)
104 #endif
105
106 #ifdef HAVE_KMAP_ATOMIC_HAS_1ARG
107 #define ll_kmap_atomic(a, b)    kmap_atomic(a)
108 #define ll_kunmap_atomic(a, b)  kunmap_atomic(a)
109 #else
110 #define ll_kmap_atomic(a, b)    kmap_atomic(a, b)
111 #define ll_kunmap_atomic(a, b)  kunmap_atomic(a, b)
112 #endif
113
114 #ifndef HAVE_CLEAR_INODE
115 #define clear_inode(i)          end_writeback(i)
116 #endif
117
118 #ifndef HAVE_DENTRY_D_CHILD
119 #define d_child                 d_u.d_child
120 #endif
121
122 #ifdef HAVE_DENTRY_D_U_D_ALIAS
123 #define d_alias                 d_u.d_alias
124 #endif
125
126 #ifndef DATA_FOR_LLITE_IS_LIST
127 #define ll_d_hlist_node hlist_node
128 #define ll_d_hlist_empty(list) hlist_empty(list)
129 #define ll_d_hlist_entry(ptr, type, name) hlist_entry(ptr.first, type, name)
130 #define ll_d_hlist_for_each(tmp, i_dentry) hlist_for_each(tmp, i_dentry)
131 # ifdef HAVE_HLIST_FOR_EACH_3ARG
132 # define ll_d_hlist_for_each_entry(dentry, p, i_dentry) \
133         p = NULL; hlist_for_each_entry(dentry, i_dentry, d_alias)
134 # else
135 # define ll_d_hlist_for_each_entry(dentry, p, i_dentry) \
136         hlist_for_each_entry(dentry, p, i_dentry, d_alias)
137 # endif
138 #define DECLARE_LL_D_HLIST_NODE_PTR(name) struct ll_d_hlist_node *name
139 #else
140 #define ll_d_hlist_node list_head
141 #define ll_d_hlist_empty(list) list_empty(list)
142 #define ll_d_hlist_entry(ptr, type, name) list_entry(ptr.next, type, name)
143 #define ll_d_hlist_for_each(tmp, i_dentry) list_for_each(tmp, i_dentry)
144 #define ll_d_hlist_for_each_entry(dentry, p, i_dentry) \
145         list_for_each_entry(dentry, i_dentry, d_alias)
146 #define DECLARE_LL_D_HLIST_NODE_PTR(name) /* nothing */
147 #endif /* !DATA_FOR_LLITE_IS_LIST */
148
149 #ifndef HAVE_D_IN_LOOKUP
150 static inline int d_in_lookup(struct dentry *dentry)
151 {
152         return false;
153 }
154 #endif
155
156 #ifndef QUOTA_OK
157 # define QUOTA_OK 0
158 #endif
159 #ifndef NO_QUOTA
160 # define NO_QUOTA (-EDQUOT)
161 #endif
162
163 #ifndef SEEK_DATA
164 #define SEEK_DATA      3       /* seek to the next data */
165 #endif
166 #ifndef SEEK_HOLE
167 #define SEEK_HOLE      4       /* seek to the next hole */
168 #endif
169
170 #ifndef FMODE_UNSIGNED_OFFSET
171 #define FMODE_UNSIGNED_OFFSET   ((__force fmode_t)0x2000)
172 #endif
173
174 #if !defined(_ASM_GENERIC_BITOPS_EXT2_NON_ATOMIC_H_) && !defined(ext2_set_bit)
175 # define ext2_set_bit             __test_and_set_bit_le
176 # define ext2_clear_bit           __test_and_clear_bit_le
177 # define ext2_test_bit            test_bit_le
178 # define ext2_find_first_zero_bit find_first_zero_bit_le
179 # define ext2_find_next_zero_bit  find_next_zero_bit_le
180 #endif
181
182 #ifdef ATTR_TIMES_SET
183 # define TIMES_SET_FLAGS (ATTR_MTIME_SET | ATTR_ATIME_SET | ATTR_TIMES_SET)
184 #else
185 # define TIMES_SET_FLAGS (ATTR_MTIME_SET | ATTR_ATIME_SET)
186 #endif
187
188 #ifndef XATTR_NAME_POSIX_ACL_ACCESS
189 # define XATTR_NAME_POSIX_ACL_ACCESS POSIX_ACL_XATTR_ACCESS
190 #endif
191
192 #ifndef XATTR_NAME_POSIX_ACL_DEFAULT
193 # define XATTR_NAME_POSIX_ACL_DEFAULT POSIX_ACL_XATTR_DEFAULT
194 #endif
195
196 #ifndef HAVE_LM_XXX_LOCK_MANAGER_OPS
197 # define lm_compare_owner       fl_compare_owner
198 #endif
199
200 /*
201  * After 3.1, kernel's nameidata.intent.open.flags is different
202  * with lustre's lookup_intent.it_flags, as lustre's it_flags'
203  * lower bits equal to FMODE_xxx while kernel doesn't transliterate
204  * lower bits of nameidata.intent.open.flags to FMODE_xxx.
205  * */
206 #include <linux/version.h>
207 static inline int ll_namei_to_lookup_intent_flag(int flag)
208 {
209 #if LINUX_VERSION_CODE >= KERNEL_VERSION(3, 1, 0)
210         flag = (flag & ~O_ACCMODE) | OPEN_FMODE(flag);
211 #endif
212         return flag;
213 }
214
215 #include <linux/fs.h>
216 #ifndef HAVE_PROTECT_I_NLINK
217 static inline void set_nlink(struct inode *inode, unsigned int nlink)
218 {
219         inode->i_nlink = nlink;
220 }
221 #endif
222
223 #ifdef HAVE_INODEOPS_USE_UMODE_T
224 # define ll_umode_t     umode_t
225 #else
226 # define ll_umode_t     int
227 #endif
228
229 #ifndef HAVE_VM_FAULT_T
230 #define vm_fault_t int
231 #endif
232
233 #include <linux/dcache.h>
234 #ifndef HAVE_D_MAKE_ROOT
235 static inline struct dentry *d_make_root(struct inode *root)
236 {
237         struct dentry *res = d_alloc_root(root);
238
239         if (res == NULL && root)
240                 iput(root);
241
242         return res;
243 }
244 #endif
245
246 #ifndef HAVE_FOP_ITERATE_SHARED
247 #define iterate_shared iterate
248 #endif
249
250 #ifdef HAVE_DIRTY_INODE_HAS_FLAG
251 # define ll_dirty_inode(inode, flag)    (inode)->i_sb->s_op->dirty_inode((inode), flag)
252 #else
253 # define ll_dirty_inode(inode, flag)    (inode)->i_sb->s_op->dirty_inode((inode))
254 #endif
255
256 #ifdef HAVE_FILE_F_INODE
257 # define set_file_inode(file, inode)    (file)->f_inode = inode
258 #else
259 # define set_file_inode(file, inode)
260 #endif
261
262 #ifndef HAVE_FILE_INODE
263 static inline struct inode *file_inode(const struct file *file)
264 {
265         return file->f_path.dentry->d_inode;
266 }
267 #endif
268
269 #ifdef HAVE_OLDSIZE_TRUNCATE_PAGECACHE
270 #define ll_truncate_pagecache(inode, size) truncate_pagecache(inode, 0, size)
271 #else
272 #define ll_truncate_pagecache(inode, size) truncate_pagecache(inode, size)
273 #endif
274
275 #ifdef HAVE_VFS_RENAME_5ARGS
276 #define ll_vfs_rename(a, b, c, d) vfs_rename(a, b, c, d, NULL)
277 #elif defined HAVE_VFS_RENAME_6ARGS
278 #define ll_vfs_rename(a, b, c, d) vfs_rename(a, b, c, d, NULL, 0)
279 #else
280 #define ll_vfs_rename(a, b, c, d) vfs_rename(a, b, c, d)
281 #endif
282
283 #ifdef HAVE_VFS_UNLINK_3ARGS
284 #define ll_vfs_unlink(a, b) vfs_unlink(a, b, NULL)
285 #else
286 #define ll_vfs_unlink(a, b) vfs_unlink(a, b)
287 #endif
288
289 #ifndef HAVE_INODE_OWNER_OR_CAPABLE
290 #define inode_owner_or_capable(inode) is_owner_or_cap(inode)
291 #endif
292
293 static inline int ll_vfs_getattr(struct path *path, struct kstat *st)
294 {
295         int rc;
296
297 #ifdef HAVE_INODEOPS_ENHANCED_GETATTR
298         rc = vfs_getattr(path, st, STATX_BASIC_STATS, AT_STATX_SYNC_AS_STAT);
299 #elif defined HAVE_VFS_GETATTR_2ARGS
300         rc = vfs_getattr(path, st);
301 #else
302         rc = vfs_getattr(path->mnt, path->dentry, st);
303 #endif
304         return rc;
305 }
306
307 #ifndef HAVE_D_IS_POSITIVE
308 static inline bool d_is_positive(const struct dentry *dentry)
309 {
310         return dentry->d_inode != NULL;
311 }
312 #endif
313
314 #ifdef HAVE_VFS_CREATE_USE_NAMEIDATA
315 # define LL_VFS_CREATE_FALSE NULL
316 #else
317 # define LL_VFS_CREATE_FALSE false
318 #endif
319
320 #ifndef HAVE_INODE_LOCK
321 # define inode_lock(inode) mutex_lock(&(inode)->i_mutex)
322 # define inode_unlock(inode) mutex_unlock(&(inode)->i_mutex)
323 # define inode_trylock(inode) mutex_trylock(&(inode)->i_mutex)
324 #endif
325
326 #ifndef HAVE_RADIX_EXCEPTION_ENTRY
327 static inline int radix_tree_exceptional_entry(void *arg)
328 {
329         return 0;
330 }
331 #endif
332
333 #ifndef HAVE_TRUNCATE_INODE_PAGES_FINAL
334 static inline void truncate_inode_pages_final(struct address_space *map)
335 {
336         truncate_inode_pages(map, 0);
337 }
338 #endif
339
340 #ifndef HAVE_PTR_ERR_OR_ZERO
341 static inline int __must_check PTR_ERR_OR_ZERO(__force const void *ptr)
342 {
343         if (IS_ERR(ptr))
344                 return PTR_ERR(ptr);
345         else
346                 return 0;
347 }
348 #endif
349
350 #ifndef SIZE_MAX
351 #define SIZE_MAX        (~(size_t)0)
352 #endif
353
354 #ifdef HAVE_SECURITY_IINITSEC_CALLBACK
355 # define ll_security_inode_init_security(inode, dir, name, value, len, \
356                                          initxattrs, dentry)           \
357          security_inode_init_security(inode, dir, &((dentry)->d_name), \
358                                       initxattrs, dentry)
359 #elif defined HAVE_SECURITY_IINITSEC_QSTR
360 # define ll_security_inode_init_security(inode, dir, name, value, len, \
361                                          initxattrs, dentry)           \
362          security_inode_init_security(inode, dir, &((dentry)->d_name), \
363                                       name, value, len)
364 #else /* !HAVE_SECURITY_IINITSEC_CALLBACK && !HAVE_SECURITY_IINITSEC_QSTR */
365 # define ll_security_inode_init_security(inode, dir, name, value, len, \
366                                          initxattrs, dentry)           \
367          security_inode_init_security(inode, dir, name, value, len)
368 #endif
369
370 #ifndef bio_for_each_segment_all /* since kernel version 3.9 */
371 #ifdef HAVE_BVEC_ITER
372 #define bio_for_each_segment_all(bv, bio, it) \
373         for (it = 0, bv = (bio)->bi_io_vec; it < (bio)->bi_vcnt; it++, bv++)
374 #else
375 #define bio_for_each_segment_all(bv, bio, it) bio_for_each_segment(bv, bio, it)
376 #endif
377 #endif
378
379 #ifdef HAVE_PID_NS_FOR_CHILDREN
380 # define ll_task_pid_ns(task) \
381          ((task)->nsproxy ? ((task)->nsproxy->pid_ns_for_children) : NULL)
382 #else
383 # define ll_task_pid_ns(task) \
384          ((task)->nsproxy ? ((task)->nsproxy->pid_ns) : NULL)
385 #endif
386
387 #ifdef HAVE_FULL_NAME_HASH_3ARGS
388 # define ll_full_name_hash(salt, name, len) full_name_hash(salt, name, len)
389 #else
390 # define ll_full_name_hash(salt, name, len) full_name_hash(name, len)
391 #endif
392
393 #ifdef HAVE_STRUCT_POSIX_ACL_XATTR
394 # define posix_acl_xattr_header struct posix_acl_xattr_header
395 # define posix_acl_xattr_entry  struct posix_acl_xattr_entry
396 # define GET_POSIX_ACL_XATTR_ENTRY(head) ((void *)((head) + 1))
397 #else
398 # define GET_POSIX_ACL_XATTR_ENTRY(head) ((head)->a_entries)
399 #endif
400
401 #ifdef HAVE_IOP_XATTR
402 #define ll_setxattr     generic_setxattr
403 #define ll_getxattr     generic_getxattr
404 #define ll_removexattr  generic_removexattr
405 #endif /* HAVE_IOP_XATTR */
406
407 #ifndef HAVE_VFS_SETXATTR
408 const struct xattr_handler *get_xattr_type(const char *name);
409
410 static inline int
411 __vfs_setxattr(struct dentry *dentry, struct inode *inode, const char *name,
412                const void *value, size_t size, int flags)
413 {
414         const struct xattr_handler *handler;
415         int rc;
416
417         handler = get_xattr_type(name);
418         if (!handler)
419                 return -EOPNOTSUPP;
420
421 #  if defined(HAVE_XATTR_HANDLER_INODE_PARAM)
422         rc = handler->set(handler, dentry, inode, name, value, size, flags);
423 #  elif defined(HAVE_XATTR_HANDLER_SIMPLIFIED)
424         rc = handler->set(handler, dentry, name, value, size, flags);
425 #  else
426         rc = handler->set(dentry, name, value, size, flags, handler->flags);
427 #  endif /* !HAVE_XATTR_HANDLER_INODE_PARAM */
428         return rc;
429 }
430 #endif /* HAVE_VFS_SETXATTR */
431
432 #ifndef HAVE_POSIXACL_USER_NS
433 /*
434  * Mask out &init_user_ns so we don't jump
435  * through hoops to define it somehow only
436  * to have it ignored anyway.
437  */
438 #define posix_acl_from_xattr(a, b, c)   posix_acl_from_xattr(b, c)
439 #define posix_acl_to_xattr(a, b, c, d)  posix_acl_to_xattr(b, c, d)
440 #endif
441
442 #ifndef HAVE_POSIX_ACL_VALID_USER_NS
443 #define posix_acl_valid(a,b)            posix_acl_valid(b)
444 #endif
445
446 #ifdef HAVE_IOP_SET_ACL
447 #ifdef CONFIG_LUSTRE_FS_POSIX_ACL
448 #ifndef HAVE_POSIX_ACL_UPDATE_MODE
449 static inline int posix_acl_update_mode(struct inode *inode, umode_t *mode_p,
450                           struct posix_acl **acl)
451 {
452         umode_t mode = inode->i_mode;
453         int error;
454
455         error = posix_acl_equiv_mode(*acl, &mode);
456         if (error < 0)
457                 return error;
458         if (error == 0)
459                 *acl = NULL;
460         if (!in_group_p(inode->i_gid) &&
461             !capable_wrt_inode_uidgid(inode, CAP_FSETID))
462                 mode &= ~S_ISGID;
463         *mode_p = mode;
464         return 0;
465 }
466 #endif /* HAVE_POSIX_ACL_UPDATE_MODE */
467 #endif
468 #endif
469
470 #ifndef HAVE_IOV_ITER_TRUNCATE
471 static inline void iov_iter_truncate(struct iov_iter *i, u64 count)
472 {
473         if (i->count > count)
474                 i->count = count;
475 }
476 #endif
477
478 #ifndef HAVE_IS_SXID
479 static inline bool is_sxid(umode_t mode)
480 {
481         return (mode & S_ISUID) || ((mode & S_ISGID) && (mode & S_IXGRP));
482 }
483 #endif
484
485 #ifndef IS_NOSEC
486 #define IS_NOSEC(inode) (!is_sxid(inode->i_mode))
487 #endif
488
489 /*
490  * mount MS_* flags split from superblock SB_* flags
491  * if the SB_* flags are not available use the MS_* flags
492  */
493 #if !defined(SB_RDONLY) && defined(MS_RDONLY)
494 # define SB_RDONLY MS_RDONLY
495 #endif
496 #if !defined(SB_ACTIVE) && defined(MS_ACTIVE)
497 # define SB_ACTIVE MS_ACTIVE
498 #endif
499 #if !defined(SB_NOSEC) && defined(MS_NOSEC)
500 # define SB_NOSEC MS_NOSEC
501 #endif
502 #if !defined(SB_POSIXACL) && defined(MS_POSIXACL)
503 # define SB_POSIXACL MS_POSIXACL
504 #endif
505 #if !defined(SB_NODIRATIME) && defined(MS_NODIRATIME)
506 # define SB_NODIRATIME MS_NODIRATIME
507 #endif
508
509 #ifndef HAVE_FILE_OPERATIONS_READ_WRITE_ITER
510 static inline void iov_iter_reexpand(struct iov_iter *i, size_t count)
511 {
512         i->count = count;
513 }
514
515 static inline struct iovec iov_iter_iovec(const struct iov_iter *iter)
516 {
517         return (struct iovec) {
518                 .iov_base = iter->iov->iov_base + iter->iov_offset,
519                 .iov_len = min(iter->count,
520                                iter->iov->iov_len - iter->iov_offset),
521         };
522 }
523
524 #define iov_for_each(iov, iter, start)                                  \
525         for (iter = (start);                                            \
526              (iter).count && ((iov = iov_iter_iovec(&(iter))), 1);      \
527              iov_iter_advance(&(iter), (iov).iov_len))
528
529 static inline ssize_t
530 generic_file_read_iter(struct kiocb *iocb, struct iov_iter *iter)
531 {
532         struct iovec iov;
533         struct iov_iter i;
534         ssize_t bytes = 0;
535
536         iov_for_each(iov, i, *iter) {
537                 ssize_t res;
538
539                 res = generic_file_aio_read(iocb, &iov, 1, iocb->ki_pos);
540                 if (res <= 0) {
541                         if (bytes == 0)
542                                 bytes = res;
543                         break;
544                 }
545
546                 bytes += res;
547                 if (res < iov.iov_len)
548                         break;
549         }
550
551         if (bytes > 0)
552                 iov_iter_advance(iter, bytes);
553         return bytes;
554 }
555
556 static inline ssize_t
557 __generic_file_write_iter(struct kiocb *iocb, struct iov_iter *iter)
558 {
559         struct iovec iov;
560         struct iov_iter i;
561         ssize_t bytes = 0;
562
563         /* Since LLITE updates file size at the end of I/O in
564          * vvp_io_commit_write(), append write has to be done in atomic when
565          * there are multiple segments because otherwise each iteration to
566          * __generic_file_aio_write() will see original file size */
567         if (unlikely(iocb->ki_filp->f_flags & O_APPEND && iter->nr_segs > 1)) {
568                 struct iovec *iov_copy;
569                 int count = 0;
570
571                 OBD_ALLOC(iov_copy, sizeof(*iov_copy) * iter->nr_segs);
572                 if (!iov_copy)
573                         return -ENOMEM;
574
575                 iov_for_each(iov, i, *iter)
576                         iov_copy[count++] = iov;
577
578                 bytes = __generic_file_aio_write(iocb, iov_copy, count,
579                                                  &iocb->ki_pos);
580                 OBD_FREE(iov_copy, sizeof(*iov_copy) * iter->nr_segs);
581
582                 if (bytes > 0)
583                         iov_iter_advance(iter, bytes);
584                 return bytes;
585         }
586
587         iov_for_each(iov, i, *iter) {
588                 ssize_t res;
589
590                 res = __generic_file_aio_write(iocb, &iov, 1, &iocb->ki_pos);
591                 if (res <= 0) {
592                         if (bytes == 0)
593                                 bytes = res;
594                         break;
595                 }
596
597                 bytes += res;
598                 if (res < iov.iov_len)
599                         break;
600         }
601
602         if (bytes > 0)
603                 iov_iter_advance(iter, bytes);
604         return bytes;
605 }
606 #endif /* HAVE_FILE_OPERATIONS_READ_WRITE_ITER */
607
608 static inline void __user *get_vmf_address(struct vm_fault *vmf)
609 {
610 #ifdef HAVE_VM_FAULT_ADDRESS
611         return (void __user *)vmf->address;
612 #else
613         return vmf->virtual_address;
614 #endif
615 }
616
617 #ifdef HAVE_VM_OPS_USE_VM_FAULT_ONLY
618 # define ll_filemap_fault(vma, vmf) filemap_fault(vmf)
619 #else
620 # define ll_filemap_fault(vma, vmf) filemap_fault(vma, vmf)
621 #endif
622
623 #ifndef HAVE_CURRENT_TIME
624 static inline struct timespec current_time(struct inode *inode)
625 {
626         return CURRENT_TIME;
627 }
628 #endif
629
630 #ifndef time_after32
631 /**
632  * time_after32 - compare two 32-bit relative times
633  * @a: the time which may be after @b
634  * @b: the time which may be before @a
635  *
636  * time_after32(a, b) returns true if the time @a is after time @b.
637  * time_before32(b, a) returns true if the time @b is before time @a.
638  *
639  * Similar to time_after(), compare two 32-bit timestamps for relative
640  * times.  This is useful for comparing 32-bit seconds values that can't
641  * be converted to 64-bit values (e.g. due to disk format or wire protocol
642  * issues) when it is known that the times are less than 68 years apart.
643  */
644 #define time_after32(a, b)     ((s32)((u32)(b) - (u32)(a)) < 0)
645 #define time_before32(b, a)    time_after32(a, b)
646
647 #endif
648
649 #ifndef __GFP_COLD
650 #define __GFP_COLD 0
651 #endif
652
653 #ifndef alloc_workqueue
654 #define alloc_workqueue(name, flags, max_active) create_workqueue(name)
655 #endif
656
657 #ifndef smp_store_mb
658 #define smp_store_mb(var, value)        set_mb(var, value)
659 #endif
660
661 #ifndef READ_ONCE
662 #define READ_ONCE ACCESS_ONCE
663 #endif
664
665 #if IS_ENABLED(CONFIG_BLK_DEV_INTEGRITY)
666 static inline unsigned short blk_integrity_interval(struct blk_integrity *bi)
667 {
668 #ifdef HAVE_INTERVAL_EXP_BLK_INTEGRITY
669         return bi->interval_exp ? 1 << bi->interval_exp : 0;
670 #elif defined(HAVE_INTERVAL_BLK_INTEGRITY)
671         return bi->interval;
672 #else
673         return bi->sector_size;
674 #endif /* !HAVE_INTERVAL_EXP_BLK_INTEGRITY */
675 }
676
677 static inline const char *blk_integrity_name(struct blk_integrity *bi)
678 {
679 #ifdef HAVE_INTERVAL_EXP_BLK_INTEGRITY
680         return bi->profile->name;
681 #else
682         return bi->name;
683 #endif
684 }
685
686 static inline unsigned int bip_size(struct bio_integrity_payload *bip)
687 {
688 #ifdef HAVE_BIP_ITER_BIO_INTEGRITY_PAYLOAD
689         return bip->bip_iter.bi_size;
690 #else
691         return bip->bip_size;
692 #endif
693 }
694 #else /* !CONFIG_BLK_DEV_INTEGRITY */
695 static inline unsigned short blk_integrity_interval(struct blk_integrity *bi)
696 {
697         return 0;
698 }
699 static inline const char *blk_integrity_name(struct blk_integrity *bi)
700 {
701         /* gcc8 dislikes when strcmp() is called against NULL */
702         return "";
703 }
704 #endif /* !CONFIG_BLK_DEV_INTEGRITY */
705
706 #ifndef INTEGRITY_FLAG_READ
707 #define INTEGRITY_FLAG_READ BLK_INTEGRITY_VERIFY
708 #endif
709
710 #ifndef INTEGRITY_FLAG_WRITE
711 #define INTEGRITY_FLAG_WRITE BLK_INTEGRITY_GENERATE
712 #endif
713
714 static inline bool bdev_integrity_enabled(struct block_device *bdev, int rw)
715 {
716 #if IS_ENABLED(CONFIG_BLK_DEV_INTEGRITY)
717         struct blk_integrity *bi = bdev_get_integrity(bdev);
718
719         if (bi == NULL)
720                 return false;
721
722 #ifdef HAVE_INTERVAL_EXP_BLK_INTEGRITY
723         if (rw == 0 && bi->profile->verify_fn != NULL &&
724             (bi->flags & INTEGRITY_FLAG_READ))
725                 return true;
726
727         if (rw == 1 && bi->profile->generate_fn != NULL &&
728             (bi->flags & INTEGRITY_FLAG_WRITE))
729                 return true;
730 #else
731         if (rw == 0 && bi->verify_fn != NULL &&
732             (bi->flags & INTEGRITY_FLAG_READ))
733                 return true;
734
735         if (rw == 1 && bi->generate_fn != NULL &&
736             (bi->flags & INTEGRITY_FLAG_WRITE))
737                 return true;
738 #endif /* !HAVE_INTERVAL_EXP_BLK_INTEGRITY */
739 #endif /* !CONFIG_BLK_DEV_INTEGRITY */
740
741         return false;
742 }
743
744 #ifdef HAVE_PAGEVEC_INIT_ONE_PARAM
745 #define ll_pagevec_init(pvec, n) pagevec_init(pvec)
746 #else
747 #define ll_pagevec_init(pvec, n) pagevec_init(pvec, n)
748 #endif
749
750 #ifdef HAVE_D_COUNT
751 #  define ll_d_count(d)         d_count(d)
752 #else
753 #  define ll_d_count(d)         ((d)->d_count)
754 #endif /* HAVE_D_COUNT */
755
756 #ifndef HAVE_IN_COMPAT_SYSCALL
757 #define in_compat_syscall       is_compat_task
758 #endif
759
760 #ifdef HAVE_I_PAGES
761 #define page_tree i_pages
762 #else
763 #define i_pages tree_lock
764 #endif
765
766 #ifndef xa_lock_irqsave
767 #define xa_lock_irqsave(lockp, flags) spin_lock_irqsave(lockp, flags)
768 #define xa_unlock_irqrestore(lockp, flags) spin_unlock_irqrestore(lockp, flags)
769 #endif
770
771 #ifndef HAVE_LOCK_PAGE_MEMCG
772 #define lock_page_memcg(page) do {} while (0)
773 #define unlock_page_memcg(page) do {} while (0)
774 #endif
775
776 #ifndef KMEM_CACHE_USERCOPY
777 #define kmem_cache_create_usercopy(name, size, align, flags, useroffset, \
778                                    usersize, ctor)                       \
779         kmem_cache_create(name, size, align, flags, ctor)
780 #endif
781
782 #ifndef HAVE_LINUX_SELINUX_IS_ENABLED
783 #define selinux_is_enabled() 1
784 #endif
785
786 #endif /* _LUSTRE_COMPAT_H */