Whamcloud - gitweb
LU-11582 llite: protect reading inode->i_data.nrpages
[fs/lustre-release.git] / lustre / include / lustre_compat.h
1 /*
2  * GPL HEADER START
3  *
4  * DO NOT ALTER OR REMOVE COPYRIGHT NOTICES OR THIS FILE HEADER.
5  *
6  * This program is free software; you can redistribute it and/or modify
7  * it under the terms of the GNU General Public License version 2 only,
8  * as published by the Free Software Foundation.
9  *
10  * This program is distributed in the hope that it will be useful, but
11  * WITHOUT ANY WARRANTY; without even the implied warranty of
12  * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
13  * General Public License version 2 for more details (a copy is included
14  * in the LICENSE file that accompanied this code).
15  *
16  * You should have received a copy of the GNU General Public License
17  * version 2 along with this program; If not, see
18  * http://www.gnu.org/licenses/gpl-2.0.html
19  *
20  * GPL HEADER END
21  */
22 /*
23  * Copyright (c) 2003, 2010, Oracle and/or its affiliates. All rights reserved.
24  * Use is subject to license terms.
25  *
26  * Copyright (c) 2011, 2017, Intel Corporation.
27  */
28 /*
29  * This file is part of Lustre, http://www.lustre.org/
30  * Lustre is a trademark of Sun Microsystems, Inc.
31  */
32
33 #ifndef _LUSTRE_COMPAT_H
34 #define _LUSTRE_COMPAT_H
35
36 #include <linux/aio.h>
37 #include <linux/fs.h>
38 #include <linux/fs_struct.h>
39 #include <linux/namei.h>
40 #include <linux/pagemap.h>
41 #include <linux/bio.h>
42 #include <linux/xattr.h>
43 #include <linux/workqueue.h>
44 #include <linux/blkdev.h>
45
46 #include <libcfs/linux/linux-fs.h>
47 #include <lustre_patchless_compat.h>
48 #include <obd_support.h>
49
50 #ifdef HAVE_FS_STRUCT_RWLOCK
51 # define LOCK_FS_STRUCT(fs)     write_lock(&(fs)->lock)
52 # define UNLOCK_FS_STRUCT(fs)   write_unlock(&(fs)->lock)
53 #else
54 # define LOCK_FS_STRUCT(fs)     spin_lock(&(fs)->lock)
55 # define UNLOCK_FS_STRUCT(fs)   spin_unlock(&(fs)->lock)
56 #endif
57
58 #ifdef HAVE_FS_STRUCT_SEQCOUNT
59 # define WRITE_FS_SEQ_BEGIN(fs) write_seqcount_begin(&(fs)->seq)
60 # define WRITE_FS_SEQ_END(fs)   write_seqcount_end(&(fs)->seq)
61 #else
62 # define WRITE_FS_SEQ_BEGIN(fs)
63 # define WRITE_FS_SEQ_END(fs)
64 #endif
65 static inline void ll_set_fs_pwd(struct fs_struct *fs, struct vfsmount *mnt,
66                                  struct dentry *dentry)
67 {
68         struct path path;
69         struct path old_pwd;
70
71         path.mnt = mnt;
72         path.dentry = dentry;
73         path_get(&path);
74         LOCK_FS_STRUCT(fs);
75         WRITE_FS_SEQ_BEGIN(fs);
76         old_pwd = fs->pwd;
77         fs->pwd = path;
78         WRITE_FS_SEQ_END(fs);
79         UNLOCK_FS_STRUCT(fs);
80
81         if (old_pwd.dentry)
82                 path_put(&old_pwd);
83 }
84
85 #define current_ngroups current_cred()->group_info->ngroups
86 #define current_groups current_cred()->group_info->small_block
87
88 /*
89  * OBD need working random driver, thus all our
90  * initialization routines must be called after device
91  * driver initialization
92  */
93 #ifndef MODULE
94 #undef module_init
95 #define module_init(a)     late_initcall(a)
96 #endif
97
98 #ifndef MODULE_ALIAS_FS
99 #define MODULE_ALIAS_FS(name)
100 #endif
101
102 #define LTIME_S(time)                   (time.tv_sec)
103
104 #ifdef HAVE_GENERIC_PERMISSION_2ARGS
105 # define ll_generic_permission(inode, mask, flags, check_acl) \
106          generic_permission(inode, mask)
107 #elif defined HAVE_GENERIC_PERMISSION_4ARGS
108 # define ll_generic_permission(inode, mask, flags, check_acl) \
109          generic_permission(inode, mask, flags, check_acl)
110 #else
111 # define ll_generic_permission(inode, mask, flags, check_acl) \
112          generic_permission(inode, mask, check_acl)
113 #endif
114
115 #ifdef HAVE_4ARGS_VFS_SYMLINK
116 #define ll_vfs_symlink(dir, dentry, mnt, path, mode) \
117                 vfs_symlink(dir, dentry, path, mode)
118 #else
119 #define ll_vfs_symlink(dir, dentry, mnt, path, mode) \
120                        vfs_symlink(dir, dentry, path)
121 #endif
122
123 #if !defined(HAVE_FILE_LLSEEK_SIZE) || defined(HAVE_FILE_LLSEEK_SIZE_5ARGS)
124 #define ll_generic_file_llseek_size(file, offset, origin, maxbytes, eof) \
125                 generic_file_llseek_size(file, offset, origin, maxbytes, eof);
126 #else
127 #define ll_generic_file_llseek_size(file, offset, origin, maxbytes, eof) \
128                 generic_file_llseek_size(file, offset, origin, maxbytes);
129 #endif
130
131 #ifdef HAVE_INODE_DIO_WAIT
132 /* inode_dio_wait(i) use as-is for write lock */
133 # define inode_dio_write_done(i)        do {} while (0) /* for write unlock */
134 #else
135 # define inode_dio_wait(i)              down_write(&(i)->i_alloc_sem)
136 # define inode_dio_write_done(i)        up_write(&(i)->i_alloc_sem)
137 #endif
138
139 #ifndef FS_HAS_FIEMAP
140 #define FS_HAS_FIEMAP                   (0)
141 #endif
142
143 #ifndef HAVE_SIMPLE_SETATTR
144 #define simple_setattr(dentry, ops) inode_setattr((dentry)->d_inode, ops)
145 #endif
146
147 #ifndef SLAB_DESTROY_BY_RCU
148 #define SLAB_DESTROY_BY_RCU 0
149 #endif
150
151 #ifndef HAVE_DQUOT_SUSPEND
152 # define ll_vfs_dq_init             vfs_dq_init
153 # define ll_vfs_dq_drop             vfs_dq_drop
154 # define ll_vfs_dq_transfer         vfs_dq_transfer
155 # define ll_vfs_dq_off(sb, remount) vfs_dq_off(sb, remount)
156 #else
157 # define ll_vfs_dq_init             dquot_initialize
158 # define ll_vfs_dq_drop             dquot_drop
159 # define ll_vfs_dq_transfer         dquot_transfer
160 # define ll_vfs_dq_off(sb, remount) dquot_suspend(sb, -1)
161 #endif
162
163 #ifndef HAVE_BLKDEV_GET_BY_DEV
164 # define blkdev_get_by_dev(dev, mode, holder) open_by_devnum(dev, mode)
165 #endif
166
167 #ifdef HAVE_BVEC_ITER
168 #define bio_idx(bio)                    (bio->bi_iter.bi_idx)
169 #define bio_set_sector(bio, sector)     (bio->bi_iter.bi_sector = sector)
170 #define bvl_to_page(bvl)                (bvl->bv_page)
171 #else
172 #define bio_idx(bio)                    (bio->bi_idx)
173 #define bio_set_sector(bio, sector)     (bio->bi_sector = sector)
174 #define bio_sectors(bio)                ((bio)->bi_size >> 9)
175 #ifndef HAVE_BIO_END_SECTOR
176 #define bio_end_sector(bio)             (bio->bi_sector + bio_sectors(bio))
177 #endif
178 #define bvl_to_page(bvl)                (bvl->bv_page)
179 #endif
180
181 #ifdef HAVE_BVEC_ITER
182 #define bio_start_sector(bio) (bio->bi_iter.bi_sector)
183 #else
184 #define bio_start_sector(bio) (bio->bi_sector)
185 #endif
186
187 #ifndef HAVE_BLK_QUEUE_MAX_SEGMENTS
188 #define blk_queue_max_segments(rq, seg)                      \
189         do { blk_queue_max_phys_segments(rq, seg);           \
190              blk_queue_max_hw_segments(rq, seg); } while (0)
191 #else
192 #define queue_max_phys_segments(rq)       queue_max_segments(rq)
193 #define queue_max_hw_segments(rq)         queue_max_segments(rq)
194 #endif
195
196 #ifdef HAVE_BLK_PLUG
197 #define DECLARE_PLUG(plug)      struct blk_plug plug
198 #else /* !HAVE_BLK_PLUG */
199 #define DECLARE_PLUG(name)
200 #define blk_start_plug(plug)    do {} while (0)
201 #define blk_finish_plug(plug)   do {} while (0)
202 #endif
203
204 #ifdef HAVE_KMAP_ATOMIC_HAS_1ARG
205 #define ll_kmap_atomic(a, b)    kmap_atomic(a)
206 #define ll_kunmap_atomic(a, b)  kunmap_atomic(a)
207 #else
208 #define ll_kmap_atomic(a, b)    kmap_atomic(a, b)
209 #define ll_kunmap_atomic(a, b)  kunmap_atomic(a, b)
210 #endif
211
212 #ifndef HAVE_CLEAR_INODE
213 #define clear_inode(i)          end_writeback(i)
214 #endif
215
216 #ifndef HAVE_DENTRY_D_CHILD
217 #define d_child                 d_u.d_child
218 #endif
219
220 #ifdef HAVE_DENTRY_D_U_D_ALIAS
221 #define d_alias                 d_u.d_alias
222 #endif
223
224 #ifndef DATA_FOR_LLITE_IS_LIST
225 #define ll_d_hlist_node hlist_node
226 #define ll_d_hlist_empty(list) hlist_empty(list)
227 #define ll_d_hlist_entry(ptr, type, name) hlist_entry(ptr.first, type, name)
228 #define ll_d_hlist_for_each(tmp, i_dentry) hlist_for_each(tmp, i_dentry)
229 # ifdef HAVE_HLIST_FOR_EACH_3ARG
230 # define ll_d_hlist_for_each_entry(dentry, p, i_dentry) \
231         p = NULL; hlist_for_each_entry(dentry, i_dentry, d_alias)
232 # else
233 # define ll_d_hlist_for_each_entry(dentry, p, i_dentry) \
234         hlist_for_each_entry(dentry, p, i_dentry, d_alias)
235 # endif
236 #define DECLARE_LL_D_HLIST_NODE_PTR(name) struct ll_d_hlist_node *name
237 #else
238 #define ll_d_hlist_node list_head
239 #define ll_d_hlist_empty(list) list_empty(list)
240 #define ll_d_hlist_entry(ptr, type, name) list_entry(ptr.next, type, name)
241 #define ll_d_hlist_for_each(tmp, i_dentry) list_for_each(tmp, i_dentry)
242 #define ll_d_hlist_for_each_entry(dentry, p, i_dentry) \
243         list_for_each_entry(dentry, i_dentry, d_alias)
244 #define DECLARE_LL_D_HLIST_NODE_PTR(name) /* nothing */
245 #endif /* !DATA_FOR_LLITE_IS_LIST */
246
247 #ifndef QUOTA_OK
248 # define QUOTA_OK 0
249 #endif
250 #ifndef NO_QUOTA
251 # define NO_QUOTA (-EDQUOT)
252 #endif
253
254 #ifndef SEEK_DATA
255 #define SEEK_DATA      3       /* seek to the next data */
256 #endif
257 #ifndef SEEK_HOLE
258 #define SEEK_HOLE      4       /* seek to the next hole */
259 #endif
260
261 #ifndef FMODE_UNSIGNED_OFFSET
262 #define FMODE_UNSIGNED_OFFSET   ((__force fmode_t)0x2000)
263 #endif
264
265 #if !defined(_ASM_GENERIC_BITOPS_EXT2_NON_ATOMIC_H_) && !defined(ext2_set_bit)
266 # define ext2_set_bit             __test_and_set_bit_le
267 # define ext2_clear_bit           __test_and_clear_bit_le
268 # define ext2_test_bit            test_bit_le
269 # define ext2_find_first_zero_bit find_first_zero_bit_le
270 # define ext2_find_next_zero_bit  find_next_zero_bit_le
271 #endif
272
273 #ifdef ATTR_TIMES_SET
274 # define TIMES_SET_FLAGS (ATTR_MTIME_SET | ATTR_ATIME_SET | ATTR_TIMES_SET)
275 #else
276 # define TIMES_SET_FLAGS (ATTR_MTIME_SET | ATTR_ATIME_SET)
277 #endif
278
279 #ifndef XATTR_NAME_POSIX_ACL_ACCESS
280 # define XATTR_NAME_POSIX_ACL_ACCESS POSIX_ACL_XATTR_ACCESS
281 #endif
282
283 #ifndef XATTR_NAME_POSIX_ACL_DEFAULT
284 # define XATTR_NAME_POSIX_ACL_DEFAULT POSIX_ACL_XATTR_DEFAULT
285 #endif
286
287 #ifndef HAVE_LM_XXX_LOCK_MANAGER_OPS
288 # define lm_compare_owner       fl_compare_owner
289 #endif
290
291 /*
292  * After 3.1, kernel's nameidata.intent.open.flags is different
293  * with lustre's lookup_intent.it_flags, as lustre's it_flags'
294  * lower bits equal to FMODE_xxx while kernel doesn't transliterate
295  * lower bits of nameidata.intent.open.flags to FMODE_xxx.
296  * */
297 #include <linux/version.h>
298 static inline int ll_namei_to_lookup_intent_flag(int flag)
299 {
300 #if LINUX_VERSION_CODE >= KERNEL_VERSION(3, 1, 0)
301         flag = (flag & ~O_ACCMODE) | OPEN_FMODE(flag);
302 #endif
303         return flag;
304 }
305
306 #include <linux/fs.h>
307 #ifndef HAVE_PROTECT_I_NLINK
308 static inline void set_nlink(struct inode *inode, unsigned int nlink)
309 {
310         inode->i_nlink = nlink;
311 }
312 #endif
313
314 #ifdef HAVE_INODEOPS_USE_UMODE_T
315 # define ll_umode_t     umode_t
316 #else
317 # define ll_umode_t     int
318 #endif
319
320 #include <linux/dcache.h>
321 #ifndef HAVE_D_MAKE_ROOT
322 static inline struct dentry *d_make_root(struct inode *root)
323 {
324         struct dentry *res = d_alloc_root(root);
325
326         if (res == NULL && root)
327                 iput(root);
328
329         return res;
330 }
331 #endif
332
333 #ifdef HAVE_DIRTY_INODE_HAS_FLAG
334 # define ll_dirty_inode(inode, flag)    (inode)->i_sb->s_op->dirty_inode((inode), flag)
335 #else
336 # define ll_dirty_inode(inode, flag)    (inode)->i_sb->s_op->dirty_inode((inode))
337 #endif
338
339 #ifdef HAVE_FILE_F_INODE
340 # define set_file_inode(file, inode)    (file)->f_inode = inode
341 #else
342 # define set_file_inode(file, inode)
343 #endif
344
345 #ifndef HAVE_FILE_INODE
346 static inline struct inode *file_inode(const struct file *file)
347 {
348         return file->f_path.dentry->d_inode;
349 }
350 #endif
351
352 #ifdef HAVE_OLDSIZE_TRUNCATE_PAGECACHE
353 #define ll_truncate_pagecache(inode, size) truncate_pagecache(inode, 0, size)
354 #else
355 #define ll_truncate_pagecache(inode, size) truncate_pagecache(inode, size)
356 #endif
357
358 #ifdef HAVE_VFS_RENAME_5ARGS
359 #define ll_vfs_rename(a, b, c, d) vfs_rename(a, b, c, d, NULL)
360 #elif defined HAVE_VFS_RENAME_6ARGS
361 #define ll_vfs_rename(a, b, c, d) vfs_rename(a, b, c, d, NULL, 0)
362 #else
363 #define ll_vfs_rename(a, b, c, d) vfs_rename(a, b, c, d)
364 #endif
365
366 #ifdef HAVE_VFS_UNLINK_3ARGS
367 #define ll_vfs_unlink(a, b) vfs_unlink(a, b, NULL)
368 #else
369 #define ll_vfs_unlink(a, b) vfs_unlink(a, b)
370 #endif
371
372 #ifndef HAVE_INODE_LOCK
373 # define inode_lock(inode) mutex_lock(&(inode)->i_mutex)
374 # define inode_unlock(inode) mutex_unlock(&(inode)->i_mutex)
375 # define inode_trylock(inode) mutex_trylock(&(inode)->i_mutex)
376 #endif
377
378 #ifndef HAVE_RADIX_EXCEPTION_ENTRY
379 static inline int radix_tree_exceptional_entry(void *arg)
380 {
381         return 0;
382 }
383 #endif
384
385 #ifndef HAVE_TRUNCATE_INODE_PAGES_FINAL
386 static inline void truncate_inode_pages_final(struct address_space *map)
387 {
388         truncate_inode_pages(map, 0);
389 }
390 #endif
391
392 #ifndef HAVE_PTR_ERR_OR_ZERO
393 static inline int __must_check PTR_ERR_OR_ZERO(__force const void *ptr)
394 {
395         if (IS_ERR(ptr))
396                 return PTR_ERR(ptr);
397         else
398                 return 0;
399 }
400 #endif
401
402 #ifndef SIZE_MAX
403 #define SIZE_MAX        (~(size_t)0)
404 #endif
405
406 #ifdef HAVE_SECURITY_IINITSEC_CALLBACK
407 # define ll_security_inode_init_security(inode, dir, name, value, len, \
408                                          initxattrs, dentry)           \
409          security_inode_init_security(inode, dir, &((dentry)->d_name), \
410                                       initxattrs, dentry)
411 #elif defined HAVE_SECURITY_IINITSEC_QSTR
412 # define ll_security_inode_init_security(inode, dir, name, value, len, \
413                                          initxattrs, dentry)           \
414          security_inode_init_security(inode, dir, &((dentry)->d_name), \
415                                       name, value, len)
416 #else /* !HAVE_SECURITY_IINITSEC_CALLBACK && !HAVE_SECURITY_IINITSEC_QSTR */
417 # define ll_security_inode_init_security(inode, dir, name, value, len, \
418                                          initxattrs, dentry)           \
419          security_inode_init_security(inode, dir, name, value, len)
420 #endif
421
422 #ifndef bio_for_each_segment_all /* since kernel version 3.9 */
423 #ifdef HAVE_BVEC_ITER
424 #define bio_for_each_segment_all(bv, bio, it) \
425         for (it = 0, bv = (bio)->bi_io_vec; it < (bio)->bi_vcnt; it++, bv++)
426 #else
427 #define bio_for_each_segment_all(bv, bio, it) bio_for_each_segment(bv, bio, it)
428 #endif
429 #endif
430
431 #ifdef HAVE_PID_NS_FOR_CHILDREN
432 # define ll_task_pid_ns(task)   ((task)->nsproxy->pid_ns_for_children)
433 #else
434 # define ll_task_pid_ns(task)   ((task)->nsproxy->pid_ns)
435 #endif
436
437 #ifdef HAVE_FULL_NAME_HASH_3ARGS
438 # define ll_full_name_hash(salt, name, len) full_name_hash(salt, name, len)
439 #else
440 # define ll_full_name_hash(salt, name, len) full_name_hash(name, len)
441 #endif
442
443 #ifdef HAVE_STRUCT_POSIX_ACL_XATTR
444 # define posix_acl_xattr_header struct posix_acl_xattr_header
445 # define posix_acl_xattr_entry  struct posix_acl_xattr_entry
446 # define GET_POSIX_ACL_XATTR_ENTRY(head) ((void *)((head) + 1))
447 #else
448 # define GET_POSIX_ACL_XATTR_ENTRY(head) ((head)->a_entries)
449 #endif
450
451 #ifdef HAVE_IOP_XATTR
452 #ifdef HAVE_XATTR_HANDLER_FLAGS
453 #define ll_setxattr     generic_setxattr
454 #define ll_getxattr     generic_getxattr
455 #define ll_removexattr  generic_removexattr
456 #else
457 int ll_setxattr(struct dentry *dentry, const char *name,
458                 const void *value, size_t size, int flags);
459 ssize_t ll_getxattr(struct dentry *dentry, const char *name,
460                     void *buf, size_t buf_size);
461 int ll_removexattr(struct dentry *dentry, const char *name);
462 #endif /* ! HAVE_XATTR_HANDLER_FLAGS */
463 #endif /* HAVE_IOP_XATTR */
464
465 #ifndef HAVE_VFS_SETXATTR
466 const struct xattr_handler *get_xattr_type(const char *name);
467
468 static inline int
469 __vfs_setxattr(struct dentry *dentry, struct inode *inode, const char *name,
470                const void *value, size_t size, int flags)
471 {
472 # ifdef HAVE_XATTR_HANDLER_FLAGS
473         const struct xattr_handler *handler;
474         int rc;
475
476         handler = get_xattr_type(name);
477         if (!handler)
478                 return -EOPNOTSUPP;
479
480 #  if defined(HAVE_XATTR_HANDLER_INODE_PARAM)
481         rc = handler->set(handler, dentry, inode, name, value, size, flags);
482 #  elif defined(HAVE_XATTR_HANDLER_SIMPLIFIED)
483         rc = handler->set(handler, dentry, name, value, size, flags);
484 #  else
485         rc = handler->set(dentry, name, value, size, flags, handler->flags);
486 #  endif /* !HAVE_XATTR_HANDLER_INODE_PARAM */
487         return rc;
488 # else /* !HAVE_XATTR_HANDLER_FLAGS */
489         return ll_setxattr(dentry, name, value, size, flags);
490 # endif /* HAVE_XATTR_HANDLER_FLAGS */
491 }
492 #endif /* HAVE_VFS_SETXATTR */
493
494 #ifdef HAVE_IOP_SET_ACL
495 #ifdef CONFIG_FS_POSIX_ACL
496 #ifndef HAVE_POSIX_ACL_UPDATE_MODE
497 static inline int posix_acl_update_mode(struct inode *inode, umode_t *mode_p,
498                           struct posix_acl **acl)
499 {
500         umode_t mode = inode->i_mode;
501         int error;
502
503         error = posix_acl_equiv_mode(*acl, &mode);
504         if (error < 0)
505                 return error;
506         if (error == 0)
507                 *acl = NULL;
508         if (!in_group_p(inode->i_gid) &&
509             !capable_wrt_inode_uidgid(inode, CAP_FSETID))
510                 mode &= ~S_ISGID;
511         *mode_p = mode;
512         return 0;
513 }
514 #endif /* HAVE_POSIX_ACL_UPDATE_MODE */
515 #endif
516 #endif
517
518 #ifndef HAVE_IOV_ITER_TRUNCATE
519 static inline void iov_iter_truncate(struct iov_iter *i, u64 count)
520 {
521         if (i->count > count)
522                 i->count = count;
523 }
524 #endif
525
526 #ifndef HAVE_IS_SXID
527 static inline bool is_sxid(umode_t mode)
528 {
529         return (mode & S_ISUID) || ((mode & S_ISGID) && (mode & S_IXGRP));
530 }
531 #endif
532
533 #ifndef IS_NOSEC
534 #define IS_NOSEC(inode) (!is_sxid(inode->i_mode))
535 #endif
536
537 #ifndef MS_NOSEC
538 static inline void inode_has_no_xattr(struct inode *inode)
539 {
540         return;
541 }
542 #endif
543
544 #ifndef HAVE_FILE_OPERATIONS_READ_WRITE_ITER
545 static inline void iov_iter_reexpand(struct iov_iter *i, size_t count)
546 {
547         i->count = count;
548 }
549
550 static inline struct iovec iov_iter_iovec(const struct iov_iter *iter)
551 {
552         return (struct iovec) {
553                 .iov_base = iter->iov->iov_base + iter->iov_offset,
554                 .iov_len = min(iter->count,
555                                iter->iov->iov_len - iter->iov_offset),
556         };
557 }
558
559 #define iov_for_each(iov, iter, start)                                  \
560         for (iter = (start);                                            \
561              (iter).count && ((iov = iov_iter_iovec(&(iter))), 1);      \
562              iov_iter_advance(&(iter), (iov).iov_len))
563
564 static inline ssize_t
565 generic_file_read_iter(struct kiocb *iocb, struct iov_iter *iter)
566 {
567         struct iovec iov;
568         struct iov_iter i;
569         ssize_t bytes = 0;
570
571         iov_for_each(iov, i, *iter) {
572                 ssize_t res;
573
574                 res = generic_file_aio_read(iocb, &iov, 1, iocb->ki_pos);
575                 if (res <= 0) {
576                         if (bytes == 0)
577                                 bytes = res;
578                         break;
579                 }
580
581                 bytes += res;
582                 if (res < iov.iov_len)
583                         break;
584         }
585
586         if (bytes > 0)
587                 iov_iter_advance(iter, bytes);
588         return bytes;
589 }
590
591 static inline ssize_t
592 __generic_file_write_iter(struct kiocb *iocb, struct iov_iter *iter)
593 {
594         struct iovec iov;
595         struct iov_iter i;
596         ssize_t bytes = 0;
597
598         /* Since LLITE updates file size at the end of I/O in
599          * vvp_io_commit_write(), append write has to be done in atomic when
600          * there are multiple segments because otherwise each iteration to
601          * __generic_file_aio_write() will see original file size */
602         if (unlikely(iocb->ki_filp->f_flags & O_APPEND && iter->nr_segs > 1)) {
603                 struct iovec *iov_copy;
604                 int count = 0;
605
606                 OBD_ALLOC(iov_copy, sizeof(*iov_copy) * iter->nr_segs);
607                 if (!iov_copy)
608                         return -ENOMEM;
609
610                 iov_for_each(iov, i, *iter)
611                         iov_copy[count++] = iov;
612
613                 bytes = __generic_file_aio_write(iocb, iov_copy, count,
614                                                  &iocb->ki_pos);
615                 OBD_FREE(iov_copy, sizeof(*iov_copy) * iter->nr_segs);
616
617                 if (bytes > 0)
618                         iov_iter_advance(iter, bytes);
619                 return bytes;
620         }
621
622         iov_for_each(iov, i, *iter) {
623                 ssize_t res;
624
625                 res = __generic_file_aio_write(iocb, &iov, 1, &iocb->ki_pos);
626                 if (res <= 0) {
627                         if (bytes == 0)
628                                 bytes = res;
629                         break;
630                 }
631
632                 bytes += res;
633                 if (res < iov.iov_len)
634                         break;
635         }
636
637         if (bytes > 0)
638                 iov_iter_advance(iter, bytes);
639         return bytes;
640 }
641 #endif /* HAVE_FILE_OPERATIONS_READ_WRITE_ITER */
642
643 static inline void __user *get_vmf_address(struct vm_fault *vmf)
644 {
645 #ifdef HAVE_VM_FAULT_ADDRESS
646         return (void __user *)vmf->address;
647 #else
648         return vmf->virtual_address;
649 #endif
650 }
651
652 #ifdef HAVE_VM_OPS_USE_VM_FAULT_ONLY
653 # define ll_filemap_fault(vma, vmf) filemap_fault(vmf)
654 #else
655 # define ll_filemap_fault(vma, vmf) filemap_fault(vma, vmf)
656 #endif
657
658 #ifndef HAVE_CURRENT_TIME
659 static inline struct timespec current_time(struct inode *inode)
660 {
661         return CURRENT_TIME;
662 }
663 #endif
664
665 #ifndef time_after32
666 /**
667  * time_after32 - compare two 32-bit relative times
668  * @a: the time which may be after @b
669  * @b: the time which may be before @a
670  *
671  * time_after32(a, b) returns true if the time @a is after time @b.
672  * time_before32(b, a) returns true if the time @b is before time @a.
673  *
674  * Similar to time_after(), compare two 32-bit timestamps for relative
675  * times.  This is useful for comparing 32-bit seconds values that can't
676  * be converted to 64-bit values (e.g. due to disk format or wire protocol
677  * issues) when it is known that the times are less than 68 years apart.
678  */
679 #define time_after32(a, b)     ((s32)((u32)(b) - (u32)(a)) < 0)
680 #define time_before32(b, a)    time_after32(a, b)
681
682 #endif
683
684 #ifndef __GFP_COLD
685 #define __GFP_COLD 0
686 #endif
687
688 #ifndef alloc_workqueue
689 #define alloc_workqueue(name, flags, max_active) create_workqueue(name)
690 #endif
691
692 #ifndef READ_ONCE
693 #define READ_ONCE ACCESS_ONCE
694 #endif
695
696 #ifdef HAVE_BLK_INTEGRITY_ENABLED
697 static inline unsigned short blk_integrity_interval(struct blk_integrity *bi)
698 {
699 #ifdef HAVE_INTERVAL_EXP_BLK_INTEGRITY
700         return bi->interval_exp ? 1 << bi->interval_exp : 0;
701 #elif defined(HAVE_INTERVAL_BLK_INTEGRITY)
702         return bi->interval;
703 #else
704         return bi->sector_size;
705 #endif
706 }
707
708 static inline const char *blk_integrity_name(struct blk_integrity *bi)
709 {
710 #ifdef HAVE_INTERVAL_EXP_BLK_INTEGRITY
711         return bi->profile->name;
712 #else
713         return bi->name;
714 #endif
715 }
716 #else
717 static inline unsigned short blk_integrity_interval(struct blk_integrity *bi)
718 {
719         return 0;
720 }
721 static inline const char *blk_integrity_name(struct blk_integrity *bi)
722 {
723         /* gcc8 dislikes when strcmp() is called against NULL */
724         return "";
725 }
726 #endif
727
728 static inline unsigned int bip_size(struct bio_integrity_payload *bip)
729 {
730 #ifdef HAVE_BIP_ITER_BIO_INTEGRITY_PAYLOAD
731         return bip->bip_iter.bi_size;
732 #else
733         return bip->bip_size;
734 #endif
735 }
736
737 #ifndef INTEGRITY_FLAG_READ
738 #define INTEGRITY_FLAG_READ BLK_INTEGRITY_VERIFY
739 #endif
740
741 #ifndef INTEGRITY_FLAG_WRITE
742 #define INTEGRITY_FLAG_WRITE BLK_INTEGRITY_GENERATE
743 #endif
744
745 static inline bool bdev_integrity_enabled(struct block_device *bdev, int rw)
746 {
747         struct blk_integrity *bi = bdev_get_integrity(bdev);
748
749         if (bi == NULL)
750                 return false;
751
752 #ifdef HAVE_INTERVAL_EXP_BLK_INTEGRITY
753         if (rw == 0 && bi->profile->verify_fn != NULL &&
754             (bi->flags & INTEGRITY_FLAG_READ))
755                 return true;
756
757         if (rw == 1 && bi->profile->generate_fn != NULL &&
758             (bi->flags & INTEGRITY_FLAG_WRITE))
759                 return true;
760 #else
761         if (rw == 0 && bi->verify_fn != NULL &&
762             (bi->flags & INTEGRITY_FLAG_READ))
763                 return true;
764
765         if (rw == 1 && bi->generate_fn != NULL &&
766             (bi->flags & INTEGRITY_FLAG_WRITE))
767                 return true;
768 #endif
769
770         return false;
771 }
772
773 #ifdef HAVE_PAGEVEC_INIT_ONE_PARAM
774 #define ll_pagevec_init(pvec, n) pagevec_init(pvec)
775 #else
776 #define ll_pagevec_init(pvec, n) pagevec_init(pvec, n)
777 #endif
778
779 #endif /* _LUSTRE_COMPAT_H */