Whamcloud - gitweb
LU-13199 lustre: remove cl_{offset,index,page_size} helpers
[fs/lustre-release.git] / lustre / lov / lov_io.c
1 /*
2  * GPL HEADER START
3  *
4  * DO NOT ALTER OR REMOVE COPYRIGHT NOTICES OR THIS FILE HEADER.
5  *
6  * This program is free software; you can redistribute it and/or modify
7  * it under the terms of the GNU General Public License version 2 only,
8  * as published by the Free Software Foundation.
9  *
10  * This program is distributed in the hope that it will be useful, but
11  * WITHOUT ANY WARRANTY; without even the implied warranty of
12  * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
13  * General Public License version 2 for more details (a copy is included
14  * in the LICENSE file that accompanied this code).
15  *
16  * You should have received a copy of the GNU General Public License
17  * version 2 along with this program; If not, see
18  * http://www.gnu.org/licenses/gpl-2.0.html
19  *
20  * GPL HEADER END
21  */
22 /*
23  * Copyright (c) 2008, 2010, Oracle and/or its affiliates. All rights reserved.
24  * Use is subject to license terms.
25  *
26  * Copyright (c) 2011, 2017, Intel Corporation.
27  */
28 /*
29  * This file is part of Lustre, http://www.lustre.org/
30  *
31  * Implementation of cl_io for LOV layer.
32  *
33  *   Author: Nikita Danilov <nikita.danilov@sun.com>
34  *   Author: Jinshan Xiong <jinshan.xiong@whamcloud.com>
35  */
36
37 #define DEBUG_SUBSYSTEM S_LOV
38
39 #include "lov_cl_internal.h"
40
41 /** \addtogroup lov
42  *  @{
43  */
44
45 static inline struct lov_io_sub *lov_sub_alloc(struct lov_io *lio, int index)
46 {
47         struct lov_io_sub *sub;
48
49         if (lio->lis_nr_subios == 0) {
50                 LASSERT(lio->lis_single_subio_index == -1);
51                 sub = &lio->lis_single_subio;
52                 lio->lis_single_subio_index = index;
53                 memset(sub, 0, sizeof(*sub));
54         } else {
55                 OBD_ALLOC_PTR(sub);
56         }
57
58         if (sub) {
59                 INIT_LIST_HEAD(&sub->sub_list);
60                 INIT_LIST_HEAD(&sub->sub_linkage);
61                 sub->sub_subio_index = index;
62         }
63
64         return sub;
65 }
66
67 static inline void lov_sub_free(struct lov_io *lio, struct lov_io_sub *sub)
68 {
69         if (sub->sub_subio_index == lio->lis_single_subio_index) {
70                 LASSERT(sub == &lio->lis_single_subio);
71                 lio->lis_single_subio_index = -1;
72         } else {
73                 OBD_FREE_PTR(sub);
74         }
75 }
76
77 static void lov_io_sub_fini(const struct lu_env *env, struct lov_io *lio,
78                             struct lov_io_sub *sub)
79 {
80         ENTRY;
81
82         cl_io_fini(sub->sub_env, &sub->sub_io);
83
84         if (sub->sub_env && !IS_ERR(sub->sub_env)) {
85                 cl_env_put(sub->sub_env, &sub->sub_refcheck);
86                 sub->sub_env = NULL;
87         }
88         EXIT;
89 }
90
91 static inline bool
92 is_index_within_mirror(struct lov_object *lov, int index, int mirror_index)
93 {
94         struct lov_layout_composite *comp = &lov->u.composite;
95         struct lov_mirror_entry *lre = &comp->lo_mirrors[mirror_index];
96
97         return (index >= lre->lre_start && index <= lre->lre_end);
98 }
99
100 static int lov_io_sub_init(const struct lu_env *env, struct lov_io *lio,
101                            struct lov_io_sub *sub)
102 {
103         struct lov_object *lov = lio->lis_object;
104         struct cl_io *sub_io;
105         struct cl_object *sub_obj;
106         struct cl_io *io = lio->lis_cl.cis_io;
107         int index = lov_comp_entry(sub->sub_subio_index);
108         int stripe = lov_comp_stripe(sub->sub_subio_index);
109         int result = 0;
110         LASSERT(sub->sub_env == NULL);
111         ENTRY;
112
113         if (unlikely(!lov_r0(lov, index)->lo_sub ||
114                      !lov_r0(lov, index)->lo_sub[stripe]))
115                 RETURN(-EIO);
116
117         LASSERTF(ergo(lov_is_flr(lov),
118                       is_index_within_mirror(lov, index,
119                                              lio->lis_mirror_index)),
120                  DFID "iot = %d, index = %d, mirror = %d\n",
121                  PFID(lu_object_fid(lov2lu(lov))), io->ci_type, index,
122                  lio->lis_mirror_index);
123
124         /* obtain new environment */
125         sub->sub_env = cl_env_get(&sub->sub_refcheck);
126         if (IS_ERR(sub->sub_env)) {
127                 result = PTR_ERR(sub->sub_env);
128                 RETURN(result);
129         }
130
131         sub_obj = lovsub2cl(lov_r0(lov, index)->lo_sub[stripe]);
132         sub_io  = &sub->sub_io;
133
134         sub_io->ci_obj    = sub_obj;
135         sub_io->ci_result = 0;
136
137         sub_io->ci_parent  = io;
138         sub_io->ci_lockreq = io->ci_lockreq;
139         sub_io->ci_type    = io->ci_type;
140         sub_io->ci_no_srvlock = io->ci_no_srvlock;
141         sub_io->ci_noatime = io->ci_noatime;
142         sub_io->ci_async_readahead = io->ci_async_readahead;
143         sub_io->ci_lock_no_expand = io->ci_lock_no_expand;
144         sub_io->ci_ndelay = io->ci_ndelay;
145         sub_io->ci_layout_version = io->ci_layout_version;
146         sub_io->ci_tried_all_mirrors = io->ci_tried_all_mirrors;
147
148         result = cl_io_sub_init(sub->sub_env, sub_io, io->ci_type, sub_obj);
149
150         if (result < 0)
151                 lov_io_sub_fini(env, lio, sub);
152
153         RETURN(result);
154 }
155
156 struct lov_io_sub *lov_sub_get(const struct lu_env *env,
157                                struct lov_io *lio, int index)
158 {
159         struct lov_io_sub *sub;
160         int rc = 0;
161
162         ENTRY;
163
164         list_for_each_entry(sub, &lio->lis_subios, sub_list) {
165                 if (sub->sub_subio_index == index) {
166                         rc = 1;
167                         break;
168                 }
169         }
170
171         if (rc == 0) {
172                 sub = lov_sub_alloc(lio, index);
173                 if (!sub)
174                         GOTO(out, rc = -ENOMEM);
175
176                 rc = lov_io_sub_init(env, lio, sub);
177                 if (rc < 0) {
178                         lov_sub_free(lio, sub);
179                         GOTO(out, rc);
180                 }
181
182                 list_add_tail(&sub->sub_list, &lio->lis_subios);
183                 lio->lis_nr_subios++;
184         }
185 out:
186         if (rc < 0)
187                 sub = ERR_PTR(rc);
188         else
189                 sub->sub_io.ci_noquota = lio->lis_cl.cis_io->ci_noquota;
190         RETURN(sub);
191 }
192
193 /*****************************************************************************
194  *
195  * Lov io operations.
196  *
197  */
198 static int lov_io_subio_init(const struct lu_env *env, struct lov_io *lio,
199                              struct cl_io *io)
200 {
201         ENTRY;
202
203         LASSERT(lio->lis_object != NULL);
204
205         INIT_LIST_HEAD(&lio->lis_subios);
206         lio->lis_single_subio_index = -1;
207         lio->lis_nr_subios = 0;
208
209         RETURN(0);
210 }
211
212 /**
213  * Decide if it will need write intent RPC
214  */
215 static int lov_io_mirror_write_intent(struct lov_io *lio,
216         struct lov_object *obj, struct cl_io *io)
217 {
218         struct lov_layout_composite *comp = &obj->u.composite;
219         struct lu_extent *ext = &io->ci_write_intent;
220         struct lov_mirror_entry *lre;
221         struct lov_mirror_entry *primary;
222         struct lov_layout_entry *lle;
223         size_t count = 0;
224         ENTRY;
225
226         *ext = (typeof(*ext)) { lio->lis_pos, lio->lis_endpos };
227         io->ci_need_write_intent = 0;
228
229         if (!(io->ci_type == CIT_WRITE || cl_io_is_mkwrite(io) ||
230               cl_io_is_fallocate(io) || cl_io_is_trunc(io)))
231                 RETURN(0);
232
233         /*
234          * FLR: check if it needs to send a write intent RPC to server.
235          * Writing to sync_pending file needs write intent RPC to change
236          * the file state back to write_pending, so that the layout version
237          * can be increased when the state changes to sync_pending at a later
238          * time. Otherwise there exists a chance that an evicted client may
239          * dirty the file data while resync client is working on it.
240          * Designated I/O is allowed for resync workload.
241          */
242         if (lov_flr_state(obj) == LCM_FL_RDONLY ||
243             (lov_flr_state(obj) == LCM_FL_SYNC_PENDING &&
244              io->ci_designated_mirror == 0)) {
245                 io->ci_need_write_intent = 1;
246                 RETURN(0);
247         }
248
249         LASSERT((lov_flr_state(obj) == LCM_FL_WRITE_PENDING));
250         LASSERT(comp->lo_preferred_mirror >= 0);
251
252         /*
253          * need to iterate all components to see if there are
254          * multiple components covering the writing component
255          */
256         primary = &comp->lo_mirrors[comp->lo_preferred_mirror];
257         LASSERT(!primary->lre_stale);
258         lov_foreach_mirror_layout_entry(obj, lle, primary) {
259                 LASSERT(lle->lle_valid);
260                 if (!lu_extent_is_overlapped(ext, lle->lle_extent))
261                         continue;
262
263                 ext->e_start = min(ext->e_start, lle->lle_extent->e_start);
264                 ext->e_end = max(ext->e_end, lle->lle_extent->e_end);
265                 ++count;
266         }
267         if (count == 0) {
268                 CERROR(DFID ": cannot find any valid components covering "
269                        "file extent "DEXT", mirror: %d\n",
270                        PFID(lu_object_fid(lov2lu(obj))), PEXT(ext),
271                        primary->lre_mirror_id);
272                 RETURN(-EIO);
273         }
274
275         count = 0;
276         lov_foreach_mirror_entry(obj, lre) {
277                 if (lre == primary)
278                         continue;
279
280                 lov_foreach_mirror_layout_entry(obj, lle, lre) {
281                         if (!lle->lle_valid)
282                                 continue;
283
284                         if (lu_extent_is_overlapped(ext, lle->lle_extent)) {
285                                 ++count;
286                                 break;
287                         }
288                 }
289         }
290
291         CDEBUG(D_VFSTRACE, DFID "there are %zd components to be staled to "
292                "modify file extent "DEXT", iot: %d\n",
293                PFID(lu_object_fid(lov2lu(obj))), count, PEXT(ext), io->ci_type);
294
295         io->ci_need_write_intent = count > 0;
296
297         RETURN(0);
298 }
299
300 static int lov_io_mirror_init(struct lov_io *lio, struct lov_object *obj,
301                                struct cl_io *io)
302 {
303         struct lov_layout_composite *comp = &obj->u.composite;
304         int index;
305         int i;
306         int result;
307         ENTRY;
308
309         if (!lov_is_flr(obj)) {
310                 /* only locks/pages are manipulated for CIT_MISC op, no
311                  * cl_io_loop() will be called, don't check/set mirror info.
312                  */
313                 if (io->ci_type != CIT_MISC) {
314                         LASSERT(comp->lo_preferred_mirror == 0);
315                         lio->lis_mirror_index = comp->lo_preferred_mirror;
316                 }
317                 io->ci_ndelay = 0;
318                 RETURN(0);
319         }
320
321         /* transfer the layout version for verification */
322         if (io->ci_layout_version == 0)
323                 io->ci_layout_version = obj->lo_lsm->lsm_layout_gen;
324
325         /* find the corresponding mirror for designated mirror IO */
326         if (io->ci_designated_mirror > 0) {
327                 struct lov_mirror_entry *entry;
328
329                 LASSERT(!io->ci_ndelay);
330
331                 CDEBUG(D_LAYOUT, "designated I/O mirror state: %d\n",
332                       lov_flr_state(obj));
333
334                 if ((cl_io_is_trunc(io) || io->ci_type == CIT_WRITE ||
335                      cl_io_is_fallocate(io)) &&
336                     (io->ci_layout_version != obj->lo_lsm->lsm_layout_gen)) {
337                         /*
338                          * For resync I/O, the ci_layout_version was the layout
339                          * version when resync starts. If it doesn't match the
340                          * current object layout version, it means the layout
341                          * has been changed
342                          */
343                         RETURN(-ESTALE);
344                 }
345
346                 io->ci_layout_version |= LU_LAYOUT_RESYNC;
347
348                 index = 0;
349                 lio->lis_mirror_index = -1;
350                 lov_foreach_mirror_entry(obj, entry) {
351                         if (entry->lre_mirror_id ==
352                             io->ci_designated_mirror) {
353                                 lio->lis_mirror_index = index;
354                                 break;
355                         }
356
357                         index++;
358                 }
359
360                 RETURN(lio->lis_mirror_index < 0 ? -EINVAL : 0);
361         }
362
363         result = lov_io_mirror_write_intent(lio, obj, io);
364         if (result)
365                 RETURN(result);
366
367         if (io->ci_need_write_intent) {
368                 CDEBUG(D_VFSTRACE, DFID " need write intent for [%llu, %llu)\n",
369                        PFID(lu_object_fid(lov2lu(obj))),
370                        lio->lis_pos, lio->lis_endpos);
371
372                 if (cl_io_is_trunc(io)) {
373                         /**
374                          * for truncate, we uses [size, EOF) to judge whether
375                          * a write intent needs to be send, but we need to
376                          * restore the write extent to [0, size], in truncate,
377                          * the byte in the size position is accessed.
378                          */
379                         io->ci_write_intent.e_start = 0;
380                         io->ci_write_intent.e_end =
381                                         io->u.ci_setattr.sa_attr.lvb_size + 1;
382                 }
383                 /* stop cl_io_init() loop */
384                 RETURN(1);
385         }
386
387         if (io->ci_ndelay_tried == 0 || /* first time to try */
388             /* reset the mirror index if layout has changed */
389             lio->lis_mirror_layout_gen != obj->lo_lsm->lsm_layout_gen) {
390                 lio->lis_mirror_layout_gen = obj->lo_lsm->lsm_layout_gen;
391                 index = lio->lis_mirror_index = comp->lo_preferred_mirror;
392         } else {
393                 index = lio->lis_mirror_index;
394                 LASSERT(index >= 0);
395
396                 /* move mirror index to the next one */
397                 index = (index + 1) % comp->lo_mirror_count;
398         }
399
400         for (i = 0; i < comp->lo_mirror_count; i++) {
401                 struct lu_extent ext = { .e_start = lio->lis_pos,
402                                          .e_end   = lio->lis_pos + 1 };
403                 struct lov_mirror_entry *lre;
404                 struct lov_layout_entry *lle;
405                 bool found = false;
406
407                 lre = &comp->lo_mirrors[(index + i) % comp->lo_mirror_count];
408                 if (!lre->lre_valid)
409                         continue;
410
411                 if (lre->lre_foreign)
412                         continue;
413
414                 lov_foreach_mirror_layout_entry(obj, lle, lre) {
415                         if (!lle->lle_valid)
416                                 continue;
417
418                         if (lu_extent_is_overlapped(&ext, lle->lle_extent)) {
419                                 found = true;
420                                 break;
421                         }
422                 } /* each component of the mirror */
423                 if (found) {
424                         index = (index + i) % comp->lo_mirror_count;
425                         break;
426                 }
427         } /* each mirror */
428
429         if (i == comp->lo_mirror_count) {
430                 CERROR(DFID": failed to find a component covering "
431                        "I/O region at %llu\n",
432                        PFID(lu_object_fid(lov2lu(obj))), lio->lis_pos);
433
434                 dump_lsm(D_ERROR, obj->lo_lsm);
435
436                 RETURN(-EIO);
437         }
438
439         CDEBUG(D_VFSTRACE, DFID ": flr state: %d, move mirror from %d to %d, "
440                "have retried: %d, mirror count: %d\n",
441                PFID(lu_object_fid(lov2lu(obj))), lov_flr_state(obj),
442                lio->lis_mirror_index, index, io->ci_ndelay_tried,
443                comp->lo_mirror_count);
444
445         lio->lis_mirror_index = index;
446
447         /*
448          * FLR: if all mirrors have been tried once, most likely the network
449          * of this client has been partitioned. We should relinquish CPU for
450          * a while before trying again.
451          */
452         if (io->ci_ndelay && io->ci_ndelay_tried > 0 &&
453             (io->ci_ndelay_tried % comp->lo_mirror_count == 0)) {
454                 schedule_timeout_interruptible(cfs_time_seconds(1) / 100);
455                 if (signal_pending(current))
456                         RETURN(-EINTR);
457
458                 /**
459                  * we'd set ci_tried_all_mirrors to turn off fast mirror
460                  * switching for read after we've tried all mirrors several
461                  * rounds.
462                  */
463                 io->ci_tried_all_mirrors = io->ci_ndelay_tried %
464                                            (comp->lo_mirror_count * 4) == 0;
465         }
466         ++io->ci_ndelay_tried;
467
468         CDEBUG(D_VFSTRACE, "use %sdelayed RPC state for this IO\n",
469                io->ci_ndelay ? "non-" : "");
470
471         RETURN(0);
472 }
473
474 static int lov_io_slice_init(struct lov_io *lio,
475                              struct lov_object *obj, struct cl_io *io)
476 {
477         int index;
478         int result = 0;
479         ENTRY;
480
481         io->ci_result = 0;
482         lio->lis_object = obj;
483         lio->lis_cached_entry = LIS_CACHE_ENTRY_NONE;
484
485         switch (io->ci_type) {
486         case CIT_READ:
487         case CIT_WRITE:
488                 lio->lis_pos = io->u.ci_rw.crw_pos;
489                 lio->lis_endpos = io->u.ci_rw.crw_pos + io->u.ci_rw.crw_count;
490                 lio->lis_io_endpos = lio->lis_endpos;
491                 if (cl_io_is_append(io)) {
492                         LASSERT(io->ci_type == CIT_WRITE);
493
494                         /*
495                          * If there is LOV EA hole, then we may cannot locate
496                          * the current file-tail exactly.
497                          */
498                         if (unlikely(obj->lo_lsm->lsm_entries[0]->lsme_pattern &
499                                      LOV_PATTERN_F_HOLE))
500                                 GOTO(out, result = -EIO);
501
502                         lio->lis_pos = 0;
503                         lio->lis_endpos = OBD_OBJECT_EOF;
504                 }
505                 break;
506
507         case CIT_SETATTR:
508                 if (cl_io_is_fallocate(io)) {
509                         lio->lis_pos = io->u.ci_setattr.sa_falloc_offset;
510                         lio->lis_endpos = io->u.ci_setattr.sa_falloc_end;
511                 } else if (cl_io_is_trunc(io)) {
512                         lio->lis_pos = io->u.ci_setattr.sa_attr.lvb_size;
513                         lio->lis_endpos = OBD_OBJECT_EOF;
514                 } else {
515                         lio->lis_pos = 0;
516                         lio->lis_endpos = OBD_OBJECT_EOF;
517                 }
518                 break;
519
520         case CIT_DATA_VERSION:
521                 lio->lis_pos = 0;
522                 lio->lis_endpos = OBD_OBJECT_EOF;
523                 break;
524
525         case CIT_FAULT: {
526                 pgoff_t index = io->u.ci_fault.ft_index;
527
528                 lio->lis_pos = index << PAGE_SHIFT;
529                 lio->lis_endpos = (index + 1) << PAGE_SHIFT;
530                 break;
531         }
532
533         case CIT_FSYNC: {
534                 lio->lis_pos = io->u.ci_fsync.fi_start;
535                 lio->lis_endpos = io->u.ci_fsync.fi_end;
536                 break;
537         }
538
539         case CIT_LADVISE: {
540                 lio->lis_pos = io->u.ci_ladvise.li_start;
541                 lio->lis_endpos = io->u.ci_ladvise.li_end;
542                 break;
543         }
544
545         case CIT_LSEEK: {
546                 lio->lis_pos = io->u.ci_lseek.ls_start;
547                 lio->lis_endpos = OBD_OBJECT_EOF;
548                 break;
549         }
550
551         case CIT_GLIMPSE:
552                 lio->lis_pos = 0;
553                 lio->lis_endpos = OBD_OBJECT_EOF;
554                 break;
555
556         case CIT_MISC:
557                 lio->lis_pos = 0;
558                 lio->lis_endpos = OBD_OBJECT_EOF;
559                 break;
560
561         default:
562                 LBUG();
563         }
564
565         /*
566          * CIT_MISC + ci_ignore_layout can identify the I/O from the OSC layer,
567          * it won't care/access lov layout related info.
568          */
569         if (io->ci_ignore_layout && io->ci_type == CIT_MISC)
570                 GOTO(out, result = 0);
571
572         LASSERT(obj->lo_lsm != NULL);
573
574         result = lov_io_mirror_init(lio, obj, io);
575         if (result)
576                 GOTO(out, result);
577
578         /* check if it needs to instantiate layout */
579         if (!(io->ci_type == CIT_WRITE || cl_io_is_mkwrite(io) ||
580               cl_io_is_fallocate(io) ||
581               (cl_io_is_trunc(io) && io->u.ci_setattr.sa_attr.lvb_size > 0)))
582                 GOTO(out, result = 0);
583
584         /*
585          * for truncate, it only needs to instantiate the components
586          * before the truncated size.
587          */
588         if (cl_io_is_trunc(io)) {
589                 io->ci_write_intent.e_start = 0;
590                 /* for writes, e_end is endpos, the location of the file
591                  * pointer after the write is completed, so it is not accessed.
592                  * For truncate, 'end' is the size, and *is* acccessed.
593                  * In other words, writes are [start, end), but truncate is
594                  * [start, size], where both are included.  So add 1 to the
595                  * size when creating the write intent to account for this.
596                  */
597                 io->ci_write_intent.e_end =
598                         io->u.ci_setattr.sa_attr.lvb_size + 1;
599         } else {
600                 io->ci_write_intent.e_start = lio->lis_pos;
601                 io->ci_write_intent.e_end = lio->lis_endpos;
602         }
603
604         index = 0;
605         lov_foreach_io_layout(index, lio, &io->ci_write_intent) {
606                 if (!lsm_entry_inited(obj->lo_lsm, index)) {
607                         io->ci_need_write_intent = 1;
608                         break;
609                 }
610         }
611
612         if (io->ci_need_write_intent && io->ci_designated_mirror > 0) {
613                 /*
614                  * REINT_SYNC RPC has already tried to instantiate all of the
615                  * components involved, obviously it didn't succeed. Skip this
616                  * mirror for now. The server won't be able to figure out
617                  * which mirror it should instantiate components
618                  */
619                 CERROR(DFID": trying to instantiate components for designated "
620                        "I/O, file state: %d\n",
621                        PFID(lu_object_fid(lov2lu(obj))), lov_flr_state(obj));
622
623                 io->ci_need_write_intent = 0;
624                 GOTO(out, result = -EIO);
625         }
626
627         if (io->ci_need_write_intent)
628                 GOTO(out, result = 1);
629
630         EXIT;
631
632 out:
633         return result;
634 }
635
636 static void lov_io_fini(const struct lu_env *env, const struct cl_io_slice *ios)
637 {
638         struct lov_io *lio = cl2lov_io(env, ios);
639         struct lov_object *lov = cl2lov(ios->cis_obj);
640         struct lov_io_sub *sub;
641
642         ENTRY;
643         LASSERT(list_empty(&lio->lis_active));
644
645         while ((sub = list_first_entry_or_null(&lio->lis_subios,
646                                                struct lov_io_sub,
647                                                sub_list)) != NULL) {
648                 list_del_init(&sub->sub_list);
649                 lio->lis_nr_subios--;
650
651                 lov_io_sub_fini(env, lio, sub);
652                 lov_sub_free(lio, sub);
653         }
654         LASSERT(lio->lis_nr_subios == 0);
655
656         LASSERT(atomic_read(&lov->lo_active_ios) > 0);
657         if (atomic_dec_and_test(&lov->lo_active_ios))
658                 wake_up(&lov->lo_waitq);
659         EXIT;
660 }
661
662 static void lov_io_sub_inherit(struct lov_io_sub *sub, struct lov_io *lio,
663                                loff_t start, loff_t end)
664 {
665         struct cl_io *io = &sub->sub_io;
666         struct lov_stripe_md *lsm = lio->lis_object->lo_lsm;
667         struct cl_io *parent = lio->lis_cl.cis_io;
668         int index = lov_comp_entry(sub->sub_subio_index);
669         int stripe = lov_comp_stripe(sub->sub_subio_index);
670
671         switch (io->ci_type) {
672         case CIT_SETATTR: {
673                 io->u.ci_setattr.sa_attr = parent->u.ci_setattr.sa_attr;
674                 io->u.ci_setattr.sa_attr_flags =
675                         parent->u.ci_setattr.sa_attr_flags;
676                 io->u.ci_setattr.sa_avalid = parent->u.ci_setattr.sa_avalid;
677                 io->u.ci_setattr.sa_xvalid = parent->u.ci_setattr.sa_xvalid;
678                 io->u.ci_setattr.sa_falloc_mode =
679                         parent->u.ci_setattr.sa_falloc_mode;
680                 io->u.ci_setattr.sa_stripe_index = stripe;
681                 io->u.ci_setattr.sa_parent_fid =
682                                         parent->u.ci_setattr.sa_parent_fid;
683                 /* For SETATTR(fallocate) pass the subtype to lower IO */
684                 io->u.ci_setattr.sa_subtype = parent->u.ci_setattr.sa_subtype;
685                 if (cl_io_is_fallocate(io)) {
686                         io->u.ci_setattr.sa_falloc_offset = start;
687                         io->u.ci_setattr.sa_falloc_end = end;
688                         io->u.ci_setattr.sa_falloc_uid =
689                                 parent->u.ci_setattr.sa_falloc_uid;
690                         io->u.ci_setattr.sa_falloc_gid =
691                                 parent->u.ci_setattr.sa_falloc_gid;
692                         io->u.ci_setattr.sa_falloc_projid =
693                                 parent->u.ci_setattr.sa_falloc_projid;
694                 }
695                 if (cl_io_is_trunc(io)) {
696                         loff_t new_size = parent->u.ci_setattr.sa_attr.lvb_size;
697
698                         new_size = lov_size_to_stripe(lsm, index, new_size,
699                                                       stripe);
700                         io->u.ci_setattr.sa_attr.lvb_size = new_size;
701                 }
702                 lov_lsm2layout(lsm, lsm->lsm_entries[index],
703                                &io->u.ci_setattr.sa_layout);
704                 break;
705         }
706         case CIT_DATA_VERSION: {
707                 io->u.ci_data_version.dv_data_version = 0;
708                 io->u.ci_data_version.dv_flags =
709                         parent->u.ci_data_version.dv_flags;
710                 break;
711         }
712         case CIT_FAULT: {
713                 loff_t off = parent->u.ci_fault.ft_index << PAGE_SHIFT;
714
715                 io->u.ci_fault = parent->u.ci_fault;
716                 off = lov_size_to_stripe(lsm, index, off, stripe);
717                 io->u.ci_fault.ft_index = off >> PAGE_SHIFT;
718                 break;
719         }
720         case CIT_FSYNC: {
721                 io->u.ci_fsync.fi_start = start;
722                 io->u.ci_fsync.fi_end = end;
723                 io->u.ci_fsync.fi_fid = parent->u.ci_fsync.fi_fid;
724                 io->u.ci_fsync.fi_mode = parent->u.ci_fsync.fi_mode;
725                 break;
726         }
727         case CIT_READ:
728         case CIT_WRITE: {
729                 io->u.ci_wr.wr_sync = cl_io_is_sync_write(parent);
730                 io->ci_tried_all_mirrors = parent->ci_tried_all_mirrors;
731                 if (cl_io_is_append(parent)) {
732                         io->u.ci_wr.wr_append = 1;
733                 } else {
734                         io->u.ci_rw.crw_pos = start;
735                         io->u.ci_rw.crw_count = end - start;
736                 }
737                 break;
738         }
739         case CIT_LADVISE: {
740                 io->u.ci_ladvise.li_start = start;
741                 io->u.ci_ladvise.li_end = end;
742                 io->u.ci_ladvise.li_fid = parent->u.ci_ladvise.li_fid;
743                 io->u.ci_ladvise.li_advice = parent->u.ci_ladvise.li_advice;
744                 io->u.ci_ladvise.li_flags = parent->u.ci_ladvise.li_flags;
745                 break;
746         }
747         case CIT_LSEEK: {
748                 io->u.ci_lseek.ls_start = start;
749                 io->u.ci_lseek.ls_whence = parent->u.ci_lseek.ls_whence;
750                 io->u.ci_lseek.ls_result = parent->u.ci_lseek.ls_result;
751                 break;
752         }
753         case CIT_GLIMPSE:
754         case CIT_MISC:
755         default:
756                 break;
757         }
758 }
759
760 static loff_t lov_offset_mod(loff_t val, int delta)
761 {
762         if (val != OBD_OBJECT_EOF)
763                 val += delta;
764         return val;
765 }
766
767 static int lov_io_add_sub(const struct lu_env *env, struct lov_io *lio,
768                           struct lov_io_sub *sub, u64 start, u64 end)
769 {
770         int rc;
771
772         end = lov_offset_mod(end, 1);
773         lov_io_sub_inherit(sub, lio, start, end);
774         rc = cl_io_iter_init(sub->sub_env, &sub->sub_io);
775         if (rc != 0) {
776                 cl_io_iter_fini(sub->sub_env, &sub->sub_io);
777                 return rc;
778         }
779
780         list_add_tail(&sub->sub_linkage, &lio->lis_active);
781
782         return rc;
783 }
784 static int lov_io_iter_init(const struct lu_env *env,
785                             const struct cl_io_slice *ios)
786 {
787         struct lov_io *lio = cl2lov_io(env, ios);
788         struct lov_stripe_md *lsm = lio->lis_object->lo_lsm;
789         bool is_trunc = cl_io_is_trunc(ios->cis_io);
790         struct lov_io_sub *sub;
791         struct lu_extent ext;
792         int index;
793         int rc = 0;
794
795         ENTRY;
796
797         ext.e_start = lio->lis_pos;
798         ext.e_end = lio->lis_endpos;
799
800         if (is_trunc) {
801                 OBD_ALLOC_PTR_ARRAY(lio->lis_trunc_stripe_index,
802                                     lio->lis_object->u.composite.lo_entry_count);
803                 if (lio->lis_trunc_stripe_index == NULL)
804                         RETURN(-ENOMEM);
805         }
806
807         lov_foreach_io_layout(index, lio, &ext) {
808                 struct lov_layout_entry *le = lov_entry(lio->lis_object, index);
809                 struct lov_layout_raid0 *r0 = &le->lle_raid0;
810                 u64 start;
811                 u64 end;
812                 int stripe;
813                 bool tested_trunc_stripe = false;
814
815                 if (is_trunc)
816                         lio->lis_trunc_stripe_index[index] = -1;
817
818                 CDEBUG(D_VFSTRACE, "component[%d] flags %#x\n",
819                        index, lsm->lsm_entries[index]->lsme_flags);
820                 if (!lsm_entry_inited(lsm, index)) {
821                         /*
822                          * Read from uninitialized components should return
823                          * zero filled pages.
824                          */
825                         continue;
826                 }
827
828                 if (lsm_entry_is_foreign(lsm, index))
829                         continue;
830
831                 if (!le->lle_valid && !ios->cis_io->ci_designated_mirror) {
832                         CERROR("I/O to invalid component: %d, mirror: %d\n",
833                                index, lio->lis_mirror_index);
834                         RETURN(-EIO);
835                 }
836
837                 for (stripe = 0; stripe < r0->lo_nr; stripe++) {
838                         if (!lov_stripe_intersects(lsm, index, stripe,
839                                                    &ext, &start, &end))
840                                 continue;
841
842                         if (unlikely(!r0->lo_sub[stripe])) {
843                                 if (ios->cis_io->ci_type == CIT_READ ||
844                                     ios->cis_io->ci_type == CIT_WRITE ||
845                                     ios->cis_io->ci_type == CIT_FAULT)
846                                         RETURN(-EIO);
847
848                                 continue;
849                         }
850
851                         if (is_trunc && !tested_trunc_stripe) {
852                                 int prev;
853                                 u64 tr_start;
854
855                                 prev = (stripe == 0) ? r0->lo_nr - 1 :
856                                                         stripe - 1;
857                                 /**
858                                  * Only involving previous stripe if the
859                                  * truncate in this component is at the
860                                  * beginning of this stripe.
861                                  */
862                                 tested_trunc_stripe = true;
863                                 if (ext.e_start < lsm->lsm_entries[index]->
864                                                         lsme_extent.e_start) {
865                                         /* need previous stripe involvement */
866                                         lio->lis_trunc_stripe_index[index] = prev;
867                                 } else {
868                                         tr_start = ext.e_start;
869                                         tr_start = lov_do_div64(tr_start,
870                                                       stripe_width(lsm, index));
871                                         /* tr_start %= stripe_swidth */
872                                         if (tr_start == stripe * lsm->
873                                                         lsm_entries[index]->
874                                                         lsme_stripe_size)
875                                                 lio->lis_trunc_stripe_index[index] = prev;
876                                 }
877                         }
878
879                         /* if the last stripe is the trunc stripeno */
880                         if (is_trunc && lio->lis_trunc_stripe_index[index] == stripe)
881                                 lio->lis_trunc_stripe_index[index] = -1;
882
883                         sub = lov_sub_get(env, lio,
884                                           lov_comp_index(index, stripe));
885                         if (IS_ERR(sub))
886                                 return PTR_ERR(sub);
887
888                         rc = lov_io_add_sub(env, lio, sub, start, end);
889                         if (rc != 0)
890                                 break;
891                 }
892                 if (rc != 0)
893                         break;
894
895                 if (is_trunc && lio->lis_trunc_stripe_index[index] != -1) {
896                         stripe = lio->lis_trunc_stripe_index[index];
897                         if (unlikely(!r0->lo_sub[stripe])) {
898                                 lio->lis_trunc_stripe_index[index] = -1;
899                                 continue;
900                         }
901                         sub = lov_sub_get(env, lio,
902                                           lov_comp_index(index, stripe));
903                         if (IS_ERR(sub))
904                                 return PTR_ERR(sub);
905
906                         /**
907                          * the prev sub could be used by another truncate, we'd
908                          * skip it. LU-14128 happends when expand truncate +
909                          * read get wrong kms.
910                          */
911                         if (!list_empty(&sub->sub_linkage)) {
912                                 lio->lis_trunc_stripe_index[index] = -1;
913                                 continue;
914                         }
915
916                         (void)lov_stripe_intersects(lsm, index, stripe, &ext,
917                                                     &start, &end);
918                         rc = lov_io_add_sub(env, lio, sub, start, end);
919                         if (rc != 0)
920                                 break;
921
922                 }
923         }
924         RETURN(rc);
925 }
926
927 static int lov_io_rw_iter_init(const struct lu_env *env,
928                                const struct cl_io_slice *ios)
929 {
930         struct lov_io *lio = cl2lov_io(env, ios);
931         struct cl_io *io = ios->cis_io;
932         struct lov_stripe_md_entry *lse;
933         loff_t start = io->u.ci_rw.crw_pos;
934         loff_t next;
935         int index;
936
937         LASSERT(io->ci_type == CIT_READ || io->ci_type == CIT_WRITE);
938         ENTRY;
939
940         if (cl_io_is_append(io))
941                 RETURN(lov_io_iter_init(env, ios));
942
943         index = lov_io_layout_at(lio, io->u.ci_rw.crw_pos);
944         if (index < 0) { /* non-existing layout component */
945                 if (io->ci_type == CIT_READ) {
946                         /*
947                          * TODO: it needs to detect the next component and
948                          * then set the next pos
949                          */
950                         io->ci_continue = 0;
951
952                         RETURN(lov_io_iter_init(env, ios));
953                 }
954
955                 RETURN(-ENODATA);
956         }
957
958         if (!lov_entry(lio->lis_object, index)->lle_valid &&
959             !io->ci_designated_mirror)
960                 RETURN(io->ci_type == CIT_READ ? -EAGAIN : -EIO);
961
962         lse = lov_lse(lio->lis_object, index);
963
964         if (lsme_is_foreign(lse))
965                 RETURN(-EINVAL);
966
967         next = MAX_LFS_FILESIZE;
968         if (lse->lsme_stripe_count > 1) {
969                 unsigned long ssize = lse->lsme_stripe_size;
970
971                 lov_do_div64(start, ssize);
972                 next = (start + 1) * ssize;
973                 if (next <= start * ssize)
974                         next = MAX_LFS_FILESIZE;
975         }
976
977         LASSERTF(io->u.ci_rw.crw_pos >= lse->lsme_extent.e_start,
978                  "pos %lld, [%lld, %lld)\n", io->u.ci_rw.crw_pos,
979                  lse->lsme_extent.e_start, lse->lsme_extent.e_end);
980         next = min_t(__u64, next, lse->lsme_extent.e_end);
981         next = min_t(loff_t, next, lio->lis_io_endpos);
982
983         io->ci_continue = next < lio->lis_io_endpos;
984         io->u.ci_rw.crw_count = next - io->u.ci_rw.crw_pos;
985         lio->lis_pos    = io->u.ci_rw.crw_pos;
986         lio->lis_endpos = io->u.ci_rw.crw_pos + io->u.ci_rw.crw_count;
987         CDEBUG(D_VFSTRACE,
988                "stripe: %llu chunk: [%llu, %llu) %llu, %zd\n",
989                (__u64)start, lio->lis_pos, lio->lis_endpos,
990                (__u64)lio->lis_io_endpos, io->u.ci_rw.crw_count);
991
992         /*
993          * XXX The following call should be optimized: we know, that
994          * [lio->lis_pos, lio->lis_endpos) intersects with exactly one stripe.
995          */
996         RETURN(lov_io_iter_init(env, ios));
997 }
998
999 static int lov_io_setattr_iter_init(const struct lu_env *env,
1000                                     const struct cl_io_slice *ios)
1001 {
1002         struct lov_io *lio = cl2lov_io(env, ios);
1003         struct cl_io *io = ios->cis_io;
1004         int index;
1005         ENTRY;
1006
1007         if (cl_io_is_trunc(io) && lio->lis_pos > 0) {
1008                 index = lov_io_layout_at(lio, lio->lis_pos - 1);
1009                 /* no entry found for such offset */
1010                 if (index < 0)
1011                         RETURN(io->ci_result = -ENODATA);
1012         }
1013
1014         RETURN(lov_io_iter_init(env, ios));
1015 }
1016
1017 static int lov_io_call(const struct lu_env *env, struct lov_io *lio,
1018                        int (*iofunc)(const struct lu_env *, struct cl_io *))
1019 {
1020         struct cl_io *parent = lio->lis_cl.cis_io;
1021         struct lov_io_sub *sub;
1022         int rc = 0;
1023
1024         ENTRY;
1025         list_for_each_entry(sub, &lio->lis_active, sub_linkage) {
1026                 rc = iofunc(sub->sub_env, &sub->sub_io);
1027                 if (rc) {
1028                         /**
1029                          * fsync race with truncate, we'd continue to other
1030                          * OST object's fsync to potentially discard
1031                          * caching pages (osc_cache_writeback_range).
1032                          */
1033                         if (rc == -ENOENT && parent->ci_type == CIT_FSYNC)
1034                                 continue;
1035                         break;
1036                 }
1037
1038                 if (parent->ci_result == 0)
1039                         parent->ci_result = sub->sub_io.ci_result;
1040         }
1041         RETURN(rc);
1042 }
1043
1044 static int lov_io_lock(const struct lu_env *env, const struct cl_io_slice *ios)
1045 {
1046         ENTRY;
1047         RETURN(lov_io_call(env, cl2lov_io(env, ios), cl_io_lock));
1048 }
1049
1050 static int lov_io_start(const struct lu_env *env, const struct cl_io_slice *ios)
1051 {
1052         ENTRY;
1053         RETURN(lov_io_call(env, cl2lov_io(env, ios), cl_io_start));
1054 }
1055
1056 static int lov_io_end_wrapper(const struct lu_env *env, struct cl_io *io)
1057 {
1058         ENTRY;
1059         /*
1060          * It's possible that lov_io_start() wasn't called against this
1061          * sub-io, either because previous sub-io failed, or upper layer
1062          * completed IO.
1063          */
1064         if (io->ci_state == CIS_IO_GOING)
1065                 cl_io_end(env, io);
1066         else
1067                 io->ci_state = CIS_IO_FINISHED;
1068         RETURN(0);
1069 }
1070
1071 static int lov_io_iter_fini_wrapper(const struct lu_env *env, struct cl_io *io)
1072 {
1073         cl_io_iter_fini(env, io);
1074         RETURN(0);
1075 }
1076
1077 static int lov_io_unlock_wrapper(const struct lu_env *env, struct cl_io *io)
1078 {
1079         cl_io_unlock(env, io);
1080         RETURN(0);
1081 }
1082
1083 static void lov_io_end(const struct lu_env *env, const struct cl_io_slice *ios)
1084 {
1085         int rc;
1086
1087         /* Before ending each i/o, we must set lis_cached_entry to tell the
1088          * next i/o not to use stale cached lis information.
1089          */
1090         cl2lov_io(env, ios)->lis_cached_entry = LIS_CACHE_ENTRY_NONE;
1091
1092         rc = lov_io_call(env, cl2lov_io(env, ios), lov_io_end_wrapper);
1093         LASSERT(rc == 0);
1094 }
1095
1096 static void
1097 lov_io_data_version_end(const struct lu_env *env, const struct cl_io_slice *ios)
1098 {
1099         struct lov_io *lio = cl2lov_io(env, ios);
1100         struct cl_io *parent = lio->lis_cl.cis_io;
1101         struct cl_data_version_io *pdv = &parent->u.ci_data_version;
1102         struct lov_io_sub *sub;
1103
1104         ENTRY;
1105         list_for_each_entry(sub, &lio->lis_active, sub_linkage) {
1106                 struct cl_data_version_io *sdv = &sub->sub_io.u.ci_data_version;
1107
1108                 lov_io_end_wrapper(sub->sub_env, &sub->sub_io);
1109
1110                 pdv->dv_data_version += sdv->dv_data_version;
1111                 if (pdv->dv_layout_version > sdv->dv_layout_version)
1112                         pdv->dv_layout_version = sdv->dv_layout_version;
1113
1114                 if (parent->ci_result == 0)
1115                         parent->ci_result = sub->sub_io.ci_result;
1116         }
1117
1118         EXIT;
1119 }
1120
1121 static void lov_io_iter_fini(const struct lu_env *env,
1122                              const struct cl_io_slice *ios)
1123 {
1124         struct lov_io *lio = cl2lov_io(env, ios);
1125         int rc;
1126
1127         ENTRY;
1128
1129         if (lio->lis_trunc_stripe_index != NULL)
1130                 OBD_FREE_PTR_ARRAY(lio->lis_trunc_stripe_index,
1131                                    lio->lis_object->u.composite.lo_entry_count);
1132         lio->lis_trunc_stripe_index = NULL;
1133
1134         rc = lov_io_call(env, lio, lov_io_iter_fini_wrapper);
1135         LASSERT(rc == 0);
1136         while (!list_empty(&lio->lis_active))
1137                 list_del_init(lio->lis_active.next);
1138         EXIT;
1139 }
1140
1141 static void lov_io_unlock(const struct lu_env *env,
1142                           const struct cl_io_slice *ios)
1143 {
1144         int rc;
1145
1146         ENTRY;
1147         rc = lov_io_call(env, cl2lov_io(env, ios), lov_io_unlock_wrapper);
1148         LASSERT(rc == 0);
1149         EXIT;
1150 }
1151
1152 static int lov_io_read_ahead(const struct lu_env *env,
1153                              const struct cl_io_slice *ios,
1154                              pgoff_t start, struct cl_read_ahead *ra)
1155 {
1156         struct lov_io           *lio = cl2lov_io(env, ios);
1157         struct lov_object       *loo = lio->lis_object;
1158         struct lov_layout_raid0 *r0;
1159         struct lov_io_sub       *sub;
1160         loff_t                   offset;
1161         loff_t                   suboff;
1162         pgoff_t                  ra_end;
1163         unsigned int             pps; /* pages per stripe */
1164         int                      stripe;
1165         int                      index;
1166         int                      rc;
1167         ENTRY;
1168
1169         offset = start << PAGE_SHIFT;
1170         index = lov_io_layout_at(lio, offset);
1171         if (index < 0 || !lsm_entry_inited(loo->lo_lsm, index) ||
1172             lsm_entry_is_foreign(loo->lo_lsm, index))
1173                 RETURN(-ENODATA);
1174
1175         /* avoid readahead to expand to stale components */
1176         if (!lov_entry(loo, index)->lle_valid)
1177                 RETURN(-EIO);
1178
1179         stripe = lov_stripe_number(loo->lo_lsm, index, offset);
1180
1181         r0 = lov_r0(loo, index);
1182         if (unlikely(!r0->lo_sub[stripe]))
1183                 RETURN(-EIO);
1184
1185         sub = lov_sub_get(env, lio, lov_comp_index(index, stripe));
1186         if (IS_ERR(sub))
1187                 RETURN(PTR_ERR(sub));
1188
1189         lov_stripe_offset(loo->lo_lsm, index, offset, stripe, &suboff);
1190         rc = cl_io_read_ahead(sub->sub_env, &sub->sub_io,
1191                               suboff >> PAGE_SHIFT, ra);
1192
1193         CDEBUG(D_READA, DFID " cra_end = %lu, stripes = %d, rc = %d\n",
1194                PFID(lu_object_fid(lov2lu(loo))), ra->cra_end_idx,
1195                     r0->lo_nr, rc);
1196         if (rc != 0)
1197                 RETURN(rc);
1198
1199         /**
1200          * Adjust the stripe index by layout of comp. ra->cra_end is the
1201          * maximum page index covered by an underlying DLM lock.
1202          * This function converts cra_end from stripe level to file level, and
1203          * make sure it's not beyond stripe and component boundary.
1204          */
1205
1206         /* cra_end is stripe level, convert it into file level */
1207         ra_end = ra->cra_end_idx;
1208         if (ra_end != CL_PAGE_EOF)
1209                 ra->cra_end_idx = lov_stripe_pgoff(loo->lo_lsm, index,
1210                                                    ra_end, stripe);
1211
1212         /* boundary of current component */
1213         ra_end = lov_io_extent(lio, index)->e_end >> PAGE_SHIFT;
1214         if (ra_end != CL_PAGE_EOF && ra->cra_end_idx >= ra_end)
1215                 ra->cra_end_idx = ra_end - 1;
1216
1217         if (r0->lo_nr == 1) /* single stripe file */
1218                 RETURN(0);
1219
1220         pps = lov_lse(loo, index)->lsme_stripe_size >> PAGE_SHIFT;
1221
1222         CDEBUG(D_READA, DFID " max_index = %lu, pps = %u, index = %d, "
1223                "stripe_size = %u, stripe no = %u, start index = %lu\n",
1224                PFID(lu_object_fid(lov2lu(loo))), ra->cra_end_idx, pps, index,
1225                lov_lse(loo, index)->lsme_stripe_size, stripe, start);
1226
1227         /* never exceed the end of the stripe */
1228         ra->cra_end_idx = min_t(pgoff_t, ra->cra_end_idx,
1229                                 start + pps - start % pps - 1);
1230         RETURN(0);
1231 }
1232
1233 int lov_io_lru_reserve(const struct lu_env *env,
1234                        const struct cl_io_slice *ios, loff_t pos, size_t bytes)
1235 {
1236         struct lov_io *lio = cl2lov_io(env, ios);
1237         struct lov_stripe_md *lsm = lio->lis_object->lo_lsm;
1238         struct lov_io_sub *sub;
1239         struct lu_extent ext;
1240         int index;
1241         int rc = 0;
1242
1243         ENTRY;
1244
1245         ext.e_start = pos;
1246         ext.e_end = pos + bytes;
1247         lov_foreach_io_layout(index, lio, &ext) {
1248                 struct lov_layout_entry *le = lov_entry(lio->lis_object, index);
1249                 struct lov_layout_raid0 *r0 = &le->lle_raid0;
1250                 u64 start;
1251                 u64 end;
1252                 int stripe;
1253
1254                 if (!lsm_entry_inited(lsm, index))
1255                         continue;
1256
1257                 if (!le->lle_valid && !ios->cis_io->ci_designated_mirror) {
1258                         CERROR(DFID": I/O to invalid component: %d, mirror: %d\n",
1259                                PFID(lu_object_fid(lov2lu(lio->lis_object))),
1260                                index, lio->lis_mirror_index);
1261                         RETURN(-EIO);
1262                 }
1263
1264                 for (stripe = 0; stripe < r0->lo_nr; stripe++) {
1265                         if (!lov_stripe_intersects(lsm, index, stripe,
1266                                                    &ext, &start, &end))
1267                                 continue;
1268
1269                         if (unlikely(!r0->lo_sub[stripe]))
1270                                 RETURN(-EIO);
1271
1272                         sub = lov_sub_get(env, lio,
1273                                           lov_comp_index(index, stripe));
1274                         if (IS_ERR(sub))
1275                                 return PTR_ERR(sub);
1276
1277                         rc = cl_io_lru_reserve(sub->sub_env, &sub->sub_io, start,
1278                                                end - start + 1);
1279                         if (rc != 0)
1280                                 RETURN(rc);
1281                 }
1282         }
1283
1284         RETURN(0);
1285 }
1286
1287 /**
1288  * lov implementation of cl_operations::cio_submit() method. It takes a list
1289  * of pages in \a queue, splits it into per-stripe sub-lists, invokes
1290  * cl_io_submit() on underlying devices to submit sub-lists, and then splices
1291  * everything back.
1292  *
1293  * Major complication of this function is a need to handle memory cleansing:
1294  * cl_io_submit() is called to write out pages as a part of VM memory
1295  * reclamation, and hence it may not fail due to memory shortages (system
1296  * dead-locks otherwise). To deal with this, some resources (sub-lists,
1297  * sub-environment, etc.) are allocated per-device on "startup" (i.e., in a
1298  * not-memory cleansing context), and in case of memory shortage, these
1299  * pre-allocated resources are used by lov_io_submit() under
1300  * lov_device::ld_mutex mutex.
1301  */
1302 static int lov_io_submit(const struct lu_env *env,
1303                          const struct cl_io_slice *ios,
1304                          enum cl_req_type crt, struct cl_2queue *queue)
1305 {
1306         struct cl_page_list     *qin = &queue->c2_qin;
1307         struct lov_io           *lio = cl2lov_io(env, ios);
1308         struct lov_io_sub       *sub;
1309         struct cl_page_list     *plist = &lov_env_info(env)->lti_plist;
1310         struct cl_page          *page = cl_page_list_first(qin);
1311         struct cl_page          *tmp;
1312         bool dio = false;
1313         int index;
1314         int rc = 0;
1315         ENTRY;
1316
1317         if (page->cp_type == CPT_TRANSIENT)
1318                 dio = true;
1319
1320         cl_page_list_init(plist);
1321         while (qin->pl_nr > 0) {
1322                 struct cl_2queue  *cl2q = &lov_env_info(env)->lti_cl2q;
1323
1324                 page = cl_page_list_first(qin);
1325                 if (lov_page_is_empty(page)) {
1326                         cl_page_list_move(&queue->c2_qout, qin, page);
1327
1328                         /*
1329                          * it could only be mirror read to get here therefore
1330                          * the pages will be transient. We don't care about
1331                          * the return code of cl_page_prep() at all.
1332                          */
1333                         (void) cl_page_prep(env, ios->cis_io, page, crt);
1334                         cl_page_completion(env, page, crt, 0);
1335                         continue;
1336                 }
1337
1338                 cl_2queue_init(cl2q);
1339                 cl_page_list_move(&cl2q->c2_qin, qin, page);
1340
1341                 index = page->cp_lov_index;
1342                 /* DIO is already split by stripe */
1343                 if (!dio) {
1344                         cl_page_list_for_each_safe(page, tmp, qin) {
1345                                 /* this page is not on this stripe */
1346                                 if (index != page->cp_lov_index)
1347                                         continue;
1348
1349                                 cl_page_list_move(&cl2q->c2_qin, qin, page);
1350                         }
1351                 } else {
1352                         cl_page_list_splice(qin, &cl2q->c2_qin);
1353                 }
1354
1355                 sub = lov_sub_get(env, lio, index);
1356                 if (!IS_ERR(sub)) {
1357                         rc = cl_io_submit_rw(sub->sub_env, &sub->sub_io,
1358                                              crt, cl2q);
1359                 } else {
1360                         rc = PTR_ERR(sub);
1361                 }
1362
1363                 cl_page_list_splice(&cl2q->c2_qin, plist);
1364                 cl_page_list_splice(&cl2q->c2_qout, &queue->c2_qout);
1365                 cl_2queue_fini(env, cl2q);
1366
1367                 if (rc != 0)
1368                         break;
1369         }
1370
1371         cl_page_list_splice(plist, qin);
1372         cl_page_list_fini(env, plist);
1373
1374         RETURN(rc);
1375 }
1376
1377 static int lov_io_commit_async(const struct lu_env *env,
1378                                const struct cl_io_slice *ios,
1379                                struct cl_page_list *queue, int from, int to,
1380                                cl_commit_cbt cb)
1381 {
1382         struct cl_page_list *plist = &lov_env_info(env)->lti_plist;
1383         struct lov_io *lio = cl2lov_io(env, ios);
1384         struct lov_io_sub *sub;
1385         struct cl_page *page;
1386         int rc = 0;
1387         ENTRY;
1388
1389         if (lio->lis_nr_subios == 1) {
1390                 int idx = lio->lis_single_subio_index;
1391
1392                 LASSERT(!lov_page_is_empty(cl_page_list_first(queue)));
1393
1394                 sub = lov_sub_get(env, lio, idx);
1395                 LASSERT(!IS_ERR(sub));
1396                 LASSERT(sub == &lio->lis_single_subio);
1397                 rc = cl_io_commit_async(sub->sub_env, &sub->sub_io, queue,
1398                                         from, to, cb);
1399                 RETURN(rc);
1400         }
1401
1402         cl_page_list_init(plist);
1403         while (queue->pl_nr > 0) {
1404                 int stripe_to = to;
1405                 int index;
1406
1407                 LASSERT(plist->pl_nr == 0);
1408                 page = cl_page_list_first(queue);
1409                 LASSERT(!lov_page_is_empty(page));
1410
1411                 cl_page_list_move(plist, queue, page);
1412
1413                 index = page->cp_lov_index;
1414                 while (queue->pl_nr > 0) {
1415                         page = cl_page_list_first(queue);
1416                         if (index != page->cp_lov_index)
1417                                 break;
1418
1419                         cl_page_list_move(plist, queue, page);
1420                 }
1421
1422                 if (queue->pl_nr > 0) /* still has more pages */
1423                         stripe_to = PAGE_SIZE;
1424
1425                 sub = lov_sub_get(env, lio, index);
1426                 if (!IS_ERR(sub)) {
1427                         rc = cl_io_commit_async(sub->sub_env, &sub->sub_io,
1428                                                 plist, from, stripe_to, cb);
1429                 } else {
1430                         rc = PTR_ERR(sub);
1431                         break;
1432                 }
1433
1434                 if (plist->pl_nr > 0) /* short write */
1435                         break;
1436
1437                 from = 0;
1438
1439                 if (lov_comp_entry(index) !=
1440                     lov_comp_entry(page->cp_lov_index))
1441                         cl_io_extent_release(sub->sub_env, &sub->sub_io);
1442         }
1443
1444         /* for error case, add the page back into the qin list */
1445         LASSERT(ergo(rc == 0, plist->pl_nr == 0));
1446         while (plist->pl_nr > 0) {
1447                 /* error occurred, add the uncommitted pages back into queue */
1448                 page = cl_page_list_last(plist);
1449                 cl_page_list_move_head(queue, plist, page);
1450         }
1451
1452         RETURN(rc);
1453 }
1454
1455 static int lov_io_fault_start(const struct lu_env *env,
1456                               const struct cl_io_slice *ios)
1457 {
1458         struct cl_fault_io *fio;
1459         struct lov_io      *lio;
1460         struct lov_io_sub  *sub;
1461         loff_t offset;
1462         int entry;
1463         int stripe;
1464
1465         ENTRY;
1466
1467         fio = &ios->cis_io->u.ci_fault;
1468         lio = cl2lov_io(env, ios);
1469
1470         /**
1471          * LU-14502: ft_page could be an existing cl_page associated with
1472          * the vmpage covering the fault index, and the page may still
1473          * refer to another mirror of an old IO.
1474          */
1475         if (lov_is_flr(lio->lis_object)) {
1476                 offset = fio->ft_index << PAGE_SHIFT;;
1477                 entry = lov_io_layout_at(lio, offset);
1478                 if (entry < 0) {
1479                         CERROR(DFID": page fault index %lu invalid component: "
1480                                "%d, mirror: %d\n",
1481                                PFID(lu_object_fid(&ios->cis_obj->co_lu)),
1482                                fio->ft_index, entry,
1483                                lio->lis_mirror_index);
1484                         RETURN(-EIO);
1485                 }
1486                 stripe = lov_stripe_number(lio->lis_object->lo_lsm,
1487                                            entry, offset);
1488
1489                 if (fio->ft_page->cp_lov_index !=
1490                     lov_comp_index(entry, stripe)) {
1491                         CDEBUG(D_INFO, DFID": page fault at index %lu, "
1492                                "at mirror %u comp entry %u stripe %u, "
1493                                "been used with comp entry %u stripe %u\n",
1494                                PFID(lu_object_fid(&ios->cis_obj->co_lu)),
1495                                fio->ft_index, lio->lis_mirror_index,
1496                                entry, stripe,
1497                                lov_comp_entry(fio->ft_page->cp_lov_index),
1498                                lov_comp_stripe(fio->ft_page->cp_lov_index));
1499
1500                         fio->ft_page->cp_lov_index =
1501                                         lov_comp_index(entry, stripe);
1502                 }
1503         }
1504
1505         sub = lov_sub_get(env, lio, fio->ft_page->cp_lov_index);
1506         sub->sub_io.u.ci_fault.ft_nob = fio->ft_nob;
1507
1508         RETURN(lov_io_start(env, ios));
1509 }
1510
1511 static int lov_io_setattr_start(const struct lu_env *env,
1512                                 const struct cl_io_slice *ios)
1513 {
1514         struct lov_io *lio = cl2lov_io(env, ios);
1515         struct cl_io *parent = ios->cis_io;
1516         struct lov_io_sub *sub;
1517         struct lov_stripe_md *lsm = lio->lis_object->lo_lsm;
1518
1519         ENTRY;
1520
1521         if (cl_io_is_fallocate(parent)) {
1522                 list_for_each_entry(sub, &lio->lis_active, sub_linkage) {
1523                         loff_t size = parent->u.ci_setattr.sa_attr.lvb_size;
1524                         int index = lov_comp_entry(sub->sub_subio_index);
1525                         int stripe = lov_comp_stripe(sub->sub_subio_index);
1526
1527                         size = lov_size_to_stripe(lsm, index, size, stripe);
1528                         sub->sub_io.u.ci_setattr.sa_attr.lvb_size = size;
1529                         sub->sub_io.u.ci_setattr.sa_avalid =
1530                                                 parent->u.ci_setattr.sa_avalid;
1531                 }
1532         }
1533
1534         RETURN(lov_io_start(env, ios));
1535 }
1536
1537 static void lov_io_fsync_end(const struct lu_env *env,
1538                              const struct cl_io_slice *ios)
1539 {
1540         struct lov_io *lio = cl2lov_io(env, ios);
1541         struct lov_io_sub *sub;
1542         unsigned int *written = &ios->cis_io->u.ci_fsync.fi_nr_written;
1543         ENTRY;
1544
1545         *written = 0;
1546         list_for_each_entry(sub, &lio->lis_active, sub_linkage) {
1547                 struct cl_io *subio = &sub->sub_io;
1548
1549                 lov_io_end_wrapper(sub->sub_env, subio);
1550
1551                 if (subio->ci_result == 0)
1552                         *written += subio->u.ci_fsync.fi_nr_written;
1553         }
1554         RETURN_EXIT;
1555 }
1556
1557 static void lov_io_lseek_end(const struct lu_env *env,
1558                              const struct cl_io_slice *ios)
1559 {
1560         struct lov_io *lio = cl2lov_io(env, ios);
1561         struct cl_io *io = lio->lis_cl.cis_io;
1562         struct lov_stripe_md *lsm = lio->lis_object->lo_lsm;
1563         struct lov_io_sub *sub;
1564         loff_t offset = -ENXIO;
1565         __u64 hole_off = 0;
1566         bool seek_hole = io->u.ci_lseek.ls_whence == SEEK_HOLE;
1567
1568         ENTRY;
1569
1570         list_for_each_entry(sub, &lio->lis_active, sub_linkage) {
1571                 struct cl_io *subio = &sub->sub_io;
1572                 int index = lov_comp_entry(sub->sub_subio_index);
1573                 int stripe = lov_comp_stripe(sub->sub_subio_index);
1574                 loff_t sub_off, lov_off;
1575                 __u64 comp_end = lsm->lsm_entries[index]->lsme_extent.e_end;
1576
1577                 lov_io_end_wrapper(sub->sub_env, subio);
1578
1579                 if (io->ci_result == 0)
1580                         io->ci_result = sub->sub_io.ci_result;
1581
1582                 if (io->ci_result)
1583                         continue;
1584
1585                 CDEBUG(D_INFO, DFID": entry %x stripe %u: SEEK_%s from %lld\n",
1586                        PFID(lu_object_fid(lov2lu(lio->lis_object))),
1587                        index, stripe, seek_hole ? "HOLE" : "DATA",
1588                        subio->u.ci_lseek.ls_start);
1589
1590                 /* first subio with positive result is what we need */
1591                 sub_off = subio->u.ci_lseek.ls_result;
1592                 /* Expected error, offset is out of stripe file size */
1593                 if (sub_off == -ENXIO)
1594                         continue;
1595                 /* Any other errors are not expected with ci_result == 0 */
1596                 if (sub_off < 0) {
1597                         CDEBUG(D_INFO, "unexpected error: rc = %lld\n",
1598                                sub_off);
1599                         io->ci_result = sub_off;
1600                         continue;
1601                 }
1602                 lov_off = lov_stripe_size(lsm, index, sub_off + 1, stripe) - 1;
1603                 if (lov_off < 0) {
1604                         /* the only way to get negatove lov_off here is too big
1605                          * result. Return -EOVERFLOW then.
1606                          */
1607                         io->ci_result = -EOVERFLOW;
1608                         CDEBUG(D_INFO, "offset %llu is too big: rc = %d\n",
1609                                (u64)lov_off, io->ci_result);
1610                         continue;
1611                 }
1612                 if (lov_off < io->u.ci_lseek.ls_start) {
1613                         io->ci_result = -EINVAL;
1614                         CDEBUG(D_INFO, "offset %lld < start %lld: rc = %d\n",
1615                                sub_off, io->u.ci_lseek.ls_start, io->ci_result);
1616                         continue;
1617                 }
1618                 /* resulting offset can be out of component range if stripe
1619                  * object is full and its file size was returned as virtual
1620                  * hole start. Skip this result, the next component will give
1621                  * us correct lseek result but keep possible hole offset in
1622                  * case there is no more components ahead
1623                  */
1624                 if (lov_off >= comp_end) {
1625                         /* must be SEEK_HOLE case */
1626                         if (likely(seek_hole)) {
1627                                 /* save comp end as potential hole offset */
1628                                 hole_off = max_t(__u64, comp_end, hole_off);
1629                         } else {
1630                                 io->ci_result = -EINVAL;
1631                                 CDEBUG(D_INFO,
1632                                        "off %lld >= comp_end %llu: rc = %d\n",
1633                                        lov_off, comp_end, io->ci_result);
1634                         }
1635                         continue;
1636                 }
1637
1638                 CDEBUG(D_INFO, "SEEK_%s: %lld->%lld/%lld: rc = %d\n",
1639                        seek_hole ? "HOLE" : "DATA",
1640                        subio->u.ci_lseek.ls_start, sub_off, lov_off,
1641                        sub->sub_io.ci_result);
1642                 offset = min_t(__u64, offset, lov_off);
1643         }
1644         /* no result but some component returns hole as component end */
1645         if (seek_hole && offset == -ENXIO && hole_off > 0)
1646                 offset = hole_off;
1647
1648         io->u.ci_lseek.ls_result = offset;
1649         RETURN_EXIT;
1650 }
1651
1652 static const struct cl_io_operations lov_io_ops = {
1653         .op = {
1654                 [CIT_READ] = {
1655                         .cio_fini      = lov_io_fini,
1656                         .cio_iter_init = lov_io_rw_iter_init,
1657                         .cio_iter_fini = lov_io_iter_fini,
1658                         .cio_lock      = lov_io_lock,
1659                         .cio_unlock    = lov_io_unlock,
1660                         .cio_start     = lov_io_start,
1661                         .cio_end       = lov_io_end
1662                 },
1663                 [CIT_WRITE] = {
1664                         .cio_fini      = lov_io_fini,
1665                         .cio_iter_init = lov_io_rw_iter_init,
1666                         .cio_iter_fini = lov_io_iter_fini,
1667                         .cio_lock      = lov_io_lock,
1668                         .cio_unlock    = lov_io_unlock,
1669                         .cio_start     = lov_io_start,
1670                         .cio_end       = lov_io_end
1671                 },
1672                 [CIT_SETATTR] = {
1673                         .cio_fini      = lov_io_fini,
1674                         .cio_iter_init = lov_io_setattr_iter_init,
1675                         .cio_iter_fini = lov_io_iter_fini,
1676                         .cio_lock      = lov_io_lock,
1677                         .cio_unlock    = lov_io_unlock,
1678                         .cio_start     = lov_io_setattr_start,
1679                         .cio_end       = lov_io_end
1680                 },
1681                 [CIT_DATA_VERSION] = {
1682                         .cio_fini       = lov_io_fini,
1683                         .cio_iter_init  = lov_io_iter_init,
1684                         .cio_iter_fini  = lov_io_iter_fini,
1685                         .cio_lock       = lov_io_lock,
1686                         .cio_unlock     = lov_io_unlock,
1687                         .cio_start      = lov_io_start,
1688                         .cio_end        = lov_io_data_version_end,
1689                 },
1690                 [CIT_FAULT] = {
1691                         .cio_fini      = lov_io_fini,
1692                         .cio_iter_init = lov_io_iter_init,
1693                         .cio_iter_fini = lov_io_iter_fini,
1694                         .cio_lock      = lov_io_lock,
1695                         .cio_unlock    = lov_io_unlock,
1696                         .cio_start     = lov_io_fault_start,
1697                         .cio_end       = lov_io_end
1698                 },
1699                 [CIT_FSYNC] = {
1700                         .cio_fini      = lov_io_fini,
1701                         .cio_iter_init = lov_io_iter_init,
1702                         .cio_iter_fini = lov_io_iter_fini,
1703                         .cio_lock      = lov_io_lock,
1704                         .cio_unlock    = lov_io_unlock,
1705                         .cio_start     = lov_io_start,
1706                         .cio_end       = lov_io_fsync_end
1707                 },
1708                 [CIT_LADVISE] = {
1709                         .cio_fini      = lov_io_fini,
1710                         .cio_iter_init = lov_io_iter_init,
1711                         .cio_iter_fini = lov_io_iter_fini,
1712                         .cio_lock      = lov_io_lock,
1713                         .cio_unlock    = lov_io_unlock,
1714                         .cio_start     = lov_io_start,
1715                         .cio_end       = lov_io_end
1716                 },
1717                 [CIT_LSEEK] = {
1718                         .cio_fini      = lov_io_fini,
1719                         .cio_iter_init = lov_io_iter_init,
1720                         .cio_iter_fini = lov_io_iter_fini,
1721                         .cio_lock      = lov_io_lock,
1722                         .cio_unlock    = lov_io_unlock,
1723                         .cio_start     = lov_io_start,
1724                         .cio_end       = lov_io_lseek_end
1725                 },
1726                 [CIT_GLIMPSE] = {
1727                         .cio_fini      = lov_io_fini,
1728                 },
1729                 [CIT_MISC] = {
1730                         .cio_fini      = lov_io_fini
1731                 }
1732         },
1733         .cio_read_ahead                = lov_io_read_ahead,
1734         .cio_lru_reserve               = lov_io_lru_reserve,
1735         .cio_submit                    = lov_io_submit,
1736         .cio_commit_async              = lov_io_commit_async,
1737 };
1738
1739 /*****************************************************************************
1740  *
1741  * Empty lov io operations.
1742  *
1743  */
1744
1745 static void lov_empty_io_fini(const struct lu_env *env,
1746                               const struct cl_io_slice *ios)
1747 {
1748         struct lov_object *lov = cl2lov(ios->cis_obj);
1749         ENTRY;
1750
1751         if (atomic_dec_and_test(&lov->lo_active_ios))
1752                 wake_up(&lov->lo_waitq);
1753         EXIT;
1754 }
1755
1756 static int lov_empty_io_submit(const struct lu_env *env,
1757                                const struct cl_io_slice *ios,
1758                                enum cl_req_type crt, struct cl_2queue *queue)
1759 {
1760         return -EBADF;
1761 }
1762
1763 static void lov_empty_impossible(const struct lu_env *env,
1764                                  struct cl_io_slice *ios)
1765 {
1766         LBUG();
1767 }
1768
1769 #define LOV_EMPTY_IMPOSSIBLE ((void *)lov_empty_impossible)
1770
1771 /**
1772  * An io operation vector for files without stripes.
1773  */
1774 static const struct cl_io_operations lov_empty_io_ops = {
1775         .op = {
1776                 [CIT_READ] = {
1777                         .cio_fini       = lov_empty_io_fini,
1778 #if 0
1779                         .cio_iter_init  = LOV_EMPTY_IMPOSSIBLE,
1780                         .cio_lock       = LOV_EMPTY_IMPOSSIBLE,
1781                         .cio_start      = LOV_EMPTY_IMPOSSIBLE,
1782                         .cio_end        = LOV_EMPTY_IMPOSSIBLE
1783 #endif
1784                 },
1785                 [CIT_WRITE] = {
1786                         .cio_fini      = lov_empty_io_fini,
1787                         .cio_iter_init = LOV_EMPTY_IMPOSSIBLE,
1788                         .cio_lock      = LOV_EMPTY_IMPOSSIBLE,
1789                         .cio_start     = LOV_EMPTY_IMPOSSIBLE,
1790                         .cio_end       = LOV_EMPTY_IMPOSSIBLE
1791                 },
1792                 [CIT_SETATTR] = {
1793                         .cio_fini      = lov_empty_io_fini,
1794                         .cio_iter_init = LOV_EMPTY_IMPOSSIBLE,
1795                         .cio_lock      = LOV_EMPTY_IMPOSSIBLE,
1796                         .cio_start     = LOV_EMPTY_IMPOSSIBLE,
1797                         .cio_end       = LOV_EMPTY_IMPOSSIBLE
1798                 },
1799                 [CIT_FAULT] = {
1800                         .cio_fini      = lov_empty_io_fini,
1801                         .cio_iter_init = LOV_EMPTY_IMPOSSIBLE,
1802                         .cio_lock      = LOV_EMPTY_IMPOSSIBLE,
1803                         .cio_start     = LOV_EMPTY_IMPOSSIBLE,
1804                         .cio_end       = LOV_EMPTY_IMPOSSIBLE
1805                 },
1806                 [CIT_FSYNC] = {
1807                         .cio_fini      = lov_empty_io_fini
1808                 },
1809                 [CIT_LADVISE] = {
1810                         .cio_fini   = lov_empty_io_fini
1811                 },
1812                 [CIT_GLIMPSE] = {
1813                         .cio_fini      = lov_empty_io_fini
1814                 },
1815                 [CIT_MISC] = {
1816                         .cio_fini      = lov_empty_io_fini
1817                 }
1818         },
1819         .cio_submit                    = lov_empty_io_submit,
1820         .cio_commit_async              = LOV_EMPTY_IMPOSSIBLE
1821 };
1822
1823 int lov_io_init_composite(const struct lu_env *env, struct cl_object *obj,
1824                           struct cl_io *io)
1825 {
1826         struct lov_io *lio = lov_env_io(env);
1827         struct lov_object *lov = cl2lov(obj);
1828         int result;
1829
1830         ENTRY;
1831
1832         INIT_LIST_HEAD(&lio->lis_active);
1833         result = lov_io_slice_init(lio, lov, io);
1834         if (result)
1835                 GOTO(out, result);
1836
1837         result = lov_io_subio_init(env, lio, io);
1838         if (!result) {
1839                 cl_io_slice_add(io, &lio->lis_cl, obj, &lov_io_ops);
1840                 atomic_inc(&lov->lo_active_ios);
1841         }
1842         EXIT;
1843 out:
1844         io->ci_result = result < 0 ? result : 0;
1845         return result;
1846 }
1847
1848 int lov_io_init_empty(const struct lu_env *env, struct cl_object *obj,
1849                       struct cl_io *io)
1850 {
1851         struct lov_object *lov = cl2lov(obj);
1852         struct lov_io *lio = lov_env_io(env);
1853         int result;
1854         ENTRY;
1855
1856         lio->lis_object = lov;
1857         switch (io->ci_type) {
1858         default:
1859                 LBUG();
1860         case CIT_MISC:
1861         case CIT_GLIMPSE:
1862         case CIT_READ:
1863                 result = 0;
1864                 break;
1865         case CIT_FSYNC:
1866         case CIT_LADVISE:
1867         case CIT_LSEEK:
1868         case CIT_SETATTR:
1869         case CIT_DATA_VERSION:
1870                 result = +1;
1871                 break;
1872         case CIT_WRITE:
1873                 result = -EBADF;
1874                 break;
1875         case CIT_FAULT:
1876                 result = -EFAULT;
1877                 CERROR("Page fault on a file without stripes: "DFID"\n",
1878                        PFID(lu_object_fid(&obj->co_lu)));
1879                 break;
1880         }
1881         if (result == 0) {
1882                 cl_io_slice_add(io, &lio->lis_cl, obj, &lov_empty_io_ops);
1883                 atomic_inc(&lov->lo_active_ios);
1884         }
1885
1886         io->ci_result = result < 0 ? result : 0;
1887         RETURN(result);
1888 }
1889
1890 int lov_io_init_released(const struct lu_env *env, struct cl_object *obj,
1891                         struct cl_io *io)
1892 {
1893         struct lov_object *lov = cl2lov(obj);
1894         struct lov_io *lio = lov_env_io(env);
1895         int result;
1896         ENTRY;
1897
1898         LASSERT(lov->lo_lsm != NULL);
1899         lio->lis_object = lov;
1900
1901         switch (io->ci_type) {
1902         default:
1903                 LASSERTF(0, "invalid type %d\n", io->ci_type);
1904                 result = -EOPNOTSUPP;
1905                 break;
1906         case CIT_GLIMPSE:
1907         case CIT_MISC:
1908         case CIT_FSYNC:
1909         case CIT_LADVISE:
1910         case CIT_DATA_VERSION:
1911                 result = 1;
1912                 break;
1913         case CIT_SETATTR:
1914                 /*
1915                  * the truncate to 0 is managed by MDT:
1916                  * - in open, for open O_TRUNC
1917                  * - in setattr, for truncate
1918                  */
1919                 /*
1920                  * the truncate is for size > 0 so triggers a restore,
1921                  * also trigger a restore for prealloc/punch
1922                  */
1923                 if (cl_io_is_trunc(io) || cl_io_is_fallocate(io)) {
1924                         io->ci_restore_needed = 1;
1925                         result = -ENODATA;
1926                 } else
1927                         result = 1;
1928                 break;
1929         case CIT_READ:
1930         case CIT_WRITE:
1931         case CIT_FAULT:
1932         case CIT_LSEEK:
1933                 io->ci_restore_needed = 1;
1934                 result = -ENODATA;
1935                 break;
1936         }
1937
1938         if (result == 0) {
1939                 cl_io_slice_add(io, &lio->lis_cl, obj, &lov_empty_io_ops);
1940                 atomic_inc(&lov->lo_active_ios);
1941         }
1942
1943         io->ci_result = result < 0 ? result : 0;
1944         RETURN(result);
1945 }
1946
1947 /**
1948  * Return the index in composite:lo_entries by the file offset
1949  */
1950 int lov_io_layout_at(struct lov_io *lio, __u64 offset)
1951 {
1952         struct lov_object *lov = lio->lis_object;
1953         struct lov_layout_composite *comp = &lov->u.composite;
1954         int start_index = 0;
1955         int end_index = comp->lo_entry_count - 1;
1956         int i;
1957
1958         LASSERT(lov->lo_type == LLT_COMP);
1959
1960         /* This is actual file offset so nothing can cover eof. */
1961         if (offset == LUSTRE_EOF)
1962                 return -1;
1963
1964         if (lov_is_flr(lov)) {
1965                 struct lov_mirror_entry *lre;
1966
1967                 LASSERT(lio->lis_mirror_index >= 0);
1968
1969                 lre = &comp->lo_mirrors[lio->lis_mirror_index];
1970                 start_index = lre->lre_start;
1971                 end_index = lre->lre_end;
1972         }
1973
1974         for (i = start_index; i <= end_index; i++) {
1975                 struct lov_layout_entry *lle = lov_entry(lov, i);
1976
1977                 LASSERT(!lsme_is_foreign(lle->lle_lsme));
1978
1979                 if ((offset >= lle->lle_extent->e_start &&
1980                      offset < lle->lle_extent->e_end) ||
1981                     (offset == OBD_OBJECT_EOF &&
1982                      lle->lle_extent->e_end == OBD_OBJECT_EOF))
1983                         return i;
1984         }
1985
1986         return -1;
1987 }
1988
1989 /** @} lov */