Whamcloud - gitweb
LU-12930 various: use schedule_timeout_*interruptible
[fs/lustre-release.git] / lustre / lov / lov_io.c
1 /*
2  * GPL HEADER START
3  *
4  * DO NOT ALTER OR REMOVE COPYRIGHT NOTICES OR THIS FILE HEADER.
5  *
6  * This program is free software; you can redistribute it and/or modify
7  * it under the terms of the GNU General Public License version 2 only,
8  * as published by the Free Software Foundation.
9  *
10  * This program is distributed in the hope that it will be useful, but
11  * WITHOUT ANY WARRANTY; without even the implied warranty of
12  * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
13  * General Public License version 2 for more details (a copy is included
14  * in the LICENSE file that accompanied this code).
15  *
16  * You should have received a copy of the GNU General Public License
17  * version 2 along with this program; If not, see
18  * http://www.gnu.org/licenses/gpl-2.0.html
19  *
20  * GPL HEADER END
21  */
22 /*
23  * Copyright (c) 2008, 2010, Oracle and/or its affiliates. All rights reserved.
24  * Use is subject to license terms.
25  *
26  * Copyright (c) 2011, 2017, Intel Corporation.
27  */
28 /*
29  * This file is part of Lustre, http://www.lustre.org/
30  * Lustre is a trademark of Sun Microsystems, Inc.
31  *
32  * Implementation of cl_io for LOV layer.
33  *
34  *   Author: Nikita Danilov <nikita.danilov@sun.com>
35  *   Author: Jinshan Xiong <jinshan.xiong@whamcloud.com>
36  */
37
38 #define DEBUG_SUBSYSTEM S_LOV
39
40 #include "lov_cl_internal.h"
41
42 /** \addtogroup lov
43  *  @{
44  */
45
46 static inline struct lov_io_sub *lov_sub_alloc(struct lov_io *lio, int index)
47 {
48         struct lov_io_sub *sub;
49
50         if (lio->lis_nr_subios == 0) {
51                 LASSERT(lio->lis_single_subio_index == -1);
52                 sub = &lio->lis_single_subio;
53                 lio->lis_single_subio_index = index;
54                 memset(sub, 0, sizeof(*sub));
55         } else {
56                 OBD_ALLOC_PTR(sub);
57         }
58
59         if (sub) {
60                 INIT_LIST_HEAD(&sub->sub_list);
61                 INIT_LIST_HEAD(&sub->sub_linkage);
62                 sub->sub_subio_index = index;
63         }
64
65         return sub;
66 }
67
68 static inline void lov_sub_free(struct lov_io *lio, struct lov_io_sub *sub)
69 {
70         if (sub->sub_subio_index == lio->lis_single_subio_index) {
71                 LASSERT(sub == &lio->lis_single_subio);
72                 lio->lis_single_subio_index = -1;
73         } else {
74                 OBD_FREE_PTR(sub);
75         }
76 }
77
78 static void lov_io_sub_fini(const struct lu_env *env, struct lov_io *lio,
79                             struct lov_io_sub *sub)
80 {
81         ENTRY;
82
83         cl_io_fini(sub->sub_env, &sub->sub_io);
84
85         if (sub->sub_env && !IS_ERR(sub->sub_env)) {
86                 cl_env_put(sub->sub_env, &sub->sub_refcheck);
87                 sub->sub_env = NULL;
88         }
89         EXIT;
90 }
91
92 static inline bool
93 is_index_within_mirror(struct lov_object *lov, int index, int mirror_index)
94 {
95         struct lov_layout_composite *comp = &lov->u.composite;
96         struct lov_mirror_entry *lre = &comp->lo_mirrors[mirror_index];
97
98         return (index >= lre->lre_start && index <= lre->lre_end);
99 }
100
101 static int lov_io_sub_init(const struct lu_env *env, struct lov_io *lio,
102                            struct lov_io_sub *sub)
103 {
104         struct lov_object *lov = lio->lis_object;
105         struct cl_io *sub_io;
106         struct cl_object *sub_obj;
107         struct cl_io *io = lio->lis_cl.cis_io;
108         int index = lov_comp_entry(sub->sub_subio_index);
109         int stripe = lov_comp_stripe(sub->sub_subio_index);
110         int result = 0;
111         LASSERT(sub->sub_env == NULL);
112         ENTRY;
113
114         if (unlikely(!lov_r0(lov, index)->lo_sub ||
115                      !lov_r0(lov, index)->lo_sub[stripe]))
116                 RETURN(-EIO);
117
118         LASSERTF(is_index_within_mirror(lov, index, lio->lis_mirror_index),
119                  DFID "iot = %d, index = %d, mirror = %d\n",
120                  PFID(lu_object_fid(lov2lu(lov))), io->ci_type, index,
121                  lio->lis_mirror_index);
122
123         /* obtain new environment */
124         sub->sub_env = cl_env_get(&sub->sub_refcheck);
125         if (IS_ERR(sub->sub_env)) {
126                 result = PTR_ERR(sub->sub_env);
127                 RETURN(result);
128         }
129
130         sub_obj = lovsub2cl(lov_r0(lov, index)->lo_sub[stripe]);
131         sub_io  = &sub->sub_io;
132
133         sub_io->ci_obj    = sub_obj;
134         sub_io->ci_result = 0;
135
136         sub_io->ci_parent  = io;
137         sub_io->ci_lockreq = io->ci_lockreq;
138         sub_io->ci_type    = io->ci_type;
139         sub_io->ci_no_srvlock = io->ci_no_srvlock;
140         sub_io->ci_noatime = io->ci_noatime;
141         sub_io->ci_async_readahead = io->ci_async_readahead;
142         sub_io->ci_lock_no_expand = io->ci_lock_no_expand;
143         sub_io->ci_ndelay = io->ci_ndelay;
144         sub_io->ci_layout_version = io->ci_layout_version;
145         sub_io->ci_tried_all_mirrors = io->ci_tried_all_mirrors;
146
147         result = cl_io_sub_init(sub->sub_env, sub_io, io->ci_type, sub_obj);
148
149         if (result < 0)
150                 lov_io_sub_fini(env, lio, sub);
151
152         RETURN(result);
153 }
154
155 struct lov_io_sub *lov_sub_get(const struct lu_env *env,
156                                struct lov_io *lio, int index)
157 {
158         struct lov_io_sub *sub;
159         int rc = 0;
160
161         ENTRY;
162
163         list_for_each_entry(sub, &lio->lis_subios, sub_list) {
164                 if (sub->sub_subio_index == index) {
165                         rc = 1;
166                         break;
167                 }
168         }
169
170         if (rc == 0) {
171                 sub = lov_sub_alloc(lio, index);
172                 if (!sub)
173                         GOTO(out, rc = -ENOMEM);
174
175                 rc = lov_io_sub_init(env, lio, sub);
176                 if (rc < 0) {
177                         lov_sub_free(lio, sub);
178                         GOTO(out, rc);
179                 }
180
181                 list_add_tail(&sub->sub_list, &lio->lis_subios);
182                 lio->lis_nr_subios++;
183         }
184 out:
185         if (rc < 0)
186                 sub = ERR_PTR(rc);
187         RETURN(sub);
188 }
189
190 /*****************************************************************************
191  *
192  * Lov io operations.
193  *
194  */
195 static int lov_io_subio_init(const struct lu_env *env, struct lov_io *lio,
196                              struct cl_io *io)
197 {
198         ENTRY;
199
200         LASSERT(lio->lis_object != NULL);
201
202         INIT_LIST_HEAD(&lio->lis_subios);
203         lio->lis_single_subio_index = -1;
204         lio->lis_nr_subios = 0;
205
206         RETURN(0);
207 }
208
209 /**
210  * Decide if it will need write intent RPC
211  */
212 static int lov_io_mirror_write_intent(struct lov_io *lio,
213         struct lov_object *obj, struct cl_io *io)
214 {
215         struct lov_layout_composite *comp = &obj->u.composite;
216         struct lu_extent *ext = &io->ci_write_intent;
217         struct lov_mirror_entry *lre;
218         struct lov_mirror_entry *primary;
219         struct lov_layout_entry *lle;
220         size_t count = 0;
221         ENTRY;
222
223         *ext = (typeof(*ext)) { lio->lis_pos, lio->lis_endpos };
224         io->ci_need_write_intent = 0;
225
226         if (!(io->ci_type == CIT_WRITE || cl_io_is_trunc(io) ||
227               cl_io_is_mkwrite(io)))
228                 RETURN(0);
229
230         /*
231          * FLR: check if it needs to send a write intent RPC to server.
232          * Writing to sync_pending file needs write intent RPC to change
233          * the file state back to write_pending, so that the layout version
234          * can be increased when the state changes to sync_pending at a later
235          * time. Otherwise there exists a chance that an evicted client may
236          * dirty the file data while resync client is working on it.
237          * Designated I/O is allowed for resync workload.
238          */
239         if (lov_flr_state(obj) == LCM_FL_RDONLY ||
240             (lov_flr_state(obj) == LCM_FL_SYNC_PENDING &&
241              io->ci_designated_mirror == 0)) {
242                 io->ci_need_write_intent = 1;
243                 RETURN(0);
244         }
245
246         LASSERT((lov_flr_state(obj) == LCM_FL_WRITE_PENDING));
247         LASSERT(comp->lo_preferred_mirror >= 0);
248
249         /*
250          * need to iterate all components to see if there are
251          * multiple components covering the writing component
252          */
253         primary = &comp->lo_mirrors[comp->lo_preferred_mirror];
254         LASSERT(!primary->lre_stale);
255         lov_foreach_mirror_layout_entry(obj, lle, primary) {
256                 LASSERT(lle->lle_valid);
257                 if (!lu_extent_is_overlapped(ext, lle->lle_extent))
258                         continue;
259
260                 ext->e_start = min(ext->e_start, lle->lle_extent->e_start);
261                 ext->e_end = max(ext->e_end, lle->lle_extent->e_end);
262                 ++count;
263         }
264         if (count == 0) {
265                 CERROR(DFID ": cannot find any valid components covering "
266                        "file extent "DEXT", mirror: %d\n",
267                        PFID(lu_object_fid(lov2lu(obj))), PEXT(ext),
268                        primary->lre_mirror_id);
269                 RETURN(-EIO);
270         }
271
272         count = 0;
273         lov_foreach_mirror_entry(obj, lre) {
274                 if (lre == primary)
275                         continue;
276
277                 lov_foreach_mirror_layout_entry(obj, lle, lre) {
278                         if (!lle->lle_valid)
279                                 continue;
280
281                         if (lu_extent_is_overlapped(ext, lle->lle_extent)) {
282                                 ++count;
283                                 break;
284                         }
285                 }
286         }
287
288         CDEBUG(D_VFSTRACE, DFID "there are %zd components to be staled to "
289                "modify file extent "DEXT", iot: %d\n",
290                PFID(lu_object_fid(lov2lu(obj))), count, PEXT(ext), io->ci_type);
291
292         io->ci_need_write_intent = count > 0;
293
294         RETURN(0);
295 }
296
297 static int lov_io_mirror_init(struct lov_io *lio, struct lov_object *obj,
298                                struct cl_io *io)
299 {
300         struct lov_layout_composite *comp = &obj->u.composite;
301         int index;
302         int i;
303         int result;
304         ENTRY;
305
306         if (!lov_is_flr(obj)) {
307                 LASSERT(comp->lo_preferred_mirror == 0);
308                 lio->lis_mirror_index = comp->lo_preferred_mirror;
309                 io->ci_ndelay = 0;
310                 RETURN(0);
311         }
312
313         /* transfer the layout version for verification */
314         if (io->ci_layout_version == 0)
315                 io->ci_layout_version = obj->lo_lsm->lsm_layout_gen;
316
317         /* find the corresponding mirror for designated mirror IO */
318         if (io->ci_designated_mirror > 0) {
319                 struct lov_mirror_entry *entry;
320
321                 LASSERT(!io->ci_ndelay);
322
323                 CDEBUG(D_LAYOUT, "designated I/O mirror state: %d\n",
324                       lov_flr_state(obj));
325
326                 if ((cl_io_is_trunc(io) || io->ci_type == CIT_WRITE) &&
327                     (io->ci_layout_version != obj->lo_lsm->lsm_layout_gen)) {
328                         /*
329                          * For resync I/O, the ci_layout_version was the layout
330                          * version when resync starts. If it doesn't match the
331                          * current object layout version, it means the layout
332                          * has been changed
333                          */
334                         RETURN(-ESTALE);
335                 }
336
337                 io->ci_layout_version |= LU_LAYOUT_RESYNC;
338
339                 index = 0;
340                 lio->lis_mirror_index = -1;
341                 lov_foreach_mirror_entry(obj, entry) {
342                         if (entry->lre_mirror_id ==
343                             io->ci_designated_mirror) {
344                                 lio->lis_mirror_index = index;
345                                 break;
346                         }
347
348                         index++;
349                 }
350
351                 RETURN(lio->lis_mirror_index < 0 ? -EINVAL : 0);
352         }
353
354         result = lov_io_mirror_write_intent(lio, obj, io);
355         if (result)
356                 RETURN(result);
357
358         if (io->ci_need_write_intent) {
359                 CDEBUG(D_VFSTRACE, DFID " need write intent for [%llu, %llu)\n",
360                        PFID(lu_object_fid(lov2lu(obj))),
361                        lio->lis_pos, lio->lis_endpos);
362
363                 if (cl_io_is_trunc(io)) {
364                         /**
365                          * for truncate, we uses [size, EOF) to judge whether
366                          * a write intent needs to be send, but we need to
367                          * restore the write extent to [0, size).
368                          */
369                         io->ci_write_intent.e_start = 0;
370                         io->ci_write_intent.e_end =
371                                         io->u.ci_setattr.sa_attr.lvb_size;
372                 }
373                 /* stop cl_io_init() loop */
374                 RETURN(1);
375         }
376
377         if (io->ci_ndelay_tried == 0 || /* first time to try */
378             /* reset the mirror index if layout has changed */
379             lio->lis_mirror_layout_gen != obj->lo_lsm->lsm_layout_gen) {
380                 lio->lis_mirror_layout_gen = obj->lo_lsm->lsm_layout_gen;
381                 index = lio->lis_mirror_index = comp->lo_preferred_mirror;
382         } else {
383                 index = lio->lis_mirror_index;
384                 LASSERT(index >= 0);
385
386                 /* move mirror index to the next one */
387                 index = (index + 1) % comp->lo_mirror_count;
388         }
389
390         for (i = 0; i < comp->lo_mirror_count; i++) {
391                 struct lu_extent ext = { .e_start = lio->lis_pos,
392                                          .e_end   = lio->lis_pos + 1 };
393                 struct lov_mirror_entry *lre;
394                 struct lov_layout_entry *lle;
395                 bool found = false;
396
397                 lre = &comp->lo_mirrors[(index + i) % comp->lo_mirror_count];
398                 if (!lre->lre_valid)
399                         continue;
400
401                 lov_foreach_mirror_layout_entry(obj, lle, lre) {
402                         if (!lle->lle_valid)
403                                 continue;
404
405                         if (lu_extent_is_overlapped(&ext, lle->lle_extent)) {
406                                 found = true;
407                                 break;
408                         }
409                 } /* each component of the mirror */
410                 if (found) {
411                         index = (index + i) % comp->lo_mirror_count;
412                         break;
413                 }
414         } /* each mirror */
415
416         if (i == comp->lo_mirror_count) {
417                 CERROR(DFID": failed to find a component covering "
418                        "I/O region at %llu\n",
419                        PFID(lu_object_fid(lov2lu(obj))), lio->lis_pos);
420
421                 dump_lsm(D_ERROR, obj->lo_lsm);
422
423                 RETURN(-EIO);
424         }
425
426         CDEBUG(D_VFSTRACE, DFID ": flr state: %d, move mirror from %d to %d, "
427                "have retried: %d, mirror count: %d\n",
428                PFID(lu_object_fid(lov2lu(obj))), lov_flr_state(obj),
429                lio->lis_mirror_index, index, io->ci_ndelay_tried,
430                comp->lo_mirror_count);
431
432         lio->lis_mirror_index = index;
433
434         /*
435          * FLR: if all mirrors have been tried once, most likely the network
436          * of this client has been partitioned. We should relinquish CPU for
437          * a while before trying again.
438          */
439         if (io->ci_ndelay && io->ci_ndelay_tried > 0 &&
440             (io->ci_ndelay_tried % comp->lo_mirror_count == 0)) {
441                 schedule_timeout_interruptible(cfs_time_seconds(1) / 100);
442                 if (signal_pending(current))
443                         RETURN(-EINTR);
444
445                 /**
446                  * we'd set ci_tried_all_mirrors to turn off fast mirror
447                  * switching for read after we've tried all mirrors several
448                  * rounds.
449                  */
450                 io->ci_tried_all_mirrors = io->ci_ndelay_tried %
451                                            (comp->lo_mirror_count * 4) == 0;
452         }
453         ++io->ci_ndelay_tried;
454
455         CDEBUG(D_VFSTRACE, "use %sdelayed RPC state for this IO\n",
456                io->ci_ndelay ? "non-" : "");
457
458         RETURN(0);
459 }
460
461 static int lov_io_slice_init(struct lov_io *lio,
462                              struct lov_object *obj, struct cl_io *io)
463 {
464         int index;
465         int result = 0;
466         ENTRY;
467
468         io->ci_result = 0;
469         lio->lis_object = obj;
470
471         LASSERT(obj->lo_lsm != NULL);
472
473         switch (io->ci_type) {
474         case CIT_READ:
475         case CIT_WRITE:
476                 lio->lis_pos = io->u.ci_rw.crw_pos;
477                 lio->lis_endpos = io->u.ci_rw.crw_pos + io->u.ci_rw.crw_count;
478                 lio->lis_io_endpos = lio->lis_endpos;
479                 if (cl_io_is_append(io)) {
480                         LASSERT(io->ci_type == CIT_WRITE);
481
482                         /*
483                          * If there is LOV EA hole, then we may cannot locate
484                          * the current file-tail exactly.
485                          */
486                         if (unlikely(obj->lo_lsm->lsm_entries[0]->lsme_pattern &
487                                      LOV_PATTERN_F_HOLE))
488                                 GOTO(out, result = -EIO);
489
490                         lio->lis_pos = 0;
491                         lio->lis_endpos = OBD_OBJECT_EOF;
492                 }
493                 break;
494
495         case CIT_SETATTR:
496                 if (cl_io_is_trunc(io))
497                         lio->lis_pos = io->u.ci_setattr.sa_attr.lvb_size;
498                 else
499                         lio->lis_pos = 0;
500                 lio->lis_endpos = OBD_OBJECT_EOF;
501                 break;
502
503         case CIT_DATA_VERSION:
504                 lio->lis_pos = 0;
505                 lio->lis_endpos = OBD_OBJECT_EOF;
506                 break;
507
508         case CIT_FAULT: {
509                 pgoff_t index = io->u.ci_fault.ft_index;
510
511                 lio->lis_pos = cl_offset(io->ci_obj, index);
512                 lio->lis_endpos = cl_offset(io->ci_obj, index + 1);
513                 break;
514         }
515
516         case CIT_FSYNC: {
517                 lio->lis_pos = io->u.ci_fsync.fi_start;
518                 lio->lis_endpos = io->u.ci_fsync.fi_end;
519                 break;
520         }
521
522         case CIT_LADVISE: {
523                 lio->lis_pos = io->u.ci_ladvise.li_start;
524                 lio->lis_endpos = io->u.ci_ladvise.li_end;
525                 break;
526         }
527
528         case CIT_GLIMPSE:
529                 lio->lis_pos = 0;
530                 lio->lis_endpos = OBD_OBJECT_EOF;
531
532                 if (lov_flr_state(obj) == LCM_FL_RDONLY &&
533                     !OBD_FAIL_CHECK(OBD_FAIL_FLR_GLIMPSE_IMMUTABLE))
534                         /* SoM is accurate, no need glimpse */
535                         GOTO(out, result = 1);
536                 break;
537
538         case CIT_MISC:
539                 lio->lis_pos = 0;
540                 lio->lis_endpos = OBD_OBJECT_EOF;
541                 break;
542
543         default:
544                 LBUG();
545         }
546
547         result = lov_io_mirror_init(lio, obj, io);
548         if (result)
549                 GOTO(out, result);
550
551         /* check if it needs to instantiate layout */
552         if (!(io->ci_type == CIT_WRITE || cl_io_is_mkwrite(io) ||
553               (cl_io_is_trunc(io) && io->u.ci_setattr.sa_attr.lvb_size > 0)))
554                 GOTO(out, result = 0);
555
556         /*
557          * for truncate, it only needs to instantiate the components
558          * before the truncated size.
559          */
560         if (cl_io_is_trunc(io)) {
561                 io->ci_write_intent.e_start = 0;
562                 /* for writes, e_end is endpos, the location of the file
563                  * pointer after the write is completed, so it is not accessed.
564                  * For truncate, 'end' is the size, and *is* acccessed.
565                  * In other words, writes are [start, end), but truncate is
566                  * [start, size], where both are included.  So add 1 to the
567                  * size when creating the write intent to account for this.
568                  */
569                 io->ci_write_intent.e_end =
570                         io->u.ci_setattr.sa_attr.lvb_size + 1;
571         } else {
572                 io->ci_write_intent.e_start = lio->lis_pos;
573                 io->ci_write_intent.e_end = lio->lis_endpos;
574         }
575
576         index = 0;
577         lov_foreach_io_layout(index, lio, &io->ci_write_intent) {
578                 if (!lsm_entry_inited(obj->lo_lsm, index)) {
579                         io->ci_need_write_intent = 1;
580                         break;
581                 }
582         }
583
584         if (io->ci_need_write_intent && io->ci_designated_mirror > 0) {
585                 /*
586                  * REINT_SYNC RPC has already tried to instantiate all of the
587                  * components involved, obviously it didn't succeed. Skip this
588                  * mirror for now. The server won't be able to figure out
589                  * which mirror it should instantiate components
590                  */
591                 CERROR(DFID": trying to instantiate components for designated "
592                        "I/O, file state: %d\n",
593                        PFID(lu_object_fid(lov2lu(obj))), lov_flr_state(obj));
594
595                 io->ci_need_write_intent = 0;
596                 GOTO(out, result = -EIO);
597         }
598
599         if (io->ci_need_write_intent)
600                 GOTO(out, result = 1);
601
602         EXIT;
603
604 out:
605         return result;
606 }
607
608 static void lov_io_fini(const struct lu_env *env, const struct cl_io_slice *ios)
609 {
610         struct lov_io *lio = cl2lov_io(env, ios);
611         struct lov_object *lov = cl2lov(ios->cis_obj);
612
613         ENTRY;
614
615         LASSERT(list_empty(&lio->lis_active));
616
617         while (!list_empty(&lio->lis_subios)) {
618                 struct lov_io_sub *sub = list_entry(lio->lis_subios.next,
619                                                     struct lov_io_sub,
620                                                     sub_list);
621
622                 list_del_init(&sub->sub_list);
623                 lio->lis_nr_subios--;
624
625                 lov_io_sub_fini(env, lio, sub);
626                 lov_sub_free(lio, sub);
627         }
628         LASSERT(lio->lis_nr_subios == 0);
629
630         LASSERT(atomic_read(&lov->lo_active_ios) > 0);
631         if (atomic_dec_and_test(&lov->lo_active_ios))
632                 wake_up_all(&lov->lo_waitq);
633         EXIT;
634 }
635
636 static void lov_io_sub_inherit(struct lov_io_sub *sub, struct lov_io *lio,
637                                loff_t start, loff_t end)
638 {
639         struct cl_io *io = &sub->sub_io;
640         struct lov_stripe_md *lsm = lio->lis_object->lo_lsm;
641         struct cl_io *parent = lio->lis_cl.cis_io;
642         int index = lov_comp_entry(sub->sub_subio_index);
643         int stripe = lov_comp_stripe(sub->sub_subio_index);
644
645         switch (io->ci_type) {
646         case CIT_SETATTR: {
647                 io->u.ci_setattr.sa_attr = parent->u.ci_setattr.sa_attr;
648                 io->u.ci_setattr.sa_attr_flags =
649                         parent->u.ci_setattr.sa_attr_flags;
650                 io->u.ci_setattr.sa_avalid = parent->u.ci_setattr.sa_avalid;
651                 io->u.ci_setattr.sa_xvalid = parent->u.ci_setattr.sa_xvalid;
652                 io->u.ci_setattr.sa_stripe_index = stripe;
653                 io->u.ci_setattr.sa_parent_fid =
654                                         parent->u.ci_setattr.sa_parent_fid;
655                 if (cl_io_is_trunc(io)) {
656                         loff_t new_size = parent->u.ci_setattr.sa_attr.lvb_size;
657
658                         new_size = lov_size_to_stripe(lsm, index, new_size,
659                                                       stripe);
660                         io->u.ci_setattr.sa_attr.lvb_size = new_size;
661                 }
662                 lov_lsm2layout(lsm, lsm->lsm_entries[index],
663                                &io->u.ci_setattr.sa_layout);
664                 break;
665         }
666         case CIT_DATA_VERSION: {
667                 io->u.ci_data_version.dv_data_version = 0;
668                 io->u.ci_data_version.dv_flags =
669                         parent->u.ci_data_version.dv_flags;
670                 break;
671         }
672         case CIT_FAULT: {
673                 struct cl_object *obj = parent->ci_obj;
674                 loff_t off = cl_offset(obj, parent->u.ci_fault.ft_index);
675
676                 io->u.ci_fault = parent->u.ci_fault;
677                 off = lov_size_to_stripe(lsm, index, off, stripe);
678                 io->u.ci_fault.ft_index = cl_index(obj, off);
679                 break;
680         }
681         case CIT_FSYNC: {
682                 io->u.ci_fsync.fi_start = start;
683                 io->u.ci_fsync.fi_end = end;
684                 io->u.ci_fsync.fi_fid = parent->u.ci_fsync.fi_fid;
685                 io->u.ci_fsync.fi_mode = parent->u.ci_fsync.fi_mode;
686                 break;
687         }
688         case CIT_READ:
689         case CIT_WRITE: {
690                 io->u.ci_wr.wr_sync = cl_io_is_sync_write(parent);
691                 io->ci_tried_all_mirrors = parent->ci_tried_all_mirrors;
692                 if (cl_io_is_append(parent)) {
693                         io->u.ci_wr.wr_append = 1;
694                 } else {
695                         io->u.ci_rw.crw_pos = start;
696                         io->u.ci_rw.crw_count = end - start;
697                 }
698                 break;
699         }
700         case CIT_LADVISE: {
701                 io->u.ci_ladvise.li_start = start;
702                 io->u.ci_ladvise.li_end = end;
703                 io->u.ci_ladvise.li_fid = parent->u.ci_ladvise.li_fid;
704                 io->u.ci_ladvise.li_advice = parent->u.ci_ladvise.li_advice;
705                 io->u.ci_ladvise.li_flags = parent->u.ci_ladvise.li_flags;
706                 break;
707         }
708         case CIT_GLIMPSE:
709         case CIT_MISC:
710         default:
711                 break;
712         }
713 }
714
715 static loff_t lov_offset_mod(loff_t val, int delta)
716 {
717         if (val != OBD_OBJECT_EOF)
718                 val += delta;
719         return val;
720 }
721
722 static int lov_io_iter_init(const struct lu_env *env,
723                             const struct cl_io_slice *ios)
724 {
725         struct lov_io *lio = cl2lov_io(env, ios);
726         struct lov_stripe_md *lsm = lio->lis_object->lo_lsm;
727         struct lov_io_sub *sub;
728         struct lu_extent ext;
729         int index;
730         int rc = 0;
731
732         ENTRY;
733
734         ext.e_start = lio->lis_pos;
735         ext.e_end = lio->lis_endpos;
736
737         lov_foreach_io_layout(index, lio, &ext) {
738                 struct lov_layout_entry *le = lov_entry(lio->lis_object, index);
739                 struct lov_layout_raid0 *r0 = &le->lle_raid0;
740                 u64 start;
741                 u64 end;
742                 int stripe;
743
744                 CDEBUG(D_VFSTRACE, "component[%d] flags %#x\n",
745                        index, lsm->lsm_entries[index]->lsme_flags);
746                 if (!lsm_entry_inited(lsm, index)) {
747                         /*
748                          * Read from uninitialized components should return
749                          * zero filled pages.
750                          */
751                         continue;
752                 }
753
754                 if (!le->lle_valid && !ios->cis_io->ci_designated_mirror) {
755                         CERROR("I/O to invalid component: %d, mirror: %d\n",
756                                index, lio->lis_mirror_index);
757                         RETURN(-EIO);
758                 }
759
760                 for (stripe = 0; stripe < r0->lo_nr; stripe++) {
761                         if (!lov_stripe_intersects(lsm, index, stripe,
762                                                    &ext, &start, &end))
763                                 continue;
764
765                         if (unlikely(!r0->lo_sub[stripe])) {
766                                 if (ios->cis_io->ci_type == CIT_READ ||
767                                     ios->cis_io->ci_type == CIT_WRITE ||
768                                     ios->cis_io->ci_type == CIT_FAULT)
769                                         RETURN(-EIO);
770
771                                 continue;
772                         }
773
774                         end = lov_offset_mod(end, 1);
775                         sub = lov_sub_get(env, lio,
776                                           lov_comp_index(index, stripe));
777                         if (IS_ERR(sub)) {
778                                 rc = PTR_ERR(sub);
779                                 break;
780                         }
781
782                         lov_io_sub_inherit(sub, lio, start, end);
783                         rc = cl_io_iter_init(sub->sub_env, &sub->sub_io);
784                         if (rc != 0)
785                                 cl_io_iter_fini(sub->sub_env, &sub->sub_io);
786                         if (rc != 0)
787                                 break;
788
789                         CDEBUG(D_VFSTRACE, "shrink: %d [%llu, %llu)\n",
790                                stripe, start, end);
791
792                         list_add_tail(&sub->sub_linkage, &lio->lis_active);
793                 }
794                 if (rc != 0)
795                         break;
796         }
797         RETURN(rc);
798 }
799
800 static int lov_io_rw_iter_init(const struct lu_env *env,
801                                const struct cl_io_slice *ios)
802 {
803         struct lov_io *lio = cl2lov_io(env, ios);
804         struct cl_io *io = ios->cis_io;
805         struct lov_stripe_md_entry *lse;
806         loff_t start = io->u.ci_rw.crw_pos;
807         loff_t next;
808         int index;
809
810         LASSERT(io->ci_type == CIT_READ || io->ci_type == CIT_WRITE);
811         ENTRY;
812
813         if (cl_io_is_append(io))
814                 RETURN(lov_io_iter_init(env, ios));
815
816         index = lov_io_layout_at(lio, io->u.ci_rw.crw_pos);
817         if (index < 0) { /* non-existing layout component */
818                 if (io->ci_type == CIT_READ) {
819                         /*
820                          * TODO: it needs to detect the next component and
821                          * then set the next pos
822                          */
823                         io->ci_continue = 0;
824
825                         RETURN(lov_io_iter_init(env, ios));
826                 }
827
828                 RETURN(-ENODATA);
829         }
830
831         if (!lov_entry(lio->lis_object, index)->lle_valid &&
832             !io->ci_designated_mirror)
833                 RETURN(io->ci_type == CIT_READ ? -EAGAIN : -EIO);
834
835         lse = lov_lse(lio->lis_object, index);
836
837         next = MAX_LFS_FILESIZE;
838         if (lse->lsme_stripe_count > 1) {
839                 unsigned long ssize = lse->lsme_stripe_size;
840
841                 lov_do_div64(start, ssize);
842                 next = (start + 1) * ssize;
843                 if (next <= start * ssize)
844                         next = MAX_LFS_FILESIZE;
845         }
846
847         LASSERTF(io->u.ci_rw.crw_pos >= lse->lsme_extent.e_start,
848                  "pos %lld, [%lld, %lld)\n", io->u.ci_rw.crw_pos,
849                  lse->lsme_extent.e_start, lse->lsme_extent.e_end);
850         next = min_t(__u64, next, lse->lsme_extent.e_end);
851         next = min_t(loff_t, next, lio->lis_io_endpos);
852
853         io->ci_continue = next < lio->lis_io_endpos;
854         io->u.ci_rw.crw_count = next - io->u.ci_rw.crw_pos;
855         lio->lis_pos    = io->u.ci_rw.crw_pos;
856         lio->lis_endpos = io->u.ci_rw.crw_pos + io->u.ci_rw.crw_count;
857         CDEBUG(D_VFSTRACE,
858                "stripe: %llu chunk: [%llu, %llu) %llu, %zd\n",
859                (__u64)start, lio->lis_pos, lio->lis_endpos,
860                (__u64)lio->lis_io_endpos, io->u.ci_rw.crw_count);
861
862         /*
863          * XXX The following call should be optimized: we know, that
864          * [lio->lis_pos, lio->lis_endpos) intersects with exactly one stripe.
865          */
866         RETURN(lov_io_iter_init(env, ios));
867 }
868
869 static int lov_io_setattr_iter_init(const struct lu_env *env,
870                                     const struct cl_io_slice *ios)
871 {
872         struct lov_io *lio = cl2lov_io(env, ios);
873         struct cl_io *io = ios->cis_io;
874         int index;
875         ENTRY;
876
877         if (cl_io_is_trunc(io) && lio->lis_pos > 0) {
878                 index = lov_io_layout_at(lio, lio->lis_pos - 1);
879                 /* no entry found for such offset */
880                 if (index < 0)
881                         RETURN(io->ci_result = -ENODATA);
882         }
883
884         RETURN(lov_io_iter_init(env, ios));
885 }
886
887 static int lov_io_call(const struct lu_env *env, struct lov_io *lio,
888                        int (*iofunc)(const struct lu_env *, struct cl_io *))
889 {
890         struct cl_io *parent = lio->lis_cl.cis_io;
891         struct lov_io_sub *sub;
892         int rc = 0;
893
894         ENTRY;
895         list_for_each_entry(sub, &lio->lis_active, sub_linkage) {
896                 rc = iofunc(sub->sub_env, &sub->sub_io);
897                 if (rc)
898                         break;
899
900                 if (parent->ci_result == 0)
901                         parent->ci_result = sub->sub_io.ci_result;
902         }
903         RETURN(rc);
904 }
905
906 static int lov_io_lock(const struct lu_env *env, const struct cl_io_slice *ios)
907 {
908         ENTRY;
909         RETURN(lov_io_call(env, cl2lov_io(env, ios), cl_io_lock));
910 }
911
912 static int lov_io_start(const struct lu_env *env, const struct cl_io_slice *ios)
913 {
914         ENTRY;
915         RETURN(lov_io_call(env, cl2lov_io(env, ios), cl_io_start));
916 }
917
918 static int lov_io_end_wrapper(const struct lu_env *env, struct cl_io *io)
919 {
920         ENTRY;
921         /*
922          * It's possible that lov_io_start() wasn't called against this
923          * sub-io, either because previous sub-io failed, or upper layer
924          * completed IO.
925          */
926         if (io->ci_state == CIS_IO_GOING)
927                 cl_io_end(env, io);
928         else
929                 io->ci_state = CIS_IO_FINISHED;
930         RETURN(0);
931 }
932
933 static int lov_io_iter_fini_wrapper(const struct lu_env *env, struct cl_io *io)
934 {
935         cl_io_iter_fini(env, io);
936         RETURN(0);
937 }
938
939 static int lov_io_unlock_wrapper(const struct lu_env *env, struct cl_io *io)
940 {
941         cl_io_unlock(env, io);
942         RETURN(0);
943 }
944
945 static void lov_io_end(const struct lu_env *env, const struct cl_io_slice *ios)
946 {
947         int rc;
948
949         rc = lov_io_call(env, cl2lov_io(env, ios), lov_io_end_wrapper);
950         LASSERT(rc == 0);
951 }
952
953 static void
954 lov_io_data_version_end(const struct lu_env *env, const struct cl_io_slice *ios)
955 {
956         struct lov_io *lio = cl2lov_io(env, ios);
957         struct cl_io *parent = lio->lis_cl.cis_io;
958         struct cl_data_version_io *pdv = &parent->u.ci_data_version;
959         struct lov_io_sub *sub;
960
961         ENTRY;
962         list_for_each_entry(sub, &lio->lis_active, sub_linkage) {
963                 struct cl_data_version_io *sdv = &sub->sub_io.u.ci_data_version;
964
965                 lov_io_end_wrapper(sub->sub_env, &sub->sub_io);
966
967                 pdv->dv_data_version += sdv->dv_data_version;
968                 if (pdv->dv_layout_version > sdv->dv_layout_version)
969                         pdv->dv_layout_version = sdv->dv_layout_version;
970
971                 if (parent->ci_result == 0)
972                         parent->ci_result = sub->sub_io.ci_result;
973         }
974
975         EXIT;
976 }
977
978 static void lov_io_iter_fini(const struct lu_env *env,
979                              const struct cl_io_slice *ios)
980 {
981         struct lov_io *lio = cl2lov_io(env, ios);
982         int rc;
983
984         ENTRY;
985         rc = lov_io_call(env, lio, lov_io_iter_fini_wrapper);
986         LASSERT(rc == 0);
987         while (!list_empty(&lio->lis_active))
988                 list_del_init(lio->lis_active.next);
989         EXIT;
990 }
991
992 static void lov_io_unlock(const struct lu_env *env,
993                           const struct cl_io_slice *ios)
994 {
995         int rc;
996
997         ENTRY;
998         rc = lov_io_call(env, cl2lov_io(env, ios), lov_io_unlock_wrapper);
999         LASSERT(rc == 0);
1000         EXIT;
1001 }
1002
1003 static int lov_io_read_ahead(const struct lu_env *env,
1004                              const struct cl_io_slice *ios,
1005                              pgoff_t start, struct cl_read_ahead *ra)
1006 {
1007         struct lov_io           *lio = cl2lov_io(env, ios);
1008         struct lov_object       *loo = lio->lis_object;
1009         struct cl_object        *obj = lov2cl(loo);
1010         struct lov_layout_raid0 *r0;
1011         struct lov_io_sub       *sub;
1012         loff_t                   offset;
1013         loff_t                   suboff;
1014         pgoff_t                  ra_end;
1015         unsigned int             pps; /* pages per stripe */
1016         int                      stripe;
1017         int                      index;
1018         int                      rc;
1019         ENTRY;
1020
1021         offset = cl_offset(obj, start);
1022         index = lov_io_layout_at(lio, offset);
1023         if (index < 0 || !lsm_entry_inited(loo->lo_lsm, index))
1024                 RETURN(-ENODATA);
1025
1026         /* avoid readahead to expand to stale components */
1027         if (!lov_entry(loo, index)->lle_valid)
1028                 RETURN(-EIO);
1029
1030         stripe = lov_stripe_number(loo->lo_lsm, index, offset);
1031
1032         r0 = lov_r0(loo, index);
1033         if (unlikely(!r0->lo_sub[stripe]))
1034                 RETURN(-EIO);
1035
1036         sub = lov_sub_get(env, lio, lov_comp_index(index, stripe));
1037         if (IS_ERR(sub))
1038                 RETURN(PTR_ERR(sub));
1039
1040         lov_stripe_offset(loo->lo_lsm, index, offset, stripe, &suboff);
1041         rc = cl_io_read_ahead(sub->sub_env, &sub->sub_io,
1042                               cl_index(lovsub2cl(r0->lo_sub[stripe]), suboff),
1043                               ra);
1044
1045         CDEBUG(D_READA, DFID " cra_end = %lu, stripes = %d, rc = %d\n",
1046                PFID(lu_object_fid(lov2lu(loo))), ra->cra_end_idx,
1047                     r0->lo_nr, rc);
1048         if (rc != 0)
1049                 RETURN(rc);
1050
1051         /**
1052          * Adjust the stripe index by layout of comp. ra->cra_end is the
1053          * maximum page index covered by an underlying DLM lock.
1054          * This function converts cra_end from stripe level to file level, and
1055          * make sure it's not beyond stripe and component boundary.
1056          */
1057
1058         /* cra_end is stripe level, convert it into file level */
1059         ra_end = ra->cra_end_idx;
1060         if (ra_end != CL_PAGE_EOF)
1061                 ra->cra_end_idx = lov_stripe_pgoff(loo->lo_lsm, index,
1062                                                    ra_end, stripe);
1063
1064         /* boundary of current component */
1065         ra_end = cl_index(obj, (loff_t)lov_io_extent(lio, index)->e_end);
1066         if (ra_end != CL_PAGE_EOF && ra->cra_end_idx >= ra_end)
1067                 ra->cra_end_idx = ra_end - 1;
1068
1069         if (r0->lo_nr == 1) /* single stripe file */
1070                 RETURN(0);
1071
1072         pps = lov_lse(loo, index)->lsme_stripe_size >> PAGE_SHIFT;
1073
1074         CDEBUG(D_READA, DFID " max_index = %lu, pps = %u, index = %d, "
1075                "stripe_size = %u, stripe no = %u, start index = %lu\n",
1076                PFID(lu_object_fid(lov2lu(loo))), ra->cra_end_idx, pps, index,
1077                lov_lse(loo, index)->lsme_stripe_size, stripe, start);
1078
1079         /* never exceed the end of the stripe */
1080         ra->cra_end_idx = min_t(pgoff_t, ra->cra_end_idx,
1081                                 start + pps - start % pps - 1);
1082         RETURN(0);
1083 }
1084
1085 /**
1086  * lov implementation of cl_operations::cio_submit() method. It takes a list
1087  * of pages in \a queue, splits it into per-stripe sub-lists, invokes
1088  * cl_io_submit() on underlying devices to submit sub-lists, and then splices
1089  * everything back.
1090  *
1091  * Major complication of this function is a need to handle memory cleansing:
1092  * cl_io_submit() is called to write out pages as a part of VM memory
1093  * reclamation, and hence it may not fail due to memory shortages (system
1094  * dead-locks otherwise). To deal with this, some resources (sub-lists,
1095  * sub-environment, etc.) are allocated per-device on "startup" (i.e., in a
1096  * not-memory cleansing context), and in case of memory shortage, these
1097  * pre-allocated resources are used by lov_io_submit() under
1098  * lov_device::ld_mutex mutex.
1099  */
1100 static int lov_io_submit(const struct lu_env *env,
1101                          const struct cl_io_slice *ios,
1102                          enum cl_req_type crt, struct cl_2queue *queue)
1103 {
1104         struct cl_page_list     *qin = &queue->c2_qin;
1105         struct lov_io           *lio = cl2lov_io(env, ios);
1106         struct lov_io_sub       *sub;
1107         struct cl_page_list     *plist = &lov_env_info(env)->lti_plist;
1108         struct cl_page          *page;
1109         struct cl_page          *tmp;
1110         int index;
1111         int rc = 0;
1112         ENTRY;
1113
1114         cl_page_list_init(plist);
1115         while (qin->pl_nr > 0) {
1116                 struct cl_2queue  *cl2q = &lov_env_info(env)->lti_cl2q;
1117
1118                 page = cl_page_list_first(qin);
1119                 if (lov_page_is_empty(page)) {
1120                         cl_page_list_move(&queue->c2_qout, qin, page);
1121
1122                         /*
1123                          * it could only be mirror read to get here therefore
1124                          * the pages will be transient. We don't care about
1125                          * the return code of cl_page_prep() at all.
1126                          */
1127                         (void) cl_page_prep(env, ios->cis_io, page, crt);
1128                         cl_page_completion(env, page, crt, 0);
1129                         continue;
1130                 }
1131
1132                 cl_2queue_init(cl2q);
1133                 cl_page_list_move(&cl2q->c2_qin, qin, page);
1134
1135                 index = page->cp_lov_index;
1136                 cl_page_list_for_each_safe(page, tmp, qin) {
1137                         /* this page is not on this stripe */
1138                         if (index != page->cp_lov_index)
1139                                 continue;
1140
1141                         cl_page_list_move(&cl2q->c2_qin, qin, page);
1142                 }
1143
1144                 sub = lov_sub_get(env, lio, index);
1145                 if (!IS_ERR(sub)) {
1146                         rc = cl_io_submit_rw(sub->sub_env, &sub->sub_io,
1147                                              crt, cl2q);
1148                 } else {
1149                         rc = PTR_ERR(sub);
1150                 }
1151
1152                 cl_page_list_splice(&cl2q->c2_qin, plist);
1153                 cl_page_list_splice(&cl2q->c2_qout, &queue->c2_qout);
1154                 cl_2queue_fini(env, cl2q);
1155
1156                 if (rc != 0)
1157                         break;
1158         }
1159
1160         cl_page_list_splice(plist, qin);
1161         cl_page_list_fini(env, plist);
1162
1163         RETURN(rc);
1164 }
1165
1166 static int lov_io_commit_async(const struct lu_env *env,
1167                                const struct cl_io_slice *ios,
1168                                struct cl_page_list *queue, int from, int to,
1169                                cl_commit_cbt cb)
1170 {
1171         struct cl_page_list *plist = &lov_env_info(env)->lti_plist;
1172         struct lov_io *lio = cl2lov_io(env, ios);
1173         struct lov_io_sub *sub;
1174         struct cl_page *page;
1175         int rc = 0;
1176         ENTRY;
1177
1178         if (lio->lis_nr_subios == 1) {
1179                 int idx = lio->lis_single_subio_index;
1180
1181                 LASSERT(!lov_page_is_empty(cl_page_list_first(queue)));
1182
1183                 sub = lov_sub_get(env, lio, idx);
1184                 LASSERT(!IS_ERR(sub));
1185                 LASSERT(sub == &lio->lis_single_subio);
1186                 rc = cl_io_commit_async(sub->sub_env, &sub->sub_io, queue,
1187                                         from, to, cb);
1188                 RETURN(rc);
1189         }
1190
1191         cl_page_list_init(plist);
1192         while (queue->pl_nr > 0) {
1193                 int stripe_to = to;
1194                 int index;
1195
1196                 LASSERT(plist->pl_nr == 0);
1197                 page = cl_page_list_first(queue);
1198                 LASSERT(!lov_page_is_empty(page));
1199
1200                 cl_page_list_move(plist, queue, page);
1201
1202                 index = page->cp_lov_index;
1203                 while (queue->pl_nr > 0) {
1204                         page = cl_page_list_first(queue);
1205                         if (index != page->cp_lov_index)
1206                                 break;
1207
1208                         cl_page_list_move(plist, queue, page);
1209                 }
1210
1211                 if (queue->pl_nr > 0) /* still has more pages */
1212                         stripe_to = PAGE_SIZE;
1213
1214                 sub = lov_sub_get(env, lio, index);
1215                 if (!IS_ERR(sub)) {
1216                         rc = cl_io_commit_async(sub->sub_env, &sub->sub_io,
1217                                                 plist, from, stripe_to, cb);
1218                 } else {
1219                         rc = PTR_ERR(sub);
1220                         break;
1221                 }
1222
1223                 if (plist->pl_nr > 0) /* short write */
1224                         break;
1225
1226                 from = 0;
1227         }
1228
1229         /* for error case, add the page back into the qin list */
1230         LASSERT(ergo(rc == 0, plist->pl_nr == 0));
1231         while (plist->pl_nr > 0) {
1232                 /* error occurred, add the uncommitted pages back into queue */
1233                 page = cl_page_list_last(plist);
1234                 cl_page_list_move_head(queue, plist, page);
1235         }
1236
1237         RETURN(rc);
1238 }
1239
1240 static int lov_io_fault_start(const struct lu_env *env,
1241                               const struct cl_io_slice *ios)
1242 {
1243         struct cl_fault_io *fio;
1244         struct lov_io      *lio;
1245         struct lov_io_sub  *sub;
1246
1247         ENTRY;
1248
1249         fio = &ios->cis_io->u.ci_fault;
1250         lio = cl2lov_io(env, ios);
1251         sub = lov_sub_get(env, lio, fio->ft_page->cp_lov_index);
1252         sub->sub_io.u.ci_fault.ft_nob = fio->ft_nob;
1253
1254         RETURN(lov_io_start(env, ios));
1255 }
1256
1257 static void lov_io_fsync_end(const struct lu_env *env,
1258                              const struct cl_io_slice *ios)
1259 {
1260         struct lov_io *lio = cl2lov_io(env, ios);
1261         struct lov_io_sub *sub;
1262         unsigned int *written = &ios->cis_io->u.ci_fsync.fi_nr_written;
1263         ENTRY;
1264
1265         *written = 0;
1266         list_for_each_entry(sub, &lio->lis_active, sub_linkage) {
1267                 struct cl_io *subio = &sub->sub_io;
1268
1269                 lov_io_end_wrapper(sub->sub_env, subio);
1270
1271                 if (subio->ci_result == 0)
1272                         *written += subio->u.ci_fsync.fi_nr_written;
1273         }
1274         RETURN_EXIT;
1275 }
1276
1277 static const struct cl_io_operations lov_io_ops = {
1278         .op = {
1279                 [CIT_READ] = {
1280                         .cio_fini      = lov_io_fini,
1281                         .cio_iter_init = lov_io_rw_iter_init,
1282                         .cio_iter_fini = lov_io_iter_fini,
1283                         .cio_lock      = lov_io_lock,
1284                         .cio_unlock    = lov_io_unlock,
1285                         .cio_start     = lov_io_start,
1286                         .cio_end       = lov_io_end
1287                 },
1288                 [CIT_WRITE] = {
1289                         .cio_fini      = lov_io_fini,
1290                         .cio_iter_init = lov_io_rw_iter_init,
1291                         .cio_iter_fini = lov_io_iter_fini,
1292                         .cio_lock      = lov_io_lock,
1293                         .cio_unlock    = lov_io_unlock,
1294                         .cio_start     = lov_io_start,
1295                         .cio_end       = lov_io_end
1296                 },
1297                 [CIT_SETATTR] = {
1298                         .cio_fini      = lov_io_fini,
1299                         .cio_iter_init = lov_io_setattr_iter_init,
1300                         .cio_iter_fini = lov_io_iter_fini,
1301                         .cio_lock      = lov_io_lock,
1302                         .cio_unlock    = lov_io_unlock,
1303                         .cio_start     = lov_io_start,
1304                         .cio_end       = lov_io_end
1305                 },
1306                 [CIT_DATA_VERSION] = {
1307                         .cio_fini       = lov_io_fini,
1308                         .cio_iter_init  = lov_io_iter_init,
1309                         .cio_iter_fini  = lov_io_iter_fini,
1310                         .cio_lock       = lov_io_lock,
1311                         .cio_unlock     = lov_io_unlock,
1312                         .cio_start      = lov_io_start,
1313                         .cio_end        = lov_io_data_version_end,
1314                 },
1315                 [CIT_FAULT] = {
1316                         .cio_fini      = lov_io_fini,
1317                         .cio_iter_init = lov_io_iter_init,
1318                         .cio_iter_fini = lov_io_iter_fini,
1319                         .cio_lock      = lov_io_lock,
1320                         .cio_unlock    = lov_io_unlock,
1321                         .cio_start     = lov_io_fault_start,
1322                         .cio_end       = lov_io_end
1323                 },
1324                 [CIT_FSYNC] = {
1325                         .cio_fini      = lov_io_fini,
1326                         .cio_iter_init = lov_io_iter_init,
1327                         .cio_iter_fini = lov_io_iter_fini,
1328                         .cio_lock      = lov_io_lock,
1329                         .cio_unlock    = lov_io_unlock,
1330                         .cio_start     = lov_io_start,
1331                         .cio_end       = lov_io_fsync_end
1332                 },
1333                 [CIT_LADVISE] = {
1334                         .cio_fini      = lov_io_fini,
1335                         .cio_iter_init = lov_io_iter_init,
1336                         .cio_iter_fini = lov_io_iter_fini,
1337                         .cio_lock      = lov_io_lock,
1338                         .cio_unlock    = lov_io_unlock,
1339                         .cio_start     = lov_io_start,
1340                         .cio_end       = lov_io_end
1341                 },
1342                 [CIT_GLIMPSE] = {
1343                         .cio_fini      = lov_io_fini,
1344                 },
1345                 [CIT_MISC] = {
1346                         .cio_fini      = lov_io_fini
1347                 }
1348         },
1349         .cio_read_ahead                = lov_io_read_ahead,
1350         .cio_submit                    = lov_io_submit,
1351         .cio_commit_async              = lov_io_commit_async,
1352 };
1353
1354 /*****************************************************************************
1355  *
1356  * Empty lov io operations.
1357  *
1358  */
1359
1360 static void lov_empty_io_fini(const struct lu_env *env,
1361                               const struct cl_io_slice *ios)
1362 {
1363         struct lov_object *lov = cl2lov(ios->cis_obj);
1364         ENTRY;
1365
1366         if (atomic_dec_and_test(&lov->lo_active_ios))
1367                 wake_up_all(&lov->lo_waitq);
1368         EXIT;
1369 }
1370
1371 static int lov_empty_io_submit(const struct lu_env *env,
1372                                const struct cl_io_slice *ios,
1373                                enum cl_req_type crt, struct cl_2queue *queue)
1374 {
1375         return -EBADF;
1376 }
1377
1378 static void lov_empty_impossible(const struct lu_env *env,
1379                                  struct cl_io_slice *ios)
1380 {
1381         LBUG();
1382 }
1383
1384 #define LOV_EMPTY_IMPOSSIBLE ((void *)lov_empty_impossible)
1385
1386 /**
1387  * An io operation vector for files without stripes.
1388  */
1389 static const struct cl_io_operations lov_empty_io_ops = {
1390         .op = {
1391                 [CIT_READ] = {
1392                         .cio_fini       = lov_empty_io_fini,
1393 #if 0
1394                         .cio_iter_init  = LOV_EMPTY_IMPOSSIBLE,
1395                         .cio_lock       = LOV_EMPTY_IMPOSSIBLE,
1396                         .cio_start      = LOV_EMPTY_IMPOSSIBLE,
1397                         .cio_end        = LOV_EMPTY_IMPOSSIBLE
1398 #endif
1399                 },
1400                 [CIT_WRITE] = {
1401                         .cio_fini      = lov_empty_io_fini,
1402                         .cio_iter_init = LOV_EMPTY_IMPOSSIBLE,
1403                         .cio_lock      = LOV_EMPTY_IMPOSSIBLE,
1404                         .cio_start     = LOV_EMPTY_IMPOSSIBLE,
1405                         .cio_end       = LOV_EMPTY_IMPOSSIBLE
1406                 },
1407                 [CIT_SETATTR] = {
1408                         .cio_fini      = lov_empty_io_fini,
1409                         .cio_iter_init = LOV_EMPTY_IMPOSSIBLE,
1410                         .cio_lock      = LOV_EMPTY_IMPOSSIBLE,
1411                         .cio_start     = LOV_EMPTY_IMPOSSIBLE,
1412                         .cio_end       = LOV_EMPTY_IMPOSSIBLE
1413                 },
1414                 [CIT_FAULT] = {
1415                         .cio_fini      = lov_empty_io_fini,
1416                         .cio_iter_init = LOV_EMPTY_IMPOSSIBLE,
1417                         .cio_lock      = LOV_EMPTY_IMPOSSIBLE,
1418                         .cio_start     = LOV_EMPTY_IMPOSSIBLE,
1419                         .cio_end       = LOV_EMPTY_IMPOSSIBLE
1420                 },
1421                 [CIT_FSYNC] = {
1422                         .cio_fini      = lov_empty_io_fini
1423                 },
1424                 [CIT_LADVISE] = {
1425                         .cio_fini   = lov_empty_io_fini
1426                 },
1427                 [CIT_GLIMPSE] = {
1428                         .cio_fini      = lov_empty_io_fini
1429                 },
1430                 [CIT_MISC] = {
1431                         .cio_fini      = lov_empty_io_fini
1432                 }
1433         },
1434         .cio_submit                    = lov_empty_io_submit,
1435         .cio_commit_async              = LOV_EMPTY_IMPOSSIBLE
1436 };
1437
1438 int lov_io_init_composite(const struct lu_env *env, struct cl_object *obj,
1439                           struct cl_io *io)
1440 {
1441         struct lov_io *lio = lov_env_io(env);
1442         struct lov_object *lov = cl2lov(obj);
1443         int result;
1444
1445         ENTRY;
1446
1447         INIT_LIST_HEAD(&lio->lis_active);
1448         result = lov_io_slice_init(lio, lov, io);
1449         if (result)
1450                 GOTO(out, result);
1451
1452         result = lov_io_subio_init(env, lio, io);
1453         if (!result) {
1454                 cl_io_slice_add(io, &lio->lis_cl, obj, &lov_io_ops);
1455                 atomic_inc(&lov->lo_active_ios);
1456         }
1457         EXIT;
1458 out:
1459         io->ci_result = result < 0 ? result : 0;
1460         return result;
1461 }
1462
1463 int lov_io_init_empty(const struct lu_env *env, struct cl_object *obj,
1464                       struct cl_io *io)
1465 {
1466         struct lov_object *lov = cl2lov(obj);
1467         struct lov_io *lio = lov_env_io(env);
1468         int result;
1469         ENTRY;
1470
1471         lio->lis_object = lov;
1472         switch (io->ci_type) {
1473         default:
1474                 LBUG();
1475         case CIT_MISC:
1476         case CIT_GLIMPSE:
1477         case CIT_READ:
1478                 result = 0;
1479                 break;
1480         case CIT_FSYNC:
1481         case CIT_LADVISE:
1482         case CIT_SETATTR:
1483         case CIT_DATA_VERSION:
1484                 result = +1;
1485                 break;
1486         case CIT_WRITE:
1487                 result = -EBADF;
1488                 break;
1489         case CIT_FAULT:
1490                 result = -EFAULT;
1491                 CERROR("Page fault on a file without stripes: "DFID"\n",
1492                        PFID(lu_object_fid(&obj->co_lu)));
1493                 break;
1494         }
1495         if (result == 0) {
1496                 cl_io_slice_add(io, &lio->lis_cl, obj, &lov_empty_io_ops);
1497                 atomic_inc(&lov->lo_active_ios);
1498         }
1499
1500         io->ci_result = result < 0 ? result : 0;
1501         RETURN(result);
1502 }
1503
1504 int lov_io_init_released(const struct lu_env *env, struct cl_object *obj,
1505                         struct cl_io *io)
1506 {
1507         struct lov_object *lov = cl2lov(obj);
1508         struct lov_io *lio = lov_env_io(env);
1509         int result;
1510         ENTRY;
1511
1512         LASSERT(lov->lo_lsm != NULL);
1513         lio->lis_object = lov;
1514
1515         switch (io->ci_type) {
1516         default:
1517                 LASSERTF(0, "invalid type %d\n", io->ci_type);
1518                 result = -EOPNOTSUPP;
1519                 break;
1520         case CIT_GLIMPSE:
1521         case CIT_MISC:
1522         case CIT_FSYNC:
1523         case CIT_LADVISE:
1524         case CIT_DATA_VERSION:
1525                 result = 1;
1526                 break;
1527         case CIT_SETATTR:
1528                 /*
1529                  * the truncate to 0 is managed by MDT:
1530                  * - in open, for open O_TRUNC
1531                  * - in setattr, for truncate
1532                  */
1533                 /* the truncate is for size > 0 so triggers a restore */
1534                 if (cl_io_is_trunc(io)) {
1535                         io->ci_restore_needed = 1;
1536                         result = -ENODATA;
1537                 } else
1538                         result = 1;
1539                 break;
1540         case CIT_READ:
1541         case CIT_WRITE:
1542         case CIT_FAULT:
1543                 io->ci_restore_needed = 1;
1544                 result = -ENODATA;
1545                 break;
1546         }
1547
1548         if (result == 0) {
1549                 cl_io_slice_add(io, &lio->lis_cl, obj, &lov_empty_io_ops);
1550                 atomic_inc(&lov->lo_active_ios);
1551         }
1552
1553         io->ci_result = result < 0 ? result : 0;
1554         RETURN(result);
1555 }
1556
1557 /**
1558  * Return the index in composite:lo_entries by the file offset
1559  */
1560 int lov_io_layout_at(struct lov_io *lio, __u64 offset)
1561 {
1562         struct lov_object *lov = lio->lis_object;
1563         struct lov_layout_composite *comp = &lov->u.composite;
1564         int start_index = 0;
1565         int end_index = comp->lo_entry_count - 1;
1566         int i;
1567
1568         LASSERT(lov->lo_type == LLT_COMP);
1569
1570         /* This is actual file offset so nothing can cover eof. */
1571         if (offset == LUSTRE_EOF)
1572                 return -1;
1573
1574         if (lov_is_flr(lov)) {
1575                 struct lov_mirror_entry *lre;
1576
1577                 LASSERT(lio->lis_mirror_index >= 0);
1578
1579                 lre = &comp->lo_mirrors[lio->lis_mirror_index];
1580                 start_index = lre->lre_start;
1581                 end_index = lre->lre_end;
1582         }
1583
1584         for (i = start_index; i <= end_index; i++) {
1585                 struct lov_layout_entry *lle = lov_entry(lov, i);
1586
1587                 if ((offset >= lle->lle_extent->e_start &&
1588                      offset < lle->lle_extent->e_end) ||
1589                     (offset == OBD_OBJECT_EOF &&
1590                      lle->lle_extent->e_end == OBD_OBJECT_EOF))
1591                         return i;
1592         }
1593
1594         return -1;
1595 }
1596
1597 /** @} lov */