Whamcloud - gitweb
LU-3832 clio: honor O_NOATIME
[fs/lustre-release.git] / lustre / lov / lov_io.c
1 /*
2  * GPL HEADER START
3  *
4  * DO NOT ALTER OR REMOVE COPYRIGHT NOTICES OR THIS FILE HEADER.
5  *
6  * This program is free software; you can redistribute it and/or modify
7  * it under the terms of the GNU General Public License version 2 only,
8  * as published by the Free Software Foundation.
9  *
10  * This program is distributed in the hope that it will be useful, but
11  * WITHOUT ANY WARRANTY; without even the implied warranty of
12  * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
13  * General Public License version 2 for more details (a copy is included
14  * in the LICENSE file that accompanied this code).
15  *
16  * You should have received a copy of the GNU General Public License
17  * version 2 along with this program; If not, see
18  * http://www.sun.com/software/products/lustre/docs/GPLv2.pdf
19  *
20  * Please contact Sun Microsystems, Inc., 4150 Network Circle, Santa Clara,
21  * CA 95054 USA or visit www.sun.com if you need additional information or
22  * have any questions.
23  *
24  * GPL HEADER END
25  */
26 /*
27  * Copyright (c) 2008, 2010, Oracle and/or its affiliates. All rights reserved.
28  * Use is subject to license terms.
29  *
30  * Copyright (c) 2011, 2013, Intel Corporation.
31  */
32 /*
33  * This file is part of Lustre, http://www.lustre.org/
34  * Lustre is a trademark of Sun Microsystems, Inc.
35  *
36  * Implementation of cl_io for LOV layer.
37  *
38  *   Author: Nikita Danilov <nikita.danilov@sun.com>
39  *   Author: Jinshan Xiong <jinshan.xiong@whamcloud.com>
40  */
41
42 #define DEBUG_SUBSYSTEM S_LOV
43
44 #include "lov_cl_internal.h"
45
46 /** \addtogroup lov
47  *  @{
48  */
49
50 static inline void lov_sub_enter(struct lov_io_sub *sub)
51 {
52         sub->sub_reenter++;
53 }
54 static inline void lov_sub_exit(struct lov_io_sub *sub)
55 {
56         sub->sub_reenter--;
57 }
58
59 static void lov_io_sub_fini(const struct lu_env *env, struct lov_io *lio,
60                             struct lov_io_sub *sub)
61 {
62         ENTRY;
63         if (sub->sub_io != NULL) {
64                 if (sub->sub_io_initialized) {
65                         lov_sub_enter(sub);
66                         cl_io_fini(sub->sub_env, sub->sub_io);
67                         lov_sub_exit(sub);
68                         sub->sub_io_initialized = 0;
69                         lio->lis_active_subios--;
70                 }
71                 if (sub->sub_stripe == lio->lis_single_subio_index)
72                         lio->lis_single_subio_index = -1;
73                 else if (!sub->sub_borrowed)
74                         OBD_FREE_PTR(sub->sub_io);
75                 sub->sub_io = NULL;
76         }
77         if (sub->sub_env != NULL && !IS_ERR(sub->sub_env)) {
78                 if (!sub->sub_borrowed)
79                         cl_env_put(sub->sub_env, &sub->sub_refcheck);
80                 sub->sub_env = NULL;
81         }
82         EXIT;
83 }
84
85 static void lov_io_sub_inherit(struct cl_io *io, struct lov_io *lio,
86                                int stripe, loff_t start, loff_t end)
87 {
88         struct lov_stripe_md *lsm    = lio->lis_object->lo_lsm;
89         struct cl_io         *parent = lio->lis_cl.cis_io;
90
91         switch(io->ci_type) {
92         case CIT_SETATTR: {
93                 io->u.ci_setattr.sa_attr = parent->u.ci_setattr.sa_attr;
94                 io->u.ci_setattr.sa_valid = parent->u.ci_setattr.sa_valid;
95                 io->u.ci_setattr.sa_capa = parent->u.ci_setattr.sa_capa;
96                 if (cl_io_is_trunc(io)) {
97                         loff_t new_size = parent->u.ci_setattr.sa_attr.lvb_size;
98
99                         new_size = lov_size_to_stripe(lsm, new_size, stripe);
100                         io->u.ci_setattr.sa_attr.lvb_size = new_size;
101                 }
102                 break;
103         }
104         case CIT_FAULT: {
105                 struct cl_object *obj = parent->ci_obj;
106                 loff_t off = cl_offset(obj, parent->u.ci_fault.ft_index);
107
108                 io->u.ci_fault = parent->u.ci_fault;
109                 off = lov_size_to_stripe(lsm, off, stripe);
110                 io->u.ci_fault.ft_index = cl_index(obj, off);
111                 break;
112         }
113         case CIT_FSYNC: {
114                 io->u.ci_fsync.fi_start = start;
115                 io->u.ci_fsync.fi_end = end;
116                 io->u.ci_fsync.fi_capa = parent->u.ci_fsync.fi_capa;
117                 io->u.ci_fsync.fi_fid = parent->u.ci_fsync.fi_fid;
118                 io->u.ci_fsync.fi_mode = parent->u.ci_fsync.fi_mode;
119                 break;
120         }
121         case CIT_READ:
122         case CIT_WRITE: {
123                 io->u.ci_wr.wr_sync = cl_io_is_sync_write(parent);
124                 if (cl_io_is_append(parent)) {
125                         io->u.ci_wr.wr_append = 1;
126                 } else {
127                         io->u.ci_rw.crw_pos = start;
128                         io->u.ci_rw.crw_count = end - start;
129                 }
130                 break;
131         }
132         default:
133                 break;
134         }
135 }
136
137 static int lov_io_sub_init(const struct lu_env *env, struct lov_io *lio,
138                            struct lov_io_sub *sub)
139 {
140         struct lov_object *lov = lio->lis_object;
141         struct lov_device *ld  = lu2lov_dev(lov2cl(lov)->co_lu.lo_dev);
142         struct cl_io      *sub_io;
143         struct cl_object  *sub_obj;
144         struct cl_io      *io  = lio->lis_cl.cis_io;
145
146         int stripe = sub->sub_stripe;
147         int result;
148
149         LASSERT(sub->sub_io == NULL);
150         LASSERT(sub->sub_env == NULL);
151         LASSERT(sub->sub_stripe < lio->lis_stripe_count);
152         ENTRY;
153
154         result = 0;
155         sub->sub_io_initialized = 0;
156         sub->sub_borrowed = 0;
157
158         if (lio->lis_mem_frozen) {
159                 LASSERT(mutex_is_locked(&ld->ld_mutex));
160                 sub->sub_io  = &ld->ld_emrg[stripe]->emrg_subio;
161                 sub->sub_env = ld->ld_emrg[stripe]->emrg_env;
162                 sub->sub_borrowed = 1;
163         } else {
164                 void *cookie;
165
166                 /* obtain new environment */
167                 cookie = cl_env_reenter();
168                 sub->sub_env = cl_env_get(&sub->sub_refcheck);
169                 cl_env_reexit(cookie);
170                 if (IS_ERR(sub->sub_env))
171                         result = PTR_ERR(sub->sub_env);
172
173                 if (result == 0) {
174                         /*
175                          * First sub-io. Use ->lis_single_subio to
176                          * avoid dynamic allocation.
177                          */
178                         if (lio->lis_active_subios == 0) {
179                                 sub->sub_io = &lio->lis_single_subio;
180                                 lio->lis_single_subio_index = stripe;
181                         } else {
182                                 OBD_ALLOC_PTR(sub->sub_io);
183                                 if (sub->sub_io == NULL)
184                                         result = -ENOMEM;
185                         }
186                 }
187         }
188
189         if (result == 0) {
190                 sub_obj = lovsub2cl(lov_r0(lov)->lo_sub[stripe]);
191                 sub_io  = sub->sub_io;
192
193                 sub_io->ci_obj    = sub_obj;
194                 sub_io->ci_result = 0;
195
196                 sub_io->ci_parent  = io;
197                 sub_io->ci_lockreq = io->ci_lockreq;
198                 sub_io->ci_type    = io->ci_type;
199                 sub_io->ci_no_srvlock = io->ci_no_srvlock;
200                 sub_io->ci_noatime = io->ci_noatime;
201
202                 lov_sub_enter(sub);
203                 result = cl_io_sub_init(sub->sub_env, sub_io,
204                                         io->ci_type, sub_obj);
205                 lov_sub_exit(sub);
206                 if (result >= 0) {
207                         lio->lis_active_subios++;
208                         sub->sub_io_initialized = 1;
209                         result = 0;
210                 }
211         }
212         if (result != 0)
213                 lov_io_sub_fini(env, lio, sub);
214         RETURN(result);
215 }
216
217 struct lov_io_sub *lov_sub_get(const struct lu_env *env,
218                                struct lov_io *lio, int stripe)
219 {
220         int rc;
221         struct lov_io_sub *sub = &lio->lis_subs[stripe];
222
223         LASSERT(stripe < lio->lis_stripe_count);
224         ENTRY;
225
226         if (!sub->sub_io_initialized) {
227                 sub->sub_stripe = stripe;
228                 rc = lov_io_sub_init(env, lio, sub);
229         } else
230                 rc = 0;
231         if (rc == 0)
232                 lov_sub_enter(sub);
233         else
234                 sub = ERR_PTR(rc);
235         RETURN(sub);
236 }
237
238 void lov_sub_put(struct lov_io_sub *sub)
239 {
240         lov_sub_exit(sub);
241 }
242
243 /*****************************************************************************
244  *
245  * Lov io operations.
246  *
247  */
248
249 static int lov_page_stripe(const struct cl_page *page)
250 {
251         struct lovsub_object *subobj;
252
253         ENTRY;
254         subobj = lu2lovsub(
255                 lu_object_locate(page->cp_child->cp_obj->co_lu.lo_header,
256                                  &lovsub_device_type));
257         LASSERT(subobj != NULL);
258         RETURN(subobj->lso_index);
259 }
260
261 struct lov_io_sub *lov_page_subio(const struct lu_env *env, struct lov_io *lio,
262                                   const struct cl_page_slice *slice)
263 {
264         struct lov_stripe_md *lsm  = lio->lis_object->lo_lsm;
265         struct cl_page       *page = slice->cpl_page;
266         int stripe;
267
268         LASSERT(lio->lis_cl.cis_io != NULL);
269         LASSERT(cl2lov(slice->cpl_obj) == lio->lis_object);
270         LASSERT(lsm != NULL);
271         LASSERT(lio->lis_nr_subios > 0);
272         ENTRY;
273
274         stripe = lov_page_stripe(page);
275         RETURN(lov_sub_get(env, lio, stripe));
276 }
277
278
279 static int lov_io_subio_init(const struct lu_env *env, struct lov_io *lio,
280                              struct cl_io *io)
281 {
282         struct lov_stripe_md *lsm;
283         int result;
284         ENTRY;
285
286         LASSERT(lio->lis_object != NULL);
287         lsm = lio->lis_object->lo_lsm;
288
289         /*
290          * Need to be optimized, we can't afford to allocate a piece of memory
291          * when writing a page. -jay
292          */
293         OBD_ALLOC_LARGE(lio->lis_subs,
294                         lsm->lsm_stripe_count * sizeof lio->lis_subs[0]);
295         if (lio->lis_subs != NULL) {
296                 lio->lis_nr_subios = lio->lis_stripe_count;
297                 lio->lis_single_subio_index = -1;
298                 lio->lis_active_subios = 0;
299                 result = 0;
300         } else
301                 result = -ENOMEM;
302         RETURN(result);
303 }
304
305 static void lov_io_slice_init(struct lov_io *lio,
306                               struct lov_object *obj, struct cl_io *io)
307 {
308         ENTRY;
309
310         io->ci_result = 0;
311         lio->lis_object = obj;
312
313         LASSERT(obj->lo_lsm != NULL);
314         lio->lis_stripe_count = obj->lo_lsm->lsm_stripe_count;
315
316         switch (io->ci_type) {
317         case CIT_READ:
318         case CIT_WRITE:
319                 lio->lis_pos = io->u.ci_rw.crw_pos;
320                 lio->lis_endpos = io->u.ci_rw.crw_pos + io->u.ci_rw.crw_count;
321                 lio->lis_io_endpos = lio->lis_endpos;
322                 if (cl_io_is_append(io)) {
323                         LASSERT(io->ci_type == CIT_WRITE);
324                         lio->lis_pos = 0;
325                         lio->lis_endpos = OBD_OBJECT_EOF;
326                 }
327                 break;
328
329         case CIT_SETATTR:
330                 if (cl_io_is_trunc(io))
331                         lio->lis_pos = io->u.ci_setattr.sa_attr.lvb_size;
332                 else
333                         lio->lis_pos = 0;
334                 lio->lis_endpos = OBD_OBJECT_EOF;
335                 break;
336
337         case CIT_FAULT: {
338                 pgoff_t index = io->u.ci_fault.ft_index;
339                 lio->lis_pos = cl_offset(io->ci_obj, index);
340                 lio->lis_endpos = cl_offset(io->ci_obj, index + 1);
341                 break;
342         }
343
344         case CIT_FSYNC: {
345                 lio->lis_pos = io->u.ci_fsync.fi_start;
346                 lio->lis_endpos = io->u.ci_fsync.fi_end;
347                 break;
348         }
349
350         case CIT_MISC:
351                 lio->lis_pos = 0;
352                 lio->lis_endpos = OBD_OBJECT_EOF;
353                 break;
354
355         default:
356                 LBUG();
357         }
358
359         EXIT;
360 }
361
362 static void lov_io_fini(const struct lu_env *env, const struct cl_io_slice *ios)
363 {
364         struct lov_io *lio = cl2lov_io(env, ios);
365         struct lov_object *lov = cl2lov(ios->cis_obj);
366         int i;
367
368         ENTRY;
369         if (lio->lis_subs != NULL) {
370                 for (i = 0; i < lio->lis_nr_subios; i++)
371                         lov_io_sub_fini(env, lio, &lio->lis_subs[i]);
372                 OBD_FREE_LARGE(lio->lis_subs,
373                          lio->lis_nr_subios * sizeof lio->lis_subs[0]);
374                 lio->lis_nr_subios = 0;
375         }
376
377         LASSERT(cfs_atomic_read(&lov->lo_active_ios) > 0);
378         if (cfs_atomic_dec_and_test(&lov->lo_active_ios))
379                 cfs_waitq_broadcast(&lov->lo_waitq);
380         EXIT;
381 }
382
383 static obd_off lov_offset_mod(obd_off val, int delta)
384 {
385         if (val != OBD_OBJECT_EOF)
386                 val += delta;
387         return val;
388 }
389
390 static int lov_io_iter_init(const struct lu_env *env,
391                             const struct cl_io_slice *ios)
392 {
393         struct lov_io        *lio = cl2lov_io(env, ios);
394         struct lov_stripe_md *lsm = lio->lis_object->lo_lsm;
395         struct lov_io_sub    *sub;
396         obd_off endpos;
397         obd_off start;
398         obd_off end;
399         int stripe;
400         int rc = 0;
401
402         ENTRY;
403         endpos = lov_offset_mod(lio->lis_endpos, -1);
404         for (stripe = 0; stripe < lio->lis_stripe_count; stripe++) {
405                 if (!lov_stripe_intersects(lsm, stripe, lio->lis_pos,
406                                            endpos, &start, &end))
407                         continue;
408
409                 end = lov_offset_mod(end, +1);
410                 sub = lov_sub_get(env, lio, stripe);
411                 if (!IS_ERR(sub)) {
412                         lov_io_sub_inherit(sub->sub_io, lio, stripe,
413                                            start, end);
414                         rc = cl_io_iter_init(sub->sub_env, sub->sub_io);
415                         lov_sub_put(sub);
416                         CDEBUG(D_VFSTRACE, "shrink: %d ["LPU64", "LPU64")\n",
417                                stripe, start, end);
418                 } else
419                         rc = PTR_ERR(sub);
420
421                 if (!rc)
422                         cfs_list_add_tail(&sub->sub_linkage, &lio->lis_active);
423                 else
424                         break;
425         }
426         RETURN(rc);
427 }
428
429 static int lov_io_rw_iter_init(const struct lu_env *env,
430                                const struct cl_io_slice *ios)
431 {
432         struct lov_io        *lio = cl2lov_io(env, ios);
433         struct cl_io         *io  = ios->cis_io;
434         struct lov_stripe_md *lsm = lio->lis_object->lo_lsm;
435         loff_t start = io->u.ci_rw.crw_pos;
436         loff_t next;
437         unsigned long ssize = lsm->lsm_stripe_size;
438
439         LASSERT(io->ci_type == CIT_READ || io->ci_type == CIT_WRITE);
440         ENTRY;
441
442         /* fast path for common case. */
443         if (lio->lis_nr_subios != 1 && !cl_io_is_append(io)) {
444
445                 lov_do_div64(start, ssize);
446                 next = (start + 1) * ssize;
447                 if (next <= start * ssize)
448                         next = ~0ull;
449
450                 io->ci_continue = next < lio->lis_io_endpos;
451                 io->u.ci_rw.crw_count = min_t(loff_t, lio->lis_io_endpos,
452                                               next) - io->u.ci_rw.crw_pos;
453                 lio->lis_pos    = io->u.ci_rw.crw_pos;
454                 lio->lis_endpos = io->u.ci_rw.crw_pos + io->u.ci_rw.crw_count;
455                 CDEBUG(D_VFSTRACE, "stripe: "LPU64" chunk: ["LPU64", "LPU64") "
456                        LPU64"\n", (__u64)start, lio->lis_pos, lio->lis_endpos,
457                        (__u64)lio->lis_io_endpos);
458         }
459         /*
460          * XXX The following call should be optimized: we know, that
461          * [lio->lis_pos, lio->lis_endpos) intersects with exactly one stripe.
462          */
463         RETURN(lov_io_iter_init(env, ios));
464 }
465
466 static int lov_io_call(const struct lu_env *env, struct lov_io *lio,
467                        int (*iofunc)(const struct lu_env *, struct cl_io *))
468 {
469         struct cl_io *parent = lio->lis_cl.cis_io;
470         struct lov_io_sub *sub;
471         int rc = 0;
472
473         ENTRY;
474         cfs_list_for_each_entry(sub, &lio->lis_active, sub_linkage) {
475                 lov_sub_enter(sub);
476                 rc = iofunc(sub->sub_env, sub->sub_io);
477                 lov_sub_exit(sub);
478                 if (rc)
479                         break;
480
481                 if (parent->ci_result == 0)
482                         parent->ci_result = sub->sub_io->ci_result;
483         }
484         RETURN(rc);
485 }
486
487 static int lov_io_lock(const struct lu_env *env, const struct cl_io_slice *ios)
488 {
489         ENTRY;
490         RETURN(lov_io_call(env, cl2lov_io(env, ios), cl_io_lock));
491 }
492
493 static int lov_io_start(const struct lu_env *env, const struct cl_io_slice *ios)
494 {
495         ENTRY;
496         RETURN(lov_io_call(env, cl2lov_io(env, ios), cl_io_start));
497 }
498
499 static int lov_io_end_wrapper(const struct lu_env *env, struct cl_io *io)
500 {
501         ENTRY;
502         /*
503          * It's possible that lov_io_start() wasn't called against this
504          * sub-io, either because previous sub-io failed, or upper layer
505          * completed IO.
506          */
507         if (io->ci_state == CIS_IO_GOING)
508                 cl_io_end(env, io);
509         else
510                 io->ci_state = CIS_IO_FINISHED;
511         RETURN(0);
512 }
513
514 static int lov_io_iter_fini_wrapper(const struct lu_env *env, struct cl_io *io)
515 {
516         cl_io_iter_fini(env, io);
517         RETURN(0);
518 }
519
520 static int lov_io_unlock_wrapper(const struct lu_env *env, struct cl_io *io)
521 {
522         cl_io_unlock(env, io);
523         RETURN(0);
524 }
525
526 static void lov_io_end(const struct lu_env *env, const struct cl_io_slice *ios)
527 {
528         int rc;
529
530         rc = lov_io_call(env, cl2lov_io(env, ios), lov_io_end_wrapper);
531         LASSERT(rc == 0);
532 }
533
534 static void lov_io_iter_fini(const struct lu_env *env,
535                              const struct cl_io_slice *ios)
536 {
537         struct lov_io *lio = cl2lov_io(env, ios);
538         int rc;
539
540         ENTRY;
541         rc = lov_io_call(env, lio, lov_io_iter_fini_wrapper);
542         LASSERT(rc == 0);
543         while (!cfs_list_empty(&lio->lis_active))
544                 cfs_list_del_init(lio->lis_active.next);
545         EXIT;
546 }
547
548 static void lov_io_unlock(const struct lu_env *env,
549                           const struct cl_io_slice *ios)
550 {
551         int rc;
552
553         ENTRY;
554         rc = lov_io_call(env, cl2lov_io(env, ios), lov_io_unlock_wrapper);
555         LASSERT(rc == 0);
556         EXIT;
557 }
558
559
560 static struct cl_page_list *lov_io_submit_qin(struct lov_device *ld,
561                                               struct cl_page_list *qin,
562                                               int idx, int alloc)
563 {
564         return alloc ? &qin[idx] : &ld->ld_emrg[idx]->emrg_page_list;
565 }
566
567 /**
568  * lov implementation of cl_operations::cio_submit() method. It takes a list
569  * of pages in \a queue, splits it into per-stripe sub-lists, invokes
570  * cl_io_submit() on underlying devices to submit sub-lists, and then splices
571  * everything back.
572  *
573  * Major complication of this function is a need to handle memory cleansing:
574  * cl_io_submit() is called to write out pages as a part of VM memory
575  * reclamation, and hence it may not fail due to memory shortages (system
576  * dead-locks otherwise). To deal with this, some resources (sub-lists,
577  * sub-environment, etc.) are allocated per-device on "startup" (i.e., in a
578  * not-memory cleansing context), and in case of memory shortage, these
579  * pre-allocated resources are used by lov_io_submit() under
580  * lov_device::ld_mutex mutex.
581  */
582 static int lov_io_submit(const struct lu_env *env,
583                          const struct cl_io_slice *ios,
584                          enum cl_req_type crt, struct cl_2queue *queue)
585 {
586         struct lov_io          *lio = cl2lov_io(env, ios);
587         struct lov_object      *obj = lio->lis_object;
588         struct lov_device       *ld = lu2lov_dev(lov2cl(obj)->co_lu.lo_dev);
589         struct cl_page_list    *qin = &queue->c2_qin;
590         struct cl_2queue      *cl2q = &lov_env_info(env)->lti_cl2q;
591         struct cl_page_list *stripes_qin = NULL;
592         struct cl_page *page;
593         struct cl_page *tmp;
594         int stripe;
595
596 #define QIN(stripe) lov_io_submit_qin(ld, stripes_qin, stripe, alloc)
597
598         int rc = 0;
599         int alloc =
600 #if defined(__KERNEL__) && defined(__linux__)
601                 !(current->flags & PF_MEMALLOC);
602 #else
603                 1;
604 #endif
605         ENTRY;
606         if (lio->lis_active_subios == 1) {
607                 int idx = lio->lis_single_subio_index;
608                 struct lov_io_sub *sub;
609
610                 LASSERT(idx < lio->lis_nr_subios);
611                 sub = lov_sub_get(env, lio, idx);
612                 LASSERT(!IS_ERR(sub));
613                 LASSERT(sub->sub_io == &lio->lis_single_subio);
614                 rc = cl_io_submit_rw(sub->sub_env, sub->sub_io,
615                                      crt, queue);
616                 lov_sub_put(sub);
617                 RETURN(rc);
618         }
619
620         LASSERT(lio->lis_subs != NULL);
621         if (alloc) {
622                 OBD_ALLOC_LARGE(stripes_qin,
623                                 sizeof(*stripes_qin) * lio->lis_nr_subios);
624                 if (stripes_qin == NULL)
625                         RETURN(-ENOMEM);
626
627                 for (stripe = 0; stripe < lio->lis_nr_subios; stripe++)
628                         cl_page_list_init(&stripes_qin[stripe]);
629         } else {
630                 /*
631                  * If we get here, it means pageout & swap doesn't help.
632                  * In order to not make things worse, even don't try to
633                  * allocate the memory with __GFP_NOWARN. -jay
634                  */
635                 mutex_lock(&ld->ld_mutex);
636                 lio->lis_mem_frozen = 1;
637         }
638
639         cl_2queue_init(cl2q);
640         cl_page_list_for_each_safe(page, tmp, qin) {
641                 stripe = lov_page_stripe(page);
642                 cl_page_list_move(QIN(stripe), qin, page);
643         }
644
645         for (stripe = 0; stripe < lio->lis_nr_subios; stripe++) {
646                 struct lov_io_sub   *sub;
647                 struct cl_page_list *sub_qin = QIN(stripe);
648
649                 if (cfs_list_empty(&sub_qin->pl_pages))
650                         continue;
651
652                 cl_page_list_splice(sub_qin, &cl2q->c2_qin);
653                 sub = lov_sub_get(env, lio, stripe);
654                 if (!IS_ERR(sub)) {
655                         rc = cl_io_submit_rw(sub->sub_env, sub->sub_io,
656                                              crt, cl2q);
657                         lov_sub_put(sub);
658                 } else
659                         rc = PTR_ERR(sub);
660                 cl_page_list_splice(&cl2q->c2_qin,  &queue->c2_qin);
661                 cl_page_list_splice(&cl2q->c2_qout, &queue->c2_qout);
662                 if (rc != 0)
663                         break;
664         }
665
666         for (stripe = 0; stripe < lio->lis_nr_subios; stripe++) {
667                 struct cl_page_list *sub_qin = QIN(stripe);
668
669                 if (cfs_list_empty(&sub_qin->pl_pages))
670                         continue;
671
672                 cl_page_list_splice(sub_qin, qin);
673         }
674
675         if (alloc) {
676                 OBD_FREE_LARGE(stripes_qin,
677                          sizeof(*stripes_qin) * lio->lis_nr_subios);
678         } else {
679                 int i;
680
681                 for (i = 0; i < lio->lis_nr_subios; i++) {
682                         struct cl_io *cio = lio->lis_subs[i].sub_io;
683
684                         if (cio && cio == &ld->ld_emrg[i]->emrg_subio)
685                                 lov_io_sub_fini(env, lio, &lio->lis_subs[i]);
686                 }
687                 lio->lis_mem_frozen = 0;
688                 mutex_unlock(&ld->ld_mutex);
689         }
690
691         RETURN(rc);
692 #undef QIN
693 }
694
695 static int lov_io_prepare_write(const struct lu_env *env,
696                                 const struct cl_io_slice *ios,
697                                 const struct cl_page_slice *slice,
698                                 unsigned from, unsigned to)
699 {
700         struct lov_io     *lio      = cl2lov_io(env, ios);
701         struct cl_page    *sub_page = lov_sub_page(slice);
702         struct lov_io_sub *sub;
703         int result;
704
705         ENTRY;
706         sub = lov_page_subio(env, lio, slice);
707         if (!IS_ERR(sub)) {
708                 result = cl_io_prepare_write(sub->sub_env, sub->sub_io,
709                                              sub_page, from, to);
710                 lov_sub_put(sub);
711         } else
712                 result = PTR_ERR(sub);
713         RETURN(result);
714 }
715
716 static int lov_io_commit_write(const struct lu_env *env,
717                                const struct cl_io_slice *ios,
718                                const struct cl_page_slice *slice,
719                                unsigned from, unsigned to)
720 {
721         struct lov_io     *lio      = cl2lov_io(env, ios);
722         struct cl_page    *sub_page = lov_sub_page(slice);
723         struct lov_io_sub *sub;
724         int result;
725
726         ENTRY;
727         sub = lov_page_subio(env, lio, slice);
728         if (!IS_ERR(sub)) {
729                 result = cl_io_commit_write(sub->sub_env, sub->sub_io,
730                                             sub_page, from, to);
731                 lov_sub_put(sub);
732         } else
733                 result = PTR_ERR(sub);
734         RETURN(result);
735 }
736
737 static int lov_io_fault_start(const struct lu_env *env,
738                               const struct cl_io_slice *ios)
739 {
740         struct cl_fault_io *fio;
741         struct lov_io      *lio;
742         struct lov_io_sub  *sub;
743
744         ENTRY;
745         fio = &ios->cis_io->u.ci_fault;
746         lio = cl2lov_io(env, ios);
747         sub = lov_sub_get(env, lio, lov_page_stripe(fio->ft_page));
748         sub->sub_io->u.ci_fault.ft_nob = fio->ft_nob;
749         lov_sub_put(sub);
750         RETURN(lov_io_start(env, ios));
751 }
752
753 static void lov_io_fsync_end(const struct lu_env *env,
754                              const struct cl_io_slice *ios)
755 {
756         struct lov_io *lio = cl2lov_io(env, ios);
757         struct lov_io_sub *sub;
758         unsigned int *written = &ios->cis_io->u.ci_fsync.fi_nr_written;
759         ENTRY;
760
761         *written = 0;
762         cfs_list_for_each_entry(sub, &lio->lis_active, sub_linkage) {
763                 struct cl_io *subio = sub->sub_io;
764
765                 lov_sub_enter(sub);
766                 lov_io_end_wrapper(sub->sub_env, subio);
767                 lov_sub_exit(sub);
768
769                 if (subio->ci_result == 0)
770                         *written += subio->u.ci_fsync.fi_nr_written;
771         }
772         RETURN_EXIT;
773 }
774
775 static const struct cl_io_operations lov_io_ops = {
776         .op = {
777                 [CIT_READ] = {
778                         .cio_fini      = lov_io_fini,
779                         .cio_iter_init = lov_io_rw_iter_init,
780                         .cio_iter_fini = lov_io_iter_fini,
781                         .cio_lock      = lov_io_lock,
782                         .cio_unlock    = lov_io_unlock,
783                         .cio_start     = lov_io_start,
784                         .cio_end       = lov_io_end
785                 },
786                 [CIT_WRITE] = {
787                         .cio_fini      = lov_io_fini,
788                         .cio_iter_init = lov_io_rw_iter_init,
789                         .cio_iter_fini = lov_io_iter_fini,
790                         .cio_lock      = lov_io_lock,
791                         .cio_unlock    = lov_io_unlock,
792                         .cio_start     = lov_io_start,
793                         .cio_end       = lov_io_end
794                 },
795                 [CIT_SETATTR] = {
796                         .cio_fini      = lov_io_fini,
797                         .cio_iter_init = lov_io_iter_init,
798                         .cio_iter_fini = lov_io_iter_fini,
799                         .cio_lock      = lov_io_lock,
800                         .cio_unlock    = lov_io_unlock,
801                         .cio_start     = lov_io_start,
802                         .cio_end       = lov_io_end
803                 },
804                 [CIT_FAULT] = {
805                         .cio_fini      = lov_io_fini,
806                         .cio_iter_init = lov_io_iter_init,
807                         .cio_iter_fini = lov_io_iter_fini,
808                         .cio_lock      = lov_io_lock,
809                         .cio_unlock    = lov_io_unlock,
810                         .cio_start     = lov_io_fault_start,
811                         .cio_end       = lov_io_end
812                 },
813                 [CIT_FSYNC] = {
814                         .cio_fini      = lov_io_fini,
815                         .cio_iter_init = lov_io_iter_init,
816                         .cio_iter_fini = lov_io_iter_fini,
817                         .cio_lock      = lov_io_lock,
818                         .cio_unlock    = lov_io_unlock,
819                         .cio_start     = lov_io_start,
820                         .cio_end       = lov_io_fsync_end
821                 },
822                 [CIT_MISC] = {
823                         .cio_fini   = lov_io_fini
824                 }
825         },
826         .req_op = {
827                  [CRT_READ] = {
828                          .cio_submit    = lov_io_submit
829                  },
830                  [CRT_WRITE] = {
831                          .cio_submit    = lov_io_submit
832                  }
833          },
834         .cio_prepare_write = lov_io_prepare_write,
835         .cio_commit_write  = lov_io_commit_write
836 };
837
838 /*****************************************************************************
839  *
840  * Empty lov io operations.
841  *
842  */
843
844 static void lov_empty_io_fini(const struct lu_env *env,
845                               const struct cl_io_slice *ios)
846 {
847         struct lov_object *lov = cl2lov(ios->cis_obj);
848         ENTRY;
849
850         if (cfs_atomic_dec_and_test(&lov->lo_active_ios))
851                 cfs_waitq_broadcast(&lov->lo_waitq);
852         EXIT;
853 }
854
855 static void lov_empty_impossible(const struct lu_env *env,
856                                  struct cl_io_slice *ios)
857 {
858         LBUG();
859 }
860
861 #define LOV_EMPTY_IMPOSSIBLE ((void *)lov_empty_impossible)
862
863 /**
864  * An io operation vector for files without stripes.
865  */
866 static const struct cl_io_operations lov_empty_io_ops = {
867         .op = {
868                 [CIT_READ] = {
869                         .cio_fini       = lov_empty_io_fini,
870 #if 0
871                         .cio_iter_init  = LOV_EMPTY_IMPOSSIBLE,
872                         .cio_lock       = LOV_EMPTY_IMPOSSIBLE,
873                         .cio_start      = LOV_EMPTY_IMPOSSIBLE,
874                         .cio_end        = LOV_EMPTY_IMPOSSIBLE
875 #endif
876                 },
877                 [CIT_WRITE] = {
878                         .cio_fini      = lov_empty_io_fini,
879                         .cio_iter_init = LOV_EMPTY_IMPOSSIBLE,
880                         .cio_lock      = LOV_EMPTY_IMPOSSIBLE,
881                         .cio_start     = LOV_EMPTY_IMPOSSIBLE,
882                         .cio_end       = LOV_EMPTY_IMPOSSIBLE
883                 },
884                 [CIT_SETATTR] = {
885                         .cio_fini      = lov_empty_io_fini,
886                         .cio_iter_init = LOV_EMPTY_IMPOSSIBLE,
887                         .cio_lock      = LOV_EMPTY_IMPOSSIBLE,
888                         .cio_start     = LOV_EMPTY_IMPOSSIBLE,
889                         .cio_end       = LOV_EMPTY_IMPOSSIBLE
890                 },
891                 [CIT_FAULT] = {
892                         .cio_fini      = lov_empty_io_fini,
893                         .cio_iter_init = LOV_EMPTY_IMPOSSIBLE,
894                         .cio_lock      = LOV_EMPTY_IMPOSSIBLE,
895                         .cio_start     = LOV_EMPTY_IMPOSSIBLE,
896                         .cio_end       = LOV_EMPTY_IMPOSSIBLE
897                 },
898                 [CIT_FSYNC] = {
899                         .cio_fini   = lov_empty_io_fini
900                 },
901                 [CIT_MISC] = {
902                         .cio_fini   = lov_empty_io_fini
903                 }
904         },
905         .req_op = {
906                  [CRT_READ] = {
907                          .cio_submit    = LOV_EMPTY_IMPOSSIBLE
908                  },
909                  [CRT_WRITE] = {
910                          .cio_submit    = LOV_EMPTY_IMPOSSIBLE
911                  }
912          },
913         .cio_commit_write = LOV_EMPTY_IMPOSSIBLE
914 };
915
916 int lov_io_init_raid0(const struct lu_env *env, struct cl_object *obj,
917                       struct cl_io *io)
918 {
919         struct lov_io       *lio = lov_env_io(env);
920         struct lov_object   *lov = cl2lov(obj);
921
922         ENTRY;
923         CFS_INIT_LIST_HEAD(&lio->lis_active);
924         lov_io_slice_init(lio, lov, io);
925         if (io->ci_result == 0) {
926                 io->ci_result = lov_io_subio_init(env, lio, io);
927                 if (io->ci_result == 0) {
928                         cl_io_slice_add(io, &lio->lis_cl, obj, &lov_io_ops);
929                         cfs_atomic_inc(&lov->lo_active_ios);
930                 }
931         }
932         RETURN(io->ci_result);
933 }
934
935 int lov_io_init_empty(const struct lu_env *env, struct cl_object *obj,
936                       struct cl_io *io)
937 {
938         struct lov_object *lov = cl2lov(obj);
939         struct lov_io *lio = lov_env_io(env);
940         int result;
941         ENTRY;
942
943         lio->lis_object = lov;
944         switch (io->ci_type) {
945         default:
946                 LBUG();
947         case CIT_MISC:
948         case CIT_READ:
949                 result = 0;
950                 break;
951         case CIT_FSYNC:
952         case CIT_SETATTR:
953                 result = +1;
954                 break;
955         case CIT_WRITE:
956                 result = -EBADF;
957                 break;
958         case CIT_FAULT:
959                 result = -EFAULT;
960                 CERROR("Page fault on a file without stripes: "DFID"\n",
961                        PFID(lu_object_fid(&obj->co_lu)));
962                 break;
963         }
964         if (result == 0) {
965                 cl_io_slice_add(io, &lio->lis_cl, obj, &lov_empty_io_ops);
966                 cfs_atomic_inc(&lov->lo_active_ios);
967         }
968
969         io->ci_result = result < 0 ? result : 0;
970         RETURN(result != 0);
971 }
972
973 int lov_io_init_released(const struct lu_env *env, struct cl_object *obj,
974                         struct cl_io *io)
975 {
976         struct lov_object *lov = cl2lov(obj);
977         struct lov_io *lio = lov_env_io(env);
978         int result;
979         ENTRY;
980
981         LASSERT(lov->lo_lsm != NULL);
982         lio->lis_object = lov;
983
984         switch (io->ci_type) {
985         default:
986                 LASSERTF(0, "invalid type %d\n", io->ci_type);
987         case CIT_MISC:
988         case CIT_FSYNC:
989                 result = 1;
990                 break;
991         case CIT_SETATTR:
992                 /* the truncate to 0 is managed by MDT:
993                  * - in open, for open O_TRUNC
994                  * - in setattr, for truncate
995                  */
996                 /* the truncate is for size > 0 so triggers a restore */
997                 if (cl_io_is_trunc(io))
998                         io->ci_restore_needed = 1;
999                 result = -ENODATA;
1000                 break;
1001         case CIT_READ:
1002         case CIT_WRITE:
1003         case CIT_FAULT:
1004                 io->ci_restore_needed = 1;
1005                 result = -ENODATA;
1006                 break;
1007         }
1008         if (result == 0) {
1009                 cl_io_slice_add(io, &lio->lis_cl, obj, &lov_empty_io_ops);
1010                 cfs_atomic_inc(&lov->lo_active_ios);
1011         }
1012
1013         io->ci_result = result < 0 ? result : 0;
1014         RETURN(result != 0);
1015 }
1016 /** @} lov */