Whamcloud - gitweb
LU-10855 llog: use llog_common_cat_ops
[fs/lustre-release.git] / lustre / osp / osp_internal.h
1 /*
2  * GPL HEADER START
3  *
4  * DO NOT ALTER OR REMOVE COPYRIGHT NOTICES OR THIS FILE HEADER.
5  *
6  * This program is free software; you can redistribute it and/or modify
7  * it under the terms of the GNU General Public License version 2 only,
8  * as published by the Free Software Foundation.
9  *
10  * This program is distributed in the hope that it will be useful, but
11  * WITHOUT ANY WARRANTY; without even the implied warranty of
12  * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
13  * General Public License version 2 for more details (a copy is included
14  * in the LICENSE file that accompanied this code).
15  *
16  * You should have received a copy of the GNU General Public License
17  * version 2 along with this program; If not, see
18  * http://www.gnu.org/licenses/gpl-2.0.html
19  *
20  * GPL HEADER END
21  */
22 /*
23  * Copyright (c) 2007, 2010, Oracle and/or its affiliates. All rights reserved.
24  * Use is subject to license terms.
25  *
26  * Copyright (c) 2012, 2017, Intel Corporation.
27  */
28 /*
29  * This file is part of Lustre, http://www.lustre.org/
30  * Lustre is a trademark of Sun Microsystems, Inc.
31  *
32  * lustre/osp/osp_internal.h
33  *
34  * Author: Alex Zhuravlev <alexey.zhuravlev@intel.com>
35  */
36
37 #ifndef _OSP_INTERNAL_H
38 #define _OSP_INTERNAL_H
39
40 #include <obd.h>
41 #include <obd_class.h>
42 #include <dt_object.h>
43 #include <md_object.h>
44 #include <lustre_fid.h>
45 #include <lustre_update.h>
46 #include <lu_target.h>
47 #include <lustre_mdc.h>
48
49 /*
50  * Infrastructure to support tracking of last committed llog record
51  */
52 struct osp_id_tracker {
53         spinlock_t               otr_lock;
54         __u64                    otr_next_id;
55         __u64                    otr_committed_id;
56         /* callback is register once per diskfs -- that's the whole point */
57         struct dt_txn_callback   otr_tx_cb;
58         /* single node can run many clusters */
59         struct list_head         otr_wakeup_list;
60         struct list_head         otr_list;
61         /* underlying shared device */
62         struct dt_device        *otr_dev;
63         /* how many users of this tracker */
64         atomic_t                 otr_refcount;
65 };
66
67 struct osp_precreate {
68         /*
69          * Precreation pool
70          */
71         spinlock_t                       osp_pre_lock;
72
73         /* last fid to assign in creation */
74         struct lu_fid                    osp_pre_used_fid;
75         /* last created id OST reported, next-created - available id's */
76         struct lu_fid                    osp_pre_last_created_fid;
77         /* how many ids are reserved in declare, we shouldn't block in create */
78         __u64                            osp_pre_reserved;
79         /* consumers (who needs new ids) wait here */
80         wait_queue_head_t                osp_pre_user_waitq;
81         /* current precreation status: working, failed, stopping? */
82         int                              osp_pre_status;
83         /* how many objects to precreate next time */
84         int                              osp_pre_create_count;
85         int                              osp_pre_min_create_count;
86         int                              osp_pre_max_create_count;
87         /* whether to increase precreation window next time or not */
88         int                              osp_pre_create_slow;
89         /* cleaning up orphans or recreating missing objects */
90         int                              osp_pre_recovering;
91 };
92
93 struct osp_update_request_sub {
94         struct object_update_request    *ours_req; /* may be vmalloc'd */
95         size_t                          ours_req_size;
96         /* Linked to osp_update_request->our_req_list */
97         struct list_head                ours_list;
98 };
99
100 struct osp_update_request {
101         int                             our_flags;
102         /* update request result */
103         int                             our_rc;
104
105         /* List of osp_update_request_sub */
106         struct list_head                our_req_list;
107         int                             our_req_nr;
108         int                             our_update_nr;
109
110         struct list_head                our_cb_items;
111         struct list_head                our_invalidate_cb_list;
112
113         /* points to thandle if this update request belongs to one */
114         struct osp_thandle              *our_th;
115
116         __u64                           our_version;
117         __u64                           our_generation;
118         /* protect our_list and flag */
119         spinlock_t                      our_list_lock;
120         /* linked to the list(ou_list) in osp_updates */
121         struct list_head                our_list;
122         __u32                           our_batchid;
123         __u32                           our_req_ready:1;
124
125 };
126
127 struct osp_updates {
128         struct list_head        ou_list;
129         spinlock_t              ou_lock;
130         wait_queue_head_t       ou_waitq;
131
132         /* The next rpc version which supposed to be sent in
133          * osp_send_update_thread().*/
134         __u64                   ou_rpc_version;
135
136         /* The rpc version assigned to the osp thandle during (osp_md_write()),
137          * which will be sent by this order. Note: the osp_thandle has be sent
138          * by this order to make sure the remote update log will follow the
139          * llog format rule. XXX: these probably should be removed once we
140          * invent new llog format */
141         __u64                   ou_version;
142
143         /* The generation of current osp update RPC, which is used to make sure
144          * those stale RPC(with older generation) will not be sent, otherwise it
145          * will cause update lllog corruption */
146         __u64                   ou_generation;
147 };
148
149 struct osp_device {
150         struct dt_device                 opd_dt_dev;
151         /* corresponded OST index */
152         int                              opd_index;
153
154         /* corrsponded MDT index, which will be used when connecting to OST
155          * for validating the connection (see ofd_parse_connect_data) */
156         int                              opd_group;
157         /* device used to store persistent state (llogs, last ids) */
158         struct obd_export               *opd_storage_exp;
159         struct dt_device                *opd_storage;
160         struct dt_object                *opd_last_used_oid_file;
161         struct dt_object                *opd_last_used_seq_file;
162
163         /* stored persistently in LE format, updated directly to/from disk
164          * and required le64_to_cpu() conversion before use.
165          * Protected by opd_pre_lock */
166         struct lu_fid                   opd_last_used_fid;
167         struct lu_fid                   opd_gap_start_fid;
168         int                              opd_gap_count;
169         /* connection to OST */
170         struct obd_device               *opd_obd;
171         struct obd_export               *opd_exp;
172         struct obd_uuid                  opd_cluuid;
173         struct obd_connect_data         *opd_connect_data;
174         int                              opd_connects;
175         /* connection status. */
176         unsigned int                     opd_new_connection:1,
177                                          opd_got_disconnected:1,
178                                          opd_imp_connected:1,
179                                          opd_imp_active:1,
180                                          opd_imp_seen_connected:1,
181                                          opd_connect_mdt:1;
182
183         /* whether local recovery is completed:
184          * reported via ->ldo_recovery_complete() */
185         int                              opd_recovery_completed;
186
187         /* precreate structure for OSP */
188         struct osp_precreate            *opd_pre;
189         /* dedicate precreate thread */
190         struct ptlrpc_thread             opd_pre_thread;
191         /* thread waits for signals about pool going empty */
192         wait_queue_head_t                opd_pre_waitq;
193
194         /* send update thread */
195         struct osp_updates              *opd_update;
196         /* dedicate update thread */
197         struct ptlrpc_thread             opd_update_thread;
198
199         /*
200          * OST synchronization thread
201          */
202         spinlock_t                       opd_sync_lock;
203         /* unique generation, to recognize start of new records in the llog */
204         struct llog_gen                  opd_sync_generation;
205         /* number of changes to sync, used to wake up sync thread */
206         atomic_t                         opd_sync_changes;
207         /* processing of changes from previous mount is done? */
208         int                              opd_sync_prev_done;
209         /* found records */
210         struct ptlrpc_thread             opd_sync_thread;
211         wait_queue_head_t                opd_sync_waitq;
212         /* list of in flight rpcs */
213         struct list_head                 opd_sync_in_flight_list;
214         /* list of remotely committed rpc */
215         struct list_head                 opd_sync_committed_there;
216         /* number of RPCs in flight - flow control */
217         atomic_t                         opd_sync_rpcs_in_flight;
218         int                              opd_sync_max_rpcs_in_flight;
219         /* number of RPC in processing (including non-committed by OST) */
220         atomic_t                         opd_sync_rpcs_in_progress;
221         int                              opd_sync_max_rpcs_in_progress;
222         /* osd api's commit cb control structure */
223         struct dt_txn_callback           opd_sync_txn_cb;
224         /* last used change number -- semantically similar to transno */
225         unsigned long                    opd_sync_last_used_id;
226         /* last committed change number -- semantically similar to
227          * last_committed */
228         __u64                            opd_sync_last_committed_id;
229         /* last processed catalog index */
230         int                              opd_sync_last_catalog_idx;
231         /* number of processed records */
232         atomic64_t                       opd_sync_processed_recs;
233         /* stop processing new requests until barrier=0 */
234         atomic_t                         opd_sync_barrier;
235         wait_queue_head_t                opd_sync_barrier_waitq;
236         /* last generated id */
237         ktime_t                          opd_sync_next_commit_cb;
238         atomic_t                         opd_commits_registered;
239
240         /*
241          * statfs related fields: OSP maintains it on its own
242          */
243         struct obd_statfs                opd_statfs;
244         ktime_t                          opd_statfs_fresh_till;
245         struct timer_list                opd_statfs_timer;
246         int                              opd_statfs_update_in_progress;
247         /* how often to update statfs data */
248         time64_t                         opd_statfs_maxage;
249
250         struct dentry                   *opd_debugfs;
251
252         /* If the caller wants to do some idempotent async operations on
253          * remote server, it can append the async remote requests on the
254          * osp_device::opd_async_requests via declare() functions, these
255          * requests can be packed together and sent to the remote server
256          * via single OUT RPC later. */
257         struct osp_update_request       *opd_async_requests;
258         /* Protect current operations on opd_async_requests. */
259         struct mutex                     opd_async_requests_mutex;
260         struct list_head                 opd_async_updates;
261         struct rw_semaphore              opd_async_updates_rwsem;
262         atomic_t                         opd_async_updates_count;
263
264         /*
265          * Limit the object allocation using ENOSPC for opd_pre_status
266          */
267         int                             opd_reserved_mb_high;
268         int                             opd_reserved_mb_low;
269 };
270
271 #define opd_pre_lock                    opd_pre->osp_pre_lock
272 #define opd_pre_used_fid                opd_pre->osp_pre_used_fid
273 #define opd_pre_last_created_fid        opd_pre->osp_pre_last_created_fid
274 #define opd_pre_reserved                opd_pre->osp_pre_reserved
275 #define opd_pre_user_waitq              opd_pre->osp_pre_user_waitq
276 #define opd_pre_status                  opd_pre->osp_pre_status
277 #define opd_pre_create_count            opd_pre->osp_pre_create_count
278 #define opd_pre_min_create_count        opd_pre->osp_pre_min_create_count
279 #define opd_pre_max_create_count        opd_pre->osp_pre_max_create_count
280 #define opd_pre_create_slow             opd_pre->osp_pre_create_slow
281 #define opd_pre_recovering              opd_pre->osp_pre_recovering
282
283 extern struct kmem_cache *osp_object_kmem;
284
285 /* The first part of oxe_buf is xattr name, and is '\0' terminated.
286  * The left part is for value, binary mode. */
287 struct osp_xattr_entry {
288         struct list_head         oxe_list;
289         atomic_t                 oxe_ref;
290         void                    *oxe_value;
291         size_t                   oxe_buflen;
292         size_t                   oxe_namelen;
293         size_t                   oxe_vallen;
294         unsigned int             oxe_exist:1,
295                                  oxe_ready:1;
296         char                     oxe_buf[0];
297 };
298
299 /* this is a top object */
300 struct osp_object {
301         struct lu_object_header opo_header;
302         struct dt_object        opo_obj;
303         unsigned int            opo_reserved:1,
304                                 opo_non_exist:1,
305                                 opo_stale:1;
306
307         /* read/write lock for md osp object */
308         struct rw_semaphore     opo_sem;
309         const struct lu_env     *opo_owner;
310         struct lu_attr          opo_attr;
311         struct list_head        opo_xattr_list;
312         struct list_head        opo_invalidate_cb_list;
313         /* Protect opo_ooa. */
314         spinlock_t              opo_lock;
315 };
316
317 extern struct lu_object_operations osp_lu_obj_ops;
318 extern const struct dt_device_operations osp_dt_ops;
319 extern struct dt_object_operations osp_md_obj_ops;
320 extern struct dt_body_operations osp_md_body_ops;
321
322 struct osp_thread_info {
323         struct lu_buf            osi_lb;
324         struct lu_buf            osi_lb2;
325         struct lu_fid            osi_fid;
326         struct lu_attr           osi_attr;
327         struct ost_id            osi_oi;
328         struct ost_id            osi_oi2;
329         u64                      osi_id;
330         loff_t                   osi_off;
331         union {
332                 struct llog_rec_hdr             osi_hdr;
333                 struct llog_unlink64_rec        osi_unlink;
334                 struct llog_setattr64_rec_v2    osi_setattr;
335                 struct llog_gen_rec             osi_gen;
336         };
337         struct llog_cookie       osi_cookie;
338         struct llog_catid        osi_cid;
339         struct lu_seq_range      osi_seq;
340         struct ldlm_res_id       osi_resid;
341         struct obdo              osi_obdo;
342 };
343
344 /* Iterator for OSP */
345 struct osp_it {
346         __u32                     ooi_pos_page;
347         __u32                     ooi_pos_lu_page;
348         __u32                     ooi_attr;
349         __u32                     ooi_rec_size;
350         int                       ooi_pos_ent;
351         int                       ooi_total_npages;
352         int                       ooi_valid_npages;
353         unsigned int              ooi_swab:1;
354         __u64                     ooi_next;
355         struct dt_object         *ooi_obj;
356         void                     *ooi_ent;
357         struct page              *ooi_cur_page;
358         struct lu_idxpage        *ooi_cur_idxpage;
359         struct page              **ooi_pages;
360 };
361
362 #define OSP_THANDLE_MAGIC       0x20141214
363 struct osp_thandle {
364         struct thandle           ot_super;
365
366         /* OSP will use this thandle to update last oid*/
367         struct thandle          *ot_storage_th;
368         __u32                    ot_magic;
369         struct list_head         ot_commit_dcb_list;
370         struct list_head         ot_stop_dcb_list;
371         struct osp_update_request *ot_our;
372         atomic_t                 ot_refcount;
373 };
374
375 static inline struct osp_thandle *
376 thandle_to_osp_thandle(struct thandle *th)
377 {
378         return container_of(th, struct osp_thandle, ot_super);
379 }
380
381 static inline struct osp_update_request *
382 thandle_to_osp_update_request(struct thandle *th)
383 {
384         struct osp_thandle *oth;
385
386         oth = thandle_to_osp_thandle(th);
387         return oth->ot_our;
388 }
389
390 /* The transaction only include the updates on the remote node, and
391  * no local updates at all */
392 static inline bool is_only_remote_trans(struct thandle *th)
393 {
394         return th->th_top == NULL;
395 }
396
397 static inline void osp_objid_buf_prep(struct lu_buf *buf, loff_t *off,
398                                       __u64 *id, int index)
399 {
400         /* Note: through id is only 32 bits, it will also write 64 bits
401          * for oid to keep compatibility with the previous version. */
402         buf->lb_buf = (void *)id;
403         buf->lb_len = sizeof(u64);
404         *off = sizeof(u64) * index;
405 }
406
407 static inline void osp_objseq_buf_prep(struct lu_buf *buf, loff_t *off,
408                                        __u64 *seq, int index)
409 {
410         buf->lb_buf = (void *)seq;
411         buf->lb_len = sizeof(u64);
412         *off = sizeof(u64) * index;
413 }
414
415 static inline void osp_buf_prep(struct lu_buf *lb, void *buf, int buf_len)
416 {
417         lb->lb_buf = buf;
418         lb->lb_len = buf_len;
419 }
420
421 extern struct lu_context_key osp_thread_key;
422
423 static inline struct osp_thread_info *osp_env_info(const struct lu_env *env)
424 {
425         struct osp_thread_info *info;
426
427         info = lu_context_key_get(&env->le_ctx, &osp_thread_key);
428         if (info == NULL) {
429                 lu_env_refill((struct lu_env *)env);
430                 info = lu_context_key_get(&env->le_ctx, &osp_thread_key);
431         }
432         LASSERT(info);
433         return info;
434 }
435
436 struct osp_txn_info {
437         __u64   oti_current_id;
438 };
439
440 extern struct lu_context_key osp_txn_key;
441
442 static inline struct osp_txn_info *osp_txn_info(struct lu_context *ctx)
443 {
444         struct osp_txn_info *info;
445
446         info = lu_context_key_get(ctx, &osp_txn_key);
447         return info;
448 }
449
450 extern const struct lu_device_operations osp_lu_ops;
451
452 static inline int lu_device_is_osp(struct lu_device *d)
453 {
454         return ergo(d != NULL && d->ld_ops != NULL, d->ld_ops == &osp_lu_ops);
455 }
456
457 static inline struct osp_device *lu2osp_dev(struct lu_device *d)
458 {
459         LASSERT(lu_device_is_osp(d));
460         return container_of0(d, struct osp_device, opd_dt_dev.dd_lu_dev);
461 }
462
463 static inline struct lu_device *osp2lu_dev(struct osp_device *d)
464 {
465         return &d->opd_dt_dev.dd_lu_dev;
466 }
467
468 static inline struct osp_device *dt2osp_dev(struct dt_device *d)
469 {
470         LASSERT(lu_device_is_osp(&d->dd_lu_dev));
471         return container_of0(d, struct osp_device, opd_dt_dev);
472 }
473
474 static inline struct osp_object *lu2osp_obj(struct lu_object *o)
475 {
476         LASSERT(ergo(o != NULL, lu_device_is_osp(o->lo_dev)));
477         return container_of0(o, struct osp_object, opo_obj.do_lu);
478 }
479
480 static inline struct lu_object *osp2lu_obj(struct osp_object *obj)
481 {
482         return &obj->opo_obj.do_lu;
483 }
484
485 static inline struct osp_object *osp_obj(const struct lu_object *o)
486 {
487         LASSERT(lu_device_is_osp(o->lo_dev));
488         return container_of0(o, struct osp_object, opo_obj.do_lu);
489 }
490
491 static inline struct osp_object *dt2osp_obj(const struct dt_object *d)
492 {
493         return osp_obj(&d->do_lu);
494 }
495
496 static inline struct dt_object *osp_object_child(struct osp_object *o)
497 {
498         return container_of0(lu_object_next(osp2lu_obj(o)),
499                              struct dt_object, do_lu);
500 }
501
502 static inline struct seq_server_site *osp_seq_site(struct osp_device *osp)
503 {
504         return osp->opd_dt_dev.dd_lu_dev.ld_site->ld_seq_site;
505 }
506
507 #define osp_init_rpc_lock(lck) mdc_init_rpc_lock(lck)
508
509 static inline void osp_get_rpc_lock(struct osp_device *osp)
510 {
511         struct mdc_rpc_lock *rpc_lock = osp->opd_obd->u.cli.cl_rpc_lock;
512
513         mdc_get_rpc_lock(rpc_lock, NULL);
514 }
515
516 static inline void osp_put_rpc_lock(struct osp_device *osp)
517 {
518         struct mdc_rpc_lock *rpc_lock = osp->opd_obd->u.cli.cl_rpc_lock;
519
520         mdc_put_rpc_lock(rpc_lock, NULL);
521 }
522
523 static inline int osp_fid_diff(const struct lu_fid *fid1,
524                                const struct lu_fid *fid2)
525 {
526         /* In 2.6+ ost_idx is packed into IDIF FID, while in 2.4 and 2.5 IDIF
527          * is always FID_SEQ_IDIF(0x100000000ULL), which does not include OST
528          * index in the seq. So we can not compare IDIF FID seq here */
529         if (fid_is_idif(fid1) && fid_is_idif(fid2)) {
530                 __u32 ost_idx1 = fid_idif_ost_idx(fid1);
531                 __u32 ost_idx2 = fid_idif_ost_idx(fid2);
532
533                 LASSERTF(ost_idx1 == 0 || ost_idx2 == 0 || ost_idx1 == ost_idx2,
534                          "fid1: "DFID", fid2: "DFID"\n", PFID(fid1),
535                          PFID(fid2));
536
537                 return fid_idif_id(fid1->f_seq, fid1->f_oid, 0) -
538                        fid_idif_id(fid2->f_seq, fid2->f_oid, 0);
539         }
540
541         LASSERTF(fid_seq(fid1) == fid_seq(fid2), "fid1:"DFID
542                  ", fid2:"DFID"\n", PFID(fid1), PFID(fid2));
543
544         return fid_oid(fid1) - fid_oid(fid2);
545 }
546
547
548 static inline void osp_update_last_fid(struct osp_device *d, struct lu_fid *fid)
549 {
550         int diff = osp_fid_diff(fid, &d->opd_last_used_fid);
551         struct lu_fid *gap_start = &d->opd_gap_start_fid;
552         /*
553          * we might have lost precreated objects due to VBR and precreate
554          * orphans, the gap in objid can be calculated properly only here
555          */
556         if (diff > 0) {
557                 if (diff > 1) {
558                         d->opd_gap_start_fid = d->opd_last_used_fid;
559                         if (fid_oid(gap_start) == LUSTRE_DATA_SEQ_MAX_WIDTH) {
560                                 gap_start->f_seq++;
561                                 gap_start->f_oid = fid_is_idif(gap_start) ?
562                                                                0 : 1;
563                         } else {
564                                 gap_start->f_oid++;
565                         }
566                         d->opd_gap_count = diff - 1;
567                         CDEBUG(D_HA, "Gap in objids: start="DFID", count =%d\n",
568                                PFID(&d->opd_gap_start_fid), d->opd_gap_count);
569                 }
570                 d->opd_last_used_fid = *fid;
571         }
572 }
573
574 static int osp_fid_end_seq(const struct lu_env *env, struct lu_fid *fid)
575 {
576         if (fid_is_idif(fid)) {
577                 struct osp_thread_info *info = osp_env_info(env);
578                 struct ost_id *oi = &info->osi_oi;
579
580                 fid_to_ostid(fid, oi);
581                 return ostid_id(oi) == IDIF_MAX_OID;
582         } else {
583                 return fid_oid(fid) == LUSTRE_DATA_SEQ_MAX_WIDTH;
584         }
585 }
586
587 static inline int osp_precreate_end_seq_nolock(const struct lu_env *env,
588                                                struct osp_device *osp)
589 {
590         struct lu_fid *fid = &osp->opd_pre_last_created_fid;
591
592         return osp_fid_end_seq(env, fid);
593 }
594
595 static inline int osp_precreate_end_seq(const struct lu_env *env,
596                                         struct osp_device *osp)
597 {
598         int rc;
599
600         spin_lock(&osp->opd_pre_lock);
601         rc = osp_precreate_end_seq_nolock(env, osp);
602         spin_unlock(&osp->opd_pre_lock);
603         return rc;
604 }
605
606 static inline int osp_is_fid_client(struct osp_device *osp)
607 {
608         struct obd_import *imp = osp->opd_obd->u.cli.cl_import;
609
610         return imp->imp_connect_data.ocd_connect_flags & OBD_CONNECT_FID;
611 }
612
613 struct object_update *
614 update_buffer_get_update(struct object_update_request *request,
615                          unsigned int index);
616
617 int osp_extend_update_buffer(const struct lu_env *env,
618                              struct osp_update_request *our);
619
620 struct osp_update_request_sub *
621 osp_current_object_update_request(struct osp_update_request *our);
622
623 int osp_object_update_request_create(struct osp_update_request *our,
624                                      size_t size);
625
626 #define osp_update_rpc_pack(env, name, our, op, ...)                    \
627 ({                                                                      \
628         struct object_update    *object_update;                         \
629         size_t                  max_update_length;                      \
630         struct osp_update_request_sub *ours;                            \
631         int ret;                                                        \
632                                                                         \
633         while (1) {                                                     \
634                 ours = osp_current_object_update_request(our);          \
635                 LASSERT(ours != NULL);                                  \
636                 max_update_length = ours->ours_req_size -               \
637                             object_update_request_size(ours->ours_req); \
638                                                                         \
639                 object_update = update_buffer_get_update(ours->ours_req,\
640                                          ours->ours_req->ourq_count);   \
641                 ret = out_##name##_pack(env, object_update,             \
642                                         &max_update_length,             \
643                                        __VA_ARGS__);                    \
644                 if (ret == -E2BIG) {                                    \
645                         int rc1;                                        \
646                         /* Create new object update request */          \
647                         rc1 = osp_object_update_request_create(our,     \
648                                 max_update_length  +                    \
649                                 offsetof(struct object_update_request,  \
650                                          ourq_updates[0]) + 1);         \
651                         if (rc1 != 0) {                                 \
652                                 ret = rc1;                              \
653                                 break;                                  \
654                         }                                               \
655                         continue;                                       \
656                 } else {                                                \
657                         if (ret == 0) {                                 \
658                                 ours->ours_req->ourq_count++;           \
659                                 (our)->our_update_nr++;                 \
660                                 object_update->ou_batchid =             \
661                                                      (our)->our_batchid;\
662                                 object_update->ou_flags |=              \
663                                                      (our)->our_flags;  \
664                         }                                               \
665                         break;                                          \
666                 }                                                       \
667         }                                                               \
668         ret;                                                            \
669 })
670
671 static inline bool osp_send_update_thread_running(struct osp_device *osp)
672 {
673         return osp->opd_update_thread.t_flags & SVC_RUNNING;
674 }
675
676 static inline bool osp_send_update_thread_stopped(struct osp_device *osp)
677 {
678         return osp->opd_update_thread.t_flags & SVC_STOPPED;
679 }
680
681 typedef int (*osp_update_interpreter_t)(const struct lu_env *env,
682                                         struct object_update_reply *rep,
683                                         struct ptlrpc_request *req,
684                                         struct osp_object *obj,
685                                         void *data, int index, int rc);
686
687 /* osp_dev.c */
688 void osp_update_last_id(struct osp_device *d, u64 objid);
689
690 /* osp_trans.c */
691 int osp_insert_async_request(const struct lu_env *env, enum update_type op,
692                              struct osp_object *obj, int count, __u16 *lens,
693                              const void **bufs, void *data, __u32 repsize,
694                              osp_update_interpreter_t interpreter);
695
696 int osp_unplug_async_request(const struct lu_env *env,
697                              struct osp_device *osp,
698                              struct osp_update_request *update);
699 int osp_trans_update_request_create(struct thandle *th);
700 struct thandle *osp_trans_create(const struct lu_env *env,
701                                  struct dt_device *d);
702 int osp_trans_start(const struct lu_env *env, struct dt_device *dt,
703                     struct thandle *th);
704 int osp_insert_update_callback(const struct lu_env *env,
705                                struct osp_update_request *update,
706                                struct osp_object *obj, void *data,
707                                osp_update_interpreter_t interpreter);
708
709 struct osp_update_request *osp_update_request_create(struct dt_device *dt);
710 void osp_update_request_destroy(const struct lu_env *env,
711                                 struct osp_update_request *update);
712
713 int osp_send_update_thread(void *arg);
714 int osp_check_and_set_rpc_version(struct osp_thandle *oth,
715                                   struct osp_object *obj);
716
717 void osp_thandle_destroy(const struct lu_env *env, struct osp_thandle *oth);
718 static inline void osp_thandle_get(struct osp_thandle *oth)
719 {
720         atomic_inc(&oth->ot_refcount);
721 }
722
723 static inline void osp_thandle_put(const struct lu_env *env,
724                                    struct osp_thandle *oth)
725 {
726         if (atomic_dec_and_test(&oth->ot_refcount))
727                 osp_thandle_destroy(env, oth);
728 }
729
730 int osp_prep_update_req(const struct lu_env *env, struct obd_import *imp,
731                         struct osp_update_request *our,
732                         struct ptlrpc_request **reqp);
733 int osp_remote_sync(const struct lu_env *env, struct osp_device *osp,
734                     struct osp_update_request *update,
735                     struct ptlrpc_request **reqp);
736
737 struct thandle *osp_get_storage_thandle(const struct lu_env *env,
738                                         struct thandle *th,
739                                         struct osp_device *osp);
740 void osp_trans_callback(const struct lu_env *env,
741                         struct osp_thandle *oth, int rc);
742 void osp_invalidate_request(struct osp_device *osp);
743 /* osp_object.c */
744 int osp_attr_get(const struct lu_env *env, struct dt_object *dt,
745                  struct lu_attr *attr);
746 int osp_xattr_get(const struct lu_env *env, struct dt_object *dt,
747                   struct lu_buf *buf, const char *name);
748 int osp_declare_xattr_set(const struct lu_env *env, struct dt_object *dt,
749                           const struct lu_buf *buf, const char *name,
750                           int flag, struct thandle *th);
751 int osp_xattr_set(const struct lu_env *env, struct dt_object *dt,
752                   const struct lu_buf *buf, const char *name, int fl,
753                   struct thandle *th);
754 int osp_declare_xattr_del(const struct lu_env *env, struct dt_object *dt,
755                           const char *name, struct thandle *th);
756 int osp_xattr_del(const struct lu_env *env, struct dt_object *dt,
757                   const char *name, struct thandle *th);
758 int osp_invalidate(const struct lu_env *env, struct dt_object *dt);
759 void osp_obj_invalidate_cache(struct osp_object *obj);
760
761 int osp_trans_stop(const struct lu_env *env, struct dt_device *dt,
762                    struct thandle *th);
763 int osp_trans_cb_add(struct thandle *th, struct dt_txn_commit_cb *dcb);
764
765 struct dt_it *osp_it_init(const struct lu_env *env, struct dt_object *dt,
766                           __u32 attr);
767 void osp_it_fini(const struct lu_env *env, struct dt_it *di);
768 int osp_it_get(const struct lu_env *env, struct dt_it *di,
769                const struct dt_key *key);
770 void osp_it_put(const struct lu_env *env, struct dt_it *di);
771 __u64 osp_it_store(const struct lu_env *env, const struct dt_it *di);
772 int osp_it_key_rec(const struct lu_env *env, const struct dt_it *di,
773                    void *key_rec);
774 int osp_it_next_page(const struct lu_env *env, struct dt_it *di);
775 /* osp_md_object.c */
776 int osp_md_declare_create(const struct lu_env *env, struct dt_object *dt,
777                           struct lu_attr *attr, struct dt_allocation_hint *hint,
778                           struct dt_object_format *dof, struct thandle *th);
779 int osp_md_create(const struct lu_env *env, struct dt_object *dt,
780                   struct lu_attr *attr, struct dt_allocation_hint *hint,
781                   struct dt_object_format *dof, struct thandle *th);
782 int osp_md_declare_attr_set(const struct lu_env *env, struct dt_object *dt,
783                             const struct lu_attr *attr, struct thandle *th);
784 int osp_md_attr_set(const struct lu_env *env, struct dt_object *dt,
785                     const struct lu_attr *attr, struct thandle *th);
786 extern const struct dt_index_operations osp_md_index_ops;
787
788 /* osp_precreate.c */
789 int osp_init_precreate(struct osp_device *d);
790 int osp_precreate_reserve(const struct lu_env *env, struct osp_device *d);
791 __u64 osp_precreate_get_id(struct osp_device *d);
792 int osp_precreate_get_fid(const struct lu_env *env, struct osp_device *d,
793                           struct lu_fid *fid);
794 void osp_precreate_fini(struct osp_device *d);
795 int osp_object_truncate(const struct lu_env *env, struct dt_object *dt, __u64);
796 void osp_pre_update_status(struct osp_device *d, int rc);
797 void osp_statfs_need_now(struct osp_device *d);
798 int osp_reset_last_used(const struct lu_env *env, struct osp_device *osp);
799 int osp_write_last_oid_seq_files(struct lu_env *env, struct osp_device *osp,
800                                  struct lu_fid *fid, int sync);
801 int osp_init_pre_fid(struct osp_device *osp);
802
803 /* lproc_osp.c */
804 void osp_tunables_init(struct osp_device *osp);
805 void osp_tunables_fini(struct osp_device *osp);
806
807 /* osp_sync.c */
808 int osp_sync_declare_add(const struct lu_env *env, struct osp_object *o,
809                          enum llog_op_type type, struct thandle *th);
810 int osp_sync_add(const struct lu_env *env, struct osp_object *o,
811                  enum llog_op_type type, struct thandle *th,
812                  const struct lu_attr *attr);
813 int osp_sync_init(const struct lu_env *env, struct osp_device *d);
814 int osp_sync_fini(struct osp_device *d);
815 void osp_sync_check_for_work(struct osp_device *osp);
816 void osp_sync_force(const struct lu_env *env, struct osp_device *d);
817 int osp_sync_add_commit_cb_1s(const struct lu_env *env, struct osp_device *d,
818                               struct thandle *th);
819
820 /* lwp_dev.c */
821 extern struct obd_ops lwp_obd_device_ops;
822 extern struct lu_device_type lwp_device_type;
823
824 static inline struct lu_device *osp2top(const struct osp_device *osp)
825 {
826         return osp->opd_dt_dev.dd_lu_dev.ld_site->ls_top_dev;
827 }
828
829 static inline void osp_set_req_replay(const struct osp_device *osp,
830                                       struct ptlrpc_request *req)
831 {
832         struct obd_device *obd = osp2top(osp)->ld_obd;
833
834         /* The RPC must be recovery related for the cases:
835          *
836          * 1. sent during recovery, or
837          * 2. sent before the recovery thread target_recovery_thread() start,
838          *    such as triggered by lod_sub_recovery_thread(). */
839         if (obd->obd_recovering || (obd->obd_replayable && obd->obd_no_conn))
840                 req->rq_allow_replay = 1;
841 }
842
843 #endif