Whamcloud - gitweb
LU-11803 obd: replace class_uuid with linux kernel version.
[fs/lustre-release.git] / lustre / osp / osp_internal.h
1 /*
2  * GPL HEADER START
3  *
4  * DO NOT ALTER OR REMOVE COPYRIGHT NOTICES OR THIS FILE HEADER.
5  *
6  * This program is free software; you can redistribute it and/or modify
7  * it under the terms of the GNU General Public License version 2 only,
8  * as published by the Free Software Foundation.
9  *
10  * This program is distributed in the hope that it will be useful, but
11  * WITHOUT ANY WARRANTY; without even the implied warranty of
12  * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
13  * General Public License version 2 for more details (a copy is included
14  * in the LICENSE file that accompanied this code).
15  *
16  * You should have received a copy of the GNU General Public License
17  * version 2 along with this program; If not, see
18  * http://www.gnu.org/licenses/gpl-2.0.html
19  *
20  * GPL HEADER END
21  */
22 /*
23  * Copyright (c) 2007, 2010, Oracle and/or its affiliates. All rights reserved.
24  * Use is subject to license terms.
25  *
26  * Copyright (c) 2012, 2017, Intel Corporation.
27  */
28 /*
29  * This file is part of Lustre, http://www.lustre.org/
30  * Lustre is a trademark of Sun Microsystems, Inc.
31  *
32  * lustre/osp/osp_internal.h
33  *
34  * Author: Alex Zhuravlev <alexey.zhuravlev@intel.com>
35  */
36
37 #ifndef _OSP_INTERNAL_H
38 #define _OSP_INTERNAL_H
39
40 #include <obd.h>
41 #include <obd_class.h>
42 #include <dt_object.h>
43 #include <md_object.h>
44 #include <lustre_fid.h>
45 #include <lustre_update.h>
46 #include <lu_target.h>
47
48 /*
49  * Infrastructure to support tracking of last committed llog record
50  */
51 struct osp_id_tracker {
52         spinlock_t               otr_lock;
53         __u64                    otr_next_id;
54         __u64                    otr_committed_id;
55         /* callback is register once per diskfs -- that's the whole point */
56         struct dt_txn_callback   otr_tx_cb;
57         /* single node can run many clusters */
58         struct list_head         otr_wakeup_list;
59         struct list_head         otr_list;
60         /* underlying shared device */
61         struct dt_device        *otr_dev;
62         /* how many users of this tracker */
63         atomic_t                 otr_refcount;
64 };
65
66 struct osp_precreate {
67         /*
68          * Precreation pool
69          */
70
71         /* last fid to assign in creation */
72         struct lu_fid                    osp_pre_used_fid;
73         /* last created id OST reported, next-created - available id's */
74         struct lu_fid                    osp_pre_last_created_fid;
75         /* how many ids are reserved in declare, we shouldn't block in create */
76         __u64                            osp_pre_reserved;
77         /* consumers (who needs new ids) wait here */
78         wait_queue_head_t                osp_pre_user_waitq;
79         /* current precreation status: working, failed, stopping? */
80         int                              osp_pre_status;
81         /* how many objects to precreate next time */
82         int                              osp_pre_create_count;
83         int                              osp_pre_min_create_count;
84         int                              osp_pre_max_create_count;
85         /* whether to increase precreation window next time or not */
86         int                              osp_pre_create_slow;
87         /* cleaning up orphans or recreating missing objects */
88         int                              osp_pre_recovering;
89 };
90
91 struct osp_update_request_sub {
92         struct object_update_request    *ours_req; /* may be vmalloc'd */
93         size_t                          ours_req_size;
94         /* Linked to osp_update_request->our_req_list */
95         struct list_head                ours_list;
96 };
97
98 struct osp_update_request {
99         int                             our_flags;
100         /* update request result */
101         int                             our_rc;
102
103         /* List of osp_update_request_sub */
104         struct list_head                our_req_list;
105         int                             our_req_nr;
106         int                             our_update_nr;
107
108         struct list_head                our_cb_items;
109         struct list_head                our_invalidate_cb_list;
110
111         /* points to thandle if this update request belongs to one */
112         struct osp_thandle              *our_th;
113
114         __u64                           our_version;
115         __u64                           our_generation;
116         /* protect our_list and flag */
117         spinlock_t                      our_list_lock;
118         /* linked to the list(ou_list) in osp_updates */
119         struct list_head                our_list;
120         __u32                           our_batchid;
121         __u32                           our_req_ready:1;
122
123 };
124
125 struct osp_updates {
126         struct list_head        ou_list;
127         spinlock_t              ou_lock;
128         wait_queue_head_t       ou_waitq;
129
130         /* The next rpc version which supposed to be sent in
131          * osp_send_update_thread().*/
132         __u64                   ou_rpc_version;
133
134         /* The rpc version assigned to the osp thandle during (osp_md_write()),
135          * which will be sent by this order. Note: the osp_thandle has be sent
136          * by this order to make sure the remote update log will follow the
137          * llog format rule. XXX: these probably should be removed once we
138          * invent new llog format */
139         __u64                   ou_version;
140
141         /* The generation of current osp update RPC, which is used to make sure
142          * those stale RPC(with older generation) will not be sent, otherwise it
143          * will cause update lllog corruption */
144         __u64                   ou_generation;
145 };
146
147 struct osp_rpc_lock {
148         /** Lock protecting in-flight RPC concurrency. */
149         struct mutex            rpcl_mutex;
150         /** Used for MDS/RPC load testing purposes. */
151         unsigned int            rpcl_fakes;
152 };
153
154 struct osp_device {
155         struct dt_device                 opd_dt_dev;
156         /* corresponded OST index */
157         int                              opd_index;
158
159         /* corrsponded MDT index, which will be used when connecting to OST
160          * for validating the connection (see ofd_parse_connect_data) */
161         int                              opd_group;
162         /* device used to store persistent state (llogs, last ids) */
163         struct obd_export               *opd_storage_exp;
164         struct dt_device                *opd_storage;
165         struct dt_object                *opd_last_used_oid_file;
166         struct dt_object                *opd_last_used_seq_file;
167
168         /* stored persistently in LE format, updated directly to/from disk
169          * and required le64_to_cpu() conversion before use.
170          * Protected by opd_pre_lock */
171         struct lu_fid                   opd_last_used_fid;
172         /* on disk copy last_used_fid.f_oid or idif */
173         u64                             opd_last_id;
174         struct lu_fid                   opd_gap_start_fid;
175         int                              opd_gap_count;
176         /* connection to OST */
177         struct osp_rpc_lock              opd_rpc_lock;
178         struct obd_device               *opd_obd;
179         struct obd_export               *opd_exp;
180         struct obd_connect_data         *opd_connect_data;
181         int                              opd_connects;
182         /* connection status. */
183         unsigned int                     opd_new_connection:1,
184                                          opd_got_disconnected:1,
185                                          opd_imp_connected:1,
186                                          opd_imp_active:1,
187                                          opd_imp_seen_connected:1,
188                                          opd_connect_mdt:1;
189
190         /* whether local recovery is completed:
191          * reported via ->ldo_recovery_complete() */
192         int                              opd_recovery_completed;
193
194         /* precreate structure for OSP */
195         struct osp_precreate            *opd_pre;
196         /* dedicate precreate thread */
197         struct ptlrpc_thread             opd_pre_thread;
198         spinlock_t                       opd_pre_lock;
199         /* thread waits for signals about pool going empty */
200         wait_queue_head_t                opd_pre_waitq;
201
202         /* send update thread */
203         struct osp_updates              *opd_update;
204         /* dedicate update thread */
205         struct ptlrpc_thread             opd_update_thread;
206
207         /*
208          * OST synchronization thread
209          */
210         spinlock_t                       opd_sync_lock;
211         /* unique generation, to recognize start of new records in the llog */
212         struct llog_gen                  opd_sync_generation;
213         /* number of changes to sync, used to wake up sync thread */
214         atomic_t                         opd_sync_changes;
215         /* processing of changes from previous mount is done? */
216         int                              opd_sync_prev_done;
217         /* found records */
218         struct ptlrpc_thread             opd_sync_thread;
219         wait_queue_head_t                opd_sync_waitq;
220         /* list of in flight rpcs */
221         struct list_head                 opd_sync_in_flight_list;
222         /* list of remotely committed rpc */
223         struct list_head                 opd_sync_committed_there;
224         /* number of RPCs in flight - flow control */
225         atomic_t                         opd_sync_rpcs_in_flight;
226         int                              opd_sync_max_rpcs_in_flight;
227         /* number of RPC in processing (including non-committed by OST) */
228         atomic_t                         opd_sync_rpcs_in_progress;
229         int                              opd_sync_max_rpcs_in_progress;
230         /* osd api's commit cb control structure */
231         struct dt_txn_callback           opd_sync_txn_cb;
232         /* last used change number -- semantically similar to transno */
233         unsigned long                    opd_sync_last_used_id;
234         /* last committed change number -- semantically similar to
235          * last_committed */
236         __u64                            opd_sync_last_committed_id;
237         /* last processed catalog index */
238         int                              opd_sync_last_catalog_idx;
239         /* number of processed records */
240         atomic64_t                       opd_sync_processed_recs;
241         /* stop processing new requests until barrier=0 */
242         atomic_t                         opd_sync_barrier;
243         wait_queue_head_t                opd_sync_barrier_waitq;
244         /* last generated id */
245         ktime_t                          opd_sync_next_commit_cb;
246         atomic_t                         opd_commits_registered;
247
248         /*
249          * statfs related fields: OSP maintains it on its own
250          */
251         struct obd_statfs                opd_statfs;
252         ktime_t                          opd_statfs_fresh_till;
253         struct timer_list                opd_statfs_timer;
254         int                              opd_statfs_update_in_progress;
255         /* how often to update statfs data */
256         time64_t                         opd_statfs_maxage;
257
258         struct dentry                   *opd_debugfs;
259
260         /* If the caller wants to do some idempotent async operations on
261          * remote server, it can append the async remote requests on the
262          * osp_device::opd_async_requests via declare() functions, these
263          * requests can be packed together and sent to the remote server
264          * via single OUT RPC later. */
265         struct osp_update_request       *opd_async_requests;
266         /* Protect current operations on opd_async_requests. */
267         struct mutex                     opd_async_requests_mutex;
268         struct list_head                 opd_async_updates;
269         struct rw_semaphore              opd_async_updates_rwsem;
270         atomic_t                         opd_async_updates_count;
271
272         /*
273          * Limit the object allocation using ENOSPC for opd_pre_status
274          */
275         int                             opd_reserved_mb_high;
276         int                             opd_reserved_mb_low;
277 };
278
279 #define opd_pre_used_fid                opd_pre->osp_pre_used_fid
280 #define opd_pre_last_created_fid        opd_pre->osp_pre_last_created_fid
281 #define opd_pre_reserved                opd_pre->osp_pre_reserved
282 #define opd_pre_user_waitq              opd_pre->osp_pre_user_waitq
283 #define opd_pre_status                  opd_pre->osp_pre_status
284 #define opd_pre_create_count            opd_pre->osp_pre_create_count
285 #define opd_pre_min_create_count        opd_pre->osp_pre_min_create_count
286 #define opd_pre_max_create_count        opd_pre->osp_pre_max_create_count
287 #define opd_pre_create_slow             opd_pre->osp_pre_create_slow
288 #define opd_pre_recovering              opd_pre->osp_pre_recovering
289
290 extern struct kmem_cache *osp_object_kmem;
291
292 /* The first part of oxe_buf is xattr name, and is '\0' terminated.
293  * The left part is for value, binary mode. */
294 struct osp_xattr_entry {
295         struct list_head         oxe_list;
296         atomic_t                 oxe_ref;
297         void                    *oxe_value;
298         size_t                   oxe_buflen;
299         size_t                   oxe_namelen;
300         size_t                   oxe_vallen;
301         unsigned int             oxe_exist:1,
302                                  oxe_ready:1;
303         char                     oxe_buf[0];
304 };
305
306 /* this is a top object */
307 struct osp_object {
308         struct lu_object_header opo_header;
309         struct dt_object        opo_obj;
310         unsigned int            opo_reserved:1,
311                                 opo_non_exist:1,
312                                 opo_stale:1;
313
314         /* read/write lock for md osp object */
315         struct rw_semaphore     opo_sem;
316         const struct lu_env     *opo_owner;
317         struct lu_attr          opo_attr;
318         struct list_head        opo_xattr_list;
319         struct list_head        opo_invalidate_cb_list;
320         /* Protect opo_ooa. */
321         spinlock_t              opo_lock;
322         /* to implement in-flight invalidation */
323         atomic_t                opo_invalidate_seq;
324         struct rw_semaphore     opo_invalidate_sem;
325 };
326
327 extern struct lu_object_operations osp_lu_obj_ops;
328 extern const struct dt_device_operations osp_dt_ops;
329 extern struct dt_object_operations osp_md_obj_ops;
330 extern struct dt_body_operations osp_md_body_ops;
331
332 struct osp_thread_info {
333         struct lu_buf            osi_lb;
334         struct lu_buf            osi_lb2;
335         struct lu_fid            osi_fid;
336         struct lu_attr           osi_attr;
337         struct ost_id            osi_oi;
338         struct ost_id            osi_oi2;
339         loff_t                   osi_off;
340         union {
341                 struct llog_rec_hdr             osi_hdr;
342                 struct llog_unlink64_rec        osi_unlink;
343                 struct llog_setattr64_rec_v2    osi_setattr;
344                 struct llog_gen_rec             osi_gen;
345         };
346         struct llog_cookie       osi_cookie;
347         struct llog_catid        osi_cid;
348         struct lu_seq_range      osi_seq;
349         struct ldlm_res_id       osi_resid;
350         struct obdo              osi_obdo;
351 };
352
353 /* Iterator for OSP */
354 struct osp_it {
355         __u32                     ooi_pos_page;
356         __u32                     ooi_pos_lu_page;
357         __u32                     ooi_attr;
358         __u32                     ooi_rec_size;
359         int                       ooi_pos_ent;
360         int                       ooi_total_npages;
361         int                       ooi_valid_npages;
362         unsigned int              ooi_swab:1;
363         __u64                     ooi_next;
364         struct dt_object         *ooi_obj;
365         void                     *ooi_ent;
366         struct page              *ooi_cur_page;
367         struct lu_idxpage        *ooi_cur_idxpage;
368         struct page              **ooi_pages;
369 };
370
371 #define OSP_THANDLE_MAGIC       0x20141214
372 struct osp_thandle {
373         struct thandle           ot_super;
374
375         /* OSP will use this thandle to update last oid*/
376         struct thandle          *ot_storage_th;
377         __u32                    ot_magic;
378         struct list_head         ot_commit_dcb_list;
379         struct list_head         ot_stop_dcb_list;
380         struct osp_update_request *ot_our;
381         atomic_t                 ot_refcount;
382 };
383
384 static inline struct osp_thandle *
385 thandle_to_osp_thandle(struct thandle *th)
386 {
387         return container_of(th, struct osp_thandle, ot_super);
388 }
389
390 static inline struct osp_update_request *
391 thandle_to_osp_update_request(struct thandle *th)
392 {
393         struct osp_thandle *oth;
394
395         oth = thandle_to_osp_thandle(th);
396         return oth->ot_our;
397 }
398
399 /* The transaction only include the updates on the remote node, and
400  * no local updates at all */
401 static inline bool is_only_remote_trans(struct thandle *th)
402 {
403         return th->th_top == NULL;
404 }
405
406 static inline void osp_objid_buf_prep(struct lu_buf *buf, loff_t *off,
407                                       __u64 *id, int index)
408 {
409         /* Note: through id is only 32 bits, it will also write 64 bits
410          * for oid to keep compatibility with the previous version. */
411         buf->lb_buf = (void *)id;
412         buf->lb_len = sizeof(u64);
413         *off = sizeof(u64) * index;
414 }
415
416 static inline void osp_objseq_buf_prep(struct lu_buf *buf, loff_t *off,
417                                        __u64 *seq, int index)
418 {
419         buf->lb_buf = (void *)seq;
420         buf->lb_len = sizeof(u64);
421         *off = sizeof(u64) * index;
422 }
423
424 static inline void osp_buf_prep(struct lu_buf *lb, void *buf, int buf_len)
425 {
426         lb->lb_buf = buf;
427         lb->lb_len = buf_len;
428 }
429
430 extern struct lu_context_key osp_thread_key;
431
432 static inline struct osp_thread_info *osp_env_info(const struct lu_env *env)
433 {
434         struct osp_thread_info *info;
435
436         info = lu_context_key_get(&env->le_ctx, &osp_thread_key);
437         if (info == NULL) {
438                 lu_env_refill((struct lu_env *)env);
439                 info = lu_context_key_get(&env->le_ctx, &osp_thread_key);
440         }
441         LASSERT(info);
442         return info;
443 }
444
445 struct osp_txn_info {
446         __u64   oti_current_id;
447 };
448
449 extern struct lu_context_key osp_txn_key;
450
451 static inline struct osp_txn_info *osp_txn_info(struct lu_context *ctx)
452 {
453         struct osp_txn_info *info;
454
455         info = lu_context_key_get(ctx, &osp_txn_key);
456         return info;
457 }
458
459 extern const struct lu_device_operations osp_lu_ops;
460
461 static inline int lu_device_is_osp(struct lu_device *d)
462 {
463         return ergo(d != NULL && d->ld_ops != NULL, d->ld_ops == &osp_lu_ops);
464 }
465
466 static inline struct osp_device *lu2osp_dev(struct lu_device *d)
467 {
468         LASSERT(lu_device_is_osp(d));
469         return container_of0(d, struct osp_device, opd_dt_dev.dd_lu_dev);
470 }
471
472 static inline struct lu_device *osp2lu_dev(struct osp_device *d)
473 {
474         return &d->opd_dt_dev.dd_lu_dev;
475 }
476
477 static inline struct osp_device *dt2osp_dev(struct dt_device *d)
478 {
479         LASSERT(lu_device_is_osp(&d->dd_lu_dev));
480         return container_of0(d, struct osp_device, opd_dt_dev);
481 }
482
483 static inline struct osp_object *lu2osp_obj(struct lu_object *o)
484 {
485         LASSERT(ergo(o != NULL, lu_device_is_osp(o->lo_dev)));
486         return container_of0(o, struct osp_object, opo_obj.do_lu);
487 }
488
489 static inline struct lu_object *osp2lu_obj(struct osp_object *obj)
490 {
491         return &obj->opo_obj.do_lu;
492 }
493
494 static inline struct osp_object *osp_obj(const struct lu_object *o)
495 {
496         LASSERT(lu_device_is_osp(o->lo_dev));
497         return container_of0(o, struct osp_object, opo_obj.do_lu);
498 }
499
500 static inline struct osp_object *dt2osp_obj(const struct dt_object *d)
501 {
502         return osp_obj(&d->do_lu);
503 }
504
505 static inline struct dt_object *osp_object_child(struct osp_object *o)
506 {
507         return container_of0(lu_object_next(osp2lu_obj(o)),
508                              struct dt_object, do_lu);
509 }
510
511 static inline struct seq_server_site *osp_seq_site(struct osp_device *osp)
512 {
513         return osp->opd_dt_dev.dd_lu_dev.ld_site->ld_seq_site;
514 }
515
516 /**
517  * Serializes in-flight MDT-modifying RPC requests to preserve idempotency.
518  *
519  * This mutex is used to implement execute-once semantics on the MDT.
520  * The MDT stores the last transaction ID and result for every client in
521  * its last_rcvd file. If the client doesn't get a reply, it can safely
522  * resend the request and the MDT will reconstruct the reply being aware
523  * that the request has already been executed. Without this lock,
524  * execution status of concurrent in-flight requests would be
525  * overwritten.
526  *
527  * This imlpementation limits the extent to which we can keep a full pipeline
528  * of in-flight requests from a single client.  This limitation can be
529  * overcome by allowing multiple slots per client in the last_rcvd file,
530  * see LU-6864.
531  */
532 #define OSP_FAKE_RPCL_IT ((void *)0x2c0012bfUL)
533
534 static inline void osp_init_rpc_lock(struct osp_device *osp)
535 {
536         struct osp_rpc_lock *lck = &osp->opd_rpc_lock;
537
538         mutex_init(&lck->rpcl_mutex);
539         lck->rpcl_fakes = 0;
540 }
541
542 static inline void osp_get_rpc_lock(struct osp_device *osp)
543 {
544         struct osp_rpc_lock *lck = &osp->opd_rpc_lock;
545
546         /* This would normally block until the existing request finishes.
547          * If fail_loc is set it will block until the regular request is
548          * done, then increment rpcl_fakes.  Once that is non-zero it
549          * will only be cleared when all fake requests are finished.
550          * Only when all fake requests are finished can normal requests
551          * be sent, to ensure they are recoverable again.
552          */
553  again:
554         mutex_lock(&lck->rpcl_mutex);
555
556         if (CFS_FAIL_CHECK_QUIET(OBD_FAIL_MDC_RPCS_SEM) ||
557             CFS_FAIL_CHECK_QUIET(OBD_FAIL_OSP_RPCS_SEM)) {
558                 lck->rpcl_fakes++;
559                 mutex_unlock(&lck->rpcl_mutex);
560
561                 return;
562         }
563
564         /* This will only happen when the CFS_FAIL_CHECK() was just turned
565          * off but there are still requests in progress.  Wait until they
566          * finish.  It doesn't need to be efficient in this extremely rare
567          * case, just have low overhead in the common case when it isn't true.
568          */
569         if (unlikely(lck->rpcl_fakes)) {
570                 mutex_unlock(&lck->rpcl_mutex);
571                 schedule_timeout(cfs_time_seconds(1) / 4);
572
573                 goto again;
574         }
575 }
576
577 static inline void osp_put_rpc_lock(struct osp_device *osp)
578 {
579         struct osp_rpc_lock *lck = &osp->opd_rpc_lock;
580
581         if (lck->rpcl_fakes) { /* OBD_FAIL_OSP_RPCS_SEM */
582                 mutex_lock(&lck->rpcl_mutex);
583
584                 if (lck->rpcl_fakes) /* check again under lock */
585                         lck->rpcl_fakes--;
586         }
587
588         mutex_unlock(&lck->rpcl_mutex);
589 }
590
591 static inline int osp_fid_diff(const struct lu_fid *fid1,
592                                const struct lu_fid *fid2)
593 {
594         /* In 2.6+ ost_idx is packed into IDIF FID, while in 2.4 and 2.5 IDIF
595          * is always FID_SEQ_IDIF(0x100000000ULL), which does not include OST
596          * index in the seq. So we can not compare IDIF FID seq here */
597         if (fid_is_idif(fid1) && fid_is_idif(fid2)) {
598                 __u32 ost_idx1 = fid_idif_ost_idx(fid1);
599                 __u32 ost_idx2 = fid_idif_ost_idx(fid2);
600
601                 LASSERTF(ost_idx1 == 0 || ost_idx2 == 0 || ost_idx1 == ost_idx2,
602                          "fid1: "DFID", fid2: "DFID"\n", PFID(fid1),
603                          PFID(fid2));
604
605                 return fid_idif_id(fid1->f_seq, fid1->f_oid, 0) -
606                        fid_idif_id(fid2->f_seq, fid2->f_oid, 0);
607         }
608
609         LASSERTF(fid_seq(fid1) == fid_seq(fid2), "fid1:"DFID", fid2:"DFID"\n",
610                  PFID(fid1), PFID(fid2));
611
612         return fid_oid(fid1) - fid_oid(fid2);
613 }
614
615 static inline void osp_fid_to_obdid(struct lu_fid *last_fid, u64 *osi_id)
616 {
617         if (fid_is_idif((last_fid)))
618                 *osi_id = fid_idif_id(fid_seq(last_fid), fid_oid(last_fid),
619                                       fid_ver(last_fid));
620         else
621                 *osi_id = fid_oid(last_fid);
622 }
623
624 static inline void osp_update_last_fid(struct osp_device *d, struct lu_fid *fid)
625 {
626         int diff = osp_fid_diff(fid, &d->opd_last_used_fid);
627         struct lu_fid *gap_start = &d->opd_gap_start_fid;
628
629         /*
630          * we might have lost precreated objects due to VBR and precreate
631          * orphans, the gap in objid can be calculated properly only here
632          */
633         if (diff > 0) {
634                 if (diff > 1) {
635                         d->opd_gap_start_fid = d->opd_last_used_fid;
636                         if (fid_oid(gap_start) == LUSTRE_DATA_SEQ_MAX_WIDTH) {
637                                 gap_start->f_seq++;
638                                 gap_start->f_oid = fid_is_idif(gap_start) ?
639                                                                0 : 1;
640                         } else {
641                                 gap_start->f_oid++;
642                         }
643                         d->opd_gap_count = diff - 1;
644                         CDEBUG(D_HA, "Gap in objids: start="DFID", count =%d\n",
645                                PFID(&d->opd_gap_start_fid), d->opd_gap_count);
646                 }
647                 d->opd_last_used_fid = *fid;
648                 osp_fid_to_obdid(fid, &d->opd_last_id);
649         }
650 }
651
652 static int osp_fid_end_seq(const struct lu_env *env, struct lu_fid *fid)
653 {
654         if (fid_is_idif(fid)) {
655                 struct osp_thread_info *info = osp_env_info(env);
656                 struct ost_id *oi = &info->osi_oi;
657
658                 fid_to_ostid(fid, oi);
659                 return ostid_id(oi) == IDIF_MAX_OID;
660         } else {
661                 return fid_oid(fid) == LUSTRE_DATA_SEQ_MAX_WIDTH;
662         }
663 }
664
665 static inline int osp_precreate_end_seq_nolock(const struct lu_env *env,
666                                                struct osp_device *osp)
667 {
668         struct lu_fid *fid = &osp->opd_pre_last_created_fid;
669
670         return osp_fid_end_seq(env, fid);
671 }
672
673 static inline int osp_precreate_end_seq(const struct lu_env *env,
674                                         struct osp_device *osp)
675 {
676         int rc;
677
678         spin_lock(&osp->opd_pre_lock);
679         rc = osp_precreate_end_seq_nolock(env, osp);
680         spin_unlock(&osp->opd_pre_lock);
681         return rc;
682 }
683
684 static inline int osp_is_fid_client(struct osp_device *osp)
685 {
686         struct obd_import *imp = osp->opd_obd->u.cli.cl_import;
687
688         return imp->imp_connect_data.ocd_connect_flags & OBD_CONNECT_FID;
689 }
690
691 struct object_update *
692 update_buffer_get_update(struct object_update_request *request,
693                          unsigned int index);
694
695 int osp_extend_update_buffer(const struct lu_env *env,
696                              struct osp_update_request *our);
697
698 struct osp_update_request_sub *
699 osp_current_object_update_request(struct osp_update_request *our);
700
701 int osp_object_update_request_create(struct osp_update_request *our,
702                                      size_t size);
703
704 #define OSP_UPDATE_RPC_PACK(env, out_something_pack, our, ...)          \
705 ({                                                                      \
706         struct object_update *object_update;                            \
707         size_t max_update_length;                                       \
708         struct osp_update_request_sub *ours;                            \
709         int ret;                                                        \
710                                                                         \
711         while (1) {                                                     \
712                 ours = osp_current_object_update_request(our);          \
713                 LASSERT(ours != NULL);                                  \
714                 max_update_length = ours->ours_req_size -               \
715                             object_update_request_size(ours->ours_req); \
716                                                                         \
717                 object_update = update_buffer_get_update(ours->ours_req,\
718                                          ours->ours_req->ourq_count);   \
719                 ret = out_something_pack(env, object_update,            \
720                                          &max_update_length,            \
721                                          __VA_ARGS__);                  \
722                 if (ret == -E2BIG) {                                    \
723                         int rc1;                                        \
724                         /* Create new object update request */          \
725                         rc1 = osp_object_update_request_create(our,     \
726                                 max_update_length  +                    \
727                                 offsetof(struct object_update_request,  \
728                                          ourq_updates[0]) + 1);         \
729                         if (rc1 != 0) {                                 \
730                                 ret = rc1;                              \
731                                 break;                                  \
732                         }                                               \
733                         continue;                                       \
734                 } else {                                                \
735                         if (ret == 0) {                                 \
736                                 ours->ours_req->ourq_count++;           \
737                                 (our)->our_update_nr++;                 \
738                                 object_update->ou_batchid =             \
739                                                      (our)->our_batchid;\
740                                 object_update->ou_flags |=              \
741                                                      (our)->our_flags;  \
742                         }                                               \
743                         break;                                          \
744                 }                                                       \
745         }                                                               \
746         ret;                                                            \
747 })
748
749 static inline bool osp_send_update_thread_running(struct osp_device *osp)
750 {
751         return osp->opd_update_thread.t_flags & SVC_RUNNING;
752 }
753
754 static inline bool osp_send_update_thread_stopped(struct osp_device *osp)
755 {
756         return osp->opd_update_thread.t_flags & SVC_STOPPED;
757 }
758
759 typedef int (*osp_update_interpreter_t)(const struct lu_env *env,
760                                         struct object_update_reply *rep,
761                                         struct ptlrpc_request *req,
762                                         struct osp_object *obj,
763                                         void *data, int index, int rc);
764
765 /* osp_dev.c */
766 void osp_update_last_id(struct osp_device *d, u64 objid);
767
768 /* osp_trans.c */
769 int osp_insert_async_request(const struct lu_env *env, enum update_type op,
770                              struct osp_object *obj, int count, __u16 *lens,
771                              const void **bufs, void *data, __u32 repsize,
772                              osp_update_interpreter_t interpreter);
773
774 int osp_unplug_async_request(const struct lu_env *env,
775                              struct osp_device *osp,
776                              struct osp_update_request *update);
777 int osp_trans_update_request_create(struct thandle *th);
778 struct thandle *osp_trans_create(const struct lu_env *env,
779                                  struct dt_device *d);
780 int osp_trans_start(const struct lu_env *env, struct dt_device *dt,
781                     struct thandle *th);
782 int osp_insert_update_callback(const struct lu_env *env,
783                                struct osp_update_request *update,
784                                struct osp_object *obj, void *data,
785                                osp_update_interpreter_t interpreter);
786
787 struct osp_update_request *osp_update_request_create(struct dt_device *dt);
788 void osp_update_request_destroy(const struct lu_env *env,
789                                 struct osp_update_request *update);
790
791 int osp_send_update_thread(void *arg);
792 int osp_check_and_set_rpc_version(struct osp_thandle *oth,
793                                   struct osp_object *obj);
794
795 void osp_thandle_destroy(const struct lu_env *env, struct osp_thandle *oth);
796 static inline void osp_thandle_get(struct osp_thandle *oth)
797 {
798         atomic_inc(&oth->ot_refcount);
799 }
800
801 static inline void osp_thandle_put(const struct lu_env *env,
802                                    struct osp_thandle *oth)
803 {
804         if (atomic_dec_and_test(&oth->ot_refcount))
805                 osp_thandle_destroy(env, oth);
806 }
807
808 int osp_prep_update_req(const struct lu_env *env, struct obd_import *imp,
809                         struct osp_update_request *our,
810                         struct ptlrpc_request **reqp);
811 int osp_remote_sync(const struct lu_env *env, struct osp_device *osp,
812                     struct osp_update_request *update,
813                     struct ptlrpc_request **reqp);
814
815 struct thandle *osp_get_storage_thandle(const struct lu_env *env,
816                                         struct thandle *th,
817                                         struct osp_device *osp);
818 void osp_trans_callback(const struct lu_env *env,
819                         struct osp_thandle *oth, int rc);
820 void osp_invalidate_request(struct osp_device *osp);
821 /* osp_object.c */
822 int osp_attr_get(const struct lu_env *env, struct dt_object *dt,
823                  struct lu_attr *attr);
824 int osp_xattr_get(const struct lu_env *env, struct dt_object *dt,
825                   struct lu_buf *buf, const char *name);
826 int osp_declare_xattr_set(const struct lu_env *env, struct dt_object *dt,
827                           const struct lu_buf *buf, const char *name,
828                           int flag, struct thandle *th);
829 int osp_xattr_set(const struct lu_env *env, struct dt_object *dt,
830                   const struct lu_buf *buf, const char *name, int fl,
831                   struct thandle *th);
832 int osp_declare_xattr_del(const struct lu_env *env, struct dt_object *dt,
833                           const char *name, struct thandle *th);
834 int osp_xattr_del(const struct lu_env *env, struct dt_object *dt,
835                   const char *name, struct thandle *th);
836 int osp_invalidate(const struct lu_env *env, struct dt_object *dt);
837 void osp_obj_invalidate_cache(struct osp_object *obj);
838
839 int osp_trans_stop(const struct lu_env *env, struct dt_device *dt,
840                    struct thandle *th);
841 int osp_trans_cb_add(struct thandle *th, struct dt_txn_commit_cb *dcb);
842
843 struct dt_it *osp_it_init(const struct lu_env *env, struct dt_object *dt,
844                           __u32 attr);
845 void osp_it_fini(const struct lu_env *env, struct dt_it *di);
846 int osp_it_get(const struct lu_env *env, struct dt_it *di,
847                const struct dt_key *key);
848 void osp_it_put(const struct lu_env *env, struct dt_it *di);
849 __u64 osp_it_store(const struct lu_env *env, const struct dt_it *di);
850 int osp_it_key_rec(const struct lu_env *env, const struct dt_it *di,
851                    void *key_rec);
852 int osp_it_next_page(const struct lu_env *env, struct dt_it *di);
853 /* osp_md_object.c */
854 int osp_md_declare_create(const struct lu_env *env, struct dt_object *dt,
855                           struct lu_attr *attr, struct dt_allocation_hint *hint,
856                           struct dt_object_format *dof, struct thandle *th);
857 int osp_md_create(const struct lu_env *env, struct dt_object *dt,
858                   struct lu_attr *attr, struct dt_allocation_hint *hint,
859                   struct dt_object_format *dof, struct thandle *th);
860 int osp_md_declare_attr_set(const struct lu_env *env, struct dt_object *dt,
861                             const struct lu_attr *attr, struct thandle *th);
862 int osp_md_attr_set(const struct lu_env *env, struct dt_object *dt,
863                     const struct lu_attr *attr, struct thandle *th);
864 extern const struct dt_index_operations osp_md_index_ops;
865
866 /* osp_precreate.c */
867 int osp_init_precreate(struct osp_device *d);
868 int osp_precreate_reserve(const struct lu_env *env, struct osp_device *d);
869 __u64 osp_precreate_get_id(struct osp_device *d);
870 int osp_precreate_get_fid(const struct lu_env *env, struct osp_device *d,
871                           struct lu_fid *fid);
872 void osp_precreate_fini(struct osp_device *d);
873 int osp_object_truncate(const struct lu_env *env, struct dt_object *dt, __u64);
874 void osp_pre_update_status(struct osp_device *d, int rc);
875 void osp_statfs_need_now(struct osp_device *d);
876 int osp_reset_last_used(const struct lu_env *env, struct osp_device *osp);
877 int osp_write_last_oid_seq_files(struct lu_env *env, struct osp_device *osp,
878                                  struct lu_fid *fid, int sync);
879 int osp_init_pre_fid(struct osp_device *osp);
880 int osp_init_statfs(struct osp_device *osp);
881 void osp_fini_statfs(struct osp_device *osp);
882 void osp_statfs_fini(struct osp_device *d);
883
884 /* lproc_osp.c */
885 void osp_tunables_init(struct osp_device *osp);
886 void osp_tunables_fini(struct osp_device *osp);
887
888 /* osp_sync.c */
889 int osp_sync_declare_add(const struct lu_env *env, struct osp_object *o,
890                          enum llog_op_type type, struct thandle *th);
891 int osp_sync_add(const struct lu_env *env, struct osp_object *o,
892                  enum llog_op_type type, struct thandle *th,
893                  const struct lu_attr *attr);
894 int osp_sync_init(const struct lu_env *env, struct osp_device *d);
895 int osp_sync_fini(struct osp_device *d);
896 void osp_sync_check_for_work(struct osp_device *osp);
897 void osp_sync_force(const struct lu_env *env, struct osp_device *d);
898 int osp_sync_add_commit_cb_1s(const struct lu_env *env, struct osp_device *d,
899                               struct thandle *th);
900
901 /* lwp_dev.c */
902 extern struct obd_ops lwp_obd_device_ops;
903 extern struct lu_device_type lwp_device_type;
904
905 static inline struct lu_device *osp2top(const struct osp_device *osp)
906 {
907         return osp->opd_dt_dev.dd_lu_dev.ld_site->ls_top_dev;
908 }
909
910 static inline void osp_set_req_replay(const struct osp_device *osp,
911                                       struct ptlrpc_request *req)
912 {
913         struct obd_device *obd = osp2top(osp)->ld_obd;
914
915         /* The RPC must be recovery related for the cases:
916          *
917          * 1. sent during recovery, or
918          * 2. sent before the recovery thread target_recovery_thread() start,
919          *    such as triggered by lod_sub_recovery_thread(). */
920         if (obd->obd_recovering || (obd->obd_replayable && obd->obd_no_conn))
921                 req->rq_allow_replay = 1;
922 }
923
924 #endif