Whamcloud - gitweb
Branch HEAD
[fs/lustre-release.git] / lustre / include / lu_object.h
1 /* -*- mode: c; c-basic-offset: 8; indent-tabs-mode: nil; -*-
2  * vim:expandtab:shiftwidth=8:tabstop=8:
3  *
4  *  Copyright (C) 2006 Cluster File Systems, Inc.
5  *
6  *   This file is part of Lustre, http://www.lustre.org.
7  *
8  *   Lustre is free software; you can redistribute it and/or
9  *   modify it under the terms of version 2 of the GNU General Public
10  *   License as published by the Free Software Foundation.
11  *
12  *   Lustre is distributed in the hope that it will be useful,
13  *   but WITHOUT ANY WARRANTY; without even the implied warranty of
14  *   MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
15  *   GNU General Public License for more details.
16  *
17  *   You should have received a copy of the GNU General Public License
18  *   along with Lustre; if not, write to the Free Software
19  *   Foundation, Inc., 675 Mass Ave, Cambridge, MA 02139, USA.
20  *
21  */
22
23 #ifndef __LUSTRE_LU_OBJECT_H
24 #define __LUSTRE_LU_OBJECT_H
25
26 #include <stdarg.h>
27
28 /*
29  * struct lu_fid
30  */
31 #include <lustre/lustre_idl.h>
32
33 #include <libcfs/libcfs.h>
34
35 /*
36  * Layered objects support for CMD3/C5.
37  */
38
39 struct seq_file;
40 struct proc_dir_entry;
41 struct lustre_cfg;
42 struct lprocfs_stats;
43
44 /*
45  * lu_* data-types represent server-side entities shared by data and meta-data
46  * stacks.
47  *
48  * Design goals:
49  *
50  * 0. support for layering.
51  *
52  *     Server side object is split into layers, one per device in the
53  *     corresponding device stack. Individual layer is represented by struct
54  *     lu_object. Compound layered object --- by struct lu_object_header. Most
55  *     interface functions take lu_object as an argument and operate on the
56  *     whole compound object. This decision was made due to the following
57  *     reasons:
58  *
59  *        - it's envisaged that lu_object will be used much more often than
60  *        lu_object_header;
61  *
62  *        - we want lower (non-top) layers to be able to initiate operations
63  *        on the whole object.
64  *
65  *     Generic code supports layering more complex than simple stacking, e.g.,
66  *     it is possible that at some layer object "spawns" multiple sub-objects
67  *     on the lower layer.
68  *
69  * 1. fid-based identification.
70  *
71  *     Compound object is uniquely identified by its fid. Objects are indexed
72  *     by their fids (hash table is used for index).
73  *
74  * 2. caching and life-cycle management.
75  *
76  *     Object's life-time is controlled by reference counting. When reference
77  *     count drops to 0, object is returned to cache. Cached objects still
78  *     retain their identity (i.e., fid), and can be recovered from cache.
79  *
80  *     Objects are kept in the global LRU list, and lu_site_purge() function
81  *     can be used to reclaim given number of unused objects from the tail of
82  *     the LRU.
83  *
84  * 3. avoiding recursion.
85  *
86  *     Generic code tries to replace recursion through layers by iterations
87  *     where possible. Additionally to the end of reducing stack consumption,
88  *     data, when practically possible, are allocated through lu_context_key
89  *     interface rather than on stack.
90  *
91  */
92
93 struct lu_site;
94 struct lu_object;
95 struct lu_device;
96 struct lu_object_header;
97 struct lu_context;
98 struct lu_env;
99
100 /*
101  * Operations common for data and meta-data devices.
102  */
103 struct lu_device_operations {
104         /*
105          * Object creation protocol.
106          *
107          * Due to design goal of avoiding recursion, object creation (see
108          * lu_object_alloc()) is somewhat involved:
109          *
110          *  - first, ->ldo_object_alloc() method of the top-level device
111          *  in the stack is called. It should allocate top level object
112          *  (including lu_object_header), but without any lower-layer
113          *  sub-object(s).
114          *
115          *  - then lu_object_alloc() sets fid in the header of newly created
116          *  object.
117          *
118          *  - then ->loo_object_init() (a method from struct
119          *  lu_object_operations) is called. It has to allocate lower-layer
120          *  object(s). To do this, ->loo_object_init() calls
121          *  ldo_object_alloc() of the lower-layer device(s).
122          *
123          *  - for all new objects allocated by ->loo_object_init() (and
124          *  inserted into object stack), ->loo_object_init() is called again
125          *  repeatedly, until no new objects are created.
126          *
127          */
128
129         /*
130          * Allocate object for the given device (without lower-layer
131          * parts). This is called by ->loo_object_init() from the parent
132          * layer, and should setup at least ->lo_dev and ->lo_ops fields of
133          * resulting lu_object.
134          *
135          * postcondition: ergo(!IS_ERR(result), result->lo_dev ==  d &&
136          *                                      result->lo_ops != NULL);
137          */
138         struct lu_object *(*ldo_object_alloc)(const struct lu_env *env,
139                                               const struct lu_object_header *h,
140                                               struct lu_device *d);
141         /*
142          * process config specific for device
143          */
144         int (*ldo_process_config)(const struct lu_env *env,
145                                   struct lu_device *, struct lustre_cfg *);
146         int (*ldo_recovery_complete)(const struct lu_env *,
147                                      struct lu_device *);
148
149 };
150
151 /*
152  * Type of "printer" function used by ->loo_object_print() method.
153  *
154  * Printer function is needed to provide some flexibility in (semi-)debugging
155  * output: possible implementations: printk, CDEBUG, sysfs/seq_file
156  */
157 typedef int (*lu_printer_t)(const struct lu_env *env,
158                             void *cookie, const char *format, ...)
159         __attribute__ ((format (printf, 3, 4)));
160
161 /*
162  * Operations specific for particular lu_object.
163  */
164 struct lu_object_operations {
165
166         /*
167          * Allocate lower-layer parts of the object by calling
168          * ->ldo_object_alloc() of the corresponding underlying device.
169          *
170          * This method is called once for each object inserted into object
171          * stack. It's responsibility of this method to insert lower-layer
172          * object(s) it create into appropriate places of object stack.
173          */
174         int (*loo_object_init)(const struct lu_env *env,
175                                struct lu_object *o);
176         /*
177          * Called (in top-to-bottom order) during object allocation after all
178          * layers were allocated and initialized. Can be used to perform
179          * initialization depending on lower layers.
180          */
181         int (*loo_object_start)(const struct lu_env *env,
182                                 struct lu_object *o);
183         /*
184          * Called before ->loo_object_free() to signal that object is being
185          * destroyed. Dual to ->loo_object_init().
186          */
187         void (*loo_object_delete)(const struct lu_env *env,
188                                   struct lu_object *o);
189
190         /*
191          * Dual to ->ldo_object_alloc(). Called when object is removed from
192          * memory.
193          */
194         void (*loo_object_free)(const struct lu_env *env,
195                                 struct lu_object *o);
196
197         /*
198          * Called when last active reference to the object is released (and
199          * object returns to the cache). This method is optional.
200          */
201         void (*loo_object_release)(const struct lu_env *env,
202                                    struct lu_object *o);
203         /*
204          * Debugging helper. Print given object.
205          */
206         int (*loo_object_print)(const struct lu_env *env, void *cookie,
207                                 lu_printer_t p, const struct lu_object *o);
208         /*
209          * Optional debugging method. Returns true iff method is internally
210          * consistent.
211          */
212         int (*loo_object_invariant)(const struct lu_object *o);
213 };
214
215 /*
216  * Type of lu_device.
217  */
218 struct lu_device_type;
219
220 /*
221  * Device: a layer in the server side abstraction stacking.
222  */
223 struct lu_device {
224         /*
225          * reference count. This is incremented, in particular, on each object
226          * created at this layer.
227          *
228          * XXX which means that atomic_t is probably too small.
229          */
230         atomic_t                     ld_ref;
231         /*
232          * Pointer to device type. Never modified once set.
233          */
234         struct lu_device_type       *ld_type;
235         /*
236          * Operation vector for this device.
237          */
238         struct lu_device_operations *ld_ops;
239         /*
240          * Stack this device belongs to.
241          */
242         struct lu_site              *ld_site;
243         struct proc_dir_entry       *ld_proc_entry;
244
245         /* XXX: temporary back pointer into obd. */
246         struct obd_device           *ld_obd;
247 };
248
249 struct lu_device_type_operations;
250
251 /*
252  * Tag bits for device type. They are used to distinguish certain groups of
253  * device types.
254  */
255 enum lu_device_tag {
256         /* this is meta-data device */
257         LU_DEVICE_MD = (1 << 0),
258         /* this is data device */
259         LU_DEVICE_DT = (1 << 1)
260 };
261
262 /*
263  * Type of device.
264  */
265 struct lu_device_type {
266         /*
267          * Tag bits. Taken from enum lu_device_tag. Never modified once set.
268          */
269         __u32                             ldt_tags;
270         /*
271          * Name of this class. Unique system-wide. Never modified once set.
272          */
273         char                             *ldt_name;
274         /*
275          * Operations for this type.
276          */
277         struct lu_device_type_operations *ldt_ops;
278         /*
279          * XXX: temporary pointer to associated obd_type.
280          */
281         struct obd_type                  *ldt_obd_type;
282         /*
283          * XXX: temporary: context tags used by obd_*() calls.
284          */
285         __u32                             ldt_ctx_tags;
286 };
287
288 /*
289  * Operations on a device type.
290  */
291 struct lu_device_type_operations {
292         /*
293          * Allocate new device.
294          */
295         struct lu_device *(*ldto_device_alloc)(const struct lu_env *env,
296                                                struct lu_device_type *t,
297                                                struct lustre_cfg *lcfg);
298         /*
299          * Free device. Dual to ->ldto_device_alloc(). Returns pointer to
300          * the next device in the stack.
301          */
302         struct lu_device *(*ldto_device_free)(const struct lu_env *,
303                                               struct lu_device *);
304
305         /*
306          * Initialize the devices after allocation
307          */
308         int  (*ldto_device_init)(const struct lu_env *env,
309                                  struct lu_device *, const char *,
310                                  struct lu_device *);
311         /*
312          * Finalize device. Dual to ->ldto_device_init(). Returns pointer to
313          * the next device in the stack.
314          */
315         struct lu_device *(*ldto_device_fini)(const struct lu_env *env,
316                                               struct lu_device *);
317
318         /*
319          * Initialize device type. This is called on module load.
320          */
321         int  (*ldto_init)(struct lu_device_type *t);
322         /*
323          * Finalize device type. Dual to ->ldto_init(). Called on module
324          * unload.
325          */
326         void (*ldto_fini)(struct lu_device_type *t);
327 };
328
329 /*
330  * Flags for the object layers.
331  */
332 enum lu_object_flags {
333         /*
334          * this flags is set if ->loo_object_init() has been called for this
335          * layer. Used by lu_object_alloc().
336          */
337         LU_OBJECT_ALLOCATED = (1 << 0)
338 };
339
340 /*
341  * Common object attributes.
342  */
343 /* valid flags */
344 enum la_valid {
345         LA_ATIME = 1 << 0,
346         LA_MTIME = 1 << 1,
347         LA_CTIME = 1 << 2,
348         LA_SIZE  = 1 << 3,
349         LA_MODE  = 1 << 4,
350         LA_UID   = 1 << 5,
351         LA_GID   = 1 << 6,
352         LA_BLOCKS = 1 << 7,
353         LA_TYPE   = 1 << 8,
354         LA_FLAGS  = 1 << 9,
355         LA_NLINK  = 1 << 10,
356         LA_RDEV   = 1 << 11,
357         LA_BLKSIZE = 1 << 12,
358 };
359
360 struct lu_attr {
361         __u64          la_size;   /* size in bytes */
362         __u64          la_mtime;  /* modification time in seconds since Epoch */
363         __u64          la_atime;  /* access time in seconds since Epoch */
364         __u64          la_ctime;  /* change time in seconds since Epoch */
365         __u64          la_blocks; /* 512-byte blocks allocated to object */
366         __u32          la_mode;   /* permission bits and file type */
367         __u32          la_uid;    /* owner id */
368         __u32          la_gid;    /* group id */
369         __u32          la_flags;  /* object flags */
370         __u32          la_nlink;  /* number of persistent references to this
371                                    * object */
372         __u32          la_blkbits; /* blk bits of the object*/
373         __u32          la_blksize; /* blk size of the object*/
374
375         __u32          la_rdev;   /* real device */
376         __u64          la_valid;  /* valid bits */
377 };
378
379 /*
380  * Layer in the layered object.
381  */
382 struct lu_object {
383         /*
384          * Header for this object.
385          */
386         struct lu_object_header     *lo_header;
387         /*
388          * Device for this layer.
389          */
390         struct lu_device            *lo_dev;
391         /*
392          * Operations for this object.
393          */
394         struct lu_object_operations *lo_ops;
395         /*
396          * Linkage into list of all layers.
397          */
398         struct list_head             lo_linkage;
399         /*
400          * Depth. Top level layer depth is 0.
401          */
402         int                          lo_depth;
403         /*
404          * Flags from enum lu_object_flags.
405          */
406         unsigned long                lo_flags;
407 };
408
409 enum lu_object_header_flags {
410         /*
411          * Don't keep this object in cache. Object will be destroyed as soon
412          * as last reference to it is released. This flag cannot be cleared
413          * once set.
414          */
415         LU_OBJECT_HEARD_BANSHEE = 0
416 };
417
418 enum lu_object_header_attr {
419         LOHA_EXISTS   = 1 << 0,
420         LOHA_REMOTE   = 1 << 1,
421         /*
422          * UNIX file type is stored in S_IFMT bits.
423          */
424         LOHA_FT_START = 1 << 12, /* S_IFIFO */
425         LOHA_FT_END   = 1 << 15, /* S_IFREG */
426 };
427
428 /*
429  * "Compound" object, consisting of multiple layers.
430  *
431  * Compound object with given fid is unique with given lu_site.
432  *
433  * Note, that object does *not* necessary correspond to the real object in the
434  * persistent storage: object is an anchor for locking and method calling, so
435  * it is created for things like not-yet-existing child created by mkdir or
436  * create calls. ->loo_exists() can be used to check whether object is backed
437  * by persistent storage entity.
438  */
439 struct lu_object_header {
440         /*
441          * Object flags from enum lu_object_header_flags. Set and checked
442          * atomically.
443          */
444         unsigned long     loh_flags;
445         /*
446          * Object reference count. Protected by site guard lock.
447          */
448         atomic_t          loh_ref;
449         /*
450          * Fid, uniquely identifying this object.
451          */
452         struct lu_fid     loh_fid;
453         /*
454          * Common object attributes, cached for efficiency. From enum
455          * lu_object_header_attr.
456          */
457         __u32             loh_attr;
458         /*
459          * Linkage into per-site hash table. Protected by site guard lock.
460          */
461         struct hlist_node loh_hash;
462         /*
463          * Linkage into per-site LRU list. Protected by site guard lock.
464          */
465         struct list_head  loh_lru;
466         /*
467          * Linkage into list of layers. Never modified once set (except lately
468          * during object destruction). No locking is necessary.
469          */
470         struct list_head  loh_layers;
471 };
472
473 struct fld;
474
475 /*
476  * lu_site is a "compartment" within which objects are unique, and LRU
477  * discipline is maintained.
478  *
479  * lu_site exists so that multiple layered stacks can co-exist in the same
480  * address space.
481  *
482  * lu_site has the same relation to lu_device as lu_object_header to
483  * lu_object.
484  */
485 struct lu_site {
486         /*
487          * lock protecting:
488          *
489          *        - ->ls_hash hash table (and its linkages in objects);
490          *
491          *        - ->ls_lru list (and its linkages in objects);
492          *
493          *        - 0/1 transitions of object ->loh_ref reference count;
494          *
495          * yes, it's heavy.
496          */
497         rwlock_t              ls_guard;
498         /*
499          * Hash-table where objects are indexed by fid.
500          */
501         struct hlist_head    *ls_hash;
502         /*
503          * Bit-mask for hash-table size.
504          */
505         int                   ls_hash_mask;
506         /*
507          * Order of hash-table.
508          */
509         int                   ls_hash_bits;
510         /*
511          * Number of buckets in the hash-table.
512          */
513         int                   ls_hash_size;
514
515         /*
516          * LRU list, updated on each access to object. Protected by
517          * ->ls_guard.
518          *
519          * "Cold" end of LRU is ->ls_lru.next. Accessed object are moved to
520          * the ->ls_lru.prev (this is due to the non-existence of
521          * list_for_each_entry_safe_reverse()).
522          */
523         struct list_head      ls_lru;
524         /*
525          * Total number of objects in this site. Protected by ->ls_guard.
526          */
527         unsigned              ls_total;
528         /*
529          * Total number of objects in this site with reference counter greater
530          * than 0. Protected by ->ls_guard.
531          */
532         unsigned              ls_busy;
533
534         /*
535          * Top-level device for this stack.
536          */
537         struct lu_device     *ls_top_dev;
538         /*
539          * mds number of this site.
540          */
541         mdsno_t               ls_node_id;
542         /*
543          * Fid location database
544          */
545         struct lu_server_fld *ls_server_fld;
546         struct lu_client_fld *ls_client_fld;
547
548         /*
549          * Server Seq Manager
550          */
551         struct lu_server_seq *ls_server_seq;
552
553         /*
554          * Controller Seq Manager
555          */
556         struct lu_server_seq *ls_control_seq;
557         struct obd_export    *ls_control_exp;
558
559         /*
560          * Client Seq Manager
561          */
562         struct lu_client_seq *ls_client_seq;
563
564         /* statistical counters. Protected by nothing, races are accepted. */
565         struct {
566                 __u32 s_created;
567                 __u32 s_cache_hit;
568                 __u32 s_cache_miss;
569                 /*
570                  * Number of hash-table entry checks made.
571                  *
572                  *       ->s_cache_check / (->s_cache_miss + ->s_cache_hit)
573                  *
574                  * is an average number of hash slots inspected during single
575                  * lookup.
576                  */
577                 __u32 s_cache_check;
578                 /* raced cache insertions */
579                 __u32 s_cache_race;
580                 __u32 s_lru_purged;
581         } ls_stats;
582
583         /*
584          * Linkage into global list of sites.
585          */
586         struct list_head      ls_linkage;
587         struct lprocfs_stats *ls_time_stats;
588 };
589
590 /*
591  * Constructors/destructors.
592  */
593
594 /*
595  * Initialize site @s, with @d as the top level device.
596  */
597 int  lu_site_init(struct lu_site *s, struct lu_device *d);
598 /*
599  * Finalize @s and release its resources.
600  */
601 void lu_site_fini(struct lu_site *s);
602
603 /*
604  * Called when initialization of stack for this site is completed.
605  */
606 int lu_site_init_finish(struct lu_site *s);
607
608 /*
609  * Acquire additional reference on device @d
610  */
611 void lu_device_get(struct lu_device *d);
612 /*
613  * Release reference on device @d.
614  */
615 void lu_device_put(struct lu_device *d);
616
617 /*
618  * Initialize device @d of type @t.
619  */
620 int lu_device_init(struct lu_device *d, struct lu_device_type *t);
621 /*
622  * Finalize device @d.
623  */
624 void lu_device_fini(struct lu_device *d);
625
626 /*
627  * Initialize compound object.
628  */
629 int lu_object_header_init(struct lu_object_header *h);
630 /*
631  * Finalize compound object.
632  */
633 void lu_object_header_fini(struct lu_object_header *h);
634
635 /*
636  * Initialize object @o that is part of compound object @h and was created by
637  * device @d.
638  */
639 int lu_object_init(struct lu_object *o,
640                    struct lu_object_header *h, struct lu_device *d);
641 /*
642  * Finalize object and release its resources.
643  */
644 void lu_object_fini(struct lu_object *o);
645 /*
646  * Add object @o as first layer of compound object @h.
647  *
648  * This is typically called by the ->ldo_object_alloc() method of top-level
649  * device.
650  */
651 void lu_object_add_top(struct lu_object_header *h, struct lu_object *o);
652 /*
653  * Add object @o as a layer of compound object, going after @before.1
654  *
655  * This is typically called by the ->ldo_object_alloc() method of
656  * @before->lo_dev.
657  */
658 void lu_object_add(struct lu_object *before, struct lu_object *o);
659
660 /*
661  * Caching and reference counting.
662  */
663
664 /*
665  * Acquire additional reference to the given object. This function is used to
666  * attain additional reference. To acquire initial reference use
667  * lu_object_find().
668  */
669 static inline void lu_object_get(struct lu_object *o)
670 {
671         LASSERT(atomic_read(&o->lo_header->loh_ref) > 0);
672         atomic_inc(&o->lo_header->loh_ref);
673 }
674
675 /*
676  * Return true of object will not be cached after last reference to it is
677  * released.
678  */
679 static inline int lu_object_is_dying(const struct lu_object_header *h)
680 {
681         return test_bit(LU_OBJECT_HEARD_BANSHEE, &h->loh_flags);
682 }
683
684 /*
685  * Decrease reference counter on object. If last reference is freed, return
686  * object to the cache, unless lu_object_is_dying(o) holds. In the latter
687  * case, free object immediately.
688  */
689 void lu_object_put(const struct lu_env *env,
690                    struct lu_object *o);
691
692 /*
693  * Free @nr objects from the cold end of the site LRU list.
694  */
695 int lu_site_purge(const struct lu_env *env, struct lu_site *s, int nr);
696
697 /*
698  * Print all objects in @s.
699  */
700 void lu_site_print(const struct lu_env *env, struct lu_site *s, void *cookie,
701                    lu_printer_t printer);
702 /*
703  * Search cache for an object with the fid @f. If such object is found, return
704  * it. Otherwise, create new object, insert it into cache and return it. In
705  * any case, additional reference is acquired on the returned object.
706  */
707 struct lu_object *lu_object_find(const struct lu_env *env,
708                                  struct lu_site *s, const struct lu_fid *f);
709
710 /*
711  * Helpers.
712  */
713
714 /*
715  * First (topmost) sub-object of given compound object
716  */
717 static inline struct lu_object *lu_object_top(struct lu_object_header *h)
718 {
719         LASSERT(!list_empty(&h->loh_layers));
720         return container_of0(h->loh_layers.next, struct lu_object, lo_linkage);
721 }
722
723 /*
724  * Next sub-object in the layering
725  */
726 static inline struct lu_object *lu_object_next(const struct lu_object *o)
727 {
728         return container_of0(o->lo_linkage.next, struct lu_object, lo_linkage);
729 }
730
731 /*
732  * Pointer to the fid of this object.
733  */
734 static inline const struct lu_fid *lu_object_fid(const struct lu_object *o)
735 {
736         return &o->lo_header->loh_fid;
737 }
738
739 /*
740  * return device operations vector for this object
741  */
742 static inline struct lu_device_operations *
743 lu_object_ops(const struct lu_object *o)
744 {
745         return o->lo_dev->ld_ops;
746 }
747
748 /*
749  * Given a compound object, find its slice, corresponding to the device type
750  * @dtype.
751  */
752 struct lu_object *lu_object_locate(struct lu_object_header *h,
753                                    struct lu_device_type *dtype);
754
755 struct lu_cdebug_print_info {
756         int         lpi_subsys;
757         int         lpi_mask;
758         const char *lpi_file;
759         const char *lpi_fn;
760         int         lpi_line;
761 };
762
763 /*
764  * Printer function emitting messages through libcfs_debug_msg().
765  */
766 int lu_cdebug_printer(const struct lu_env *env,
767                       void *cookie, const char *format, ...);
768
769 #define DECLARE_LU_CDEBUG_PRINT_INFO(var, mask) \
770         struct lu_cdebug_print_info var = {     \
771                 .lpi_subsys = DEBUG_SUBSYSTEM,  \
772                 .lpi_mask   = (mask),           \
773                 .lpi_file   = __FILE__,         \
774                 .lpi_fn     = __FUNCTION__,     \
775                 .lpi_line   = __LINE__          \
776         };
777
778 /*
779  * Print object description followed by user-supplied message.
780  */
781 #define LU_OBJECT_DEBUG(mask, env, object, format, ...)                 \
782 ({                                                                      \
783         static DECLARE_LU_CDEBUG_PRINT_INFO(__info, mask);              \
784                                                                         \
785         lu_object_print(env, &__info, lu_cdebug_printer, object);       \
786         CDEBUG(mask, format , ## __VA_ARGS__);                          \
787 })
788
789 /*
790  * Print human readable representation of the @o to the @f.
791  */
792 void lu_object_print(const struct lu_env *env, void *cookie,
793                      lu_printer_t printer, const struct lu_object *o);
794
795 /*
796  * Check object consistency.
797  */
798 int lu_object_invariant(const struct lu_object *o);
799
800 /*
801  * Finalize and free devices in the device stack.
802  */
803 void lu_stack_fini(const struct lu_env *env, struct lu_device *top);
804
805 /*
806  * Returns 1 iff object @o exists on the stable storage,
807  * returns -1 iff object @o is on remote server.
808  */
809 static inline int lu_object_exists(const struct lu_object *o)
810 {
811         __u32 attr;
812
813         attr = o->lo_header->loh_attr;
814         if (attr & LOHA_REMOTE)
815                 return -1;
816         else if (attr & LOHA_EXISTS)
817                 return +1;
818         else
819                 return 0;
820 }
821
822 static inline int lu_object_assert_exists(const struct lu_object *o)
823 {
824         return lu_object_exists(o) != 0;
825 }
826
827 static inline int lu_object_assert_not_exists(const struct lu_object *o)
828 {
829         return lu_object_exists(o) <= 0;
830 }
831
832 /*
833  * Attr of this object.
834  */
835 static inline __u32 lu_object_attr(const struct lu_object *o)
836 {
837         LASSERT(lu_object_exists(o) > 0);
838         return o->lo_header->loh_attr;
839 }
840
841 struct lu_rdpg {
842         /* input params, should be filled out by mdt */
843         __u64                   rp_hash;        /* hash */
844         int                     rp_count;       /* count in bytes       */
845         int                     rp_npages;      /* number of pages      */
846         struct page           **rp_pages;       /* pointers to pages    */
847 };
848
849 enum lu_xattr_flags {
850         LU_XATTR_REPLACE = (1 << 0),
851         LU_XATTR_CREATE  = (1 << 1)
852 };
853
854 /* For lu_context health-checks */
855 enum lu_context_state {
856         LCS_INITIALIZED = 1,
857         LCS_ENTERED,
858         LCS_LEFT,
859         LCS_FINALIZED
860 };
861
862 /*
863  * lu_context. Execution context for lu_object methods. Currently associated
864  * with thread.
865  *
866  * All lu_object methods, except device and device type methods (called during
867  * system initialization and shutdown) are executed "within" some
868  * lu_context. This means, that pointer to some "current" lu_context is passed
869  * as an argument to all methods.
870  *
871  * All service ptlrpc threads create lu_context as part of their
872  * initialization. It is possible to create "stand-alone" context for other
873  * execution environments (like system calls).
874  *
875  * lu_object methods mainly use lu_context through lu_context_key interface
876  * that allows each layer to associate arbitrary pieces of data with each
877  * context (see pthread_key_create(3) for similar interface).
878  *
879  */
880 struct lu_context {
881         /*
882          * Theoretically we'd want to use lu_objects and lu_contexts on the
883          * client side too. On the other hand, we don't want to allocate
884          * values of server-side keys for the client contexts and vice versa.
885          *
886          * To achieve this, set of tags in introduced. Contexts and keys are
887          * marked with tags. Key value are created only for context whose set
888          * of tags has non-empty intersection with one for key. Tags are taken
889          * from enum lu_context_tag.
890          */
891         __u32                  lc_tags;
892         /*
893          * Pointer to the home service thread. NULL for other execution
894          * contexts.
895          */
896         struct ptlrpc_thread  *lc_thread;
897         /*
898          * Pointer to an array with key values. Internal implementation
899          * detail.
900          */
901         void                 **lc_value;
902         enum lu_context_state  lc_state;
903 };
904
905 /*
906  * lu_context_key interface. Similar to pthread_key.
907  */
908
909 enum lu_context_tag {
910         /*
911          * Thread on md server
912          */
913         LCT_MD_THREAD = 1 << 0,
914         /*
915          * Thread on dt server
916          */
917         LCT_DT_THREAD = 1 << 1,
918         /*
919          * Context for transaction handle
920          */
921         LCT_TX_HANDLE = 1 << 2,
922         /*
923          * Thread on client
924          */
925         LCT_CL_THREAD = 1 << 3,
926         /*
927          * Per-request session on server
928          */
929         LCT_SESSION   = 1 << 4,
930         /*
931          * Don't add references for modules creating key values in that context.
932          * This is only for contexts used internally by lu_object framework.
933          */
934         LCT_NOREF     = 1 << 30,
935         /*
936          * Contexts usable in cache shrinker thread.
937          */
938         LCT_SHRINKER  = LCT_MD_THREAD|LCT_DT_THREAD|LCT_CL_THREAD|LCT_NOREF
939 };
940
941 /*
942  * Key. Represents per-context value slot.
943  */
944 struct lu_context_key {
945         /*
946          * Set of tags for which values of this key are to be instantiated.
947          */
948         __u32 lct_tags;
949         /*
950          * Value constructor. This is called when new value is created for a
951          * context. Returns pointer to new value of error pointer.
952          */
953         void  *(*lct_init)(const struct lu_context *ctx,
954                            struct lu_context_key *key);
955         /*
956          * Value destructor. Called when context with previously allocated
957          * value of this slot is destroyed. @data is a value that was returned
958          * by a matching call to ->lct_init().
959          */
960         void   (*lct_fini)(const struct lu_context *ctx,
961                            struct lu_context_key *key, void *data);
962         /*
963          * Optional method called on lu_context_exit() for all allocated
964          * keys. Can be used by debugging code checking that locks are
965          * released, etc.
966          */
967         void   (*lct_exit)(const struct lu_context *ctx,
968                            struct lu_context_key *key, void *data);
969         /*
970          * Internal implementation detail: index within ->lc_value[] reserved
971          * for this key.
972          */
973         int      lct_index;
974         /*
975          * Internal implementation detail: number of values created for this
976          * key.
977          */
978         atomic_t lct_used;
979         /*
980          * Internal implementation detail: module for this key.
981          */
982         struct module *lct_owner;
983 };
984
985 #define LU_KEY_INIT(mod, type)                                    \
986         static void* mod##_key_init(const struct lu_context *ctx, \
987                                     struct lu_context_key *key)   \
988         {                                                         \
989                 type *value;                                      \
990                                                                   \
991                 CLASSERT(CFS_PAGE_SIZE >= sizeof (*value));       \
992                                                                   \
993                 OBD_ALLOC_PTR(value);                             \
994                 if (value == NULL)                                \
995                         value = ERR_PTR(-ENOMEM);                 \
996                                                                   \
997                 return value;                                     \
998         }                                                         \
999         struct __##mod##__dummy_init {;} /* semicolon catcher */
1000
1001 #define LU_KEY_FINI(mod, type)                                              \
1002         static void mod##_key_fini(const struct lu_context *ctx,            \
1003                                     struct lu_context_key *key, void* data) \
1004         {                                                                   \
1005                 type *info = data;                                          \
1006                                                                             \
1007                 OBD_FREE_PTR(info);                                         \
1008         }                                                                   \
1009         struct __##mod##__dummy_fini {;} /* semicolon catcher */
1010
1011 #define LU_KEY_INIT_FINI(mod, type)   \
1012         LU_KEY_INIT(mod,type);        \
1013         LU_KEY_FINI(mod,type)
1014
1015 #define LU_CONTEXT_KEY_DEFINE(mod, tags)                \
1016         struct lu_context_key mod##_thread_key = {      \
1017                 .lct_tags = tags,                       \
1018                 .lct_init = mod##_key_init,             \
1019                 .lct_fini = mod##_key_fini              \
1020         }
1021
1022 #define LU_CONTEXT_KEY_INIT(key)                        \
1023 do {                                                    \
1024         (key)->lct_owner = THIS_MODULE;                 \
1025 } while (0)
1026
1027
1028 /*
1029  * Register new key.
1030  */
1031 int   lu_context_key_register(struct lu_context_key *key);
1032 /*
1033  * Deregister key.
1034  */
1035 void  lu_context_key_degister(struct lu_context_key *key);
1036
1037 #define LU_KEY_REGISTER_GENERIC(mod)                                             \
1038         static int mod##_key_register_generic(struct lu_context_key *k, ...)     \
1039         {                                                                        \
1040                 struct lu_context_key* key = k;                                  \
1041                 va_list args;                                                    \
1042                 int result;                                                      \
1043                                                                                  \
1044                 va_start(args, k);                                               \
1045                                                                                  \
1046                 do {                                                             \
1047                         LU_CONTEXT_KEY_INIT(key);                                \
1048                         result = lu_context_key_register(key);                   \
1049                         if (result)                                              \
1050                                 break;                                           \
1051                         key = va_arg(args, struct lu_context_key*);              \
1052                 } while (key != NULL);                                           \
1053                                                                                  \
1054                 va_end(args);                                                    \
1055                                                                                  \
1056                 if (result) {                                                    \
1057                         va_start(args, k);                                       \
1058                         while (k != key) {                                       \
1059                                 lu_context_key_degister(k);                      \
1060                                 k = va_arg(args, struct lu_context_key*);        \
1061                         }                                                        \
1062                         va_end(args);                                            \
1063                 }                                                                \
1064                                                                                  \
1065                 return result;                                                   \
1066         }
1067
1068 #define LU_KEY_DEGISTER_GENERIC(mod)                                             \
1069         static void mod##_key_degister_generic(struct lu_context_key *k, ...)    \
1070         {                                                                        \
1071                 va_list args;                                                    \
1072                                                                                  \
1073                 va_start(args, k);                                               \
1074                                                                                  \
1075                 do {                                                             \
1076                         lu_context_key_degister(k);                              \
1077                         k = va_arg(args, struct lu_context_key*);                \
1078                 } while (k != NULL);                                             \
1079                                                                                  \
1080                 va_end(args);                                                    \
1081         }
1082
1083 #define LU_TYPE_INIT(mod, ...)                                         \
1084         LU_KEY_REGISTER_GENERIC(mod)                                   \
1085         static int mod##_type_init(struct lu_device_type *t)           \
1086         {                                                              \
1087                 return mod##_key_register_generic(__VA_ARGS__, NULL);  \
1088         }                                                              \
1089         struct __##mod##_dummy_type_init {;}
1090
1091 #define LU_TYPE_FINI(mod, ...)                                         \
1092         LU_KEY_DEGISTER_GENERIC(mod)                                   \
1093         static void mod##_type_fini(struct lu_device_type *t)          \
1094         {                                                              \
1095                 mod##_key_degister_generic(__VA_ARGS__, NULL);         \
1096         }                                                              \
1097         struct __##mod##_dummy_type_fini {;}
1098
1099 #define LU_TYPE_INIT_FINI(mod, ...)                                 \
1100         LU_TYPE_INIT(mod, __VA_ARGS__);                             \
1101         LU_TYPE_FINI(mod, __VA_ARGS__)
1102
1103 /*
1104  * Return value associated with key @key in context @ctx.
1105  */
1106 void *lu_context_key_get(const struct lu_context *ctx,
1107                          struct lu_context_key *key);
1108
1109 /*
1110  * Initialize context data-structure. Create values for all keys.
1111  */
1112 int  lu_context_init(struct lu_context *ctx, __u32 tags);
1113 /*
1114  * Finalize context data-structure. Destroy key values.
1115  */
1116 void lu_context_fini(struct lu_context *ctx);
1117
1118 /*
1119  * Called before entering context.
1120  */
1121 void lu_context_enter(struct lu_context *ctx);
1122 /*
1123  * Called after exiting from @ctx
1124  */
1125 void lu_context_exit(struct lu_context *ctx);
1126
1127 /*
1128  * Allocate for context all missing keys that were registered after context
1129  * creation.
1130  */
1131 int lu_context_refill(const struct lu_context *ctx);
1132
1133 /*
1134  * Environment.
1135  */
1136 struct lu_env {
1137         /*
1138          * "Local" context, used to store data instead of stack.
1139          */
1140         struct lu_context  le_ctx;
1141         /*
1142          * "Session" context for per-request data.
1143          */
1144         struct lu_context *le_ses;
1145 };
1146
1147 int  lu_env_init(struct lu_env *env, struct lu_context *ses, __u32 tags);
1148 void lu_env_fini(struct lu_env *env);
1149
1150 /*
1151  * Common name structure to be passed around for various name related methods.
1152  */
1153 struct lu_name {
1154         char    *ln_name;
1155         int      ln_namelen;
1156 };
1157
1158 /*
1159  * Common buffer structure to be passed around for various xattr_{s,g}et()
1160  * methods.
1161  */
1162 struct lu_buf {
1163         void   *lb_buf;
1164         ssize_t lb_len;
1165 };
1166
1167 extern struct lu_buf LU_BUF_NULL; /* null buffer */
1168
1169 #define DLUBUF "(%p %z)"
1170 #define PLUBUF(buf) (buf)->lb_buf, (buf)->lb_len
1171 /*
1172  * One-time initializers, called at obdclass module initialization, not
1173  * exported.
1174  */
1175
1176 /*
1177  * Initialization of global lu_* data.
1178  */
1179 int lu_global_init(void);
1180
1181 /*
1182  * Dual to lu_global_init().
1183  */
1184 void lu_global_fini(void);
1185
1186 enum {
1187         LU_TIME_FIND_LOOKUP,
1188         LU_TIME_FIND_ALLOC,
1189         LU_TIME_FIND_INSERT,
1190         LU_TIME_NR
1191 };
1192
1193 extern const char *lu_time_names[LU_TIME_NR];
1194
1195 #endif /* __LUSTRE_LU_OBJECT_H */