Whamcloud - gitweb
LU-17242 debug: remove CFS_CHECK_STACK
[fs/lustre-release.git] / lustre / include / lustre_fid.h
1 /*
2  * GPL HEADER START
3  *
4  * DO NOT ALTER OR REMOVE COPYRIGHT NOTICES OR THIS FILE HEADER.
5  *
6  * This program is free software; you can redistribute it and/or modify
7  * it under the terms of the GNU General Public License version 2 only,
8  * as published by the Free Software Foundation.
9  *
10  * This program is distributed in the hope that it will be useful, but
11  * WITHOUT ANY WARRANTY; without even the implied warranty of
12  * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
13  * General Public License version 2 for more details (a copy is included
14  * in the LICENSE file that accompanied this code).
15  *
16  * You should have received a copy of the GNU General Public License
17  * version 2 along with this program; If not, see
18  * http://www.gnu.org/licenses/gpl-2.0.html
19  *
20  * GPL HEADER END
21  */
22 /*
23  * Copyright (c) 2007, 2010, Oracle and/or its affiliates. All rights reserved.
24  * Use is subject to license terms.
25  *
26  * Copyright (c) 2011, 2017, Intel Corporation.
27  */
28 /*
29  * This file is part of Lustre, http://www.lustre.org/
30  *
31  * lustre/include/lustre_fid.h
32  *
33  * Author: Yury Umanets <umka@clusterfs.com>
34  */
35
36 #ifndef __LUSTRE_FID_H
37 #define __LUSTRE_FID_H
38
39 /** \defgroup fid fid
40  *
41  * @{
42  *
43  * http://wiki.lustre.org/index.php/Architecture_-_Interoperability_fids_zfs
44  * describes the FID namespace and interoperability requirements for FIDs.
45  * The important parts of that document are included here for reference.
46  *
47  * FID
48  *   File IDentifier generated by client from range allocated by the SEQuence
49  *   service and stored in struct lu_fid. The FID is composed of three parts:
50  *   SEQuence, ObjectID, and VERsion.  The SEQ component is a filesystem
51  *   unique 64-bit integer, and only one client is ever assigned any SEQ value.
52  *   The first 0x400 FID_SEQ_NORMAL [2^33, 2^33 + 0x400] values are reserved
53  *   for system use.  The OID component is a 32-bit value generated by the
54  *   client on a per-SEQ basis to allow creating many unique FIDs without
55  *   communication with the server.  The VER component is a 32-bit value that
56  *   distinguishes between different FID instantiations, such as snapshots or
57  *   separate subtrees within the filesystem.  FIDs with the same VER field
58  *   are considered part of the same namespace.
59  *
60  * OLD filesystems are those upgraded from Lustre 1.x that predate FIDs, and
61  *   MDTs use 32-bit ldiskfs internal inode/generation numbers (IGIFs), while
62  *   OSTs use 64-bit Lustre object IDs and generation numbers.
63  *
64  * NEW filesystems are those formatted since the introduction of FIDs.
65  *
66  * IGIF
67  *   Inode and Generation In FID, a surrogate FID used to globally identify
68  *   an existing object on OLD formatted MDT file system. This would only be
69  *   used on MDT0 in a DNE filesystem, because there cannot be more than one
70  *   MDT in an OLD formatted filesystem. Belongs to sequence in [12, 2^32 - 1]
71  *   range, where inode number is stored in SEQ, and inode generation is in OID.
72  *   NOTE: This assumes no more than 2^32-1 inodes exist in the MDT filesystem,
73  *   which is the maximum possible for an ldiskfs backend.  It also assumes
74  *   that the reserved ext3/ext4/ldiskfs inode numbers [0-11] are never visible
75  *   to clients, which has always been true.
76  *
77  * IDIF
78  *   object ID In FID, a surrogate FID used to globally identify an existing
79  *   OST object on OLD formatted OST file system. Belongs to a sequence in
80  *   [2^32, 2^33 - 1]. Sequence number is calculated as:
81  *
82  *      1 << 32 | (ost_index << 16) | ((objid >> 32) & 0xffff)
83  *
84  *   that is, SEQ consists of 16-bit OST index, and higher 16 bits of object
85  *   ID. The generation of unique SEQ values per OST allows the IDIF FIDs to
86  *   be identified in the FLD correctly. The OID field is calculated as:
87  *
88  *      objid & 0xffffffff
89  *
90  *   that is, it consists of lower 32 bits of object ID.  For objects within
91  *   the IDIF range, object ID extraction will be:
92  *
93  *      o_id = (fid->f_seq & 0x7fff) << 16 | fid->f_oid;
94  *      o_seq = 0;  // formerly group number
95  *
96  *   NOTE: This assumes that no more than 2^48-1 objects have ever been created
97  *   on any OST, and that no more than 65535 OSTs are in use.  Both are very
98  *   reasonable assumptions, i.e. an IDIF can uniquely map all objects assuming
99  *   a maximum creation rate of 1M objects per second for a maximum of 9 years,
100  *   or combinations thereof.
101  *
102  * OST_MDT0
103  *   Surrogate FID used to identify an existing object on OLD formatted OST
104  *   filesystem. Belongs to the reserved SEQuence 0, and is used prior to
105  *   the introduction of FID-on-OST, at which point IDIF will be used to
106  *   identify objects as residing on a specific OST.
107  *
108  * LLOG
109  *   For Lustre Log objects the object sequence 1 is used. This is compatible
110  *   with both OLD and NEW namespaces, as this SEQ number is in the
111  *   ext3/ldiskfs reserved inode range and does not conflict with IGIF
112  *   sequence numbers.
113  *
114  * ECHO
115  *   For testing OST IO performance the object sequence 2 is used. This is
116  *   compatible with both OLD and NEW namespaces, as this SEQ number is in
117  *   the ext3/ldiskfs reserved inode range and does not conflict with IGIF
118  *   sequence numbers.
119  *
120  * OST_MDT1 .. OST_MAX
121  *   For testing with multiple MDTs the object sequence 3 through 9 is used,
122  *   allowing direct mapping of MDTs 1 through 7 respectively, for a total
123  *   of 8 MDTs including OST_MDT0. This matches the legacy CMD project "group"
124  *   mappings. However, this SEQ range is only for testing prior to any
125  *   production DNE release, as the objects in this range conflict across all
126  *   OSTs, as the OST index is not part of the FID.  For production DNE usage,
127  *   OST objects created by MDT1+ will use FID_SEQ_NORMAL FIDs.
128  *
129  * DLM OST objid to IDIF mapping
130  *   For compatibility with existing OLD OST network protocol structures, the
131  *   FID must map onto the o_id and o_seq in a manner that ensures existing
132  *   objects are identified consistently for IO, as well as onto the LDLM
133  *   namespace to ensure IDIFs there is only a single resource name for any
134  *   object in the DLM.  The OLD OST object DLM resource mapping is:
135  *
136  *      resource[] = {o_id, o_seq, 0, 0}; // o_seq == 0 for production releases
137  *
138  *   The NEW OST object DLM resource mapping is the same for both MDT and OST:
139  *
140  *      resource[] = {SEQ, OID, VER, HASH};
141  *
142  *  NOTE: for mapping IDIF values to DLM resource names the o_id may be
143  *  larger than the 2^33 reserved sequence numbers for IDIF, so it is possible
144  *  for the o_id numbers to overlap FID SEQ numbers in the resource. However,
145  *  in all production releases the OLD o_seq field is always zero, and all
146  *  valid FID OID values are non-zero, so the lock resources will not collide.
147  *  Even so, the MDT and OST resources are also in different LDLM namespaces.
148  */
149
150 #include <libcfs/libcfs.h>
151 #include <uapi/linux/lustre/lustre_fid.h>
152 #include <uapi/linux/lustre/lustre_idl.h>
153 #include <uapi/linux/lustre/lustre_ostid.h>
154
155 /* Lustre service names are following the format
156  * service name + MDT + seq name
157  */
158 #define LUSTRE_MDT_MAXNAMELEN           80
159
160 struct lu_env;
161 struct lu_site;
162 struct lu_context;
163 struct obd_device;
164 struct obd_export;
165
166 /* Whole sequences space range and zero range definitions */
167 extern const struct lu_seq_range LUSTRE_SEQ_SPACE_RANGE;
168 extern const struct lu_seq_range LUSTRE_SEQ_ZERO_RANGE;
169 extern const struct lu_fid LUSTRE_BFL_FID;
170 extern const struct lu_fid LU_LPF_FID;
171 extern const struct lu_fid LU_BACKEND_LPF_FID;
172
173 enum {
174         /*
175          * This is how may metadata FIDs may be allocated in one sequence(128k)
176          */
177         LUSTRE_METADATA_SEQ_MAX_WIDTH = 0x0000000000020000ULL,
178
179         /*
180          * This is how many data FIDs could be allocated in one sequence(32M - 1)
181          */
182         LUSTRE_DATA_SEQ_MAX_WIDTH = 0x0000000001FFFFFFULL,
183
184         /*
185          * How many sequences to allocate to a client at once.
186          */
187         LUSTRE_SEQ_META_WIDTH = 0x0000000000000001ULL,
188
189         /*
190          * seq allocation pool size.
191          */
192         LUSTRE_SEQ_BATCH_WIDTH = LUSTRE_SEQ_META_WIDTH * 1000,
193
194         /*
195          * This is how many sequences may be in one super-sequence allocated to
196          * MDTs.
197          */
198         LUSTRE_SEQ_SUPER_WIDTH = ((1ULL << 30ULL) * LUSTRE_SEQ_META_WIDTH)
199 };
200
201 /** special OID for local objects */
202 enum local_oid {
203         /** \see fld_mod_init */
204         FLD_INDEX_OID           = 3UL,
205         /** \see fid_mod_init */
206         FID_SEQ_CTL_OID         = 4UL,
207         FID_SEQ_SRV_OID         = 5UL,
208         /** \see mdd_mod_init */
209         MDD_ROOT_INDEX_OID      = 6UL, /* deprecated in 2.4 */
210         MDD_ORPHAN_OID          = 7UL, /* deprecated in 2.4 */
211         MDD_LOV_OBJ_OID         = 8UL,
212         MDD_CAPA_KEYS_OID       = 9UL,
213         /** \see mdt_mod_init */
214         LAST_RECV_OID           = 11UL,
215         OSD_FS_ROOT_OID         = 13UL,
216         ACCT_USER_OID           = 15UL,
217         ACCT_GROUP_OID          = 16UL,
218         LFSCK_BOOKMARK_OID      = 17UL,
219         OTABLE_IT_OID           = 18UL,
220         OSD_LPF_OID             = 19UL,
221         REPLY_DATA_OID          = 21UL,
222         ACCT_PROJECT_OID        = 22UL,
223         INDEX_BACKUP_OID        = 4116UL,
224         OFD_LAST_GROUP_OID      = 4117UL,
225         LLOG_CATALOGS_OID       = 4118UL,
226         MGS_CONFIGS_OID         = 4119UL,
227         OFD_HEALTH_CHECK_OID    = 4120UL,
228         MDD_LOV_OBJ_OSEQ        = 4121UL,
229         LFSCK_NAMESPACE_OID     = 4122UL,
230         REMOTE_PARENT_DIR_OID   = 4123UL,
231         /* This definition is obsolete
232          * SLAVE_LLOG_CATALOGS_OID      = 4124UL,
233          */
234         BATCHID_COMMITTED_OID   = 4125UL,
235 };
236
237 static inline void lu_local_obj_fid(struct lu_fid *fid, __u32 oid)
238 {
239         fid->f_seq = FID_SEQ_LOCAL_FILE;
240         fid->f_oid = oid;
241         fid->f_ver = 0;
242 }
243
244 static inline void lu_local_name_obj_fid(struct lu_fid *fid, __u32 oid)
245 {
246         fid->f_seq = FID_SEQ_LOCAL_NAME;
247         fid->f_oid = oid;
248         fid->f_ver = 0;
249 }
250
251 /* For new FS (>= 2.4), the root FID will be changed to
252  * [FID_SEQ_ROOT:1:0], for existing FS, (upgraded to 2.4),
253  * the root FID will still be IGIF */
254 static inline int fid_is_root(const struct lu_fid *fid)
255 {
256         return unlikely(lu_fid_eq(fid, &LU_ROOT_FID));
257 }
258
259 static inline int fid_is_dot_lustre(const struct lu_fid *fid)
260 {
261         return unlikely(lu_fid_eq(fid, &LU_DOT_LUSTRE_FID));
262 }
263
264 static inline int fid_is_obf(const struct lu_fid *fid)
265 {
266         return unlikely(lu_fid_eq(fid, &LU_OBF_FID));
267 }
268
269 static inline int fid_is_otable_it(const struct lu_fid *fid)
270 {
271         return unlikely(fid_seq(fid) == FID_SEQ_LOCAL_FILE &&
272                         fid_oid(fid) == OTABLE_IT_OID);
273 }
274
275 static inline int fid_oid_is_quota(const struct lu_fid *fid)
276 {
277         switch (fid_oid(fid)) {
278         case ACCT_USER_OID:
279         case ACCT_GROUP_OID:
280         case ACCT_PROJECT_OID:
281                 return 1;
282         default:
283                 return 0;
284         }
285 }
286
287 static inline int fid_is_acct(const struct lu_fid *fid)
288 {
289         return fid_seq(fid) == FID_SEQ_LOCAL_FILE &&
290                fid_oid_is_quota(fid);
291 }
292
293 static inline int fid_is_quota(const struct lu_fid *fid)
294 {
295         return fid_seq(fid) == FID_SEQ_QUOTA ||
296                fid_seq(fid) == FID_SEQ_QUOTA_GLB;
297 }
298
299 static inline int fid_is_name_llog(const struct lu_fid *fid)
300 {
301         return fid_seq(fid) == FID_SEQ_LLOG_NAME;
302 }
303
304 static inline int fid_seq_in_fldb(u64 seq)
305 {
306         return fid_seq_is_igif(seq) || fid_seq_is_norm(seq) ||
307                fid_seq_is_root(seq) || fid_seq_is_dot(seq);
308 }
309
310 #ifdef HAVE_SERVER_SUPPORT
311 static inline int fid_is_namespace_visible(const struct lu_fid *fid)
312 {
313         const __u64 seq = fid_seq(fid);
314
315         /* Here, we cannot distinguish whether the normal FID is for OST
316          * object or not. It is caller's duty to check more if needed. */
317         return (!fid_is_last_id(fid) &&
318                 (fid_seq_is_norm(seq) || fid_seq_is_igif(seq))) ||
319                fid_is_root(fid) || fid_seq_is_dot(seq);
320 }
321
322 static inline void ost_layout_cpu_to_le(struct ost_layout *dst,
323                                         const struct ost_layout *src)
324 {
325         dst->ol_stripe_size = __cpu_to_le32(src->ol_stripe_size);
326         dst->ol_stripe_count = __cpu_to_le32(src->ol_stripe_count);
327         dst->ol_comp_start = __cpu_to_le64(src->ol_comp_start);
328         dst->ol_comp_end = __cpu_to_le64(src->ol_comp_end);
329         dst->ol_comp_id = __cpu_to_le32(src->ol_comp_id);
330 }
331
332 static inline void ost_layout_le_to_cpu(struct ost_layout *dst,
333                                         const struct ost_layout *src)
334 {
335         dst->ol_stripe_size = __le32_to_cpu(src->ol_stripe_size);
336         dst->ol_stripe_count = __le32_to_cpu(src->ol_stripe_count);
337         dst->ol_comp_start = __le64_to_cpu(src->ol_comp_start);
338         dst->ol_comp_end = __le64_to_cpu(src->ol_comp_end);
339         dst->ol_comp_id = __le32_to_cpu(src->ol_comp_id);
340 }
341
342 static inline void filter_fid_cpu_to_le(struct filter_fid *dst,
343                                         const struct filter_fid *src, int size)
344 {
345         fid_cpu_to_le(&dst->ff_parent, &src->ff_parent);
346
347         if (size < sizeof(struct filter_fid)) {
348                 memset(&dst->ff_layout, 0, sizeof(dst->ff_layout));
349         } else {
350                 ost_layout_cpu_to_le(&dst->ff_layout, &src->ff_layout);
351                 dst->ff_layout_version = cpu_to_le32(src->ff_layout_version);
352                 dst->ff_range = cpu_to_le32(src->ff_range);
353         }
354
355         /* XXX: Add more if filter_fid is enlarged in the future. */
356 }
357
358 static inline void filter_fid_le_to_cpu(struct filter_fid *dst,
359                                         const struct filter_fid *src, int size)
360 {
361         fid_le_to_cpu(&dst->ff_parent, &src->ff_parent);
362
363         if (size < sizeof(struct filter_fid)) {
364                 memset(&dst->ff_layout, 0, sizeof(dst->ff_layout));
365         } else {
366                 ost_layout_le_to_cpu(&dst->ff_layout, &src->ff_layout);
367                 dst->ff_layout_version = le32_to_cpu(src->ff_layout_version);
368                 dst->ff_range = le32_to_cpu(src->ff_range);
369         }
370
371         /* XXX: Add more if filter_fid is enlarged in the future. */
372 }
373 #endif /* HAVE_SERVER_SUPPORT */
374
375 static inline void lu_last_id_fid(struct lu_fid *fid, __u64 seq, __u32 ost_idx)
376 {
377         if (fid_seq_is_mdt0(seq)) {
378                 fid->f_seq = fid_idif_seq(0, ost_idx);
379         } else {
380                 LASSERTF(fid_seq_is_norm(seq) || fid_seq_is_echo(seq) ||
381                          fid_seq_is_idif(seq), "%#llx\n", seq);
382                 fid->f_seq = seq;
383         }
384         fid->f_oid = 0;
385         fid->f_ver = 0;
386 }
387
388 static inline bool fid_is_md_operative(const struct lu_fid *fid)
389 {
390         return fid_is_mdt0(fid) || fid_is_igif(fid) ||
391                fid_is_norm(fid) || fid_is_root(fid);
392 }
393
394 /* seq client type */
395 enum lu_cli_type {
396         LUSTRE_SEQ_METADATA = 1,
397         LUSTRE_SEQ_DATA
398 };
399
400 enum lu_mgr_type {
401         LUSTRE_SEQ_SERVER,
402         LUSTRE_SEQ_CONTROLLER
403 };
404
405 struct lu_server_seq;
406
407 /* Client sequence manager interface. */
408 struct lu_client_seq {
409         /* Sequence-controller export. */
410         struct obd_export       *lcs_exp;
411         struct mutex            lcs_mutex;
412
413         /*
414          * Range of allowed for allocation sequeces. When using lu_client_seq on
415          * clients, this contains meta-sequence range. And for servers this
416          * contains super-sequence range.
417          */
418         struct lu_seq_range     lcs_space;
419
420         /* Seq related debugfs */
421         struct dentry           *lcs_debugfs_entry;
422
423         /* This holds last allocated fid in last obtained seq */
424         struct lu_fid           lcs_fid;
425
426         /* LUSTRE_SEQ_METADATA or LUSTRE_SEQ_DATA */
427         enum lu_cli_type        lcs_type;
428
429         /*
430          * Service uuid, passed from MDT + seq name to form unique seq name to
431          * use it with debugfs.
432          */
433         char                    lcs_name[LUSTRE_MDT_MAXNAMELEN];
434
435         /*
436          * Sequence width, that is how many objects may be allocated in one
437          * sequence. Default value for it is LUSTRE_SEQ_MAX_WIDTH.
438          */
439         __u64                   lcs_width;
440
441         /* Seq-server for direct talking */
442         struct lu_server_seq    *lcs_srv;
443 };
444
445 /* server sequence manager interface */
446 struct lu_server_seq {
447         /* Available sequences space */
448         struct lu_seq_range         lss_space;
449
450         /* keeps highwater in lsr_end for seq allocation algorithm */
451         struct lu_seq_range         lss_lowater_set;
452         struct lu_seq_range         lss_hiwater_set;
453
454         /*
455          * Device for server side seq manager needs (saving sequences to backing
456          * store).
457          */
458         struct dt_device       *lss_dev;
459
460         /* /seq file object device */
461         struct dt_object       *lss_obj;
462
463         /* Seq related debugfs */
464         struct dentry           *lss_debugfs_entry;
465
466         /* LUSTRE_SEQ_SERVER or LUSTRE_SEQ_CONTROLLER */
467         enum lu_mgr_type       lss_type;
468
469         /* Client interface to request controller */
470         struct lu_client_seq   *lss_cli;
471
472         /* Mutex for protecting allocation */
473         struct mutex            lss_mutex;
474
475         /*
476          * Service uuid, passed from MDT + seq name to form unique seq name to
477          * use it with debugfs.
478          */
479         char                    lss_name[LUSTRE_MDT_MAXNAMELEN];
480
481         /*
482          * Allocation chunks for super and meta sequences. Default values are
483          * LUSTRE_SEQ_SUPER_WIDTH and LUSTRE_SEQ_META_WIDTH.
484          */
485         __u64                   lss_width;
486
487         /*
488          * minimum lss_alloc_set size that should be allocated from
489          * lss_space
490          */
491         __u64                   lss_set_width;
492
493         /* sync is needed for update operation */
494         __u32                   lss_need_sync;
495
496         /**
497          * Pointer to site object, required to access site fld.
498          */
499         struct seq_server_site  *lss_site;
500 };
501
502 struct seq_server_site {
503         struct lu_site       *ss_lu;
504         /**
505          * mds number of this site.
506          */
507         u32                   ss_node_id;
508         /**
509          * Fid location database
510          */
511         struct lu_server_fld *ss_server_fld;
512         struct lu_client_fld *ss_client_fld;
513
514         /**
515          * Server Seq Manager
516          */
517         struct lu_server_seq *ss_server_seq;
518
519         /**
520          * Controller Seq Manager
521          */
522         struct lu_server_seq *ss_control_seq;
523         struct obd_export    *ss_control_exp;
524
525         /**
526          * Client Seq Manager
527          */
528         struct lu_client_seq *ss_client_seq;
529 };
530
531 /* Server methods */
532
533 int seq_server_init(const struct lu_env *env,
534                     struct lu_server_seq *seq,
535                     struct dt_device *dev,
536                     const char *prefix,
537                     enum lu_mgr_type type,
538                     struct seq_server_site *ss);
539
540 void seq_server_fini(struct lu_server_seq *seq,
541                      const struct lu_env *env);
542
543 int seq_server_alloc_super(struct lu_server_seq *seq,
544                            struct lu_seq_range *out,
545                            const struct lu_env *env);
546
547 int seq_server_alloc_meta(struct lu_server_seq *seq,
548                           struct lu_seq_range *out,
549                           const struct lu_env *env);
550
551 int seq_server_set_cli(const struct lu_env *env,
552                        struct lu_server_seq *seq,
553                        struct lu_client_seq *cli);
554
555 int seq_server_check_and_alloc_super(const struct lu_env *env,
556                                      struct lu_server_seq *seq);
557 /* Client methods */
558 void seq_client_init(struct lu_client_seq *seq,
559                      struct obd_export *exp,
560                      enum lu_cli_type type,
561                      const char *prefix,
562                      struct lu_server_seq *srv);
563
564 void seq_client_fini(struct lu_client_seq *seq);
565
566 void seq_client_flush(struct lu_client_seq *seq);
567
568 int seq_client_alloc_fid(const struct lu_env *env, struct lu_client_seq *seq,
569                          struct lu_fid *fid);
570 int seq_client_get_seq(const struct lu_env *env, struct lu_client_seq *seq,
571                        u64 *seqnr);
572 int seq_site_fini(const struct lu_env *env, struct seq_server_site *ss);
573 /* Fids common stuff */
574 int fid_is_local(const struct lu_env *env,
575                  struct lu_site *site, const struct lu_fid *fid);
576
577 enum lu_cli_type;
578 int client_fid_init(struct obd_device *obd, struct obd_export *exp,
579                     enum lu_cli_type type);
580 int client_fid_fini(struct obd_device *obd);
581
582 /* fid locking */
583
584 struct ldlm_namespace;
585
586 /*
587  * Build (DLM) resource name from FID.
588  *
589  * NOTE: until Lustre 1.8.7/2.1.1 the fid_ver() was packed into name[2],
590  * but was moved into name[1] along with the OID to avoid consuming the
591  * renaming name[2,3] fields that need to be used for the quota identifier.
592  */
593 static inline void
594 fid_build_reg_res_name(const struct lu_fid *fid, struct ldlm_res_id *res)
595 {
596         memset(res, 0, sizeof(*res));
597         res->name[LUSTRE_RES_ID_SEQ_OFF] = fid_seq(fid);
598         res->name[LUSTRE_RES_ID_VER_OID_OFF] = fid_ver_oid(fid);
599 }
600
601 /*
602  * Return true if resource is for object identified by FID.
603  */
604 static inline int fid_res_name_eq(const struct lu_fid *fid,
605                                   const struct ldlm_res_id *res)
606 {
607         return res->name[LUSTRE_RES_ID_SEQ_OFF] == fid_seq(fid) &&
608                res->name[LUSTRE_RES_ID_VER_OID_OFF] == fid_ver_oid(fid);
609 }
610
611 /*
612  * Extract FID from LDLM resource. Reverse of fid_build_reg_res_name().
613  */
614 static inline void
615 fid_extract_from_res_name(struct lu_fid *fid, const struct ldlm_res_id *res)
616 {
617         fid->f_seq = res->name[LUSTRE_RES_ID_SEQ_OFF];
618         fid->f_oid = (__u32)(res->name[LUSTRE_RES_ID_VER_OID_OFF]);
619         fid->f_ver = (__u32)(res->name[LUSTRE_RES_ID_VER_OID_OFF] >> 32);
620         LASSERT(fid_res_name_eq(fid, res));
621 }
622
623 /*
624  * Build (DLM) resource identifier from global quota FID and quota ID.
625  */
626 static inline void
627 fid_build_quota_res_name(const struct lu_fid *glb_fid, union lquota_id *qid,
628                       struct ldlm_res_id *res)
629 {
630         fid_build_reg_res_name(glb_fid, res);
631         res->name[LUSTRE_RES_ID_QUOTA_SEQ_OFF] = fid_seq(&qid->qid_fid);
632         res->name[LUSTRE_RES_ID_QUOTA_VER_OID_OFF] = fid_ver_oid(&qid->qid_fid);
633 }
634
635 /*
636  * Extract global FID and quota ID from resource name
637  */
638 static inline void fid_extract_from_quota_res(struct lu_fid *glb_fid,
639                                               union lquota_id *qid,
640                                               const struct ldlm_res_id *res)
641 {
642         fid_extract_from_res_name(glb_fid, res);
643         qid->qid_fid.f_seq = res->name[LUSTRE_RES_ID_QUOTA_SEQ_OFF];
644         qid->qid_fid.f_oid = (__u32)res->name[LUSTRE_RES_ID_QUOTA_VER_OID_OFF];
645         qid->qid_fid.f_ver =
646                 (__u32)(res->name[LUSTRE_RES_ID_QUOTA_VER_OID_OFF] >> 32);
647 }
648
649 static inline void
650 fid_build_pdo_res_name(const struct lu_fid *fid, unsigned int hash,
651                        struct ldlm_res_id *res)
652 {
653         fid_build_reg_res_name(fid, res);
654         res->name[LUSTRE_RES_ID_HSH_OFF] = hash;
655 }
656
657 /**
658  * Build DLM resource name from object id & seq, which will be removed
659  * finally, when we replace ost_id with FID in data stack.
660  *
661  * Currently, resid from the old client, whose res[0] = object_id,
662  * res[1] = object_seq, is just oposite with Metatdata
663  * resid, where, res[0] = fid->f_seq, res[1] = fid->f_oid.
664  * To unifiy the resid identification, we will reverse the data
665  * resid to keep it same with Metadata resid, i.e.
666  *
667  * For resid from the old client,
668  *    res[0] = objid,  res[1] = 0, still keep the original order,
669  *    for compatiblity.
670  *
671  * For new resid
672  *    res will be built from normal FID directly, i.e. res[0] = f_seq,
673  *    res[1] = f_oid + f_ver.
674  */
675 static inline void ostid_build_res_name(const struct ost_id *oi,
676                                         struct ldlm_res_id *name)
677 {
678         memset(name, 0, sizeof *name);
679         if (fid_seq_is_mdt0(ostid_seq(oi))) {
680                 name->name[LUSTRE_RES_ID_SEQ_OFF] = ostid_id(oi);
681                 name->name[LUSTRE_RES_ID_VER_OID_OFF] = ostid_seq(oi);
682         } else {
683                 fid_build_reg_res_name(&oi->oi_fid, name);
684         }
685 }
686
687 /**
688  * Return true if the resource is for the object identified by this id & group.
689  */
690 static inline bool ostid_res_name_eq(const struct ost_id *oi,
691                                      const struct ldlm_res_id *name)
692 {
693         /* Note: it is just a trick here to save some effort, probably the
694          * correct way would be turn them into the FID and compare */
695         if (fid_seq_is_mdt0(ostid_seq(oi))) {
696                 return name->name[LUSTRE_RES_ID_SEQ_OFF] == ostid_id(oi) &&
697                        name->name[LUSTRE_RES_ID_VER_OID_OFF] == ostid_seq(oi);
698         } else {
699                 return name->name[LUSTRE_RES_ID_SEQ_OFF] == ostid_seq(oi) &&
700                        name->name[LUSTRE_RES_ID_VER_OID_OFF] == ostid_id(oi);
701         }
702 }
703
704 /**
705  * Note: we need check oi_seq to decide where to set oi_id,
706  * so oi_seq should always be set ahead of oi_id.
707  */
708 static inline int ostid_set_id(struct ost_id *oi, __u64 oid)
709 {
710         if (fid_seq_is_mdt0(oi->oi.oi_seq)) {
711                 if (oid > IDIF_MAX_OID)
712                         return -E2BIG;
713                 oi->oi.oi_id = oid;
714         } else if (fid_is_idif(&oi->oi_fid)) {
715                 if (oid > IDIF_MAX_OID)
716                         return -E2BIG;
717                 oi->oi_fid.f_seq = fid_idif_seq(oid,
718                                                 fid_idif_ost_idx(&oi->oi_fid));
719                 oi->oi_fid.f_oid = oid;
720                 oi->oi_fid.f_ver = oid >> 48;
721         } else {
722                 if (oid > OBIF_MAX_OID)
723                         return -E2BIG;
724                 oi->oi_fid.f_oid = oid;
725         }
726         return 0;
727 }
728
729 /* pack any OST FID into an ostid (id/seq) for the wire/disk */
730 static inline int fid_to_ostid(const struct lu_fid *fid, struct ost_id *ostid)
731 {
732         int rc = 0;
733
734         if (fid_seq_is_igif(fid->f_seq))
735                 return -EBADF;
736
737         if (fid_is_idif(fid)) {
738                 ostid_set_seq_mdt0(ostid);
739                 rc = ostid_set_id(ostid, fid_idif_id(fid_seq(fid),
740                                   fid_oid(fid), fid_ver(fid)));
741         } else {
742                 ostid->oi_fid = *fid;
743         }
744
745         return rc;
746 }
747
748 /* The same as osc_build_res_name() */
749 static inline void ost_fid_build_resid(const struct lu_fid *fid,
750                                        struct ldlm_res_id *resname)
751 {
752         if (fid_is_mdt0(fid) || fid_is_idif(fid)) {
753                 struct ost_id oi;
754                 oi.oi.oi_id = 0; /* gcc 4.7.2 complains otherwise */
755                 if (fid_to_ostid(fid, &oi) != 0)
756                         return;
757                 ostid_build_res_name(&oi, resname);
758         } else {
759                 fid_build_reg_res_name(fid, resname);
760         }
761 }
762
763 static inline void ost_fid_from_resid(struct lu_fid *fid,
764                                       const struct ldlm_res_id *name,
765                                       int ost_idx)
766 {
767         if (fid_seq_is_mdt0(name->name[LUSTRE_RES_ID_VER_OID_OFF])) {
768                 /* old resid */
769                 struct ost_id oi;
770
771                 memset(&oi, 0, sizeof(oi));
772                 ostid_set_seq(&oi, name->name[LUSTRE_RES_ID_VER_OID_OFF]);
773                 if (ostid_set_id(&oi, name->name[LUSTRE_RES_ID_SEQ_OFF])) {
774                         CERROR("Bad %llu to set " DOSTID "\n",
775                                name->name[LUSTRE_RES_ID_SEQ_OFF], POSTID(&oi));
776                 }
777                 ostid_to_fid(fid, &oi, ost_idx);
778         } else {
779                 /* new resid */
780                 fid_extract_from_res_name(fid, name);
781         }
782 }
783
784 static inline __u32 fid_hash(const struct lu_fid *f, int bits)
785 {
786         /*
787          * All objects with same id and different versions will belong to same
788          * collisions list.
789          */
790         return cfs_hash_long(fid_flatten64(f), bits);
791 }
792
793 static inline int
794 lu_fid_diff(const struct lu_fid *fid1, const struct lu_fid *fid2)
795 {
796         LASSERTF(fid_seq(fid1) == fid_seq(fid2), "fid1:"DFID", fid2:"DFID"\n",
797                  PFID(fid1), PFID(fid2));
798
799         if (fid_is_idif(fid1) && fid_is_idif(fid2))
800                 return fid_idif_id(fid1->f_seq, fid1->f_oid, fid1->f_ver) -
801                        fid_idif_id(fid2->f_seq, fid2->f_oid, fid2->f_ver);
802
803         return fid_oid(fid1) - fid_oid(fid2);
804 }
805
806 static inline int fid_set_id(struct lu_fid *fid, u64 oid)
807 {
808         if (unlikely(fid_seq_is_igif(fid->f_seq))) {
809                 CERROR("bad IGIF, "DFID"\n", PFID(fid));
810                 return -EBADF;
811         }
812
813         if (fid_is_idif(fid)) {
814                 if (oid > IDIF_MAX_OID) {
815                         CERROR("Too large OID %#llx to set IDIF "DFID"\n",
816                                (unsigned long long)oid, PFID(fid));
817                         return -EBADF;
818                 }
819                 fid->f_seq = fid_idif_seq(oid, fid_idif_ost_idx(fid));
820                 fid->f_oid = oid;
821                 fid->f_ver = oid >> 48;
822         } else {
823                 if (oid > OBIF_MAX_OID) {
824                         CERROR("Too large OID %#llx to set REG "DFID"\n",
825                                (unsigned long long)oid, PFID(fid));
826                         return -EBADF;
827                 }
828                 fid->f_oid = oid;
829         }
830         return 0;
831 }
832
833 #define LUSTRE_SEQ_SRV_NAME "seq_srv"
834 #define LUSTRE_SEQ_CTL_NAME "seq_ctl"
835
836 /* Range common stuff */
837 static inline void
838 range_cpu_to_le(struct lu_seq_range *dst, const struct lu_seq_range *src)
839 {
840         dst->lsr_start = cpu_to_le64(src->lsr_start);
841         dst->lsr_end = cpu_to_le64(src->lsr_end);
842         dst->lsr_index = cpu_to_le32(src->lsr_index);
843         dst->lsr_flags = cpu_to_le32(src->lsr_flags);
844 }
845
846 static inline void
847 range_le_to_cpu(struct lu_seq_range *dst, const struct lu_seq_range *src)
848 {
849         dst->lsr_start = le64_to_cpu(src->lsr_start);
850         dst->lsr_end = le64_to_cpu(src->lsr_end);
851         dst->lsr_index = le32_to_cpu(src->lsr_index);
852         dst->lsr_flags = le32_to_cpu(src->lsr_flags);
853 }
854
855 static inline void
856 range_cpu_to_be(struct lu_seq_range *dst, const struct lu_seq_range *src)
857 {
858         dst->lsr_start = cpu_to_be64(src->lsr_start);
859         dst->lsr_end = cpu_to_be64(src->lsr_end);
860         dst->lsr_index = cpu_to_be32(src->lsr_index);
861         dst->lsr_flags = cpu_to_be32(src->lsr_flags);
862 }
863
864 static inline void
865 range_be_to_cpu(struct lu_seq_range *dst, const struct lu_seq_range *src)
866 {
867         dst->lsr_start = be64_to_cpu(src->lsr_start);
868         dst->lsr_end = be64_to_cpu(src->lsr_end);
869         dst->lsr_index = be32_to_cpu(src->lsr_index);
870         dst->lsr_flags = be32_to_cpu(src->lsr_flags);
871 }
872
873 static inline void range_array_cpu_to_le(struct lu_seq_range_array *dst,
874                                          const struct lu_seq_range_array *src)
875 {
876         __u32 i;
877
878         for (i = 0; i < src->lsra_count; i++)
879                 range_cpu_to_le(&dst->lsra_lsr[i], &src->lsra_lsr[i]);
880
881         dst->lsra_count = cpu_to_le32(src->lsra_count);
882 }
883
884 static inline void range_array_le_to_cpu(struct lu_seq_range_array *dst,
885                                          const struct lu_seq_range_array *src)
886 {
887         __u32 i;
888
889         dst->lsra_count = le32_to_cpu(src->lsra_count);
890         for (i = 0; i < dst->lsra_count; i++)
891                 range_le_to_cpu(&dst->lsra_lsr[i], &src->lsra_lsr[i]);
892 }
893
894 /** @} fid */
895
896 #endif /* __LUSTRE_FID_H */