Whamcloud - gitweb
LU-9771 flr: Send write intent RPC to mdt
[fs/lustre-release.git] / lustre / include / lustre_fid.h
1 /*
2  * GPL HEADER START
3  *
4  * DO NOT ALTER OR REMOVE COPYRIGHT NOTICES OR THIS FILE HEADER.
5  *
6  * This program is free software; you can redistribute it and/or modify
7  * it under the terms of the GNU General Public License version 2 only,
8  * as published by the Free Software Foundation.
9  *
10  * This program is distributed in the hope that it will be useful, but
11  * WITHOUT ANY WARRANTY; without even the implied warranty of
12  * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
13  * General Public License version 2 for more details (a copy is included
14  * in the LICENSE file that accompanied this code).
15  *
16  * You should have received a copy of the GNU General Public License
17  * version 2 along with this program; If not, see
18  * http://www.gnu.org/licenses/gpl-2.0.html
19  *
20  * GPL HEADER END
21  */
22 /*
23  * Copyright (c) 2007, 2010, Oracle and/or its affiliates. All rights reserved.
24  * Use is subject to license terms.
25  *
26  * Copyright (c) 2011, 2015, Intel Corporation.
27  */
28 /*
29  * This file is part of Lustre, http://www.lustre.org/
30  * Lustre is a trademark of Sun Microsystems, Inc.
31  *
32  * lustre/include/lustre_fid.h
33  *
34  * Author: Yury Umanets <umka@clusterfs.com>
35  */
36
37 #ifndef __LUSTRE_FID_H
38 #define __LUSTRE_FID_H
39
40 /** \defgroup fid fid
41  *
42  * @{
43  *
44  * http://wiki.lustre.org/index.php/Architecture_-_Interoperability_fids_zfs
45  * describes the FID namespace and interoperability requirements for FIDs.
46  * The important parts of that document are included here for reference.
47  *
48  * FID
49  *   File IDentifier generated by client from range allocated by the SEQuence
50  *   service and stored in struct lu_fid. The FID is composed of three parts:
51  *   SEQuence, ObjectID, and VERsion.  The SEQ component is a filesystem
52  *   unique 64-bit integer, and only one client is ever assigned any SEQ value.
53  *   The first 0x400 FID_SEQ_NORMAL [2^33, 2^33 + 0x400] values are reserved
54  *   for system use.  The OID component is a 32-bit value generated by the
55  *   client on a per-SEQ basis to allow creating many unique FIDs without
56  *   communication with the server.  The VER component is a 32-bit value that
57  *   distinguishes between different FID instantiations, such as snapshots or
58  *   separate subtrees within the filesystem.  FIDs with the same VER field
59  *   are considered part of the same namespace.
60  *
61  * OLD filesystems are those upgraded from Lustre 1.x that predate FIDs, and
62  *   MDTs use 32-bit ldiskfs internal inode/generation numbers (IGIFs), while
63  *   OSTs use 64-bit Lustre object IDs and generation numbers.
64  *
65  * NEW filesystems are those formatted since the introduction of FIDs.
66  *
67  * IGIF
68  *   Inode and Generation In FID, a surrogate FID used to globally identify
69  *   an existing object on OLD formatted MDT file system. This would only be
70  *   used on MDT0 in a DNE filesystem, because there cannot be more than one
71  *   MDT in an OLD formatted filesystem. Belongs to sequence in [12, 2^32 - 1]
72  *   range, where inode number is stored in SEQ, and inode generation is in OID.
73  *   NOTE: This assumes no more than 2^32-1 inodes exist in the MDT filesystem,
74  *   which is the maximum possible for an ldiskfs backend.  It also assumes
75  *   that the reserved ext3/ext4/ldiskfs inode numbers [0-11] are never visible
76  *   to clients, which has always been true.
77  *
78  * IDIF
79  *   object ID In FID, a surrogate FID used to globally identify an existing
80  *   OST object on OLD formatted OST file system. Belongs to a sequence in
81  *   [2^32, 2^33 - 1]. Sequence number is calculated as:
82  *
83  *      1 << 32 | (ost_index << 16) | ((objid >> 32) & 0xffff)
84  *
85  *   that is, SEQ consists of 16-bit OST index, and higher 16 bits of object
86  *   ID. The generation of unique SEQ values per OST allows the IDIF FIDs to
87  *   be identified in the FLD correctly. The OID field is calculated as:
88  *
89  *      objid & 0xffffffff
90  *
91  *   that is, it consists of lower 32 bits of object ID.  For objects within
92  *   the IDIF range, object ID extraction will be:
93  *
94  *      o_id = (fid->f_seq & 0x7fff) << 16 | fid->f_oid;
95  *      o_seq = 0;  // formerly group number
96  *
97  *   NOTE: This assumes that no more than 2^48-1 objects have ever been created
98  *   on any OST, and that no more than 65535 OSTs are in use.  Both are very
99  *   reasonable assumptions, i.e. an IDIF can uniquely map all objects assuming
100  *   a maximum creation rate of 1M objects per second for a maximum of 9 years,
101  *   or combinations thereof.
102  *
103  * OST_MDT0
104  *   Surrogate FID used to identify an existing object on OLD formatted OST
105  *   filesystem. Belongs to the reserved SEQuence 0, and is used prior to
106  *   the introduction of FID-on-OST, at which point IDIF will be used to
107  *   identify objects as residing on a specific OST.
108  *
109  * LLOG
110  *   For Lustre Log objects the object sequence 1 is used. This is compatible
111  *   with both OLD and NEW namespaces, as this SEQ number is in the
112  *   ext3/ldiskfs reserved inode range and does not conflict with IGIF
113  *   sequence numbers.
114  *
115  * ECHO
116  *   For testing OST IO performance the object sequence 2 is used. This is
117  *   compatible with both OLD and NEW namespaces, as this SEQ number is in
118  *   the ext3/ldiskfs reserved inode range and does not conflict with IGIF
119  *   sequence numbers.
120  *
121  * OST_MDT1 .. OST_MAX
122  *   For testing with multiple MDTs the object sequence 3 through 9 is used,
123  *   allowing direct mapping of MDTs 1 through 7 respectively, for a total
124  *   of 8 MDTs including OST_MDT0. This matches the legacy CMD project "group"
125  *   mappings. However, this SEQ range is only for testing prior to any
126  *   production DNE release, as the objects in this range conflict across all
127  *   OSTs, as the OST index is not part of the FID.  For production DNE usage,
128  *   OST objects created by MDT1+ will use FID_SEQ_NORMAL FIDs.
129  *
130  * DLM OST objid to IDIF mapping
131  *   For compatibility with existing OLD OST network protocol structures, the
132  *   FID must map onto the o_id and o_seq in a manner that ensures existing
133  *   objects are identified consistently for IO, as well as onto the LDLM
134  *   namespace to ensure IDIFs there is only a single resource name for any
135  *   object in the DLM.  The OLD OST object DLM resource mapping is:
136  *
137  *      resource[] = {o_id, o_seq, 0, 0}; // o_seq == 0 for production releases
138  *
139  *   The NEW OST object DLM resource mapping is the same for both MDT and OST:
140  *
141  *      resource[] = {SEQ, OID, VER, HASH};
142  *
143  *  NOTE: for mapping IDIF values to DLM resource names the o_id may be
144  *  larger than the 2^33 reserved sequence numbers for IDIF, so it is possible
145  *  for the o_id numbers to overlap FID SEQ numbers in the resource. However,
146  *  in all production releases the OLD o_seq field is always zero, and all
147  *  valid FID OID values are non-zero, so the lock resources will not collide.
148  *  Even so, the MDT and OST resources are also in different LDLM namespaces.
149  */
150
151 #include <libcfs/libcfs.h>
152 #include <uapi/linux/lustre/lustre_fid.h>
153 #include <uapi/linux/lustre/lustre_idl.h>
154 #include <uapi/linux/lustre/lustre_ostid.h>
155
156 struct lu_env;
157 struct lu_site;
158 struct lu_context;
159 struct obd_device;
160 struct obd_export;
161
162 /* Whole sequences space range and zero range definitions */
163 extern const struct lu_seq_range LUSTRE_SEQ_SPACE_RANGE;
164 extern const struct lu_seq_range LUSTRE_SEQ_ZERO_RANGE;
165 extern const struct lu_fid LUSTRE_BFL_FID;
166 extern const struct lu_fid LU_OBF_FID;
167 extern const struct lu_fid LU_LPF_FID;
168 extern const struct lu_fid LU_DOT_LUSTRE_FID;
169 extern const struct lu_fid LU_BACKEND_LPF_FID;
170
171 enum {
172         /*
173          * This is how may metadata FIDs may be allocated in one sequence(128k)
174          */
175         LUSTRE_METADATA_SEQ_MAX_WIDTH = 0x0000000000020000ULL,
176
177         /*
178          * This is how many data FIDs could be allocated in one sequence(4B - 1)
179          */
180         LUSTRE_DATA_SEQ_MAX_WIDTH = 0x00000000FFFFFFFFULL,
181
182         /*
183          * How many sequences to allocate to a client at once.
184          */
185         LUSTRE_SEQ_META_WIDTH = 0x0000000000000001ULL,
186
187         /*
188          * seq allocation pool size.
189          */
190         LUSTRE_SEQ_BATCH_WIDTH = LUSTRE_SEQ_META_WIDTH * 1000,
191
192         /*
193          * This is how many sequences may be in one super-sequence allocated to
194          * MDTs.
195          */
196         LUSTRE_SEQ_SUPER_WIDTH = ((1ULL << 30ULL) * LUSTRE_SEQ_META_WIDTH)
197 };
198
199 enum {
200         /** 2^6 FIDs for OI containers */
201         OSD_OI_FID_OID_BITS     = 6,
202         /** reserve enough FIDs in case we want more in the future */
203         OSD_OI_FID_OID_BITS_MAX = 10,
204 };
205
206 /** special OID for local objects */
207 enum local_oid {
208         /** \see fld_mod_init */
209         FLD_INDEX_OID           = 3UL,
210         /** \see fid_mod_init */
211         FID_SEQ_CTL_OID         = 4UL,
212         FID_SEQ_SRV_OID         = 5UL,
213         /** \see mdd_mod_init */
214         MDD_ROOT_INDEX_OID      = 6UL, /* deprecated in 2.4 */
215         MDD_ORPHAN_OID          = 7UL, /* deprecated in 2.4 */
216         MDD_LOV_OBJ_OID         = 8UL,
217         MDD_CAPA_KEYS_OID       = 9UL,
218         /** \see mdt_mod_init */
219         LAST_RECV_OID           = 11UL,
220         OSD_FS_ROOT_OID         = 13UL,
221         ACCT_USER_OID           = 15UL,
222         ACCT_GROUP_OID          = 16UL,
223         LFSCK_BOOKMARK_OID      = 17UL,
224         OTABLE_IT_OID           = 18UL,
225         OSD_LPF_OID             = 19UL,
226         REPLY_DATA_OID          = 21UL,
227         ACCT_PROJECT_OID        = 22UL,
228         OFD_LAST_GROUP_OID      = 4117UL,
229         LLOG_CATALOGS_OID       = 4118UL,
230         MGS_CONFIGS_OID         = 4119UL,
231         OFD_HEALTH_CHECK_OID    = 4120UL,
232         MDD_LOV_OBJ_OSEQ        = 4121UL,
233         LFSCK_NAMESPACE_OID     = 4122UL,
234         REMOTE_PARENT_DIR_OID   = 4123UL,
235         /* This definition is obsolete
236          * SLAVE_LLOG_CATALOGS_OID      = 4124UL,
237          */
238         BATCHID_COMMITTED_OID   = 4125UL,
239 };
240
241 static inline void lu_local_obj_fid(struct lu_fid *fid, __u32 oid)
242 {
243         fid->f_seq = FID_SEQ_LOCAL_FILE;
244         fid->f_oid = oid;
245         fid->f_ver = 0;
246 }
247
248 static inline void lu_local_name_obj_fid(struct lu_fid *fid, __u32 oid)
249 {
250         fid->f_seq = FID_SEQ_LOCAL_NAME;
251         fid->f_oid = oid;
252         fid->f_ver = 0;
253 }
254
255 /* For new FS (>= 2.4), the root FID will be changed to
256  * [FID_SEQ_ROOT:1:0], for existing FS, (upgraded to 2.4),
257  * the root FID will still be IGIF */
258 static inline int fid_is_root(const struct lu_fid *fid)
259 {
260         return unlikely((fid_seq(fid) == FID_SEQ_ROOT &&
261                          fid_oid(fid) == FID_OID_ROOT));
262 }
263
264 static inline int fid_is_dot_lustre(const struct lu_fid *fid)
265 {
266         return unlikely(fid_seq(fid) == FID_SEQ_DOT_LUSTRE &&
267                         fid_oid(fid) == FID_OID_DOT_LUSTRE);
268 }
269
270 static inline int fid_is_obf(const struct lu_fid *fid)
271 {
272         return unlikely(fid_seq(fid) == FID_SEQ_DOT_LUSTRE &&
273                         fid_oid(fid) == FID_OID_DOT_LUSTRE_OBF);
274 }
275
276 static inline int fid_is_otable_it(const struct lu_fid *fid)
277 {
278         return unlikely(fid_seq(fid) == FID_SEQ_LOCAL_FILE &&
279                         fid_oid(fid) == OTABLE_IT_OID);
280 }
281
282 static inline int fid_oid_is_quota(const struct lu_fid *fid)
283 {
284         switch (fid_oid(fid)) {
285         case ACCT_USER_OID:
286         case ACCT_GROUP_OID:
287         case ACCT_PROJECT_OID:
288                 return 1;
289         default:
290                 return 0;
291         }
292 }
293
294 static inline int fid_is_acct(const struct lu_fid *fid)
295 {
296         return fid_seq(fid) == FID_SEQ_LOCAL_FILE &&
297                fid_oid_is_quota(fid);
298 }
299
300 static inline int fid_is_quota(const struct lu_fid *fid)
301 {
302         return fid_seq(fid) == FID_SEQ_QUOTA ||
303                fid_seq(fid) == FID_SEQ_QUOTA_GLB;
304 }
305
306 static inline int fid_is_name_llog(const struct lu_fid *fid)
307 {
308         return fid_seq(fid) == FID_SEQ_LLOG_NAME;
309 }
310
311 static inline int fid_is_namespace_visible(const struct lu_fid *fid)
312 {
313         const __u64 seq = fid_seq(fid);
314
315         /* Here, we cannot distinguish whether the normal FID is for OST
316          * object or not. It is caller's duty to check more if needed. */
317         return (!fid_is_last_id(fid) &&
318                 (fid_seq_is_norm(seq) || fid_seq_is_igif(seq))) ||
319                fid_is_root(fid) || fid_seq_is_dot(seq);
320 }
321
322 static inline int fid_seq_in_fldb(__u64 seq)
323 {
324         return fid_seq_is_igif(seq) || fid_seq_is_norm(seq) ||
325                fid_seq_is_root(seq) || fid_seq_is_dot(seq);
326 }
327
328 static inline void ost_layout_cpu_to_le(struct ost_layout *dst,
329                                         const struct ost_layout *src)
330 {
331         dst->ol_stripe_size = __cpu_to_le32(src->ol_stripe_size);
332         dst->ol_stripe_count = __cpu_to_le32(src->ol_stripe_count);
333         dst->ol_comp_start = __cpu_to_le64(src->ol_comp_start);
334         dst->ol_comp_end = __cpu_to_le64(src->ol_comp_end);
335         dst->ol_comp_id = __cpu_to_le32(src->ol_comp_id);
336 }
337
338 static inline void ost_layout_le_to_cpu(struct ost_layout *dst,
339                                         const struct ost_layout *src)
340 {
341         dst->ol_stripe_size = __le32_to_cpu(src->ol_stripe_size);
342         dst->ol_stripe_count = __le32_to_cpu(src->ol_stripe_count);
343         dst->ol_comp_start = __le64_to_cpu(src->ol_comp_start);
344         dst->ol_comp_end = __le64_to_cpu(src->ol_comp_end);
345         dst->ol_comp_id = __le32_to_cpu(src->ol_comp_id);
346 }
347
348 /* Both filter_fid_*cpu* functions not currently used */
349 static inline void filter_fid_cpu_to_le(struct filter_fid *dst,
350                                         const struct filter_fid *src, int size)
351 {
352         fid_cpu_to_le(&dst->ff_parent, &src->ff_parent);
353
354         if (size < sizeof(struct filter_fid)) {
355                 memset(&dst->ff_layout, 0, sizeof(dst->ff_layout));
356         } else {
357                 ost_layout_cpu_to_le(&dst->ff_layout, &src->ff_layout);
358                 dst->ff_layout_version = cpu_to_le32(src->ff_layout_version);
359                 dst->ff_range = cpu_to_le32(src->ff_range);
360         }
361
362         /* XXX: Add more if filter_fid is enlarged in the future. */
363 }
364
365 static inline void filter_fid_le_to_cpu(struct filter_fid *dst,
366                                         const struct filter_fid *src, int size)
367 {
368         fid_le_to_cpu(&dst->ff_parent, &src->ff_parent);
369
370         if (size < sizeof(struct filter_fid)) {
371                 memset(&dst->ff_layout, 0, sizeof(dst->ff_layout));
372         } else {
373                 ost_layout_le_to_cpu(&dst->ff_layout, &src->ff_layout);
374                 dst->ff_layout_version = le32_to_cpu(src->ff_layout_version);
375                 dst->ff_range = le32_to_cpu(src->ff_range);
376         }
377
378         /* XXX: Add more if filter_fid is enlarged in the future. */
379 }
380
381 static inline void lu_last_id_fid(struct lu_fid *fid, __u64 seq, __u32 ost_idx)
382 {
383         if (fid_seq_is_mdt0(seq)) {
384                 fid->f_seq = fid_idif_seq(0, ost_idx);
385         } else {
386                 LASSERTF(fid_seq_is_norm(seq) || fid_seq_is_echo(seq) ||
387                          fid_seq_is_idif(seq), "%#llx\n", seq);
388                 fid->f_seq = seq;
389         }
390         fid->f_oid = 0;
391         fid->f_ver = 0;
392 }
393
394 static inline bool fid_is_md_operative(const struct lu_fid *fid)
395 {
396         return fid_is_mdt0(fid) || fid_is_igif(fid) ||
397                fid_is_norm(fid) || fid_is_root(fid);
398 }
399
400 /* seq client type */
401 enum lu_cli_type {
402         LUSTRE_SEQ_METADATA = 1,
403         LUSTRE_SEQ_DATA
404 };
405
406 enum lu_mgr_type {
407         LUSTRE_SEQ_SERVER,
408         LUSTRE_SEQ_CONTROLLER
409 };
410
411 struct lu_server_seq;
412
413 /* Client sequence manager interface. */
414 struct lu_client_seq {
415         /* Sequence-controller export. */
416         struct obd_export      *lcs_exp;
417         struct mutex            lcs_mutex;
418
419         /*
420          * Range of allowed for allocation sequeces. When using lu_client_seq on
421          * clients, this contains meta-sequence range. And for servers this
422          * contains super-sequence range.
423          */
424         struct lu_seq_range         lcs_space;
425
426         /* Seq related proc */
427         struct proc_dir_entry   *lcs_proc_dir;
428
429         /* This holds last allocated fid in last obtained seq */
430         struct lu_fid           lcs_fid;
431
432         /* LUSTRE_SEQ_METADATA or LUSTRE_SEQ_DATA */
433         enum lu_cli_type        lcs_type;
434
435         /*
436          * Service uuid, passed from MDT + seq name to form unique seq name to
437          * use it with procfs.
438          */
439         char                    lcs_name[80];
440
441         /*
442          * Sequence width, that is how many objects may be allocated in one
443          * sequence. Default value for it is LUSTRE_SEQ_MAX_WIDTH.
444          */
445         __u64                   lcs_width;
446
447         /* Seq-server for direct talking */
448         struct lu_server_seq   *lcs_srv;
449
450         /* wait queue for fid allocation and update indicator */
451         wait_queue_head_t       lcs_waitq;
452         int                     lcs_update;
453 };
454
455 /* server sequence manager interface */
456 struct lu_server_seq {
457         /* Available sequences space */
458         struct lu_seq_range         lss_space;
459
460         /* keeps highwater in lsr_end for seq allocation algorithm */
461         struct lu_seq_range         lss_lowater_set;
462         struct lu_seq_range         lss_hiwater_set;
463
464         /*
465          * Device for server side seq manager needs (saving sequences to backing
466          * store).
467          */
468         struct dt_device       *lss_dev;
469
470         /* /seq file object device */
471         struct dt_object       *lss_obj;
472
473         /* Seq related proc */
474         struct proc_dir_entry   *lss_proc_dir;
475
476         /* LUSTRE_SEQ_SERVER or LUSTRE_SEQ_CONTROLLER */
477         enum lu_mgr_type       lss_type;
478
479         /* Client interface to request controller */
480         struct lu_client_seq   *lss_cli;
481
482         /* Mutex for protecting allocation */
483         struct mutex            lss_mutex;
484
485         /*
486          * Service uuid, passed from MDT + seq name to form unique seq name to
487          * use it with procfs.
488          */
489         char                    lss_name[80];
490
491         /*
492          * Allocation chunks for super and meta sequences. Default values are
493          * LUSTRE_SEQ_SUPER_WIDTH and LUSTRE_SEQ_META_WIDTH.
494          */
495         __u64                   lss_width;
496
497         /*
498          * minimum lss_alloc_set size that should be allocated from
499          * lss_space
500          */
501         __u64                   lss_set_width;
502
503         /* sync is needed for update operation */
504         __u32                   lss_need_sync;
505
506         /**
507          * Pointer to site object, required to access site fld.
508          */
509         struct seq_server_site  *lss_site;
510 };
511
512 struct seq_server_site {
513         struct lu_site       *ss_lu;
514         /**
515          * mds number of this site.
516          */
517         u32                   ss_node_id;
518         /**
519          * Fid location database
520          */
521         struct lu_server_fld *ss_server_fld;
522         struct lu_client_fld *ss_client_fld;
523
524         /**
525          * Server Seq Manager
526          */
527         struct lu_server_seq *ss_server_seq;
528
529         /**
530          * Controller Seq Manager
531          */
532         struct lu_server_seq *ss_control_seq;
533         struct obd_export    *ss_control_exp;
534
535         /**
536          * Client Seq Manager
537          */
538         struct lu_client_seq *ss_client_seq;
539 };
540
541 /* Server methods */
542
543 int seq_server_init(const struct lu_env *env,
544                     struct lu_server_seq *seq,
545                     struct dt_device *dev,
546                     const char *prefix,
547                     enum lu_mgr_type type,
548                     struct seq_server_site *ss);
549
550 void seq_server_fini(struct lu_server_seq *seq,
551                      const struct lu_env *env);
552
553 int seq_server_alloc_super(struct lu_server_seq *seq,
554                            struct lu_seq_range *out,
555                            const struct lu_env *env);
556
557 int seq_server_alloc_meta(struct lu_server_seq *seq,
558                           struct lu_seq_range *out,
559                           const struct lu_env *env);
560
561 int seq_server_set_cli(const struct lu_env *env,
562                        struct lu_server_seq *seq,
563                        struct lu_client_seq *cli);
564
565 int seq_server_check_and_alloc_super(const struct lu_env *env,
566                                      struct lu_server_seq *seq);
567 /* Client methods */
568 int seq_client_init(struct lu_client_seq *seq,
569                     struct obd_export *exp,
570                     enum lu_cli_type type,
571                     const char *prefix,
572                     struct lu_server_seq *srv);
573
574 void seq_client_fini(struct lu_client_seq *seq);
575
576 void seq_client_flush(struct lu_client_seq *seq);
577
578 int seq_client_alloc_fid(const struct lu_env *env, struct lu_client_seq *seq,
579                          struct lu_fid *fid);
580 int seq_client_get_seq(const struct lu_env *env, struct lu_client_seq *seq,
581                        u64 *seqnr);
582 int seq_site_fini(const struct lu_env *env, struct seq_server_site *ss);
583 /* Fids common stuff */
584 int fid_is_local(const struct lu_env *env,
585                  struct lu_site *site, const struct lu_fid *fid);
586
587 enum lu_cli_type;
588 int client_fid_init(struct obd_device *obd, struct obd_export *exp,
589                     enum lu_cli_type type);
590 int client_fid_fini(struct obd_device *obd);
591
592 /* fid locking */
593
594 struct ldlm_namespace;
595
596 /*
597  * Build (DLM) resource name from FID.
598  *
599  * NOTE: until Lustre 1.8.7/2.1.1 the fid_ver() was packed into name[2],
600  * but was moved into name[1] along with the OID to avoid consuming the
601  * renaming name[2,3] fields that need to be used for the quota identifier.
602  */
603 static inline void
604 fid_build_reg_res_name(const struct lu_fid *fid, struct ldlm_res_id *res)
605 {
606         memset(res, 0, sizeof(*res));
607         res->name[LUSTRE_RES_ID_SEQ_OFF] = fid_seq(fid);
608         res->name[LUSTRE_RES_ID_VER_OID_OFF] = fid_ver_oid(fid);
609 }
610
611 /*
612  * Return true if resource is for object identified by FID.
613  */
614 static inline int fid_res_name_eq(const struct lu_fid *fid,
615                                   const struct ldlm_res_id *res)
616 {
617         return res->name[LUSTRE_RES_ID_SEQ_OFF] == fid_seq(fid) &&
618                res->name[LUSTRE_RES_ID_VER_OID_OFF] == fid_ver_oid(fid);
619 }
620
621 /*
622  * Extract FID from LDLM resource. Reverse of fid_build_reg_res_name().
623  */
624 static inline void
625 fid_extract_from_res_name(struct lu_fid *fid, const struct ldlm_res_id *res)
626 {
627         fid->f_seq = res->name[LUSTRE_RES_ID_SEQ_OFF];
628         fid->f_oid = (__u32)(res->name[LUSTRE_RES_ID_VER_OID_OFF]);
629         fid->f_ver = (__u32)(res->name[LUSTRE_RES_ID_VER_OID_OFF] >> 32);
630         LASSERT(fid_res_name_eq(fid, res));
631 }
632
633 /*
634  * Build (DLM) resource identifier from global quota FID and quota ID.
635  */
636 static inline void
637 fid_build_quota_res_name(const struct lu_fid *glb_fid, union lquota_id *qid,
638                       struct ldlm_res_id *res)
639 {
640         fid_build_reg_res_name(glb_fid, res);
641         res->name[LUSTRE_RES_ID_QUOTA_SEQ_OFF] = fid_seq(&qid->qid_fid);
642         res->name[LUSTRE_RES_ID_QUOTA_VER_OID_OFF] = fid_ver_oid(&qid->qid_fid);
643 }
644
645 /*
646  * Extract global FID and quota ID from resource name
647  */
648 static inline void fid_extract_from_quota_res(struct lu_fid *glb_fid,
649                                               union lquota_id *qid,
650                                               const struct ldlm_res_id *res)
651 {
652         fid_extract_from_res_name(glb_fid, res);
653         qid->qid_fid.f_seq = res->name[LUSTRE_RES_ID_QUOTA_SEQ_OFF];
654         qid->qid_fid.f_oid = (__u32)res->name[LUSTRE_RES_ID_QUOTA_VER_OID_OFF];
655         qid->qid_fid.f_ver =
656                 (__u32)(res->name[LUSTRE_RES_ID_QUOTA_VER_OID_OFF] >> 32);
657 }
658
659 static inline void
660 fid_build_pdo_res_name(const struct lu_fid *fid, unsigned int hash,
661                        struct ldlm_res_id *res)
662 {
663         fid_build_reg_res_name(fid, res);
664         res->name[LUSTRE_RES_ID_HSH_OFF] = hash;
665 }
666
667 /**
668  * Build DLM resource name from object id & seq, which will be removed
669  * finally, when we replace ost_id with FID in data stack.
670  *
671  * Currently, resid from the old client, whose res[0] = object_id,
672  * res[1] = object_seq, is just oposite with Metatdata
673  * resid, where, res[0] = fid->f_seq, res[1] = fid->f_oid.
674  * To unifiy the resid identification, we will reverse the data
675  * resid to keep it same with Metadata resid, i.e.
676  *
677  * For resid from the old client,
678  *    res[0] = objid,  res[1] = 0, still keep the original order,
679  *    for compatiblity.
680  *
681  * For new resid
682  *    res will be built from normal FID directly, i.e. res[0] = f_seq,
683  *    res[1] = f_oid + f_ver.
684  */
685 static inline void ostid_build_res_name(const struct ost_id *oi,
686                                         struct ldlm_res_id *name)
687 {
688         memset(name, 0, sizeof *name);
689         if (fid_seq_is_mdt0(ostid_seq(oi))) {
690                 name->name[LUSTRE_RES_ID_SEQ_OFF] = ostid_id(oi);
691                 name->name[LUSTRE_RES_ID_VER_OID_OFF] = ostid_seq(oi);
692         } else {
693                 fid_build_reg_res_name(&oi->oi_fid, name);
694         }
695 }
696
697 /**
698  * Return true if the resource is for the object identified by this id & group.
699  */
700 static inline bool ostid_res_name_eq(const struct ost_id *oi,
701                                      const struct ldlm_res_id *name)
702 {
703         /* Note: it is just a trick here to save some effort, probably the
704          * correct way would be turn them into the FID and compare */
705         if (fid_seq_is_mdt0(ostid_seq(oi))) {
706                 return name->name[LUSTRE_RES_ID_SEQ_OFF] == ostid_id(oi) &&
707                        name->name[LUSTRE_RES_ID_VER_OID_OFF] == ostid_seq(oi);
708         } else {
709                 return name->name[LUSTRE_RES_ID_SEQ_OFF] == ostid_seq(oi) &&
710                        name->name[LUSTRE_RES_ID_VER_OID_OFF] == ostid_id(oi);
711         }
712 }
713
714 /**
715  * Note: we need check oi_seq to decide where to set oi_id,
716  * so oi_seq should always be set ahead of oi_id.
717  */
718 static inline int ostid_set_id(struct ost_id *oi, __u64 oid)
719 {
720         if (fid_seq_is_mdt0(oi->oi.oi_seq)) {
721                 if (oid >= IDIF_MAX_OID)
722                         return -E2BIG;
723                 oi->oi.oi_id = oid;
724         } else if (fid_is_idif(&oi->oi_fid)) {
725                 if (oid >= IDIF_MAX_OID)
726                         return -E2BIG;
727                 oi->oi_fid.f_seq = fid_idif_seq(oid,
728                                                 fid_idif_ost_idx(&oi->oi_fid));
729                 oi->oi_fid.f_oid = oid;
730                 oi->oi_fid.f_ver = oid >> 48;
731         } else {
732                 if (oid >= OBIF_MAX_OID)
733                         return -E2BIG;
734                 oi->oi_fid.f_oid = oid;
735         }
736         return 0;
737 }
738
739 /* pack any OST FID into an ostid (id/seq) for the wire/disk */
740 static inline int fid_to_ostid(const struct lu_fid *fid, struct ost_id *ostid)
741 {
742         int rc = 0;
743
744         if (fid_seq_is_igif(fid->f_seq))
745                 return -EBADF;
746
747         if (fid_is_idif(fid)) {
748                 ostid_set_seq_mdt0(ostid);
749                 rc = ostid_set_id(ostid, fid_idif_id(fid_seq(fid),
750                                   fid_oid(fid), fid_ver(fid)));
751         } else {
752                 ostid->oi_fid = *fid;
753         }
754
755         return rc;
756 }
757
758 /* The same as osc_build_res_name() */
759 static inline void ost_fid_build_resid(const struct lu_fid *fid,
760                                        struct ldlm_res_id *resname)
761 {
762         if (fid_is_mdt0(fid) || fid_is_idif(fid)) {
763                 struct ost_id oi;
764                 oi.oi.oi_id = 0; /* gcc 4.7.2 complains otherwise */
765                 if (fid_to_ostid(fid, &oi) != 0)
766                         return;
767                 ostid_build_res_name(&oi, resname);
768         } else {
769                 fid_build_reg_res_name(fid, resname);
770         }
771 }
772
773 static inline void ost_fid_from_resid(struct lu_fid *fid,
774                                       const struct ldlm_res_id *name,
775                                       int ost_idx)
776 {
777         if (fid_seq_is_mdt0(name->name[LUSTRE_RES_ID_VER_OID_OFF])) {
778                 /* old resid */
779                 struct ost_id oi;
780
781                 memset(&oi, 0, sizeof(oi));
782                 ostid_set_seq(&oi, name->name[LUSTRE_RES_ID_VER_OID_OFF]);
783                 if (ostid_set_id(&oi, name->name[LUSTRE_RES_ID_SEQ_OFF])) {
784                         CERROR("Bad %llu to set " DOSTID "\n",
785                                name->name[LUSTRE_RES_ID_SEQ_OFF], POSTID(&oi));
786                 }
787                 ostid_to_fid(fid, &oi, ost_idx);
788         } else {
789                 /* new resid */
790                 fid_extract_from_res_name(fid, name);
791         }
792 }
793
794 /**
795  * Flatten 128-bit FID values into a 64-bit value for use as an inode number.
796  * For non-IGIF FIDs this starts just over 2^32, and continues without
797  * conflict until 2^64, at which point we wrap the high 24 bits of the SEQ
798  * into the range where there may not be many OID values in use, to minimize
799  * the risk of conflict.
800  *
801  * Suppose LUSTRE_SEQ_MAX_WIDTH less than (1 << 24) which is currently true,
802  * the time between re-used inode numbers is very long - 2^40 SEQ numbers,
803  * or about 2^40 client mounts, if clients create less than 2^24 files/mount.
804  */
805 static inline __u64 fid_flatten(const struct lu_fid *fid)
806 {
807         __u64 ino;
808         __u64 seq;
809
810         if (fid_is_igif(fid)) {
811                 ino = lu_igif_ino(fid);
812                 return ino;
813         }
814
815         seq = fid_seq(fid);
816
817         ino = (seq << 24) + ((seq >> 24) & 0xffffff0000ULL) + fid_oid(fid);
818
819         return ino ?: fid_oid(fid);
820 }
821
822 static inline __u32 fid_hash(const struct lu_fid *f, int bits)
823 {
824         /* all objects with same id and different versions will belong to same
825          * collisions list. */
826         return hash_long(fid_flatten(f), bits);
827 }
828
829 /**
830  * map fid to 32 bit value for ino on 32bit systems. */
831 static inline __u32 fid_flatten32(const struct lu_fid *fid)
832 {
833         __u32 ino;
834         __u64 seq;
835
836         if (fid_is_igif(fid)) {
837                 ino = lu_igif_ino(fid);
838                 return ino;
839         }
840
841         seq = fid_seq(fid) - FID_SEQ_START;
842
843         /* Map the high bits of the OID into higher bits of the inode number so
844          * that inodes generated at about the same time have a reduced chance
845          * of collisions. This will give a period of 2^12 = 1024 unique clients
846          * (from SEQ) and up to min(LUSTRE_SEQ_MAX_WIDTH, 2^20) = 128k objects
847          * (from OID), or up to 128M inodes without collisions for new files. */
848         ino = ((seq & 0x000fffffULL) << 12) + ((seq >> 8) & 0xfffff000) +
849               (seq >> (64 - (40-8)) & 0xffffff00) +
850               (fid_oid(fid) & 0xff000fff) + ((fid_oid(fid) & 0x00fff000) << 8);
851
852         return ino ?: fid_oid(fid);
853 }
854
855 static inline int
856 lu_fid_diff(const struct lu_fid *fid1, const struct lu_fid *fid2)
857 {
858         LASSERTF(fid_seq(fid1) == fid_seq(fid2), "fid1:"DFID", fid2:"DFID"\n",
859                  PFID(fid1), PFID(fid2));
860
861         if (fid_is_idif(fid1) && fid_is_idif(fid2))
862                 return fid_idif_id(fid1->f_seq, fid1->f_oid, fid1->f_ver) -
863                        fid_idif_id(fid2->f_seq, fid2->f_oid, fid2->f_ver);
864
865         return fid_oid(fid1) - fid_oid(fid2);
866 }
867
868 static inline int fid_set_id(struct lu_fid *fid, u64 oid)
869 {
870         if (unlikely(fid_seq_is_igif(fid->f_seq))) {
871                 CERROR("bad IGIF, "DFID"\n", PFID(fid));
872                 return -EBADF;
873         }
874
875         if (fid_is_idif(fid)) {
876                 if (oid >= IDIF_MAX_OID) {
877                         CERROR("Too large OID %#llx to set IDIF "DFID"\n",
878                                (unsigned long long)oid, PFID(fid));
879                         return -EBADF;
880                 }
881                 fid->f_seq = fid_idif_seq(oid, fid_idif_ost_idx(fid));
882                 fid->f_oid = oid;
883                 fid->f_ver = oid >> 48;
884         } else {
885                 if (oid > OBIF_MAX_OID) {
886                         CERROR("Too large OID %#llx to set REG "DFID"\n",
887                                (unsigned long long)oid, PFID(fid));
888                         return -EBADF;
889                 }
890                 fid->f_oid = oid;
891         }
892         return 0;
893 }
894
895 #define LUSTRE_SEQ_SRV_NAME "seq_srv"
896 #define LUSTRE_SEQ_CTL_NAME "seq_ctl"
897
898 /* Range common stuff */
899 static inline void
900 range_cpu_to_le(struct lu_seq_range *dst, const struct lu_seq_range *src)
901 {
902         dst->lsr_start = cpu_to_le64(src->lsr_start);
903         dst->lsr_end = cpu_to_le64(src->lsr_end);
904         dst->lsr_index = cpu_to_le32(src->lsr_index);
905         dst->lsr_flags = cpu_to_le32(src->lsr_flags);
906 }
907
908 static inline void
909 range_le_to_cpu(struct lu_seq_range *dst, const struct lu_seq_range *src)
910 {
911         dst->lsr_start = le64_to_cpu(src->lsr_start);
912         dst->lsr_end = le64_to_cpu(src->lsr_end);
913         dst->lsr_index = le32_to_cpu(src->lsr_index);
914         dst->lsr_flags = le32_to_cpu(src->lsr_flags);
915 }
916
917 static inline void
918 range_cpu_to_be(struct lu_seq_range *dst, const struct lu_seq_range *src)
919 {
920         dst->lsr_start = cpu_to_be64(src->lsr_start);
921         dst->lsr_end = cpu_to_be64(src->lsr_end);
922         dst->lsr_index = cpu_to_be32(src->lsr_index);
923         dst->lsr_flags = cpu_to_be32(src->lsr_flags);
924 }
925
926 static inline void
927 range_be_to_cpu(struct lu_seq_range *dst, const struct lu_seq_range *src)
928 {
929         dst->lsr_start = be64_to_cpu(src->lsr_start);
930         dst->lsr_end = be64_to_cpu(src->lsr_end);
931         dst->lsr_index = be32_to_cpu(src->lsr_index);
932         dst->lsr_flags = be32_to_cpu(src->lsr_flags);
933 }
934
935 static inline void range_array_cpu_to_le(struct lu_seq_range_array *dst,
936                                          const struct lu_seq_range_array *src)
937 {
938         __u32 i;
939
940         for (i = 0; i < src->lsra_count; i++)
941                 range_cpu_to_le(&dst->lsra_lsr[i], &src->lsra_lsr[i]);
942
943         dst->lsra_count = cpu_to_le32(src->lsra_count);
944 }
945
946 static inline void range_array_le_to_cpu(struct lu_seq_range_array *dst,
947                                          const struct lu_seq_range_array *src)
948 {
949         __u32 i;
950
951         dst->lsra_count = le32_to_cpu(src->lsra_count);
952         for (i = 0; i < dst->lsra_count; i++)
953                 range_le_to_cpu(&dst->lsra_lsr[i], &src->lsra_lsr[i]);
954 }
955
956 /** @} fid */
957
958 #endif /* __LUSTRE_FID_H */