Whamcloud - gitweb
Branch: b_new_cmd
[fs/lustre-release.git] / lustre / mdd / mdd_object.c
1 /* -*- MODE: c; c-basic-offset: 8; indent-tabs-mode: nil; -*-
2  * vim:expandtab:shiftwidth=8:tabstop=8:
3  *
4  *  mdd/mdd_handler.c
5  *  Lustre Metadata Server (mdd) routines
6  *
7  *  Copyright (C) 2006 Cluster File Systems, Inc.
8  *   Author: Wang Di <wangdi@clusterfs.com>
9  *
10  *   This file is part of the Lustre file system, http://www.lustre.org
11  *   Lustre is a trademark of Cluster File Systems, Inc.
12  *
13  *   You may have signed or agreed to another license before downloading
14  *   this software.  If so, you are bound by the terms and conditions
15  *   of that agreement, and the following does not apply to you.  See the
16  *   LICENSE file included with this distribution for more information.
17  *
18  *   If you did not agree to a different license, then this copy of Lustre
19  *   is open source software; you can redistribute it and/or modify it
20  *   under the terms of version 2 of the GNU General Public License as
21  *   published by the Free Software Foundation.
22  *
23  *   In either case, Lustre is distributed in the hope that it will be
24  *   useful, but WITHOUT ANY WARRANTY; without even the implied warranty
25  *   of MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
26  *   license text for more details.
27  */
28 #ifndef EXPORT_SYMTAB
29 # define EXPORT_SYMTAB
30 #endif
31 #define DEBUG_SUBSYSTEM S_MDS
32
33 #include <linux/module.h>
34 #include <linux/jbd.h>
35 #include <obd.h>
36 #include <obd_class.h>
37 #include <lustre_ver.h>
38 #include <obd_support.h>
39 #include <lprocfs_status.h>
40 /* fid_be_cpu(), fid_cpu_to_be(). */
41 #include <lustre_fid.h>
42
43 #include <linux/ldiskfs_fs.h>
44 #include <lustre_mds.h>
45 #include <lustre/lustre_idl.h>
46
47 #include "mdd_internal.h"
48
49 static struct lu_object_operations mdd_lu_obj_ops;
50
51 static inline void mdd_set_dead_obj(struct mdd_object *obj)
52 {
53         if (obj)
54                 obj->mod_flags |= DEAD_OBJ;
55 }
56
57 int mdd_la_get(const struct lu_env *env, struct mdd_object *obj,
58                struct lu_attr *la, struct lustre_capa *capa)
59 {
60         struct dt_object *next = mdd_object_child(obj);
61         LASSERT(lu_object_exists(mdd2lu_obj(obj)));
62         return next->do_ops->do_attr_get(env, next, la, capa);
63 }
64
65 static void mdd_flags_xlate(struct mdd_object *obj, __u32 flags)
66 {
67         obj->mod_flags &= ~(APPEND_OBJ|IMMUTE_OBJ);
68
69         if (flags & LUSTRE_APPEND_FL)
70                 obj->mod_flags |= APPEND_OBJ;
71
72         if (flags & LUSTRE_IMMUTABLE_FL)
73                 obj->mod_flags |= IMMUTE_OBJ;
74 }
75
76 struct lu_buf *mdd_buf_get(const struct lu_env *env, void *area, ssize_t len)
77 {
78         struct lu_buf *buf;
79
80         buf = &mdd_env_info(env)->mti_buf;
81         buf->lb_buf = area;
82         buf->lb_len = len;
83         return buf;
84 }
85
86 const struct lu_buf *mdd_buf_get_const(const struct lu_env *env,
87                                        const void *area, ssize_t len)
88 {
89         struct lu_buf *buf;
90
91         buf = &mdd_env_info(env)->mti_buf;
92         buf->lb_buf = (void *)area;
93         buf->lb_len = len;
94         return buf;
95 }
96
97 struct mdd_thread_info *mdd_env_info(const struct lu_env *env)
98 {
99         struct mdd_thread_info *info;
100
101         info = lu_context_key_get(&env->le_ctx, &mdd_thread_key);
102         LASSERT(info != NULL);
103         return info;
104 }
105
106 struct lu_object *mdd_object_alloc(const struct lu_env *env,
107                                    const struct lu_object_header *hdr,
108                                    struct lu_device *d)
109 {
110         struct mdd_object *mdd_obj;
111
112         OBD_ALLOC_PTR(mdd_obj);
113         if (mdd_obj != NULL) {
114                 struct lu_object *o;
115
116                 o = mdd2lu_obj(mdd_obj);
117                 lu_object_init(o, NULL, d);
118                 mdd_obj->mod_obj.mo_ops = &mdd_obj_ops;
119                 mdd_obj->mod_obj.mo_dir_ops = &mdd_dir_ops;
120                 mdd_obj->mod_count = 0;
121                 o->lo_ops = &mdd_lu_obj_ops;
122                 return o;
123         } else {
124                 return NULL;
125         }
126 }
127
128 static int mdd_object_init(const struct lu_env *env, struct lu_object *o)
129 {
130         struct mdd_device *d = lu2mdd_dev(o->lo_dev);
131         struct lu_object  *below;
132         struct lu_device  *under;
133         ENTRY;
134
135         under = &d->mdd_child->dd_lu_dev;
136         below = under->ld_ops->ldo_object_alloc(env, o->lo_header, under);
137         mdd_pdlock_init(lu2mdd_obj(o));
138         if (below == NULL)
139                 RETURN(-ENOMEM);
140
141         lu_object_add(o, below);
142         RETURN(0);
143 }
144
145 static int mdd_object_start(const struct lu_env *env, struct lu_object *o)
146 {
147         if (lu_object_exists(o))
148                 return mdd_get_flags(env, lu2mdd_obj(o));
149         else
150                 return 0;
151 }
152
153 static void mdd_object_free(const struct lu_env *env, struct lu_object *o)
154 {
155         struct mdd_object *mdd = lu2mdd_obj(o);
156         
157         lu_object_fini(o);
158         OBD_FREE_PTR(mdd);
159 }
160
161 static int mdd_object_print(const struct lu_env *env, void *cookie,
162                             lu_printer_t p, const struct lu_object *o)
163 {
164         return (*p)(env, cookie, LUSTRE_MDD_NAME"-object@%p", o);
165 }
166
167 /* orphan handling is here */
168 static void mdd_object_delete(const struct lu_env *env,
169                                struct lu_object *o)
170 {
171         struct mdd_object *mdd_obj = lu2mdd_obj(o);
172         struct thandle *handle = NULL;
173         ENTRY;
174
175         if (lu2mdd_dev(o->lo_dev)->mdd_orphans == NULL)
176                 return;
177
178         if (mdd_obj->mod_flags & ORPHAN_OBJ) {
179                 mdd_txn_param_build(env, lu2mdd_dev(o->lo_dev),
180                                     MDD_TXN_INDEX_DELETE_OP);
181                 handle = mdd_trans_start(env, lu2mdd_dev(o->lo_dev));
182                 if (IS_ERR(handle))
183                         CERROR("Cannot get thandle\n");
184                 else {
185                         mdd_write_lock(env, mdd_obj);
186                         /* let's remove obj from the orphan list */
187                         __mdd_orphan_del(env, mdd_obj, handle);
188                         mdd_write_unlock(env, mdd_obj);
189                         mdd_trans_stop(env, lu2mdd_dev(o->lo_dev),
190                                        0, handle);
191                 }
192         }
193 }
194
195 static struct lu_object_operations mdd_lu_obj_ops = {
196         .loo_object_init    = mdd_object_init,
197         .loo_object_start   = mdd_object_start,
198         .loo_object_free    = mdd_object_free,
199         .loo_object_print   = mdd_object_print,
200         .loo_object_delete  = mdd_object_delete
201 };
202
203 struct mdd_object *mdd_object_find(const struct lu_env *env,
204                                    struct mdd_device *d,
205                                    const struct lu_fid *f)
206 {
207         struct lu_object *o, *lo;
208         struct mdd_object *m;
209         ENTRY;
210
211         o = lu_object_find(env, mdd2lu_dev(d)->ld_site, f);
212         if (IS_ERR(o))
213                 m = (struct mdd_object *)o;
214         else {
215                 lo = lu_object_locate(o->lo_header, mdd2lu_dev(d)->ld_type);
216                 /* remote object can't be located and should be put then */
217                 if (lo == NULL)
218                         lu_object_put(env, o);
219                 m = lu2mdd_obj(lo);
220         }
221         RETURN(m);
222 }
223
224 int mdd_get_flags(const struct lu_env *env, struct mdd_object *obj)
225 {
226         struct lu_attr *la = &mdd_env_info(env)->mti_la;
227         int rc;
228
229         ENTRY;
230         mdd_read_lock(env, obj);
231         rc = mdd_la_get(env, obj, la, BYPASS_CAPA);
232         mdd_read_unlock(env, obj);
233         if (rc == 0)
234                 mdd_flags_xlate(obj, la->la_flags);
235         RETURN(rc);
236 }
237
238 void mdd_ref_add_internal(const struct lu_env *env, struct mdd_object *obj,
239                           struct thandle *handle)
240 {
241         struct dt_object *next;
242
243         LASSERT(lu_object_exists(mdd2lu_obj(obj)));
244         next = mdd_object_child(obj);
245         next->do_ops->do_ref_add(env, next, handle);
246 }
247
248 void mdd_ref_del_internal(const struct lu_env *env, struct mdd_object *obj,
249                           struct thandle *handle)
250 {
251         struct dt_object *next = mdd_object_child(obj);
252         ENTRY;
253
254         LASSERT(lu_object_exists(mdd2lu_obj(obj)));
255
256         next->do_ops->do_ref_del(env, next, handle);
257         EXIT;
258 }
259
260 /* get only inode attributes */
261 int mdd_iattr_get(const struct lu_env *env, struct mdd_object *mdd_obj,
262                   struct md_attr *ma)
263 {
264         int rc = 0;
265         ENTRY;
266
267         if (ma->ma_valid & MA_INODE)
268                 RETURN(0);
269
270         rc = mdd_la_get(env, mdd_obj, &ma->ma_attr,
271                           mdd_object_capa(env, mdd_obj));
272         if (rc == 0)
273                 ma->ma_valid |= MA_INODE;
274         RETURN(rc);
275 }
276
277 /* get lov EA only */
278 static int __mdd_lmm_get(const struct lu_env *env,
279                          struct mdd_object *mdd_obj, struct md_attr *ma)
280 {
281         int rc, lmm_size;
282         ENTRY;
283
284         if (ma->ma_valid & MA_LOV)
285                 RETURN(0);
286
287         lmm_size = ma->ma_lmm_size;
288         rc = mdd_get_md(env, mdd_obj, ma->ma_lmm, &lmm_size,
289                         MDS_LOV_MD_NAME);
290         if (rc > 0) {
291                 ma->ma_valid |= MA_LOV;
292                 ma->ma_lmm_size = lmm_size;
293                 rc = 0;
294         }
295         RETURN(rc);
296 }
297
298 int mdd_lmm_get_locked(const struct lu_env *env, struct mdd_object *mdd_obj,
299                        struct md_attr *ma)
300 {
301         int rc;
302         ENTRY;
303
304         mdd_read_lock(env, mdd_obj);
305         rc = __mdd_lmm_get(env, mdd_obj, ma);
306         mdd_read_unlock(env, mdd_obj);
307         RETURN(rc);
308 }
309
310 /* get lmv EA only*/
311 static int __mdd_lmv_get(const struct lu_env *env,
312                          struct mdd_object *mdd_obj, struct md_attr *ma)
313 {
314         int rc;
315
316         if (ma->ma_valid & MA_LMV)
317                 RETURN(0);
318
319         rc = mdd_get_md(env, mdd_obj, ma->ma_lmv, &ma->ma_lmv_size,
320                         MDS_LMV_MD_NAME);
321         if (rc > 0) {
322                 ma->ma_valid |= MA_LMV;
323                 rc = 0;
324         }
325         RETURN(rc);
326 }
327
328 static int mdd_attr_get_internal(const struct lu_env *env,
329                                  struct mdd_object *mdd_obj,
330                                  struct md_attr *ma)
331 {
332         int rc = 0;
333         ENTRY;
334
335         if (ma->ma_need & MA_INODE)
336                 rc = mdd_iattr_get(env, mdd_obj, ma);
337
338         if (rc == 0 && ma->ma_need & MA_LOV) {
339                 if (S_ISREG(mdd_object_type(mdd_obj)) ||
340                     S_ISDIR(mdd_object_type(mdd_obj)))
341                         rc = __mdd_lmm_get(env, mdd_obj, ma);
342         }
343         if (rc == 0 && ma->ma_need & MA_LMV) {
344                 if (S_ISDIR(mdd_object_type(mdd_obj)))
345                         rc = __mdd_lmv_get(env, mdd_obj, ma);
346         }
347 #ifdef CONFIG_FS_POSIX_ACL
348         if (rc == 0 && ma->ma_need & MA_ACL_DEF) {
349                 if (S_ISDIR(mdd_object_type(mdd_obj)))
350                         rc = mdd_acl_def_get(env, mdd_obj, ma);
351         }
352 #endif
353         CDEBUG(D_INODE, "after getattr rc = %d, ma_valid = "LPX64"\n",
354                rc, ma->ma_valid);
355         RETURN(rc);
356 }
357
358 int mdd_attr_get_internal_locked(const struct lu_env *env,
359                                  struct mdd_object *mdd_obj, struct md_attr *ma)
360 {
361         int rc;
362         mdd_read_lock(env, mdd_obj);
363         rc = mdd_attr_get_internal(env, mdd_obj, ma);
364         mdd_read_unlock(env, mdd_obj);
365         return rc;
366 }
367
368 /*
369  * No permission check is needed.
370  */
371 static int mdd_attr_get(const struct lu_env *env, struct md_object *obj,
372                         struct md_attr *ma)
373 {
374         struct mdd_object *mdd_obj = md2mdd_obj(obj);
375         int                rc;
376
377         ENTRY;
378         rc = mdd_attr_get_internal_locked(env, mdd_obj, ma);
379         RETURN(rc);
380 }
381
382 /*
383  * No permission check is needed.
384  */
385 static int mdd_xattr_get(const struct lu_env *env,
386                          struct md_object *obj, struct lu_buf *buf,
387                          const char *name)
388 {
389         struct mdd_object *mdd_obj = md2mdd_obj(obj);
390         struct dt_object  *next;
391         int rc;
392
393         ENTRY;
394
395         LASSERT(lu_object_exists(&obj->mo_lu));
396
397         next = mdd_object_child(mdd_obj);
398         mdd_read_lock(env, mdd_obj);
399         rc = next->do_ops->do_xattr_get(env, next, buf, name,
400                                         mdd_object_capa(env, mdd_obj));
401         mdd_read_unlock(env, mdd_obj);
402
403         RETURN(rc);
404 }
405
406 /*
407  * Permission check is done when open,
408  * no need check again.
409  */
410 static int mdd_readlink(const struct lu_env *env, struct md_object *obj,
411                         struct lu_buf *buf)
412 {
413         struct mdd_object *mdd_obj = md2mdd_obj(obj);
414         struct dt_object  *next;
415         loff_t             pos = 0;
416         int                rc;
417         ENTRY;
418
419         LASSERT(lu_object_exists(&obj->mo_lu));
420
421         next = mdd_object_child(mdd_obj);
422         mdd_read_lock(env, mdd_obj);
423         rc = next->do_body_ops->dbo_read(env, next, buf, &pos,
424                                          mdd_object_capa(env, mdd_obj));
425         mdd_read_unlock(env, mdd_obj);
426         RETURN(rc);
427 }
428
429 static int mdd_xattr_list(const struct lu_env *env, struct md_object *obj,
430                           struct lu_buf *buf)
431 {
432         struct mdd_object *mdd_obj = md2mdd_obj(obj);
433         struct dt_object  *next;
434         int rc;
435
436         ENTRY;
437
438         LASSERT(lu_object_exists(&obj->mo_lu));
439
440         next = mdd_object_child(mdd_obj);
441         mdd_read_lock(env, mdd_obj);
442         rc = next->do_ops->do_xattr_list(env, next, buf,
443                                          mdd_object_capa(env, mdd_obj));
444         mdd_read_unlock(env, mdd_obj);
445
446         RETURN(rc);
447 }
448
449 int mdd_object_create_internal(const struct lu_env *env,
450                                struct mdd_object *obj, struct md_attr *ma,
451                                struct thandle *handle)
452 {
453         struct dt_object *next;
454         struct lu_attr *attr = &ma->ma_attr;
455         int rc;
456         ENTRY;
457
458         if (!lu_object_exists(mdd2lu_obj(obj))) {
459                 next = mdd_object_child(obj);
460                 rc = next->do_ops->do_create(env, next, attr, handle);
461         } else
462                 rc = -EEXIST;
463
464         LASSERT(ergo(rc == 0, lu_object_exists(mdd2lu_obj(obj))));
465
466         RETURN(rc);
467 }
468
469
470 int mdd_attr_set_internal(const struct lu_env *env, struct mdd_object *o,
471                           const struct lu_attr *attr, struct thandle *handle,
472                           const int needacl)
473 {
474         struct dt_object *next;
475         int rc;
476
477         LASSERT(lu_object_exists(mdd2lu_obj(o)));
478         next = mdd_object_child(o);
479         rc = next->do_ops->do_attr_set(env, next, attr, handle,
480                                        mdd_object_capa(env, o));
481 #ifdef CONFIG_FS_POSIX_ACL
482         if (!rc && (attr->la_valid & LA_MODE) && needacl)
483                 rc = mdd_acl_chmod(env, o, attr->la_mode, handle);
484 #endif
485         return rc;
486 }
487
488 int mdd_attr_set_internal_locked(const struct lu_env *env,
489                                  struct mdd_object *o,
490                                  const struct lu_attr *attr,
491                                  struct thandle *handle, int needacl)
492 {
493         int rc;
494
495         needacl = needacl && (attr->la_valid & LA_MODE);
496
497         if (needacl)
498                 mdd_write_lock(env, o);
499
500         rc = mdd_attr_set_internal(env, o, attr, handle, needacl);
501
502         if (needacl)
503                 mdd_write_unlock(env, o);
504         return rc;
505 }
506
507 static int __mdd_xattr_set(const struct lu_env *env, struct mdd_object *o,
508                            const struct lu_buf *buf, const char *name,
509                            int fl, struct thandle *handle)
510 {
511         struct dt_object *next;
512         struct lustre_capa *capa = mdd_object_capa(env, o);
513         int rc = 0;
514         ENTRY;
515
516         LASSERT(lu_object_exists(mdd2lu_obj(o)));
517         next = mdd_object_child(o);
518         if (buf->lb_buf && buf->lb_len > 0) {
519                 rc = next->do_ops->do_xattr_set(env, next, buf, name, 0, handle,
520                                                 capa);
521         } else if (buf->lb_buf == NULL && buf->lb_len == 0) {
522                 rc = next->do_ops->do_xattr_del(env, next, name, handle, capa);
523         }
524         RETURN(rc);
525 }
526
527 /* this gives the same functionality as the code between
528  * sys_chmod and inode_setattr
529  * chown_common and inode_setattr
530  * utimes and inode_setattr
531  * This API is ported from mds_fix_attr but remove some unnecesssary stuff.
532  * and port to
533  */
534 int mdd_fix_attr(const struct lu_env *env, struct mdd_object *obj,
535                  struct lu_attr *la)
536 {
537         struct lu_attr   *tmp_la     = &mdd_env_info(env)->mti_la;
538         struct md_ucred  *uc         = md_ucred(env);
539         time_t            now        = CURRENT_SECONDS;
540         int               rc;
541         ENTRY;
542
543         if (!la->la_valid)
544                 RETURN(0);
545
546         /* Do not permit change file type */
547         if (la->la_valid & LA_TYPE)
548                 RETURN(-EPERM);
549
550         /* They should not be processed by setattr */
551         if (la->la_valid & (LA_NLINK | LA_RDEV | LA_BLKSIZE))
552                 RETURN(-EPERM);
553
554         rc = mdd_la_get(env, obj, tmp_la, BYPASS_CAPA);
555         if (rc)
556                 RETURN(rc);
557
558         if (mdd_is_immutable(obj) || mdd_is_append(obj)) {
559
560                 /*
561                  * If only change flags of the object, we should
562                  * let it pass, but also need capability check
563                  * here if (!capable(CAP_LINUX_IMMUTABLE)),
564                  * fix it, when implement capable in mds
565                  */
566                 if (la->la_valid & ~LA_FLAGS)
567                         RETURN(-EPERM);
568
569                 if (!mdd_capable(uc, CAP_LINUX_IMMUTABLE))
570                         RETURN(-EPERM);
571
572                 if ((uc->mu_fsuid != tmp_la->la_uid) &&
573                     !mdd_capable(uc, CAP_FOWNER))
574                         RETURN(-EPERM);
575
576                 /*
577                  * According to Ext3 implementation on this, the
578                  * Ctime will be changed, but not clear why?
579                  */
580                 la->la_ctime = now;
581                 la->la_valid |= LA_CTIME;
582                 RETURN(0);
583         }
584
585         /* Check for setting the obj time. */
586         if ((la->la_valid & (LA_MTIME | LA_ATIME | LA_CTIME)) &&
587             !(la->la_valid & ~(LA_MTIME | LA_ATIME | LA_CTIME))) {
588                 rc = __mdd_permission_internal(env, obj, MAY_WRITE, 0);
589                 if (rc)
590                         RETURN(rc);
591         }
592
593         /* Make sure a caller can chmod. */
594         if (la->la_valid & LA_MODE) {
595                 /*
596                  * Bypass la_vaild == LA_MODE,
597                  * this is for changing file with SUID or SGID.
598                  */
599                 if ((la->la_valid & ~LA_MODE) &&
600                     (uc->mu_fsuid != tmp_la->la_uid) &&
601                     !mdd_capable(uc, CAP_FOWNER))
602                         RETURN(-EPERM);
603
604                 if (la->la_mode == (umode_t) -1)
605                         la->la_mode = tmp_la->la_mode;
606                 else
607                         la->la_mode = (la->la_mode & S_IALLUGO) |
608                                       (tmp_la->la_mode & ~S_IALLUGO);
609
610                 /* Also check the setgid bit! */
611                 if (!mdd_in_group_p(uc, (la->la_valid & LA_GID) ? la->la_gid :
612                                 tmp_la->la_gid) && !mdd_capable(uc, CAP_FSETID))
613                         la->la_mode &= ~S_ISGID;
614         } else {
615                la->la_mode = tmp_la->la_mode;
616         }
617
618         /* Make sure a caller can chown. */
619         if (la->la_valid & LA_UID) {
620                 if (la->la_uid == (uid_t) -1)
621                         la->la_uid = tmp_la->la_uid;
622                 if (((uc->mu_fsuid != tmp_la->la_uid) ||
623                     (la->la_uid != tmp_la->la_uid)) &&
624                     !mdd_capable(uc, CAP_CHOWN))
625                         RETURN(-EPERM);
626
627                 /*
628                  * If the user or group of a non-directory has been
629                  * changed by a non-root user, remove the setuid bit.
630                  * 19981026 David C Niemi <niemi@tux.org>
631                  *
632                  * Changed this to apply to all users, including root,
633                  * to avoid some races. This is the behavior we had in
634                  * 2.0. The check for non-root was definitely wrong
635                  * for 2.2 anyway, as it should have been using
636                  * CAP_FSETID rather than fsuid -- 19990830 SD.
637                  */
638                 if (((tmp_la->la_mode & S_ISUID) == S_ISUID) &&
639                     !S_ISDIR(tmp_la->la_mode)) {
640                         la->la_mode &= ~S_ISUID;
641                         la->la_valid |= LA_MODE;
642                 }
643         }
644
645         /* Make sure caller can chgrp. */
646         if (la->la_valid & LA_GID) {
647                 if (la->la_gid == (gid_t) -1)
648                         la->la_gid = tmp_la->la_gid;
649                 if (((uc->mu_fsuid != tmp_la->la_uid) ||
650                     ((la->la_gid != tmp_la->la_gid) &&
651                     !mdd_in_group_p(uc, la->la_gid))) &&
652                     !mdd_capable(uc, CAP_CHOWN))
653                         RETURN(-EPERM);
654
655                 /*
656                  * Likewise, if the user or group of a non-directory
657                  * has been changed by a non-root user, remove the
658                  * setgid bit UNLESS there is no group execute bit
659                  * (this would be a file marked for mandatory
660                  * locking).  19981026 David C Niemi <niemi@tux.org>
661                  *
662                  * Removed the fsuid check (see the comment above) --
663                  * 19990830 SD.
664                  */
665                 if (((tmp_la->la_mode & (S_ISGID | S_IXGRP)) ==
666                      (S_ISGID | S_IXGRP)) && !S_ISDIR(tmp_la->la_mode)) {
667                         la->la_mode &= ~S_ISGID;
668                         la->la_valid |= LA_MODE;
669                 }
670         }
671
672         /* For tuncate (or setsize), we should have MAY_WRITE perm */
673         if (la->la_valid & (LA_SIZE | LA_BLOCKS)) {
674                 rc = __mdd_permission_internal(env, obj, MAY_WRITE, 0);
675                 if (rc)
676                         RETURN(rc);
677
678                 /*
679                  * For the "Size-on-MDS" setattr update, merge coming
680                  * attributes with the set in the inode. BUG 10641
681                  */
682                 if ((la->la_valid & LA_ATIME) &&
683                     (la->la_atime < tmp_la->la_atime))
684                         la->la_valid &= ~LA_ATIME;
685
686                 if ((la->la_valid & LA_CTIME) &&
687                     (la->la_ctime < tmp_la->la_ctime))
688                         la->la_valid &= ~(LA_MTIME | LA_CTIME);
689
690                 if (!(la->la_valid & LA_MTIME) && (now > tmp_la->la_mtime)) {
691                         la->la_mtime = now;
692                         la->la_valid |= LA_MTIME;
693                 }
694         }
695
696         /* For last, ctime must be fixed */
697         if (!(la->la_valid & LA_CTIME) && (now > tmp_la->la_ctime)) {
698                 la->la_ctime = now;
699                 la->la_valid |= LA_CTIME;
700         }
701
702         RETURN(0);
703 }
704
705 /* set attr and LOV EA at once, return updated attr */
706 static int mdd_attr_set(const struct lu_env *env, struct md_object *obj,
707                         const struct md_attr *ma)
708 {
709         struct mdd_object *mdd_obj = md2mdd_obj(obj);
710         struct mdd_device *mdd = mdo2mdd(obj);
711         struct thandle *handle;
712         struct lov_mds_md *lmm = NULL;
713         int  rc, lmm_size = 0, max_size = 0;
714         struct lu_attr *la_copy = &mdd_env_info(env)->mti_la_for_fix;
715         ENTRY;
716
717         mdd_txn_param_build(env, mdd, MDD_TXN_ATTR_SET_OP);
718         handle = mdd_trans_start(env, mdd);
719         if (IS_ERR(handle))
720                 RETURN(PTR_ERR(handle));
721         /*TODO: add lock here*/
722         /* start a log jounal handle if needed */
723         if (S_ISREG(mdd_object_type(mdd_obj)) &&
724             ma->ma_attr.la_valid & (LA_UID | LA_GID)) {
725                 max_size = mdd_lov_mdsize(env, mdd);
726                 OBD_ALLOC(lmm, max_size);
727                 lmm_size = max_size;
728                 if (lmm == NULL)
729                         GOTO(cleanup, rc = -ENOMEM);
730
731                 rc = mdd_get_md_locked(env, mdd_obj, lmm, &lmm_size,
732                                 MDS_LOV_MD_NAME);
733
734                 if (rc < 0)
735                         GOTO(cleanup, rc);
736         }
737
738         if (ma->ma_attr.la_valid & (ATTR_MTIME | ATTR_CTIME))
739                 CDEBUG(D_INODE, "setting mtime "LPU64", ctime "LPU64"\n",
740                        ma->ma_attr.la_mtime, ma->ma_attr.la_ctime);
741
742         *la_copy = ma->ma_attr;
743         mdd_read_lock(env, mdd_obj);
744         rc = mdd_fix_attr(env, mdd_obj, la_copy);
745         mdd_read_unlock(env, mdd_obj);
746         if (rc)
747                 GOTO(cleanup, rc);
748
749         if (la_copy->la_valid & LA_FLAGS) {
750                 rc = mdd_attr_set_internal_locked(env, mdd_obj, la_copy,
751                                                   handle, 1);
752                 if (rc == 0)
753                         mdd_flags_xlate(mdd_obj, la_copy->la_flags);
754         } else if (la_copy->la_valid) {            /* setattr */
755                 rc = mdd_attr_set_internal_locked(env, mdd_obj, la_copy,
756                                                   handle, 1);
757                 /* journal chown/chgrp in llog, just like unlink */
758                 if (rc == 0 && lmm_size){
759                         /*TODO set_attr llog */
760                 }
761         }
762
763         if (rc == 0 && ma->ma_valid & MA_LOV) {
764                 umode_t mode;
765
766                 mode = mdd_object_type(mdd_obj);
767                 if (S_ISREG(mode) || S_ISDIR(mode)) {
768                         /*TODO check permission*/
769                         rc = mdd_lov_set_md(env, NULL, mdd_obj, ma->ma_lmm,
770                                             ma->ma_lmm_size, handle, 1);
771                 }
772
773         }
774 cleanup:
775         mdd_trans_stop(env, mdd, rc, handle);
776         if (rc == 0 && (lmm != NULL && lmm_size > 0 )) {
777                 /*set obd attr, if needed*/
778                 rc = mdd_lov_setattr_async(env, mdd_obj, lmm, lmm_size);
779         }
780         if (lmm != NULL) {
781                 OBD_FREE(lmm, max_size);
782         }
783
784         RETURN(rc);
785 }
786
787 int mdd_xattr_set_txn(const struct lu_env *env, struct mdd_object *obj,
788                       const struct lu_buf *buf, const char *name, int fl,
789                       struct thandle *handle)
790 {
791         int  rc;
792         ENTRY;
793
794         mdd_write_lock(env, obj);
795         rc = __mdd_xattr_set(env, obj, buf, name, fl, handle);
796         mdd_write_unlock(env, obj);
797
798         RETURN(rc);
799 }
800
801 static int mdd_xattr_sanity_check(const struct lu_env *env,
802                                   struct mdd_object *obj)
803 {
804         struct lu_attr  *tmp_la = &mdd_env_info(env)->mti_la;
805         struct md_ucred *uc     = md_ucred(env);
806         int rc;
807         ENTRY;
808
809         if (mdd_is_immutable(obj) || mdd_is_append(obj))
810                 RETURN(-EPERM);
811
812         mdd_read_lock(env, obj);
813         rc = mdd_la_get(env, obj, tmp_la, BYPASS_CAPA);
814         mdd_read_unlock(env, obj);
815         if (rc)
816                 RETURN(rc);
817
818         if ((uc->mu_fsuid != tmp_la->la_uid) && !mdd_capable(uc, CAP_FOWNER))
819                 RETURN(-EPERM);
820
821         RETURN(rc);
822 }
823
824 static int mdd_xattr_set(const struct lu_env *env, struct md_object *obj,
825                          const struct lu_buf *buf, const char *name, int fl)
826 {
827         struct lu_attr *la_copy = &mdd_env_info(env)->mti_la_for_fix;
828         struct mdd_object *mdd_obj = md2mdd_obj(obj);
829         struct mdd_device *mdd = mdo2mdd(obj);
830         struct thandle *handle;
831         int  rc;
832         ENTRY;
833
834         rc = mdd_xattr_sanity_check(env, mdd_obj);
835         if (rc)
836                 RETURN(rc);
837
838         mdd_txn_param_build(env, mdd, MDD_TXN_XATTR_SET_OP);
839         handle = mdd_trans_start(env, mdd);
840         if (IS_ERR(handle))
841                 RETURN(PTR_ERR(handle));
842
843         rc = mdd_xattr_set_txn(env, md2mdd_obj(obj), buf, name,
844                                fl, handle);
845         if (rc == 0) {
846                 la_copy->la_ctime = CURRENT_SECONDS;
847                 la_copy->la_valid = LA_CTIME;
848                 rc = mdd_attr_set_internal_locked(env, mdd_obj, la_copy, handle, 0);
849         }
850         mdd_trans_stop(env, mdd, rc, handle);
851
852         RETURN(rc);
853 }
854
855 static int __mdd_xattr_del(const struct lu_env *env,struct mdd_device *mdd,
856                            struct mdd_object *obj,
857                            const char *name, struct thandle *handle)
858 {
859         struct dt_object *next;
860
861         LASSERT(lu_object_exists(mdd2lu_obj(obj)));
862         next = mdd_object_child(obj);
863         return next->do_ops->do_xattr_del(env, next, name, handle,
864                                           mdd_object_capa(env, obj));
865 }
866
867 int mdd_xattr_del(const struct lu_env *env, struct md_object *obj,
868                   const char *name)
869 {
870         struct lu_attr *la_copy = &mdd_env_info(env)->mti_la_for_fix;
871         struct mdd_object *mdd_obj = md2mdd_obj(obj);
872         struct mdd_device *mdd = mdo2mdd(obj);
873         struct thandle *handle;
874         int  rc;
875         ENTRY;
876
877         rc = mdd_xattr_sanity_check(env, mdd_obj);
878         if (rc)
879                 RETURN(rc);
880
881         mdd_txn_param_build(env, mdd, MDD_TXN_XATTR_SET_OP);
882         handle = mdd_trans_start(env, mdd);
883         if (IS_ERR(handle))
884                 RETURN(PTR_ERR(handle));
885
886         mdd_write_lock(env, mdd_obj);
887         rc = __mdd_xattr_del(env, mdd, md2mdd_obj(obj), name, handle);
888         mdd_write_unlock(env, mdd_obj);
889         if (rc == 0) {
890                 la_copy->la_ctime = CURRENT_SECONDS;
891                 la_copy->la_valid = LA_CTIME;
892                 rc = mdd_attr_set_internal(env, mdd_obj, la_copy, handle, 0);
893         }
894
895         mdd_trans_stop(env, mdd, rc, handle);
896
897         RETURN(rc);
898 }
899
900 /* partial unlink */
901 static int mdd_ref_del(const struct lu_env *env, struct md_object *obj,
902                        struct md_attr *ma)
903 {
904         struct lu_attr *la_copy = &mdd_env_info(env)->mti_la_for_fix;
905         struct mdd_object *mdd_obj = md2mdd_obj(obj);
906         struct mdd_device *mdd = mdo2mdd(obj);
907         struct thandle *handle;
908         int rc;
909         ENTRY;
910
911         rc = mdd_log_txn_param_build(env, obj, ma, MDD_TXN_UNLINK_OP);
912         if (rc)
913                 RETURN(rc);
914
915         handle = mdd_trans_start(env, mdd);
916         if (IS_ERR(handle))
917                 RETURN(-ENOMEM);
918
919         mdd_write_lock(env, mdd_obj);
920
921         rc = mdd_unlink_sanity_check(env, NULL, mdd_obj, ma);
922         if (rc)
923                 GOTO(cleanup, rc);
924
925         mdd_ref_del_internal(env, mdd_obj, handle);
926
927         if (S_ISDIR(lu_object_attr(&obj->mo_lu))) {
928                 /* unlink dot */
929                 mdd_ref_del_internal(env, mdd_obj, handle);
930         }
931
932         la_copy->la_ctime = CURRENT_SECONDS;
933         la_copy->la_valid = LA_CTIME;
934         rc = mdd_attr_set_internal(env, mdd_obj, la_copy, handle, 0);
935         if (rc)
936                 GOTO(cleanup, rc);
937
938         rc = mdd_finish_unlink(env, mdd_obj, ma, handle);
939
940         EXIT;
941 cleanup:
942         mdd_write_unlock(env, mdd_obj);
943         mdd_trans_stop(env, mdd, rc, handle);
944         return rc;
945 }
946
947 /* partial operation */
948 static int mdd_oc_sanity_check(const struct lu_env *env,
949                                struct mdd_object *obj,
950                                struct md_attr *ma)
951 {
952         int rc;
953         ENTRY;
954
955         switch (ma->ma_attr.la_mode & S_IFMT) {
956         case S_IFREG:
957         case S_IFDIR:
958         case S_IFLNK:
959         case S_IFCHR:
960         case S_IFBLK:
961         case S_IFIFO:
962         case S_IFSOCK:
963                 rc = 0;
964                 break;
965         default:
966                 rc = -EINVAL;
967                 break;
968         }
969         RETURN(rc);
970 }
971
972 static int mdd_object_create(const struct lu_env *env,
973                              struct md_object *obj,
974                              const struct md_create_spec *spec,
975                              struct md_attr *ma)
976 {
977
978         struct mdd_device *mdd = mdo2mdd(obj);
979         struct mdd_object *mdd_obj = md2mdd_obj(obj);
980         const struct lu_fid *pfid = spec->u.sp_pfid;
981         struct thandle *handle;
982         int rc;
983         ENTRY;
984
985         mdd_txn_param_build(env, mdd, MDD_TXN_OBJECT_CREATE_OP);
986         handle = mdd_trans_start(env, mdd);
987         if (IS_ERR(handle))
988                 RETURN(PTR_ERR(handle));
989
990         mdd_write_lock(env, mdd_obj);
991         rc = mdd_oc_sanity_check(env, mdd_obj, ma);
992         if (rc)
993                 GOTO(unlock, rc);
994
995         rc = mdd_object_create_internal(env, mdd_obj, ma, handle);
996         if (rc)
997                 GOTO(unlock, rc);
998
999         if (spec->sp_cr_flags & MDS_CREATE_SLAVE_OBJ) {
1000                 /* If creating the slave object, set slave EA here. */
1001                 int lmv_size = spec->u.sp_ea.eadatalen;
1002                 struct lmv_stripe_md *lmv;
1003
1004                 lmv = (struct lmv_stripe_md *)spec->u.sp_ea.eadata;
1005                 LASSERT(lmv != NULL && lmv_size > 0);
1006
1007                 rc = __mdd_xattr_set(env, mdd_obj,
1008                                      mdd_buf_get_const(env, lmv, lmv_size),
1009                                      MDS_LMV_MD_NAME, 0, handle);
1010                 if (rc)
1011                         GOTO(unlock, rc);
1012                 pfid = spec->u.sp_ea.fid;
1013
1014                 CDEBUG(D_INFO, "Set slave ea "DFID", eadatalen %d, rc %d\n",
1015                        PFID(mdo2fid(mdd_obj)), spec->u.sp_ea.eadatalen, rc);
1016
1017                 rc = mdd_attr_set_internal(env, mdd_obj, &ma->ma_attr, handle, 0);
1018         } else {
1019 #ifdef CONFIG_FS_POSIX_ACL
1020                 if (spec->sp_cr_flags & MDS_CREATE_RMT_ACL) {
1021                         struct lu_buf *buf = &mdd_env_info(env)->mti_buf;
1022
1023                         buf->lb_buf = (void *)spec->u.sp_ea.eadata;
1024                         buf->lb_len = spec->u.sp_ea.eadatalen;
1025                         if ((buf->lb_len > 0) && (buf->lb_buf != NULL)) {
1026                                 rc = __mdd_acl_init(env, mdd_obj, buf,
1027                                                     &ma->ma_attr.la_mode,
1028                                                     handle);
1029                                 if (rc)
1030                                         GOTO(unlock, rc);
1031                                 else
1032                                         ma->ma_attr.la_valid |= LA_MODE;
1033                         }
1034                 }
1035 #endif
1036                 rc = mdd_object_initialize(env, pfid, mdd_obj, ma, handle);
1037         }
1038         EXIT;
1039 unlock:
1040         mdd_write_unlock(env, mdd_obj);
1041         if (rc == 0)
1042                 rc = mdd_attr_get_internal_locked(env, mdd_obj, ma);
1043
1044         mdd_trans_stop(env, mdd, rc, handle);
1045         return rc;
1046 }
1047
1048 /*
1049  * XXX: Do we need permission checks here?
1050  */
1051 static int mdd_ref_add(const struct lu_env *env,
1052                        struct md_object *obj)
1053 {
1054         struct lu_attr *la_copy = &mdd_env_info(env)->mti_la_for_fix;
1055         struct mdd_object *mdd_obj = md2mdd_obj(obj);
1056         struct mdd_device *mdd = mdo2mdd(obj);
1057         struct thandle *handle;
1058         int rc;
1059         ENTRY;
1060
1061         mdd_txn_param_build(env, mdd, MDD_TXN_XATTR_SET_OP);
1062         handle = mdd_trans_start(env, mdd);
1063         if (IS_ERR(handle))
1064                 RETURN(-ENOMEM);
1065
1066         mdd_write_lock(env, mdd_obj);
1067         rc = mdd_link_sanity_check(env, NULL, mdd_obj);
1068         if (rc == 0)
1069                 mdd_ref_add_internal(env, mdd_obj, handle);
1070         mdd_write_unlock(env, mdd_obj);
1071         if (rc == 0) {
1072                 la_copy->la_ctime = CURRENT_SECONDS;
1073                 la_copy->la_valid = LA_CTIME;
1074                 rc = mdd_attr_set_internal(env, mdd_obj, la_copy, handle, 0);
1075         }
1076         mdd_trans_stop(env, mdd, 0, handle);
1077
1078         RETURN(rc);
1079 }
1080
1081 /* do NOT or the MAY_*'s, you'll get the weakest */
1082 static int accmode(struct mdd_object *mdd_obj, int flags)
1083 {
1084         int res = 0;
1085
1086 #if 0
1087         /* Sadly, NFSD reopens a file repeatedly during operation, so the
1088          * "acc_mode = 0" allowance for newly-created files isn't honoured.
1089          * NFSD uses the MDS_OPEN_OWNEROVERRIDE flag to say that a file
1090          * owner can write to a file even if it is marked readonly to hide
1091          * its brokenness. (bug 5781) */
1092         if (flags & MDS_OPEN_OWNEROVERRIDE && inode->i_uid == current->fsuid)
1093                 return 0;
1094 #endif
1095         if (flags & FMODE_READ)
1096                 res |= MAY_READ;
1097         if (flags & (FMODE_WRITE | MDS_OPEN_TRUNC | MDS_OPEN_APPEND))
1098                 res |= MAY_WRITE;
1099         if (flags & MDS_FMODE_EXEC)
1100                 res |= MAY_EXEC;
1101         return res;
1102 }
1103
1104 static int mdd_open_sanity_check(const struct lu_env *env,
1105                                  struct mdd_object *obj, int flag)
1106 {
1107         struct lu_attr *tmp_la = &mdd_env_info(env)->mti_la;
1108         int mode = accmode(obj, flag);
1109         int rc;
1110         ENTRY;
1111
1112         /* EEXIST check */
1113         if (mdd_is_dead_obj(obj))
1114                 RETURN(-ENOENT);
1115
1116         rc = mdd_la_get(env, obj, tmp_la, BYPASS_CAPA);
1117         if (rc)
1118                RETURN(rc);
1119
1120         if (S_ISLNK(tmp_la->la_mode))
1121                 RETURN(-ELOOP);
1122
1123         if (S_ISDIR(tmp_la->la_mode) && (mode & MAY_WRITE))
1124                 RETURN(-EISDIR);
1125
1126         if (!(flag & MDS_OPEN_CREATED)) {
1127                 rc = __mdd_permission_internal(env, obj, mode, 0);
1128                 if (rc)
1129                         RETURN(rc);
1130         }
1131
1132         if (S_ISFIFO(tmp_la->la_mode) || S_ISSOCK(tmp_la->la_mode) ||
1133             S_ISBLK(tmp_la->la_mode) || S_ISCHR(tmp_la->la_mode))
1134                 flag &= ~MDS_OPEN_TRUNC;
1135
1136         /* For writing append-only file must open it with append mode. */
1137         if (mdd_is_append(obj)) {
1138                 if ((flag & FMODE_WRITE) && !(flag & MDS_OPEN_APPEND))
1139                         RETURN(-EPERM);
1140                 if (flag & MDS_OPEN_TRUNC)
1141                         RETURN(-EPERM);
1142         }
1143
1144 #if 0
1145         /*
1146          * Now, flag -- O_NOATIME does not be packed by client.
1147          */
1148         if (flag & O_NOATIME) {
1149                 struct md_ucred *uc = md_ucred(env);
1150
1151                 if (uc->mu_fsuid != tmp_la->la_uid &&
1152                     !mdd_capable(uc, CAP_FOWNER))
1153                         RETURN(-EPERM);
1154         }
1155 #endif
1156
1157         RETURN(0);
1158 }
1159
1160 static int mdd_open(const struct lu_env *env, struct md_object *obj,
1161                     int flags)
1162 {
1163         struct mdd_object *mdd_obj = md2mdd_obj(obj);
1164         int rc = 0;
1165
1166         mdd_write_lock(env, mdd_obj);
1167
1168         rc = mdd_open_sanity_check(env, mdd_obj, flags);
1169         if (rc == 0)
1170                 mdd_obj->mod_count++;
1171
1172         mdd_write_unlock(env, mdd_obj);
1173         return rc;
1174 }
1175
1176 /* return md_attr back,
1177  * if it is last unlink then return lov ea + llog cookie*/
1178 int mdd_object_kill(const struct lu_env *env, struct mdd_object *obj,
1179                     struct md_attr *ma)
1180 {
1181         int rc = 0;
1182         ENTRY;
1183
1184         mdd_set_dead_obj(obj);
1185         if (S_ISREG(mdd_object_type(obj))) {
1186                 /* Return LOV & COOKIES unconditionally here. We clean evth up.
1187                  * Caller must be ready for that. */
1188                 rc = __mdd_lmm_get(env, obj, ma);
1189                 if ((ma->ma_valid & MA_LOV))
1190                         rc = mdd_unlink_log(env, mdo2mdd(&obj->mod_obj),
1191                                             obj, ma);
1192         }
1193         RETURN(rc);
1194 }
1195
1196 /*
1197  * No permission check is needed.
1198  */
1199 static int mdd_close(const struct lu_env *env, struct md_object *obj,
1200                      struct md_attr *ma)
1201 {
1202         int rc;
1203         struct mdd_object *mdd_obj = md2mdd_obj(obj);
1204         ENTRY;
1205
1206         mdd_write_lock(env, mdd_obj);
1207         /* release open count */
1208         mdd_obj->mod_count --;
1209
1210         rc = mdd_iattr_get(env, mdd_obj, ma);
1211         if (rc == 0 && mdd_obj->mod_count == 0) {
1212                 if (ma->ma_attr.la_nlink == 0)
1213                         rc = mdd_object_kill(env, mdd_obj, ma);
1214         }
1215         mdd_write_unlock(env, mdd_obj);
1216         RETURN(rc);
1217 }
1218
1219 /*
1220  * Permission check is done when open,
1221  * no need check again.
1222  */
1223 static int mdd_readpage_sanity_check(const struct lu_env *env,
1224                                      struct mdd_object *obj)
1225 {
1226         struct dt_object *next = mdd_object_child(obj);
1227         int rc;
1228         ENTRY;
1229
1230         if (S_ISDIR(mdd_object_type(obj)) && dt_try_as_dir(env, next))
1231 #if 0
1232                 rc = mdd_permission_internal(env, obj, MAY_READ);
1233 #else
1234                 rc = 0;
1235 #endif
1236         else
1237                 rc = -ENOTDIR;
1238
1239         RETURN(rc);
1240 }
1241
1242 static int mdd_dir_page_build(const struct lu_env *env, int first,
1243                               void *area, int nob, struct dt_it_ops *iops,
1244                               struct dt_it *it, __u32 *start, __u32 *end,
1245                               struct lu_dirent **last)
1246 {
1247         struct lu_fid          *fid2  = &mdd_env_info(env)->mti_fid2;
1248         struct mdd_thread_info *info = mdd_env_info(env);
1249         struct lu_fid          *fid  = &info->mti_fid;
1250         int                     result;
1251         struct lu_dirent       *ent;
1252
1253         if (first) {
1254                 memset(area, 0, sizeof (struct lu_dirpage));
1255                 area += sizeof (struct lu_dirpage);
1256                 nob  -= sizeof (struct lu_dirpage);
1257         }
1258
1259         LASSERT(nob > sizeof *ent);
1260
1261         ent  = area;
1262         result = 0;
1263         do {
1264                 char  *name;
1265                 int    len;
1266                 int    recsize;
1267                 __u32  hash;
1268
1269                 name = (char *)iops->key(env, it);
1270                 len  = iops->key_size(env, it);
1271
1272                 fid  = (struct lu_fid *)iops->rec(env, it);
1273                 fid_be_to_cpu(fid2, fid);
1274
1275                 recsize = (sizeof(*ent) + len + 3) & ~3;
1276                 hash = iops->store(env, it);
1277                 *end = hash;
1278
1279                 CDEBUG(D_INFO, "%p %p %d "DFID": %#8.8x (%d) \"%*.*s\"\n",
1280                        name, ent, nob, PFID(fid2), hash, len, len, len, name);
1281
1282                 if (nob >= recsize) {
1283                         fid_be_to_cpu(&ent->lde_fid, fid);
1284                         fid_cpu_to_le(&ent->lde_fid, &ent->lde_fid);
1285                         ent->lde_hash = hash;
1286                         ent->lde_namelen = cpu_to_le16(len);
1287                         ent->lde_reclen  = cpu_to_le16(recsize);
1288                         memcpy(ent->lde_name, name, len);
1289                         if (first && ent == area)
1290                                 *start = hash;
1291                         *last = ent;
1292                         ent = (void *)ent + recsize;
1293                         nob -= recsize;
1294                         result = iops->next(env, it);
1295                 } else {
1296                         /*
1297                          * record doesn't fit into page, enlarge previous one.
1298                          */
1299                         LASSERT(*last != NULL);
1300                         (*last)->lde_reclen =
1301                                 cpu_to_le16(le16_to_cpu((*last)->lde_reclen) +
1302                                             nob);
1303                         break;
1304                 }
1305         } while (result == 0);
1306
1307         return result;
1308 }
1309
1310 static int __mdd_readpage(const struct lu_env *env, struct mdd_object *obj,
1311                           const struct lu_rdpg *rdpg)
1312 {
1313         struct dt_it      *it;
1314         struct dt_object  *next = mdd_object_child(obj);
1315         struct dt_it_ops  *iops;
1316         struct page       *pg;
1317         struct lu_dirent  *last;
1318         int i;
1319         int rc;
1320         int nob;
1321         __u32 hash_start;
1322         __u32 hash_end;
1323
1324         LASSERT(rdpg->rp_pages != NULL);
1325         LASSERT(next->do_index_ops != NULL);
1326
1327         if (rdpg->rp_count <= 0)
1328                 return -EFAULT;
1329
1330         /*
1331          * iterate through directory and fill pages from @rdpg
1332          */
1333         iops = &next->do_index_ops->dio_it;
1334         it = iops->init(env, next, 0, mdd_object_capa(env, obj));
1335         if (it == NULL)
1336                 return -ENOMEM;
1337
1338         rc = iops->load(env, it, rdpg->rp_hash);
1339
1340         if (rc == 0)
1341                 /*
1342                  * Iterator didn't find record with exactly the key requested.
1343                  *
1344                  * It is currently either
1345                  *
1346                  *     - positioned above record with key less than
1347                  *     requested---skip it.
1348                  *
1349                  *     - or not positioned at all (is in IAM_IT_SKEWED
1350                  *     state)---position it on the next item.
1351                  */
1352                 rc = iops->next(env, it);
1353         else if (rc > 0)
1354                 rc = 0;
1355
1356         /*
1357          * At this point and across for-loop:
1358          *
1359          *  rc == 0 -> ok, proceed.
1360          *  rc >  0 -> end of directory.
1361          *  rc <  0 -> error.
1362          */
1363         for (i = 0, nob = rdpg->rp_count; rc == 0 && nob > 0;
1364              i++, nob -= CFS_PAGE_SIZE) {
1365                 LASSERT(i < rdpg->rp_npages);
1366                 pg = rdpg->rp_pages[i];
1367                 rc = mdd_dir_page_build(env, !i, kmap(pg),
1368                                         min_t(int, nob, CFS_PAGE_SIZE), iops,
1369                                         it, &hash_start, &hash_end, &last);
1370                 if (rc != 0 || i == rdpg->rp_npages - 1)
1371                         last->lde_reclen = 0;
1372                 kunmap(pg);
1373         }
1374         if (rc > 0) {
1375                 /*
1376                  * end of directory.
1377                  */
1378                 hash_end = ~0ul;
1379                 rc = 0;
1380         }
1381         if (rc == 0) {
1382                 struct lu_dirpage *dp;
1383
1384                 dp = kmap(rdpg->rp_pages[0]);
1385                 dp->ldp_hash_start = rdpg->rp_hash;
1386                 dp->ldp_hash_end   = hash_end;
1387                 if (i == 0)
1388                         /*
1389                          * No pages were processed, mark this.
1390                          */
1391                         dp->ldp_flags |= LDF_EMPTY;
1392                 dp->ldp_flags = cpu_to_le16(dp->ldp_flags);
1393                 kunmap(rdpg->rp_pages[0]);
1394         }
1395         iops->put(env, it);
1396         iops->fini(env, it);
1397
1398         return rc;
1399 }
1400
1401 static int mdd_readpage(const struct lu_env *env, struct md_object *obj,
1402                         const struct lu_rdpg *rdpg)
1403 {
1404         struct dt_object *next;
1405         struct mdd_object *mdd_obj = md2mdd_obj(obj);
1406         int rc;
1407         ENTRY;
1408
1409         LASSERT(lu_object_exists(mdd2lu_obj(mdd_obj)));
1410         next = mdd_object_child(mdd_obj);
1411
1412         mdd_read_lock(env, mdd_obj);
1413         rc = mdd_readpage_sanity_check(env, mdd_obj);
1414         if (rc)
1415                 GOTO(out_unlock, rc);
1416
1417         rc = __mdd_readpage(env, mdd_obj, rdpg);
1418
1419         EXIT;
1420 out_unlock:
1421         mdd_read_unlock(env, mdd_obj);
1422         return rc;
1423 }
1424
1425 struct md_object_operations mdd_obj_ops = {
1426         .moo_permission    = mdd_permission,
1427         .moo_attr_get      = mdd_attr_get,
1428         .moo_attr_set      = mdd_attr_set,
1429         .moo_xattr_get     = mdd_xattr_get,
1430         .moo_xattr_set     = mdd_xattr_set,
1431         .moo_xattr_list    = mdd_xattr_list,
1432         .moo_xattr_del     = mdd_xattr_del,
1433         .moo_object_create = mdd_object_create,
1434         .moo_ref_add       = mdd_ref_add,
1435         .moo_ref_del       = mdd_ref_del,
1436         .moo_open          = mdd_open,
1437         .moo_close         = mdd_close,
1438         .moo_readpage      = mdd_readpage,
1439         .moo_readlink      = mdd_readlink,
1440         .moo_capa_get      = mdd_capa_get
1441 };