Whamcloud - gitweb
LU-2361 quota: keep slave's glb idx consistent with master's
[fs/lustre-release.git] / lustre / quota / qmt_entry.c
1 /*
2  * GPL HEADER START
3  *
4  * DO NOT ALTER OR REMOVE COPYRIGHT NOTICES OR THIS FILE HEADER.
5  *
6  * This program is free software; you can redistribute it and/or modify
7  * it under the terms of the GNU General Public License version 2 only,
8  * as published by the Free Software Foundation.
9  *
10  * This program is distributed in the hope that it will be useful, but
11  * WITHOUT ANY WARRANTY; without even the implied warranty of
12  * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
13  * General Public License version 2 for more details (a copy is included
14  * in the LICENSE file that accompanied this code).
15  *
16  * You should have received a copy of the GNU General Public License
17  * version 2 along with this program; if not, write to the
18  * Free Software Foundation, Inc., 59 Temple Place - Suite 330,
19  * Boston, MA 021110-1307, USA
20  *
21  * GPL HEADER END
22  */
23 /*
24  * Copyright (c) 2012 Intel, Inc.
25  * Use is subject to license terms.
26  *
27  * Author: Johann Lombardi <johann.lombardi@intel.com>
28  * Author: Niu    Yawei    <yawei.niu@intel.com>
29  */
30
31 #ifndef EXPORT_SYMTAB
32 # define EXPORT_SYMTAB
33 #endif
34
35 #define DEBUG_SUBSYSTEM S_LQUOTA
36
37 #include "qmt_internal.h"
38
39 /*
40  * Initialize qmt-specific fields of quota entry.
41  *
42  * \param lqe - is the quota entry to initialize
43  * \param arg - is the pointer to the qmt_pool_info structure
44  */
45 static void qmt_lqe_init(struct lquota_entry *lqe, void *arg)
46 {
47         LASSERT(lqe_is_master(lqe));
48
49         lqe->lqe_revoke_time = 0;
50         init_rwsem(&lqe->lqe_sem);
51 }
52
53 /*
54  * Update a lquota entry. This is done by reading quota settings from the global
55  * index. The lquota entry must be write locked.
56  *
57  * \param env - the environment passed by the caller
58  * \param lqe - is the quota entry to refresh
59  * \param arg - is the pointer to the qmt_pool_info structure
60  */
61 static int qmt_lqe_read(const struct lu_env *env, struct lquota_entry *lqe,
62                         void *arg)
63 {
64         struct qmt_thread_info  *qti = qmt_info(env);
65         struct qmt_pool_info    *pool = (struct qmt_pool_info *)arg;
66         int                      rc;
67         ENTRY;
68
69         LASSERT(lqe_is_master(lqe));
70
71         /* read record from disk */
72         rc = lquota_disk_read(env, pool->qpi_glb_obj[lqe->lqe_site->lqs_qtype],
73                               &lqe->lqe_id, (struct dt_rec *)&qti->qti_glb_rec);
74
75         switch (rc) {
76         case -ENOENT:
77                 /* no such entry, assume quota isn't enforced for this user */
78                 lqe->lqe_enforced = false;
79                 break;
80         case 0:
81                 /* copy quota settings from on-disk record */
82                 lqe->lqe_granted   = qti->qti_glb_rec.qbr_granted;
83                 lqe->lqe_hardlimit = qti->qti_glb_rec.qbr_hardlimit;
84                 lqe->lqe_softlimit = qti->qti_glb_rec.qbr_softlimit;
85                 lqe->lqe_gracetime = qti->qti_glb_rec.qbr_time;
86
87                 if (lqe->lqe_hardlimit == 0 && lqe->lqe_softlimit == 0)
88                         /* {hard,soft}limit=0 means no quota enforced */
89                         lqe->lqe_enforced = false;
90                 else
91                         lqe->lqe_enforced  = true;
92
93                 break;
94         default:
95                 LQUOTA_ERROR(lqe, "failed to read quota entry from disk, rc:%d",
96                              rc);
97                 RETURN(rc);
98         }
99
100         LQUOTA_DEBUG(lqe, "read");
101         RETURN(0);
102 }
103
104 /*
105  * Print lqe information for debugging.
106  *
107  * \param lqe - is the quota entry to debug
108  * \param arg - is the pointer to the qmt_pool_info structure
109  * \param msgdata - debug message
110  * \param fmt     - format of debug message
111  */
112 static void qmt_lqe_debug(struct lquota_entry *lqe, void *arg,
113                           struct libcfs_debug_msg_data *msgdata,
114                           const char *fmt, va_list args)
115 {
116         struct qmt_pool_info    *pool = (struct qmt_pool_info *)arg;
117
118         libcfs_debug_vmsg2(msgdata, fmt, args,
119                            "qmt:%s pool:%d-%s id:"LPU64" enforced:%d hard:"LPU64
120                            " soft:"LPU64" granted:"LPU64" time:"LPU64" qunit:"
121                            LPU64" edquot:%d may_rel:"LPU64" revoke:"LPU64"\n",
122                            pool->qpi_qmt->qmt_svname,
123                            pool->qpi_key & 0x0000ffff,
124                            RES_NAME(pool->qpi_key >> 16),
125                            lqe->lqe_id.qid_uid, lqe->lqe_enforced,
126                            lqe->lqe_hardlimit, lqe->lqe_softlimit,
127                            lqe->lqe_granted, lqe->lqe_gracetime,
128                            lqe->lqe_qunit, lqe->lqe_edquot, lqe->lqe_may_rel,
129                            lqe->lqe_revoke_time);
130 }
131
132 /*
133  * Vector of quota entry operations supported on the master
134  */
135 struct lquota_entry_operations qmt_lqe_ops = {
136         .lqe_init       = qmt_lqe_init,
137         .lqe_read       = qmt_lqe_read,
138         .lqe_debug      = qmt_lqe_debug,
139 };
140
141 /*
142  * Reserve enough credits to update records in both the global index and
143  * the slave index identified by \slv_obj
144  *
145  * \param env     - is the environment passed by the caller
146  * \param lqe     - is the quota entry associated with the identifier
147  *                  subject to the change
148  * \param slv_obj - is the dt_object associated with the index file
149  * \param restore - is a temporary storage for current quota settings which will
150  *                  be restored if something goes wrong at index update time.
151  */
152 struct thandle *qmt_trans_start_with_slv(const struct lu_env *env,
153                                          struct lquota_entry *lqe,
154                                          struct dt_object *slv_obj,
155                                          struct qmt_lqe_restore *restore)
156 {
157         struct qmt_device       *qmt;
158         struct thandle          *th;
159         int                      rc;
160         ENTRY;
161
162         LASSERT(lqe != NULL);
163         LASSERT(lqe_is_master(lqe));
164
165         qmt = lqe2qpi(lqe)->qpi_qmt;
166
167         if (slv_obj != NULL)
168                 LQUOTA_DEBUG(lqe, "declare write for slv "DFID,
169                              PFID(lu_object_fid(&slv_obj->do_lu)));
170
171         /* start transaction */
172         th = dt_trans_create(env, qmt->qmt_child);
173         if (IS_ERR(th))
174                 RETURN(th);
175
176         if (slv_obj == NULL)
177                 /* quota settings on master are updated synchronously for the
178                  * time being */
179                 th->th_sync = 1;
180
181         /* reserve credits for global index update */
182         rc = lquota_disk_declare_write(env, th, LQE_GLB_OBJ(lqe), &lqe->lqe_id);
183         if (rc)
184                 GOTO(out, rc);
185
186         if (slv_obj != NULL) {
187                 /* reserve credits for slave index update */
188                 rc = lquota_disk_declare_write(env, th, slv_obj, &lqe->lqe_id);
189                 if (rc)
190                         GOTO(out, rc);
191         }
192
193         /* start transaction */
194         rc = dt_trans_start_local(env, qmt->qmt_child, th);
195         if (rc)
196                 GOTO(out, rc);
197
198         EXIT;
199 out:
200         if (rc) {
201                 dt_trans_stop(env, qmt->qmt_child, th);
202                 th = ERR_PTR(rc);
203                 LQUOTA_ERROR(lqe, "failed to slv declare write for "DFID
204                              ", rc:%d", PFID(lu_object_fid(&slv_obj->do_lu)),
205                              rc);
206         } else {
207                 restore->qlr_hardlimit = lqe->lqe_hardlimit;
208                 restore->qlr_softlimit = lqe->lqe_softlimit;
209                 restore->qlr_gracetime = lqe->lqe_gracetime;
210                 restore->qlr_granted   = lqe->lqe_granted;
211                 restore->qlr_qunit     = lqe->lqe_qunit;
212         }
213         return th;
214 }
215
216 /*
217  * Reserve enough credits to update a record in the global index
218  *
219  * \param env     - is the environment passed by the caller
220  * \param lqe     - is the quota entry to be modified in the global index
221  * \param restore - is a temporary storage for current quota settings which will
222  *                  be restored if something goes wrong at index update time.
223  */
224 struct thandle *qmt_trans_start(const struct lu_env *env,
225                                 struct lquota_entry *lqe,
226                                 struct qmt_lqe_restore *restore)
227 {
228         LQUOTA_DEBUG(lqe, "declare write");
229         return qmt_trans_start_with_slv(env, lqe, NULL, restore);
230 }
231
232 /*
233  * Update record associated with a quota entry in the global index.
234  * If LQUOTA_BUMP_VER is set, then the global index version must also be
235  * bumped.
236  * The entry must be at least read locked, dirty and up-to-date.
237  *
238  * \param env   - the environment passed by the caller
239  * \param th    - is the transaction handle to be used for the disk writes
240  * \param lqe   - is the quota entry to udpate
241  * \param obj   - is the dt_object associated with the index file
242  * \param flags - can be LQUOTA_BUMP_VER or LQUOTA_SET_VER.
243  * \param ver   - is used to return the new version of the index.
244  *
245  * \retval      - 0 on success and lqe dirty flag cleared,
246  *                appropriate error on failure and uptodate flag cleared.
247  */
248 int qmt_glb_write(const struct lu_env *env, struct thandle *th,
249                   struct lquota_entry *lqe, __u32 flags, __u64 *ver)
250 {
251         struct qmt_thread_info  *qti = qmt_info(env);
252         struct lquota_glb_rec   *rec;
253         int                      rc;
254         ENTRY;
255
256         LASSERT(lqe != NULL);
257         LASSERT(lqe_is_master(lqe));
258         LASSERT(lqe_is_locked(lqe));
259         LASSERT(lqe->lqe_uptodate);
260         LASSERT((flags & ~(LQUOTA_BUMP_VER | LQUOTA_SET_VER)) == 0);
261
262         LQUOTA_DEBUG(lqe, "write glb");
263
264         /* never delete the entry even when the id isn't enforced and
265          * no any guota granted, otherwise, this entry will not be
266          * synced to slave during the reintegration. */
267         rec = &qti->qti_glb_rec;
268
269         /* fill global index with updated quota settings */
270         rec->qbr_granted   = lqe->lqe_granted;
271         rec->qbr_hardlimit = lqe->lqe_hardlimit;
272         rec->qbr_softlimit = lqe->lqe_softlimit;
273         rec->qbr_time      = lqe->lqe_gracetime;
274
275         /* write new quota settings */
276         rc = lquota_disk_write(env, th, LQE_GLB_OBJ(lqe), &lqe->lqe_id,
277                                (struct dt_rec *)rec, flags, ver);
278         if (rc)
279                 /* we failed to write the new quota settings to disk, report
280                  * error to caller who will restore the initial value */
281                 LQUOTA_ERROR(lqe, "failed to update global index, rc:%d", rc);
282
283         RETURN(rc);
284 }
285
286 /*
287  * Read from disk how much quota space is allocated to a slave.
288  * This is done by reading records from the dedicated slave index file.
289  * Return in \granted how much quota space is currently allocated to the
290  * slave.
291  * The entry must be at least read locked.
292  *
293  * \param env - the environment passed by the caller
294  * \param lqe - is the quota entry associated with the identifier to look-up
295  *              in the slave index
296  * \param slv_obj - is the dt_object associated with the slave index
297  * \param granted - is the output parameter where to return how much space
298  *                  is granted to the slave.
299  *
300  * \retval    - 0 on success, appropriate error on failure
301  */
302 int qmt_slv_read(const struct lu_env *env, struct lquota_entry *lqe,
303                  struct dt_object *slv_obj, __u64 *granted)
304 {
305         struct qmt_thread_info  *qti = qmt_info(env);
306         struct lquota_slv_rec   *slv_rec = &qti->qti_slv_rec;
307         int                      rc;
308         ENTRY;
309
310         LASSERT(lqe != NULL);
311         LASSERT(lqe_is_master(lqe));
312         LASSERT(lqe_is_locked(lqe));
313
314         LQUOTA_DEBUG(lqe, "read slv "DFID,
315                      PFID(lu_object_fid(&slv_obj->do_lu)));
316
317         /* read slave record from disk */
318         rc = lquota_disk_read(env, slv_obj, &lqe->lqe_id,
319                               (struct dt_rec *)slv_rec);
320         switch (rc) {
321         case -ENOENT:
322                 *granted = 0;
323                 break;
324         case 0:
325                 /* extract granted from on-disk record */
326                 *granted = slv_rec->qsr_granted;
327                 break;
328         default:
329                 LQUOTA_ERROR(lqe, "failed to read slave record "DFID,
330                              PFID(lu_object_fid(&slv_obj->do_lu)));
331                 RETURN(rc);
332         }
333
334         LQUOTA_DEBUG(lqe, "successful slv read "LPU64, *granted);
335
336         RETURN(0);
337 }
338
339 /*
340  * Update record in slave index file.
341  * The entry must be at least read locked.
342  *
343  * \param env - the environment passed by the caller
344  * \param th  - is the transaction handle to be used for the disk writes
345  * \param lqe - is the dirty quota entry which will be updated at the same time
346  *              as the slave index
347  * \param slv_obj - is the dt_object associated with the slave index
348  * \param flags - can be LQUOTA_BUMP_VER or LQUOTA_SET_VER.
349  * \param ver   - is used to return the new version of the index.
350  * \param granted - is the new amount of quota space owned by the slave
351  *
352  * \retval    - 0 on success, appropriate error on failure
353  */
354 int qmt_slv_write(const struct lu_env *env, struct thandle *th,
355                   struct lquota_entry *lqe, struct dt_object *slv_obj,
356                   __u32 flags, __u64 *ver, __u64 granted)
357 {
358         struct qmt_thread_info  *qti = qmt_info(env);
359         struct lquota_slv_rec   *rec;
360         int                      rc;
361         ENTRY;
362
363         LASSERT(lqe != NULL);
364         LASSERT(lqe_is_master(lqe));
365         LASSERT(lqe_is_locked(lqe));
366
367         LQUOTA_DEBUG(lqe, "write slv "DFID" granted:"LPU64,
368                      PFID(lu_object_fid(&slv_obj->do_lu)), granted);
369
370         /* never delete the entry, otherwise, it'll not be transferred
371          * to slave during reintegration. */
372         rec = &qti->qti_slv_rec;
373
374         /* updated space granted to this slave */
375         rec->qsr_granted = granted;
376
377         /* write new granted space */
378         rc = lquota_disk_write(env, th, slv_obj, &lqe->lqe_id,
379                                (struct dt_rec *)rec, flags, ver);
380         if (rc) {
381                 LQUOTA_ERROR(lqe, "failed to update slave index "DFID" granted:"
382                              LPU64, PFID(lu_object_fid(&slv_obj->do_lu)),
383                              granted);
384                 RETURN(rc);
385         }
386
387         RETURN(0);
388 }
389
390 /*
391  * Check whether new limits are valid for this pool
392  *
393  * \param lqe  - is the quota entry subject to the setquota
394  * \param hard - is the new hard limit
395  * \param soft - is the new soft limit
396  */
397 int qmt_validate_limits(struct lquota_entry *lqe, __u64 hard, __u64 soft)
398 {
399         ENTRY;
400
401         if (hard != 0 && soft > hard)
402                 /* soft limit must be less than hard limit */
403                 RETURN(-EINVAL);
404         RETURN(0);
405 }
406
407 /*
408  * Set/clear edquot flag after quota space allocation/release or settings
409  * change. Slaves will be notified of changes via glimpse on per-ID lock
410  *
411  * \param lqe - is the quota entry to check
412  * \param now - is the current time in second used for grace time managment
413  */
414 void qmt_adjust_edquot(struct lquota_entry *lqe, __u64 now)
415 {
416         struct qmt_pool_info    *pool = lqe2qpi(lqe);
417         ENTRY;
418
419         if (!lqe->lqe_enforced || lqe->lqe_id.qid_uid == 0)
420                 RETURN_EXIT;
421
422         if (!lqe->lqe_edquot) {
423                 /* space exhausted flag not set, let's check whether it is time
424                  * to set the flag */
425
426                 if (!qmt_space_exhausted(lqe, now))
427                         /* the qmt still has available space */
428                         RETURN_EXIT;
429
430                 if (lqe->lqe_qunit != pool->qpi_least_qunit)
431                         /* we haven't reached the minimal qunit yet, so there is
432                          * still hope that the rebalancing process might free up
433                          * some quota space */
434                         RETURN_EXIT;
435
436                 if (lqe->lqe_revoke_time == 0)
437                         /* least qunit value not sent to all slaves yet */
438                         RETURN_EXIT;
439
440                 if (lqe->lqe_may_rel != 0 &&
441                     cfs_time_before_64(cfs_time_shift_64(-QMT_REBA_TIMEOUT),
442                                        lqe->lqe_revoke_time))
443                         /* Let's give more time to slave to release space */
444                         RETURN_EXIT;
445
446                 /* set edquot flag */
447                 lqe->lqe_edquot = true;
448         } else {
449                 /* space exhausted flag set, let's check whether it is time to
450                  * clear it */
451
452                 if (qmt_space_exhausted(lqe, now))
453                         /* the qmt still has not space */
454                         RETURN_EXIT;
455
456                 if (lqe->lqe_hardlimit != 0 &&
457                     lqe->lqe_granted + pool->qpi_least_qunit >
458                                                         lqe->lqe_hardlimit)
459                         /* we clear the flag only once at least one least qunit
460                          * is available */
461                         RETURN_EXIT;
462
463                 /* clear edquot flag */
464                 lqe->lqe_edquot = false;
465         }
466
467         LQUOTA_DEBUG(lqe, "changing edquot flag");
468
469         /* let's notify slave by issuing glimpse on per-ID lock.
470          * the rebalance thread will take care of this */
471         qmt_id_lock_notify(pool->qpi_qmt, lqe);
472         EXIT;
473 }
474
475 /*
476  * Try to grant more quota space back to slave.
477  *
478  * \param lqe     - is the quota entry for which we would like to allocate more
479  *                  space
480  * \param granted - is how much was already granted as part of the request
481  *                  processing
482  * \param spare   - is how much unused quota space the slave already owns
483  *
484  * \retval return how additional space can be granted to the slave
485  */
486 __u64 qmt_alloc_expand(struct lquota_entry *lqe, __u64 granted, __u64 spare)
487 {
488         struct qmt_pool_info    *pool = lqe2qpi(lqe);
489         __u64                    remaining, qunit;
490         int                      slv_cnt;
491
492         LASSERT(lqe->lqe_enforced && lqe->lqe_qunit != 0);
493
494         slv_cnt = lqe2qpi(lqe)->qpi_slv_nr[lqe->lqe_site->lqs_qtype];
495         qunit   = lqe->lqe_qunit;
496
497         if (lqe->lqe_softlimit != 0)
498                 remaining = lqe->lqe_softlimit;
499         else
500                 remaining = lqe->lqe_hardlimit;
501
502         if (lqe->lqe_granted >= remaining)
503                 RETURN(0);
504
505         remaining -= lqe->lqe_granted;
506
507         do {
508                 if (spare >= qunit)
509                         break;
510
511                 granted &= (qunit - 1);
512
513                 if (remaining > (slv_cnt * qunit) >> 1) {
514                         /* enough room to grant more space w/o additional
515                          * shrinking ... at least for now */
516                         remaining -= (slv_cnt * qunit) >> 1;
517                 } else if (qunit != pool->qpi_least_qunit) {
518                         qunit >>= 2;
519                         continue;
520                 }
521
522                 granted &= (qunit - 1);
523                 if (spare > 0)
524                         RETURN(min_t(__u64, qunit - spare, remaining));
525                 else
526                         RETURN(min_t(__u64, qunit - granted, remaining));
527         } while (qunit >= pool->qpi_least_qunit);
528
529         RETURN(0);
530 }
531
532 /*
533  * Adjust qunit size according to quota limits and total granted count.
534  * The caller must have locked the lqe.
535  *
536  * \param env - the environment passed by the caller
537  * \param lqe - is the qid entry to be adjusted
538  */
539 void qmt_adjust_qunit(const struct lu_env *env, struct lquota_entry *lqe)
540 {
541         struct qmt_pool_info    *pool = lqe2qpi(lqe);
542         int                      slv_cnt;
543         __u64                    qunit, limit;
544         ENTRY;
545
546         LASSERT(lqe_is_locked(lqe));
547
548         if (!lqe->lqe_enforced || lqe->lqe_id.qid_uid == 0)
549                 /* no quota limits */
550                 RETURN_EXIT;
551
552         /* record how many slaves have already registered */
553         slv_cnt = pool->qpi_slv_nr[lqe->lqe_site->lqs_qtype];
554         if (slv_cnt == 0)
555                 /* wait for at least one slave to join */
556                 RETURN_EXIT;
557
558         /* Qunit calculation is based on soft limit, if any, hard limit
559          * otherwise. This means that qunit is shrunk to the minimum when
560          * beyond the soft limit. This will impact performance, but that's the
561          * price of an accurate grace time management. */
562         if (lqe->lqe_softlimit != 0) {
563                 limit = lqe->lqe_softlimit;
564         } else if (lqe->lqe_hardlimit != 0) {
565                 limit = lqe->lqe_hardlimit;
566         } else {
567                 LQUOTA_ERROR(lqe, "enforced bit set, but neither hard nor soft "
568                              "limit are set");
569                 RETURN_EXIT;
570         }
571
572         qunit = lqe->lqe_qunit == 0 ? pool->qpi_least_qunit : lqe->lqe_qunit;
573
574         /* The qunit value is computed as follows: limit / (2 * slv_cnt).
575          * Then 75% of the quota space can be granted with current qunit value.
576          * The remaining 25% are then used with reduced qunit size (by a factor
577          * of 4) which is then divided in a similar manner.
578          *
579          * |---------------------limit---------------------|
580          * |-------limit / 2-------|-limit / 4-|-limit / 4-|
581          * |qunit|qunit|qunit|qunit|           |           |
582          * |----slv_cnt * qunit----|           |           |
583          * |-grow limit-|          |           |           |
584          * |--------------shrink limit---------|           |
585          * |---space granted in qunit chunks---|-remaining-|
586          *                                    /             \
587          *                                   /               \
588          *                                  /                 \
589          *                                 /                   \
590          *                                /                     \
591          *     qunit >>= 2;            |qunit*slv_cnt|qunit*slv_cnt|
592          *                             |---space in qunit---|remain|
593          *                                  ...                               */
594         if (qunit == pool->qpi_least_qunit ||
595             limit >= lqe->lqe_granted + ((slv_cnt * qunit) >> 1)) {
596                 /* current qunit value still fits, let's see if we can afford to
597                  * increase qunit now ...
598                  * To increase qunit again, we have to be under 25% */
599                 while (limit >= lqe->lqe_granted + 6 * qunit * slv_cnt)
600                         qunit <<= 2;
601         } else {
602                 /* shrink qunit until we find a suitable value */
603                 while (qunit > pool->qpi_least_qunit &&
604                        limit < lqe->lqe_granted + ((slv_cnt * qunit) >> 1))
605                         qunit >>= 2;
606         }
607
608         if (lqe->lqe_qunit == qunit)
609                 /* keep current qunit */
610                 RETURN_EXIT;
611
612         LQUOTA_DEBUG(lqe, "%s qunit to "LPU64,
613                      lqe->lqe_qunit < qunit ? "increasing" : "decreasing",
614                      qunit);
615
616         /* store new qunit value */
617         swap(lqe->lqe_qunit, qunit);
618
619         /* reset revoke time */
620         lqe->lqe_revoke_time = 0;
621
622         if (lqe->lqe_qunit < qunit)
623                 /* let's notify slave of qunit shrinking */
624                 qmt_id_lock_notify(pool->qpi_qmt, lqe);
625         else if (lqe->lqe_qunit == pool->qpi_least_qunit)
626                 /* initial qunit value is the smallest one */
627                 lqe->lqe_revoke_time = cfs_time_current_64();
628         EXIT;
629 }
630
631 /*
632  * Adjust qunit & edquot flag in case it wasn't initialized already (e.g.
633  * limit set while no slaves were connected yet)
634  */
635 void qmt_revalidate(const struct lu_env *env, struct lquota_entry *lqe)
636 {
637         if (lqe->lqe_qunit == 0) {
638                 /* lqe was read from disk, but neither qunit, nor edquot flag
639                  * were initialized */
640                 qmt_adjust_qunit(env, lqe);
641                 if (lqe->lqe_qunit != 0)
642                         qmt_adjust_edquot(lqe, cfs_time_current_sec());
643         }
644 }