Whamcloud - gitweb
LU-1842 quota: add quota locks support on QMT
[fs/lustre-release.git] / lustre / quota / qmt_internal.h
1 /*
2  * GPL HEADER START
3  *
4  * DO NOT ALTER OR REMOVE COPYRIGHT NOTICES OR THIS FILE HEADER.
5  *
6  * This program is free software; you can redistribute it and/or modify
7  * it under the terms of the GNU General Public License version 2 only,
8  * as published by the Free Software Foundation.
9  *
10  * This program is distributed in the hope that it will be useful, but
11  * WITHOUT ANY WARRANTY; without even the implied warranty of
12  * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
13  * General Public License version 2 for more details (a copy is included
14  * in the LICENSE file that accompanied this code).
15  *
16  * You should have received a copy of the GNU General Public License
17  * version 2 along with this program; if not, write to the
18  * Free Software Foundation, Inc., 59 Temple Place - Suite 330,
19  * Boston, MA 021110-1307, USA
20  *
21  * GPL HEADER END
22  */
23 /*
24  * Copyright (c) 2012 Intel, Inc.
25  * Use is subject to license terms.
26  */
27
28 #include "lquota_internal.h"
29
30 #ifndef _QMT_INTERNAL_H
31 #define _QMT_INTERNAL_H
32
33 /*
34  * The Quota Master Target Device.
35  * The qmt is responsible for:
36  * - all interactions with MDT0 (provide request handlers, share ldlm namespace,
37  *   manage ldlm lvbo, ...)
38  * - all quota lock management (i.e. global quota locks as well as per-ID locks)
39  * - manage the quota pool configuration
40  *
41  * That's the structure MDT0 connects to in mdt_quota_init().
42  */
43 struct qmt_device {
44         /* Super-class. dt_device/lu_device for this master target */
45         struct dt_device        qmt_dt_dev;
46
47         /* service name of this qmt */
48         char                    qmt_svname[MAX_OBD_NAME];
49
50         /* Reference to the next device in the side stack
51          * The child device is actually the OSD device where we store the quota
52          * index files */
53         struct obd_export       *qmt_child_exp;
54         struct dt_device        *qmt_child;
55
56         /* pointer to ldlm namespace to be used for quota locks */
57         struct ldlm_namespace   *qmt_ns;
58
59         /* Hash table containing a qmt_pool_info structure for each pool
60          * this quota master is in charge of. We only have 2 pools in this
61          * hash for the time being:
62          * - one for quota management on the default metadata pool
63          * - one for quota managment on the default data pool
64          *
65          * Once we support quota on non-default pools, then more pools will
66          * be added to this hash table and pool master setup would have to be
67          * handled via configuration logs */
68         cfs_hash_t              *qmt_pool_hash;
69
70         /* List of pools managed by this master target */
71         cfs_list_t               qmt_pool_list;
72
73         /* procfs root directory for this qmt */
74         cfs_proc_dir_entry_t    *qmt_proc;
75
76         /* dedicated thread in charge of space rebalancing */
77         struct ptlrpc_thread     qmt_reba_thread;
78
79         /* list of lqe entry which need space rebalancing */
80         cfs_list_t               qmt_reba_list;
81
82         /* lock protecting rebalancing list */
83         cfs_spinlock_t           qmt_reba_lock;
84
85         unsigned long            qmt_stopping:1; /* qmt is stopping */
86
87 };
88
89 /*
90  * Per-pool quota information.
91  * The qmt creates one such structure for each pool
92  * with quota enforced. All the structures are kept in a hash which is used to
93  * determine whether or not quota is enforced for a given pool.
94  * We currently only support the default data pool and default metadata pool
95  * with the pool_id 0.
96  */
97 struct qmt_pool_info {
98         /* link to qmt's pool hash */
99         cfs_hlist_node_t         qpi_hash;
100
101         /* chained list of all pools managed by the same qmt */
102         cfs_list_t               qpi_linkage;
103
104         /* Pool key composed of pool_id | (pool_type << 16)
105          * Only pool ID 0 is supported for now and the pool type is either
106          * QUOTA_RES_MD or QUOTA_RES_DT.
107          * immutable after creation. */
108         __u32                    qpi_key;
109
110         /* track users of this pool instance */
111         cfs_atomic_t             qpi_ref;
112
113         /* back pointer to master target
114          * immutable after creation. */
115         struct qmt_device       *qpi_qmt;
116
117         /* pointer to dt object associated with global indexes for both user
118          * and group quota */
119         struct dt_object        *qpi_glb_obj[MAXQUOTAS];
120
121         /* A pool supports two different quota types: user and group quota.
122          * Each quota type has its own global index and lquota_entry hash table.
123          */
124         struct lquota_site      *qpi_site[MAXQUOTAS];
125
126         /* number of slaves registered for each quota types */
127         int                      qpi_slv_nr[MAXQUOTAS];
128
129         /* procfs root directory for this pool */
130         cfs_proc_dir_entry_t    *qpi_proc;
131
132         /* pool directory where all indexes related to this pool instance are
133          * stored */
134         struct dt_object        *qpi_root;
135
136         /* Global quota parameters which apply to all quota type */
137         /* the least value of qunit */
138         unsigned long            qpi_least_qunit;
139 };
140
141 /*
142  * Helper routines and prototypes
143  */
144
145 /* helper routine to find qmt_pool_info associated a lquota_entry */
146 static inline struct qmt_pool_info *lqe2qpi(struct lquota_entry *lqe)
147 {
148         LASSERT(lqe_is_master(lqe));
149         return (struct qmt_pool_info *)lqe->lqe_site->lqs_parent;
150 }
151
152 /* return true if someone holds either a read or write lock on the lqe */
153 static inline bool lqe_is_locked(struct lquota_entry *lqe)
154 {
155         LASSERT(lqe_is_master(lqe));
156         if (cfs_down_write_trylock(&lqe->lqe_sem) == 0)
157                 return true;
158         lqe_write_unlock(lqe);
159         return false;
160 }
161
162 /* value to be restored if someone wrong happens during lqe writeback */
163 struct qmt_lqe_restore {
164         __u64   qlr_hardlimit;
165         __u64   qlr_softlimit;
166         __u64   qlr_gracetime;
167         __u64   qlr_granted;
168         __u64   qlr_qunit;
169 };
170
171 /* Common data shared by qmt handlers */
172 struct qmt_thread_info {
173         union lquota_rec        qti_rec;
174         union lquota_id         qti_id;
175         union lquota_id         qti_id_bis;
176         char                    qti_buf[MTI_NAME_MAXLEN];
177         struct lu_fid           qti_fid;
178         struct ldlm_res_id      qti_resid;
179         union ldlm_gl_desc      qti_gl_desc;
180         struct quota_body       qti_body;
181         struct quota_body       qti_repbody;
182         struct qmt_lqe_restore  qti_restore;
183 };
184
185 extern struct lu_context_key qmt_thread_key;
186
187 /* helper function to extract qmt_thread_info from current environment */
188 static inline
189 struct qmt_thread_info *qmt_info(const struct lu_env *env)
190 {
191         struct qmt_thread_info  *info;
192
193         info = lu_context_key_get(&env->le_ctx, &qmt_thread_key);
194         if (info == NULL) {
195                 lu_env_refill((struct lu_env *)env);
196                 info = lu_context_key_get(&env->le_ctx, &qmt_thread_key);
197         }
198         LASSERT(info);
199         return info;
200 }
201
202 /* helper routine to convert a lu_device into a qmt_device */
203 static inline struct qmt_device *lu2qmt_dev(struct lu_device *ld)
204 {
205         return container_of0(lu2dt_dev(ld), struct qmt_device, qmt_dt_dev);
206 }
207
208 /* helper routine to convert a qmt_device into lu_device */
209 static inline struct lu_device *qmt2lu_dev(struct qmt_device *qmt)
210 {
211         return &qmt->qmt_dt_dev.dd_lu_dev;
212 }
213
214 #define LQE_ROOT(lqe)    (lqe2qpi(lqe)->qpi_root)
215 #define LQE_GLB_OBJ(lqe) (lqe2qpi(lqe)->qpi_glb_obj[lqe->lqe_site->lqs_qtype])
216
217 static inline void qmt_restore(struct lquota_entry *lqe,
218                                struct qmt_lqe_restore *restore)
219 {
220         lqe->lqe_hardlimit = restore->qlr_hardlimit;
221         lqe->lqe_softlimit = restore->qlr_softlimit;
222         lqe->lqe_gracetime = restore->qlr_gracetime;
223         lqe->lqe_granted   = restore->qlr_granted;
224         lqe->lqe_qunit     = restore->qlr_qunit;
225 }
226
227 /* qmt_pool.c */
228 void qmt_pool_fini(const struct lu_env *, struct qmt_device *);
229 int qmt_pool_init(const struct lu_env *, struct qmt_device *);
230 int qmt_pool_prepare(const struct lu_env *, struct qmt_device *,
231                    struct dt_object *);
232 int qmt_pool_new_conn(const struct lu_env *, struct qmt_device *,
233                       struct lu_fid *, struct lu_fid *, __u64 *,
234                       struct obd_uuid *);
235 struct lquota_entry *qmt_pool_lqe_lookup(const struct lu_env *,
236                                          struct qmt_device *, int, int, int,
237                                          union lquota_id *);
238 /* qmt_entry.c */
239 extern struct lquota_entry_operations qmt_lqe_ops;
240 struct thandle *qmt_trans_start_with_slv(const struct lu_env *,
241                                          struct lquota_entry *,
242                                          struct dt_object *,
243                                          struct qmt_lqe_restore *);
244 struct thandle *qmt_trans_start(const struct lu_env *, struct lquota_entry *,
245                                 struct qmt_lqe_restore *);
246 int qmt_glb_write(const struct lu_env *, struct thandle *,
247                   struct lquota_entry *, __u32, __u64 *);
248 int qmt_slv_write(const struct lu_env *, struct thandle *,
249                   struct lquota_entry *, struct dt_object *, __u32, __u64 *,
250                   __u64);
251 int qmt_slv_read(const struct lu_env *, struct lquota_entry *,
252                  struct dt_object *, __u64 *);
253 int qmt_validate_limits(struct lquota_entry *, __u64, __u64);
254
255 /* qmt_lock.c */
256 int qmt_intent_policy(const struct lu_env *, struct lu_device *,
257                       struct ptlrpc_request *, struct ldlm_lock **, int);
258 int qmt_lvbo_init(struct lu_device *, struct ldlm_resource *);
259 int qmt_lvbo_update(struct lu_device *, struct ldlm_resource *,
260                     struct ptlrpc_request *, int);
261 int qmt_lvbo_size(struct lu_device *, struct ldlm_lock *);
262 int qmt_lvbo_fill(struct lu_device *, struct ldlm_lock *, void *, int);
263 int qmt_lvbo_free(struct lu_device *, struct ldlm_resource *);
264 int qmt_start_reba_thread(struct qmt_device *);
265 void qmt_stop_reba_thread(struct qmt_device *);
266 void qmt_glb_lock_notify(const struct lu_env *, struct lquota_entry *, __u64);
267 void qmt_id_lock_notify(struct qmt_device *, struct lquota_entry *);
268 #endif /* _QMT_INTERNAL_H */