Whamcloud - gitweb
2c4c696458552c51301cabb7a406b5a0efc44640
[fs/lustre-release.git] / lustre / lvfs / lvfs_lib.c
1 /*
2  * GPL HEADER START
3  *
4  * DO NOT ALTER OR REMOVE COPYRIGHT NOTICES OR THIS FILE HEADER.
5  *
6  * This program is free software; you can redistribute it and/or modify
7  * it under the terms of the GNU General Public License version 2 only,
8  * as published by the Free Software Foundation.
9  *
10  * This program is distributed in the hope that it will be useful, but
11  * WITHOUT ANY WARRANTY; without even the implied warranty of
12  * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
13  * General Public License version 2 for more details (a copy is included
14  * in the LICENSE file that accompanied this code).
15  *
16  * You should have received a copy of the GNU General Public License
17  * version 2 along with this program; If not, see
18  * http://www.sun.com/software/products/lustre/docs/GPLv2.pdf
19  *
20  * Please contact Sun Microsystems, Inc., 4150 Network Circle, Santa Clara,
21  * CA 95054 USA or visit www.sun.com if you need additional information or
22  * have any questions.
23  *
24  * GPL HEADER END
25  */
26 /*
27  * Copyright (c) 2007, 2010, Oracle and/or its affiliates. All rights reserved.
28  * Use is subject to license terms.
29  *
30  * Copyright (c) 2012, Intel Corporation.
31  */
32 /*
33  * This file is part of Lustre, http://www.lustre.org/
34  * Lustre is a trademark of Sun Microsystems, Inc.
35  *
36  * lustre/lvfs/lvfs_lib.c
37  *
38  * Lustre filesystem abstraction routines
39  *
40  * Author: Andreas Dilger <adilger@clusterfs.com>
41  */
42 #ifdef __KERNEL__
43 #include <linux/module.h>
44 #else
45 #include <liblustre.h>
46 #endif
47 #include <lustre_lib.h>
48 #include <lprocfs_status.h>
49
50 unsigned int obd_alloc_fail_rate = 0;
51
52 int obd_alloc_fail(const void *ptr, const char *name, const char *type,
53                    size_t size, const char *file, int line)
54 {
55         if (ptr == NULL ||
56             (cfs_rand() & OBD_ALLOC_FAIL_MASK) < obd_alloc_fail_rate) {
57                 CERROR("%s%salloc of %s ("LPU64" bytes) failed at %s:%d\n",
58                        ptr ? "force " :"", type, name, (__u64)size, file,
59                        line);
60                 CERROR(LPU64" total bytes and "LPU64" total pages "
61                        "("LPU64" bytes) allocated by Lustre, "
62                        "%d total bytes by LNET\n",
63                        obd_memory_sum(),
64                        obd_pages_sum() << CFS_PAGE_SHIFT,
65                        obd_pages_sum(),
66                        cfs_atomic_read(&libcfs_kmemory));
67                 return 1;
68         }
69         return 0;
70 }
71 EXPORT_SYMBOL(obd_alloc_fail);
72
73 #ifdef LPROCFS
74 void lprocfs_counter_add(struct lprocfs_stats *stats, int idx,
75                                        long amount)
76 {
77         struct lprocfs_counter *percpu_cntr;
78         int                     smp_id;
79         unsigned long           flags = 0;
80
81         if (stats == NULL)
82                 return;
83
84         /* With per-client stats, statistics are allocated only for
85          * single CPU area, so the smp_id should be 0 always. */
86         smp_id = lprocfs_stats_lock(stats, LPROCFS_GET_SMP_ID, &flags);
87         if (smp_id < 0)
88                 return;
89
90         percpu_cntr = &(stats->ls_percpu[smp_id]->lp_cntr[idx]);
91         percpu_cntr->lc_count++;
92         if (percpu_cntr->lc_config & LPROCFS_CNTR_AVGMINMAX) {
93                 /*
94                  * lprocfs_counter_add() can be called in interrupt context,
95                  * as memory allocation could trigger memory shrinker call
96                  * ldlm_pool_shrink(), which calls lprocfs_counter_add().
97                  * LU-1727.
98                  */
99                 if (cfs_in_interrupt())
100                         percpu_cntr->lc_sum_irq += amount;
101                 else
102                         percpu_cntr->lc_sum += amount;
103                 if (percpu_cntr->lc_config & LPROCFS_CNTR_STDDEV)
104                         percpu_cntr->lc_sumsquare += (__s64)amount * amount;
105                 if (amount < percpu_cntr->lc_min)
106                         percpu_cntr->lc_min = amount;
107                 if (amount > percpu_cntr->lc_max)
108                         percpu_cntr->lc_max = amount;
109         }
110         lprocfs_stats_unlock(stats, LPROCFS_GET_SMP_ID, &flags);
111 }
112 EXPORT_SYMBOL(lprocfs_counter_add);
113
114 void lprocfs_counter_sub(struct lprocfs_stats *stats, int idx, long amount)
115 {
116         struct lprocfs_counter *percpu_cntr;
117         int                     smp_id;
118         unsigned long           flags = 0;
119
120         if (stats == NULL)
121                 return;
122
123         /* With per-client stats, statistics are allocated only for
124          * single CPU area, so the smp_id should be 0 always. */
125         smp_id = lprocfs_stats_lock(stats, LPROCFS_GET_SMP_ID, &flags);
126         if (smp_id < 0)
127                 return;
128
129         percpu_cntr = &(stats->ls_percpu[smp_id]->lp_cntr[idx]);
130         if (percpu_cntr->lc_config & LPROCFS_CNTR_AVGMINMAX) {
131                 /*
132                  * Sometimes we use RCU callbacks to free memory which calls
133                  * lprocfs_counter_sub(), and RCU callbacks may execute in
134                  * softirq context - right now that's the only case we're in
135                  * softirq context here, use separate counter for that.
136                  * bz20650.
137                  */
138                 if (cfs_in_interrupt())
139                         percpu_cntr->lc_sum_irq -= amount;
140                 else
141                         percpu_cntr->lc_sum -= amount;
142         }
143         lprocfs_stats_unlock(stats, LPROCFS_GET_SMP_ID, &flags);
144 }
145 EXPORT_SYMBOL(lprocfs_counter_sub);
146
147 int lprocfs_stats_alloc_one(struct lprocfs_stats *stats, unsigned int idx)
148 {
149         unsigned int    percpusize;
150         int             rc      = -ENOMEM;
151         unsigned long   flags   = 0;
152
153         /* the 1st percpu entry was statically allocated in
154          * lprocfs_alloc_stats() */
155         LASSERT(idx != 0 && stats->ls_percpu[0] != NULL);
156         LASSERT(stats->ls_percpu[idx] == NULL);
157         LASSERT((stats->ls_flags & LPROCFS_STATS_FLAG_NOPERCPU) == 0);
158
159         percpusize = CFS_L1_CACHE_ALIGN(offsetof(struct lprocfs_percpu,
160                                                  lp_cntr[stats->ls_num]));
161         OBD_ALLOC_GFP(stats->ls_percpu[idx], percpusize, CFS_ALLOC_ATOMIC);
162         if (stats->ls_percpu[idx] != NULL) {
163                 rc = 0;
164                 if (unlikely(stats->ls_biggest_alloc_num <= idx)) {
165                         if (stats->ls_flags & LPROCFS_STATS_FLAG_IRQ_SAFE)
166                                 spin_lock_irqsave(&stats->ls_lock, flags);
167                         else
168                                 spin_lock(&stats->ls_lock);
169                         if (stats->ls_biggest_alloc_num <= idx)
170                                 stats->ls_biggest_alloc_num = idx + 1;
171                         if (stats->ls_flags & LPROCFS_STATS_FLAG_IRQ_SAFE) {
172                                 spin_unlock_irqrestore(&stats->ls_lock, flags);
173                         } else {
174                                 spin_unlock(&stats->ls_lock);
175                         }
176                 }
177
178                 /* initialize the ls_percpu[idx] by copying the 0th template
179                  * entry */
180                 memcpy(stats->ls_percpu[idx], stats->ls_percpu[0],
181                        percpusize);
182         }
183
184         return rc;
185 }
186 EXPORT_SYMBOL(lprocfs_stats_alloc_one);
187 #endif  /* LPROCFS */
188
189 EXPORT_SYMBOL(obd_alloc_fail_rate);