-/* -*- mode: c; c-basic-offset: 8; indent-tabs-mode: nil; -*-
- * vim:expandtab:shiftwidth=8:tabstop=8:
- *
+/*
* GPL HEADER START
*
* DO NOT ALTER OR REMOVE COPYRIGHT NOTICES OR THIS FILE HEADER.
* GPL HEADER END
*/
/*
- * Copyright 2008 Sun Microsystems, Inc. All rights reserved.
+ * Copyright (c) 2008, 2010, Oracle and/or its affiliates. All rights reserved.
* Use is subject to license terms.
*/
/*
*/
#define DEBUG_SUBSYSTEM S_CLASS
-#ifndef EXPORT_SYMTAB
-# define EXPORT_SYMTAB
-#endif
#ifdef __KERNEL__
# include <libcfs/libcfs.h>
\
if (unlikely(!(expr))) { \
lu_ref_print(__ref); \
- spin_unlock(&__ref->lf_guard); \
+ cfs_spin_unlock(&__ref->lf_guard); \
lu_ref_print_all(); \
- spin_lock(&__ref->lf_guard); \
LASSERT(0); \
+ cfs_spin_lock(&__ref->lf_guard); \
} \
} while (0)
struct lu_ref_link {
struct lu_ref *ll_ref;
- struct list_head ll_linkage;
+ cfs_list_t ll_linkage;
const char *ll_scope;
const void *ll_source;
};
* Protected by lu_ref_refs_guard.
*/
static CFS_LIST_HEAD(lu_ref_refs);
-static spinlock_t lu_ref_refs_guard;
+static cfs_spinlock_t lu_ref_refs_guard;
static struct lu_ref lu_ref_marker = {
- .lf_guard = SPIN_LOCK_UNLOCKED,
+ .lf_guard = CFS_SPIN_LOCK_UNLOCKED,
.lf_list = CFS_LIST_HEAD_INIT(lu_ref_marker.lf_list),
.lf_linkage = CFS_LIST_HEAD_INIT(lu_ref_marker.lf_linkage)
};
CERROR("lu_ref: %p %d %d %s:%d\n",
ref, ref->lf_refs, ref->lf_failed, ref->lf_func, ref->lf_line);
- list_for_each_entry(link, &ref->lf_list, ll_linkage) {
+ cfs_list_for_each_entry(link, &ref->lf_list, ll_linkage) {
CERROR(" link: %s %p\n", link->ll_scope, link->ll_source);
}
}
{
struct lu_ref *ref;
- spin_lock(&lu_ref_refs_guard);
- list_for_each_entry(ref, &lu_ref_refs, lf_linkage) {
+ cfs_spin_lock(&lu_ref_refs_guard);
+ cfs_list_for_each_entry(ref, &lu_ref_refs, lf_linkage) {
if (lu_ref_is_marker(ref))
continue;
- spin_lock(&ref->lf_guard);
+ cfs_spin_lock(&ref->lf_guard);
lu_ref_print(ref);
- spin_unlock(&ref->lf_guard);
+ cfs_spin_unlock(&ref->lf_guard);
}
- spin_unlock(&lu_ref_refs_guard);
+ cfs_spin_unlock(&lu_ref_refs_guard);
}
EXPORT_SYMBOL(lu_ref_print_all);
ref->lf_refs = 0;
ref->lf_func = func;
ref->lf_line = line;
- spin_lock_init(&ref->lf_guard);
+ cfs_spin_lock_init(&ref->lf_guard);
CFS_INIT_LIST_HEAD(&ref->lf_list);
- spin_lock(&lu_ref_refs_guard);
- list_add(&ref->lf_linkage, &lu_ref_refs);
- spin_unlock(&lu_ref_refs_guard);
+ cfs_spin_lock(&lu_ref_refs_guard);
+ cfs_list_add(&ref->lf_linkage, &lu_ref_refs);
+ cfs_spin_unlock(&lu_ref_refs_guard);
}
EXPORT_SYMBOL(lu_ref_init_loc);
void lu_ref_fini(struct lu_ref *ref)
{
- REFASSERT(ref, list_empty(&ref->lf_list));
+ REFASSERT(ref, cfs_list_empty(&ref->lf_list));
REFASSERT(ref, ref->lf_refs == 0);
- spin_lock(&lu_ref_refs_guard);
- list_del_init(&ref->lf_linkage);
- spin_unlock(&lu_ref_refs_guard);
+ cfs_spin_lock(&lu_ref_refs_guard);
+ cfs_list_del_init(&ref->lf_linkage);
+ cfs_spin_unlock(&lu_ref_refs_guard);
}
EXPORT_SYMBOL(lu_ref_fini);
link->ll_ref = ref;
link->ll_scope = scope;
link->ll_source = source;
- spin_lock(&ref->lf_guard);
- list_add_tail(&link->ll_linkage, &ref->lf_list);
+ cfs_spin_lock(&ref->lf_guard);
+ cfs_list_add_tail(&link->ll_linkage, &ref->lf_list);
ref->lf_refs++;
- spin_unlock(&ref->lf_guard);
+ cfs_spin_unlock(&ref->lf_guard);
}
}
if (link == NULL) {
- spin_lock(&ref->lf_guard);
+ cfs_spin_lock(&ref->lf_guard);
ref->lf_failed++;
- spin_unlock(&ref->lf_guard);
+ cfs_spin_unlock(&ref->lf_guard);
link = ERR_PTR(-ENOMEM);
}
struct lu_ref_link *lu_ref_add(struct lu_ref *ref, const char *scope,
const void *source)
{
- might_sleep();
+ cfs_might_sleep();
return lu_ref_add_context(ref, CFS_ALLOC_STD, scope, source);
}
EXPORT_SYMBOL(lu_ref_add);
unsigned iterations;
iterations = 0;
- list_for_each_entry(link, &ref->lf_list, ll_linkage) {
+ cfs_list_for_each_entry(link, &ref->lf_list, ll_linkage) {
++iterations;
if (lu_ref_link_eq(link, scope, source)) {
if (iterations > lu_ref_chain_max_length) {
- CWARN("Long lu_ref chain %i \"%s\":%p\n",
+ CWARN("Long lu_ref chain %d \"%s\":%p\n",
iterations, scope, source);
lu_ref_chain_max_length = iterations * 3 / 2;
}
{
struct lu_ref_link *link;
- spin_lock(&ref->lf_guard);
+ cfs_spin_lock(&ref->lf_guard);
link = lu_ref_find(ref, scope, source);
if (link != NULL) {
- list_del(&link->ll_linkage);
+ cfs_list_del(&link->ll_linkage);
ref->lf_refs--;
- spin_unlock(&ref->lf_guard);
+ cfs_spin_unlock(&ref->lf_guard);
OBD_SLAB_FREE(link, lu_ref_link_kmem, sizeof(*link));
} else {
REFASSERT(ref, ref->lf_failed > 0);
ref->lf_failed--;
- spin_unlock(&ref->lf_guard);
+ cfs_spin_unlock(&ref->lf_guard);
}
}
EXPORT_SYMBOL(lu_ref_del);
const char *scope,
const void *source0, const void *source1)
{
- spin_lock(&ref->lf_guard);
+ cfs_spin_lock(&ref->lf_guard);
if (link != ERR_PTR(-ENOMEM)) {
REFASSERT(ref, link->ll_ref == ref);
REFASSERT(ref, lu_ref_link_eq(link, scope, source0));
} else {
REFASSERT(ref, ref->lf_failed > 0);
}
- spin_unlock(&ref->lf_guard);
+ cfs_spin_unlock(&ref->lf_guard);
}
EXPORT_SYMBOL(lu_ref_set_at);
const char *scope, const void *source)
{
if (link != ERR_PTR(-ENOMEM)) {
- spin_lock(&ref->lf_guard);
+ cfs_spin_lock(&ref->lf_guard);
REFASSERT(ref, link->ll_ref == ref);
REFASSERT(ref, lu_ref_link_eq(link, scope, source));
- list_del(&link->ll_linkage);
+ cfs_list_del(&link->ll_linkage);
ref->lf_refs--;
- spin_unlock(&ref->lf_guard);
+ cfs_spin_unlock(&ref->lf_guard);
OBD_SLAB_FREE(link, lu_ref_link_kmem, sizeof(*link));
} else {
- spin_lock(&ref->lf_guard);
+ cfs_spin_lock(&ref->lf_guard);
REFASSERT(ref, ref->lf_failed > 0);
ref->lf_failed--;
- spin_unlock(&ref->lf_guard);
+ cfs_spin_unlock(&ref->lf_guard);
}
}
EXPORT_SYMBOL(lu_ref_del_at);
{
struct lu_ref *ref = seq->private;
- spin_lock(&lu_ref_refs_guard);
- if (list_empty(&ref->lf_linkage))
+ cfs_spin_lock(&lu_ref_refs_guard);
+ if (cfs_list_empty(&ref->lf_linkage))
ref = NULL;
- spin_unlock(&lu_ref_refs_guard);
+ cfs_spin_unlock(&lu_ref_refs_guard);
return ref;
}
struct lu_ref *next;
LASSERT(seq->private == p);
- LASSERT(!list_empty(&ref->lf_linkage));
+ LASSERT(!cfs_list_empty(&ref->lf_linkage));
- spin_lock(&lu_ref_refs_guard);
- next = list_entry(ref->lf_linkage.next, struct lu_ref, lf_linkage);
+ cfs_spin_lock(&lu_ref_refs_guard);
+ next = cfs_list_entry(ref->lf_linkage.next, struct lu_ref, lf_linkage);
if (&next->lf_linkage == &lu_ref_refs) {
p = NULL;
} else {
(*pos)++;
- list_move(&ref->lf_linkage, &next->lf_linkage);
+ cfs_list_move(&ref->lf_linkage, &next->lf_linkage);
}
- spin_unlock(&lu_ref_refs_guard);
+ cfs_spin_unlock(&lu_ref_refs_guard);
return p;
}
struct lu_ref *ref = p;
struct lu_ref *next;
- spin_lock(&lu_ref_refs_guard);
- next = list_entry(ref->lf_linkage.next, struct lu_ref, lf_linkage);
+ cfs_spin_lock(&lu_ref_refs_guard);
+ next = cfs_list_entry(ref->lf_linkage.next, struct lu_ref, lf_linkage);
if ((&next->lf_linkage == &lu_ref_refs) || lu_ref_is_marker(next)) {
- spin_unlock(&lu_ref_refs_guard);
+ cfs_spin_unlock(&lu_ref_refs_guard);
return 0;
}
/* print the entry */
- spin_lock(&next->lf_guard);
+ cfs_spin_lock(&next->lf_guard);
seq_printf(seq, "lu_ref: %p %d %d %s:%d\n",
next, next->lf_refs, next->lf_failed,
next->lf_func, next->lf_line);
struct lu_ref_link *link;
int i = 0;
- list_for_each_entry(link, &next->lf_list, ll_linkage)
+ cfs_list_for_each_entry(link, &next->lf_list, ll_linkage)
seq_printf(seq, " #%d link: %s %p\n",
i++, link->ll_scope, link->ll_source);
}
- spin_unlock(&next->lf_guard);
- spin_unlock(&lu_ref_refs_guard);
+ cfs_spin_unlock(&next->lf_guard);
+ cfs_spin_unlock(&lu_ref_refs_guard);
return 0;
}
result = seq_open(file, &lu_ref_seq_ops);
if (result == 0) {
- spin_lock(&lu_ref_refs_guard);
- if (!list_empty(&marker->lf_linkage))
+ cfs_spin_lock(&lu_ref_refs_guard);
+ if (!cfs_list_empty(&marker->lf_linkage))
result = -EAGAIN;
else
- list_add(&marker->lf_linkage, &lu_ref_refs);
- spin_unlock(&lu_ref_refs_guard);
+ cfs_list_add(&marker->lf_linkage, &lu_ref_refs);
+ cfs_spin_unlock(&lu_ref_refs_guard);
if (result == 0) {
struct seq_file *f = file->private_data;
{
struct lu_ref *ref = ((struct seq_file *)file->private_data)->private;
- spin_lock(&lu_ref_refs_guard);
- list_del_init(&ref->lf_linkage);
- spin_unlock(&lu_ref_refs_guard);
+ cfs_spin_lock(&lu_ref_refs_guard);
+ cfs_list_del_init(&ref->lf_linkage);
+ cfs_spin_unlock(&lu_ref_refs_guard);
return seq_release(inode, file);
}
"lu_ref tracking is enabled. Performance isn't.\n");
- spin_lock_init(&lu_ref_refs_guard);
+ cfs_spin_lock_init(&lu_ref_refs_guard);
result = lu_kmem_init(lu_ref_caches);
#if defined(__KERNEL__) && defined(LPROCFS)