Whamcloud - gitweb
34959ed2dc887bfb1b96ec89e5d3a889d6329a02
[fs/lustre-release.git] / lustre / tests / test-framework.sh
1 #!/bin/bash
2
3 trap 'print_summary && touch $TF_FAIL && \
4     echo "test-framework exiting on error"' ERR
5 set -e
6 #set -x
7
8 export EJOURNAL=${EJOURNAL:-""}
9 export REFORMAT=${REFORMAT:-""}
10 export WRITECONF=${WRITECONF:-""}
11 export VERBOSE=${VERBOSE:-false}
12 export CATASTROPHE=${CATASTROPHE:-/proc/sys/lnet/catastrophe}
13 export GSS=false
14 export GSS_KRB5=false
15 export GSS_PIPEFS=false
16 export IDENTITY_UPCALL=default
17 export QUOTA_AUTO=1
18 export JOBSTATS_AUTO=${JOBSTATS_AUTO:-1}
19 export JOBID_VAR=${JOBID_VAR:-"procname_uid"}
20
21 # LOAD_LLOOP: LU-409: only load llite_lloop module if kernel < 2.6.32 or
22 #             LOAD_LLOOP is true. LOAD_LLOOP is false by default.
23 export LOAD_LLOOP=${LOAD_LLOOP:-false}
24
25 #export PDSH="pdsh -S -Rssh -w"
26
27 # function used by scripts run on remote nodes
28 LUSTRE=${LUSTRE:-$(cd $(dirname $0)/..; echo $PWD)}
29 . $LUSTRE/tests/functions.sh
30 . $LUSTRE/tests/yaml.sh
31
32 export LD_LIBRARY_PATH=${LUSTRE}/utils:${LD_LIBRARY_PATH}
33
34 LUSTRE_TESTS_CFG_DIR=${LUSTRE_TESTS_CFG_DIR:-${LUSTRE}/tests/cfg}
35
36 EXCEPT_LIST_FILE=${EXCEPT_LIST_FILE:-${LUSTRE_TESTS_CFG_DIR}/tests-to-skip.sh}
37
38 if [ -f "$EXCEPT_LIST_FILE" ]; then
39     echo "Reading test skip list from $EXCEPT_LIST_FILE"
40     cat $EXCEPT_LIST_FILE
41     . $EXCEPT_LIST_FILE
42 fi
43
44 # check config files for options in decreasing order of preference
45 [ -z "$MODPROBECONF" -a -f /etc/modprobe.d/lustre.conf ] &&
46     MODPROBECONF=/etc/modprobe.d/lustre.conf
47 [ -z "$MODPROBECONF" -a -f /etc/modprobe.d/Lustre ] &&
48     MODPROBECONF=/etc/modprobe.d/Lustre
49 [ -z "$MODPROBECONF" -a -f /etc/modprobe.conf ] &&
50     MODPROBECONF=/etc/modprobe.conf
51
52 assert_DIR () {
53     local failed=""
54     [[ $DIR/ = $MOUNT/* ]] || \
55         { failed=1 && echo "DIR=$DIR not in $MOUNT. Aborting."; }
56     [[ $DIR1/ = $MOUNT1/* ]] || \
57         { failed=1 && echo "DIR1=$DIR1 not in $MOUNT1. Aborting."; }
58     [[ $DIR2/ = $MOUNT2/* ]] || \
59         { failed=1 && echo "DIR2=$DIR2 not in $MOUNT2. Aborting"; }
60
61     [ -n "$failed" ] && exit 99 || true
62 }
63
64 usage() {
65     echo "usage: $0 [-r] [-f cfgfile]"
66     echo "       -r: reformat"
67
68     exit
69 }
70
71 print_summary () {
72     trap 0
73     [ "$TESTSUITE" == "lfsck" ] && return 0
74     [ -n "$ONLY" ] && echo "WARNING: ONLY is set to $(echo $ONLY)"
75     local details
76     local form="%-13s %-17s %-9s %s %s\n"
77     printf "$form" "status" "script" "Total(sec)" "E(xcluded) S(low)"
78     echo "------------------------------------------------------------------------------------"
79     for O in $DEFAULT_SUITES; do
80         O=$(echo $O  | tr "-" "_" | tr "[:lower:]" "[:upper:]")
81         [ "${!O}" = "no" ] && continue || true
82         local o=$(echo $O  | tr "[:upper:]_" "[:lower:]-")
83         local log=${TMP}/${o}.log
84         if is_sanity_benchmark $o; then
85             log=${TMP}/sanity-benchmark.log
86         fi
87         local slow=
88         local skipped=
89         local total=
90         local status=Unfinished
91         if [ -f $log ]; then
92             skipped=$(grep excluded $log | awk '{ printf " %s", $3 }' | sed 's/test_//g')
93             slow=$(egrep "^PASS|^FAIL" $log | tr -d "("| sed s/s\)$//g | sort -nr -k 3  | head -5 |  awk '{ print $2":"$3"s" }')
94             total=$(grep duration $log | awk '{ print $2}')
95             if [ "${!O}" = "done" ]; then
96                 status=Done
97             fi
98             if $DDETAILS; then
99                 local durations=$(egrep "^PASS|^FAIL" $log |  tr -d "("| sed s/s\)$//g | awk '{ print $2":"$3"|" }')
100                 details=$(printf "%s\n%s %s %s\n" "$details" "DDETAILS" "$O" "$(echo $durations)")
101             fi
102         fi
103         printf "$form" $status "$O" "${total}" "E=$skipped"
104         printf "$form" "-" "-" "-" "S=$(echo $slow)"
105     done
106
107     for O in $DEFAULT_SUITES; do
108         O=$(echo $O  | tr "-" "_" | tr "[:lower:]" "[:upper:]")
109         if [ "${!O}" = "no" ]; then
110             printf "$form" "Skipped" "$O" ""
111         fi
112     done
113
114     # print the detailed tests durations if DDETAILS=true
115     if $DDETAILS; then
116         echo "$details"
117     fi
118 }
119
120 init_test_env() {
121     export LUSTRE=`absolute_path $LUSTRE`
122     export TESTSUITE=`basename $0 .sh`
123     export TEST_FAILED=false
124     export FAIL_ON_SKIP_ENV=${FAIL_ON_SKIP_ENV:-false}
125
126     export MKE2FS=${MKE2FS:-mke2fs}
127     export DEBUGFS=${DEBUGFS:-debugfs}
128     export TUNE2FS=${TUNE2FS:-tune2fs}
129     export E2LABEL=${E2LABEL:-e2label}
130     export DUMPE2FS=${DUMPE2FS:-dumpe2fs}
131     export E2FSCK=${E2FSCK:-e2fsck}
132     export LFSCK_BIN=${LFSCK_BIN:-lfsck}
133
134     export LFSCK_ALWAYS=${LFSCK_ALWAYS:-"no"} # check fs after each test suite
135     export FSCK_MAX_ERR=4   # File system errors left uncorrected
136
137         export ZFS=${ZFS:-zfs}
138         export ZPOOL=${ZPOOL:-zpool}
139         export ZDB=${ZDB:-zdb}
140
141     #[ -d /r ] && export ROOT=${ROOT:-/r}
142     export TMP=${TMP:-$ROOT/tmp}
143     export TESTSUITELOG=${TMP}/${TESTSUITE}.log
144     export LOGDIR=${LOGDIR:-${TMP}/test_logs/$(date +%s)}
145     export TESTLOG_PREFIX=$LOGDIR/$TESTSUITE
146
147     export HOSTNAME=${HOSTNAME:-$(hostname -s)}
148     if ! echo $PATH | grep -q $LUSTRE/utils; then
149         export PATH=$LUSTRE/utils:$PATH
150     fi
151     if ! echo $PATH | grep -q $LUSTRE/utils/gss; then
152         export PATH=$LUSTRE/utils/gss:$PATH
153     fi
154     if ! echo $PATH | grep -q $LUSTRE/tests; then
155         export PATH=$LUSTRE/tests:$PATH
156     fi
157     if ! echo $PATH | grep -q $LUSTRE/../lustre-iokit/sgpdd-survey; then
158         export PATH=$LUSTRE/../lustre-iokit/sgpdd-survey:$PATH
159     fi
160     export LST=${LST:-"$LUSTRE/../lnet/utils/lst"}
161     [ ! -f "$LST" ] && export LST=$(which lst)
162     export SGPDDSURVEY=${SGPDDSURVEY:-"$LUSTRE/../lustre-iokit/sgpdd-survey/sgpdd-survey")}
163     [ ! -f "$SGPDDSURVEY" ] && export SGPDDSURVEY=$(which sgpdd-survey)
164     # Ubuntu, at least, has a truncate command in /usr/bin
165     # so fully path our truncate command.
166     export TRUNCATE=${TRUNCATE:-$LUSTRE/tests/truncate}
167     export MDSRATE=${MDSRATE:-"$LUSTRE/tests/mpi/mdsrate"}
168     [ ! -f "$MDSRATE" ] && export MDSRATE=$(which mdsrate 2> /dev/null)
169     if ! echo $PATH | grep -q $LUSTRE/tests/racer; then
170         export PATH=$LUSTRE/tests/racer:$PATH:
171     fi
172     if ! echo $PATH | grep -q $LUSTRE/tests/mpi; then
173         export PATH=$LUSTRE/tests/mpi:$PATH
174     fi
175     export RSYNC_RSH=${RSYNC_RSH:-rsh}
176
177     export LCTL=${LCTL:-"$LUSTRE/utils/lctl"}
178     [ ! -f "$LCTL" ] && export LCTL=$(which lctl)
179     export LFS=${LFS:-"$LUSTRE/utils/lfs"}
180     [ ! -f "$LFS" ] && export LFS=$(which lfs)
181     SETSTRIPE=${SETSTRIPE:-"$LFS setstripe"}
182     GETSTRIPE=${GETSTRIPE:-"$LFS getstripe"}
183
184     export L_GETIDENTITY=${L_GETIDENTITY:-"$LUSTRE/utils/l_getidentity"}
185     if [ ! -f "$L_GETIDENTITY" ]; then
186         if `which l_getidentity > /dev/null 2>&1`; then
187             export L_GETIDENTITY=$(which l_getidentity)
188         else
189             export L_GETIDENTITY=NONE
190         fi
191     fi
192     export LL_DECODE_FILTER_FID=${LL_DECODE_FILTER_FID:-"$LUSTRE/utils/ll_decode_filter_fid"}
193     [ ! -f "$LL_DECODE_FILTER_FID" ] && export LL_DECODE_FILTER_FID=$(which ll_decode_filter_fid)
194     export MKFS=${MKFS:-"$LUSTRE/utils/mkfs.lustre"}
195     [ ! -f "$MKFS" ] && export MKFS=$(which mkfs.lustre)
196     export TUNEFS=${TUNEFS:-"$LUSTRE/utils/tunefs.lustre"}
197     [ ! -f "$TUNEFS" ] && export TUNEFS=$(which tunefs.lustre)
198     export CHECKSTAT="${CHECKSTAT:-"checkstat -v"} "
199     export LUSTRE_RMMOD=${LUSTRE_RMMOD:-$LUSTRE/scripts/lustre_rmmod}
200     [ ! -f "$LUSTRE_RMMOD" ] &&
201         export LUSTRE_RMMOD=$(which lustre_rmmod 2> /dev/null)
202     export LFS_MIGRATE=${LFS_MIGRATE:-$LUSTRE/scripts/lfs_migrate}
203     [ ! -f "$LFS_MIGRATE" ] &&
204         export LFS_MIGRATE=$(which lfs_migrate 2> /dev/null)
205     export NAME=${NAME:-local}
206     export LGSSD=${LGSSD:-"$LUSTRE/utils/gss/lgssd"}
207     [ "$GSS_PIPEFS" = "true" ] && [ ! -f "$LGSSD" ] && \
208         export LGSSD=$(which lgssd)
209     export LSVCGSSD=${LSVCGSSD:-"$LUSTRE/utils/gss/lsvcgssd"}
210     [ ! -f "$LSVCGSSD" ] && export LSVCGSSD=$(which lsvcgssd 2> /dev/null)
211     export KRB5DIR=${KRB5DIR:-"/usr/kerberos"}
212     export DIR2
213     export SAVE_PWD=${SAVE_PWD:-$LUSTRE/tests}
214     export AT_MAX_PATH
215
216     if [ "$ACCEPTOR_PORT" ]; then
217         export PORT_OPT="--port $ACCEPTOR_PORT"
218     fi
219
220     case "x$SEC" in
221         xkrb5*)
222             echo "Using GSS/krb5 ptlrpc security flavor"
223             which lgss_keyring > /dev/null 2>&1 || \
224                 error_exit "built with gss disabled! SEC=$SEC"
225             GSS=true
226             GSS_KRB5=true
227             ;;
228     esac
229
230     case "x$IDUP" in
231         xtrue)
232             IDENTITY_UPCALL=true
233             ;;
234         xfalse)
235             IDENTITY_UPCALL=false
236             ;;
237     esac
238     export LOAD_MODULES_REMOTE=${LOAD_MODULES_REMOTE:-false}
239
240     # Paths on remote nodes, if different
241     export RLUSTRE=${RLUSTRE:-$LUSTRE}
242     export RPWD=${RPWD:-$PWD}
243     export I_MOUNTED=${I_MOUNTED:-"no"}
244     if [ ! -f /lib/modules/$(uname -r)/kernel/fs/lustre/mds.ko -a \
245         ! -f /lib/modules/$(uname -r)/updates/kernel/fs/lustre/mds.ko -a \
246         ! -f `dirname $0`/../mds/mds.ko ]; then
247         export CLIENTMODSONLY=yes
248     fi
249
250     export SHUTDOWN_ATTEMPTS=${SHUTDOWN_ATTEMPTS:-3}
251
252     # command line
253
254     while getopts "rvwf:" opt $*; do
255         case $opt in
256             f) CONFIG=$OPTARG;;
257             r) REFORMAT=--reformat;;
258             v) VERBOSE=true;;
259             w) WRITECONF=writeconf;;
260             \?) usage;;
261         esac
262     done
263
264     shift $((OPTIND - 1))
265     ONLY=${ONLY:-$*}
266
267     # print the durations of each test if "true"
268     DDETAILS=${DDETAILS:-false}
269     [ "$TESTSUITELOG" ] && rm -f $TESTSUITELOG || true
270     rm -f $TMP/*active
271 }
272
273 check_cpt_number() {
274         local facet=$1
275         local ncpts
276
277         ncpts=$(do_facet $facet "lctl get_param -n " \
278                 "cpu_partition_table 2>/dev/null| wc -l" || echo 1)
279
280         if [ $ncpts -eq 0 ]; then
281                 echo "1"
282         else
283                 echo $ncpts
284         fi
285 }
286
287 version_code() {
288     # split arguments like "1.8.6-wc3" into "1", "8", "6", "wc3"
289     eval set -- $(tr "[:punct:]" " " <<< $*)
290
291     echo -n $((($1 << 16) | ($2 << 8) | $3))
292 }
293
294 export LINUX_VERSION=$(uname -r | sed -e "s/[-.]/ /3" -e "s/ .*//")
295 export LINUX_VERSION_CODE=$(version_code ${LINUX_VERSION//\./ })
296
297 module_loaded () {
298    /sbin/lsmod | grep -q "^\<$1\>"
299 }
300
301 # Load a module on the system where this is running.
302 #
303 # Synopsis: load_module module_name [module arguments for insmod/modprobe]
304 #
305 # If module arguments are not given but MODOPTS_<MODULE> is set, then its value
306 # will be used as the arguments.  Otherwise arguments will be obtained from
307 # /etc/modprobe.conf, from /etc/modprobe.d/Lustre, or else none will be used.
308 #
309 load_module() {
310     local optvar
311     EXT=".ko"
312     module=$1
313     shift
314     BASE=`basename $module $EXT`
315
316     module_loaded ${BASE} && return
317
318     # If no module arguments were passed, get them from $MODOPTS_<MODULE>, else from
319     # modprobe.conf
320     if [ $# -eq 0 ]; then
321         # $MODOPTS_<MODULE>; we could use associative arrays, but that's not in
322         # Bash until 4.x, so we resort to eval.
323         optvar="MODOPTS_$(basename $module | tr a-z A-Z)"
324         eval set -- \$$optvar
325         if [ $# -eq 0 -a -n "$MODPROBECONF" ]; then
326             # Nothing in $MODOPTS_<MODULE>; try modprobe.conf
327             set -- $(grep -P "^options\\s+${BASE}" $MODPROBECONF)
328             # Get rid of "options $module"
329             (($# > 0)) && shift 2
330
331             # Ensure we have accept=all for lnet
332             if [ $(basename $module) = lnet ]; then
333                 # OK, this is a bit wordy...
334                 local arg accept_all_present=false
335                 for arg in "$@"; do
336                     [ "$arg" = accept=all ] && accept_all_present=true
337                 done
338                 $accept_all_present || set -- "$@" accept=all
339             fi
340         fi
341     fi
342
343     [ $# -gt 0 ] && echo "${module} options: '$*'"
344
345     # Note that insmod will ignore anything in modprobe.conf, which is why we're
346     # passing options on the command-line.
347     if [ "$BASE" == "lnet_selftest" ] && \
348             [ -f ${LUSTRE}/../lnet/selftest/${module}${EXT} ]; then
349         insmod ${LUSTRE}/../lnet/selftest/${module}${EXT}
350     elif [ -f ${LUSTRE}/${module}${EXT} ]; then
351         insmod ${LUSTRE}/${module}${EXT} "$@"
352     else
353         # must be testing a "make install" or "rpm" installation
354         # note failed to load ptlrpc_gss is considered not fatal
355         if [ "$BASE" == "ptlrpc_gss" ]; then
356             modprobe $BASE "$@" 2>/dev/null || echo "gss/krb5 is not supported"
357         else
358             modprobe $BASE "$@"
359         fi
360     fi
361 }
362
363 llite_lloop_enabled() {
364     local n1=$(uname -r | cut -d. -f1)
365     local n2=$(uname -r | cut -d. -f2)
366     local n3=$(uname -r | cut -d- -f1 | cut -d. -f3)
367
368     # load the llite_lloop module for < 2.6.32 kernels
369     if [[ $n1 -lt 2 ]] || [[ $n1 -eq 2 && $n2 -lt 6 ]] || \
370        [[ $n1 -eq 2 && $n2 -eq 6 && $n3 -lt 32 ]] || \
371         $LOAD_LLOOP; then
372         return 0
373     fi
374     return 1
375 }
376
377 load_modules_local() {
378         if [ "$USE_OFD" == yes ]; then
379                 if module_loaded obdfilter; then
380                         if ! $LUSTRE_RMMOD ldiskfs; then
381                                 echo "$HOSTNAME may still be using obdfilter.ko"
382                                 return 1
383                         fi
384                 fi
385         else
386                 if module_loaded ofd; then
387                         if ! $LUSTRE_RMMOD ldiskfs; then
388                                 echo "$HOSTNAME may still be using ofd.ko"
389                                 return 1
390                         fi
391                 fi
392         fi
393
394         if [ -n "$MODPROBE" ]; then
395                 # use modprobe
396                 echo "Using modprobe to load modules"
397                 return 0
398         fi
399
400         echo Loading modules from $LUSTRE
401
402         local ncpus
403
404         if [ -f /sys/devices/system/cpu/online ]; then
405                 ncpus=$(($(cut -d "-" -f 2 /sys/devices/system/cpu/online) + 1))
406                 echo "detected $ncpus online CPUs by sysfs"
407         else
408                 ncpus=$(getconf _NPROCESSORS_CONF 2>/dev/null)
409                 local rc=$?
410                 if [ $rc -eq 0 ]; then
411                         echo "detected $ncpus online CPUs by getconf"
412                 else
413                         echo "Can't detect number of CPUs"
414                         ncpus=1
415                 fi
416         fi
417
418         local ncpts=0
419         # if there is only one CPU core, libcfs can only create one partition
420         # if there is more than 4 CPU cores, libcfs should create multiple CPU
421         # partitions. So we just force libcfs to create 2 partitions for
422         # system with 2 or 4 cores
423         if [ $ncpus -le 4 ] && [ $ncpus -gt 1 ]; then
424                 # force to enable multiple CPU partitions
425                 echo "Force libcfs to create 2 CPU partitions"
426                 ncpts=2
427         else
428                 echo "libcfs will create CPU partition based on online CPUs"
429         fi
430
431         load_module ../libcfs/libcfs/libcfs cpu_npartitions=$ncpts
432
433     [ "$PTLDEBUG" ] && lctl set_param debug="$PTLDEBUG"
434     [ "$SUBSYSTEM" ] && lctl set_param subsystem_debug="${SUBSYSTEM# }"
435     load_module ../lnet/lnet/lnet
436     LNETLND=${LNETLND:-"socklnd/ksocklnd"}
437     load_module ../lnet/klnds/$LNETLND
438     load_module lvfs/lvfs
439     load_module obdclass/obdclass
440     load_module ptlrpc/ptlrpc
441     load_module ptlrpc/gss/ptlrpc_gss
442     load_module fld/fld
443     load_module fid/fid
444     load_module lmv/lmv
445     load_module mdc/mdc
446     load_module osc/osc
447     load_module lov/lov
448     load_module mgc/mgc
449     load_module obdecho/obdecho
450     if ! client_only; then
451         SYMLIST=/proc/kallsyms
452         grep -q crc16 $SYMLIST || { modprobe crc16 2>/dev/null || true; }
453         grep -q -w jbd $SYMLIST || { modprobe jbd 2>/dev/null || true; }
454         grep -q -w jbd2 $SYMLIST || { modprobe jbd2 2>/dev/null || true; }
455                 [ "$LQUOTA" != "no" ] && load_module quota/lquota $LQUOTAOPTS
456                 if [[ $(node_fstypes $HOSTNAME) == *zfs* ]]; then
457                         load_module osd-zfs/osd_zfs
458                 fi
459                 load_module mgs/mgs
460                 load_module mds/mds
461                 load_module mdd/mdd
462                 if [[ $(node_fstypes $HOSTNAME) == *ldiskfs* ]]; then
463                         #
464                         # This block shall be moved up beside osd-zfs as soon
465                         # as osd-ldiskfs stops using mdd symbols.
466                         #
467                         grep -q exportfs_decode_fh $SYMLIST ||
468                                 { modprobe exportfs 2> /dev/null || true; }
469                         load_module ../ldiskfs/ldiskfs/ldiskfs
470                         load_module lvfs/fsfilt_ldiskfs
471                         load_module osd-ldiskfs/osd_ldiskfs
472                 fi
473                 load_module mdt/mdt
474                 load_module cmm/cmm
475                 load_module ost/ost
476                 if [ "$USE_OFD" == yes ]; then
477                         load_module ofd/ofd
478                 else
479                         load_module obdfilter/obdfilter
480                 fi
481     fi
482
483
484     load_module llite/lustre
485     llite_lloop_enabled && load_module llite/llite_lloop
486     [ -d /r ] && OGDB=${OGDB:-"/r/tmp"}
487     OGDB=${OGDB:-$TMP}
488     rm -f $OGDB/ogdb-$HOSTNAME
489     $LCTL modules > $OGDB/ogdb-$HOSTNAME
490
491     # 'mount' doesn't look in $PATH, just sbin
492     if [ -f $LUSTRE/utils/mount.lustre ] && \
493        ! grep -qe "/sbin/mount\.lustre " /proc/mounts; then
494         [ ! -f /sbin/mount.lustre ] && touch /sbin/mount.lustre
495         mount --bind $LUSTRE/utils/mount.lustre /sbin/mount.lustre || true
496     fi
497 }
498
499 load_modules () {
500         load_modules_local
501         # bug 19124
502         # load modules on remote nodes optionally
503         # lustre-tests have to be installed on these nodes
504         if $LOAD_MODULES_REMOTE ; then
505                 local list=$(comma_list $(remote_nodes_list))
506                 echo loading modules on $list
507                 do_rpc_nodes $list load_modules_local
508         fi
509 }
510
511 check_mem_leak () {
512     LEAK_LUSTRE=$(dmesg | tail -n 30 | grep "obd_memory.*leaked" || true)
513     LEAK_PORTALS=$(dmesg | tail -n 20 | grep "Portals memory leaked" || true)
514     if [ "$LEAK_LUSTRE" -o "$LEAK_PORTALS" ]; then
515         echo "$LEAK_LUSTRE" 1>&2
516         echo "$LEAK_PORTALS" 1>&2
517         mv $TMP/debug $TMP/debug-leak.`date +%s` || true
518         echo "Memory leaks detected"
519         [ -n "$IGNORE_LEAK" ] && { echo "ignoring leaks" && return 0; } || true
520         return 1
521     fi
522 }
523
524 unload_modules() {
525         wait_exit_ST client # bug 12845
526
527         $LUSTRE_RMMOD ldiskfs || return 2
528
529         if $LOAD_MODULES_REMOTE ; then
530                 local list=$(comma_list $(remote_nodes_list))
531                 if [ ! -z $list ]; then
532                         echo unloading modules on $list
533                         do_rpc_nodes $list $LUSTRE_RMMOD ldiskfs
534                         do_rpc_nodes $list check_mem_leak
535                 fi
536         fi
537
538     if grep -qe "/sbin/mount\.lustre" /proc/mounts; then
539         umount /sbin/mount.lustre || true
540         [ -w /sbin/mount.lustre -a ! -s /sbin/mount.lustre ] && \
541             rm -f /sbin/mount.lustre || true
542     fi
543
544     check_mem_leak || return 254
545
546     echo "modules unloaded."
547     return 0
548 }
549
550 check_gss_daemon_nodes() {
551     local list=$1
552     dname=$2
553
554     do_nodesv $list "num=\\\$(ps -o cmd -C $dname | grep $dname | wc -l);
555 if [ \\\"\\\$num\\\" -ne 1 ]; then
556     echo \\\$num instance of $dname;
557     exit 1;
558 fi; "
559 }
560
561 check_gss_daemon_facet() {
562     facet=$1
563     dname=$2
564
565     num=`do_facet $facet ps -o cmd -C $dname | grep $dname | wc -l`
566     if [ $num -ne 1 ]; then
567         echo "$num instance of $dname on $facet"
568         return 1
569     fi
570     return 0
571 }
572
573 send_sigint() {
574     local list=$1
575     shift
576     echo Stopping $@ on $list
577     do_nodes $list "killall -2 $@ 2>/dev/null || true"
578 }
579
580 # start gss daemons on all nodes, or
581 # "daemon" on "list" if set
582 start_gss_daemons() {
583     local list=$1
584     local daemon=$2
585
586     if [ "$list" ] && [ "$daemon" ] ; then
587         echo "Starting gss daemon on nodes: $list"
588         do_nodes $list "$daemon" || return 8
589         return 0
590     fi
591
592     local list=$(comma_list $(mdts_nodes))
593
594     echo "Starting gss daemon on mds: $list"
595     do_nodes $list "$LSVCGSSD -v" || return 1
596     if $GSS_PIPEFS; then
597         do_nodes $list "$LGSSD -v" || return 2
598     fi
599
600     list=$(comma_list $(osts_nodes))
601     echo "Starting gss daemon on ost: $list"
602     do_nodes $list "$LSVCGSSD -v" || return 3
603     # starting on clients
604
605     local clients=${CLIENTS:-`hostname`}
606     if $GSS_PIPEFS; then
607         echo "Starting $LGSSD on clients $clients "
608         do_nodes $clients  "$LGSSD -v" || return 4
609     fi
610
611     # wait daemons entering "stable" status
612     sleep 5
613
614     #
615     # check daemons are running
616     #
617     list=$(comma_list $(mdts_nodes) $(osts_nodes))
618     check_gss_daemon_nodes $list lsvcgssd || return 5
619     if $GSS_PIPEFS; then
620         list=$(comma_list $(mdts_nodes))
621         check_gss_daemon_nodes $list lgssd || return 6
622     fi
623     if $GSS_PIPEFS; then
624         check_gss_daemon_nodes $clients lgssd || return 7
625     fi
626 }
627
628 stop_gss_daemons() {
629     local list=$(comma_list $(mdts_nodes))
630     
631     send_sigint $list lsvcgssd lgssd
632
633     list=$(comma_list $(osts_nodes))
634     send_sigint $list lsvcgssd
635
636     list=${CLIENTS:-`hostname`}
637     send_sigint $list lgssd
638 }
639
640 init_gss() {
641     if $GSS; then
642         if ! module_loaded ptlrpc_gss; then
643             load_module ptlrpc/gss/ptlrpc_gss
644             module_loaded ptlrpc_gss ||
645                 error_exit "init_gss : GSS=$GSS, but gss/krb5 is not supported!"
646         fi
647         start_gss_daemons || error_exit "start gss daemon failed! rc=$?"
648
649         if [ -n "$LGSS_KEYRING_DEBUG" ]; then
650             echo $LGSS_KEYRING_DEBUG > /proc/fs/lustre/sptlrpc/gss/lgss_keyring/debug_level
651         fi
652     fi
653 }
654
655 cleanup_gss() {
656     if $GSS; then
657         stop_gss_daemons
658         # maybe cleanup credential cache?
659     fi
660 }
661
662 facet_type() {
663         local facet=$1
664
665         echo -n $facet | sed -e 's/^fs[0-9]\+//' -e 's/[0-9]\+//' |
666                 tr '[:lower:]' '[:upper:]'
667 }
668
669 facet_number() {
670         local facet=$1
671
672         if [ $facet == mgs ]; then
673                 return 1
674         fi
675
676         echo -n $facet | sed -e 's/^fs[0-9]\+//' | sed -e 's/^[a-z]\+//'
677 }
678
679 facet_fstype() {
680         local facet=$1
681         local var
682
683         var=${facet}_FSTYPE
684         if [ -n "${!var}" ]; then
685                 echo -n ${!var}
686                 return
687         fi
688
689         var=$(facet_type $facet)FSTYPE
690         if [ -n "${!var}" ]; then
691                 echo -n ${!var}
692                 return
693         fi
694
695         if [ -n "$FSTYPE" ]; then
696                 echo -n $FSTYPE
697                 return
698         fi
699
700         return 1
701 }
702
703 node_fstypes() {
704         local node=$1
705         local fstypes
706         local fstype
707         local facets=$(get_facets)
708         local facet
709
710         for facet in ${facets//,/ }; do
711                 if [ $node == $(facet_host $facet) ] ||
712                    [ $node == "$(facet_failover_host $facet)" ]; then
713                         fstype=$(facet_fstype $facet)
714                         if [[ $fstypes != *$fstype* ]]; then
715                                 fstypes+="${fstypes:+,}$fstype"
716                         fi
717                 fi
718         done
719         echo -n $fstypes
720 }
721
722 devicelabel() {
723         local facet=$1
724         local dev=$2
725         local label
726         local fstype=$(facet_fstype $facet)
727
728         case $fstype in
729         ldiskfs)
730                 label=$(do_facet ${facet} "$E2LABEL ${dev} 2>/dev/null");;
731         zfs)
732                 label=$(do_facet ${facet} "$ZFS get -H -o value lustre:svname \
733                                            ${dev} 2>/dev/null");;
734         *)
735                 error "unknown fstype!";;
736         esac
737
738         echo -n $label
739 }
740
741 mdsdevlabel() {
742         local num=$1
743         local device=$(mdsdevname $num)
744         local label=$(devicelabel mds$num ${device} | grep -v "CMD: ")
745         echo -n $label
746 }
747
748 ostdevlabel() {
749         local num=$1
750         local device=$(ostdevname $num)
751         local label=$(devicelabel ost$num ${device} | grep -v "CMD: ")
752         echo -n $label
753 }
754
755 #
756 # This and set_obdfilter_param() shall be used to access OSD parameters
757 # once existed under "obdfilter":
758 #
759 #   mntdev
760 #   stats
761 #   read_cache_enable
762 #   writethrough_cache_enable
763 #
764 get_obdfilter_param() {
765         local nodes=$1
766         local device=${2:-$FSNAME-OST*}
767         local name=$3
768
769         do_nodes $nodes "$LCTL get_param -n obdfilter.$device.$name \
770                 osd-*.$device.$name 2>&1" | grep -v 'Found no match'
771 }
772
773 set_obdfilter_param() {
774         local nodes=$1
775         local device=${2:-$FSNAME-OST*}
776         local name=$3
777         local value=$4
778
779         do_nodes $nodes "$LCTL set_param -n obdfilter.$device.$name=$value \
780                 osd-*.$device.$name=$value 2>&1" | grep -v 'Found no match'
781 }
782
783 set_debug_size () {
784     local dz=${1:-$DEBUG_SIZE}
785
786     if [ -f /sys/devices/system/cpu/possible ]; then
787         local cpus=$(($(cut -d "-" -f 2 /sys/devices/system/cpu/possible)+1))
788     else
789         local cpus=$(getconf _NPROCESSORS_CONF)
790     fi
791
792     # bug 19944, adjust size to be -gt num_possible_cpus()
793     # promise 2MB for every cpu at least
794     if [ -n "$cpus" ] && [ $((cpus * 2)) -gt $dz ]; then
795         dz=$((cpus * 2))
796     fi
797     lctl set_param debug_mb=$dz
798 }
799
800 set_default_debug () {
801     local debug=${1:-"$PTLDEBUG"}
802     local subsys=${2:-"$SUBSYSTEM"}
803     local debug_size=${3:-$DEBUG_SIZE}
804
805     [ -n "$debug" ] && lctl set_param debug="$debug" >/dev/null
806     [ -n "$subsys" ] && lctl set_param subsystem_debug="${subsys# }" >/dev/null
807
808     [ -n "$debug_size" ] && set_debug_size $debug_size > /dev/null
809 }
810
811 set_default_debug_nodes () {
812     local nodes=$1
813
814     if [[ ,$nodes, = *,$HOSTNAME,* ]]; then
815         nodes=$(exclude_items_from_list "$nodes" "$HOSTNAME")
816             set_default_debug
817     fi
818
819     [[ -n $nodes ]] && do_rpc_nodes $nodes set_default_debug \
820         \\\"$PTLDEBUG\\\" \\\"$SUBSYSTEM\\\" $DEBUG_SIZE || true
821 }
822
823 set_default_debug_facet () {
824     local facet=$1
825     local node=$(facet_active_host $facet)
826     [ -z "$node" ] && echo "No host defined for facet $facet" && exit 1
827
828     set_default_debug_nodes $node
829 }
830
831 # Facet functions
832 mount_facets () {
833         local facets=${1:-$(get_facets)}
834         local facet
835
836         for facet in ${facets//,/ }; do
837                 mount_facet $facet
838                 local RC=$?
839                 [ $RC -eq 0 ] && continue
840
841                 if [ "$TESTSUITE.$TESTNAME" = "replay-dual.test_0a" ]; then
842                         skip "Restart of $facet failed!." && touch $LU482_FAILED
843                 else
844                         error "Restart of $facet failed!"
845                 fi
846                 return $RC
847         done
848 }
849
850 #
851 # Add argument "arg" (e.g., "loop") to the comma-separated list
852 # of arguments for option "opt" (e.g., "-o") on command
853 # line "opts" (e.g., "-o flock").
854 #
855 csa_add() {
856         local opts=$1
857         local opt=$2
858         local arg=$3
859         local opt_pattern="\([[:space:]]\+\|^\)$opt"
860
861         if echo "$opts" | grep -q $opt_pattern; then
862                 opts=$(echo "$opts" | sed -e \
863                         "s/$opt_pattern[[:space:]]*[^[:space:]]\+/&,$arg/")
864         else
865                 opts+="${opts:+ }$opt $arg"
866         fi
867         echo -n "$opts"
868 }
869
870 mount_facet() {
871         local facet=$1
872         shift
873         local dev=$(facet_active $facet)_dev
874         local opt=${facet}_opt
875         local mntpt=$(facet_mntpt $facet)
876         local opts="${!opt} $@"
877
878         if [ $(facet_fstype $facet) == ldiskfs ] &&
879            ! do_facet $facet test -b ${!dev}; then
880                 opts=$(csa_add "$opts" -o loop)
881         fi
882
883         echo "Starting ${facet}: $opts ${!dev} $mntpt"
884         # for testing LU-482 error handling in mount_facets() and test_0a()
885         if [ -f $TMP/test-lu482-trigger ]; then
886                 RC=2
887         else
888                 do_facet ${facet} "mkdir -p $mntpt; mount -t lustre $opts \
889                                    ${!dev} $mntpt"
890                 RC=${PIPESTATUS[0]}
891         fi
892         if [ $RC -ne 0 ]; then
893                 echo "Start of ${!dev} on ${facet} failed ${RC}"
894     else
895         set_default_debug_facet $facet
896
897                 label=$(devicelabel ${facet} ${!dev})
898         [ -z "$label" ] && echo no label for ${!dev} && exit 1
899         eval export ${facet}_svc=${label}
900         echo Started ${label}
901     fi
902     return $RC
903 }
904
905 # start facet device options
906 start() {
907     local facet=$1
908     shift
909     local device=$1
910     shift
911     eval export ${facet}_dev=${device}
912     eval export ${facet}_opt=\"$@\"
913
914     local varname=${facet}failover_dev
915     if [ -n "${!varname}" ] ; then
916         eval export ${facet}failover_dev=${!varname}
917     else
918         eval export ${facet}failover_dev=$device
919     fi
920
921     local mntpt=$(facet_mntpt $facet)
922     do_facet ${facet} mkdir -p $mntpt
923     eval export ${facet}_MOUNT=$mntpt
924     mount_facet ${facet}
925     RC=$?
926     return $RC
927 }
928
929 #
930 # When a ZFS OSD is made read-only by replay_barrier(), its pool is "freezed".
931 # Because stopping corresponding target may not clear this in-memory state, we
932 # need to zap the pool from memory by exporting and reimporting the pool.
933 #
934 # Although the uberblocks are not updated when a pool is freezed, transactions
935 # are still written to the disks.  Modified blocks may be cached in memory when
936 # tests try reading them back.  The export-and-reimport process also evicts any
937 # cached pool data from memory to provide the correct "data loss" semantics.
938 #
939 refresh_disk() {
940         local facet=$1
941         local fstype=$(facet_fstype $facet)
942         local _dev
943         local dev
944         local poolname
945
946         if [ "${fstype}" == "zfs" ]; then
947                 _dev=$(facet_active $facet)_dev
948                 dev=${!_dev} # expand _dev to its value, e.g. ${mds1_dev}
949                 poolname="${dev%%/*}" # poolname is string before "/"
950
951                 if [ "${poolname}" == "" ]; then
952                         echo "invalid dataset name: $dev"
953                         return
954                 fi
955                 do_facet $facet "cp /etc/zfs/zpool.cache /tmp/zpool.cache.back"
956                 do_facet $facet "$ZPOOL export ${poolname}"
957                 do_facet $facet "$ZPOOL import -f -c /tmp/zpool.cache.back \
958                                  ${poolname}"
959         fi
960 }
961
962 stop() {
963     local running
964     local facet=$1
965     shift
966     local HOST=`facet_active_host $facet`
967     [ -z $HOST ] && echo stop: no host for $facet && return 0
968
969     local mntpt=$(facet_mntpt $facet)
970     running=$(do_facet ${facet} "grep -c $mntpt' ' /proc/mounts") || true
971     if [ ${running} -ne 0 ]; then
972         echo "Stopping $mntpt (opts:$@) on $HOST"
973         do_facet ${facet} umount -d $@ $mntpt
974     fi
975
976     # umount should block, but we should wait for unrelated obd's
977     # like the MGS or MGC to also stop.
978     wait_exit_ST ${facet}
979 }
980
981 # save quota version (both administrative and operational quotas)
982 # add an additional parameter if mountpoint is ever different from $MOUNT
983 quota_save_version() {
984     local fsname=${2:-$FSNAME}
985     local spec=$1
986     local ver=$(tr -c -d "123" <<< $spec)
987     local type=$(tr -c -d "ug" <<< $spec)
988
989     [ -n "$ver" -a "$ver" != "3" ] && error "wrong quota version specifier"
990
991     [ -n "$type" ] && { $LFS quotacheck -$type $MOUNT || error "quotacheck has failed"; }
992
993     do_facet mgs "lctl conf_param ${fsname}-MDT*.mdd.quota_type=$spec"
994     local varsvc
995     local osts=$(get_facets OST)
996     for ost in ${osts//,/ }; do
997         varsvc=${ost}_svc
998         do_facet mgs "lctl conf_param ${!varsvc}.ost.quota_type=$spec"
999     done
1000 }
1001
1002 # client could mount several lustre 
1003 quota_type () {
1004     local fsname=${1:-$FSNAME}
1005     local rc=0
1006     do_facet mgs lctl get_param mdd.${fsname}-MDT*.quota_type || rc=$?
1007     do_nodes $(comma_list $(osts_nodes)) \
1008         lctl get_param obdfilter.${fsname}-OST*.quota_type || rc=$?
1009     return $rc 
1010 }
1011
1012 restore_quota_type () {
1013    local mntpt=${1:-$MOUNT}
1014    local quota_type=$(quota_type $FSNAME | grep MDT | cut -d "=" -f2)
1015    if [ ! "$old_QUOTA_TYPE" ] || [ "$quota_type" = "$old_QUOTA_TYPE" ]; then
1016         return
1017    fi
1018    quota_save_version $old_QUOTA_TYPE
1019 }
1020
1021 setup_quota(){
1022     local mntpt=$1
1023
1024         if [ "$USE_OFD" = "yes" ]; then
1025                 $LFS quotacheck $mntpt || error "quotacheck failed"
1026                 return
1027         fi
1028
1029     # We need save the original quota_type params, and restore them after testing
1030
1031     # Suppose that quota type the same on mds and ost
1032     local quota_type=$(quota_type | grep MDT | cut -d "=" -f2)
1033     [ ${PIPESTATUS[0]} -eq 0 ] || error "quota_type failed!"
1034     echo "[HOST:$HOSTNAME] [old_quota_type:$quota_type] [new_quota_type:$QUOTA_TYPE]"
1035     if [ "$quota_type" != "$QUOTA_TYPE" ]; then
1036         export old_QUOTA_TYPE=$quota_type
1037         quota_save_version $QUOTA_TYPE
1038     else
1039         qtype=$(tr -c -d "ug" <<< $QUOTA_TYPE)
1040         $LFS quotacheck -$qtype $mntpt || error "quotacheck has failed for $type"
1041     fi
1042
1043     local quota_usrs=$QUOTA_USERS
1044
1045     # get_filesystem_size
1046     local disksz=$(lfs df $mntpt | grep "filesystem summary:"  | awk '{print $3}')
1047     local blk_soft=$((disksz + 1024))
1048     local blk_hard=$((blk_soft + blk_soft / 20)) # Go 5% over
1049
1050     local Inodes=$(lfs df -i $mntpt | grep "filesystem summary:"  | awk '{print $3}')
1051     local i_soft=$Inodes
1052     local i_hard=$((i_soft + i_soft / 20))
1053
1054     echo "Total disk size: $disksz  block-softlimit: $blk_soft block-hardlimit:
1055         $blk_hard inode-softlimit: $i_soft inode-hardlimit: $i_hard"
1056
1057     local cmd
1058     for usr in $quota_usrs; do
1059         echo "Setting up quota on $HOSTNAME:$mntpt for $usr..."
1060         for type in u g; do
1061             cmd="$LFS setquota -$type $usr -b $blk_soft -B $blk_hard -i $i_soft -I $i_hard $mntpt"
1062             echo "+ $cmd"
1063             eval $cmd || error "$cmd FAILED!"
1064         done
1065         # display the quota status
1066         echo "Quota settings for $usr : "
1067         $LFS quota -v -u $usr $mntpt || true
1068     done
1069 }
1070
1071 zconf_mount() {
1072     local client=$1
1073     local mnt=$2
1074     local OPTIONS=${3:-$MOUNTOPT}
1075
1076     local device=$MGSNID:/$FSNAME
1077     if [ -z "$mnt" -o -z "$FSNAME" ]; then
1078         echo Bad zconf mount command: opt=$OPTIONS dev=$device mnt=$mnt
1079         exit 1
1080     fi
1081
1082     echo "Starting client: $client: $OPTIONS $device $mnt"
1083     do_node $client mkdir -p $mnt
1084     do_node $client mount -t lustre $OPTIONS $device $mnt || return 1
1085
1086     set_default_debug_nodes $client
1087
1088     return 0
1089 }
1090
1091 zconf_umount() {
1092     local client=$1
1093     local mnt=$2
1094     local force
1095     local busy 
1096     local need_kill
1097
1098     [ "$3" ] && force=-f
1099     local running=$(do_node $client "grep -c $mnt' ' /proc/mounts") || true
1100     if [ $running -ne 0 ]; then
1101         echo "Stopping client $client $mnt (opts:$force)"
1102         do_node $client lsof -t $mnt || need_kill=no
1103         if [ "x$force" != "x" -a "x$need_kill" != "xno" ]; then
1104             pids=$(do_node $client lsof -t $mnt | sort -u);
1105             if [ -n $pids ]; then
1106                 do_node $client kill -9 $pids || true
1107             fi
1108         fi
1109
1110         busy=$(do_node $client "umount $force $mnt 2>&1" | grep -c "busy") || true
1111         if [ $busy -ne 0 ] ; then
1112             echo "$mnt is still busy, wait one second" && sleep 1
1113             do_node $client umount $force $mnt
1114         fi
1115     fi
1116 }
1117
1118 # nodes is comma list
1119 sanity_mount_check_nodes () {
1120     local nodes=$1
1121     shift
1122     local mnts="$@"
1123     local mnt
1124
1125     # FIXME: assume that all cluster nodes run the same os
1126     [ "$(uname)" = Linux ] || return 0
1127
1128     local rc=0
1129     for mnt in $mnts ; do
1130         do_nodes $nodes "running=\\\$(grep -c $mnt' ' /proc/mounts);
1131 mpts=\\\$(mount | grep -c $mnt' ');
1132 if [ \\\$running -ne \\\$mpts ]; then
1133     echo \\\$(hostname) env are INSANE!;
1134     exit 1;
1135 fi"
1136     [ $? -eq 0 ] || rc=1 
1137     done
1138     return $rc
1139 }
1140
1141 sanity_mount_check_servers () {
1142     [ "$CLIENTONLY" ] && 
1143         { echo "CLIENTONLY mode, skip mount_check_servers"; return 0; } || true
1144     echo Checking servers environments
1145
1146     # FIXME: modify get_facets to display all facets wo params
1147     local facets="$(get_facets OST),$(get_facets MDS),mgs"
1148     local node
1149     local mntpt
1150     local facet
1151     for facet in ${facets//,/ }; do
1152         node=$(facet_host ${facet})
1153         mntpt=$(facet_mntpt $facet)
1154         sanity_mount_check_nodes $node $mntpt ||
1155             { error "server $node environments are insane!"; return 1; }
1156     done
1157 }
1158
1159 sanity_mount_check_clients () {
1160     local clients=${1:-$CLIENTS}
1161     local mntpt=${2:-$MOUNT}
1162     local mntpt2=${3:-$MOUNT2}
1163
1164     [ -z $clients ] && clients=$(hostname)
1165     echo Checking clients $clients environments
1166
1167     sanity_mount_check_nodes $clients $mntpt $mntpt2 ||
1168        error "clients environments are insane!"
1169 }
1170
1171 sanity_mount_check () {
1172     sanity_mount_check_servers || return 1
1173     sanity_mount_check_clients || return 2
1174 }
1175
1176 # mount clients if not mouted
1177 zconf_mount_clients() {
1178     local clients=$1
1179     local mnt=$2
1180     local OPTIONS=${3:-$MOUNTOPT}
1181
1182     local device=$MGSNID:/$FSNAME
1183     if [ -z "$mnt" -o -z "$FSNAME" ]; then
1184         echo Bad zconf mount command: opt=$OPTIONS dev=$device mnt=$mnt
1185         exit 1
1186     fi
1187
1188     echo "Starting client $clients: $OPTIONS $device $mnt"
1189
1190     do_nodes $clients "
1191 running=\\\$(mount | grep -c $mnt' ');
1192 rc=0;
1193 if [ \\\$running -eq 0 ] ; then
1194     mkdir -p $mnt;
1195     mount -t lustre $OPTIONS $device $mnt;
1196     rc=\\\$?;
1197 fi;
1198 exit \\\$rc" || return ${PIPESTATUS[0]}
1199
1200     echo "Started clients $clients: "
1201     do_nodes $clients "mount | grep $mnt' '"
1202
1203     set_default_debug_nodes $clients
1204
1205     return 0
1206 }
1207
1208 zconf_umount_clients() {
1209     local clients=$1
1210     local mnt=$2
1211     local force
1212
1213     [ "$3" ] && force=-f
1214
1215     echo "Stopping clients: $clients $mnt (opts:$force)"
1216     do_nodes $clients "running=\\\$(grep -c $mnt' ' /proc/mounts);
1217 if [ \\\$running -ne 0 ] ; then
1218 echo Stopping client \\\$(hostname) $mnt opts:$force;
1219 lsof $mnt || need_kill=no;
1220 if [ "x$force" != "x" -a "x\\\$need_kill" != "xno" ]; then
1221     pids=\\\$(lsof -t $mnt | sort -u);
1222     if [ -n \\\"\\\$pids\\\" ]; then
1223              kill -9 \\\$pids;
1224     fi
1225 fi;
1226 while umount $force $mnt 2>&1 | grep -q "busy"; do
1227     echo "$mnt is still busy, wait one second" && sleep 1;
1228 done;
1229 fi"
1230 }
1231
1232 shutdown_node () {
1233     local node=$1
1234     echo + $POWER_DOWN $node
1235     $POWER_DOWN $node
1236 }
1237
1238 shutdown_node_hard () {
1239     local host=$1
1240     local attempts=$SHUTDOWN_ATTEMPTS
1241
1242     for i in $(seq $attempts) ; do
1243         shutdown_node $host
1244         sleep 1
1245         wait_for_function --quiet "! ping -w 3 -c 1 $host" 5 1 && return 0
1246         echo "waiting for $host to fail attempts=$attempts"
1247         [ $i -lt $attempts ] || \
1248             { echo "$host still pingable after power down! attempts=$attempts" && return 1; } 
1249     done
1250 }
1251
1252 shutdown_client() {
1253     local client=$1
1254     local mnt=${2:-$MOUNT}
1255     local attempts=3
1256
1257     if [ "$FAILURE_MODE" = HARD ]; then
1258         shutdown_node_hard $client
1259     else
1260        zconf_umount_clients $client $mnt -f
1261     fi
1262 }
1263
1264 facets_on_host () {
1265     local host=$1
1266     local facets="$(get_facets OST),$(get_facets MDS)"
1267     local affected
1268
1269     combined_mgs_mds || facets="$facets,mgs"
1270
1271     for facet in ${facets//,/ }; do
1272         if [ $(facet_active_host $facet) == $host ]; then
1273            affected="$affected $facet"
1274         fi
1275     done
1276
1277     echo $(comma_list $affected)
1278 }
1279
1280 facet_up () {
1281     local facet=$1
1282     local host=${2:-$(facet_host $facet)}
1283
1284     local label=$(convert_facet2label $facet)
1285     do_node $host lctl dl | awk '{print $4}' | grep -q $label
1286 }
1287
1288 facets_up_on_host () {
1289     local host=$1
1290     local facets=$(facets_on_host $host)
1291     local affected_up
1292
1293     for facet in ${facets//,/ }; do
1294         if $(facet_up $facet $host); then
1295             affected_up="$affected_up $facet"
1296         fi
1297     done
1298
1299     echo $(comma_list $affected_up)
1300 }
1301
1302 shutdown_facet() {
1303     local facet=$1
1304
1305     if [ "$FAILURE_MODE" = HARD ]; then
1306         shutdown_node_hard $(facet_active_host $facet)
1307     else
1308         stop $facet
1309     fi
1310 }
1311
1312 reboot_node() {
1313     local node=$1
1314     echo + $POWER_UP $node
1315     $POWER_UP $node
1316 }
1317
1318 remount_facet() {
1319     local facet=$1
1320
1321     stop $facet
1322     mount_facet $facet
1323 }
1324
1325 reboot_facet() {
1326         local facet=$1
1327         if [ "$FAILURE_MODE" = HARD ]; then
1328                 reboot_node $(facet_active_host $facet)
1329         else
1330                 refresh_disk ${facet}
1331                 sleep 10
1332         fi
1333 }
1334
1335 boot_node() {
1336     local node=$1
1337     if [ "$FAILURE_MODE" = HARD ]; then
1338        reboot_node $node
1339        wait_for_host $node
1340     fi
1341 }
1342
1343 facets_hosts () {
1344     local facets=$1
1345     local hosts
1346
1347     for facet in ${facets//,/ }; do
1348         hosts=$(expand_list $hosts $(facet_host $facet) )
1349     done
1350
1351     echo $hosts
1352 }
1353
1354 _check_progs_installed () {
1355     local progs=$@
1356     local rc=0
1357
1358     for prog in $progs; do
1359         if ! [ "$(which $prog)"  -o  "${!prog}" ]; then
1360            echo $prog missing on $(hostname)
1361            rc=1
1362         fi
1363     done
1364     return $rc
1365 }
1366
1367 check_progs_installed () {
1368     local nodes=$1
1369     shift
1370
1371     do_rpc_nodes $nodes _check_progs_installed $@
1372 }
1373
1374 # recovery-scale functions
1375 node_var_name() {
1376     echo __$(echo $1 | tr '-' '_' | tr '.' '_')
1377 }
1378
1379 start_client_load() {
1380     local client=$1
1381     local load=$2
1382     local var=$(node_var_name $client)_load
1383     eval export ${var}=$load
1384
1385     do_node $client "PATH=$PATH MOUNT=$MOUNT ERRORS_OK=$ERRORS_OK \
1386 BREAK_ON_ERROR=$BREAK_ON_ERROR \
1387 END_RUN_FILE=$END_RUN_FILE \
1388 LOAD_PID_FILE=$LOAD_PID_FILE \
1389 TESTLOG_PREFIX=$TESTLOG_PREFIX \
1390 TESTNAME=$TESTNAME \
1391 DBENCH_LIB=$DBENCH_LIB \
1392 DBENCH_SRC=$DBENCH_SRC \
1393 run_${load}.sh" &
1394     local ppid=$!
1395     log "Started client load: ${load} on $client"
1396
1397     # get the children process IDs
1398     local pids=$(ps --ppid $ppid -o pid= | xargs)
1399     CLIENT_LOAD_PIDS="$CLIENT_LOAD_PIDS $ppid $pids"
1400     return 0
1401 }
1402
1403 start_client_loads () {
1404     local -a clients=(${1//,/ })
1405     local numloads=${#CLIENT_LOADS[@]}
1406     local testnum
1407
1408     for ((nodenum=0; nodenum < ${#clients[@]}; nodenum++ )); do
1409         testnum=$((nodenum % numloads))
1410         start_client_load ${clients[nodenum]} ${CLIENT_LOADS[testnum]}
1411     done
1412     # bug 22169: wait the background threads to start
1413     sleep 2
1414 }
1415
1416 # only for remote client
1417 check_client_load () {
1418     local client=$1
1419     local var=$(node_var_name $client)_load
1420     local TESTLOAD=run_${!var}.sh
1421
1422     ps auxww | grep -v grep | grep $client | grep -q "$TESTLOAD" || return 1
1423
1424     # bug 18914: try to connect several times not only when
1425     # check ps, but  while check_catastrophe also
1426     local tries=3
1427     local RC=254
1428     while [ $RC = 254 -a $tries -gt 0 ]; do
1429         let tries=$tries-1
1430         # assume success
1431         RC=0
1432         if ! check_catastrophe $client; then
1433             RC=${PIPESTATUS[0]}
1434             if [ $RC -eq 254 ]; then
1435                 # FIXME: not sure how long we shuold sleep here
1436                 sleep 10
1437                 continue
1438             fi
1439             echo "check catastrophe failed: RC=$RC "
1440             return $RC
1441         fi
1442     done
1443     # We can continue try to connect if RC=254
1444     # Just print the warning about this
1445     if [ $RC = 254 ]; then
1446         echo "got a return status of $RC from do_node while checking catastrophe on $client"
1447     fi
1448
1449     # see if the load is still on the client
1450     tries=3
1451     RC=254
1452     while [ $RC = 254 -a $tries -gt 0 ]; do
1453         let tries=$tries-1
1454         # assume success
1455         RC=0
1456         if ! do_node $client "ps auxwww | grep -v grep | grep -q $TESTLOAD"; then
1457             RC=${PIPESTATUS[0]}
1458             sleep 30
1459         fi
1460     done
1461     if [ $RC = 254 ]; then
1462         echo "got a return status of $RC from do_node while checking (catastrophe and 'ps') the client load on $client"
1463         # see if we can diagnose a bit why this is
1464     fi
1465
1466     return $RC
1467 }
1468 check_client_loads () {
1469    local clients=${1//,/ }
1470    local client=
1471    local rc=0
1472
1473    for client in $clients; do
1474       check_client_load $client
1475       rc=${PIPESTATUS[0]}
1476       if [ "$rc" != 0 ]; then
1477         log "Client load failed on node $client, rc=$rc"
1478         return $rc
1479       fi
1480    done
1481 }
1482
1483 restart_client_loads () {
1484     local clients=${1//,/ }
1485     local expectedfail=${2:-""}
1486     local client=
1487     local rc=0
1488
1489     for client in $clients; do
1490         check_client_load $client
1491         rc=${PIPESTATUS[0]}
1492         if [ "$rc" != 0 -a "$expectedfail" ]; then
1493             local var=$(node_var_name $client)_load
1494             start_client_load $client ${!var}
1495             echo "Restarted client load ${!var}: on $client. Checking ..."
1496             check_client_load $client
1497             rc=${PIPESTATUS[0]}
1498             if [ "$rc" != 0 ]; then
1499                 log "Client load failed to restart on node $client, rc=$rc"
1500                 # failure one client load means test fail
1501                 # we do not need to check other
1502                 return $rc
1503             fi
1504         else
1505             return $rc
1506         fi
1507     done
1508 }
1509
1510 # Start vmstat and save its process ID in a file.
1511 start_vmstat() {
1512     local nodes=$1
1513     local pid_file=$2
1514
1515     [ -z "$nodes" -o -z "$pid_file" ] && return 0
1516
1517     do_nodes $nodes \
1518         "vmstat 1 > $TESTLOG_PREFIX.$TESTNAME.vmstat.\\\$(hostname -s).log \
1519         2>/dev/null </dev/null & echo \\\$! > $pid_file"
1520 }
1521
1522 # Display the nodes on which client loads failed.
1523 print_end_run_file() {
1524     local file=$1
1525     local node
1526
1527     [ -s $file ] || return 0
1528
1529     echo "Found the END_RUN_FILE file: $file"
1530     cat $file
1531
1532     # A client load will stop if it finds the END_RUN_FILE file.
1533     # That does not mean the client load actually failed though.
1534     # The first node in END_RUN_FILE is the one we are interested in.
1535     read node < $file
1536
1537     if [ -n "$node" ]; then
1538         local var=$(node_var_name $node)_load
1539
1540         local prefix=$TESTLOG_PREFIX
1541         [ -n "$TESTNAME" ] && prefix=$prefix.$TESTNAME
1542         local stdout_log=$prefix.run_${!var}_stdout.$node.log
1543         local debug_log=$(echo $stdout_log | sed 's/\(.*\)stdout/\1debug/')
1544
1545         echo "Client load ${!var} failed on node $node:"
1546         echo "$stdout_log"
1547         echo "$debug_log"
1548     fi
1549 }
1550
1551 # Stop the process which had its PID saved in a file.
1552 stop_process() {
1553     local nodes=$1
1554     local pid_file=$2
1555
1556     [ -z "$nodes" -o -z "$pid_file" ] && return 0
1557
1558     do_nodes $nodes "test -f $pid_file &&
1559         { kill -s TERM \\\$(cat $pid_file); rm -f $pid_file; }" || true
1560 }
1561
1562 # Stop all client loads.
1563 stop_client_loads() {
1564     local nodes=${1:-$CLIENTS}
1565     local pid_file=$2
1566
1567     # stop the client loads
1568     stop_process $nodes $pid_file
1569
1570     # clean up the processes that started them
1571     [ -n "$CLIENT_LOAD_PIDS" ] && kill -9 $CLIENT_LOAD_PIDS 2>/dev/null || true
1572 }
1573 # End recovery-scale functions
1574
1575 # verify that lustre actually cleaned up properly
1576 cleanup_check() {
1577     [ -f $CATASTROPHE ] && [ `cat $CATASTROPHE` -ne 0 ] && \
1578         error "LBUG/LASSERT detected"
1579     BUSY=`dmesg | grep -i destruct || true`
1580     if [ "$BUSY" ]; then
1581         echo "$BUSY" 1>&2
1582         [ -e $TMP/debug ] && mv $TMP/debug $TMP/debug-busy.`date +%s`
1583         exit 205
1584     fi
1585
1586     check_mem_leak || exit 204
1587
1588     [ "`lctl dl 2> /dev/null | wc -l`" -gt 0 ] && lctl dl && \
1589         echo "$0: lustre didn't clean up..." 1>&2 && return 202 || true
1590
1591     if module_loaded lnet || module_loaded libcfs; then
1592         echo "$0: modules still loaded..." 1>&2
1593         /sbin/lsmod 1>&2
1594         return 203
1595     fi
1596     return 0
1597 }
1598
1599 wait_update () {
1600     local node=$1
1601     local TEST=$2
1602     local FINAL=$3
1603     local MAX=${4:-90}
1604
1605         local RESULT
1606         local WAIT=0
1607         local sleep=1
1608         local print=10
1609         while [ true ]; do
1610             RESULT=$(do_node $node "$TEST")
1611             if [ "$RESULT" == "$FINAL" ]; then
1612                 [ -z "$RESULT" -o $WAIT -le $sleep ] ||
1613                     echo "Updated after ${WAIT}s: wanted '$FINAL' got '$RESULT'"
1614                 return 0
1615             fi
1616             [ $WAIT -ge $MAX ] && break
1617             [ $((WAIT % print)) -eq 0 ] &&
1618                 echo "Waiting $((MAX - WAIT)) secs for update"
1619             WAIT=$((WAIT + sleep))
1620             sleep $sleep
1621         done
1622         echo "Update not seen after ${MAX}s: wanted '$FINAL' got '$RESULT'"
1623         return 3
1624 }
1625
1626 wait_update_facet () {
1627     local facet=$1
1628     wait_update  $(facet_active_host $facet) "$@"
1629 }
1630
1631 sync_all_data() {
1632         do_node $(osts_nodes) "lctl set_param -n osd*.*OS*.force_sync 1" 2>&1 |
1633                 grep -v 'Found no match'
1634 }
1635
1636 wait_delete_completed () {
1637     local TOTALPREV=`lctl get_param -n osc.*.kbytesavail | \
1638                      awk 'BEGIN{total=0}; {total+=$1}; END{print total}'`
1639
1640     local WAIT=0
1641     local MAX_WAIT=20
1642     while [ "$WAIT" -ne "$MAX_WAIT" ]; do
1643         sleep 1
1644         TOTAL=`lctl get_param -n osc.*.kbytesavail | \
1645                awk 'BEGIN{total=0}; {total+=$1}; END{print total}'`
1646         [ "$TOTAL" -eq "$TOTALPREV" ] && return 0
1647         echo "Waiting delete completed ... prev: $TOTALPREV current: $TOTAL "
1648         TOTALPREV=$TOTAL
1649         WAIT=$(( WAIT + 1))
1650     done
1651     echo "Delete is not completed in $MAX_WAIT sec"
1652     return 1
1653 }
1654
1655 wait_for_host() {
1656     local hostlist=$1
1657
1658     # we can use "for" here because we are waiting the slowest
1659     for host in ${hostlist//,/ }; do
1660         check_network "$host" 900
1661     done
1662     while ! do_nodes $hostlist hostname  > /dev/null; do sleep 5; done
1663 }
1664
1665 wait_for_facet() {
1666     local facetlist=$1
1667     local hostlist
1668
1669     for facet in ${facetlist//,/ }; do
1670         hostlist=$(expand_list $hostlist $(facet_active_host $facet))
1671     done
1672     wait_for_host $hostlist
1673 }
1674
1675 _wait_recovery_complete () {
1676     local param=$1
1677
1678     # Use default policy if $2 is not passed by caller.
1679     local MAX=${2:-$(max_recovery_time)}
1680
1681     local WAIT=0
1682     local STATUS=
1683
1684     while [ $WAIT -lt $MAX ]; do
1685         STATUS=$(lctl get_param -n $param | grep status)
1686         echo $param $STATUS
1687         [[ $STATUS = "status: COMPLETE" || $STATUS = "status: INACTIVE" ]] && return 0
1688         sleep 5
1689         WAIT=$((WAIT + 5))
1690         echo "Waiting $((MAX - WAIT)) secs for $param recovery done. $STATUS"
1691     done
1692     echo "$param recovery not done in $MAX sec. $STATUS"
1693     return 1
1694 }
1695
1696 wait_recovery_complete () {
1697     local facet=$1
1698
1699     # with an assumption that at_max is the same on all nodes
1700     local MAX=${2:-$(max_recovery_time)}
1701
1702     local facets=$facet
1703     if [ "$FAILURE_MODE" = HARD ]; then
1704         facets=$(facets_on_host $(facet_active_host $facet))
1705     fi
1706     echo affected facets: $facets
1707
1708     # we can use "for" here because we are waiting the slowest
1709     for facet in ${facets//,/ }; do
1710         local var_svc=${facet}_svc
1711         local param="*.${!var_svc}.recovery_status"
1712
1713         local host=$(facet_active_host $facet)
1714         do_rpc_nodes $host _wait_recovery_complete $param $MAX
1715     done
1716 }
1717
1718 wait_mds_ost_sync () {
1719     # just because recovery is done doesn't mean we've finished
1720     # orphan cleanup. Wait for llogs to get synchronized.
1721     echo "Waiting for orphan cleanup..."
1722     # MAX value includes time needed for MDS-OST reconnection
1723     local MAX=$(( TIMEOUT * 2 ))
1724     local WAIT=0
1725     while [ $WAIT -lt $MAX ]; do
1726         local -a sync=($(do_nodes $(comma_list $(osts_nodes)) \
1727             "$LCTL get_param -n obdfilter.*.mds_sync"))
1728         local con=1
1729         local i
1730         for ((i=0; i<${#sync[@]}; i++)); do
1731             [ ${sync[$i]} -eq 0 ] && continue
1732             # there is a not finished MDS-OST synchronization
1733             con=0
1734             break;
1735         done
1736         sleep 2 # increase waiting time and cover statfs cache
1737         [ ${con} -eq 1 ] && return 0
1738         echo "Waiting $WAIT secs for $facet mds-ost sync done."
1739         WAIT=$((WAIT + 2))
1740     done
1741     echo "$facet recovery not done in $MAX sec. $STATUS"
1742     return 1
1743 }
1744
1745 wait_destroy_complete () {
1746     echo "Waiting for destroy to be done..."
1747     # MAX value shouldn't be big as this mean server responsiveness
1748     # never increase this just to make test pass but investigate
1749     # why it takes so long time
1750     local MAX=5
1751     local WAIT=0
1752     while [ $WAIT -lt $MAX ]; do
1753         local -a RPCs=($($LCTL get_param -n osc.*.destroys_in_flight))
1754         local con=1
1755         for ((i=0; i<${#RPCs[@]}; i++)); do
1756             [ ${RPCs[$i]} -eq 0 ] && continue
1757             # there are still some destroy RPCs in flight
1758             con=0
1759             break;
1760         done
1761         sleep 1
1762         [ ${con} -eq 1 ] && return 0 # done waiting
1763         echo "Waiting $WAIT secs for destroys to be done."
1764         WAIT=$((WAIT + 1))
1765     done
1766     echo "Destroys weren't done in $MAX sec."
1767     return 1
1768 }
1769
1770 wait_exit_ST () {
1771     local facet=$1
1772
1773     local WAIT=0
1774     local INTERVAL=1
1775     local running
1776     # conf-sanity 31 takes a long time cleanup
1777     while [ $WAIT -lt 300 ]; do
1778         running=$(do_facet ${facet} "lsmod | grep lnet > /dev/null && lctl dl | grep ' ST '") || true
1779         [ -z "${running}" ] && return 0
1780         echo "waited $WAIT for${running}"
1781         [ $INTERVAL -lt 64 ] && INTERVAL=$((INTERVAL + INTERVAL))
1782         sleep $INTERVAL
1783         WAIT=$((WAIT + INTERVAL))
1784     done
1785     echo "service didn't stop after $WAIT seconds.  Still running:"
1786     echo ${running}
1787     return 1
1788 }
1789
1790 wait_remote_prog () {
1791    local prog=$1
1792    local WAIT=0
1793    local INTERVAL=5
1794    local rc=0
1795
1796    [ "$PDSH" = "no_dsh" ] && return 0
1797
1798    while [ $WAIT -lt $2 ]; do
1799         running=$(ps uax | grep "$PDSH.*$prog.*$MOUNT" | grep -v grep) || true
1800         [ -z "${running}" ] && return 0 || true
1801         echo "waited $WAIT for: "
1802         echo "$running"
1803         [ $INTERVAL -lt 60 ] && INTERVAL=$((INTERVAL + INTERVAL))
1804         sleep $INTERVAL
1805         WAIT=$((WAIT + INTERVAL))
1806     done
1807     local pids=$(ps  uax | grep "$PDSH.*$prog.*$MOUNT" | grep -v grep | awk '{print $2}')
1808     [ -z "$pids" ] && return 0
1809     echo "$PDSH processes still exists after $WAIT seconds.  Still running: $pids"
1810     # FIXME: not portable
1811     for pid in $pids; do
1812         cat /proc/${pid}/status || true
1813         cat /proc/${pid}/wchan || true
1814         echo "Killing $pid"
1815         kill -9 $pid || true
1816         sleep 1
1817         ps -P $pid && rc=1
1818     done
1819
1820     return $rc
1821 }
1822
1823 clients_up() {
1824     # not every config has many clients
1825     sleep 1
1826     if [ ! -z "$CLIENTS" ]; then
1827         $PDSH $CLIENTS "stat -f $MOUNT" > /dev/null
1828     else
1829         stat -f $MOUNT > /dev/null
1830     fi
1831 }
1832
1833 client_up() {
1834     local client=$1
1835     # usually checked on particular client or locally
1836     sleep 1
1837     if [ ! -z "$client" ]; then
1838         $PDSH $client "stat -f $MOUNT" > /dev/null
1839     else
1840         stat -f $MOUNT > /dev/null
1841     fi
1842 }
1843
1844 client_evicted() {
1845     ! client_up $1
1846 }
1847
1848 client_reconnect() {
1849     uname -n >> $MOUNT/recon
1850     if [ -z "$CLIENTS" ]; then
1851         df $MOUNT; uname -n >> $MOUNT/recon
1852     else
1853         do_nodes $CLIENTS "df $MOUNT; uname -n >> $MOUNT/recon" > /dev/null
1854     fi
1855     echo Connected clients:
1856     cat $MOUNT/recon
1857     ls -l $MOUNT/recon > /dev/null
1858     rm $MOUNT/recon
1859 }
1860
1861 affected_facets () {
1862     local facet=$1
1863
1864     local host=$(facet_active_host $facet)
1865     local affected=$facet
1866
1867     if [ "$FAILURE_MODE" = HARD ]; then
1868         affected=$(facets_up_on_host $host)
1869     fi
1870     echo $affected
1871 }
1872
1873 facet_failover() {
1874     local facet=$1
1875     local sleep_time=$2
1876     local host=$(facet_active_host $facet)
1877
1878     echo "Failing $facet on node $host"
1879
1880     local affected=$(affected_facets $facet)
1881
1882     shutdown_facet $facet
1883
1884     echo affected facets: $affected
1885
1886     [ -n "$sleep_time" ] && sleep $sleep_time
1887
1888     reboot_facet $facet
1889
1890     change_active $affected
1891
1892     wait_for_facet $affected
1893     # start mgs first if it is affected
1894     if ! combined_mgs_mds && list_member $affected mgs; then
1895         mount_facet mgs || error "Restart of mgs failed"
1896     fi
1897     # FIXME; has to be changed to mount all facets concurrently
1898     affected=$(exclude_items_from_list $affected mgs)
1899     mount_facets $affected
1900 }
1901
1902 obd_name() {
1903     local facet=$1
1904 }
1905
1906 replay_barrier() {
1907     local facet=$1
1908     do_facet $facet "sync; sync; sync"
1909     df $MOUNT
1910
1911     # make sure there will be no seq change
1912     local clients=${CLIENTS:-$HOSTNAME}
1913     do_nodes $clients "f=${MOUNT}/fsa-\\\$(hostname); mcreate \\\$f; rm \\\$f"
1914
1915     local svc=${facet}_svc
1916     do_facet $facet $LCTL --device %${!svc} notransno
1917     do_facet $facet $LCTL --device %${!svc} readonly
1918     do_facet $facet $LCTL mark "$facet REPLAY BARRIER on ${!svc}"
1919     $LCTL mark "local REPLAY BARRIER on ${!svc}"
1920 }
1921
1922 replay_barrier_nodf() {
1923     local facet=$1    echo running=${running}
1924     do_facet $facet "sync; sync; sync"
1925     local svc=${facet}_svc
1926     echo Replay barrier on ${!svc}
1927     do_facet $facet $LCTL --device %${!svc} notransno
1928     do_facet $facet $LCTL --device %${!svc} readonly
1929     do_facet $facet $LCTL mark "$facet REPLAY BARRIER on ${!svc}"
1930     $LCTL mark "local REPLAY BARRIER on ${!svc}"
1931 }
1932
1933 replay_barrier_nosync() {
1934     local facet=$1    echo running=${running}
1935     local svc=${facet}_svc
1936     echo Replay barrier on ${!svc}
1937     do_facet $facet $LCTL --device %${!svc} notransno
1938     do_facet $facet $LCTL --device %${!svc} readonly
1939     do_facet $facet $LCTL mark "$facet REPLAY BARRIER on ${!svc}"
1940     $LCTL mark "local REPLAY BARRIER on ${!svc}"
1941 }
1942
1943 mds_evict_client() {
1944     UUID=`lctl get_param -n mdc.${mds1_svc}-mdc-*.uuid`
1945     do_facet mds1 "lctl set_param -n mdt.${mds1_svc}.evict_client $UUID"
1946 }
1947
1948 ost_evict_client() {
1949     UUID=`lctl get_param -n devices| grep ${ost1_svc}-osc- | egrep -v 'MDT' | awk '{print $5}'`
1950     do_facet ost1 "lctl set_param -n obdfilter.${ost1_svc}.evict_client $UUID"
1951 }
1952
1953 fail() {
1954     facet_failover $* || error "failover: $?"
1955     clients_up || error "post-failover df: $?"
1956 }
1957
1958 fail_nodf() {
1959         local facet=$1
1960         facet_failover $facet
1961 }
1962
1963 fail_abort() {
1964         local facet=$1
1965         stop $facet
1966         refresh_disk ${facet}
1967         change_active $facet
1968         wait_for_facet $facet
1969         mount_facet $facet -o abort_recovery
1970         clients_up || echo "first df failed: $?"
1971         clients_up || error "post-failover df: $?"
1972 }
1973
1974 do_lmc() {
1975     echo There is no lmc.  This is mountconf, baby.
1976     exit 1
1977 }
1978
1979 host_nids_address() {
1980     local nodes=$1
1981     local kind=$2
1982
1983     if [ -n "$kind" ]; then
1984         nids=$(do_nodes $nodes "$LCTL list_nids | grep $kind | cut -f 1 -d '@'")
1985     else
1986         nids=$(do_nodes $nodes "$LCTL list_nids all | cut -f 1 -d '@'")
1987     fi
1988     echo $nids
1989 }
1990
1991 h2name_or_ip() {
1992     if [ "$1" = "client" -o "$1" = "'*'" ]; then echo \'*\'; else
1993         echo $1"@$2"
1994     fi
1995 }
1996
1997 h2ptl() {
1998    if [ "$1" = "client" -o "$1" = "'*'" ]; then echo \'*\'; else
1999        ID=`xtprocadmin -n $1 2>/dev/null | egrep -v 'NID' | awk '{print $1}'`
2000        if [ -z "$ID" ]; then
2001            echo "Could not get a ptl id for $1..."
2002            exit 1
2003        fi
2004        echo $ID"@ptl"
2005    fi
2006 }
2007 declare -fx h2ptl
2008
2009 h2tcp() {
2010     h2name_or_ip "$1" "tcp"
2011 }
2012 declare -fx h2tcp
2013
2014 h2elan() {
2015     if [ "$1" = "client" -o "$1" = "'*'" ]; then echo \'*\'; else
2016         if type __h2elan >/dev/null 2>&1; then
2017             ID=$(__h2elan $1)
2018         else
2019             ID=`echo $1 | sed 's/[^0-9]*//g'`
2020         fi
2021         echo $ID"@elan"
2022     fi
2023 }
2024 declare -fx h2elan
2025
2026 h2o2ib() {
2027     h2name_or_ip "$1" "o2ib"
2028 }
2029 declare -fx h2o2ib
2030
2031 # This enables variables in cfg/"setup".sh files to support the pdsh HOSTLIST
2032 # expressions format. As a bonus we can then just pass in those variables
2033 # to pdsh. What this function does is take a HOSTLIST type string and
2034 # expand it into a space deliminated list for us.
2035 hostlist_expand() {
2036     local hostlist=$1
2037     local offset=$2
2038     local myList
2039     local item
2040     local list
2041
2042     [ -z "$hostlist" ] && return
2043
2044     # Translate the case of [..],..,[..] to [..] .. [..]
2045     list="${hostlist/],/] }"
2046     front=${list%%[*}
2047     [[ "$front" == *,* ]] && {
2048         new="${list%,*} "
2049         old="${list%,*},"
2050         list=${list/${old}/${new}}
2051     }
2052
2053     for item in $list; do
2054         # Test if we have any []'s at all
2055         if [ "$item" != "${item/\[/}" ]; then {
2056             # Expand the [*] into list
2057             name=${item%%[*}
2058             back=${item#*]}
2059
2060             if [ "$name" != "$item" ]; then
2061                 group=${item#$name[*}
2062                 group=${group%%]*}
2063
2064                 for range in ${group//,/ }; do
2065                     begin=${range%-*}
2066                     end=${range#*-}
2067
2068                     # Number of leading zeros
2069                     padlen=${#begin}
2070                     padlen2=${#end}
2071                     end=$(echo $end | sed 's/0*//')
2072                     [[ -z "$end" ]] && end=0
2073                     [[ $padlen2 -gt $padlen ]] && {
2074                         [[ $padlen2 -eq ${#end} ]] && padlen2=0
2075                         padlen=$padlen2
2076                     }
2077                     begin=$(echo $begin | sed 's/0*//')
2078                     [ -z $begin ] && begin=0
2079
2080                     for num in $(seq -f "%0${padlen}g" $begin $end); do
2081                         value="${name#*,}${num}${back}"
2082                         [ "$value" != "${value/\[/}" ] && {
2083                             value=$(hostlist_expand "$value")
2084                         }
2085                         myList="$myList $value"
2086                     done
2087                 done
2088             fi
2089         } else {
2090             myList="$myList $item"
2091         } fi
2092     done
2093     myList=${myList//,/ }
2094     myList=${myList:1} # Remove first character which is a space
2095
2096     # Filter any duplicates without sorting
2097     list="$myList "
2098     myList="${list%% *}"
2099
2100     while [[ "$list" != ${myList##* } ]]; do
2101         list=${list//${list%% *} /}
2102         myList="$myList ${list%% *}"
2103     done
2104     myList="${myList%* }";
2105
2106     # We can select an object at a offset in the list
2107     [ $# -eq 2 ] && {
2108         cnt=0
2109         for item in $myList; do
2110             let cnt=cnt+1
2111             [ $cnt -eq $offset ] && {
2112                 myList=$item
2113             }
2114         done
2115         [ $(get_node_count $myList) -ne 1 ] && myList=""
2116     }
2117     echo $myList
2118 }
2119
2120 facet_host() {
2121     local facet=$1
2122
2123     [ "$facet" == client ] && echo -n $HOSTNAME && return
2124     varname=${facet}_HOST
2125     if [ -z "${!varname}" ]; then
2126         if [ "${facet:0:3}" == "ost" ]; then
2127             eval ${facet}_HOST=${ost_HOST}
2128         fi
2129     fi
2130     echo -n ${!varname}
2131 }
2132
2133 facet_failover_host() {
2134         local facet=$1
2135         local var
2136
2137         var=${facet}failover_HOST
2138         if [ -n "${!var}" ]; then
2139                 echo ${!var}
2140                 return
2141         fi
2142
2143         if [[ $facet == ost* ]]; then
2144                 var=ostfailover_HOST
2145                 if [ -n "${!var}" ]; then
2146                         echo ${!var}
2147                         return
2148                 fi
2149         fi
2150 }
2151
2152 facet_active() {
2153     local facet=$1
2154     local activevar=${facet}active
2155
2156     if [ -f $TMP/${facet}active ] ; then
2157         source $TMP/${facet}active
2158     fi
2159
2160     active=${!activevar}
2161     if [ -z "$active" ] ; then
2162         echo -n ${facet}
2163     else
2164         echo -n ${active}
2165     fi
2166 }
2167
2168 facet_active_host() {
2169     local facet=$1
2170     local active=`facet_active $facet`
2171     if [ "$facet" == client ]; then
2172         echo $HOSTNAME
2173     else
2174         echo `facet_host $active`
2175     fi
2176 }
2177
2178 change_active() {
2179     local facetlist=$1
2180     local facet
2181
2182     facetlist=$(exclude_items_from_list $facetlist mgs)
2183
2184     for facet in ${facetlist//,/ }; do
2185     local failover=${facet}failover
2186     local host=`facet_host $failover`
2187     [ -z "$host" ] && return
2188
2189     local curactive=`facet_active $facet`
2190     if [ -z "${curactive}" -o "$curactive" == "$failover" ] ; then
2191         eval export ${facet}active=$facet
2192     else
2193         eval export ${facet}active=$failover
2194     fi
2195     # save the active host for this facet
2196     local activevar=${facet}active
2197     echo "$activevar=${!activevar}" > $TMP/$activevar
2198     [[ $facet = mds1 ]] && combined_mgs_mds && \
2199         echo "mgsactive=${!activevar}" > $TMP/mgsactive
2200     local TO=`facet_active_host $facet`
2201     echo "Failover $facet to $TO"
2202     done
2203 }
2204
2205 do_node() {
2206     local verbose=false
2207     # do not stripe off hostname if verbose, bug 19215
2208     if [ x$1 = x--verbose ]; then
2209         shift
2210         verbose=true
2211     fi
2212
2213     local HOST=$1
2214     shift
2215     local myPDSH=$PDSH
2216     if [ "$HOST" = "$HOSTNAME" ]; then
2217         myPDSH="no_dsh"
2218     elif [ -z "$myPDSH" -o "$myPDSH" = "no_dsh" ]; then
2219         echo "cannot run remote command on $HOST with $myPDSH"
2220         return 128
2221     fi
2222     if $VERBOSE; then
2223         echo "CMD: $HOST $@" >&2
2224         $myPDSH $HOST "$LCTL mark \"$@\"" > /dev/null 2>&1 || :
2225     fi
2226
2227     if [ "$myPDSH" = "rsh" ]; then
2228 # we need this because rsh does not return exit code of an executed command
2229         local command_status="$TMP/cs"
2230         rsh $HOST ":> $command_status"
2231         rsh $HOST "(PATH=\$PATH:$RLUSTRE/utils:$RLUSTRE/tests:/sbin:/usr/sbin;
2232                     cd $RPWD; LUSTRE=\"$RLUSTRE\" sh -c \"$@\") ||
2233                     echo command failed >$command_status"
2234         [ -n "$($myPDSH $HOST cat $command_status)" ] && return 1 || true
2235         return 0
2236     fi
2237
2238     if $verbose ; then
2239         # print HOSTNAME for myPDSH="no_dsh"
2240         if [[ $myPDSH = no_dsh ]]; then
2241             $myPDSH $HOST "(PATH=\$PATH:$RLUSTRE/utils:$RLUSTRE/tests:/sbin:/usr/sbin; cd $RPWD; LUSTRE=\"$RLUSTRE\" sh -c \"$@\")" | sed -e "s/^/${HOSTNAME}: /"
2242         else
2243             $myPDSH $HOST "(PATH=\$PATH:$RLUSTRE/utils:$RLUSTRE/tests:/sbin:/usr/sbin; cd $RPWD; LUSTRE=\"$RLUSTRE\" sh -c \"$@\")"
2244         fi
2245     else
2246         $myPDSH $HOST "(PATH=\$PATH:$RLUSTRE/utils:$RLUSTRE/tests:/sbin:/usr/sbin; cd $RPWD; LUSTRE=\"$RLUSTRE\" sh -c \"$@\")" | sed "s/^${HOST}: //"
2247     fi
2248     return ${PIPESTATUS[0]}
2249 }
2250
2251 do_nodev() {
2252     do_node --verbose "$@"
2253 }
2254
2255 single_local_node () {
2256    [ "$1" = "$HOSTNAME" ]
2257 }
2258
2259 # Outputs environment variable assignments that should be passed to remote nodes
2260 get_env_vars() {
2261         local var
2262         local value
2263         local facets=$(get_facets)
2264         local facet
2265
2266         for var in ${!MODOPTS_*}; do
2267                 value=${!var}
2268                 echo -n " ${var}=\"$value\""
2269         done
2270
2271         echo -n " USE_OFD=$USE_OFD"
2272
2273         for facet in ${facets//,/ }; do
2274                 var=${facet}_FSTYPE
2275                 if [ -n "${!var}" ]; then
2276                         echo -n " $var=${!var}"
2277                 fi
2278         done
2279
2280         for var in MGSFSTYPE MDSFSTYPE OSTFSTYPE; do
2281                 if [ -n "${!var}" ]; then
2282                         echo -n " $var=${!var}"
2283                 fi
2284         done
2285
2286         if [ -n "$FSTYPE" ]; then
2287                 echo -n " FSTYPE=$FSTYPE"
2288         fi
2289 }
2290
2291 do_nodes() {
2292     local verbose=false
2293     # do not stripe off hostname if verbose, bug 19215
2294     if [ x$1 = x--verbose ]; then
2295         shift
2296         verbose=true
2297     fi
2298
2299     local rnodes=$1
2300     shift
2301
2302     if single_local_node $rnodes; then
2303         if $verbose; then
2304            do_nodev $rnodes "$@"
2305         else
2306            do_node $rnodes "$@"
2307         fi
2308         return $?
2309     fi
2310
2311     # This is part from do_node
2312     local myPDSH=$PDSH
2313
2314     [ -z "$myPDSH" -o "$myPDSH" = "no_dsh" -o "$myPDSH" = "rsh" ] && \
2315         echo "cannot run remote command on $rnodes with $myPDSH" && return 128
2316
2317     export FANOUT=$(get_node_count "${rnodes//,/ }")
2318     if $VERBOSE; then
2319         echo "CMD: $rnodes $@" >&2
2320         $myPDSH $rnodes "$LCTL mark \"$@\"" > /dev/null 2>&1 || :
2321     fi
2322
2323     # do not replace anything from pdsh output if -N is used
2324     # -N     Disable hostname: prefix on lines of output.
2325     if $verbose || [[ $myPDSH = *-N* ]]; then
2326         $myPDSH $rnodes "(PATH=\$PATH:$RLUSTRE/utils:$RLUSTRE/tests:/sbin:/usr/sbin; cd $RPWD; LUSTRE=\"$RLUSTRE\" $(get_env_vars) sh -c \"$@\")"
2327     else
2328         $myPDSH $rnodes "(PATH=\$PATH:$RLUSTRE/utils:$RLUSTRE/tests:/sbin:/usr/sbin; cd $RPWD; LUSTRE=\"$RLUSTRE\" $(get_env_vars) sh -c \"$@\")" | sed -re "s/^[^:]*: //g"
2329     fi
2330     return ${PIPESTATUS[0]}
2331 }
2332
2333 do_facet() {
2334     local facet=$1
2335     shift
2336     local HOST=`facet_active_host $facet`
2337     [ -z $HOST ] && echo No host defined for facet ${facet} && exit 1
2338     do_node $HOST "$@"
2339 }
2340
2341 # Function: do_facet_random_file $FACET $FILE $SIZE
2342 # Creates FILE with random content on the given FACET of given SIZE
2343
2344 do_facet_random_file() {
2345         local facet="$1"
2346         local fpath="$2"
2347         local fsize="$3"
2348         local cmd="dd if=/dev/urandom of='$fpath' bs=$fsize count=1"
2349         do_facet $facet "$cmd 2>/dev/null"
2350 }
2351
2352 do_facet_create_file() {
2353         local facet="$1"
2354         local fpath="$2"
2355         local fsize="$3"
2356         local cmd="dd if=/dev/zero of='$fpath' bs=$fsize count=1"
2357         do_facet $facet "$cmd 2>/dev/null"
2358 }
2359
2360 do_nodesv() {
2361     do_nodes --verbose "$@"
2362 }
2363
2364 add() {
2365     local facet=$1
2366     shift
2367     # make sure its not already running
2368     stop ${facet} -f
2369     rm -f $TMP/${facet}active
2370     [[ $facet = mds1 ]] && combined_mgs_mds && rm -f $TMP/mgsactive
2371     do_facet ${facet} $MKFS $*
2372 }
2373
2374 ostdevname() {
2375     num=$1
2376     DEVNAME=OSTDEV$num
2377
2378         local fstype=$(facet_fstype ost$num)
2379
2380         case $fstype in
2381                 ldiskfs )
2382                         #if $OSTDEVn isn't defined, default is $OSTDEVBASE + num
2383                         eval DEVPTR=${!DEVNAME:=${OSTDEVBASE}${num}};;
2384                 zfs )
2385                         #dataset name is independent of vdev device names
2386                         eval DEVPTR=${FSNAME}-ost${num}/ost${num};;
2387                 * )
2388                         error "unknown fstype!";;
2389         esac
2390
2391     echo -n $DEVPTR
2392 }
2393
2394 ostvdevname() {
2395         num=$1
2396         DEVNAME=OSTDEV$num
2397
2398         local fstype=$(facet_fstype ost$num)
2399
2400         case $fstype in
2401                 ldiskfs )
2402                         # vdevs are not supported by ldiskfs
2403                         eval VDEVPTR="";;
2404                 zfs )
2405                         #if $OSTDEVn isn't defined, default is $OSTDEVBASE + num
2406                         eval VDEVPTR=${!DEVNAME:=${OSTDEVBASE}${num}};;
2407                 * )
2408                         error "unknown fstype!";;
2409         esac
2410
2411         echo -n $VDEVPTR
2412 }
2413
2414 mdsdevname() {
2415     num=$1
2416     DEVNAME=MDSDEV$num
2417
2418         local fstype=$(facet_fstype mds$num)
2419
2420         case $fstype in
2421                 ldiskfs )
2422                         #if $MDSDEVn isn't defined, default is $MDSDEVBASE + num
2423                         eval DEVPTR=${!DEVNAME:=${MDSDEVBASE}${num}};;
2424                 zfs )
2425                         #dataset name is independent of vdev device names
2426                         eval DEVPTR=${FSNAME}-mdt${num}/mdt${num};;
2427                 * )
2428                         error "unknown fstype!";;
2429         esac
2430
2431         echo -n $DEVPTR
2432 }
2433
2434 mdsvdevname() {
2435         num=$1
2436         DEVNAME=MDSDEV$num
2437
2438         local fstype=$(facet_fstype mds$num)
2439
2440         case $fstype in
2441                 ldiskfs )
2442                         # vdevs are not supported by ldiskfs
2443                         eval VDEVPTR="";;
2444                 zfs )
2445                         #if $MDSDEVn isn't defined, default is $MDSDEVBASE + num
2446                         eval VDEVPTR=${!DEVNAME:=${MDSDEVBASE}${num}};;
2447                 * )
2448                         error "unknown fstype!";;
2449         esac
2450
2451         echo -n $VDEVPTR
2452 }
2453
2454 mgsdevname() {
2455         DEVNAME=MGSDEV
2456
2457         local fstype=$(facet_fstype mds$num)
2458
2459         case $fstype in
2460                 ldiskfs )
2461                         #if $MGSDEV isn't defined, default is $MDSDEV1
2462                         eval DEVPTR=${!DEVNAME:=${MDSDEV1}};;
2463                 zfs )
2464                         #dataset name is independent of vdev device names
2465                         eval DEVPTR=${FSNAME}-mgs/mgs;;
2466                 * )
2467                         error "unknown fstype!";;
2468         esac
2469
2470     echo -n $DEVPTR
2471 }
2472
2473 mgsvdevname() {
2474         DEVNAME=MGSDEV
2475
2476         local fstype=$(facet_fstype mds$num)
2477
2478         case $fstype in
2479                 ldiskfs )
2480                         # vdevs are not supported by ldiskfs
2481                         eval VDEVPTR="";;
2482                 zfs )
2483                         #if $MGSDEV isn't defined, default is $MGSDEV1
2484                         eval VDEVPTR=${!DEVNAME:=${MDSDEV1}};;
2485                 * )
2486                         error "unknown fstype!";;
2487         esac
2488
2489         echo -n $VDEVPTR
2490 }
2491
2492 facet_mntpt () {
2493     local facet=$1
2494     [[ $facet = mgs ]] && combined_mgs_mds && facet="mds1"
2495
2496     local var=${facet}_MOUNT
2497     eval mntpt=${!var:-${MOUNT%/*}/$facet}
2498
2499     echo -n $mntpt
2500 }
2501
2502 ########
2503 ## MountConf setup
2504
2505 stopall() {
2506     # make sure we are using the primary server, so test-framework will
2507     # be able to clean up properly.
2508     activemds=`facet_active mds1`
2509     if [ $activemds != "mds1" ]; then
2510         fail mds1
2511     fi
2512
2513     local clients=$CLIENTS
2514     [ -z $clients ] && clients=$(hostname)
2515
2516     zconf_umount_clients $clients $MOUNT "$*" || true
2517     [ -n "$MOUNT2" ] && zconf_umount_clients $clients $MOUNT2 "$*" || true
2518
2519     [ "$CLIENTONLY" ] && return
2520     # The add fn does rm ${facet}active file, this would be enough
2521     # if we use do_facet <facet> only after the facet added, but
2522     # currently we use do_facet mds in local.sh
2523     for num in `seq $MDSCOUNT`; do
2524         stop mds$num -f
2525         rm -f ${TMP}/mds${num}active
2526     done
2527     combined_mgs_mds && rm -f $TMP/mgsactive
2528
2529     for num in `seq $OSTCOUNT`; do
2530         stop ost$num -f
2531         rm -f $TMP/ost${num}active
2532     done
2533
2534     if ! combined_mgs_mds ; then
2535         stop mgs
2536     fi
2537
2538     return 0
2539 }
2540
2541 cleanup_echo_devs () {
2542     local devs=$($LCTL dl | grep echo | awk '{print $4}')
2543
2544     for dev in $devs; do
2545         $LCTL --device $dev cleanup
2546         $LCTL --device $dev detach
2547     done
2548 }
2549
2550 cleanupall() {
2551     nfs_client_mode && return
2552
2553     stopall $*
2554     cleanup_echo_devs
2555
2556     unload_modules
2557     cleanup_gss
2558 }
2559
2560 combined_mgs_mds () {
2561     [[ $MDSDEV1 = $MGSDEV ]] && [[ $mds1_HOST = $mgs_HOST ]]
2562 }
2563
2564 lower() {
2565         echo -n "$1" | tr '[:upper:]' '[:lower:]'
2566 }
2567
2568 upper() {
2569         echo -n "$1" | tr '[:lower:]' '[:upper:]'
2570 }
2571
2572 mkfs_opts() {
2573         local facet=$1
2574         local type=$(facet_type $facet)
2575         local index=$(($(facet_number $facet) - 1))
2576         local fstype=$(facet_fstype $facet)
2577         local opts
2578         local fs_mkfs_opts
2579         local var
2580
2581         if [ $type == MGS ] && combined_mgs_mds; then
2582                 return 1
2583         fi
2584
2585         if [ $type == MGS ] || ( [ $type == MDS ] && combined_mgs_mds ); then
2586                 opts="--mgs"
2587         else
2588                 opts="--mgsnode=$MGSNID"
2589         fi
2590
2591         if [ $type != MGS ]; then
2592                 opts+=" --fsname=$FSNAME --$(lower ${type/MDS/MDT}) --index=$index"
2593         fi
2594
2595         var=${facet}failover_HOST
2596         if [ -n "${!var}" ] && [ ${!var} != $(facet_host $facet) ]; then
2597                 opts+=" --failnode=$(h2$NETTYPE ${!var})"
2598         fi
2599
2600         opts+=${TIMEOUT:+" --param=sys.timeout=$TIMEOUT"}
2601         opts+=${LDLM_TIMEOUT:+" --param=sys.ldlm_timeout=$LDLM_TIMEOUT"}
2602
2603         if [ $type == MDS ]; then
2604                 opts+=${SECLEVEL:+" --param=mdt.sec_level"}
2605                 opts+=${MDSCAPA:+" --param-mdt.capa=$MDSCAPA"}
2606                 opts+=${STRIPE_BYTES:+" --param=lov.stripesize=$STRIPE_BYTES"}
2607                 opts+=${STRIPES_PER_OBJ:+" --param=lov.stripecount=$STRIPES_PER_OBJ"}
2608                 opts+=${L_GETIDENTITY:+" --param=mdt.identity_upcall=$L_GETIDENTITY"}
2609
2610                 if [ $fstype == ldiskfs ]; then
2611                         opts+=${IAMDIR:+" --iam-dir"}
2612
2613                         fs_mkfs_opts+=${MDSJOURNALSIZE:+" -J size=$MDSJOURNALSIZE"}
2614                         fs_mkfs_opts+=${MDSISIZE:+" -i $MDSISIZE"}
2615                 fi
2616         fi
2617
2618         if [ $type == OST ]; then
2619                 opts+=${SECLEVEL:+" --param=ost.sec_level"}
2620                 opts+=${OSSCAPA:+" --param=ost.capa=$OSSCAPA"}
2621
2622                 if [ $fstype == ldiskfs ]; then
2623                         fs_mkfs_opts+=${OSTJOURNALSIZE:+" -J size=$OSTJOURNALSIZE"}
2624                 fi
2625         fi
2626
2627         opts+=" --backfstype=$fstype"
2628
2629         var=${type}SIZE
2630         if [ -n "${!var}" ]; then
2631                 opts+=" --device-size=${!var}"
2632         fi
2633
2634         var=$(upper $fstype)_MKFS_OPTS
2635         fs_mkfs_opts+=${!var:+" ${!var}"}
2636
2637         var=${type}_FS_MKFS_OPTS
2638         fs_mkfs_opts+=${!var:+" ${!var}"}
2639
2640         if [ -n "${fs_mkfs_opts## }" ]; then
2641                 opts+=" --mkfsoptions=\\\"${fs_mkfs_opts## }\\\""
2642         fi
2643
2644         var=${type}OPT
2645         opts+=${!var:+" ${!var}"}
2646
2647         echo -n "$opts"
2648 }
2649
2650 formatall() {
2651         local quiet
2652
2653         if ! $VERBOSE; then
2654                 quiet=yes
2655         fi
2656
2657         stopall
2658         # We need ldiskfs here, may as well load them all
2659         load_modules
2660         [ "$CLIENTONLY" ] && return
2661         echo Formatting mgs, mds, osts
2662         if ! combined_mgs_mds ; then
2663                 echo "Format mgs: $(mgsdevname)"
2664                 add mgs $(mkfs_opts mgs) --reformat $(mgsdevname) \
2665                         $(mgsvdevname) ${quiet:+>/dev/null} || exit 10
2666                 fi
2667
2668                 for num in `seq $MDSCOUNT`; do
2669                         echo "Format mds$num: $(mdsdevname $num)"
2670                         add mds$num $(mkfs_opts mds$num) --reformat \
2671                         $(mdsdevname $num) $(mdsvdevname $num) \
2672                         ${quiet:+>/dev/null} || exit 10
2673                 done
2674
2675                 for num in `seq $OSTCOUNT`; do
2676                         echo "Format ost$num: $(ostdevname $num)"
2677                         add ost$num $(mkfs_opts ost$num) --reformat \
2678                         $(ostdevname $num) $(ostvdevname ${num}) \
2679                         ${quiet:+>/dev/null} || exit 10
2680                 done
2681 }
2682
2683 mount_client() {
2684     grep " $1 " /proc/mounts || zconf_mount $HOSTNAME $*
2685 }
2686
2687 umount_client() {
2688     grep " $1 " /proc/mounts && zconf_umount `hostname` $*
2689 }
2690
2691 # return value:
2692 # 0: success, the old identity set already.
2693 # 1: success, the old identity does not set.
2694 # 2: fail.
2695 switch_identity() {
2696     local num=$1
2697     local switch=$2
2698     local j=`expr $num - 1`
2699     local MDT="`(do_facet mds$num lctl get_param -N mdt.*MDT*$j 2>/dev/null | cut -d"." -f2 2>/dev/null) || true`"
2700
2701     if [ -z "$MDT" ]; then
2702         return 2
2703     fi
2704
2705     local old="`do_facet mds$num "lctl get_param -n mdt.$MDT.identity_upcall"`"
2706
2707     if $switch; then
2708         do_facet mds$num "lctl set_param -n mdt.$MDT.identity_upcall \"$L_GETIDENTITY\""
2709     else
2710         do_facet mds$num "lctl set_param -n mdt.$MDT.identity_upcall \"NONE\""
2711     fi
2712
2713     do_facet mds$num "lctl set_param -n mdt/$MDT/identity_flush=-1"
2714
2715     if [ $old = "NONE" ]; then
2716         return 1
2717     else
2718         return 0
2719     fi
2720 }
2721
2722 remount_client()
2723 {
2724         zconf_umount `hostname` $1 || error "umount failed"
2725         zconf_mount `hostname` $1 || error "mount failed"
2726 }
2727
2728 writeconf_facet () {
2729     local facet=$1
2730     local dev=$2
2731
2732     do_facet $facet "$TUNEFS --writeconf $dev"
2733 }
2734
2735 writeconf_all () {
2736     for num in `seq $MDSCOUNT`; do
2737         DEVNAME=$(mdsdevname $num)
2738         writeconf_facet mds$num $DEVNAME
2739     done
2740
2741     for num in `seq $OSTCOUNT`; do
2742         DEVNAME=$(ostdevname $num)
2743         writeconf_facet ost$num $DEVNAME
2744     done
2745 }
2746
2747 setupall() {
2748     nfs_client_mode && return
2749
2750     sanity_mount_check ||
2751         error "environments are insane!"
2752
2753     load_modules
2754
2755     if [ -z "$CLIENTONLY" ]; then
2756         echo Setup mgs, mdt, osts
2757         echo $WRITECONF | grep -q "writeconf" && \
2758             writeconf_all
2759         if ! combined_mgs_mds ; then
2760                         start mgs $(mgsdevname) $MGS_MOUNT_OPTS
2761         fi
2762
2763         for num in `seq $MDSCOUNT`; do
2764             DEVNAME=$(mdsdevname $num)
2765             start mds$num $DEVNAME $MDS_MOUNT_OPTS
2766
2767             # We started mds, now we should set failover variables properly.
2768             # Set mds${num}failover_HOST if it is not set (the default failnode).
2769             local varname=mds${num}failover_HOST
2770             if [ -z "${!varname}" ]; then
2771                 eval mds${num}failover_HOST=$(facet_host mds$num)
2772             fi
2773
2774             if [ $IDENTITY_UPCALL != "default" ]; then
2775                 switch_identity $num $IDENTITY_UPCALL
2776             fi
2777         done
2778         for num in `seq $OSTCOUNT`; do
2779             DEVNAME=$(ostdevname $num)
2780             start ost$num $DEVNAME $OST_MOUNT_OPTS
2781
2782             # We started ost$num, now we should set ost${num}failover variable properly.
2783             # Set ost${num}failover_HOST if it is not set (the default failnode).
2784             varname=ost${num}failover_HOST
2785             if [ -z "${!varname}" ]; then
2786                 eval ost${num}failover_HOST=$(facet_host ost${num})
2787             fi
2788
2789         done
2790     fi
2791
2792     init_gss
2793
2794     # wait a while to allow sptlrpc configuration be propogated to targets,
2795     # only needed when mounting new target devices.
2796     if $GSS; then
2797         sleep 10
2798     fi
2799
2800     [ "$DAEMONFILE" ] && $LCTL debug_daemon start $DAEMONFILE $DAEMONSIZE
2801     mount_client $MOUNT
2802     [ -n "$CLIENTS" ] && zconf_mount_clients $CLIENTS $MOUNT
2803     clients_up
2804
2805     if [ "$MOUNT_2" ]; then
2806         mount_client $MOUNT2
2807         [ -n "$CLIENTS" ] && zconf_mount_clients $CLIENTS $MOUNT2
2808     fi
2809
2810     init_param_vars
2811
2812     # by remounting mdt before ost, initial connect from mdt to ost might
2813     # timeout because ost is not ready yet. wait some time to its fully
2814     # recovery. initial obd_connect timeout is 5s; in GSS case it's preceeded
2815     # by a context negotiation rpc with $TIMEOUT.
2816     # FIXME better by monitoring import status.
2817     if $GSS; then
2818         set_flavor_all $SEC
2819         sleep $((TIMEOUT + 5))
2820     else
2821         sleep 5
2822     fi
2823 }
2824
2825 mounted_lustre_filesystems() {
2826         awk '($3 ~ "lustre" && $1 ~ ":") { print $2 }' /proc/mounts
2827 }
2828
2829 init_facet_vars () {
2830     [ "$CLIENTONLY" ] && return 0
2831     local facet=$1
2832     shift
2833     local device=$1
2834
2835     shift
2836
2837     eval export ${facet}_dev=${device}
2838     eval export ${facet}_opt=\"$@\"
2839
2840     local dev=${facet}_dev
2841         local label=$(devicelabel ${facet} ${!dev})
2842     [ -z "$label" ] && echo no label for ${!dev} && exit 1
2843
2844     eval export ${facet}_svc=${label}
2845
2846     local varname=${facet}failover_HOST
2847     if [ -z "${!varname}" ]; then
2848        eval $varname=$(facet_host $facet) 
2849     fi
2850
2851     # ${facet}failover_dev is set in cfg file
2852     varname=${facet}failover_dev
2853     if [ -n "${!varname}" ] ; then
2854         eval export ${facet}failover_dev=${!varname}
2855     else
2856         eval export ${facet}failover_dev=$device
2857     fi
2858
2859     # get mount point of already mounted device
2860     # is facet_dev is already mounted then use the real
2861     #  mount point of this facet; otherwise use $(facet_mntpt $facet)
2862     # i.e. ${facet}_MOUNT if specified by user or default
2863     local mntpt=$(do_facet ${facet} cat /proc/mounts | \
2864             awk '"'${!dev}'" == $1 && $3 == "lustre" { print $2 }')
2865     if [ -z $mntpt ]; then
2866         mntpt=$(facet_mntpt $facet)
2867     fi
2868     eval export ${facet}_MOUNT=$mntpt
2869 }
2870
2871 init_facets_vars () {
2872     local DEVNAME
2873
2874     if ! remote_mds_nodsh; then 
2875         for num in `seq $MDSCOUNT`; do
2876             DEVNAME=`mdsdevname $num`
2877             init_facet_vars mds$num $DEVNAME $MDS_MOUNT_OPTS
2878         done
2879     fi
2880
2881         combined_mgs_mds || init_facet_vars mgs $(mgsdevname) $MGS_MOUNT_OPTS
2882
2883     remote_ost_nodsh && return
2884
2885     for num in `seq $OSTCOUNT`; do
2886         DEVNAME=`ostdevname $num`
2887         init_facet_vars ost$num $DEVNAME $OST_MOUNT_OPTS
2888     done
2889 }
2890
2891 osc_ensure_active () {
2892     local facet=$1
2893     local timeout=$2
2894     local period=0
2895
2896     while [ $period -lt $timeout ]; do
2897         count=$(do_facet $facet "lctl dl | grep ' IN osc ' 2>/dev/null | wc -l")
2898         if [ $count -eq 0 ]; then
2899             break
2900         fi
2901
2902         echo "There are $count OST are inactive, wait $period seconds, and try again"
2903         sleep 3
2904         period=$((period+3))
2905     done
2906
2907     [ $period -lt $timeout ] || log "$count OST are inactive after $timeout seconds, give up"
2908 }
2909
2910 init_param_vars () {
2911         remote_mds_nodsh ||
2912                 TIMEOUT=$(do_facet $SINGLEMDS "lctl get_param -n timeout")
2913
2914         log "Using TIMEOUT=$TIMEOUT"
2915
2916         osc_ensure_active $SINGLEMDS $TIMEOUT
2917         osc_ensure_active client $TIMEOUT
2918
2919         local jobid_var
2920         if [ -z "$(lctl get_param -n mdc.*.connect_flags | grep jobstats)" ]; then
2921                 jobid_var="none"
2922         elif [ $JOBSTATS_AUTO -ne 0 ]; then
2923                 echo "enable jobstats, set job scheduler as $JOBID_VAR"
2924                 jobid_var=$JOBID_VAR
2925         else
2926                 jobid_var=`$LCTL get_param -n jobid_var`
2927                 if [ $jobid_var != "disable" ]; then
2928                         echo "disable jobstats as required"
2929                         jobid_var="disable"
2930                 else
2931                         jobid_var="none"
2932                 fi
2933         fi
2934
2935         if [ $jobid_var == $JOBID_VAR -o $jobid_var == "disable" ]; then
2936                 do_facet mgs $LCTL conf_param $FSNAME.sys.jobid_var=$jobid_var
2937                 wait_update $HOSTNAME "$LCTL get_param -n jobid_var" \
2938                         $jobid_var || return 1
2939         fi
2940
2941         if [ $QUOTA_AUTO -ne 0 ]; then
2942                 if [ "$ENABLE_QUOTA" ]; then
2943                         echo "enable quota as required"
2944                         setup_quota $MOUNT || return 2
2945                 else
2946                         echo "disable quota as required"
2947                         $LFS quotaoff -ug $MOUNT > /dev/null 2>&1
2948                 fi
2949         fi
2950         return 0
2951 }
2952
2953 nfs_client_mode () {
2954     if [ "$NFSCLIENT" ]; then
2955         echo "NFSCLIENT mode: setup, cleanup, check config skipped"
2956         local clients=$CLIENTS
2957         [ -z $clients ] && clients=$(hostname)
2958
2959         # FIXME: remove hostname when 19215 fixed
2960         do_nodes $clients "echo \\\$(hostname); grep ' '$MOUNT' ' /proc/mounts"
2961         declare -a nfsexport=(`grep ' '$MOUNT' ' /proc/mounts | awk '{print $1}' | awk -F: '{print $1 " "  $2}'`)
2962         if [[ ${#nfsexport[@]} -eq 0 ]]; then
2963                 error_exit NFSCLIENT=$NFSCLIENT mode, but no NFS export found!
2964         fi
2965         do_nodes ${nfsexport[0]} "echo \\\$(hostname); df -T  ${nfsexport[1]}"
2966         return
2967     fi
2968     return 1
2969 }
2970
2971 check_config_client () {
2972     local mntpt=$1
2973
2974     local mounted=$(mount | grep " $mntpt ")
2975     if [ "$CLIENTONLY" ]; then
2976         # bug 18021
2977         # CLIENTONLY should not depend on *_HOST settings
2978         local mgc=$($LCTL device_list | awk '/MGC/ {print $4}')
2979         # in theory someone could create a new,
2980         # client-only config file that assumed lustre was already
2981         # configured and didn't set the MGSNID. If MGSNID is not set,
2982         # then we should use the mgs nid currently being used 
2983         # as the default value. bug 18021
2984         [[ x$MGSNID = x ]] &&
2985             MGSNID=${mgc//MGC/}
2986
2987         if [[ x$mgc != xMGC$MGSNID ]]; then
2988             if [ "$mgs_HOST" ]; then
2989                 local mgc_ip=$(ping -q -c1 -w1 $mgs_HOST | grep PING | awk '{print $3}' | sed -e "s/(//g" -e "s/)//g")
2990 #                [[ x$mgc = xMGC$mgc_ip@$NETTYPE ]] ||
2991 #                    error_exit "MGSNID=$MGSNID, mounted: $mounted, MGC : $mgc"
2992             fi
2993         fi
2994         return 0
2995     fi
2996
2997     local myMGS_host=$mgs_HOST   
2998     if [ "$NETTYPE" = "ptl" ]; then
2999         myMGS_host=$(h2ptl $mgs_HOST | sed -e s/@ptl//) 
3000     fi
3001
3002     echo Checking config lustre mounted on $mntpt
3003     local mgshost=$(mount | grep " $mntpt " | awk -F@ '{print $1}')
3004     mgshost=$(echo $mgshost | awk -F: '{print $1}')
3005
3006 #    if [ "$mgshost" != "$myMGS_host" ]; then
3007 #            log "Bad config file: lustre is mounted with mgs $mgshost, but mgs_HOST=$mgs_HOST, NETTYPE=$NETTYPE
3008 #                   Please use correct config or set mds_HOST correctly!"
3009 #    fi
3010
3011 }
3012
3013 check_config_clients () {
3014     local clients=${CLIENTS:-$HOSTNAME}
3015     local mntpt=$1
3016
3017     nfs_client_mode && return
3018
3019     do_rpc_nodes $clients check_config_client $mntpt
3020
3021     sanity_mount_check ||
3022         error "environments are insane!"
3023 }
3024
3025 check_timeout () {
3026     local mdstimeout=$(do_facet $SINGLEMDS "lctl get_param -n timeout")
3027     local cltimeout=$(lctl get_param -n timeout)
3028     if [ $mdstimeout -ne $TIMEOUT ] || [ $mdstimeout -ne $cltimeout ]; then
3029         error "timeouts are wrong! mds: $mdstimeout, client: $cltimeout, TIMEOUT=$TIMEOUT"
3030         return 1
3031     fi
3032 }
3033
3034 is_mounted () {
3035     local mntpt=$1
3036     [ -z $mntpt ] && return 1
3037     local mounted=$(mounted_lustre_filesystems)
3038
3039     echo $mounted' ' | grep -w -q $mntpt' '
3040 }
3041
3042 is_empty_dir() {
3043     [ $(find $1 -maxdepth 1 -print | wc -l) = 1 ] && return 0
3044     return 1
3045 }
3046
3047 # empty lustre filesystem may have empty directories lost+found and .lustre
3048 is_empty_fs() {
3049     [ $(find $1 -maxdepth 1 -name lost+found -o -name .lustre -prune -o \
3050        -print | wc -l) = 1 ] || return 1
3051     [ ! -d $1/lost+found ] || is_empty_dir $1/lost+found && return 0
3052     [ ! -d $1/.lustre ] || is_empty_dir $1/.lustre && return 0
3053     return 1
3054 }
3055
3056 check_and_setup_lustre() {
3057     nfs_client_mode && return
3058
3059     local MOUNTED=$(mounted_lustre_filesystems)
3060
3061     local do_check=true
3062     # 1.
3063     # both MOUNT and MOUNT2 are not mounted
3064     if ! is_mounted $MOUNT && ! is_mounted $MOUNT2; then
3065         [ "$REFORMAT" ] && formatall
3066         # setupall mounts both MOUNT and MOUNT2 (if MOUNT_2 is set)
3067         setupall
3068         is_mounted $MOUNT || error "NAME=$NAME not mounted"
3069         export I_MOUNTED=yes
3070         do_check=false
3071     # 2.
3072     # MOUNT2 is mounted
3073     elif is_mounted $MOUNT2; then
3074             # 3.
3075             # MOUNT2 is mounted, while MOUNT_2 is not set
3076             if ! [ "$MOUNT_2" ]; then
3077                 cleanup_mount $MOUNT2
3078                 export I_UMOUNTED2=yes
3079
3080             # 4.
3081             # MOUNT2 is mounted, MOUNT_2 is set
3082             else
3083                 # FIXME: what to do if check_config failed?
3084                 # i.e. if:
3085                 # 1) remote client has mounted other Lustre fs ?
3086                 # 2) it has insane env ?
3087                 # let's try umount MOUNT2 on all clients and mount it again:
3088                 if ! check_config_clients $MOUNT2; then
3089                     cleanup_mount $MOUNT2
3090                     restore_mount $MOUNT2
3091                     export I_MOUNTED2=yes
3092                 fi
3093             fi 
3094
3095     # 5.
3096     # MOUNT is mounted MOUNT2 is not mounted
3097     elif [ "$MOUNT_2" ]; then
3098         restore_mount $MOUNT2
3099         export I_MOUNTED2=yes
3100     fi
3101
3102     if $do_check; then
3103         # FIXME: what to do if check_config failed?
3104         # i.e. if:
3105         # 1) remote client has mounted other Lustre fs?
3106         # 2) lustre is mounted on remote_clients atall ?
3107         check_config_clients $MOUNT
3108         init_facets_vars
3109         init_param_vars
3110
3111         set_default_debug_nodes $(comma_list $(nodes_list))
3112     fi
3113
3114         init_gss
3115         if $GSS; then
3116                 set_flavor_all $SEC
3117         fi
3118
3119         if [ "$ONLY" == "setup" ]; then
3120                 exit 0
3121         fi
3122 }
3123
3124 restore_mount () {
3125    local clients=${CLIENTS:-$HOSTNAME}
3126    local mntpt=$1
3127
3128    zconf_mount_clients $clients $mntpt
3129 }
3130
3131 cleanup_mount () {
3132     local clients=${CLIENTS:-$HOSTNAME}
3133     local mntpt=$1
3134
3135     zconf_umount_clients $clients $mntpt    
3136 }
3137
3138 cleanup_and_setup_lustre() {
3139     if [ "$ONLY" == "cleanup" -o "`mount | grep $MOUNT`" ]; then
3140         lctl set_param debug=0 || true
3141         cleanupall
3142         if [ "$ONLY" == "cleanup" ]; then
3143             exit 0
3144         fi
3145     fi
3146     check_and_setup_lustre
3147 }
3148
3149 # Get all of the server target devices from a given server node and type.
3150 get_mnt_devs() {
3151         local node=$1
3152         local type=$2
3153         local devs
3154         local dev
3155
3156         if [ "$type" == ost ]; then
3157                 devs=$(get_obdfilter_param $node "" mntdev)
3158         else
3159                 devs=$(do_node $node \
3160                        "lctl get_param -n osd-*.$FSNAME-M*.mntdev")
3161         fi
3162         for dev in $devs; do
3163                 case $dev in
3164                 *loop*) do_node $node "losetup $dev" | \
3165                                 sed -e "s/.*(//" -e "s/).*//" ;;
3166                 *) echo $dev ;;
3167                 esac
3168         done
3169 }
3170
3171 # Get all of the server target devices.
3172 get_svr_devs() {
3173     local i
3174
3175     # MDT device
3176     MDTDEV=$(get_mnt_devs $(mdts_nodes) mdt)
3177
3178     # OST devices
3179     i=0
3180     for node in $(osts_nodes); do
3181         OSTDEVS[i]=$(get_mnt_devs $node ost)
3182         i=$((i + 1))
3183     done
3184 }
3185
3186 # Run e2fsck on MDT or OST device.
3187 run_e2fsck() {
3188     local node=$1
3189     local target_dev=$2
3190     local extra_opts=$3
3191
3192     df > /dev/null      # update statfs data on disk
3193     local cmd="$E2FSCK -d -v -t -t -f -n $extra_opts $target_dev"
3194     echo $cmd
3195     local rc=0
3196     do_node $node $cmd || rc=$?
3197     [ $rc -le $FSCK_MAX_ERR ] || \
3198         error "$cmd returned $rc, should be <= $FSCK_MAX_ERR"
3199     return 0
3200 }
3201
3202 # verify a directory is shared among nodes.
3203 check_shared_dir() {
3204     local dir=$1
3205
3206     [ -z "$dir" ] && return 1
3207     do_rpc_nodes $(comma_list $(nodes_list)) check_logdir $dir
3208     check_write_access $dir || return 1
3209     return 0
3210 }
3211
3212 # Run e2fsck on MDT and OST(s) to generate databases used for lfsck.
3213 generate_db() {
3214     local i
3215     local ostidx
3216     local dev
3217
3218         [[ $(lustre_version_code $SINGLEMDS) -ne $(version_code 2.2.0) ]] ||
3219                 { skip "Lustre 2.2.0 lacks the patch for LU-1255"; exit 0; }
3220
3221     check_shared_dir $SHARED_DIRECTORY ||
3222         error "$SHARED_DIRECTORY isn't a shared directory"
3223
3224     export MDSDB=$SHARED_DIRECTORY/mdsdb
3225     export OSTDB=$SHARED_DIRECTORY/ostdb
3226
3227     [ $MDSCOUNT -eq 1 ] || error "CMD is not supported"
3228
3229     run_e2fsck $(mdts_nodes) $MDTDEV "--mdsdb $MDSDB"
3230
3231     i=0
3232     ostidx=0
3233     OSTDB_LIST=""
3234     for node in $(osts_nodes); do
3235         for dev in ${OSTDEVS[i]}; do
3236             run_e2fsck $node $dev "--mdsdb $MDSDB --ostdb $OSTDB-$ostidx"
3237             OSTDB_LIST="$OSTDB_LIST $OSTDB-$ostidx"
3238             ostidx=$((ostidx + 1))
3239         done
3240         i=$((i + 1))
3241     done
3242 }
3243
3244 run_lfsck() {
3245     local cmd="$LFSCK_BIN -c -l --mdsdb $MDSDB --ostdb $OSTDB_LIST $MOUNT"
3246     echo $cmd
3247     local rc=0
3248     eval $cmd || rc=$?
3249     [ $rc -le $FSCK_MAX_ERR ] || \
3250         error "$cmd returned $rc, should be <= $FSCK_MAX_ERR"
3251     echo "lfsck finished with rc=$rc"
3252
3253     rm -rvf $MDSDB* $OSTDB* || true
3254     return 0
3255 }
3256
3257 check_and_cleanup_lustre() {
3258     if [ "$LFSCK_ALWAYS" = "yes" -a "$TESTSUITE" != "lfsck" ]; then
3259         get_svr_devs
3260         generate_db
3261         run_lfsck
3262     fi
3263
3264     if is_mounted $MOUNT; then
3265         [ -n "$DIR" ] && rm -rf $DIR/[Rdfs][0-9]* ||
3266             error "remove sub-test dirs failed"
3267         [ "$ENABLE_QUOTA" ] && restore_quota_type || true
3268     fi
3269
3270     if [ "$I_UMOUNTED2" = "yes" ]; then
3271         restore_mount $MOUNT2 || error "restore $MOUNT2 failed"
3272     fi
3273
3274     if [ "$I_MOUNTED2" = "yes" ]; then
3275         cleanup_mount $MOUNT2
3276     fi
3277
3278     if [ "$I_MOUNTED" = "yes" ]; then
3279         cleanupall -f || error "cleanup failed"
3280         unset I_MOUNTED
3281     fi
3282 }
3283
3284 #######
3285 # General functions
3286
3287 wait_for_function () {
3288     local quiet=""
3289
3290     # suppress fn both stderr and stdout
3291     if [ "$1" = "--quiet" ]; then
3292         shift
3293         quiet=" > /dev/null 2>&1"
3294
3295     fi
3296
3297     local fn=$1
3298     local max=${2:-900}
3299     local sleep=${3:-5}
3300
3301     local wait=0
3302
3303     while true; do
3304
3305         eval $fn $quiet && return 0
3306
3307         wait=$((wait + sleep))
3308         [ $wait -lt $max ] || return 1
3309         echo waiting $fn, $((max - wait)) secs left ...
3310         sleep $sleep
3311     done
3312 }
3313
3314 check_network() {
3315     local host=$1
3316     local max=$2
3317     local sleep=${3:-5}
3318
3319     echo `date +"%H:%M:%S (%s)"` waiting for $host network $max secs ...
3320     if ! wait_for_function --quiet "ping -c 1 -w 3 $host" $max $sleep ; then
3321         echo "Network not available!"
3322         exit 1
3323     fi
3324
3325     echo `date +"%H:%M:%S (%s)"` network interface is UP
3326 }
3327
3328 no_dsh() {
3329     shift
3330     eval $@
3331 }
3332
3333 comma_list() {
3334     # the sed converts spaces to commas, but leaves the last space
3335     # alone, so the line doesn't end with a comma.
3336     echo "$*" | tr -s " " "\n" | sort -b -u | tr "\n" " " | sed 's/ \([^$]\)/,\1/g'
3337 }
3338
3339 list_member () {
3340     local list=$1
3341     local item=$2
3342     echo $list | grep -qw $item
3343 }
3344
3345 # list, excluded are the comma separated lists
3346 exclude_items_from_list () {
3347     local list=$1
3348     local excluded=$2
3349     local item
3350
3351     list=${list//,/ }
3352     for item in ${excluded//,/ }; do
3353         list=$(echo " $list " | sed -re "s/\s+$item\s+/ /g")
3354     done
3355     echo $(comma_list $list)
3356 }
3357
3358 # list, expand  are the comma separated lists
3359 expand_list () {
3360     local list=${1//,/ }
3361     local expand=${2//,/ }
3362     local expanded=
3363
3364     expanded=$(for i in $list $expand; do echo $i; done | sort -u)
3365     echo $(comma_list $expanded)
3366 }
3367
3368 testslist_filter () {
3369     local script=$LUSTRE/tests/${TESTSUITE}.sh
3370
3371     [ -f $script ] || return 0
3372
3373     local start_at=$START_AT
3374     local stop_at=$STOP_AT
3375
3376     local var=${TESTSUITE//-/_}_START_AT
3377     [ x"${!var}" != x ] && start_at=${!var}
3378     var=${TESTSUITE//-/_}_STOP_AT
3379     [ x"${!var}" != x ] && stop_at=${!var}
3380
3381     sed -n 's/^test_\([^ (]*\).*/\1/p' $script | \
3382         awk ' BEGIN { if ("'${start_at:-0}'" != 0) flag = 1 }
3383             /^'${start_at}'$/ {flag = 0}
3384             {if (flag == 1) print $0}
3385             /^'${stop_at}'$/ { flag = 1 }'
3386 }
3387
3388 absolute_path() {
3389     (cd `dirname $1`; echo $PWD/`basename $1`)
3390 }
3391
3392 get_facets () {
3393     local types=${1:-"OST MDS MGS"}
3394
3395     local list=""
3396
3397     for entry in $types; do
3398         local name=$(echo $entry | tr "[:upper:]" "[:lower:]")
3399         local type=$(echo $entry | tr "[:lower:]" "[:upper:]")
3400
3401         case $type in
3402                 MGS ) list="$list $name";;
3403             MDS|OST ) local count=${type}COUNT
3404                        for ((i=1; i<=${!count}; i++)) do
3405                           list="$list ${name}$i"
3406                       done;;
3407                   * ) error "Invalid facet type"
3408                  exit 1;;
3409         esac
3410     done
3411     echo $(comma_list $list)
3412 }
3413
3414 ##################################
3415 # Adaptive Timeouts funcs
3416
3417 at_is_enabled() {
3418     # only check mds, we assume at_max is the same on all nodes
3419     local at_max=$(do_facet $SINGLEMDS "lctl get_param -n at_max")
3420     if [ $at_max -eq 0 ]; then
3421         return 1
3422     else
3423         return 0
3424     fi
3425 }
3426
3427 at_get() {
3428     local facet=$1
3429     local at=$2
3430
3431     # suppose that all ost-s have the same $at value set
3432     [ $facet != "ost" ] || facet=ost1
3433
3434     do_facet $facet "lctl get_param -n $at"
3435 }
3436
3437 at_max_get() {
3438     at_get $1 at_max
3439 }
3440
3441 at_min_get() {
3442         at_get $1 at_min
3443 }
3444
3445 at_max_set() {
3446     local at_max=$1
3447     shift
3448
3449     local facet
3450     local hosts
3451     for facet in $@; do
3452         if [ $facet == "ost" ]; then
3453             facet=$(get_facets OST)
3454         elif [ $facet == "mds" ]; then
3455             facet=$(get_facets MDS)
3456         fi
3457         hosts=$(expand_list $hosts $(facets_hosts $facet))
3458     done
3459
3460     do_nodes $hosts lctl set_param at_max=$at_max
3461 }
3462
3463 ##################################
3464 # OBD_FAIL funcs
3465
3466 drop_request() {
3467 # OBD_FAIL_MDS_ALL_REQUEST_NET
3468     RC=0
3469     do_facet $SINGLEMDS lctl set_param fail_loc=0x123
3470     do_facet client "$1" || RC=$?
3471     do_facet $SINGLEMDS lctl set_param fail_loc=0
3472     return $RC
3473 }
3474
3475 drop_reply() {
3476 # OBD_FAIL_MDS_ALL_REPLY_NET
3477     RC=0
3478     do_facet $SINGLEMDS lctl set_param fail_loc=0x122
3479     do_facet client "$@" || RC=$?
3480     do_facet $SINGLEMDS lctl set_param fail_loc=0
3481     return $RC
3482 }
3483
3484 drop_reint_reply() {
3485 # OBD_FAIL_MDS_REINT_NET_REP
3486     RC=0
3487     do_facet $SINGLEMDS lctl set_param fail_loc=0x119
3488     do_facet client "$@" || RC=$?
3489     do_facet $SINGLEMDS lctl set_param fail_loc=0
3490     return $RC
3491 }
3492
3493 pause_bulk() {
3494 #define OBD_FAIL_OST_BRW_PAUSE_BULK      0x214
3495     RC=0
3496     do_facet ost1 lctl set_param fail_loc=0x214
3497     do_facet client "$1" || RC=$?
3498     do_facet client "sync"
3499     do_facet ost1 lctl set_param fail_loc=0
3500     return $RC
3501 }
3502
3503 drop_ldlm_cancel() {
3504 #define OBD_FAIL_LDLM_CANCEL             0x304
3505         local RC=0
3506         local list=$(comma_list $(mdts_nodes) $(osts_nodes))
3507         do_nodes $list lctl set_param fail_loc=0x304
3508
3509         do_facet client "$@" || RC=$?
3510
3511         do_nodes $list lctl set_param fail_loc=0
3512         return $RC
3513 }
3514
3515 drop_bl_callback() {
3516 #define OBD_FAIL_LDLM_BL_CALLBACK        0x305
3517     RC=0
3518     do_facet client lctl set_param fail_loc=0x305
3519     do_facet client "$@" || RC=$?
3520     do_facet client lctl set_param fail_loc=0
3521     return $RC
3522 }
3523
3524 drop_ldlm_reply() {
3525 #define OBD_FAIL_LDLM_REPLY              0x30c
3526     RC=0
3527     do_facet $SINGLEMDS lctl set_param fail_loc=0x30c
3528     do_facet client "$@" || RC=$?
3529     do_facet $SINGLEMDS lctl set_param fail_loc=0
3530     return $RC
3531 }
3532
3533 clear_failloc() {
3534     facet=$1
3535     pause=$2
3536     sleep $pause
3537     echo "clearing fail_loc on $facet"
3538     do_facet $facet "lctl set_param fail_loc=0 2>/dev/null || true"
3539 }
3540
3541 set_nodes_failloc () {
3542     do_nodes $(comma_list $1)  lctl set_param fail_loc=$2
3543 }
3544
3545 cancel_lru_locks() {
3546     $LCTL mark "cancel_lru_locks $1 start"
3547     for d in `lctl get_param -N ldlm.namespaces.*.lru_size | egrep -i $1`; do
3548         $LCTL set_param -n $d=clear
3549     done
3550     $LCTL get_param ldlm.namespaces.*.lock_unused_count | egrep -i $1 | grep -v '=0'
3551     $LCTL mark "cancel_lru_locks $1 stop"
3552 }
3553
3554 default_lru_size()
3555 {
3556         NR_CPU=$(grep -c "processor" /proc/cpuinfo)
3557         DEFAULT_LRU_SIZE=$((100 * NR_CPU))
3558         echo "$DEFAULT_LRU_SIZE"
3559 }
3560
3561 lru_resize_enable()
3562 {
3563     lctl set_param ldlm.namespaces.*$1*.lru_size=0
3564 }
3565
3566 lru_resize_disable()
3567 {
3568     lctl set_param ldlm.namespaces.*$1*.lru_size $(default_lru_size)
3569 }
3570
3571 pgcache_empty() {
3572     local FILE
3573     for FILE in `lctl get_param -N "llite.*.dump_page_cache"`; do
3574         if [ `lctl get_param -n $FILE | wc -l` -gt 1 ]; then
3575             echo there is still data in page cache $FILE ?
3576             lctl get_param -n $FILE
3577             return 1
3578         fi
3579     done
3580     return 0
3581 }
3582
3583 debugsave() {
3584     DEBUGSAVE="$(lctl get_param -n debug)"
3585 }
3586
3587 debugrestore() {
3588     [ -n "$DEBUGSAVE" ] && \
3589         do_nodes $(comma_list $(nodes_list)) "$LCTL set_param debug=\\\"${DEBUGSAVE}\\\";"
3590     DEBUGSAVE=""
3591 }
3592
3593 debug_size_save() {
3594     DEBUG_SIZE_SAVED="$(lctl get_param -n debug_mb)"
3595 }
3596
3597 debug_size_restore() {
3598     [ -n "$DEBUG_SIZE_SAVED" ] && \
3599         do_nodes $(comma_list $(nodes_list)) "$LCTL set_param debug_mb=$DEBUG_SIZE_SAVED"
3600     DEBUG_SIZE_SAVED=""
3601 }
3602
3603 start_full_debug_logging() {
3604     debugsave
3605     debug_size_save
3606
3607     local FULLDEBUG=-1
3608     local DEBUG_SIZE=150
3609
3610     do_nodes $(comma_list $(nodes_list)) "$LCTL set_param debug_mb=$DEBUG_SIZE"
3611     do_nodes $(comma_list $(nodes_list)) "$LCTL set_param debug=$FULLDEBUG;"
3612 }
3613
3614 stop_full_debug_logging() {
3615     debug_size_restore
3616     debugrestore
3617 }
3618
3619 # prints bash call stack
3620 log_trace_dump() {
3621         echo "  Trace dump:"
3622         for (( i=1; i < ${#BASH_LINENO[*]} ; i++ )) ; do
3623                 local s=${BASH_SOURCE[$i]}
3624                 local l=${BASH_LINENO[$i-1]}
3625                 local f=${FUNCNAME[$i]}
3626                 echo "  = $s:$l:$f()"
3627         done
3628 }
3629
3630 ##################################
3631 # Test interface
3632 ##################################
3633
3634 error_noexit() {
3635     local TYPE=${TYPE:-"FAIL"}
3636
3637     local dump=true
3638     # do not dump logs if $1=false
3639     if [ "x$1" = "xfalse" ]; then
3640         shift
3641         dump=false
3642     fi
3643
3644     log " ${TESTSUITE} ${TESTNAME}: @@@@@@ ${TYPE}: $@ "
3645     log_trace_dump
3646
3647     mkdir -p $LOGDIR
3648     # We need to dump the logs on all nodes
3649     if $dump; then
3650         gather_logs $(comma_list $(nodes_list))
3651     fi
3652
3653     debugrestore
3654     [ "$TESTSUITELOG" ] && echo "$0: ${TYPE}: $TESTNAME $@" >> $TESTSUITELOG
3655     echo "$@" > $LOGDIR/err
3656 }
3657
3658 exit_status () {
3659         local status=0
3660         local log=$TESTSUITELOG
3661
3662         [ -f "$log" ] && grep -q FAIL $log && status=1
3663         exit $status
3664 }
3665
3666 error() {
3667     error_noexit "$@"
3668     exit 1
3669 }
3670
3671 error_exit() {
3672     error "$@"
3673 }
3674
3675 # use only if we are ignoring failures for this test, bugno required.
3676 # (like ALWAYS_EXCEPT, but run the test and ignore the results.)
3677 # e.g. error_ignore 5494 "your message"
3678 error_ignore() {
3679     local TYPE="IGNORE (bz$1)"
3680     shift
3681     error_noexit "$@"
3682 }
3683
3684 error_and_remount() {
3685         error_noexit "$@"
3686         remount_client $MOUNT
3687         exit 1
3688 }
3689
3690 skip_env () {
3691     $FAIL_ON_SKIP_ENV && error false $@ || skip $@
3692 }
3693
3694 skip() {
3695         echo
3696         log " SKIP: $TESTSUITE $TESTNAME $@"
3697
3698         if [[ -n "$ALWAYS_SKIPPED" ]]; then
3699                 skip_logged $TESTNAME "$@"
3700         else
3701                 mkdir -p $LOGDIR
3702                 echo "$@" > $LOGDIR/skip
3703         fi
3704
3705         [[ -n "$TESTSUITELOG" ]] &&
3706                 echo "$TESTSUITE: SKIP: $TESTNAME $@" >> $TESTSUITELOG || true
3707 }
3708
3709 build_test_filter() {
3710     EXCEPT="$EXCEPT $(testslist_filter)"
3711
3712     [ "$ONLY" ] && log "only running test `echo $ONLY`"
3713     for O in $ONLY; do
3714         eval ONLY_${O}=true
3715     done
3716     [ "$EXCEPT$ALWAYS_EXCEPT" ] && \
3717         log "excepting tests: `echo $EXCEPT $ALWAYS_EXCEPT`"
3718     [ "$EXCEPT_SLOW" ] && \
3719         log "skipping tests SLOW=no: `echo $EXCEPT_SLOW`"
3720     for E in $EXCEPT; do
3721         eval EXCEPT_${E}=true
3722     done
3723     for E in $ALWAYS_EXCEPT; do
3724         eval EXCEPT_ALWAYS_${E}=true
3725     done
3726     for E in $EXCEPT_SLOW; do
3727         eval EXCEPT_SLOW_${E}=true
3728     done
3729     for G in $GRANT_CHECK_LIST; do
3730         eval GCHECK_ONLY_${G}=true
3731         done
3732 }
3733
3734 basetest() {
3735     if [[ $1 = [a-z]* ]]; then
3736         echo $1
3737     else
3738         echo ${1%%[a-z]*}
3739     fi
3740 }
3741
3742 # print a newline if the last test was skipped
3743 export LAST_SKIPPED=
3744 export ALWAYS_SKIPPED=
3745 #
3746 # Main entry into test-framework. This is called with the name and
3747 # description of a test. The name is used to find the function to run
3748 # the test using "test_$name".
3749 #
3750 # This supports a variety of methods of specifying specific test to
3751 # run or not run.  These need to be documented...
3752 #
3753 run_test() {
3754     assert_DIR
3755
3756     export base=`basetest $1`
3757     if [ ! -z "$ONLY" ]; then
3758         testname=ONLY_$1
3759         if [ ${!testname}x != x ]; then
3760             [ "$LAST_SKIPPED" ] && echo "" && LAST_SKIPPED=
3761             run_one_logged $1 "$2"
3762             return $?
3763         fi
3764         testname=ONLY_$base
3765         if [ ${!testname}x != x ]; then
3766             [ "$LAST_SKIPPED" ] && echo "" && LAST_SKIPPED=
3767             run_one_logged $1 "$2"
3768             return $?
3769         fi
3770         LAST_SKIPPED="y"
3771         echo -n "."
3772         return 0
3773     fi
3774
3775         LAST_SKIPPED="y"
3776         ALWAYS_SKIPPED="y"
3777     testname=EXCEPT_$1
3778     if [ ${!testname}x != x ]; then
3779         TESTNAME=test_$1 skip "skipping excluded test $1"
3780         return 0
3781     fi
3782     testname=EXCEPT_$base
3783     if [ ${!testname}x != x ]; then
3784         TESTNAME=test_$1 skip "skipping excluded test $1 (base $base)"
3785         return 0
3786     fi
3787     testname=EXCEPT_ALWAYS_$1
3788     if [ ${!testname}x != x ]; then
3789         TESTNAME=test_$1 skip "skipping ALWAYS excluded test $1"
3790         return 0
3791     fi
3792     testname=EXCEPT_ALWAYS_$base
3793     if [ ${!testname}x != x ]; then
3794         TESTNAME=test_$1 skip "skipping ALWAYS excluded test $1 (base $base)"
3795         return 0
3796     fi
3797     testname=EXCEPT_SLOW_$1
3798     if [ ${!testname}x != x ]; then
3799         TESTNAME=test_$1 skip "skipping SLOW test $1"
3800         return 0
3801     fi
3802     testname=EXCEPT_SLOW_$base
3803     if [ ${!testname}x != x ]; then
3804         TESTNAME=test_$1 skip "skipping SLOW test $1 (base $base)"
3805         return 0
3806     fi
3807
3808     LAST_SKIPPED=
3809     ALWAYS_SKIPPED=
3810     run_one_logged $1 "$2"
3811
3812     return $?
3813 }
3814
3815 equals_msg() {
3816     banner "$*"
3817 }
3818
3819 log() {
3820     echo "$*"
3821     module_loaded lnet || load_modules
3822
3823     local MSG="$*"
3824     # Get rid of '
3825     MSG=${MSG//\'/\\\'}
3826     MSG=${MSG//\(/\\\(}
3827     MSG=${MSG//\)/\\\)}
3828     MSG=${MSG//\;/\\\;}
3829     MSG=${MSG//\|/\\\|}
3830     MSG=${MSG//\>/\\\>}
3831     MSG=${MSG//\</\\\<}
3832     MSG=${MSG//\//\\\/}
3833     do_nodes $(comma_list $(nodes_list)) $LCTL mark "$MSG" 2> /dev/null || true
3834 }
3835
3836 trace() {
3837         log "STARTING: $*"
3838         strace -o $TMP/$1.strace -ttt $*
3839         RC=$?
3840         log "FINISHED: $*: rc $RC"
3841         return 1
3842 }
3843
3844 complete () {
3845     equals_msg $1 test complete, duration $2 sec
3846     [ -f "$TESTSUITELOG" ] && egrep .FAIL $TESTSUITELOG || true
3847     echo duration $2 >>$TESTSUITELOG
3848 }
3849
3850 pass() {
3851         # Set TEST_STATUS here. It will be used for logging the result.
3852         TEST_STATUS="PASS"
3853
3854         if [[ -f $LOGDIR/err ]]; then
3855                 TEST_STATUS="FAIL"
3856         elif [[ -f $LOGDIR/skip ]]; then
3857                 TEST_STATUS="SKIP"
3858         fi
3859         echo "$TEST_STATUS $@" 2>&1 | tee -a $TESTSUITELOG
3860 }
3861
3862 check_mds() {
3863     local FFREE=$(do_node $SINGLEMDS \
3864         lctl get_param -n osd*.*MDT*.filesfree | calc_sum)
3865     local FTOTAL=$(do_node $SINGLEMDS \
3866         lctl get_param -n osd*.*MDT*.filestotal | calc_sum)
3867
3868     [ $FFREE -ge $FTOTAL ] && error "files free $FFREE > total $FTOTAL" || true
3869 }
3870
3871 reset_fail_loc () {
3872     echo -n "Resetting fail_loc on all nodes..."
3873     do_nodes $(comma_list $(nodes_list)) "lctl set_param -n fail_loc=0 2>/dev/null || true"
3874     echo done.
3875 }
3876
3877
3878 #
3879 # Log a message (on all nodes) padded with "=" before and after. 
3880 # Also appends a timestamp and prepends the testsuite name.
3881
3882
3883 EQUALS="===================================================================================================="
3884 banner() {
3885     msg="== ${TESTSUITE} $*"
3886     last=${msg: -1:1}
3887     [[ $last != "=" && $last != " " ]] && msg="$msg "
3888     msg=$(printf '%s%.*s'  "$msg"  $((${#EQUALS} - ${#msg})) $EQUALS )
3889     # always include at least == after the message
3890     log "$msg== $(date +"%H:%M:%S (%s)")"
3891 }
3892
3893 #
3894 # Run a single test function and cleanup after it.  
3895 #
3896 # This function should be run in a subshell so the test func can
3897 # exit() without stopping the whole script.
3898 #
3899 run_one() {
3900     local testnum=$1
3901     local message=$2
3902     tfile=f.${TESTSUITE}.${testnum}
3903     export tdir=d0.${TESTSUITE}/d${base}
3904     export TESTNAME=test_$testnum
3905     local SAVE_UMASK=`umask`
3906     umask 0022
3907
3908     banner "test $testnum: $message"
3909     test_${testnum} || error "test_$testnum failed with $?"
3910     cd $SAVE_PWD
3911     reset_fail_loc
3912     check_grant ${testnum} || error "check_grant $testnum failed with $?"
3913     check_catastrophe || error "LBUG/LASSERT detected"
3914     ps auxww | grep -v grep | grep -q multiop && error "multiop still running"
3915     unset TESTNAME
3916     unset tdir
3917     umask $SAVE_UMASK
3918     return 0
3919 }
3920
3921 #
3922 # Wrapper around run_one to ensure:
3923 #  - test runs in subshell
3924 #  - output of test is saved to separate log file for error reporting
3925 #  - test result is saved to data file
3926 #
3927 run_one_logged() {
3928         local BEFORE=`date +%s`
3929         local TEST_ERROR
3930         local name=${TESTSUITE}.test_${1}.test_log.$(hostname -s).log
3931         local test_log=$LOGDIR/$name
3932         rm -rf $LOGDIR/err
3933         rm -rf $LOGDIR/skip
3934         local SAVE_UMASK=`umask`
3935         umask 0022
3936
3937         echo
3938         log_sub_test_begin test_${1}
3939         (run_one $1 "$2") 2>&1 | tee -i $test_log
3940         local RC=${PIPESTATUS[0]}
3941
3942         [ $RC -ne 0 ] && [ ! -f $LOGDIR/err ] && \
3943                 echo "test_$1 returned $RC" | tee $LOGDIR/err
3944
3945         duration=$((`date +%s` - $BEFORE))
3946         pass "$1" "(${duration}s)"
3947
3948         if [[ -f $LOGDIR/err ]]; then
3949                 TEST_ERROR=$(cat $LOGDIR/err)
3950         elif [[ -f $LOGDIR/skip ]]; then
3951                 TEST_ERROR=$(cat $LOGDIR/skip)
3952         fi
3953         log_sub_test_end $TEST_STATUS $duration "$RC" "$TEST_ERROR"
3954
3955         if [ -f $LOGDIR/err ]; then
3956                 $FAIL_ON_ERROR && exit $RC
3957         fi
3958
3959         umask $SAVE_UMASK
3960
3961         return 0
3962 }
3963
3964 #
3965 # Print information of skipped tests to result.yml
3966 #
3967 skip_logged(){
3968         log_sub_test_begin $1
3969         shift
3970         log_sub_test_end "SKIP" "0" "0" "$@"
3971 }
3972
3973 canonical_path() {
3974     (cd `dirname $1`; echo $PWD/`basename $1`)
3975 }
3976
3977
3978 check_grant() {
3979     export base=`basetest $1`
3980     [ "$CHECK_GRANT" == "no" ] && return 0
3981
3982         testname=GCHECK_ONLY_${base}
3983         [ ${!testname}x == x ] && return 0
3984
3985     echo -n "checking grant......"
3986
3987         local clients=$CLIENTS
3988         [ -z $clients ] && clients=$(hostname)
3989
3990     # sync all the data and make sure no pending data on server
3991     do_nodes $clients sync
3992
3993     # get client grant
3994     client_grant=`do_nodes $clients \
3995                     "$LCTL get_param -n osc.${FSNAME}-*.cur_*grant_bytes" | \
3996                     awk '{total += $1} END{print total}'`
3997
3998     # get server grant
3999     server_grant=`do_nodes $(comma_list $(osts_nodes)) \
4000                     "$LCTL get_param -n obdfilter.${FSNAME}-OST*.tot_granted" |
4001                     awk '{total += $1} END{print total}'`
4002
4003     # check whether client grant == server grant
4004     if [ $client_grant -ne $server_grant ]; then
4005         echo "failed: client:${client_grant} server: ${server_grant}."
4006         do_nodes $(comma_list $(osts_nodes)) \
4007                    "$LCTL get_param obdfilter.${FSNAME}-OST*.tot*"
4008         do_nodes $clients "$LCTL get_param osc.${FSNAME}-*.cur_*_bytes"
4009         return 1
4010     else
4011         echo "pass: client:${client_grant} server: ${server_grant}"
4012     fi
4013
4014 }
4015
4016 ########################
4017 # helper functions
4018
4019 osc_to_ost()
4020 {
4021     osc=$1
4022     ost=`echo $1 | awk -F_ '{print $3}'`
4023     if [ -z $ost ]; then
4024         ost=`echo $1 | sed 's/-osc.*//'`
4025     fi
4026     echo $ost
4027 }
4028
4029 ostuuid_from_index()
4030 {
4031     $LFS osts $2 | sed -ne "/^$1: /s/.* \(.*\) .*$/\1/p"
4032 }
4033
4034 ostname_from_index() {
4035     local uuid=$(ostuuid_from_index $1)
4036     echo ${uuid/_UUID/}
4037 }
4038
4039 index_from_ostuuid()
4040 {
4041     $LFS osts $2 | sed -ne "/${1}/s/\(.*\): .* .*$/\1/p"
4042 }
4043
4044 mdtuuid_from_index()
4045 {
4046     $LFS mdts $2 | sed -ne "/^$1: /s/.* \(.*\) .*$/\1/p"
4047 }
4048
4049 remote_node () {
4050     local node=$1
4051     [ "$node" != "$(hostname)" ]
4052 }
4053
4054 remote_mds ()
4055 {
4056     local node
4057     for node in $(mdts_nodes); do
4058         remote_node $node && return 0
4059     done
4060     return 1
4061 }
4062
4063 remote_mds_nodsh()
4064 {
4065     [ "$CLIENTONLY" ] && return 0 || true
4066     remote_mds && [ "$PDSH" = "no_dsh" -o -z "$PDSH" -o -z "$mds_HOST" ]
4067 }
4068
4069 require_dsh_mds()
4070 {
4071         remote_mds_nodsh && echo "SKIP: $TESTSUITE: remote MDS with nodsh" && \
4072             MSKIPPED=1 && return 1
4073         return 0
4074 }
4075
4076 remote_ost ()
4077 {
4078     local node
4079     for node in $(osts_nodes) ; do
4080         remote_node $node && return 0
4081     done
4082     return 1
4083 }
4084
4085 remote_ost_nodsh()
4086 {
4087     [ "$CLIENTONLY" ] && return 0 || true 
4088     remote_ost && [ "$PDSH" = "no_dsh" -o -z "$PDSH" -o -z "$ost_HOST" ]
4089 }
4090
4091 require_dsh_ost()
4092 {
4093         remote_ost_nodsh && echo "SKIP: $TESTSUITE: remote OST with nodsh" && \
4094             OSKIPPED=1 && return 1
4095         return 0
4096 }
4097
4098 remote_mgs_nodsh()
4099 {
4100     local MGS 
4101     MGS=$(facet_host mgs)
4102     remote_node $MGS && [ "$PDSH" = "no_dsh" -o -z "$PDSH" -o -z "$ost_HOST" ]
4103 }
4104
4105 local_mode ()
4106 {
4107     remote_mds_nodsh || remote_ost_nodsh || \
4108         $(single_local_node $(comma_list $(nodes_list)))
4109 }
4110
4111 mdts_nodes () {
4112     local MDSNODES
4113     local NODES_sort
4114     for num in `seq $MDSCOUNT`; do
4115         MDSNODES="$MDSNODES $(facet_host mds$num)"
4116     done
4117     NODES_sort=$(for i in $MDSNODES; do echo $i; done | sort -u)
4118
4119     echo $NODES_sort
4120 }
4121
4122 remote_servers () {
4123     remote_ost && remote_mds
4124 }
4125
4126 facets_nodes () {
4127     local facets=$1
4128     local nodes
4129     local NODES_sort
4130
4131     for facet in ${facets//,/ }; do
4132         if [ "$FAILURE_MODE" = HARD ]; then
4133             nodes="$nodes $(facet_active_host $facet)"
4134         else
4135             nodes="$nodes $(facet_host $facet)"
4136         fi
4137     done
4138     NODES_sort=$(for i in $nodes; do echo $i; done | sort -u)
4139
4140     echo $NODES_sort
4141 }
4142
4143 osts_nodes () {
4144     local facets=$(get_facets OST)
4145     local nodes=$(facets_nodes $facets)
4146
4147     echo $nodes
4148 }
4149
4150 nodes_list () {
4151     # FIXME. We need a list of clients
4152     local myNODES=$HOSTNAME
4153     local myNODES_sort
4154
4155     # CLIENTS (if specified) contains the local client
4156     [ -n "$CLIENTS" ] && myNODES=${CLIENTS//,/ }
4157
4158     if [ "$PDSH" -a "$PDSH" != "no_dsh" ]; then
4159         myNODES="$myNODES $(facets_nodes $(get_facets))"
4160     fi
4161
4162     myNODES_sort=$(for i in $myNODES; do echo $i; done | sort -u)
4163
4164     echo $myNODES_sort
4165 }
4166
4167 remote_nodes_list () {
4168     local rnodes=$(nodes_list)
4169     rnodes=$(echo " $rnodes " | sed -re "s/\s+$HOSTNAME\s+/ /g")
4170     echo $rnodes
4171 }
4172
4173 init_clien