Whamcloud - gitweb
Land b_head_quota onto HEAD (20081116_0105)
[fs/lustre-release.git] / lustre / tests / test-framework.sh
1 #!/bin/bash
2 # vim:expandtab:shiftwidth=4:softtabstop=4:tabstop=4:
3
4 trap 'print_summary && echo "test-framework exiting on error"' ERR
5 set -e
6 #set -x
7
8
9 export REFORMAT=${REFORMAT:-""}
10 export WRITECONF=${WRITECONF:-""}
11 export VERBOSE=false
12 export GMNALNID=${GMNALNID:-/usr/sbin/gmlndnid}
13 export CATASTROPHE=${CATASTROPHE:-/proc/sys/lnet/catastrophe}
14 export GSS=false
15 export GSS_KRB5=false
16 export GSS_PIPEFS=false
17 export IDENTITY_UPCALL=default
18 #export PDSH="pdsh -S -Rssh -w"
19
20 # eg, assert_env LUSTRE MDSNODES OSTNODES CLIENTS
21 assert_env() {
22     local failed=""
23     for name in $@; do
24         if [ -z "${!name}" ]; then
25             echo "$0: $name must be set"
26             failed=1
27         fi
28     done
29     [ $failed ] && exit 1 || true
30 }
31
32 assert_DIR () {
33     local failed=""
34     [[ $DIR/ = $MOUNT/* ]] || \
35         { failed=1 && echo "DIR=$DIR not in $MOUNT. Aborting."; }
36     [[ $DIR1/ = $MOUNT1/* ]] || \
37         { failed=1 && echo "DIR1=$DIR1 not in $MOUNT1. Aborting."; }
38     [[ $DIR2/ = $MOUNT2/* ]] || \
39         { failed=1 && echo "DIR2=$DIR2 not in $MOUNT2. Aborting"; }
40
41     [ -n "$failed" ] && exit 99 || true
42 }
43
44 usage() {
45     echo "usage: $0 [-r] [-f cfgfile]"
46     echo "       -r: reformat"
47
48     exit
49 }
50
51 print_summary () {
52     [ "$TESTSUITE" == "lfscktest" ] && return 0
53     [ -n "$ONLY" ] && echo "WARNING: ONLY is set to ${ONLY}."
54     local form="%-13s %-17s %s\n"
55     printf "$form" "status" "script" "skipped tests E(xcluded) S(low)"
56     echo "------------------------------------------------------------------------------------"
57     for O in $TESTSUITE_LIST; do
58         local skipped=""
59         local slow=""
60         local o=$(echo $O | tr "[:upper:]" "[:lower:]")
61         o=${o//_/-}
62         o=${o//tyn/tyN}
63         local log=${TMP}/${o}.log
64         [ -f $log ] && skipped=$(grep excluded $log | awk '{ printf " %s", $3 }' | sed 's/test_//g')
65         [ -f $log ] && slow=$(grep SLOW $log | awk '{ printf " %s", $3 }' | sed 's/test_//g')
66         [ "${!O}" = "done" ] && \
67             printf "$form" "Done" "$O" "E=$skipped" && \
68             [ -n "$slow" ] && printf "$form" "-" "-" "S=$slow"
69
70     done
71
72     for O in $TESTSUITE_LIST; do
73         [ "${!O}" = "no" ] && \
74             printf "$form" "Skipped" "$O" ""
75     done
76
77     for O in $TESTSUITE_LIST; do
78         [ "${!O}" = "done" -o "${!O}" = "no" ] || \
79             printf "$form" "UNFINISHED" "$O" ""
80     done
81 }
82
83 init_test_env() {
84     export LUSTRE=`absolute_path $LUSTRE`
85     export TESTSUITE=`basename $0 .sh`
86
87     #[ -d /r ] && export ROOT=${ROOT:-/r}
88     export TMP=${TMP:-$ROOT/tmp}
89     export TESTSUITELOG=${TMP}/${TESTSUITE}.log
90     export HOSTNAME=${HOSTNAME:-`hostname`}
91     if ! echo $PATH | grep -q $LUSTRE/utils; then
92         export PATH=$PATH:$LUSTRE/utils
93     fi
94     if ! echo $PATH | grep -q $LUSTRE/utils/gss; then
95         export PATH=$PATH:$LUSTRE/utils/gss
96     fi
97     if ! echo $PATH | grep -q $LUSTRE/tests; then
98         export PATH=$PATH:$LUSTRE/tests
99     fi
100     export MDSRATE=${MDSRATE:-"$LUSTRE/tests/mdsrate"}
101     [ ! -f "$MDSRATE" ] && export MDSRATE=$(which mdsrate 2> /dev/null)
102     if ! echo $PATH | grep -q $LUSTRE/test/racer; then
103         export PATH=$PATH:$LUSTRE/tests/racer
104     fi
105     export LCTL=${LCTL:-"$LUSTRE/utils/lctl"}
106     [ ! -f "$LCTL" ] && export LCTL=$(which lctl)
107     export LFS=${LFS:-"$LUSTRE/utils/lfs"}
108     [ ! -f "$LFS" ] && export LFS=$(which lfs)
109     export L_GETIDENTITY=${L_GETIDENTITY:-"$LUSTRE/utils/l_getidentity"}
110     if [ ! -f "$L_GETIDENTITY" ]; then
111         if `which l_getidentity > /dev/null 2>&1`; then
112             export L_GETIDENTITY=$(which l_getidentity)
113         else
114             export L_GETIDENTITY=NONE
115         fi
116     fi
117     export MKFS=${MKFS:-"$LUSTRE/utils/mkfs.lustre"}
118     [ ! -f "$MKFS" ] && export MKFS=$(which mkfs.lustre)
119     export TUNEFS=${TUNEFS:-"$LUSTRE/utils/tunefs.lustre"}
120     [ ! -f "$TUNEFS" ] && export TUNEFS=$(which tunefs.lustre)
121     export CHECKSTAT="${CHECKSTAT:-"checkstat -v"} "
122     export FSYTPE=${FSTYPE:-"ldiskfs"}
123     export NAME=${NAME:-local}
124     export LGSSD=${LGSSD:-"$LUSTRE/utils/gss/lgssd"}
125     [ "$GSS_PIPEFS" = "true" ] && [ ! -f "$LGSSD" ] && \
126         export LGSSD=$(which lgssd)
127     export LSVCGSSD=${LSVCGSSD:-"$LUSTRE/utils/gss/lsvcgssd"}
128     [ ! -f "$LSVCGSSD" ] && export LSVCGSSD=$(which lsvcgssd)
129     export KRB5DIR=${KRB5DIR:-"/usr/kerberos"}
130     export DIR2
131     export SAVE_PWD=${SAVE_PWD:-$LUSTRE/tests}
132     export AT_MAX_PATH
133
134     if [ "$ACCEPTOR_PORT" ]; then
135         export PORT_OPT="--port $ACCEPTOR_PORT"
136     fi
137
138     case "x$SEC" in
139         xkrb5*)
140             echo "Using GSS/krb5 ptlrpc security flavor"
141             which lgss_keyring > /dev/null 2>&1 || \
142                 error "built with gss disabled! SEC=$SEC"
143             GSS=true
144             GSS_KRB5=true
145             ;;
146     esac
147
148     case "x$IDUP" in
149         xtrue)
150             IDENTITY_UPCALL=true
151             ;;
152         xfalse)
153             IDENTITY_UPCALL=false
154             ;;
155     esac
156
157     # Paths on remote nodes, if different
158     export RLUSTRE=${RLUSTRE:-$LUSTRE}
159     export RPWD=${RPWD:-$PWD}
160     export I_MOUNTED=${I_MOUNTED:-"no"}
161
162     # command line
163
164     while getopts "rvwf:" opt $*; do
165         case $opt in
166             f) CONFIG=$OPTARG;;
167             r) REFORMAT=--reformat;;
168             v) VERBOSE=true;;
169             w) WRITECONF=writeconf;;
170             \?) usage;;
171         esac
172     done
173
174     shift $((OPTIND - 1))
175     ONLY=${ONLY:-$*}
176
177     [ "$TESTSUITELOG" ] && rm -f $TESTSUITELOG || true
178     rm -f $TMP/*active
179
180 }
181
182 case `uname -r` in
183 2.4.*) EXT=".o"; USE_QUOTA=no; [ ! "$CLIENTONLY" ] && FSTYPE=ext3;;
184     *) EXT=".ko"; USE_QUOTA=yes;;
185 esac
186
187 load_module() {
188     EXT=".ko"
189     module=$1
190     shift
191     BASE=`basename $module $EXT`
192     lsmod | grep -q ${BASE} || \
193       if [ -f ${LUSTRE}/${module}${EXT} ]; then
194         insmod ${LUSTRE}/${module}${EXT} $@
195     else
196         # must be testing a "make install" or "rpm" installation
197         # note failed to load ptlrpc_gss is considered not fatal
198         if [ "$BASE" == "ptlrpc_gss" ]; then
199             modprobe $BASE $@ 2>/dev/null || echo "gss/krb5 is not supported"
200         else
201             modprobe $BASE $@
202         fi
203     fi
204 }
205
206 load_modules() {
207     if [ -n "$MODPROBE" ]; then
208         # use modprobe
209     return 0
210     fi
211     if [ "$HAVE_MODULES" = true ]; then
212     # we already loaded
213         return 0
214     fi
215     HAVE_MODULES=true
216
217     echo Loading modules from $LUSTRE
218     load_module ../libcfs/libcfs/libcfs
219     [ "$PTLDEBUG" ] && lctl set_param debug=$PTLDEBUG
220     [ "$SUBSYSTEM" ] && lctl set_param subsystem_debug=${SUBSYSTEM# }
221     [ -f /etc/modprobe.conf ] && MODPROBECONF=/etc/modprobe.conf
222     [ -f /etc/modprobe.d/Lustre ] && MODPROBECONF=/etc/modprobe.d/Lustre
223     [ -z "$LNETOPTS" -a -n "$MODPROBECONF" ] && \
224         LNETOPTS=$(awk '/^options lnet/ { print $0}' $MODPROBECONF | sed 's/^options lnet //g')
225     echo $LNETOPTS | grep -q "accept=all"  || LNETOPTS="$LNETOPTS accept=all";
226     echo "lnet options: '$LNETOPTS'"
227     # note that insmod will ignore anything in modprobe.conf
228     load_module ../lnet/lnet/lnet $LNETOPTS
229     LNETLND=${LNETLND:-"socklnd/ksocklnd"}
230     load_module ../lnet/klnds/$LNETLND
231     load_module lvfs/lvfs
232     load_module obdclass/obdclass
233     load_module ptlrpc/ptlrpc
234     load_module ptlrpc/gss/ptlrpc_gss
235     [ "$USE_QUOTA" = "yes" -a "$LQUOTA" != "no" ] && load_module quota/lquota
236     load_module fid/fid
237     load_module fld/fld
238     load_module lmv/lmv
239     load_module mdc/mdc
240     load_module osc/osc
241     load_module lov/lov
242     load_module mgc/mgc
243     if [ -z "$CLIENTONLY" ] && [ -z "$CLIENTMODSONLY" ]; then
244         grep -q crc16 /proc/kallsyms || { modprobe crc16 2>/dev/null || true; }
245         [ "$FSTYPE" = "ldiskfs" ] && load_module ../ldiskfs/ldiskfs/ldiskfs
246         load_module mgs/mgs
247         load_module mds/mds
248         load_module mdd/mdd
249         load_module mdt/mdt
250         load_module lvfs/fsfilt_$FSTYPE
251         load_module cmm/cmm
252         load_module osd/osd
253         load_module ost/ost
254         load_module obdfilter/obdfilter
255     fi
256
257     load_module llite/lustre
258     load_module llite/llite_lloop
259     OGDB=${OGDB:-$TMP}
260     rm -f $OGDB/ogdb-$HOSTNAME
261     [ -d /r ] && OGDB="/r/tmp"
262     $LCTL modules > $OGDB/ogdb-$HOSTNAME
263
264     # 'mount' doesn't look in $PATH, just sbin
265     [ -f $LUSTRE/utils/mount.lustre ] && cp $LUSTRE/utils/mount.lustre /sbin/. || true
266 }
267
268 RMMOD=rmmod
269 if [ `uname -r | cut -c 3` -eq 4 ]; then
270     RMMOD="modprobe -r"
271 fi
272
273 wait_for_lnet() {
274     local UNLOADED=0
275     local WAIT=0
276     local MAX=60
277     MODULES=$($LCTL modules | awk '{ print $2 }')
278     while [ -n "$MODULES" ]; do
279     sleep 5
280     $RMMOD $MODULES > /dev/null 2>&1 || true
281     MODULES=$($LCTL modules | awk '{ print $2 }')
282         if [ -z "$MODULES" ]; then
283         return 0
284         else
285             WAIT=$((WAIT + 5))
286             echo "waiting, $((MAX - WAIT)) secs left"
287         fi
288         if [ $WAIT -eq $MAX ]; then
289             echo "LNET modules $MODULES will not unload"
290         lsmod
291             return 3
292         fi
293     done
294 }
295
296 unload_dep_module() {
297     #lsmod output
298     #libcfs                107852  17 llite_lloop,lustre,obdfilter,ost,...
299     local MODULE=$1
300     local DEPS=$(lsmod | awk '($1 == "'$MODULE'") { print $4 }' | tr ',' ' ')
301     for SUBMOD in $DEPS; do
302         unload_dep_module $SUBMOD
303     done
304     [ "$MODULE" = "libcfs" ] && $LCTL dk $TMP/debug || true
305     $RMMOD $MODULE || true
306 }
307
308 check_mem_leak () {
309     LEAK_LUSTRE=$(dmesg | tail -n 30 | grep "obd_memory.*leaked" || true)
310     LEAK_PORTALS=$(dmesg | tail -n 20 | grep "Portals memory leaked" || true)
311     if [ "$LEAK_LUSTRE" -o "$LEAK_PORTALS" ]; then
312         echo "$LEAK_LUSTRE" 1>&2
313         echo "$LEAK_PORTALS" 1>&2
314         mv $TMP/debug $TMP/debug-leak.`date +%s` || true
315         log "Memory leaks detected"
316         [ -n "$IGNORE_LEAK" ] && { echo "ignoring leaks" && return 0; } || true
317         return 1
318     fi
319 }
320
321 unload_modules() {
322     wait_exit_ST client # bug 12845
323
324     lsmod | grep libcfs > /dev/null && $LCTL dl
325     unload_dep_module $FSTYPE
326     unload_dep_module libcfs
327
328     local MODULES=$($LCTL modules | awk '{ print $2 }')
329     if [ -n "$MODULES" ]; then
330         echo "Modules still loaded: "
331         echo $MODULES
332         if [ "$(lctl dl)" ]; then
333             echo "Lustre still loaded"
334             lctl dl || true
335             lsmod
336             return 2
337         else
338             echo "Lustre stopped but LNET is still loaded, waiting..."
339             wait_for_lnet || return 3
340         fi
341
342     fi
343     HAVE_MODULES=false
344
345     check_mem_leak || return 254
346
347     echo "modules unloaded."
348     return 0
349 }
350
351 check_gss_daemon_facet() {
352     facet=$1
353     dname=$2
354
355     num=`do_facet $facet ps -o cmd -C $dname | grep $dname | wc -l`
356     if [ $num -ne 1 ]; then
357         echo "$num instance of $dname on $facet"
358         return 1
359     fi
360     return 0
361 }
362
363 send_sigint() {
364     local facet=$1
365     shift
366     do_facet $facet "killall -2 $@ 2>/dev/null || true"
367 }
368
369 start_gss_daemons() {
370     # starting on MDT
371     for num in `seq $MDSCOUNT`; do
372         do_facet mds$num "$LSVCGSSD -v"
373         if $GSS_PIPEFS; then
374             do_facet mds$num "$LGSSD -v"
375         fi
376     done
377     # starting on OSTs
378     for num in `seq $OSTCOUNT`; do
379         do_facet ost$num "$LSVCGSSD -v"
380     done
381     # starting on client
382     # FIXME: is "client" the right facet name?
383     if $GSS_PIPEFS; then
384         do_facet client "$LGSSD -v"
385     fi
386
387     # wait daemons entering "stable" status
388     sleep 5
389
390     #
391     # check daemons are running
392     #
393     for num in `seq $MDSCOUNT`; do
394         check_gss_daemon_facet mds$num lsvcgssd
395         if $GSS_PIPEFS; then
396             check_gss_daemon_facet mds$num lgssd
397         fi
398     done
399     for num in `seq $OSTCOUNT`; do
400         check_gss_daemon_facet ost$num lsvcgssd
401     done
402     if $GSS_PIPEFS; then
403         check_gss_daemon_facet client lgssd
404     fi
405 }
406
407 stop_gss_daemons() {
408     for num in `seq $MDSCOUNT`; do
409         send_sigint mds$num lsvcgssd lgssd
410     done
411     for num in `seq $OSTCOUNT`; do
412         send_sigint ost$num lsvcgssd
413     done
414     send_sigint client lgssd
415 }
416
417 init_gss() {
418     if $GSS; then
419         start_gss_daemons
420     fi
421 }
422
423 cleanup_gss() {
424     if $GSS; then
425         stop_gss_daemons
426         # maybe cleanup credential cache?
427     fi
428 }
429
430 mdsdevlabel() {
431     local num=$1
432     local device=`mdsdevname $num`
433     local label=`do_facet mds$num "e2label ${device}" | grep -v "CMD: "`
434     echo -n $label
435 }
436
437 ostdevlabel() {
438     local num=$1
439     local device=`ostdevname $num`
440     local label=`do_facet ost$num "e2label ${device}" | grep -v "CMD: "`
441     echo -n $label
442 }
443
444 # Facet functions
445 mount_facet() {
446     local facet=$1
447     shift
448     local dev=${facet}_dev
449     local opt=${facet}_opt
450     echo "Starting ${facet}: ${!opt} $@ ${!dev} ${MOUNT%/*}/${facet}"
451     do_facet ${facet} mount -t lustre ${!opt} $@ ${!dev} ${MOUNT%/*}/${facet}
452     RC=${PIPESTATUS[0]}
453     if [ $RC -ne 0 ]; then
454         echo "mount -t lustre $@ ${!dev} ${MOUNT%/*}/${facet}"
455         echo "Start of ${!dev} on ${facet} failed ${RC}"
456     else
457         do_facet ${facet} "lctl set_param debug=$PTLDEBUG; \
458             lctl set_param subsystem_debug=${SUBSYSTEM# }; \
459             lctl set_param debug_mb=${DEBUG_SIZE}; \
460             sync"
461
462         label=$(do_facet ${facet} "e2label ${!dev}")
463         [ -z "$label" ] && echo no label for ${!dev} && exit 1
464         eval export ${facet}_svc=${label}
465         echo Started ${label}
466     fi
467     return $RC
468 }
469
470 # start facet device options
471 start() {
472     local facet=$1
473     shift
474     local device=$1
475     shift
476     eval export ${facet}_dev=${device}
477     eval export ${facet}_opt=\"$@\"
478     do_facet ${facet} mkdir -p ${MOUNT%/*}/${facet}
479     mount_facet ${facet}
480     RC=$?
481     return $RC
482 }
483
484 stop() {
485     local running
486     local facet=$1
487     shift
488     HOST=`facet_active_host $facet`
489     [ -z $HOST ] && echo stop: no host for $facet && return 0
490
491     running=$(do_facet ${facet} "grep -c ${MOUNT%/*}/${facet}' ' /proc/mounts") || true
492     if [ ${running} -ne 0 ]; then
493         echo "Stopping ${MOUNT%/*}/${facet} (opts:$@)"
494         do_facet ${facet} umount -d $@ ${MOUNT%/*}/${facet}
495     fi
496
497     # umount should block, but we should wait for unrelated obd's
498     # like the MGS or MGC to also stop.
499     wait_exit_ST ${facet}
500 }
501
502 zconf_mount() {
503     local OPTIONS
504     local client=$1
505     local mnt=$2
506     # Only supply -o to mount if we have options
507     if [ -n "$MOUNTOPT" ]; then
508         OPTIONS="-o $MOUNTOPT"
509     fi
510     local device=$MGSNID:/$FSNAME
511     if [ -z "$mnt" -o -z "$FSNAME" ]; then
512         echo Bad zconf mount command: opt=$OPTIONS dev=$device mnt=$mnt
513         exit 1
514     fi
515
516     echo "Starting client: $client: $OPTIONS $device $mnt"
517     do_node $client mkdir -p $mnt
518     do_node $client mount -t lustre $OPTIONS $device $mnt || return 1
519
520     do_node $client "lctl set_param debug=$PTLDEBUG;
521         lctl set_param subsystem_debug=${SUBSYSTEM# };
522         lctl set_param debug_mb=${DEBUG_SIZE}"
523
524     return 0
525 }
526
527 zconf_umount() {
528     local client=$1
529     local mnt=$2
530     [ "$3" ] && force=-f
531     local running=$(do_node $client "grep -c $mnt' ' /proc/mounts") || true
532     if [ $running -ne 0 ]; then
533         echo "Stopping client $client $mnt (opts:$force)"
534         lsof | grep "$mnt" || true
535         do_node $client umount $force $mnt
536     fi
537 }
538
539 # mount clients if not mouted
540 zconf_mount_clients() {
541     local OPTIONS
542     local clients=$1
543     local mnt=$2
544
545
546     # Only supply -o to mount if we have options
547     if [ -n "$MOUNTOPT" ]; then
548         OPTIONS="-o $MOUNTOPT"
549     fi
550     local device=$MGSNID:/$FSNAME
551     if [ -z "$mnt" -o -z "$FSNAME" ]; then
552         echo Bad zconf mount command: opt=$OPTIONS dev=$device mnt=$mnt
553         exit 1
554     fi
555
556     echo "Starting client $clients: $OPTIONS $device $mnt"
557     do_nodes $clients "mount | grep $mnt || { mkdir -p $mnt && mount -t lustre $OPTIONS $device $mnt || false; }"
558
559     echo "Started clients $clients: "
560     do_nodes $clients "mount | grep $mnt"
561
562     do_nodes $clients "lctl set_param debug=$PTLDEBUG;
563         lctl set_param subsystem_debug=${SUBSYSTEM# };
564         lctl set_param debug_mb=${DEBUG_SIZE};"
565
566     return 0
567 }
568
569 zconf_umount_clients() {
570     local clients=$1
571     local mnt=$2
572     [ "$3" ] && force=-f
573
574     echo "Umounting clients: $clients"
575     echo "Stopping clients: $clients $mnt (opts:$force)"
576     do_nodes $clients umount $force $mnt
577 }
578
579 shutdown_facet() {
580     facet=$1
581     if [ "$FAILURE_MODE" = HARD ]; then
582         $POWER_DOWN `facet_active_host $facet`
583         sleep 2
584     elif [ "$FAILURE_MODE" = SOFT ]; then
585         stop $facet
586     fi
587 }
588
589 reboot_facet() {
590     facet=$1
591     if [ "$FAILURE_MODE" = HARD ]; then
592         $POWER_UP `facet_active_host $facet`
593     else
594         sleep 10
595     fi
596 }
597
598 boot_node() {
599     local node=$1
600     if [ "$FAILURE_MODE" = HARD ]; then
601        $POWER_UP $node
602     fi
603 }
604
605 # verify that lustre actually cleaned up properly
606 cleanup_check() {
607     [ -f $CATASTROPHE ] && [ `cat $CATASTROPHE` -ne 0 ] && \
608         error "LBUG/LASSERT detected"
609     BUSY=`dmesg | grep -i destruct || true`
610     if [ "$BUSY" ]; then
611         echo "$BUSY" 1>&2
612         [ -e $TMP/debug ] && mv $TMP/debug $TMP/debug-busy.`date +%s`
613         exit 205
614     fi
615
616     check_mem_leak || exit 204
617
618     [ "`lctl dl 2> /dev/null | wc -l`" -gt 0 ] && lctl dl && \
619         echo "$0: lustre didn't clean up..." 1>&2 && return 202 || true
620
621     if [ "`/sbin/lsmod 2>&1 | egrep 'lnet|libcfs'`" ]; then
622         echo "$0: modules still loaded..." 1>&2
623         /sbin/lsmod 1>&2
624         return 203
625     fi
626     return 0
627 }
628
629 wait_delete_completed () {
630     local TOTALPREV=`lctl get_param -n osc.*.kbytesavail | \
631                      awk 'BEGIN{total=0}; {total+=$1}; END{print total}'`
632
633     local WAIT=0
634     local MAX_WAIT=20
635     while [ "$WAIT" -ne "$MAX_WAIT" ]; do
636         sleep 1
637         TOTAL=`lctl get_param -n osc.*.kbytesavail | \
638                awk 'BEGIN{total=0}; {total+=$1}; END{print total}'`
639         [ "$TOTAL" -eq "$TOTALPREV" ] && break
640         echo "Waiting delete completed ... prev: $TOTALPREV current: $TOTAL "
641         TOTALPREV=$TOTAL
642         WAIT=$(( WAIT + 1))
643     done
644     echo "Delete completed."
645 }
646
647 wait_for_host() {
648     HOST=$1
649     check_network "$HOST" 900
650     while ! do_node $HOST "ls -d $LUSTRE " > /dev/null; do sleep 5; done
651 }
652
653 wait_for() {
654     facet=$1
655     HOST=`facet_active_host $facet`
656     wait_for_host $HOST
657 }
658
659 wait_mds_recovery_done () {
660     local timeout=`do_facet $SINGLEMDS lctl get_param  -n timeout`
661 #define OBD_RECOVERY_TIMEOUT (obd_timeout * 5 / 2)
662 # as we are in process of changing obd_timeout in different ways
663 # let's set MAX longer than that
664     MAX=$(( timeout * 4 ))
665     WAIT=0
666     while [ $WAIT -lt $MAX ]; do
667         STATUS=`do_facet $SINGLEMDS "lctl get_param -n mdt.*-MDT0000.recovery_status | grep status"`
668         echo $STATUS | grep COMPLETE && return 0
669         sleep 5
670         WAIT=$((WAIT + 5))
671         echo "Waiting $(($MAX - $WAIT)) secs for MDS recovery done"
672     done
673     echo "MDS recovery not done in $MAX sec"
674     return 1
675 }
676
677 wait_exit_ST () {
678     local facet=$1
679
680     local WAIT=0
681     local INTERVAL=1
682     # conf-sanity 31 takes a long time cleanup
683     while [ $WAIT -lt 300 ]; do
684         running=$(do_facet ${facet} "lsmod | grep lnet > /dev/null && lctl dl | grep ' ST '") || true
685         [ -z "${running}" ] && return 0
686         echo "waited $WAIT for${running}"
687         [ $INTERVAL -lt 64 ] && INTERVAL=$((INTERVAL + INTERVAL))
688         sleep $INTERVAL
689         WAIT=$((WAIT + INTERVAL))
690     done
691     echo "service didn't stop after $WAIT seconds.  Still running:"
692     echo ${running}
693     return 1
694 }
695
696 wait_remote_prog () {
697    local prog=$1
698    local WAIT=0
699    local INTERVAL=5
700    local rc=0
701
702    [ "$PDSH" = "no_dsh" ] && return 0
703
704    while [ $WAIT -lt $2 ]; do
705         running=$(ps uax | grep "$PDSH.*$prog.*$MOUNT" | grep -v grep) || true
706         [ -z "${running}" ] && return 0 || true
707         echo "waited $WAIT for: "
708         echo "$running"
709         [ $INTERVAL -lt 60 ] && INTERVAL=$((INTERVAL + INTERVAL))
710         sleep $INTERVAL
711         WAIT=$((WAIT + INTERVAL))
712     done
713     local pids=$(ps  uax | grep "$PDSH.*$prog.*$MOUNT" | grep -v grep | awk '{print $2}')
714     [ -z "$pids" ] && return 0
715     echo "$PDSH processes still exists after $WAIT seconds.  Still running: $pids"
716     for pid in $pids; do
717         cat /proc/${pid}/status || true
718         cat /proc/${pid}/wchan || true
719         echo "Killing $pid"
720         kill -9 $pid || true
721         sleep 1
722         ps -P $pid && rc=1
723     done
724
725     return $rc
726 }
727
728 client_df() {
729     # not every config has many clients
730     if [ ! -z "$CLIENTS" ]; then
731         $PDSH $CLIENTS "df $MOUNT" > /dev/null
732     else
733         df $MOUNT > /dev/null
734     fi
735 }
736
737 client_reconnect() {
738     uname -n >> $MOUNT/recon
739     if [ -z "$CLIENTS" ]; then
740         df $MOUNT; uname -n >> $MOUNT/recon
741     else
742         do_nodes $CLIENTS "df $MOUNT; uname -n >> $MOUNT/recon" > /dev/null
743     fi
744     echo Connected clients:
745     cat $MOUNT/recon
746     ls -l $MOUNT/recon > /dev/null
747     rm $MOUNT/recon
748 }
749
750 facet_failover() {
751     facet=$1
752     sleep_time=$2
753     echo "Failing $facet on node `facet_active_host $facet`"
754     shutdown_facet $facet
755     [ -n "$sleep_time" ] && sleep $sleep_time
756     reboot_facet $facet
757     client_df &
758     DFPID=$!
759     echo "df pid is $DFPID"
760     change_active $facet
761     TO=`facet_active_host $facet`
762     echo "Failover $facet to $TO"
763     wait_for $facet
764     mount_facet $facet || error "Restart of $facet failed"
765 }
766
767 obd_name() {
768     local facet=$1
769 }
770
771 replay_barrier() {
772     local facet=$1
773     do_facet $facet sync
774     df $MOUNT
775     local svc=${facet}_svc
776     do_facet $facet $LCTL --device %${!svc} readonly
777     do_facet $facet $LCTL --device %${!svc} notransno
778     do_facet $facet $LCTL mark "$facet REPLAY BARRIER on ${!svc}"
779     $LCTL mark "local REPLAY BARRIER on ${!svc}"
780 }
781
782 replay_barrier_nodf() {
783     local facet=$1    echo running=${running}
784     do_facet $facet sync
785     local svc=${facet}_svc
786     echo Replay barrier on ${!svc}
787     do_facet $facet $LCTL --device %${!svc} readonly
788     do_facet $facet $LCTL --device %${!svc} notransno
789     do_facet $facet $LCTL mark "$facet REPLAY BARRIER on ${!svc}"
790     $LCTL mark "local REPLAY BARRIER on ${!svc}"
791 }
792
793 replay_barrier_nosync() {
794     local facet=$1    echo running=${running}
795     local svc=${facet}_svc
796     echo Replay barrier on ${!svc}
797     do_facet $facet $LCTL --device %${!svc} readonly
798     do_facet $facet $LCTL --device %${!svc} notransno
799     do_facet $facet $LCTL mark "$facet REPLAY BARRIER on ${!svc}"
800     $LCTL mark "local REPLAY BARRIER on ${!svc}"
801 }
802
803 mds_evict_client() {
804     UUID=`lctl get_param -n mdc.${mds1_svc}-mdc-*.uuid`
805     do_facet mds1 "lctl set_param -n mdt.${mds1_svc}.evict_client $UUID"
806 }
807
808 ost_evict_client() {
809     UUID=`lctl get_param -n devices| grep ${ost1_svc}-osc- | egrep -v 'MDT' | awk '{print $5}'`
810     do_facet ost1 "lctl set_param -n obdfilter.${ost1_svc}.evict_client $UUID"
811 }
812
813 fail() {
814     facet_failover $* || error "failover: $?"
815     df $MOUNT || error "post-failover df: $?"
816 }
817
818 fail_nodf() {
819         local facet=$1
820         facet_failover $facet
821 }
822
823 fail_abort() {
824     local facet=$1
825     stop $facet
826     change_active $facet
827     mount_facet $facet -o abort_recovery
828     df $MOUNT || echo "first df failed: $?"
829     sleep 1
830     df $MOUNT || error "post-failover df: $?"
831 }
832
833 do_lmc() {
834     echo There is no lmc.  This is mountconf, baby.
835     exit 1
836 }
837
838 h2gm () {
839     if [ "$1" = "client" -o "$1" = "'*'" ]; then echo \'*\'; else
840         ID=`$PDSH $1 $GMNALNID -l | cut -d\  -f2`
841         echo $ID"@gm"
842     fi
843 }
844
845 h2name_or_ip() {
846     if [ "$1" = "client" -o "$1" = "'*'" ]; then echo \'*\'; else
847         echo $1"@$2"
848     fi
849 }
850
851 h2ptl() {
852    if [ "$1" = "client" -o "$1" = "'*'" ]; then echo \'*\'; else
853        ID=`xtprocadmin -n $1 2>/dev/null | egrep -v 'NID' | awk '{print $1}'`
854        if [ -z "$ID" ]; then
855            echo "Could not get a ptl id for $1..."
856            exit 1
857        fi
858        echo $ID"@ptl"
859    fi
860 }
861 declare -fx h2ptl
862
863 h2tcp() {
864     h2name_or_ip "$1" "tcp"
865 }
866 declare -fx h2tcp
867
868 h2elan() {
869     if [ "$1" = "client" -o "$1" = "'*'" ]; then echo \'*\'; else
870         if type __h2elan >/dev/null 2>&1; then
871             ID=$(__h2elan $1)
872         else
873             ID=`echo $1 | sed 's/[^0-9]*//g'`
874         fi
875         echo $ID"@elan"
876     fi
877 }
878 declare -fx h2elan
879
880 h2openib() {
881     h2name_or_ip "$1" "openib"
882 }
883 declare -fx h2openib
884
885 h2o2ib() {
886     h2name_or_ip "$1" "o2ib"
887 }
888 declare -fx h2o2ib
889
890 facet_host() {
891     local facet=$1
892     varname=${facet}_HOST
893     if [ -z "${!varname}" ]; then
894         if [ "${facet:0:3}" == "ost" ]; then
895             eval ${facet}_HOST=${ost_HOST}
896         fi
897     fi
898     echo -n ${!varname}
899 }
900
901 facet_active() {
902     local facet=$1
903     local activevar=${facet}active
904
905     if [ -f $TMP/${facet}active ] ; then
906         source $TMP/${facet}active
907     fi
908
909     active=${!activevar}
910     if [ -z "$active" ] ; then
911         echo -n ${facet}
912     else
913         echo -n ${active}
914     fi
915 }
916
917 facet_active_host() {
918     local facet=$1
919     local active=`facet_active $facet`
920     if [ "$facet" == client ]; then
921         echo $HOSTNAME
922     else
923         echo `facet_host $active`
924     fi
925 }
926
927 change_active() {
928     local facet=$1
929     failover=${facet}failover
930     host=`facet_host $failover`
931     [ -z "$host" ] && return
932     curactive=`facet_active $facet`
933     if [ -z "${curactive}" -o "$curactive" == "$failover" ] ; then
934         eval export ${facet}active=$facet
935     else
936         eval export ${facet}active=$failover
937     fi
938     # save the active host for this facet
939     activevar=${facet}active
940     echo "$activevar=${!activevar}" > $TMP/$activevar
941 }
942
943 do_node() {
944     HOST=$1
945     shift
946     local myPDSH=$PDSH
947     if [ "$HOST" = "$HOSTNAME" ]; then
948         myPDSH="no_dsh"
949     elif [ -z "$myPDSH" -o "$myPDSH" = "no_dsh" ]; then
950         echo "cannot run remote command on $HOST with $myPDSH"
951         return 128
952     fi
953     if $VERBOSE; then
954         echo "CMD: $HOST $@" >&2
955         $myPDSH $HOST $LCTL mark "$@" > /dev/null 2>&1 || :
956     fi
957
958     if [ "$myPDSH" = "rsh" ]; then
959 # we need this because rsh does not return exit code of an executed command
960         local command_status="$TMP/cs"
961         rsh $HOST ":> $command_status"
962         rsh $HOST "(PATH=\$PATH:$RLUSTRE/utils:$RLUSTRE/tests:/sbin:/usr/sbin;
963                     cd $RPWD; sh -c \"$@\") ||
964                     echo command failed >$command_status"
965         [ -n "$($myPDSH $HOST cat $command_status)" ] && return 1 || true
966         return 0
967     fi
968     $myPDSH $HOST "(PATH=\$PATH:$RLUSTRE/utils:$RLUSTRE/tests:/sbin:/usr/sbin; cd $RPWD; sh -c \"$@\")" | sed "s/^${HOST}: //"
969     return ${PIPESTATUS[0]}
970 }
971
972 single_local_node () {
973    [ "$1" = "$HOSTNAME" ]
974 }
975
976 do_nodes() {
977     local rnodes=$1
978     shift
979
980     if $(single_local_node $rnodes); then
981         do_node $rnodes $@
982         return $?
983     fi
984
985     # This is part from do_node
986     local myPDSH=$PDSH
987
988     [ -z "$myPDSH" -o "$myPDSH" = "no_dsh" -o "$myPDSH" = "rsh" ] && \
989         echo "cannot run remote command on $rnodes with $myPDSH" && return 128
990
991     if $VERBOSE; then
992         echo "CMD: $rnodes $@" >&2
993         $myPDSH $rnodes $LCTL mark "$@" > /dev/null 2>&1 || :
994     fi
995
996     $myPDSH $rnodes "(PATH=\$PATH:$RLUSTRE/utils:$RLUSTRE/tests:/sbin:/usr/sbin; cd $RPWD; sh -c \"$@\")" | sed -re "s/\w+:\s//g"
997     return ${PIPESTATUS[0]}
998 }
999
1000 do_facet() {
1001     facet=$1
1002     shift
1003     HOST=`facet_active_host $facet`
1004     [ -z $HOST ] && echo No host defined for facet ${facet} && exit 1
1005     do_node $HOST "$@"
1006 }
1007
1008 add() {
1009     local facet=$1
1010     shift
1011     # make sure its not already running
1012     stop ${facet} -f
1013     rm -f $TMP/${facet}active
1014     do_facet ${facet} $MKFS $*
1015 }
1016
1017 ostdevname() {
1018     num=$1
1019     DEVNAME=OSTDEV$num
1020     #if $OSTDEVn isn't defined, default is $OSTDEVBASE + num
1021     eval DEVPTR=${!DEVNAME:=${OSTDEVBASE}${num}}
1022     echo -n $DEVPTR
1023 }
1024
1025 mdsdevname() {
1026     num=$1
1027     DEVNAME=MDSDEV$num
1028     #if $MDSDEVn isn't defined, default is $MDSDEVBASE + num
1029     eval DEVPTR=${!DEVNAME:=${MDSDEVBASE}${num}}
1030     echo -n $DEVPTR
1031 }
1032
1033 ########
1034 ## MountConf setup
1035
1036 stopall() {
1037     # make sure we are using the primary server, so test-framework will
1038     # be able to clean up properly.
1039     activemds=`facet_active mds1`
1040     if [ $activemds != "mds1" ]; then
1041         fail mds1
1042     fi
1043
1044     # assume client mount is local
1045     grep " $MOUNT " /proc/mounts && zconf_umount $HOSTNAME $MOUNT $*
1046     grep " $MOUNT2 " /proc/mounts && zconf_umount $HOSTNAME $MOUNT2 $*
1047
1048     if [ -n "$CLIENTS" ]; then
1049             zconf_umount_clients $CLIENTS $MOUNT "$*" || true
1050             [ -n "$MOUNT2" ] && zconf_umount_clients $CLIENTS $MOUNT2 "$*" || true
1051     fi
1052
1053     [ "$CLIENTONLY" ] && return
1054     # The add fn does rm ${facet}active file, this would be enough
1055     # if we use do_facet <facet> only after the facet added, but
1056     # currently we use do_facet mds in local.sh
1057     for num in `seq $MDSCOUNT`; do
1058         stop mds$num -f
1059         rm -f ${TMP}/mds${num}active
1060     done
1061
1062     for num in `seq $OSTCOUNT`; do
1063         stop ost$num -f
1064         rm -f $TMP/ost${num}active
1065     done
1066
1067     return 0
1068 }
1069
1070 cleanupall() {
1071     stopall $*
1072     unload_modules
1073     cleanup_gss
1074 }
1075
1076 mdsmkfsopts()
1077 {
1078     local nr=$1
1079     test $nr = 1 && echo -n $MDS_MKFS_OPTS || echo -n $MDSn_MKFS_OPTS
1080 }
1081
1082 formatall() {
1083     [ "$FSTYPE" ] && FSTYPE_OPT="--backfstype $FSTYPE"
1084
1085     if [ ! -z $SEC ]; then
1086         MDS_MKFS_OPTS="$MDS_MKFS_OPTS --param srpc.flavor.default=$SEC"
1087         MDSn_MKFS_OPTS="$MDSn_MKFS_OPTS --param srpc.flavor.default=$SEC"
1088         OST_MKFS_OPTS="$OST_MKFS_OPTS --param srpc.flavor.default=$SEC"
1089     fi
1090
1091     stopall
1092     # We need ldiskfs here, may as well load them all
1093     load_modules
1094     [ "$CLIENTONLY" ] && return
1095     echo "Formatting mdts, osts"
1096     for num in `seq $MDSCOUNT`; do
1097         echo "Format mds$num: $(mdsdevname $num)"
1098         if $VERBOSE; then
1099             add mds$num `mdsmkfsopts $num` $FSTYPE_OPT --reformat `mdsdevname $num` || exit 9
1100         else
1101             add mds$num `mdsmkfsopts $num` $FSTYPE_OPT --reformat `mdsdevname $num` > /dev/null || exit 9
1102         fi
1103     done
1104
1105     for num in `seq $OSTCOUNT`; do
1106         echo "Format ost$num: $(ostdevname $num)"
1107         if $VERBOSE; then
1108             add ost$num $OST_MKFS_OPTS --reformat `ostdevname $num` || exit 10
1109         else
1110             add ost$num $OST_MKFS_OPTS --reformat `ostdevname $num` > /dev/null || exit 10
1111         fi
1112     done
1113 }
1114
1115 mount_client() {
1116     grep " $1 " /proc/mounts || zconf_mount $HOSTNAME $*
1117 }
1118
1119 umount_client() {
1120     grep " $1 " /proc/mounts && zconf_umount `hostname` $*
1121 }
1122
1123 # return value:
1124 # 0: success, the old identity set already.
1125 # 1: success, the old identity does not set.
1126 # 2: fail.
1127 switch_identity() {
1128     local num=$1
1129     local switch=$2
1130     local j=`expr $num - 1`
1131     local MDT="`(do_facet mds$num lctl get_param -N mdt.*MDT*$j 2>/dev/null | cut -d"." -f2 2>/dev/null) || true`"
1132
1133     if [ -z "$MDT" ]; then
1134         return 2
1135     fi
1136
1137     local old="`do_facet mds$num "lctl get_param -n mdt.$MDT.identity_upcall"`"
1138
1139     if $switch; then
1140         do_facet mds$num "lctl set_param -n mdt.$MDT.identity_upcall \"$L_GETIDENTITY\""
1141     else
1142         do_facet mds$num "lctl set_param -n mdt.$MDT.identity_upcall \"NONE\""
1143     fi
1144
1145     do_facet mds$num "lctl set_param -n mdt/$MDT/identity_flush \"-1\""
1146
1147     if [ $old = "NONE" ]; then
1148         return 1
1149     else
1150         return 0
1151     fi
1152 }
1153
1154 remount_client()
1155 {
1156         zconf_umount `hostname` $1 || error "umount failed"
1157         zconf_mount `hostname` $1 || error "mount failed"
1158 }
1159
1160 set_obd_timeout() {
1161     local facet=$1
1162     local timeout=$2
1163
1164     do_facet $facet lsmod | grep -q obdclass || \
1165         do_facet $facet "modprobe obdclass"
1166
1167     do_facet $facet "lctl set_param timeout=$timeout"
1168 }
1169
1170 writeconf_facet () {
1171     local facet=$1
1172     local dev=$2
1173
1174     do_facet $facet "$TUNEFS --writeconf $dev"
1175 }
1176
1177 writeconf_all () {
1178     for num in `seq $MDSCOUNT`; do
1179         DEVNAME=$(mdsdevname $num)
1180         writeconf_facet mds$num $DEVNAME
1181     done
1182
1183     for num in `seq $OSTCOUNT`; do
1184         DEVNAME=$(ostdevname $num)
1185         writeconf_facet ost$num $DEVNAME
1186     done
1187 }
1188
1189 setupall() {
1190     load_modules
1191     init_gss
1192     if [ -z "$CLIENTONLY" ]; then
1193         echo "Setup mdts, osts"
1194         echo $WRITECONF | grep -q "writeconf" && \
1195             writeconf_all
1196         for num in `seq $MDSCOUNT`; do
1197             DEVNAME=$(mdsdevname $num)
1198             set_obd_timeout mds$num $TIMEOUT
1199             start mds$num $DEVNAME $MDS_MOUNT_OPTS
1200
1201             # We started mds, now we should set failover variables properly.
1202             # Set mds${num}failover_HOST if it is not set (the default failnode).
1203             local varname=mds${num}failover_HOST
1204             if [ -z "${!varname}" ]; then
1205                 eval mds${num}failover_HOST=$(facet_host mds$num)
1206             fi
1207
1208             if [ $IDENTITY_UPCALL != "default" ]; then
1209                 switch_identity $num $IDENTITY_UPCALL
1210             fi
1211         done
1212         for num in `seq $OSTCOUNT`; do
1213             DEVNAME=$(ostdevname $num)
1214             set_obd_timeout ost$num $TIMEOUT
1215             start ost$num $DEVNAME $OST_MOUNT_OPTS
1216
1217             # We started ost$num, now we should set ost${num}failover variable properly.
1218             # Set ost${num}failover_HOST if it is not set (the default failnode).
1219             varname=ost${num}failover_HOST
1220             if [ -z "${!varname}" ]; then
1221                 eval ost${num}failover_HOST=$(facet_host ost${num})
1222             fi
1223
1224         done
1225     fi
1226     [ "$DAEMONFILE" ] && $LCTL debug_daemon start $DAEMONFILE $DAEMONSIZE
1227     mount_client $MOUNT
1228     [ -n "$CLIENTS" ] && zconf_mount_clients $CLIENTS $MOUNT
1229
1230     if [ "$MOUNT_2" ]; then
1231         mount_client $MOUNT2
1232         [ -n "$CLIENTS" ] && zconf_mount_clients $CLIENTS $MOUNT2
1233     fi
1234
1235     # by remounting mdt before ost, initial connect from mdt to ost might
1236     # timeout because ost is not ready yet. wait some time to its fully
1237     # recovery. initial obd_connect timeout is 5s; in GSS case it's preceeded
1238     # by a context negotiation rpc with $TIMEOUT.
1239     # FIXME better by monitoring import status.
1240     if $GSS; then
1241         sleep $((TIMEOUT + 5))
1242     else
1243         sleep 5
1244     fi
1245 }
1246
1247 mounted_lustre_filesystems() {
1248         awk '($3 ~ "lustre" && $1 ~ ":") { print $2 }' /proc/mounts
1249 }
1250
1251 init_facet_vars () {
1252     local facet=$1
1253     shift
1254     local device=$1
1255
1256     shift
1257
1258     eval export ${facet}_dev=${device}
1259     eval export ${facet}_opt=\"$@\"
1260
1261     local dev=${facet}_dev
1262     local label=$(do_facet ${facet} "e2label ${!dev}")
1263     [ -z "$label" ] && echo no label for ${!dev} && exit 1
1264
1265     eval export ${facet}_svc=${label}
1266
1267     local varname=${facet}failover_HOST
1268     if [ -z "${!varname}" ]; then
1269        eval $varname=$(facet_host $facet) 
1270     fi
1271 }
1272
1273 init_facets_vars () {
1274     local DEVNAME
1275
1276     for num in `seq $MDSCOUNT`; do
1277         DEVNAME=`mdsdevname $num`
1278         init_facet_vars mds$num $DEVNAME $MDS_MOUNT_OPTS
1279     done
1280
1281     for num in `seq $OSTCOUNT`; do
1282         DEVNAME=`ostdevname $num`
1283         init_facet_vars ost$num $DEVNAME $OST_MOUNT_OPTS
1284     done
1285 }
1286
1287 check_config () {
1288     local mntpt=$1
1289     
1290     echo Checking config lustre mounted on $mntpt
1291     local mgshost=$(mount | grep " $mntpt " | awk -F@ '{print $1}')
1292     if [ "$mgshost" != "$mgs_HOST" ]; then
1293         FAIL_ON_ERROR=true \
1294             error "Bad config file: lustre is mounted with mgs $mgshost, but mgs_HOST=$mgs_HOST
1295                    Please use correct config or set mds_HOST correctly!"
1296     fi
1297 }
1298
1299 check_and_setup_lustre() {
1300     local MOUNTED=$(mounted_lustre_filesystems)
1301     if [ -z "$MOUNTED" ] || ! $(echo $MOUNTED | grep -w -q $MOUNT); then
1302         [ "$REFORMAT" ] && formatall
1303         setupall
1304         MOUNTED=$(mounted_lustre_filesystems | head -1)
1305         [ -z "$MOUNTED" ] && error "NAME=$NAME not mounted"
1306         export I_MOUNTED=yes
1307     else
1308         check_config $MOUNT
1309         init_facets_vars
1310     fi
1311     if [ "$ONLY" == "setup" ]; then
1312         exit 0
1313     fi
1314 }
1315
1316 cleanup_and_setup_lustre() {
1317     if [ "$ONLY" == "cleanup" -o "`mount | grep $MOUNT`" ]; then
1318         lctl set_param debug=0 || true
1319         cleanupall
1320         if [ "$ONLY" == "cleanup" ]; then
1321             exit 0
1322         fi
1323     fi
1324     check_and_setup_lustre
1325 }
1326
1327 check_and_cleanup_lustre() {
1328     if [ "`mount | grep $MOUNT`" ]; then
1329         [ -n "$DIR" ] && rm -rf $DIR/[Rdfs][0-9]*
1330     fi
1331     if [ "$I_MOUNTED" = "yes" ]; then
1332         cleanupall -f || error "cleanup failed"
1333     fi
1334     unset I_MOUNTED
1335 }
1336
1337 #######
1338 # General functions
1339
1340 check_network() {
1341     local NETWORK=0
1342     local WAIT=0
1343     local MAX=$2
1344     while [ $NETWORK -eq 0 ]; do
1345         ping -c 1 -w 3 $1 > /dev/null
1346         if [ $? -eq 0 ]; then
1347             NETWORK=1
1348         else
1349             WAIT=$((WAIT + 5))
1350             echo "waiting for $1, $((MAX - WAIT)) secs left"
1351             sleep 5
1352         fi
1353         if [ $WAIT -gt $MAX ]; then
1354             echo "Network not available"
1355             exit 1
1356         fi
1357     done
1358 }
1359 check_port() {
1360     while( !($DSH2 $1 "netstat -tna | grep -q $2") ) ; do
1361         sleep 9
1362     done
1363 }
1364
1365 no_dsh() {
1366     shift
1367     eval $@
1368 }
1369
1370 comma_list() {
1371     # the sed converts spaces to commas, but leaves the last space
1372     # alone, so the line doesn't end with a comma.
1373     echo "$*" | tr -s " " "\n" | sort -b -u | tr "\n" " " | sed 's/ \([^$]\)/,\1/g'
1374 }
1375
1376 absolute_path() {
1377     (cd `dirname $1`; echo $PWD/`basename $1`)
1378 }
1379
1380 ##################################
1381 # Adaptive Timeouts funcs
1382
1383 at_is_valid() {
1384     if [ -z "$AT_MAX_PATH" ]; then
1385         AT_MAX_PATH=$(do_facet $SINGLEMDS "find /sys/ -name at_max")
1386         [ -z "$AT_MAX_PATH" ] && echo "missing /sys/.../at_max " && return 1
1387     fi
1388     return 0
1389 }
1390
1391 at_is_enabled() {
1392     at_is_valid || error "invalid call"
1393
1394     # only check mds, we assume at_max is the same on all nodes
1395     local at_max=$(do_facet $SINGLEMDS "cat $AT_MAX_PATH")
1396     if [ $at_max -eq 0 ]; then
1397         return 1
1398     else
1399         return 0
1400     fi
1401 }
1402
1403 at_max_get() {
1404     local facet=$1
1405
1406     at_is_valid || error "invalid call"
1407
1408     # suppose that all ost-s has the same at_max set
1409     if [ $facet == "ost" ]; then
1410         do_facet ost1 "cat $AT_MAX_PATH"
1411     else
1412         do_facet $facet "cat $AT_MAX_PATH"
1413     fi
1414 }
1415
1416 at_max_set() {
1417     local at_max=$1
1418     shift
1419
1420     at_is_valid || error "invalid call"
1421
1422     local facet
1423     for facet in $@; do
1424         if [ $facet == "ost" ]; then
1425             for i in `seq $OSTCOUNT`; do
1426                 do_facet ost$i "echo $at_max > $AT_MAX_PATH"
1427             done
1428         elif [ $facet == "mds" ]; then
1429             for i in `seq $MDSCOUNT`; do
1430                 do_facet mds$i "echo $at_max > $AT_MAX_PATH"
1431             done
1432         else
1433             do_facet $facet "echo $at_max > $AT_MAX_PATH"
1434         fi
1435     done
1436 }
1437
1438 ##################################
1439 # OBD_FAIL funcs
1440
1441 drop_request() {
1442 # OBD_FAIL_MDS_ALL_REQUEST_NET
1443     RC=0
1444     do_facet $SINGLEMDS lctl set_param fail_loc=0x123
1445     do_facet client "$1" || RC=$?
1446     do_facet $SINGLEMDS lctl set_param fail_loc=0
1447     return $RC
1448 }
1449
1450 drop_reply() {
1451 # OBD_FAIL_MDS_ALL_REPLY_NET
1452     RC=0
1453     do_facet $SINGLEMDS lctl set_param fail_loc=0x122
1454     do_facet client "$@" || RC=$?
1455     do_facet $SINGLEMDS lctl set_param fail_loc=0
1456     return $RC
1457 }
1458
1459 drop_reint_reply() {
1460 # OBD_FAIL_MDS_REINT_NET_REP
1461     RC=0
1462     do_facet $SINGLEMDS lctl set_param fail_loc=0x119
1463     do_facet client "$@" || RC=$?
1464     do_facet $SINGLEMDS lctl set_param fail_loc=0
1465     return $RC
1466 }
1467
1468 pause_bulk() {
1469 #define OBD_FAIL_OST_BRW_PAUSE_BULK      0x214
1470     RC=0
1471     do_facet ost1 lctl set_param fail_loc=0x214
1472     do_facet client "$1" || RC=$?
1473     do_facet client "sync"
1474     do_facet ost1 lctl set_param fail_loc=0
1475     return $RC
1476 }
1477
1478 drop_ldlm_cancel() {
1479 #define OBD_FAIL_LDLM_CANCEL             0x304
1480     RC=0
1481     do_facet client lctl set_param fail_loc=0x304
1482     do_facet client "$@" || RC=$?
1483     do_facet client lctl set_param fail_loc=0
1484     return $RC
1485 }
1486
1487 drop_bl_callback() {
1488 #define OBD_FAIL_LDLM_BL_CALLBACK        0x305
1489     RC=0
1490     do_facet client lctl set_param fail_loc=0x305
1491     do_facet client "$@" || RC=$?
1492     do_facet client lctl set_param fail_loc=0
1493     return $RC
1494 }
1495
1496 drop_ldlm_reply() {
1497 #define OBD_FAIL_LDLM_REPLY              0x30c
1498     RC=0
1499     do_facet $SINGLEMDS lctl set_param fail_loc=0x30c
1500     do_facet client "$@" || RC=$?
1501     do_facet $SINGLEMDS lctl set_param fail_loc=0
1502     return $RC
1503 }
1504
1505 clear_failloc() {
1506     facet=$1
1507     pause=$2
1508     sleep $pause
1509     echo "clearing fail_loc on $facet"
1510     do_facet $facet "lctl set_param fail_loc=0 2>/dev/null || true"
1511 }
1512
1513 set_nodes_failloc () {
1514     local nodes=$1
1515     local node
1516
1517     for node in $nodes ; do
1518         do_node $node lctl set_param fail_loc=$2
1519     done
1520 }
1521
1522 cancel_lru_locks() {
1523     $LCTL mark "cancel_lru_locks $1 start"
1524     for d in `lctl get_param -N ldlm.namespaces.*.lru_size | egrep -i $1`; do
1525         $LCTL set_param -n $d=clear
1526     done
1527     $LCTL get_param ldlm.namespaces.*.lock_unused_count | egrep -i $1 | grep -v '=0'
1528     $LCTL mark "cancel_lru_locks $1 stop"
1529 }
1530
1531 default_lru_size()
1532 {
1533         NR_CPU=$(grep -c "processor" /proc/cpuinfo)
1534         DEFAULT_LRU_SIZE=$((100 * NR_CPU))
1535         echo "$DEFAULT_LRU_SIZE"
1536 }
1537
1538 lru_resize_enable()
1539 {
1540     lctl set_param ldlm.namespaces.*$1*.lru_size=0
1541 }
1542
1543 lru_resize_disable()
1544 {
1545     lctl set_param ldlm.namespaces.*$1*.lru_size $(default_lru_size)
1546 }
1547
1548 pgcache_empty() {
1549     local FILE
1550     for FILE in `lctl get_param -N "llite.*.dump_page_cache"`; do
1551         if [ `lctl get_param -n $FILE | wc -l` -gt 1 ]; then
1552             echo there is still data in page cache $FILE ?
1553             lctl get_param -n $FILE
1554             return 1
1555         fi
1556     done
1557     return 0
1558 }
1559
1560 debugsave() {
1561     DEBUGSAVE="$(lctl get_param -n debug)"
1562 }
1563
1564 debugrestore() {
1565     [ -n "$DEBUGSAVE" ] && lctl set_param debug="${DEBUGSAVE}"
1566     DEBUGSAVE=""
1567 }
1568
1569 ##################################
1570 # Test interface
1571 ##################################
1572
1573 error_noexit() {
1574     local TYPE=${TYPE:-"FAIL"}
1575     local ERRLOG
1576     lctl set_param fail_loc=0 2>/dev/null || true
1577     log " ${TESTSUITE} ${TESTNAME}: @@@@@@ ${TYPE}: $@ "
1578     ERRLOG=$TMP/lustre_${TESTSUITE}_${TESTNAME}.$(date +%s)
1579     echo "Dumping lctl log to $ERRLOG"
1580     # We need to dump the logs on all nodes
1581     local NODES=$(nodes_list)
1582     for NODE in $NODES; do
1583         do_node $NODE $LCTL dk $ERRLOG
1584     done
1585     debugrestore
1586     [ "$TESTSUITELOG" ] && echo "$0: ${TYPE}: $TESTNAME $@" >> $TESTSUITELOG
1587 }
1588
1589 error() {
1590     error_noexit "$@"
1591     $FAIL_ON_ERROR && exit 1 || true
1592 }
1593
1594 error_exit() {
1595     error_noexit "$@"
1596     exit 1
1597 }
1598
1599 # use only if we are ignoring failures for this test, bugno required.
1600 # (like ALWAYS_EXCEPT, but run the test and ignore the results.)
1601 # e.g. error_ignore 5494 "your message"
1602 error_ignore() {
1603     local TYPE="IGNORE (bz$1)"
1604     shift
1605     error_noexit "$@"
1606 }
1607
1608 skip () {
1609         log " SKIP: ${TESTSUITE} ${TESTNAME} $@"
1610         [ "$TESTSUITELOG" ] && \
1611                 echo "${TESTSUITE}: SKIP: $TESTNAME $@" >> $TESTSUITELOG || true
1612 }
1613
1614 build_test_filter() {
1615     [ "$ONLY" ] && log "only running test `echo $ONLY`"
1616     for O in $ONLY; do
1617         eval ONLY_${O}=true
1618     done
1619     [ "$EXCEPT$ALWAYS_EXCEPT" ] && \
1620         log "excepting tests: `echo $EXCEPT $ALWAYS_EXCEPT`"
1621     [ "$EXCEPT_SLOW" ] && \
1622         log "skipping tests SLOW=no: `echo $EXCEPT_SLOW`"
1623     for E in $EXCEPT $ALWAYS_EXCEPT; do
1624         eval EXCEPT_${E}=true
1625     done
1626     for E in $EXCEPT_SLOW; do
1627         eval EXCEPT_SLOW_${E}=true
1628     done
1629     for G in $GRANT_CHECK_LIST; do
1630         eval GCHECK_ONLY_${G}=true
1631         done
1632 }
1633
1634 _basetest() {
1635     echo $*
1636 }
1637
1638 basetest() {
1639     IFS=abcdefghijklmnopqrstuvwxyz _basetest $1
1640 }
1641
1642 # print a newline if the last test was skipped
1643 export LAST_SKIPPED=
1644 run_test() {
1645     assert_DIR
1646
1647     export base=`basetest $1`
1648     if [ ! -z "$ONLY" ]; then
1649         testname=ONLY_$1
1650         if [ ${!testname}x != x ]; then
1651             [ "$LAST_SKIPPED" ] && echo "" && LAST_SKIPPED=
1652             run_one $1 "$2"
1653             return $?
1654         fi
1655         testname=ONLY_$base
1656         if [ ${!testname}x != x ]; then
1657             [ "$LAST_SKIPPED" ] && echo "" && LAST_SKIPPED=
1658             run_one $1 "$2"
1659             return $?
1660         fi
1661         LAST_SKIPPED="y"
1662         echo -n "."
1663         return 0
1664     fi
1665     testname=EXCEPT_$1
1666     if [ ${!testname}x != x ]; then
1667         LAST_SKIPPED="y"
1668         TESTNAME=test_$1 skip "skipping excluded test $1"
1669         return 0
1670     fi
1671     testname=EXCEPT_$base
1672     if [ ${!testname}x != x ]; then
1673         LAST_SKIPPED="y"
1674         TESTNAME=test_$1 skip "skipping excluded test $1 (base $base)"
1675         return 0
1676     fi
1677     testname=EXCEPT_SLOW_$1
1678     if [ ${!testname}x != x ]; then
1679         LAST_SKIPPED="y"
1680         TESTNAME=test_$1 skip "skipping SLOW test $1"
1681         return 0
1682     fi
1683     testname=EXCEPT_SLOW_$base
1684     if [ ${!testname}x != x ]; then
1685         LAST_SKIPPED="y"
1686         TESTNAME=test_$1 skip "skipping SLOW test $1 (base $base)"
1687         return 0
1688     fi
1689
1690     LAST_SKIPPED=
1691     run_one $1 "$2"
1692
1693     return $?
1694 }
1695
1696 EQUALS="======================================================================"
1697 equals_msg() {
1698     msg="$@"
1699
1700     local suffixlen=$((${#EQUALS} - ${#msg}))
1701     [ $suffixlen -lt 5 ] && suffixlen=5
1702     log `echo $(printf '===== %s %.*s\n' "$msg" $suffixlen $EQUALS)`
1703 }
1704
1705 log() {
1706     echo "$*"
1707     lsmod | grep lnet > /dev/null || load_modules
1708
1709     local MSG="$*"
1710     # Get rif of '
1711     MSG=${MSG//\'/\\\'}
1712     MSG=${MSG//\(/\\\(}
1713     MSG=${MSG//\)/\\\)}
1714     MSG=${MSG//\;/\\\;}
1715     MSG=${MSG//\|/\\\|}
1716     MSG=${MSG//\>/\\\>}
1717     MSG=${MSG//\</\\\<}
1718     MSG=${MSG//\//\\\/}
1719     local NODES=$(nodes_list)
1720     for NODE in $NODES; do
1721         do_node $NODE $LCTL mark "$MSG" 2> /dev/null || true
1722     done
1723 }
1724
1725 trace() {
1726         log "STARTING: $*"
1727         strace -o $TMP/$1.strace -ttt $*
1728         RC=$?
1729         log "FINISHED: $*: rc $RC"
1730         return 1
1731 }
1732
1733 pass() {
1734     echo PASS $@
1735 }
1736
1737 check_mds() {
1738     FFREE=$(do_node $SINGLEMDS lctl get_param -n osd.*MDT*.filesfree | awk 'BEGIN{avail=0}; {avail+=$1}; END{print avail}')
1739     FTOTAL=$(do_node $SINGLEMDS lctl get_param -n osd.*MDT*.filestotal | awk 'BEGIN{avail=0}; {avail+=$1}; END{print avail}')
1740     [ $FFREE -ge $FTOTAL ] && error "files free $FFREE > total $FTOTAL" || true
1741 }
1742
1743 reset_fail_loc () {
1744     local myNODES=$(nodes_list)
1745     local NODE
1746
1747     for NODE in $myNODES; do
1748         do_node $NODE "lctl set_param fail_loc=0 2>/dev/null || true"
1749     done
1750 }
1751
1752 run_one() {
1753     testnum=$1
1754     message=$2
1755     tfile=f${testnum}
1756     export tdir=d0.${TESTSUITE}/d${base}
1757     local SAVE_UMASK=`umask`
1758     umask 0022
1759
1760     BEFORE=`date +%s`
1761     log "== test $testnum: $message ============ `date +%H:%M:%S` ($BEFORE)"
1762     #check_mds
1763     export TESTNAME=test_$testnum
1764     test_${testnum} || error "test_$testnum failed with $?"
1765     #check_mds
1766     cd $SAVE_PWD
1767     reset_fail_loc
1768     check_grant ${testnum} || error "check_grant $testnum failed with $?"
1769     check_catastrophe || error "LBUG/LASSERT detected"
1770     ps auxww | grep -v grep | grep -q multiop && error "multiop still running"
1771     pass "($((`date +%s` - $BEFORE))s)"
1772     unset TESTNAME
1773     unset tdir
1774     umask $SAVE_UMASK
1775 }
1776
1777 canonical_path() {
1778     (cd `dirname $1`; echo $PWD/`basename $1`)
1779 }
1780
1781 sync_clients() {
1782     [ -d $DIR1 ] && cd $DIR1 && sync; sleep 1; sync
1783     [ -d $DIR2 ] && cd $DIR2 && sync; sleep 1; sync
1784         cd $SAVE_PWD
1785 }
1786
1787 check_grant() {
1788     export base=`basetest $1`
1789     [ "$CHECK_GRANT" == "no" ] && return 0
1790
1791         testname=GCHECK_ONLY_${base}
1792         [ ${!testname}x == x ] && return 0
1793
1794     echo -n "checking grant......"
1795         cd $SAVE_PWD
1796         # write some data to sync client lost_grant
1797         rm -f $DIR1/${tfile}_check_grant_* 2>&1
1798         for i in `seq $OSTCOUNT`; do
1799                 $LFS setstripe $DIR1/${tfile}_check_grant_$i -i $(($i -1)) -c 1
1800                 dd if=/dev/zero of=$DIR1/${tfile}_check_grant_$i bs=4k \
1801                                               count=1 > /dev/null 2>&1
1802         done
1803         # sync all the data and make sure no pending data on server
1804         sync_clients
1805         
1806         #get client grant and server grant
1807         client_grant=0
1808     for d in `lctl get_param -n osc.*.cur_grant_bytes`; do
1809                 client_grant=$((client_grant + $d))
1810         done
1811         server_grant=0
1812         for d in `lctl get_param -n obdfilter.*.tot_granted`; do
1813                 server_grant=$((server_grant + $d))
1814         done
1815
1816         # cleanup the check_grant file
1817         for i in `seq $OSTCOUNT`; do
1818                 rm $DIR1/${tfile}_check_grant_$i
1819         done
1820
1821         #check whether client grant == server grant
1822         if [ $client_grant != $server_grant ]; then
1823                 echo "failed: client:${client_grant} server: ${server_grant}"
1824                 return 1
1825         else
1826                 echo "pass"
1827         fi
1828 }
1829
1830 ########################
1831 # helper functions
1832
1833 osc_to_ost()
1834 {
1835     osc=$1
1836     ost=`echo $1 | awk -F_ '{print $3}'`
1837     if [ -z $ost ]; then
1838         ost=`echo $1 | sed 's/-osc.*//'`
1839     fi
1840     echo $ost
1841 }
1842
1843 remote_node () {
1844     local node=$1
1845     [ "$node" != "$(hostname)" ]
1846 }
1847
1848 remote_mds ()
1849 {
1850     local node
1851     for node in $(mdts_nodes); do
1852         remote_node $node && return 0
1853     done
1854     return 1
1855 }
1856
1857 remote_mds_nodsh()
1858 {
1859     remote_mds && [ "$PDSH" = "no_dsh" -o -z "$PDSH" -o -z "$mds_HOST" ]
1860 }
1861
1862 remote_ost ()
1863 {
1864     local node
1865     for node in $(osts_nodes) ; do
1866         remote_node $node && return 0
1867     done
1868     return 1
1869 }
1870
1871 remote_ost_nodsh()
1872 {
1873     remote_ost && [ "$PDSH" = "no_dsh" -o -z "$PDSH" -o -z "$ost_HOST" ]
1874 }
1875
1876 mdts_nodes () {
1877     local MDSNODES
1878     local NODES_sort
1879     for num in `seq $MDSCOUNT`; do
1880         MDSNODES="$MDSNODES $(facet_host mds$num)"
1881     done
1882     NODES_sort=$(for i in $MDSNODES; do echo $i; done | sort -u)
1883
1884     echo $NODES_sort
1885 }
1886
1887 remote_servers () {
1888     remote_ost && remote_mds
1889 }
1890
1891 osts_nodes () {
1892     local OSTNODES=$(facet_host ost1)
1893     local NODES_sort
1894
1895     for num in `seq $OSTCOUNT`; do
1896         local myOST=$(facet_host ost$num)
1897         OSTNODES="$OSTNODES $myOST"
1898     done
1899     NODES_sort=$(for i in $OSTNODES; do echo $i; done | sort -u)
1900
1901     echo $NODES_sort
1902 }
1903
1904 nodes_list () {
1905     # FIXME. We need a list of clients
1906     local myNODES=$HOSTNAME
1907     local myNODES_sort
1908
1909     # CLIENTS (if specified) contains the local client
1910     [ -n "$CLIENTS" ] && myNODES=${CLIENTS//,/ }
1911
1912     if [ "$PDSH" -a "$PDSH" != "no_dsh" ]; then
1913         myNODES="$myNODES $(osts_nodes) $(mdts_nodes)"
1914     fi
1915
1916     myNODES_sort=$(for i in $myNODES; do echo $i; done | sort -u)
1917
1918     echo $myNODES_sort
1919 }
1920
1921 remote_nodes_list () {
1922     local rnodes=$(nodes_list)
1923     rnodes=$(echo " $rnodes " | sed -re "s/\s+$HOSTNAME\s+/ /g")
1924     echo $rnodes
1925 }
1926
1927 init_clients_lists () {
1928     # Sanity check: exclude the local client from RCLIENTS
1929     local rclients=$(echo " $RCLIENTS " | sed -re "s/\s+$HOSTNAME\s+/ /g")
1930
1931     # Sanity check: exclude the dup entries
1932     rclients=$(for i in $rclients; do echo $i; done | sort -u)
1933
1934     local clients="$SINGLECLIENT $HOSTNAME $rclients"
1935
1936     # Sanity check: exclude the dup entries from CLIENTS
1937     # for those configs which has SINGLCLIENT set to local client
1938     clients=$(for i in $clients; do echo $i; done | sort -u)
1939
1940     CLIENTS=`comma_list $clients`
1941     local -a remoteclients=($rclients)
1942     for ((i=0; $i<${#remoteclients[@]}; i++)); do
1943             varname=CLIENT$((i + 2))
1944             eval $varname=${remoteclients[i]}
1945     done
1946
1947     CLIENTCOUNT=$((${#remoteclients[@]} + 1))
1948 }
1949
1950 is_patchless ()
1951 {
1952     lctl get_param version | grep -q patchless
1953 }
1954
1955 get_node_count() {
1956    local nodes="$@"
1957    echo $nodes | wc -w || true
1958 }
1959
1960 mixed_ost_devs () {
1961     local nodes=$(osts_nodes)
1962     local osscount=$(get_node_count "$nodes")
1963     [ ! "$OSTCOUNT" = "$osscount" ]
1964 }
1965
1966 mixed_mdt_devs () {
1967     local nodes=$(mdts_nodes)
1968     local mdtcount=$(get_node_count "$nodes")
1969     [ ! "$MDSCOUNT" = "$mdtcount" ]
1970 }
1971
1972 generate_machine_file() {
1973     local nodes=${1//,/ }
1974     local machinefile=$2
1975     rm -f $machinefile || error "can't rm $machinefile"
1976     for node in $nodes; do
1977         echo $node >>$machinefile
1978     done
1979 }
1980
1981 get_stripe () {
1982     local file=$1/stripe
1983     touch $file
1984     $LFS getstripe -v $file || error
1985     rm -f $file
1986 }
1987
1988 check_runas_id_ret() {
1989     local myRC=0
1990     local myRUNAS_ID=$1
1991     shift
1992     local myRUNAS=$@
1993     if [ -z "$myRUNAS" ]; then
1994         error_exit "myRUNAS command must be specified for check_runas_id"
1995     fi
1996     if $GSS_KRB5; then
1997         $myRUNAS krb5_login.sh || \
1998             error "Failed to refresh Kerberos V5 TGT for UID $myRUNAS_ID."
1999     fi
2000     mkdir $DIR/d0_runas_test
2001     chmod 0755 $DIR
2002     chown $myRUNAS_ID:$myRUNAS_ID $DIR/d0_runas_test
2003     $myRUNAS touch $DIR/d0_runas_test/f$$ || myRC=$?
2004     rm -rf $DIR/d0_runas_test
2005     return $myRC
2006 }
2007
2008 check_runas_id() {
2009     local myRUNAS_ID=$1
2010     shift
2011     local myRUNAS=$@
2012     check_runas_id_ret $myRUNAS_ID $myRUNAS || \
2013         error "unable to write to $DIR/d0_runas_test as UID $myRUNAS_ID.
2014         Please set RUNAS_ID to some UID which exists on MDS and client or
2015         add user $myRUNAS_ID:$myRUNAS_ID on these nodes."
2016 }
2017
2018 # Run multiop in the background, but wait for it to print
2019 # "PAUSING" to its stdout before returning from this function.
2020 multiop_bg_pause() {
2021     MULTIOP_PROG=${MULTIOP_PROG:-multiop}
2022     FILE=$1
2023     ARGS=$2
2024
2025     TMPPIPE=/tmp/multiop_open_wait_pipe.$$
2026     mkfifo $TMPPIPE
2027
2028     echo "$MULTIOP_PROG $FILE v$ARGS"
2029     $MULTIOP_PROG $FILE v$ARGS > $TMPPIPE &
2030
2031     echo "TMPPIPE=${TMPPIPE}"
2032     read -t 60 multiop_output < $TMPPIPE
2033     if [ $? -ne 0 ]; then
2034         rm -f $TMPPIPE
2035         return 1
2036     fi
2037     rm -f $TMPPIPE
2038     if [ "$multiop_output" != "PAUSING" ]; then
2039         echo "Incorrect multiop output: $multiop_output"
2040         kill -9 $PID
2041         return 1
2042     fi
2043
2044     return 0
2045 }
2046
2047 check_rate() {
2048     local OP=$1
2049     local TARGET_RATE=$2
2050     local NUM_CLIENTS=$3
2051     local LOG=$4
2052
2053     local RATE=$(awk '/^Rate: [0-9\.]+ '"${OP}"'s\/sec/ { print $2}' ${LOG})
2054
2055     # We need to use bc since the rate is a floating point number
2056     local RES=$(echo "${RATE} < ${TARGET_RATE}" | bc -l )
2057     if [ ${RES} -eq 0 ]; then
2058         echo "Success: ${RATE} ${OP}s/sec met target rate" \
2059              "${TARGET_RATE} ${OP}s/sec for ${NUM_CLIENTS} client(s)."
2060         return 0
2061     else
2062         echo "Failure: ${RATE} ${OP}s/sec did not meet target rate" \
2063              "${TARGET_RATE} ${OP}s/sec for ${NUM_CLIENTS} client(s)."
2064         return 1
2065     fi
2066 }
2067
2068 # reset llite stat counters
2069 clear_llite_stats(){
2070         lctl set_param -n llite.*.stats 0
2071 }
2072
2073 # sum llite stat items
2074 calc_llite_stats() {
2075         local res=$(lctl get_param -n llite.*.stats |
2076                     awk 'BEGIN {s = 0} END {print s} /^'"$1"'/ {s += $2}')
2077         echo $res
2078 }
2079
2080 # reset osc stat counters
2081 clear_osc_stats(){
2082         lctl set_param -n osc.*.osc_stats 0
2083 }
2084
2085 # sum osc stat items
2086 calc_osc_stats() {
2087         local res=$(lctl get_param -n osc.*.osc_stats |
2088                     awk 'BEGIN {s = 0} END {print s} /^'"$1"'/ {s += $2}')
2089         echo $res
2090 }
2091
2092 calc_sum () {
2093         awk 'BEGIN {s = 0}; {s += $1}; END {print s}'
2094 }
2095
2096 calc_osc_kbytes () {
2097         $LCTL get_param -n osc.*[oO][sS][cC][-_][0-9a-f]*.$1 | calc_sum
2098 }
2099
2100 # save_lustre_params(node, parameter_mask)
2101 # generate a stream of formatted strings (<node> <param name>=<param value>)
2102 save_lustre_params() {
2103         local s
2104         do_node $1 "lctl get_param $2" | while read s; do echo "$1 $s"; done
2105 }
2106
2107 # restore lustre parameters from input stream, produces by save_lustre_params
2108 restore_lustre_params() {
2109         local node
2110         local name
2111         local val
2112         while IFS=" =" read node name val; do
2113                 do_node $node "lctl set_param -n $name $val"
2114         done
2115 }
2116
2117 check_catastrophe () {
2118     local rnodes=$(comma_list $(remote_nodes_list))
2119
2120     [ -f $CATASTROPHE ] && [ `cat $CATASTROPHE` -ne 0 ] && return 1
2121     if [ $rnodes ]; then
2122         do_nodes $rnodes "[ -f $CATASTROPHE ] && { [ \`cat $CATASTROPHE\` -eq 0 ] || false; } || true"
2123     fi 
2124 }
2125