Whamcloud - gitweb
LU-11765 ofd: return EAGAIN during 1st CLEANUP_ORPHAN
[fs/lustre-release.git] / lustre / tests / replay-ost-single.sh
index fa62200..9764e6b 100755 (executable)
@@ -1,6 +1,4 @@
 #!/bin/bash
-# -*- mode: Bash; tab-width: 4; indent-tabs-mode: t; -*-
-# vim:shiftwidth=4:softtabstop=4:tabstop=4:
 
 set -e
 
@@ -19,17 +17,24 @@ init_logging
 
 require_dsh_ost || exit 0
 
-# Tests that fail on uml
-CPU=`awk '/model/ {print $4}' /proc/cpuinfo`
-[ "$CPU" = "UML" ] && EXCEPT="$EXCEPT 6"
-
-# Skip these tests
-# BUG NUMBER: 
+# bug number for skipped test:
 ALWAYS_EXCEPT="$REPLAY_OST_SINGLE_EXCEPT"
+# UPDATE THE COMMENT ABOVE WITH BUG NUMBERS WHEN CHANGING ALWAYS_EXCEPT!
 
-#                                      
+# bug number for SLOW test:
+# time in minutes:                 40"
 [ "$SLOW" = "no" ] && EXCEPT_SLOW="5"
 
+if [ $(facet_fstype $SINGLEMDS) = "zfs" ]; then
+# bug number for slow tests:                 LU-2887
+# time in minutes:                           32  12.5"
+       [ "$SLOW" = "no" ] && EXCEPT_SLOW+=" 8a  8b"
+       if [ $MDSCOUNT -gt 1 ]; then
+# bug number for skipped test:
+               ALWAYS_EXCEPT+=""
+       fi
+fi
+
 build_test_filter
 
 check_and_setup_lustre
@@ -42,65 +47,67 @@ $LFS setstripe $TDIR -i 0 -c 1
 $LFS getstripe $TDIR
 
 test_0a() {
-    zconf_umount `hostname` $MOUNT -f
-    # needs to run during initial client->OST connection
-    #define OBD_FAIL_OST_ALL_REPLY_NET       0x211
-    do_facet ost1 "lctl set_param fail_loc=0x80000211"
-    zconf_mount `hostname` $MOUNT && df $MOUNT || error "0a mount fail"
+       zconf_umount $(hostname) $MOUNT -f
+       # needs to run during initial client->OST connection
+       #define OBD_FAIL_OST_ALL_REPLY_NET       0x211
+       do_facet ost1 "lctl set_param fail_loc=0x80000211"
+       zconf_mount $(hostname) $MOUNT && $LFS df $MOUNT || error "mount fail"
 }
-run_test 0a "target handle mismatch (bug 5317) `date +%H:%M:%S`"
+run_test 0a "target handle mismatch (bug 5317)"
 
 test_0b() {
-    fail ost1
-    cp /etc/profile  $TDIR/$tfile
-    sync
-    diff /etc/profile $TDIR/$tfile
-    rm -f $TDIR/$tfile
+       fail ost1
+       cp /etc/profile  $TDIR/$tfile
+       sync
+       diff /etc/profile $TDIR/$tfile
+       rm -f $TDIR/$tfile
 }
 run_test 0b "empty replay"
 
 test_1() {
-    date > $TDIR/$tfile || error "error creating $TDIR/$tfile"
-    fail ost1
-    $CHECKSTAT -t file $TDIR/$tfile || return 1
-    rm -f $TDIR/$tfile
+       date > $TDIR/$tfile || error "error creating $TDIR/$tfile"
+       fail ost1
+       $CHECKSTAT -t file $TDIR/$tfile || error "check for file failed"
+       rm -f $TDIR/$tfile
 }
 run_test 1 "touch"
 
 test_2() {
-    for i in `seq 10`; do
-        echo "tag-$i" > $TDIR/$tfile-$i || error "create $TDIR/$tfile-$i"
-    done 
-    fail ost1
-    for i in `seq 10`; do
-      grep -q "tag-$i" $TDIR/$tfile-$i || error "grep $TDIR/$tfile-$i"
-    done 
-    rm -f $TDIR/$tfile-*
+       for i in $(seq 10); do
+               echo "tag-$i" > $TDIR/$tfile-$i ||
+                       error "create $TDIR/$tfile-$i failed"
+       done
+       fail ost1
+       for i in $(seq 10); do
+               grep -q "tag-$i" $TDIR/$tfile-$i ||
+                       error "grep $TDIR/$tfile-$i failed"
+       done
+       rm -f $TDIR/$tfile-*
 }
 run_test 2 "|x| 10 open(O_CREAT)s"
 
 test_3() {
-    verify=$ROOT/tmp/verify-$$
-    dd if=/dev/urandom bs=4096 count=1280 | tee $verify > $TDIR/$tfile &
-    ddpid=$!
-    sync &
-    fail ost1
-    wait $ddpid || return 1
-    cmp $verify $TDIR/$tfile || return 2
-    rm -f $verify $TDIR/$tfile
+       verify=$ROOT/tmp/verify-$$
+       dd if=/dev/urandom bs=4096 count=1280 | tee $verify > $TDIR/$tfile &
+       ddpid=$!
+       sync &
+       fail ost1
+       wait $ddpid || error "wait for dd failed"
+       cmp $verify $TDIR/$tfile || error "compare $verify $TDIR/$tfile failed"
+       rm -f $verify $TDIR/$tfile
 }
 run_test 3 "Fail OST during write, with verification"
 
 test_4() {
-    verify=$ROOT/tmp/verify-$$
-    dd if=/dev/urandom bs=4096 count=1280 | tee $verify > $TDIR/$tfile
-    # invalidate cache, so that we're reading over the wire
-    cancel_lru_locks osc
-    cmp $verify $TDIR/$tfile &
-    cmppid=$!
-    fail ost1
-    wait $cmppid || return 1
-    rm -f $verify $TDIR/$tfile
+       verify=$ROOT/tmp/verify-$$
+       dd if=/dev/urandom bs=4096 count=1280 | tee $verify > $TDIR/$tfile
+       # invalidate cache, so that we're reading over the wire
+       cancel_lru_locks osc
+       cmp $verify $TDIR/$tfile &
+       cmppid=$!
+       fail ost1
+       wait $cmppid || error "wait on cmp failed"
+       rm -f $verify $TDIR/$tfile
 }
 run_test 4 "Fail OST during read, with verification"
 
@@ -140,32 +147,38 @@ iozone_bg () {
 }
 
 test_5() {
-    [ -z "`which iozone 2> /dev/null`" ] && skip_env "iozone missing" && return 0
-
-    # striping is -c 1, get min of available
-    local minavail=$(lctl get_param -n osc.*[oO][sS][cC][-_]*.kbytesavail | sort -n | head -1)
-    local size=$(( minavail * 3/4 ))
-    local GB=1048576  # 1048576KB == 1GB
-
-    if (( size > GB )); then
-        size=$GB
-    fi
-    local iozone_opts="-i 0 -i 1 -i 2 -+d -r 4 -s $size -f $TDIR/$tfile"
-
-    iozone_bg $iozone_opts &
-    local pid=$!
+       if [ -z "$(which iozone 2> /dev/null)" ]; then
+               skip_env "iozone missing"
+               return 0
+       fi
 
-    echo iozone bg pid=$pid
+       # striping is -c 1, get min of available
+       local minavail=$(lctl get_param -n osc.*[oO][sS][cC][-_]*.kbytesavail |
+               sort -n | head -n1)
+       local size=$(( minavail * 3/4 ))
+       local GB=1048576  # 1048576KB == 1GB
 
-    sleep 8
-    fail ost1
-    local rc=0
-    wait $pid
-    rc=$?
-    log "iozone rc=$rc"
-    rm -f $TDIR/$tfile
-    [ $rc -eq 0 ] || error "iozone failed"
-    return $rc
+       if (( size > GB )); then
+               size=$GB
+       fi
+       # no random I/O (-i 2) as it's very slow with ZFS
+       local iozone_opts="-i 0 -i 1 -+d -r 4 -s $size -f $TDIR/$tfile"
+
+       iozone_bg $iozone_opts &
+       local pid=$!
+
+       echo iozone bg pid=$pid
+
+       sleep 8
+       fail ost1
+       local rc=0
+       wait $pid || error "wait on iozone failed"
+       rc=$?
+       log "iozone rc=$rc"
+       rm -f $TDIR/$tfile
+       wait_delete_completed_mds
+       [ $rc -eq 0 ] || error "iozone failed"
+       return $rc
 }
 run_test 5 "Fail OST during iozone"
 
@@ -174,187 +187,301 @@ kbytesfree() {
 }
 
 test_6() {
-    remote_mds_nodsh && skip "remote MDS with nodsh" && return 0
-
-    f=$TDIR/$tfile
-    rm -f $f
-    sync && sleep 2 && sync  # wait for delete thread
-
-    # wait till space is returned, following
-    # (( $before > $after_dd)) test counting on that
-    wait_mds_ost_sync || return 4
-    wait_destroy_complete || return 5
-
-    before=`kbytesfree`
-    dd if=/dev/urandom bs=4096 count=1280 of=$f || return 28
-    lfs getstripe $f
-    stripe_index=$(lfs getstripe -i $f)
-
-    sync
-    sleep 2 # ensure we have a fresh statfs
-    sync
-
-    #define OBD_FAIL_MDS_REINT_NET_REP       0x119
-    do_facet $SINGLEMDS "lctl set_param fail_loc=0x80000119"
-    after_dd=`kbytesfree`
-    log "before: $before after_dd: $after_dd"
-    (( $before > $after_dd )) || return 1
-    rm -f $f
-    fail ost$((stripe_index + 1))
-    wait_recovery_complete ost$((stripe_index + 1)) ||
-        error "OST$((stripe_index + 1)) recovery not completed"
-    $CHECKSTAT -t file $f && return 2 || true
-    sync
-    # let the delete happen
-    wait_mds_ost_sync || return 4
-    wait_destroy_complete || return 5
-    after=`kbytesfree`
-    log "before: $before after: $after"
-    (( $before <= $after + 40 )) || return 3   # take OST logs into account
+       remote_mds_nodsh && skip "remote MDS with nodsh" && return 0
+
+       local f=$TDIR/$tfile
+       sync && sleep 5 && sync  # wait for delete thread
+
+       # wait till space is returned, following
+       # (( $before > $after_dd)) test counting on that
+       wait_mds_ost_sync || error "first wait_mds_ost_sync failed"
+       wait_destroy_complete || error "first wait_destroy_complete failed"
+
+       local before=$(kbytesfree)
+       dd if=/dev/urandom bs=4096 count=1280 of=$f || error "dd failed"
+       $LFS getstripe $f || error "$LFS getstripe $f failed"
+       local stripe_index=$(lfs getstripe -i $f)
+
+       sync
+       sleep 2 # ensure we have a fresh statfs
+       sync
+
+       #define OBD_FAIL_MDS_REINT_NET_REP       0x119
+       do_facet $SINGLEMDS "lctl set_param fail_loc=0x80000119"
+
+       # retry till statfs returns useful results
+       local after_dd=$(kbytesfree)
+       local i=0
+       while (( $before <= $after_dd && $i < 20 )); do
+               sync
+               sleep 1
+               let ++i
+               after_dd=$(kbytesfree)
+       done
+
+       log "before: $before after_dd: $after_dd took $i seconds"
+       (( $before > $after_dd )) ||
+               error "space grew after dd: before:$before after_dd:$after_dd"
+       rm -f $f
+       fail ost$((stripe_index + 1))
+       wait_recovery_complete ost$((stripe_index + 1)) ||
+               error "OST$((stripe_index + 1)) recovery not completed"
+       $CHECKSTAT -t file $f && return 2 || true
+       sync
+       # let the delete happen
+       wait_mds_ost_sync || error "second wait_mds_ost_sync failed"
+       wait_delete_completed || error "second wait_delete_completed failed"
+       local after=$(kbytesfree)
+       log "before: $before after: $after"
+       (( $before <= $after + $(fs_log_size) )) ||
+               error "$before > $after + logsize $(fs_log_size)"
 }
 run_test 6 "Fail OST before obd_destroy"
 
 test_7() {
-    f=$TDIR/$tfile
-    rm -f $f
-    sync && sleep 5 && sync    # wait for delete thread
-
-    # wait till space is returned, following
-    # (( $before > $after_dd)) test counting on that
-    wait_mds_ost_sync || return 4
-    wait_destroy_complete || return 5
-
-    before=`kbytesfree`
-    dd if=/dev/urandom bs=4096 count=1280 of=$f || return 4
-    sync
-    sleep 2 # ensure we have a fresh statfs
-    sync
-    after_dd=`kbytesfree`
-    log "before: $before after_dd: $after_dd"
-    (( $before > $after_dd )) || return 1
-    replay_barrier ost1
-    rm -f $f
-    fail ost1
-    wait_recovery_complete ost1 || error "OST recovery not done"
-    $CHECKSTAT -t file $f && return 2 || true
-    sync
-    # let the delete happen
-    wait_mds_ost_sync || return 4
-    wait_destroy_complete || return 5
-    after=`kbytesfree`
-    log "before: $before after: $after"
-    (( $before <= $after + 40 )) || return 3   # take OST logs into account
+       local f=$TDIR/$tfile
+       sync && sleep 5 && sync # wait for delete thread
+
+       # wait till space is returned, following
+       # (( $before > $after_dd)) test counting on that
+       wait_mds_ost_sync || error "wait_mds_ost_sync failed"
+       wait_destroy_complete || error "wait_destroy_complete failed"
+
+       local before=$(kbytesfree)
+       dd if=/dev/urandom bs=4096 count=1280 of=$f ||
+               error "dd to file failed: $?"
+
+       sync
+       local after_dd=$(kbytesfree)
+       local i=0
+       while (( $before <= $after_dd && $i < 10 )); do
+               sync
+               sleep 1
+               let ++i
+               after_dd=$(kbytesfree)
+       done
+
+       log "before: $before after_dd: $after_dd took $i seconds"
+       (( $before > $after_dd )) ||
+               error "space grew after dd: before:$before after_dd:$after_dd"
+       replay_barrier ost1
+       rm -f $f
+       fail ost1
+       wait_recovery_complete ost1 || error "OST recovery not done"
+       $CHECKSTAT -t file $f && return 2 || true
+       sync
+       # let the delete happen
+       wait_mds_ost_sync || error "wait_mds_ost_sync failed"
+       wait_delete_completed || error "wait_delete_completed failed"
+       local after=$(kbytesfree)
+       log "before: $before after: $after"
+       (( $before <= $after + $(fs_log_size) )) ||
+                error "$before > $after + logsize $(fs_log_size)"
 }
 run_test 7 "Fail OST before obd_destroy"
 
 test_8a() {
-    verify=$ROOT/tmp/verify-$$
-    dd if=/dev/urandom of=$verify bs=4096 count=1280 ||
-        error "Create verify file failed"
-#define OBD_FAIL_OST_DQACQ_NET           0x230
-    do_facet ost1 "lctl set_param fail_loc=0x230"
-    dd if=$verify of=$TDIR/$tfile bs=4096 count=1280 oflag=sync &
-    ddpid=$!
-    sleep $TIMEOUT  # wait for the io to become redo io
-    if ! ps -p $ddpid  > /dev/null 2>&1; then
-            error "redo io finished incorrectly"
-            return 1
-    fi
-    do_facet ost1 "lctl set_param fail_loc=0"
-    wait $ddpid || return 1
-    cancel_lru_locks osc
-    cmp $verify $TDIR/$tfile || return 2
-    rm -f $verify $TDIR/$tfile
+       [[ $(lustre_version_code $SINGLEMDS) -ge $(version_code 2.3.0) ]] ||
+               { skip "Need MDS version at least 2.3.0"; return; }
+       verify=$ROOT/tmp/verify-$$
+       dd if=/dev/urandom of=$verify bs=4096 count=1280 ||
+               error "Create verify file failed"
+       #define OBD_FAIL_OST_DQACQ_NET 0x230
+       do_facet ost1 "lctl set_param fail_loc=0x230"
+       dd if=$verify of=$TDIR/$tfile bs=4096 count=1280 oflag=sync &
+       ddpid=$!
+       sleep $TIMEOUT  # wait for the io to become redo io
+       if ! ps -p $ddpid  > /dev/null 2>&1; then
+               error "redo io finished incorrectly"
+       fi
+       do_facet ost1 "lctl set_param fail_loc=0"
+       wait $ddpid || true
+       cancel_lru_locks osc
+       cmp $verify $TDIR/$tfile || error "compare $verify $TDIR/$tfile failed"
+       rm -f $verify $TDIR/$tfile
+       message=$(dmesg | grep "redo for recoverable error -115")
+       [ -z "$message" ] || error "redo error messages found in dmesg"
 }
 run_test 8a "Verify redo io: redo io when get -EINPROGRESS error"
 
 test_8b() {
-    verify=$ROOT/tmp/verify-$$
-    dd if=/dev/urandom of=$verify bs=4096 count=1280 ||
-        error "Create verify file failed"
-#define OBD_FAIL_OST_DQACQ_NET           0x230
-    do_facet ost1 "lctl set_param fail_loc=0x230"
-    dd if=$verify of=$TDIR/$tfile bs=4096 count=1280 oflag=sync &
-    ddpid=$!
-    sleep $TIMEOUT  # wait for the io to become redo io
-    fail ost1
-    do_facet ost1 "lctl set_param fail_loc=0"
-    wait $ddpid || return 1
-    cancel_lru_locks osc
-    cmp $verify $TDIR/$tfile || return 2
-    rm -f $verify $TDIR/$tfile
+       [[ $(lustre_version_code $SINGLEMDS) -ge $(version_code 2.3.0) ]] ||
+               { skip "Need MDS version at least 2.3.0"; return; }
+       verify=$ROOT/tmp/verify-$$
+       dd if=/dev/urandom of=$verify bs=4096 count=1280 ||
+               error "Create verify file failed"
+       #define OBD_FAIL_OST_DQACQ_NET 0x230
+       do_facet ost1 "lctl set_param fail_loc=0x230"
+       dd if=$verify of=$TDIR/$tfile bs=4096 count=1280 oflag=sync &
+       ddpid=$!
+       sleep $TIMEOUT  # wait for the io to become redo io
+       fail ost1
+       do_facet ost1 "lctl set_param fail_loc=0"
+       wait $ddpid || error "dd did not complete"
+       cancel_lru_locks osc
+       cmp $verify $TDIR/$tfile || error "compare $verify $TDIR/$tfile failed"
+       rm -f $verify $TDIR/$tfile
 }
 run_test 8b "Verify redo io: redo io should success after recovery"
 
 test_8c() {
-    verify=$ROOT/tmp/verify-$$
-    dd if=/dev/urandom of=$verify bs=4096 count=1280 ||
-        error "Create verify file failed"
-#define OBD_FAIL_OST_DQACQ_NET           0x230
-    do_facet ost1 "lctl set_param fail_loc=0x230"
-    dd if=$verify of=$TDIR/$tfile bs=4096 count=1280 oflag=sync &
-    ddpid=$!
-    sleep $TIMEOUT  # wait for the io to become redo io
-    ost_evict_client
-    # allow recovery to complete
-    sleep $((TIMEOUT + 2))
-    do_facet ost1 "lctl set_param fail_loc=0"
-    wait $ddpid
-    cancel_lru_locks osc
-    cmp $verify $TDIR/$tfile && return 2
-    rm -f $verify $TDIR/$tfile
+       [[ $(lustre_version_code $SINGLEMDS) -ge $(version_code 2.3.0) ]] ||
+               { skip "Need MDS version at least 2.3.0"; return; }
+       verify=$ROOT/tmp/verify-$$
+       dd if=/dev/urandom of=$verify bs=4096 count=1280 ||
+               error "Create verify file failed"
+       #define OBD_FAIL_OST_DQACQ_NET 0x230
+       do_facet ost1 "lctl set_param fail_loc=0x230"
+       dd if=$verify of=$TDIR/$tfile bs=4096 count=1280 oflag=sync &
+       ddpid=$!
+       sleep $TIMEOUT  # wait for the io to become redo io
+       ost_evict_client
+       # allow recovery to complete
+       sleep $((TIMEOUT + 2))
+       do_facet ost1 "lctl set_param fail_loc=0"
+       wait $ddpid
+       cancel_lru_locks osc
+       cmp $verify $TDIR/$tfile && error "compare files should fail"
+       rm -f $verify $TDIR/$tfile
 }
 run_test 8c "Verify redo io: redo io should fail after eviction"
 
 test_8d() {
-#define OBD_FAIL_MDS_DQACQ_NET           0x187
-    do_facet $SINGLEMDS "lctl set_param fail_loc=0x187"
-    # test the non-intent create path
-    mcreate $TDIR/$tfile &
-    cpid=$!
-    sleep $TIMEOUT
-    if ! ps -p $cpid  > /dev/null 2>&1; then
-            error "mknod finished incorrectly"
-            return 1
-    fi
-    do_facet $SINGLEMDS "lctl set_param fail_loc=0"
-    wait $cpid || return 2
-    stat $TDIR/$tfile || error "mknod failed"
-
-    rm $TDIR/$tfile
-
-#define OBD_FAIL_MDS_DQACQ_NET           0x187
-    do_facet $SINGLEMDS "lctl set_param fail_loc=0x187"
-    # test the intent create path
-    openfile -f O_RDWR:O_CREAT $TDIR/$tfile &
-    cpid=$!
-    sleep $TIMEOUT
-    if ! ps -p $cpid > /dev/null 2>&1; then
-            error "open finished incorrectly"
-            return 3
-    fi
-    do_facet $SINGLEMDS "lctl set_param fail_loc=0"
-    wait $cpid || return 4
-    stat $TDIR/$tfile || error "open failed"
+       [[ $(lustre_version_code $SINGLEMDS) -ge $(version_code 2.3.0) ]] ||
+               { skip "Need MDS version at least 2.3.0"; return; }
+       #define OBD_FAIL_MDS_DQACQ_NET 0x187
+       do_facet $SINGLEMDS "lctl set_param fail_loc=0x187"
+       # test the non-intent create path
+       mcreate $TDIR/$tfile &
+       cpid=$!
+       sleep $TIMEOUT
+       if ! ps -p $cpid  > /dev/null 2>&1; then
+               error "mknod finished incorrectly"
+       fi
+       do_facet $SINGLEMDS "lctl set_param fail_loc=0"
+       wait $cpid || error "mcreate did not complete"
+       stat $TDIR/$tfile || error "mknod failed"
+
+       rm $TDIR/$tfile
+
+       #define OBD_FAIL_MDS_DQACQ_NET 0x187
+       do_facet $SINGLEMDS "lctl set_param fail_loc=0x187"
+       # test the intent create path
+       openfile -f O_RDWR:O_CREAT $TDIR/$tfile &
+       cpid=$!
+       sleep $TIMEOUT
+       if ! ps -p $cpid > /dev/null 2>&1; then
+               error "open finished incorrectly"
+       fi
+       do_facet $SINGLEMDS "lctl set_param fail_loc=0"
+       wait $cpid || error "openfile failed"
+       stat $TDIR/$tfile || error "open failed"
 }
 run_test 8d "Verify redo creation on -EINPROGRESS"
 
 test_8e() {
+       [[ $(lustre_version_code $SINGLEMDS) -ge $(version_code 2.3.0) ]] ||
+               { skip "Need MDS version at least 2.3.0"; return; }
        sleep 1 # ensure we have a fresh statfs
-#define OBD_FAIL_OST_STATFS_EINPROGRESS  0x231
+       #define OBD_FAIL_OST_STATFS_EINPROGRESS 0x231
        do_facet ost1 "lctl set_param fail_loc=0x231"
-       df $MOUNT &
+       $LFS df $MOUNT &
        dfpid=$!
        sleep $TIMEOUT
        if ! ps -p $dfpid  > /dev/null 2>&1; then
-                       do_facet ost1 "lctl set_param fail_loc=0"
-                       error "df shouldn't have completed!"
-                       return 1
+               do_facet ost1 "lctl set_param fail_loc=0"
+               error "df shouldn't have completed!"
        fi
-       do_facet ost1 "lctl set_param fail_loc=0"
 }
 run_test 8e "Verify that ptlrpc resends request on -EINPROGRESS"
 
-complete $(basename $0) $SECONDS
+test_9() {
+       [ $(lustre_version_code ost1) -ge $(version_code 2.6.54) ] ||
+               { skip "Need OST version at least 2.6.54"; return; }
+       $LFS setstripe -i 0 -c 1 $DIR/$tfile || error "setstripe failed"
+
+       # LU-1573 - Add duplicate write to generate grants
+       dd if=/dev/zero of=$DIR/$tfile count=1 bs=1M > /dev/null ||
+               error "First write failed"
+       replay_barrier ost1
+       # do IO
+       dd if=/dev/zero of=$DIR/$tfile count=1 bs=1M > /dev/null ||
+               error "failed to write"
+       # failover, replay and resend replayed waiting request
+       #define OBD_FAIL_TGT_REPLAY_DELAY2       0x714
+       do_facet ost1 $LCTL set_param fail_loc=0x00000714
+       do_facet ost1 $LCTL set_param fail_val=$TIMEOUT
+       fail ost1
+       do_facet ost1 $LCTL set_param fail_loc=0
+       do_facet ost1 "dmesg | tail -n 100" |
+               sed -n '/no req deadline/,$ p' | grep -q 'Already past' &&
+               return 1
+       return 0
+}
+run_test 9 "Verify that no req deadline happened during recovery"
+
+test_10() {
+       rm -f $TDIR/$tfile
+
+       dd if=/dev/zero of=$TDIR/$tfile count=10 || error "dd failed"
+
+       #define OBD_FAIL_OSC_DELAY_IO            0x414
+       $LCTL set_param fail_val=60 fail_loc=0x414
+       cancel_lru_locks OST0000-osc &
+       sleep 2
+       facet_failover ost1 || error "failover: $?"
+
+       #define OBD_FAIL_LDLM_GRANT_CHECK        0x32a
+       $LCTL set_param fail_loc=0x32a
+       stat $TDIR/$tfile
+
+       wait
+}
+run_test 10 "conflicting PW & PR locks on a client"
+
+test_12() {
+       [ $FAILURE_MODE != "HARD" ] &&
+               skip "Test needs FAILURE_MODE HARD" && return 0
+       remote_ost || { skip "need remote OST" && return 0; }
+
+       local tmp=$TMP/$tdir
+       local dir=$DIR/$tdir
+       declare -a pids
+
+
+       mkdir -p $tmp || error "can't create $tmp"
+       mkdir -p $dir || error "can't create $dir"
+
+       $LFS setstripe -c 1 -i 0 $dir
+
+       for i in `seq 1 10`; do mkdir $dir/d$i; done
+
+       #define OBD_FAIL_OST_DELAY_TRANS        0x245
+       do_facet ost1 "$LCTL set_param fail_loc=0x245" ||
+               error "can't set fail_loc"
+
+       for i in `seq 1 10`;
+       do
+               createmany -o $dir/d$i/$(openssl rand -base64 12) 500 &
+               pids+=($!)
+       done
+       echo "Waiting createmany pids"
+       wait ${pids[@]}
+
+       ls -lR $dir > $tmp/ls_r_out 2>&1&
+       local ls_pid=$!
+
+       facet_failover ost1
+
+       echo "starting wait for ls -l"
+       wait $ls_pid
+       grep "?\|No such file or directory" $tmp/ls_r_out &&
+               error "Found file without object on OST"
+       rm -rf $tmp
+       rm -rf $dir
+}
+run_test 12 "check stat after OST failover"
+
+complete $SECONDS
 check_and_cleanup_lustre
 exit_status