Whamcloud - gitweb
d59c617bc506910f5d28789a3facbb3e22d5414e
[fs/lustre-release.git] / lustre / tests / recovery-small.sh
1 #!/bin/bash
2
3 set -e
4
5 #         bug  5494 7288 5493
6 ALWAYS_EXCEPT="24   27   52 $RECOVERY_SMALL_EXCEPT"
7
8 PTLDEBUG=${PTLDEBUG:--1}
9 LUSTRE=${LUSTRE:-`dirname $0`/..}
10 . $LUSTRE/tests/test-framework.sh
11 init_test_env $@
12 . ${CONFIG:=$LUSTRE/tests/cfg/$NAME.sh}
13
14 build_test_filter
15
16 # Allow us to override the setup if we already have a mounted system by
17 # setting SETUP=" " and CLEANUP=" "
18 SETUP=${SETUP:-""}
19 CLEANUP=${CLEANUP:-""}
20
21 cleanup_and_setup_lustre
22 rm -rf $DIR/${TESTSUITE}/[df][0-9]* # bug 13798 new t-f tdir staff
23 rm -rf $DIR/[df][0-9]*
24
25 test_1() {
26     drop_request "mcreate $MOUNT/1"  || return 1
27     drop_reint_reply "mcreate $MOUNT/2"    || return 2
28 }
29 run_test 1 "mcreate: drop req, drop rep"
30
31 test_2() {
32     drop_request "tchmod 111 $MOUNT/2"  || return 1
33     drop_reint_reply "tchmod 666 $MOUNT/2"    || return 2
34 }
35 run_test 2 "chmod: drop req, drop rep"
36
37 test_3() {
38     drop_request "statone $MOUNT/2" || return 1
39     drop_reply "statone $MOUNT/2"   || return 2
40 }
41 run_test 3 "stat: drop req, drop rep"
42
43 test_4() {
44     do_facet client "cp /etc/inittab $MOUNT/inittab" || return 1
45     drop_request "cat $MOUNT/inittab > /dev/null"   || return 2
46     drop_reply "cat $MOUNT/inittab > /dev/null"     || return 3
47 }
48 run_test 4 "open: drop req, drop rep"
49
50 test_5() {
51     drop_request "mv $MOUNT/inittab $MOUNT/renamed" || return 1
52     drop_reint_reply "mv $MOUNT/renamed $MOUNT/renamed-again" || return 2
53     do_facet client "checkstat -v $MOUNT/renamed-again"  || return 3
54 }
55 run_test 5 "rename: drop req, drop rep"
56
57 [ ! -e $MOUNT/renamed-again ] && cp /etc/inittab $MOUNT/renamed-again
58 test_6() {
59     drop_request "mlink $MOUNT/renamed-again $MOUNT/link1" || return 1
60     drop_reint_reply "mlink $MOUNT/renamed-again $MOUNT/link2"   || return 2
61 }
62 run_test 6 "link: drop req, drop rep"
63
64 [ ! -e $MOUNT/link1 ] && mlink $MOUNT/renamed-again $MOUNT/link1
65 [ ! -e $MOUNT/link2 ] && mlink $MOUNT/renamed-again $MOUNT/link2
66 test_7() {
67     drop_request "munlink $MOUNT/link1"   || return 1
68     drop_reint_reply "munlink $MOUNT/link2"     || return 2
69 }
70 run_test 7 "unlink: drop req, drop rep"
71
72 #bug 1423
73 test_8() {
74     drop_reint_reply "touch $MOUNT/$tfile"    || return 1
75 }
76 run_test 8 "touch: drop rep (bug 1423)"
77
78 #bug 1420
79 test_9() {
80     pause_bulk "cp /etc/profile $MOUNT/$tfile"       || return 1
81     do_facet client "cp /etc/termcap $MOUNT/${tfile}.2"  || return 2
82     do_facet client "sync"
83     do_facet client "rm $MOUNT/$tfile $MOUNT/${tfile}.2" || return 3
84 }
85 run_test 9 "pause bulk on OST (bug 1420)"
86
87 #bug 1521
88 test_10() {
89     do_facet client mcreate $MOUNT/$tfile        || return 1
90     drop_bl_callback "chmod 0777 $MOUNT/$tfile"  || echo "evicted as expected"
91     # wait for the mds to evict the client
92     #echo "sleep $(($TIMEOUT*2))"
93     #sleep $(($TIMEOUT*2))
94     do_facet client touch $MOUNT/$tfile || echo "touch failed, evicted"
95     do_facet client checkstat -v -p 0777 $MOUNT/$tfile  || return 3
96     do_facet client "munlink $MOUNT/$tfile"
97 }
98 run_test 10 "finish request on server after client eviction (bug 1521)"
99
100 #bug 2460
101 # wake up a thread waiting for completion after eviction
102 test_11(){
103     do_facet client multiop $MOUNT/$tfile Ow  || return 1
104     do_facet client multiop $MOUNT/$tfile or  || return 2
105
106     cancel_lru_locks osc
107
108     do_facet client multiop $MOUNT/$tfile or  || return 3
109     drop_bl_callback multiop $MOUNT/$tfile Ow || echo "evicted as expected"
110
111     do_facet client munlink $MOUNT/$tfile  || return 4
112 }
113 run_test 11 "wake up a thread waiting for completion after eviction (b=2460)"
114
115 #b=2494
116 test_12(){
117     $LCTL mark multiop $MOUNT/$tfile OS_c 
118     do_facet $SINGLEMDS "sysctl -w lustre.fail_loc=0x115"
119     clear_failloc $SINGLEMDS $((TIMEOUT * 2)) &
120     multiop $MOUNT/$tfile OS_c  &
121     PID=$!
122 #define OBD_FAIL_MDS_CLOSE_NET           0x115
123     sleep 2
124     kill -USR1 $PID
125     echo "waiting for multiop $PID"
126     wait $PID || return 2
127     do_facet client munlink $MOUNT/$tfile  || return 3
128 }
129 run_test 12 "recover from timed out resend in ptlrpcd (b=2494)"
130
131 # Bug 113, check that readdir lost recv timeout works.
132 test_13() {
133     mkdir $MOUNT/readdir || return 1
134     touch $MOUNT/readdir/newentry || return
135 # OBD_FAIL_MDS_READPAGE_NET|OBD_FAIL_ONCE
136     do_facet $SINGLEMDS "sysctl -w lustre.fail_loc=0x80000104"
137     ls $MOUNT/readdir || return 3
138     do_facet $SINGLEMDS "sysctl -w lustre.fail_loc=0"
139     rm -rf $MOUNT/readdir || return 4
140 }
141 run_test 13 "mdc_readpage restart test (bug 1138)"
142
143 # Bug 113, check that readdir lost send timeout works.
144 test_14() {
145     mkdir $MOUNT/readdir
146     touch $MOUNT/readdir/newentry
147 # OBD_FAIL_MDS_SENDPAGE|OBD_FAIL_ONCE
148     do_facet $SINGLEMDS "sysctl -w lustre.fail_loc=0x80000106"
149     ls $MOUNT/readdir || return 1
150     do_facet $SINGLEMDS "sysctl -w lustre.fail_loc=0"
151 }
152 run_test 14 "mdc_readpage resend test (bug 1138)"
153
154 test_15() {
155     do_facet $SINGLEMDS "sysctl -w lustre.fail_loc=0x80000128"
156     touch $DIR/$tfile && return 1
157     return 0
158 }
159 run_test 15 "failed open (-ENOMEM)"
160
161 READ_AHEAD=`cat $LPROC/llite/*/max_read_ahead_mb | head -n 1`
162 stop_read_ahead() {
163    for f in $LPROC/llite/*/max_read_ahead_mb; do 
164       echo 0 > $f
165    done
166 }
167
168 start_read_ahead() {
169    for f in $LPROC/llite/*/max_read_ahead_mb; do 
170       echo $READ_AHEAD > $f
171    done
172 }
173
174 test_16() {
175     do_facet client cp /etc/termcap $MOUNT
176     sync
177     stop_read_ahead
178
179 #define OBD_FAIL_PTLRPC_BULK_PUT_NET 0x504 | OBD_FAIL_ONCE
180     do_facet ost1 "sysctl -w lustre.fail_loc=0x80000504"
181     cancel_lru_locks osc
182     # OST bulk will time out here, client resends
183     do_facet client "cmp /etc/termcap $MOUNT/termcap" || return 1
184     do_facet ost1 sysctl -w lustre.fail_loc=0
185     # give recovery a chance to finish (shouldn't take long)
186     sleep $TIMEOUT
187     do_facet client "cmp /etc/termcap $MOUNT/termcap" || return 2
188     start_read_ahead
189 }
190 run_test 16 "timeout bulk put, don't evict client (2732)"
191
192 test_17() {
193     # OBD_FAIL_PTLRPC_BULK_GET_NET 0x0503 | OBD_FAIL_ONCE
194     # OST bulk will time out here, client retries
195     do_facet ost1 sysctl -w lustre.fail_loc=0x80000503
196     # need to ensure we send an RPC
197     do_facet client cp /etc/termcap $DIR/$tfile
198     sync
199
200     sleep $TIMEOUT
201     do_facet ost1 sysctl -w lustre.fail_loc=0
202     do_facet client "df $DIR"
203     # expect cmp to succeed, client resent bulk
204     do_facet client "cmp /etc/termcap $DIR/$tfile" || return 3
205     do_facet client "rm $DIR/$tfile" || return 4
206     return 0
207 }
208 run_test 17 "timeout bulk get, don't evict client (2732)"
209
210 test_18a() {
211     [ -z ${ost2_svc} ] && skip "needs 2 osts" && return 0
212
213     do_facet client mkdir -p $MOUNT/$tdir
214     f=$MOUNT/$tdir/$tfile
215
216     cancel_lru_locks osc
217     pgcache_empty || return 1
218
219     # 1 stripe on ost2
220     lfs setstripe $f $((128 * 1024)) 1 1
221
222     do_facet client cp /etc/termcap $f
223     sync
224     local osc2dev=`grep ${ost2_svc}-osc- $LPROC/devices | egrep -v 'MDT' | awk '{print $1}'`
225     $LCTL --device $osc2dev deactivate || return 3
226     # my understanding is that there should be nothing in the page
227     # cache after the client reconnects?     
228     rc=0
229     pgcache_empty || rc=2
230     $LCTL --device $osc2dev activate
231     rm -f $f
232     return $rc
233 }
234 run_test 18a "manual ost invalidate clears page cache immediately"
235
236 test_18b() {
237     do_facet client mkdir -p $MOUNT/$tdir
238     f=$MOUNT/$tdir/$tfile
239     f2=$MOUNT/$tdir/${tfile}-2
240
241     cancel_lru_locks osc
242     pgcache_empty || return 1
243
244     # shouldn't have to set stripe size of count==1
245     lfs setstripe $f $((128 * 1024)) 0 1
246     lfs setstripe $f2 $((128 * 1024)) 0 1
247
248     do_facet client cp /etc/termcap $f
249     sync
250     ost_evict_client
251     # allow recovery to complete
252     sleep $((TIMEOUT + 2))
253     # my understanding is that there should be nothing in the page
254     # cache after the client reconnects?     
255     rc=0
256     pgcache_empty || rc=2
257     rm -f $f $f2
258     return $rc
259 }
260 run_test 18b "eviction and reconnect clears page cache (2766)"
261
262 test_19a() {
263     f=$MOUNT/$tfile
264     do_facet client mcreate $f        || return 1
265     drop_ldlm_cancel "chmod 0777 $f"  || echo "evicted as expected"
266
267     do_facet client checkstat -v -p 0777 $f  || echo evicted
268     # let the client reconnect
269     sleep 5
270     do_facet client "munlink $f"
271 }
272 run_test 19a "test expired_lock_main on mds (2867)"
273
274 test_19b() {
275     f=$MOUNT/$tfile
276     do_facet client multiop $f Ow  || return 1
277     do_facet client multiop $f or  || return 2
278
279     cancel_lru_locks osc
280
281     do_facet client multiop $f or  || return 3
282     drop_ldlm_cancel multiop $f Ow  || echo "client evicted, as expected"
283
284     do_facet client munlink $f  || return 4
285 }
286 run_test 19b "test expired_lock_main on ost (2867)"
287
288 test_20a() {    # bug 2983 - ldlm_handle_enqueue cleanup
289         mkdir -p $DIR/$tdir
290         multiop $DIR/$tdir/${tfile} O_wc &
291         MULTI_PID=$!
292         sleep 1
293         cancel_lru_locks osc
294 #define OBD_FAIL_LDLM_ENQUEUE_EXTENT_ERR 0x308
295         do_facet ost1 sysctl -w lustre.fail_loc=0x80000308
296         kill -USR1 $MULTI_PID
297         wait $MULTI_PID
298         rc=$?
299         [ $rc -eq 0 ] && error "multiop didn't fail enqueue: rc $rc" || true
300 }
301 run_test 20a "ldlm_handle_enqueue error (should return error)" 
302
303 test_20b() {    # bug 2986 - ldlm_handle_enqueue error during open
304         mkdir -p $DIR/$tdir
305         touch $DIR/$tdir/${tfile}
306         cancel_lru_locks osc
307 #define OBD_FAIL_LDLM_ENQUEUE_EXTENT_ERR 0x308
308         do_facet ost1 sysctl -w lustre.fail_loc=0x80000308
309         dd if=/etc/hosts of=$DIR/$tdir/$tfile && \
310                 error "didn't fail open enqueue" || true
311 }
312 run_test 20b "ldlm_handle_enqueue error (should return error)"
313
314 test_21a() {
315        mkdir -p $DIR/$tdir-1
316        mkdir -p $DIR/$tdir-2
317        multiop $DIR/$tdir-1/f O_c &
318        close_pid=$!
319
320        do_facet $SINGLEMDS "sysctl -w lustre.fail_loc=0x80000129"
321        multiop $DIR/$tdir-2/f Oc &
322        open_pid=$!
323        sleep 1
324        do_facet $SINGLEMDS "sysctl -w lustre.fail_loc=0"
325
326        do_facet $SINGLEMDS "sysctl -w lustre.fail_loc=0x80000115"
327        kill -USR1 $close_pid
328        cancel_lru_locks mdc
329        wait $close_pid || return 1
330        wait $open_pid || return 2
331        do_facet $SINGLEMDS "sysctl -w lustre.fail_loc=0"
332
333        $CHECKSTAT -t file $DIR/$tdir-1/f || return 3
334        $CHECKSTAT -t file $DIR/$tdir-2/f || return 4
335
336        rm -rf $DIR/$tdir-*
337 }
338 run_test 21a "drop close request while close and open are both in flight"
339
340 test_21b() {
341        mkdir -p $DIR/$tdir-1
342        mkdir -p $DIR/$tdir-2
343        multiop $DIR/$tdir-1/f O_c &
344        close_pid=$!
345
346        do_facet $SINGLEMDS "sysctl -w lustre.fail_loc=0x80000107"
347        mcreate $DIR/$tdir-2/f &
348        open_pid=$!
349        sleep 1
350        do_facet $SINGLEMDS "sysctl -w lustre.fail_loc=0"
351
352        kill -USR1 $close_pid
353        cancel_lru_locks mdc
354        wait $close_pid || return 1
355        wait $open_pid || return 3
356
357        $CHECKSTAT -t file $DIR/$tdir-1/f || return 4
358        $CHECKSTAT -t file $DIR/$tdir-2/f || return 5
359        rm -rf $DIR/$tdir-*
360 }
361 run_test 21b "drop open request while close and open are both in flight"
362
363 test_21c() {
364        mkdir -p $DIR/$tdir-1
365        mkdir -p $DIR/$tdir-2
366        multiop $DIR/$tdir-1/f O_c &
367        close_pid=$!
368
369        do_facet $SINGLEMDS "sysctl -w lustre.fail_loc=0x80000107"
370        mcreate $DIR/$tdir-2/f &
371        open_pid=$!
372        sleep 3
373        do_facet $SINGLEMDS "sysctl -w lustre.fail_loc=0"
374
375        do_facet $SINGLEMDS "sysctl -w lustre.fail_loc=0x80000115"
376        kill -USR1 $close_pid
377        cancel_lru_locks mdc
378        wait $close_pid || return 1
379        wait $open_pid || return 2
380
381        do_facet $SINGLEMDS "sysctl -w lustre.fail_loc=0"
382
383        $CHECKSTAT -t file $DIR/$tdir-1/f || return 2
384        $CHECKSTAT -t file $DIR/$tdir-2/f || return 3
385        rm -rf $DIR/$tdir-*
386 }
387 run_test 21c "drop both request while close and open are both in flight"
388
389 test_21d() {
390        mkdir -p $DIR/$tdir-1
391        mkdir -p $DIR/$tdir-2
392        multiop $DIR/$tdir-1/f O_c &
393        pid=$!
394
395        do_facet $SINGLEMDS "sysctl -w lustre.fail_loc=0x80000129"
396        multiop $DIR/$tdir-2/f Oc &
397        sleep 1
398        do_facet $SINGLEMDS "sysctl -w lustre.fail_loc=0"
399
400        do_facet $SINGLEMDS "sysctl -w lustre.fail_loc=0x80000122"
401        kill -USR1 $pid
402        cancel_lru_locks mdc
403        wait $pid || return 1
404        do_facet $SINGLEMDS "sysctl -w lustre.fail_loc=0"
405
406        $CHECKSTAT -t file $DIR/$tdir-1/f || return 2
407        $CHECKSTAT -t file $DIR/$tdir-2/f || return 3
408
409        rm -rf $DIR/$tdir-*
410 }
411 run_test 21d "drop close reply while close and open are both in flight"
412
413 test_21e() {
414        mkdir -p $DIR/$tdir-1
415        mkdir -p $DIR/$tdir-2
416        multiop $DIR/$tdir-1/f O_c &
417        pid=$!
418
419        do_facet $SINGLEMDS "sysctl -w lustre.fail_loc=0x80000119"
420        touch $DIR/$tdir-2/f &
421        sleep 1
422        do_facet $SINGLEMDS "sysctl -w lustre.fail_loc=0"
423
424        kill -USR1 $pid
425        cancel_lru_locks mdc
426        wait $pid || return 1
427
428        sleep $TIMEOUT
429        $CHECKSTAT -t file $DIR/$tdir-1/f || return 2
430        $CHECKSTAT -t file $DIR/$tdir-2/f || return 3
431        rm -rf $DIR/$tdir-*
432 }
433 run_test 21e "drop open reply while close and open are both in flight"
434
435 test_21f() {
436        mkdir -p $DIR/$tdir-1
437        mkdir -p $DIR/$tdir-2
438        multiop $DIR/$tdir-1/f O_c &
439        pid=$!
440
441        do_facet $SINGLEMDS "sysctl -w lustre.fail_loc=0x80000119"
442        touch $DIR/$tdir-2/f &
443        sleep 1
444        do_facet $SINGLEMDS "sysctl -w lustre.fail_loc=0"
445
446        do_facet $SINGLEMDS "sysctl -w lustre.fail_loc=0x80000122"
447        kill -USR1 $pid
448        cancel_lru_locks mdc
449        wait $pid || return 1
450        do_facet $SINGLEMDS "sysctl -w lustre.fail_loc=0"
451
452        $CHECKSTAT -t file $DIR/$tdir-1/f || return 2
453        $CHECKSTAT -t file $DIR/$tdir-2/f || return 3
454        rm -rf $DIR/$tdir-*
455 }
456 run_test 21f "drop both reply while close and open are both in flight"
457
458 test_21g() {
459        mkdir -p $DIR/$tdir-1
460        mkdir -p $DIR/$tdir-2
461        multiop $DIR/$tdir-1/f O_c &
462        pid=$!
463
464        do_facet $SINGLEMDS "sysctl -w lustre.fail_loc=0x80000119"
465        touch $DIR/$tdir-2/f &
466        sleep 1
467        do_facet $SINGLEMDS "sysctl -w lustre.fail_loc=0"
468
469        do_facet $SINGLEMDS "sysctl -w lustre.fail_loc=0x80000115"
470        kill -USR1 $pid
471        cancel_lru_locks mdc
472        wait $pid || return 1
473        do_facet $SINGLEMDS "sysctl -w lustre.fail_loc=0"
474
475        $CHECKSTAT -t file $DIR/$tdir-1/f || return 2
476        $CHECKSTAT -t file $DIR/$tdir-2/f || return 3
477        rm -rf $DIR/$tdir-*
478 }
479 run_test 21g "drop open reply and close request while close and open are both in flight"
480
481 test_21h() {
482        mkdir -p $DIR/$tdir-1
483        mkdir -p $DIR/$tdir-2
484        multiop $DIR/$tdir-1/f O_c &
485        pid=$!
486
487        do_facet $SINGLEMDS "sysctl -w lustre.fail_loc=0x80000107"
488        touch $DIR/$tdir-2/f &
489        touch_pid=$!
490        sleep 1
491        do_facet $SINGLEMDS "sysctl -w lustre.fail_loc=0"
492
493        do_facet $SINGLEMDS "sysctl -w lustre.fail_loc=0x80000122"
494        cancel_lru_locks mdc
495        kill -USR1 $pid
496        wait $pid || return 1
497        do_facet $SINGLEMDS "sysctl -w lustre.fail_loc=0"
498
499        wait $touch_pid || return 2
500
501        $CHECKSTAT -t file $DIR/$tdir-1/f || return 3
502        $CHECKSTAT -t file $DIR/$tdir-2/f || return 4
503        rm -rf $DIR/$tdir-*
504 }
505 run_test 21h "drop open request and close reply while close and open are both in flight"
506
507 # bug 3462 - multiple MDC requests
508 test_22() {
509     f1=$DIR/${tfile}-1
510     f2=$DIR/${tfile}-2
511     
512     do_facet $SINGLEMDS "sysctl -w lustre.fail_loc=0x80000115"
513     multiop $f2 Oc &
514     close_pid=$!
515
516     sleep 1
517     multiop $f1 msu || return 1
518
519     cancel_lru_locks mdc
520     do_facet $SINGLEMDS "sysctl -w lustre.fail_loc=0"
521
522     wait $close_pid || return 2
523     rm -rf $f2 || return 4
524 }
525 run_test 22 "drop close request and do mknod"
526
527 test_23() { #b=4561
528     multiop $DIR/$tfile O_c &
529     pid=$!
530     # give a chance for open
531     sleep 5
532
533     # try the close
534     drop_request "kill -USR1 $pid"
535
536     fail $SINGLEMDS
537     wait $pid || return 1
538     return 0
539 }
540 run_test 23 "client hang when close a file after mds crash"
541
542 test_24() {     # bug 2248 - eviction fails writeback but app doesn't see it
543         mkdir -p $DIR/$tdir
544         cancel_lru_locks osc
545         multiop $DIR/$tdir/$tfile Owy_wyc &
546         MULTI_PID=$!
547         usleep 500
548         ost_evict_client
549         usleep 500
550         kill -USR1 $MULTI_PID
551         wait $MULTI_PID
552         rc=$?
553         sysctl -w lustre.fail_loc=0x0
554         client_reconnect
555         [ $rc -eq 0 ] && error_ignore 5494 "multiop didn't fail fsync: rc $rc" || true
556 }
557 run_test 24 "fsync error (should return error)"
558
559 test_26() {      # bug 5921 - evict dead exports by pinger
560 # this test can only run from a client on a separate node.
561         remote_ost || skip "local OST" && return
562         remote_mds || skip "local MDS" && return
563         OST_FILE=$LPROC/obdfilter/${ost1_svc}/num_exports
564         OST_EXP="`do_facet ost1 cat $OST_FILE`"
565         OST_NEXP1=`echo $OST_EXP | cut -d' ' -f2`
566         echo starting with $OST_NEXP1 OST exports
567 # OBD_FAIL_PTLRPC_DROP_RPC 0x505
568         do_facet client sysctl -w lustre.fail_loc=0x505
569         # evictor takes up to 2.25x to evict.  But if there's a 
570         # race to start the evictor from various obds, the loser
571         # might have to wait for the next ping.
572         echo Waiting for $(($TIMEOUT * 4)) secs
573         sleep $(($TIMEOUT * 4))
574         OST_EXP="`do_facet ost1 cat $OST_FILE`"
575         OST_NEXP2=`echo $OST_EXP | cut -d' ' -f2`
576         echo ending with $OST_NEXP2 OST exports
577         do_facet client sysctl -w lustre.fail_loc=0x0
578         [ $OST_NEXP1 -le $OST_NEXP2 ] && error "client not evicted"
579         return 0
580 }
581 run_test 26 "evict dead exports"
582
583 test_26b() {      # bug 10140 - evict dead exports by pinger
584         client_df
585         zconf_mount `hostname` $MOUNT2 || error "Failed to mount $MOUNT2"
586         sleep 1 # wait connections being established
587         MDS_FILE=$LPROC/mdt/${mds1_svc}/num_exports
588         MDS_NEXP1="`do_facet $SINGLEMDS cat $MDS_FILE | cut -d' ' -f2`"
589         OST_FILE=$LPROC/obdfilter/${ost1_svc}/num_exports
590         OST_NEXP1="`do_facet ost1 cat $OST_FILE | cut -d' ' -f2`"
591         echo starting with $OST_NEXP1 OST and $MDS_NEXP1 MDS exports
592         zconf_umount `hostname` $MOUNT2 -f
593         # evictor takes up to 2.25x to evict.  But if there's a 
594         # race to start the evictor from various obds, the loser
595         # might have to wait for the next ping.
596         echo Waiting for $(($TIMEOUT * 4)) secs
597         sleep $(($TIMEOUT * 4))
598         OST_NEXP2="`do_facet ost1 cat $OST_FILE | cut -d' ' -f2`"
599         MDS_NEXP2="`do_facet $SINGLEMDS cat $MDS_FILE | cut -d' ' -f2`"
600         echo ending with $OST_NEXP2 OST and $MDS_NEXP2 MDS exports
601         [ $OST_NEXP1 -le $OST_NEXP2 ] && error "client not evicted from OST"
602         [ $MDS_NEXP1 -le $MDS_NEXP2 ] && error "client not evicted from MDS"
603         return 0
604 }
605 run_test 26b "evict dead exports"
606
607 test_27() {
608         remote_mds && { skip "remote MDS" && return 0; }
609         mkdir -p $DIR/$tdir
610         writemany -q -a $DIR/$tdir/$tfile 0 5 &
611         CLIENT_PID=$!
612         sleep 1
613         FAILURE_MODE="SOFT"
614         facet_failover $SINGLEMDS
615 #define OBD_FAIL_OSC_SHUTDOWN            0x407
616         sysctl -w lustre.fail_loc=0x80000407
617         # need to wait for reconnect
618         echo -n waiting for fail_loc
619         while [ `sysctl -n lustre.fail_loc` -eq -2147482617 ]; do
620             sleep 1
621             echo -n .
622         done
623         facet_failover $SINGLEMDS
624         #no crashes allowed!
625         kill -USR1 $CLIENT_PID
626         wait $CLIENT_PID 
627         true
628 }
629 run_test 27 "fail LOV while using OSC's"
630
631 test_28() {      # bug 6086 - error adding new clients
632         do_facet client mcreate $MOUNT/$tfile       || return 1
633         drop_bl_callback "chmod 0777 $MOUNT/$tfile" ||echo "evicted as expected"
634         #define OBD_FAIL_MDS_CLIENT_ADD 0x12f
635         do_facet $SINGLEMDS "sysctl -w lustre.fail_loc=0x8000012f"
636         # fail once (evicted), reconnect fail (fail_loc), ok
637         df || (sleep 10; df) || (sleep 10; df) || error "reconnect failed"
638         rm -f $MOUNT/$tfile
639         fail $SINGLEMDS         # verify MDS last_rcvd can be loaded
640 }
641 run_test 28 "handle error adding new clients (bug 6086)"
642
643 test_50() {
644         mkdir -p $DIR/$tdir
645         # put a load of file creates/writes/deletes
646         writemany -q $DIR/$tdir/$tfile 0 5 &
647         CLIENT_PID=$!
648         echo writemany pid $CLIENT_PID
649         sleep 10
650         FAILURE_MODE="SOFT"
651         fail $SINGLEMDS
652         # wait for client to reconnect to MDS
653         sleep 60
654         fail $SINGLEMDS
655         sleep 60
656         fail $SINGLEMDS
657         # client process should see no problems even though MDS went down
658         sleep $TIMEOUT
659         kill -USR1 $CLIENT_PID
660         wait $CLIENT_PID 
661         rc=$?
662         echo writemany returned $rc
663         #these may fail because of eviction due to slow AST response.
664         return $rc
665 }
666 run_test 50 "failover MDS under load"
667
668 test_51() {
669         mkdir -p $DIR/$tdir
670         # put a load of file creates/writes/deletes
671         writemany -q $DIR/$tdir/$tfile 0 5 &
672         CLIENT_PID=$!
673         sleep 1
674         FAILURE_MODE="SOFT"
675         facet_failover $SINGLEMDS
676         # failover at various points during recovery
677         SEQ="1 5 10 $(seq $TIMEOUT 5 $(($TIMEOUT+10)))"
678         echo will failover at $SEQ
679         for i in $SEQ
680           do
681           echo failover in $i sec
682           sleep $i
683           facet_failover $SINGLEMDS
684         done
685         # client process should see no problems even though MDS went down
686         # and recovery was interrupted
687         sleep $TIMEOUT
688         kill -USR1 $CLIENT_PID
689         wait $CLIENT_PID 
690         rc=$?
691         echo writemany returned $rc
692         return $rc
693 }
694 run_test 51 "failover MDS during recovery"
695
696 test_52_guts() {
697         do_facet client "writemany -q -a $DIR/$tdir/$tfile 300 5" &
698         CLIENT_PID=$!
699         echo writemany pid $CLIENT_PID
700         sleep 10
701         FAILURE_MODE="SOFT"
702         fail ost1
703         rc=0
704         wait $CLIENT_PID || rc=$?
705         # active client process should see an EIO for down OST
706         [ $rc -eq 5 ] && { echo "writemany correctly failed $rc" && return 0; }
707         # but timing or failover setup may allow success
708         [ $rc -eq 0 ] && { echo "writemany succeeded" && return 0; }
709         echo "writemany returned $rc"
710         return $rc
711 }
712
713 test_52() {
714         mkdir -p $DIR/$tdir
715         test_52_guts
716         rc=$?
717         [ $rc -ne 0 ] && { return $rc; }
718         # wait for client to reconnect to OST
719         sleep 30
720         test_52_guts
721         rc=$?
722         [ $rc -ne 0 ] && { return $rc; }
723         sleep 30
724         test_52_guts
725         rc=$?
726         client_reconnect
727         #return $rc
728 }
729 run_test 52 "failover OST under load"
730
731 # test of open reconstruct
732 test_53() {
733         touch $DIR/$tfile
734         drop_ldlm_reply "openfile -f O_RDWR:O_CREAT -m 0755 $DIR/$tfile" ||\
735                 return 2
736 }
737 run_test 53 "touch: drop rep"
738
739 test_54() {
740         zconf_mount `hostname` $MOUNT2
741         touch $DIR/$tfile
742         touch $DIR2/$tfile.1
743         sleep 10
744         cat $DIR2/$tfile.missing # save transno = 0, rc != 0 into last_rcvd
745         fail $SINGLEMDS
746         umount $MOUNT2
747         ERROR=`dmesg | egrep "(test 54|went back in time)" | tail -n1 | grep "went back in time"`
748         [ x"$ERROR" == x ] || error "back in time occured"
749 }
750 run_test 54 "back in time"
751
752 # bug 11330 - liblustre application death during I/O locks up OST
753 test_55() {
754         remote_ost && { skip "remote OST" && return 0; }
755
756         mkdir -p $DIR/$tdir
757
758         # first dd should be finished quickly
759         dd if=/dev/zero of=$DIR/$tdir/$tfile-1 bs=32M count=4  &
760         DDPID=$!
761         count=0
762         echo  "step1: testing ......"
763         while [ true ]; do
764             if [ -z `ps x | awk '$1 == '$DDPID' { print $5 }'` ]; then break; fi
765             count=$[count+1]
766             if [ $count -gt 64 ]; then
767                 error "dd should be finished!"
768             fi
769             sleep 1
770         done    
771         echo "(dd_pid=$DDPID, time=$count)successful"
772
773         #define OBD_FAIL_OST_DROP_REQ            0x21d
774         do_facet ost sysctl -w lustre.fail_loc=0x0000021d
775         # second dd will be never finished
776         dd if=/dev/zero of=$DIR/$tdir/$tfile-2 bs=32M count=4  &        
777         DDPID=$!
778         count=0
779         echo  "step2: testing ......"
780         while [ $count -le 64 ]; do
781             dd_name="`ps x | awk '$1 == '$DDPID' { print $5 }'`"            
782             if [ -z  $dd_name ]; then 
783                 ls -l $DIR/$tdir
784                 echo  "debug: (dd_name=$dd_name, dd_pid=$DDPID, time=$count)"
785                 error "dd shouldn't be finished!"
786             fi
787             count=$[count+1]
788             sleep 1
789         done    
790         echo "(dd_pid=$DDPID, time=$count)successful"
791
792         #Recover fail_loc and dd will finish soon
793         do_facet ost sysctl -w lustre.fail_loc=0
794         count=0
795         echo  "step3: testing ......"
796         while [ true ]; do
797             if [ -z `ps x | awk '$1 == '$DDPID' { print $5 }'` ]; then break; fi
798             count=$[count+1]
799             if [ $count -gt 500 ]; then
800                 error "dd should be finished!"
801             fi
802             sleep 1
803         done    
804         echo "(dd_pid=$DDPID, time=$count)successful"
805
806         rm -rf $DIR/$tdir
807 }
808 run_test 55 "ost_brw_read/write drops timed-out read/write request"
809
810 test_56() { # b=11277
811 #define OBD_FAIL_MDS_RESEND      0x136
812         touch $DIR/$tfile
813         do_facet $SINGLEMDS "sysctl -w lustre.fail_loc=0x80000136"
814         stat $DIR/$tfile
815         do_facet $SINGLEMDS "sysctl -w lustre.fail_loc=0"
816         rm -f $DIR/$tfile
817 }
818 run_test 56 "do not allow reconnect to busy exports"
819
820 test_57_helper() {
821         # no oscs means no client or mdt 
822         while [ -e $LPROC/osc ]; do
823                 for f in `find $LPROC -type f`; do 
824                         cat $f > /dev/null 2>&1
825                 done
826         done
827 }
828
829 test_57() { # bug 10866
830         test_57_helper &
831         pid=$!
832         sleep 1
833 #define OBD_FAIL_LPROC_REMOVE            0xB00
834         sysctl -w lustre.fail_loc=0x80000B00
835         zconf_umount `hostname` $DIR
836         sysctl -w lustre.fail_loc=0x80000B00
837         fail_abort $SINGLEMDS
838         kill -9 $pid
839         sysctl -w lustre.fail_loc=0
840         mount_client $DIR
841         do_facet client "df $DIR"
842 }
843 run_test 57 "read procfs entries causes kernel crash"
844
845 test_58() { # bug 11546
846 #define OBD_FAIL_MDC_ENQUEUE_PAUSE        0x801
847         touch $MOUNT/$tfile
848         ls -la $MOUNT/$tfile
849         sysctl -w lustre.fail_loc=0x80000801
850         cp $MOUNT/$tfile /dev/null &
851         pid=$!
852         sleep 1
853         sysctl -w lustre.fail_loc=0
854         drop_bl_callback rm -f $MOUNT/$tfile
855         wait $pid
856         do_facet client "df $DIR"
857 }
858 run_test 58 "Eviction in the middle of open RPC reply processing"
859
860 test_59() { # bug 10589
861         zconf_mount `hostname` $MOUNT2 || error "Failed to mount $MOUNT2"
862 #define OBD_FAIL_LDLM_CANCEL_EVICT_RACE  0x311
863         sysctl -w lustre.fail_loc=0x311
864         writes=`dd if=/dev/zero of=$DIR2/$tfile count=1 2>&1 | awk 'BEGIN { FS="+" } /out/ {print $1}'`
865         sysctl -w lustre.fail_loc=0
866         sync
867         zconf_umount `hostname` $DIR2 -f
868         reads=`dd if=$DIR/$tfile of=/dev/null 2>&1 | awk 'BEGIN { FS="+" } /in/ {print $1}'`
869         [ $reads -eq $writes ] || error "read" $reads "blocks, must be" $writes
870 }
871 run_test 59 "Read cancel race on client eviction"
872
873 equals_msg `basename $0`: test complete, cleaning up
874 check_and_cleanup_lustre
875 [ -f "$TESTSUITELOG" ] && cat $TESTSUITELOG || true