Whamcloud - gitweb
LU-9899 tests: mount client on MGS for tests with pools
[fs/lustre-release.git] / lustre / tests / replay-single.sh
1 #!/bin/bash
2
3 set -e
4 #set -v
5
6 #
7 # This test needs to be run on the client
8 #
9 SAVE_PWD=$PWD
10 export MULTIOP=${MULTIOP:-multiop}
11 LUSTRE=${LUSTRE:-$(cd $(dirname $0)/..; echo $PWD)}
12 SETUP=${SETUP:-}
13 CLEANUP=${CLEANUP:-}
14 . $LUSTRE/tests/test-framework.sh
15 init_test_env $@
16 . ${CONFIG:=$LUSTRE/tests/cfg/$NAME.sh}
17 init_logging
18 CHECK_GRANT=${CHECK_GRANT:-"yes"}
19 GRANT_CHECK_LIST=${GRANT_CHECK_LIST:-""}
20
21 require_dsh_mds || exit 0
22
23 # Skip these tests
24 # bug number for skipped tests:
25 ALWAYS_EXCEPT="$REPLAY_SINGLE_EXCEPT "
26 # UPDATE THE COMMENT ABOVE WITH BUG NUMBERS WHEN CHANGING ALWAYS_EXCEPT!
27
28 #                                  7.5  (min)"
29 [ "$SLOW" = "no" ] && EXCEPT_SLOW="44b"
30
31 [ $(facet_fstype $SINGLEMDS) = "zfs" ] &&
32 # bug number for skipped test:
33         ALWAYS_EXCEPT="$ALWAYS_EXCEPT "
34
35 build_test_filter
36
37 check_and_setup_lustre
38
39 mkdir -p $DIR
40
41 assert_DIR
42 rm -rf $DIR/[df][0-9]* $DIR/f.$TESTSUITE.*
43
44 # LU-482 Avert LVM and VM inability to flush caches in pre .33 kernels
45 if [ $LINUX_VERSION_CODE -lt $(version_code 2.6.33) ]; then
46     sync
47     do_facet $SINGLEMDS sync
48 fi
49
50 test_0a() {     # was test_0
51         mkdir $DIR/$tdir || error "mkdir $DIR/$tdir failed"
52         replay_barrier $SINGLEMDS
53         fail $SINGLEMDS
54         rmdir $DIR/$tdir
55 }
56 run_test 0a "empty replay"
57
58 test_0b() {
59         remote_ost_nodsh && skip "remote OST with nodsh" && return 0
60
61         # this test attempts to trigger a race in the precreation code,
62         # and must run before any other objects are created on the filesystem
63         fail ost1
64         createmany -o $DIR/$tfile 20 || error "createmany -o $DIR/$tfile failed"
65         unlinkmany $DIR/$tfile 20 || error "unlinkmany $DIR/$tfile failed"
66 }
67 run_test 0b "ensure object created after recover exists. (3284)"
68
69 test_0c() {
70         replay_barrier $SINGLEMDS
71         mcreate $DIR/$tfile
72         umount $MOUNT
73         facet_failover $SINGLEMDS
74         zconf_mount $(hostname) $MOUNT || error "mount fails"
75         client_up || error "post-failover df failed"
76         # file shouldn't exist if replay-barrier works as expected
77         rm $DIR/$tfile && error "File exists and it shouldn't"
78         return 0
79 }
80 run_test 0c "check replay-barrier"
81
82 test_0d() {
83         replay_barrier $SINGLEMDS
84         umount $MOUNT
85         facet_failover $SINGLEMDS
86         zconf_mount $(hostname) $MOUNT || error "mount fails"
87         client_up || error "post-failover df failed"
88 }
89 run_test 0d "expired recovery with no clients"
90
91 test_1() {
92         replay_barrier $SINGLEMDS
93         mcreate $DIR/$tfile
94         fail $SINGLEMDS
95         $CHECKSTAT -t file $DIR/$tfile ||
96                 error "$CHECKSTAT $DIR/$tfile attribute check failed"
97         rm $DIR/$tfile
98 }
99 run_test 1 "simple create"
100
101 test_2a() {
102         replay_barrier $SINGLEMDS
103         touch $DIR/$tfile
104         fail $SINGLEMDS
105         $CHECKSTAT -t file $DIR/$tfile ||
106                 error "$CHECKSTAT $DIR/$tfile attribute check failed"
107         rm $DIR/$tfile
108 }
109 run_test 2a "touch"
110
111 test_2b() {
112         mcreate $DIR/$tfile || error "mcreate $DIR/$tfile failed"
113         replay_barrier $SINGLEMDS
114         touch $DIR/$tfile
115         fail $SINGLEMDS
116         $CHECKSTAT -t file $DIR/$tfile ||
117                 error "$CHECKSTAT $DIR/$tfile attribute check failed"
118         rm $DIR/$tfile
119 }
120 run_test 2b "touch"
121
122 test_3a() {
123         local file=$DIR/$tfile
124         replay_barrier $SINGLEMDS
125         mcreate $file
126         openfile -f O_DIRECTORY $file
127         fail $SINGLEMDS
128         $CHECKSTAT -t file $file ||
129                 error "$CHECKSTAT $file attribute check failed"
130         rm $file
131 }
132 run_test 3a "replay failed open(O_DIRECTORY)"
133
134 test_3b() {
135         replay_barrier $SINGLEMDS
136         #define OBD_FAIL_MDS_OPEN_PACK | OBD_FAIL_ONCE
137         do_facet $SINGLEMDS "lctl set_param fail_loc=0x80000114"
138         touch $DIR/$tfile
139         do_facet $SINGLEMDS "lctl set_param fail_loc=0"
140         fail $SINGLEMDS
141         $CHECKSTAT -t file $DIR/$tfile &&
142                 error "$CHECKSTAT $DIR/$tfile attribute check should fail"
143         return 0
144 }
145 run_test 3b "replay failed open -ENOMEM"
146
147 test_3c() {
148         replay_barrier $SINGLEMDS
149         #define OBD_FAIL_MDS_ALLOC_OBDO | OBD_FAIL_ONCE
150         do_facet $SINGLEMDS "lctl set_param fail_loc=0x80000128"
151         touch $DIR/$tfile
152         do_facet $SINGLEMDS "lctl set_param fail_loc=0"
153         fail $SINGLEMDS
154
155         $CHECKSTAT -t file $DIR/$tfile &&
156                 error "$CHECKSTAT $DIR/$tfile attribute check should fail"
157         return 0
158 }
159 run_test 3c "replay failed open -ENOMEM"
160
161 test_4a() {     # was test_4
162         replay_barrier $SINGLEMDS
163         for i in $(seq 10); do
164                 echo "tag-$i" > $DIR/$tfile-$i
165         done
166         fail $SINGLEMDS
167         for i in $(seq 10); do
168                 grep -q "tag-$i" $DIR/$tfile-$i || error "$tfile-$i"
169         done
170 }
171 run_test 4a "|x| 10 open(O_CREAT)s"
172
173 test_4b() {
174         for i in $(seq 10); do
175                 echo "tag-$i" > $DIR/$tfile-$i
176         done
177         replay_barrier $SINGLEMDS
178         rm -rf $DIR/$tfile-*
179         fail $SINGLEMDS
180         $CHECKSTAT -t file $DIR/$tfile-* &&
181                 error "$CHECKSTAT $DIR/$tfile-* attribute check should fail" ||
182                 true
183 }
184 run_test 4b "|x| rm 10 files"
185
186 # The idea is to get past the first block of precreated files on both
187 # osts, and then replay.
188 test_5() {
189         replay_barrier $SINGLEMDS
190         for i in $(seq 220); do
191                 echo "tag-$i" > $DIR/$tfile-$i
192         done
193         fail $SINGLEMDS
194         for i in $(seq 220); do
195                 grep -q "tag-$i" $DIR/$tfile-$i || error "$tfile-$i"
196         done
197         rm -rf $DIR/$tfile-*
198         sleep 3
199         # waiting for commitment of removal
200 }
201 run_test 5 "|x| 220 open(O_CREAT)"
202
203 test_6a() {     # was test_6
204         mkdir $DIR/$tdir || error "mkdir $DIR/$tdir failed"
205         replay_barrier $SINGLEMDS
206         mcreate $DIR/$tdir/$tfile
207         fail $SINGLEMDS
208         $CHECKSTAT -t dir $DIR/$tdir ||
209                 error "$CHECKSTAT $DIR/$tdir attribute check failed"
210         $CHECKSTAT -t file $DIR/$tdir/$tfile ||
211                 error "$CHECKSTAT $DIR/$tdir/$tfile attribute check failed"
212         sleep 2
213         # waiting for log process thread
214 }
215 run_test 6a "mkdir + contained create"
216
217 test_6b() {
218         mkdir $DIR/$tdir || error "mkdir $DIR/$tdir failed"
219         replay_barrier $SINGLEMDS
220         rm -rf $DIR/$tdir
221         fail $SINGLEMDS
222         $CHECKSTAT -t dir $DIR/$tdir &&
223                 error "$CHECKSTAT $DIR/$tdir attribute check should fail" ||
224                 true
225 }
226 run_test 6b "|X| rmdir"
227
228 test_7() {
229         mkdir $DIR/$tdir || error "mkdir $DIR/$tdir failed"
230         replay_barrier $SINGLEMDS
231         mcreate $DIR/$tdir/$tfile
232         fail $SINGLEMDS
233         $CHECKSTAT -t dir $DIR/$tdir ||
234                 error "$CHECKSTAT $DIR/$tdir attribute check failed"
235         $CHECKSTAT -t file $DIR/$tdir/$tfile ||
236                 error "$CHECKSTAT $DIR/$tdir/$tfile attribute check failed"
237         rm -fr $DIR/$tdir
238 }
239 run_test 7 "mkdir |X| contained create"
240
241 test_8() {
242         replay_barrier $SINGLEMDS
243         multiop_bg_pause $DIR/$tfile mo_c ||
244                 error "multiop mknod $DIR/$tfile failed"
245         MULTIPID=$!
246         fail $SINGLEMDS
247         ls $DIR/$tfile
248         $CHECKSTAT -t file $DIR/$tfile ||
249                 error "$CHECKSTAT $DIR/$tfile attribute check failed"
250         kill -USR1 $MULTIPID || error "multiop mknod $MULTIPID not running"
251         wait $MULTIPID || error "multiop mknod $MULTIPID failed"
252         rm $DIR/$tfile
253 }
254 run_test 8 "creat open |X| close"
255
256 test_9() {
257         replay_barrier $SINGLEMDS
258         mcreate $DIR/$tfile
259         local old_inum=$(ls -i $DIR/$tfile | awk '{print $1}')
260         fail $SINGLEMDS
261         local new_inum=$(ls -i $DIR/$tfile | awk '{print $1}')
262
263         echo " old_inum == $old_inum, new_inum == $new_inum"
264         if [ $old_inum -eq $new_inum  ] ;
265         then
266                 echo "old_inum and new_inum match"
267         else
268                 echo " old_inum and new_inum do not match"
269                 error "old index($old_inum) does not match new index($new_inum)"
270         fi
271         rm $DIR/$tfile
272 }
273 run_test 9 "|X| create (same inum/gen)"
274
275 test_10() {
276         mcreate $DIR/$tfile || error "mcreate $DIR/$tfile failed"
277         replay_barrier $SINGLEMDS
278         mv $DIR/$tfile $DIR/$tfile-2
279         rm -f $DIR/$tfile
280         fail $SINGLEMDS
281         $CHECKSTAT $DIR/$tfile &&
282                 error "$CHECKSTAT $DIR/$tfile attribute check should fail"
283         $CHECKSTAT $DIR/$tfile-2 ||
284                 error "$CHECKSTAT $DIR/$tfile-2 attribute check failed"
285         rm $DIR/$tfile-2
286         return 0
287 }
288 run_test 10 "create |X| rename unlink"
289
290 test_11() {
291         mcreate $DIR/$tfile || error "mcreate $DIR/$tfile failed"
292         echo "old" > $DIR/$tfile
293         mv $DIR/$tfile $DIR/$tfile-2
294         replay_barrier $SINGLEMDS
295         echo "new" > $DIR/$tfile
296         grep new $DIR/$tfile
297         grep old $DIR/$tfile-2
298         fail $SINGLEMDS
299         grep new $DIR/$tfile || error "grep $DIR/$tfile failed"
300         grep old $DIR/$tfile-2 || error "grep $DIR/$tfile-2 failed"
301 }
302 run_test 11 "create open write rename |X| create-old-name read"
303
304 test_12() {
305         mcreate $DIR/$tfile || error "mcreate $DIR/$tfile failed"
306         multiop_bg_pause $DIR/$tfile o_tSc ||
307                 error "multiop_bg_pause $DIR/$tfile failed"
308         pid=$!
309         rm -f $DIR/$tfile
310         replay_barrier $SINGLEMDS
311         kill -USR1 $pid || error "multiop $pid not running"
312         wait $pid || error "multiop $pid failed"
313
314         fail $SINGLEMDS
315         [ -e $DIR/$tfile ] && error "file $DIR/$tfile should not exist"
316         return 0
317 }
318 run_test 12 "open, unlink |X| close"
319
320 # 1777 - replay open after committed chmod that would make
321 #        a regular open a failure
322 test_13() {
323         mcreate $DIR/$tfile || error "mcreate $DIR/$tfile failed"
324         multiop_bg_pause $DIR/$tfile O_wc ||
325                 error "multiop_bg_pause $DIR/$tfile failed"
326         pid=$!
327         chmod 0 $DIR/$tfile
328         $CHECKSTAT -p 0 $DIR/$tfile ||
329                 error "$CHECKSTAT $DIR/$tfile attribute check failed"
330         replay_barrier $SINGLEMDS
331         fail $SINGLEMDS
332         kill -USR1 $pid || error "multiop $pid not running"
333         wait $pid || error "multiop $pid failed"
334
335         $CHECKSTAT -s 1 -p 0 $DIR/$tfile ||
336                 error "second $CHECKSTAT $DIR/$tfile attribute check failed"
337         rm $DIR/$tfile || error "rm $DIR/$tfile failed"
338         return 0
339 }
340 run_test 13 "open chmod 0 |x| write close"
341
342 test_14() {
343         multiop_bg_pause $DIR/$tfile O_tSc ||
344                 error "multiop_bg_pause $DIR/$tfile failed"
345         pid=$!
346         rm -f $DIR/$tfile
347         replay_barrier $SINGLEMDS
348         kill -USR1 $pid || error "multiop $pid not running"
349         wait $pid || error "multiop $pid failed"
350
351         fail $SINGLEMDS
352         [ -e $DIR/$tfile ] && error "file $DIR/$tfile should not exist"
353         return 0
354 }
355 run_test 14 "open(O_CREAT), unlink |X| close"
356
357 test_15() {
358         multiop_bg_pause $DIR/$tfile O_tSc ||
359                 error "multiop_bg_pause $DIR/$tfile failed"
360         pid=$!
361         rm -f $DIR/$tfile
362         replay_barrier $SINGLEMDS
363         touch $DIR/$tfile-1 || error "touch $DIR/$tfile-1 failed"
364         kill -USR1 $pid || error "multiop $pid not running"
365         wait $pid || error "multiop $pid failed"
366
367         fail $SINGLEMDS
368         [ -e $DIR/$tfile ] && error "file $DIR/$tfile should not exist"
369         touch $DIR/$tfile-2 || error "touch $DIR/$tfile-2 failed"
370         return 0
371 }
372 run_test 15 "open(O_CREAT), unlink |X|  touch new, close"
373
374 test_16() {
375         replay_barrier $SINGLEMDS
376         mcreate $DIR/$tfile
377         munlink $DIR/$tfile
378         mcreate $DIR/$tfile-2
379         fail $SINGLEMDS
380         [ -e $DIR/$tfile ] && error "file $DIR/$tfile should not exist"
381         [ -e $DIR/$tfile-2 ] || error "file $DIR/$tfile-2 does not exist"
382         munlink $DIR/$tfile-2 || error "munlink $DIR/$tfile-2 failed"
383 }
384 run_test 16 "|X| open(O_CREAT), unlink, touch new,  unlink new"
385
386 test_17() {
387         replay_barrier $SINGLEMDS
388         multiop_bg_pause $DIR/$tfile O_c ||
389                 error "multiop_bg_pause $DIR/$tfile failed"
390         pid=$!
391         fail $SINGLEMDS
392         kill -USR1 $pid || error "multiop $pid not running"
393         wait $pid || error "multiop $pid failed"
394         $CHECKSTAT -t file $DIR/$tfile ||
395                 error "$CHECKSTAT $DIR/$tfile attribute check failed"
396         rm $DIR/$tfile
397 }
398 run_test 17 "|X| open(O_CREAT), |replay| close"
399
400 test_18() {
401         replay_barrier $SINGLEMDS
402         multiop_bg_pause $DIR/$tfile O_tSc ||
403                 error "multiop_bg_pause $DIR/$tfile failed"
404         pid=$!
405         rm -f $DIR/$tfile
406         touch $DIR/$tfile-2 || error "touch $DIR/$tfile-2 failed"
407         echo "pid: $pid will close"
408         kill -USR1 $pid || error "multiop $pid not running"
409         wait $pid || error "multiop $pid failed"
410
411         fail $SINGLEMDS
412         [ -e $DIR/$tfile ] && error "file $DIR/$tfile should not exist"
413         [ -e $DIR/$tfile-2 ] || error "file $DIR/$tfile-2 does not exist"
414         # this touch frequently fails
415         touch $DIR/$tfile-3 || error "touch $DIR/$tfile-3 failed"
416         munlink $DIR/$tfile-2 || error "munlink $DIR/$tfile-2 failed"
417         munlink $DIR/$tfile-3 || error "munlink $DIR/$tfile-3 failed"
418         return 0
419 }
420 run_test 18 "open(O_CREAT), unlink, touch new, close, touch, unlink"
421
422 # bug 1855 (a simpler form of test_11 above)
423 test_19() {
424         replay_barrier $SINGLEMDS
425         mcreate $DIR/$tfile
426         echo "old" > $DIR/$tfile
427         mv $DIR/$tfile $DIR/$tfile-2
428         grep old $DIR/$tfile-2
429         fail $SINGLEMDS
430         grep old $DIR/$tfile-2 || error "grep $DIR/$tfile-2 failed"
431 }
432 run_test 19 "mcreate, open, write, rename "
433
434 test_20a() {    # was test_20
435         replay_barrier $SINGLEMDS
436         multiop_bg_pause $DIR/$tfile O_tSc ||
437                 error "multiop_bg_pause $DIR/$tfile failed"
438         pid=$!
439         rm -f $DIR/$tfile
440
441         fail $SINGLEMDS
442         kill -USR1 $pid || error "multiop $pid not running"
443         wait $pid || error "multiop $pid failed"
444         [ -e $DIR/$tfile ] && error "file $DIR/$tfile should not exist"
445         return 0
446 }
447 run_test 20a "|X| open(O_CREAT), unlink, replay, close (test mds_cleanup_orphans)"
448
449 test_20b() { # bug 10480
450         local wait_timeout=$((TIMEOUT * 4))
451         local BEFOREUSED
452         local AFTERUSED
453
454         BEFOREUSED=$(df -P $DIR | tail -1 | awk '{ print $3 }')
455         dd if=/dev/zero of=$DIR/$tfile bs=4k count=10000 &
456         while [ ! -e $DIR/$tfile ] ; do
457                 usleep 60                      # give dd a chance to start
458         done
459
460         $GETSTRIPE $DIR/$tfile || error "$GETSTRIPE $DIR/$tfile failed"
461         # make it an orphan
462         rm -f $DIR/$tfile || error "rm -f $DIR/$tfile failed"
463         mds_evict_client
464         client_up || client_up || true    # reconnect
465
466         do_facet $SINGLEMDS "lctl set_param -n osd*.*MDT*.force_sync 1"
467
468         fail $SINGLEMDS                            # start orphan recovery
469         wait_recovery_complete $SINGLEMDS || error "MDS recovery not done"
470         wait_delete_completed_mds $wait_timeout ||
471                 error "delete did not complete"
472
473         AFTERUSED=$(df -P $DIR | tail -1 | awk '{ print $3 }')
474         log "before $BEFOREUSED, after $AFTERUSED"
475         (( $AFTERUSED > $BEFOREUSED + $(fs_log_size) )) &&
476                 error "after $AFTERUSED > before $BEFOREUSED"
477         return 0
478 }
479 run_test 20b "write, unlink, eviction, replay, (test mds_cleanup_orphans)"
480
481 test_20c() { # bug 10480
482         multiop_bg_pause $DIR/$tfile Ow_c ||
483                 error "multiop_bg_pause $DIR/$tfile failed"
484         pid=$!
485
486         ls -la $DIR/$tfile
487
488         mds_evict_client
489         client_up || client_up || true    # reconnect
490
491         kill -USR1 $pid || error "multiop $pid not running"
492         wait $pid || error "multiop $pid failed"
493         [ -s $DIR/$tfile ] || error "File was truncated"
494
495         return 0
496 }
497 run_test 20c "check that client eviction does not affect file content"
498
499 test_21() {
500         replay_barrier $SINGLEMDS
501         multiop_bg_pause $DIR/$tfile O_tSc ||
502                 error "multiop_bg_pause $DIR/$tfile failed"
503         pid=$!
504         rm -f $DIR/$tfile
505         touch $DIR/$tfile-1 || error "touch $DIR/$tfile-1 failed"
506
507         fail $SINGLEMDS
508         kill -USR1 $pid || error "multiop $pid not running"
509         wait $pid || error "multiop $pid failed"
510         [ -e $DIR/$tfile ] && error "file $DIR/$tfile should not exist"
511         touch $DIR/$tfile-2 || error "touch $DIR/$tfile-2 failed"
512         return 0
513 }
514 run_test 21 "|X| open(O_CREAT), unlink touch new, replay, close (test mds_cleanup_orphans)"
515
516 test_22() {
517         multiop_bg_pause $DIR/$tfile O_tSc ||
518                 error "multiop_bg_pause $DIR/$tfile failed"
519         pid=$!
520
521         replay_barrier $SINGLEMDS
522         rm -f $DIR/$tfile
523
524         fail $SINGLEMDS
525         kill -USR1 $pid || error "multiop $pid not running"
526         wait $pid || error "multiop $pid failed"
527         [ -e $DIR/$tfile ] && error "file $DIR/$tfile should not exist"
528         return 0
529 }
530 run_test 22 "open(O_CREAT), |X| unlink, replay, close (test mds_cleanup_orphans)"
531
532 test_23() {
533         multiop_bg_pause $DIR/$tfile O_tSc ||
534                 error "multiop_bg_pause $DIR/$tfile failed"
535         pid=$!
536
537         replay_barrier $SINGLEMDS
538         rm -f $DIR/$tfile
539         touch $DIR/$tfile-1 || error "touch $DIR/$tfile-1 failed"
540
541         fail $SINGLEMDS
542         kill -USR1 $pid || error "multiop $pid not running"
543         wait $pid || error "multiop $pid failed"
544         [ -e $DIR/$tfile ] && error "file $DIR/$tfile should not exist"
545         touch $DIR/$tfile-2 || error "touch $DIR/$tfile-2 failed"
546         return 0
547 }
548 run_test 23 "open(O_CREAT), |X| unlink touch new, replay, close (test mds_cleanup_orphans)"
549
550 test_24() {
551         multiop_bg_pause $DIR/$tfile O_tSc ||
552                 error "multiop_bg_pause $DIR/$tfile failed"
553         pid=$!
554
555         replay_barrier $SINGLEMDS
556         fail $SINGLEMDS
557         rm -f $DIR/$tfile
558         kill -USR1 $pid || error "multiop $pid not running"
559         wait $pid || error "multiop $pid failed"
560         [ -e $DIR/$tfile ] && error "file $DIR/$tfile should not exist"
561         return 0
562 }
563 run_test 24 "open(O_CREAT), replay, unlink, close (test mds_cleanup_orphans)"
564
565 test_25() {
566         multiop_bg_pause $DIR/$tfile O_tSc ||
567                 error "multiop_bg_pause $DIR/$tfile failed"
568         pid=$!
569         rm -f $DIR/$tfile
570
571         replay_barrier $SINGLEMDS
572         fail $SINGLEMDS
573         kill -USR1 $pid || error "multiop $pid not running"
574         wait $pid || error "multiop $pid failed"
575         [ -e $DIR/$tfile ] && error "file $DIR/$tfile should not exist"
576         return 0
577 }
578 run_test 25 "open(O_CREAT), unlink, replay, close (test mds_cleanup_orphans)"
579
580 test_26() {
581         replay_barrier $SINGLEMDS
582         multiop_bg_pause $DIR/$tfile-1 O_tSc ||
583                 error "multiop_bg_pause $DIR/$tfile-1 failed"
584         pid1=$!
585         multiop_bg_pause $DIR/$tfile-2 O_tSc ||
586                 error "multiop_bg_pause $DIR/$tfile-2 failed"
587         pid2=$!
588         rm -f $DIR/$tfile-1
589         rm -f $DIR/$tfile-2
590         kill -USR1 $pid2 || error "second multiop $pid2 not running"
591         wait $pid2 || error "second multiop $pid2 failed"
592
593         fail $SINGLEMDS
594         kill -USR1 $pid1 || error "multiop $pid1 not running"
595         wait $pid1 || error "multiop $pid1 failed"
596         [ -e $DIR/$tfile-1 ] && error "file $DIR/$tfile-1 should not exist"
597         [ -e $DIR/$tfile-2 ] && error "file $DIR/$tfile-2 should not exist"
598         return 0
599 }
600 run_test 26 "|X| open(O_CREAT), unlink two, close one, replay, close one (test mds_cleanup_orphans)"
601
602 test_27() {
603         replay_barrier $SINGLEMDS
604         multiop_bg_pause $DIR/$tfile-1 O_tSc ||
605                 error "multiop_bg_pause $DIR/$tfile-1 failed"
606         pid1=$!
607         multiop_bg_pause $DIR/$tfile-2 O_tSc ||
608                 error "multiop_bg_pause $DIR/$tfile-2 failed"
609         pid2=$!
610         rm -f $DIR/$tfile-1
611         rm -f $DIR/$tfile-2
612
613         fail $SINGLEMDS
614         kill -USR1 $pid1 || error "multiop $pid1 not running"
615         wait $pid1 || error "multiop $pid1 failed"
616         kill -USR1 $pid2 || error "second multiop $pid2 not running"
617         wait $pid2 || error "second multiop $pid2 failed"
618         [ -e $DIR/$tfile-1 ] && error "file $DIR/$tfile-1 should not exist"
619         [ -e $DIR/$tfile-2 ] && error "file $DIR/$tfile-2 should not exist"
620         return 0
621 }
622 run_test 27 "|X| open(O_CREAT), unlink two, replay, close two (test mds_cleanup_orphans)"
623
624 test_28() {
625         multiop_bg_pause $DIR/$tfile-1 O_tSc ||
626                 error "multiop_bg_pause $DIR/$tfile-1 failed"
627         pid1=$!
628         multiop_bg_pause $DIR/$tfile-2 O_tSc ||
629                 error "multiop_bg_pause $DIR/$tfile-2 failed"
630         pid2=$!
631         replay_barrier $SINGLEMDS
632         rm -f $DIR/$tfile-1
633         rm -f $DIR/$tfile-2
634         kill -USR1 $pid2 || error "second multiop $pid2 not running"
635         wait $pid2 || error "second multiop $pid2 failed"
636
637         fail $SINGLEMDS
638         kill -USR1 $pid1 || error "multiop $pid1 not running"
639         wait $pid1 || error "multiop $pid1 failed"
640         [ -e $DIR/$tfile-1 ] && error "file $DIR/$tfile-1 should not exist"
641         [ -e $DIR/$tfile-2 ] && error "file $DIR/$tfile-2 should not exist"
642         return 0
643 }
644 run_test 28 "open(O_CREAT), |X| unlink two, close one, replay, close one (test mds_cleanup_orphans)"
645
646 test_29() {
647         multiop_bg_pause $DIR/$tfile-1 O_tSc ||
648                 error "multiop_bg_pause $DIR/$tfile-1 failed"
649         pid1=$!
650         multiop_bg_pause $DIR/$tfile-2 O_tSc ||
651                 error "multiop_bg_pause $DIR/$tfile-2 failed"
652         pid2=$!
653         replay_barrier $SINGLEMDS
654         rm -f $DIR/$tfile-1
655         rm -f $DIR/$tfile-2
656
657         fail $SINGLEMDS
658         kill -USR1 $pid1 || error "multiop $pid1 not running"
659         wait $pid1 || error "multiop $pid1 failed"
660         kill -USR1 $pid2 || error "second multiop $pid2 not running"
661         wait $pid2 || error "second multiop $pid2 failed"
662         [ -e $DIR/$tfile-1 ] && error "file $DIR/$tfile-1 should not exist"
663         [ -e $DIR/$tfile-2 ] && error "file $DIR/$tfile-2 should not exist"
664         return 0
665 }
666 run_test 29 "open(O_CREAT), |X| unlink two, replay, close two (test mds_cleanup_orphans)"
667
668 test_30() {
669         multiop_bg_pause $DIR/$tfile-1 O_tSc ||
670                 error "multiop_bg_pause $DIR/$tfile-1 failed"
671         pid1=$!
672         multiop_bg_pause $DIR/$tfile-2 O_tSc ||
673                 error "multiop_bg_pause $DIR/$tfile-2 failed"
674         pid2=$!
675         rm -f $DIR/$tfile-1
676         rm -f $DIR/$tfile-2
677
678         replay_barrier $SINGLEMDS
679         fail $SINGLEMDS
680         kill -USR1 $pid1 || error "multiop $pid1 not running"
681         wait $pid1 || error "multiop $pid1 failed"
682         kill -USR1 $pid2 || error "second multiop $pid2 not running"
683         wait $pid2 || error "second multiop $pid2 failed"
684         [ -e $DIR/$tfile-1 ] && error "file $DIR/$tfile-1 should not exist"
685         [ -e $DIR/$tfile-2 ] && error "file $DIR/$tfile-2 should not exist"
686         return 0
687 }
688 run_test 30 "open(O_CREAT) two, unlink two, replay, close two (test mds_cleanup_orphans)"
689
690 test_31() {
691         multiop_bg_pause $DIR/$tfile-1 O_tSc ||
692                 error "multiop_bg_pause $DIR/$tfile-1 failed"
693         pid1=$!
694         multiop_bg_pause $DIR/$tfile-2 O_tSc ||
695                 error "multiop_bg_pause $DIR/$tfile-2 failed"
696         pid2=$!
697         rm -f $DIR/$tfile-1
698
699         replay_barrier $SINGLEMDS
700         rm -f $DIR/$tfile-2
701         fail $SINGLEMDS
702         kill -USR1 $pid1 || error "multiop $pid1 not running"
703         wait $pid1 || error "multiop $pid1 failed"
704         kill -USR1 $pid2 || error "second multiop $pid2 not running"
705         wait $pid2 || error "second multiop $pid2 failed"
706         [ -e $DIR/$tfile-1 ] && error "file $DIR/$tfile-1 should not exist"
707         [ -e $DIR/$tfile-2 ] && error "file $DIR/$tfile-2 should not exist"
708         return 0
709 }
710 run_test 31 "open(O_CREAT) two, unlink one, |X| unlink one, close two (test mds_cleanup_orphans)"
711
712 # tests for bug 2104; completion without crashing is success.  The close is
713 # stale, but we always return 0 for close, so the app never sees it.
714 test_32() {
715         multiop_bg_pause $DIR/$tfile O_c ||
716                 error "multiop_bg_pause $DIR/$tfile failed"
717         pid1=$!
718         multiop_bg_pause $DIR/$tfile O_c ||
719                 error "second multiop_bg_pause $DIR/$tfile failed"
720         pid2=$!
721         mds_evict_client
722         client_up || client_up || error "client_up failed"
723         kill -USR1 $pid1 || error "multiop $pid1 not running"
724         kill -USR1 $pid2 || error "second multiop $pid2 not running"
725         wait $pid1 || error "multiop $pid1 failed"
726         wait $pid2 || error "second multiop $pid2 failed"
727         return 0
728 }
729 run_test 32 "close() notices client eviction; close() after client eviction"
730
731 test_33a() {
732         createmany -o $DIR/$tfile-%d 10 ||
733                 error "createmany create $DIR/$tfile failed"
734         replay_barrier_nosync $SINGLEMDS
735         fail_abort $SINGLEMDS
736         # recreate shouldn't fail
737         createmany -o $DIR/$tfile--%d 10 ||
738                 error "createmany recreate $DIR/$tfile failed"
739         rm $DIR/$tfile-* -f
740         return 0
741 }
742 run_test 33a "fid seq shouldn't be reused after abort recovery"
743
744 test_33b() {
745         #define OBD_FAIL_SEQ_ALLOC                          0x1311
746         do_facet $SINGLEMDS "lctl set_param fail_loc=0x1311"
747
748         createmany -o $DIR/$tfile-%d 10
749         replay_barrier_nosync $SINGLEMDS
750         fail_abort $SINGLEMDS
751         # recreate shouldn't fail
752         createmany -o $DIR/$tfile--%d 10 ||
753                 error "createmany recreate $DIR/$tfile failed"
754         rm $DIR/$tfile-* -f
755         return 0
756 }
757 run_test 33b "test fid seq allocation"
758
759 test_34() {
760         multiop_bg_pause $DIR/$tfile O_c ||
761                 error "multiop_bg_pause $DIR/$tfile failed"
762         pid=$!
763         rm -f $DIR/$tfile
764
765         replay_barrier $SINGLEMDS
766         fail_abort $SINGLEMDS
767         kill -USR1 $pid || error "multiop $pid not running"
768         wait $pid || error "multiop $pid failed"
769         [ -e $DIR/$tfile ] && error "file $DIR/$tfile should not exist"
770         sync
771         return 0
772 }
773 run_test 34 "abort recovery before client does replay (test mds_cleanup_orphans)"
774
775 # bug 2278 - generate one orphan on OST, then destroy it during recovery from llog
776 test_35() {
777         touch $DIR/$tfile || error "touch $DIR/$tfile failed"
778
779         #define OBD_FAIL_MDS_REINT_NET_REP       0x119
780         do_facet $SINGLEMDS "lctl set_param fail_loc=0x80000119"
781         rm -f $DIR/$tfile &
782         sleep 1
783         sync
784         sleep 1
785         # give a chance to remove from MDS
786         fail_abort $SINGLEMDS
787         $CHECKSTAT -t file $DIR/$tfile &&
788                 error "$CHECKSTAT $DIR/$tfile attribute check should fail" ||
789                 true
790 }
791 run_test 35 "test recovery from llog for unlink op"
792
793 # b=2432 resent cancel after replay uses wrong cookie,
794 # so don't resend cancels
795 test_36() {
796         replay_barrier $SINGLEMDS
797         touch $DIR/$tfile
798         checkstat $DIR/$tfile
799         facet_failover $SINGLEMDS
800         cancel_lru_locks mdc
801         if dmesg | grep "unknown lock cookie"; then
802                 error "cancel after replay failed"
803         fi
804 }
805 run_test 36 "don't resend cancel"
806
807 # b=2368
808 # directory orphans can't be unlinked from PENDING directory
809 test_37() {
810         rmdir $DIR/$tfile 2>/dev/null
811         multiop_bg_pause $DIR/$tfile dD_c ||
812                 error "multiop_bg_pause $DIR/$tfile failed"
813         pid=$!
814         rmdir $DIR/$tfile
815
816         replay_barrier $SINGLEMDS
817         # clear the dmesg buffer so we only see errors from this recovery
818         do_facet $SINGLEMDS dmesg -c >/dev/null
819         fail_abort $SINGLEMDS
820         kill -USR1 $pid || error "multiop $pid not running"
821         do_facet $SINGLEMDS dmesg | grep "error .* unlinking .* from PENDING" &&
822                 error "error unlinking files"
823         wait $pid || error "multiop $pid failed"
824         sync
825         return 0
826 }
827 run_test 37 "abort recovery before client does replay (test mds_cleanup_orphans for directories)"
828
829 test_38() {
830         createmany -o $DIR/$tfile-%d 800 ||
831                 error "createmany -o $DIR/$tfile failed"
832         unlinkmany $DIR/$tfile-%d 0 400 || error "unlinkmany $DIR/$tfile failed"
833         replay_barrier $SINGLEMDS
834         fail $SINGLEMDS
835         unlinkmany $DIR/$tfile-%d 400 400 ||
836                 error "unlinkmany $DIR/$tfile 400 failed"
837         sleep 2
838         $CHECKSTAT -t file $DIR/$tfile-* &&
839                 error "$CHECKSTAT $DIR/$tfile-* attribute check should fail" ||
840                 true
841 }
842 run_test 38 "test recovery from unlink llog (test llog_gen_rec) "
843
844 test_39() { # bug 4176
845         createmany -o $DIR/$tfile-%d 800 ||
846                 error "createmany -o $DIR/$tfile failed"
847         replay_barrier $SINGLEMDS
848         unlinkmany $DIR/$tfile-%d 0 400
849         fail $SINGLEMDS
850         unlinkmany $DIR/$tfile-%d 400 400 ||
851                 error "unlinkmany $DIR/$tfile 400 failed"
852         sleep 2
853         $CHECKSTAT -t file $DIR/$tfile-* &&
854                 error "$CHECKSTAT $DIR/$tfile-* attribute check should fail" ||
855                 true
856 }
857 run_test 39 "test recovery from unlink llog (test llog_gen_rec) "
858
859 count_ost_writes() {
860     lctl get_param -n osc.*.stats | awk -vwrites=0 '/ost_write/ { writes += $2 } END { print writes; }'
861 }
862
863 #b=2477,2532
864 test_40(){
865         # always need connection to MDS to verify layout during IO. LU-2628.
866         lctl get_param mdc.*.connect_flags | grep -q layout_lock &&
867                 skip "layout_lock needs MDS connection for IO" && return 0
868
869         $LCTL mark multiop $MOUNT/$tfile OS_c
870         multiop $MOUNT/$tfile OS_c  &
871         PID=$!
872         writeme -s $MOUNT/${tfile}-2 &
873         WRITE_PID=$!
874         sleep 1
875         facet_failover $SINGLEMDS
876         #define OBD_FAIL_MDS_CONNECT_NET         0x117
877         do_facet $SINGLEMDS "lctl set_param fail_loc=0x80000117"
878         kill -USR1 $PID
879         stat1=$(count_ost_writes)
880         sleep $TIMEOUT
881         stat2=$(count_ost_writes)
882         echo "$stat1, $stat2"
883         if [ $stat1 -lt $stat2 ]; then
884                 echo "writes continuing during recovery"
885                 RC=0
886         else
887                 echo "writes not continuing during recovery, bug 2477"
888                 RC=4
889         fi
890         echo "waiting for writeme $WRITE_PID"
891         kill $WRITE_PID
892         wait $WRITE_PID
893
894         echo "waiting for multiop $PID"
895         wait $PID || error "multiop $PID failed"
896         do_facet client munlink $MOUNT/$tfile  ||
897                 error "munlink $MOUNT/$tfile failed"
898         do_facet client munlink $MOUNT/${tfile}-2  ||
899                 error "munlink $MOUNT/$tfile-2 failed"
900         return $RC
901 }
902 run_test 40 "cause recovery in ptlrpc, ensure IO continues"
903
904 #b=2814
905 # make sure that a read to one osc doesn't try to double-unlock its page just
906 # because another osc is invalid.  trigger_group_io used to mistakenly return
907 # an error if any oscs were invalid even after having successfully put rpcs
908 # on valid oscs.  This was fatal if the caller was ll_readpage who unlocked
909 # the page, guarnateeing that the unlock from the RPC completion would
910 # assert on trying to unlock the unlocked page.
911 test_41() {
912         [ $OSTCOUNT -lt 2 ] && skip_env "needs >= 2 OSTs" && return
913
914         local f=$MOUNT/$tfile
915         # make sure the start of the file is ost1
916         $SETSTRIPE -S $((128 * 1024)) -i 0 $f
917         do_facet client dd if=/dev/zero of=$f bs=4k count=1 ||
918                 error "dd on client failed"
919         cancel_lru_locks osc
920         # fail ost2 and read from ost1
921         local mdtosc=$(get_mdtosc_proc_path $SINGLEMDS $ost2_svc)
922         local osc2dev=$(do_facet $SINGLEMDS "lctl get_param -n devices" |
923                 grep $mdtosc | awk '{print $1}')
924         [ -z "$osc2dev" ] && echo "OST: $ost2_svc" &&
925                 lctl get_param -n devices &&
926                 error "OST 2 $osc2dev does not exist"
927         do_facet $SINGLEMDS $LCTL --device $osc2dev deactivate ||
928                 error "deactive device on $SINGLEMDS failed"
929         do_facet client dd if=$f of=/dev/null bs=4k count=1 ||
930                 error "second dd on client failed"
931         do_facet $SINGLEMDS $LCTL --device $osc2dev activate ||
932                 error "active device on $SINGLEMDS failed"
933         return 0
934 }
935 run_test 41 "read from a valid osc while other oscs are invalid"
936
937 # test MDS recovery after ost failure
938 test_42() {
939         blocks=$(df -P $MOUNT | tail -n 1 | awk '{ print $2 }')
940         createmany -o $DIR/$tfile-%d 800 ||
941                 error "createmany -o $DIR/$tfile failed"
942         replay_barrier ost1
943         unlinkmany $DIR/$tfile-%d 0 400
944         debugsave
945         lctl set_param debug=-1
946         facet_failover ost1
947
948         # osc is evicted, fs is smaller (but only with failout OSTs (bug 7287)
949         #blocks_after=`df -P $MOUNT | tail -n 1 | awk '{ print $2 }'`
950         #[ $blocks_after -lt $blocks ] || return 1
951         echo "wait for MDS to timeout and recover"
952         sleep $((TIMEOUT * 2))
953         debugrestore
954         unlinkmany $DIR/$tfile-%d 400 400 ||
955                 error "unlinkmany $DIR/$tfile 400 failed"
956         $CHECKSTAT -t file $DIR/$tfile-* &&
957                 error "$CHECKSTAT $DIR/$tfile-* attribute check should fail" ||
958                 true
959 }
960 run_test 42 "recovery after ost failure"
961
962 # timeout in MDS/OST recovery RPC will LBUG MDS
963 test_43() { # bug 2530
964         remote_ost_nodsh && skip "remote OST with nodsh" && return 0
965
966         replay_barrier $SINGLEMDS
967
968         # OBD_FAIL_OST_CREATE_NET 0x204
969         do_facet ost1 "lctl set_param fail_loc=0x80000204"
970         fail $SINGLEMDS
971         sleep 10
972
973         return 0
974 }
975 run_test 43 "mds osc import failure during recovery; don't LBUG"
976
977 test_44a() { # was test_44
978         local at_max_saved=0
979
980         local mdcdev=$($LCTL dl |
981                 awk "/${FSNAME}-MDT0000-mdc-/ {if (\$2 == \"UP\") {print \$1}}")
982         [ "$mdcdev" ] || error "${FSNAME}-MDT0000-mdc- not UP"
983         [ $(echo $mdcdev | wc -w) -eq 1 ] ||
984                 { $LCTL dl; error "looking for mdcdev=$mdcdev"; }
985
986         # adaptive timeouts slow this way down
987         if at_is_enabled; then
988                 at_max_saved=$(at_max_get mds)
989                 at_max_set 40 mds
990         fi
991
992         for i in $(seq 1 10); do
993                 echo "$i of 10 ($(date +%s))"
994                 do_facet $SINGLEMDS \
995                         "lctl get_param -n md[ts].*.mdt.timeouts | grep service"
996                 #define OBD_FAIL_TGT_CONN_RACE     0x701
997                 do_facet $SINGLEMDS "lctl set_param fail_loc=0x80000701"
998                 # lctl below may fail, it is valid case
999                 $LCTL --device $mdcdev recover
1000                 df $MOUNT
1001         done
1002         do_facet $SINGLEMDS "lctl set_param fail_loc=0"
1003         [ $at_max_saved -ne 0 ] && at_max_set $at_max_saved mds
1004         return 0
1005 }
1006 run_test 44a "race in target handle connect"
1007
1008 test_44b() {
1009         local mdcdev=$($LCTL dl |
1010                 awk "/${FSNAME}-MDT0000-mdc-/ {if (\$2 == \"UP\") {print \$1}}")
1011         [ "$mdcdev" ] || error "${FSNAME}-MDT0000-mdc not up"
1012         [ $(echo $mdcdev | wc -w) -eq 1 ] ||
1013                 { echo mdcdev=$mdcdev; $LCTL dl;
1014                   error "more than one ${FSNAME}-MDT0000-mdc"; }
1015
1016         for i in $(seq 1 10); do
1017                 echo "$i of 10 ($(date +%s))"
1018                 do_facet $SINGLEMDS \
1019                         "lctl get_param -n md[ts].*.mdt.timeouts | grep service"
1020                 #define OBD_FAIL_TGT_DELAY_RECONNECT 0x704
1021                 do_facet $SINGLEMDS "lctl set_param fail_loc=0x80000704"
1022                 # lctl below may fail, it is valid case
1023                 $LCTL --device $mdcdev recover
1024                 df $MOUNT
1025         done
1026         return 0
1027 }
1028 run_test 44b "race in target handle connect"
1029
1030 test_44c() {
1031         replay_barrier $SINGLEMDS
1032         createmany -m $DIR/$tfile-%d 100 || error "failed to create directories"
1033         #define OBD_FAIL_TGT_RCVG_FLAG 0x712
1034         do_facet $SINGLEMDS "lctl set_param fail_loc=0x80000712"
1035         fail_abort $SINGLEMDS
1036         unlinkmany $DIR/$tfile-%d 100 && error "unliked after fail abort"
1037         fail $SINGLEMDS
1038         unlinkmany $DIR/$tfile-%d 100 && error "unliked after fail"
1039         return 0
1040 }
1041 run_test 44c "race in target handle connect"
1042
1043 # Handle failed close
1044 test_45() {
1045         local mdcdev=$($LCTL get_param -n devices |
1046                 awk "/ ${FSNAME}-MDT0000-mdc-/ {print \$1}")
1047         [ "$mdcdev" ] || error "${FSNAME}-MDT0000-mdc not up"
1048         [ $(echo $mdcdev | wc -w) -eq 1 ] ||
1049                 { echo mdcdev=$mdcdev; $LCTL dl;
1050                   error "more than one ${FSNAME}-MDT0000-mdc"; }
1051
1052         $LCTL --device $mdcdev recover ||
1053                 error "$LCTL --device $mdcdev recover failed"
1054
1055         multiop_bg_pause $DIR/$tfile O_c ||
1056                 error "multiop_bg_pause $DIR/$tfile failed"
1057         pid=$!
1058
1059         # This will cause the CLOSE to fail before even
1060         # allocating a reply buffer
1061         $LCTL --device $mdcdev deactivate ||
1062                 error "$LCTL --device $mdcdev deactivate failed"
1063
1064         # try the close
1065         kill -USR1 $pid || error "multiop $pid not running"
1066         wait $pid || error "multiop $pid failed"
1067
1068         $LCTL --device $mdcdev activate ||
1069                 error "$LCTL --device $mdcdev activate failed"
1070         sleep 1
1071
1072         $CHECKSTAT -t file $DIR/$tfile ||
1073                 error "$CHECKSTAT $DIR/$tfile attribute check failed"
1074         return 0
1075 }
1076 run_test 45 "Handle failed close"
1077
1078 test_46() {
1079         dmesg -c >/dev/null
1080         drop_reply "touch $DIR/$tfile"
1081         fail $SINGLEMDS
1082         # ironically, the previous test, 45, will cause a real forced close,
1083         # so just look for one for this test
1084         dmesg | grep -i "force closing client file handle for $tfile" &&
1085                 error "found force closing in dmesg"
1086         return 0
1087 }
1088 run_test 46 "Don't leak file handle after open resend (3325)"
1089
1090 test_47() { # bug 2824
1091         remote_ost_nodsh && skip "remote OST with nodsh" && return 0
1092
1093         # create some files to make sure precreate has been done on all
1094         # OSTs. (just in case this test is run independently)
1095         createmany -o $DIR/$tfile 20  ||
1096                 error "createmany create $DIR/$tfile failed"
1097
1098         # OBD_FAIL_OST_CREATE_NET 0x204
1099         fail ost1
1100         do_facet ost1 "lctl set_param fail_loc=0x80000204"
1101         client_up || error "client_up failed"
1102
1103         # let the MDS discover the OST failure, attempt to recover, fail
1104         # and recover again.
1105         sleep $((3 * TIMEOUT))
1106
1107         # Without 2824, this createmany would hang
1108         createmany -o $DIR/$tfile 20 ||
1109                 error "createmany recraete $DIR/$tfile failed"
1110         unlinkmany $DIR/$tfile 20 || error "unlinkmany $DIR/$tfile failed"
1111
1112         return 0
1113 }
1114 run_test 47 "MDS->OSC failure during precreate cleanup (2824)"
1115
1116 test_48() {
1117         remote_ost_nodsh && skip "remote OST with nodsh" && return 0
1118         [ "$OSTCOUNT" -lt "2" ] && skip_env "needs >= 2 OSTs" && return
1119
1120         replay_barrier $SINGLEMDS
1121         createmany -o $DIR/$tfile 20  ||
1122                 error "createmany -o $DIR/$tfile failed"
1123         # OBD_FAIL_OST_EROFS 0x216
1124         facet_failover $SINGLEMDS
1125         do_facet ost1 "lctl set_param fail_loc=0x80000216"
1126         client_up || error "client_up failed"
1127
1128         createmany -o $DIR/$tfile 20 20 ||
1129                 error "createmany recraete $DIR/$tfile failed"
1130         unlinkmany $DIR/$tfile 40 || error "unlinkmany $DIR/$tfile failed"
1131         return 0
1132 }
1133 run_test 48 "MDS->OSC failure during precreate cleanup (2824)"
1134
1135 test_50() {
1136         local mdtosc=$(get_mdtosc_proc_path $SINGLEMDS $ost1_svc)
1137         local oscdev=$(do_facet $SINGLEMDS "lctl get_param -n devices" |
1138                 grep $mdtosc | awk '{print $1}')
1139         [ "$oscdev" ] || error "could not find OSC device on MDS"
1140         do_facet $SINGLEMDS $LCTL --device $oscdev recover ||
1141                 error "OSC device $oscdev recovery failed"
1142         do_facet $SINGLEMDS $LCTL --device $oscdev recover ||
1143                 error "second OSC device $oscdev recovery failed"
1144         # give the mds_lov_sync threads a chance to run
1145         sleep 5
1146 }
1147 run_test 50 "Double OSC recovery, don't LASSERT (3812)"
1148
1149 # b3764 timed out lock replay
1150 test_52() {
1151         [ $(lustre_version_code $SINGLEMDS) -lt $(version_code 2.6.90) ] &&
1152                 skip "MDS prior to 2.6.90 handle LDLM_REPLY_NET incorrectly" &&
1153                 return 0
1154
1155         touch $DIR/$tfile || error "touch $DIR/$tfile failed"
1156         cancel_lru_locks mdc
1157
1158         multiop_bg_pause $DIR/$tfile s_s || error "multiop $DIR/$tfile failed"
1159         mpid=$!
1160
1161         #define OBD_FAIL_MDS_LDLM_REPLY_NET     0x157
1162         lctl set_param -n ldlm.cancel_unused_locks_before_replay "0"
1163         do_facet $SINGLEMDS "lctl set_param fail_loc=0x80000157"
1164
1165         fail $SINGLEMDS || error "fail $SINGLEMDS failed"
1166         kill -USR1 $mpid
1167         wait $mpid || error "multiop_bg_pause pid failed"
1168
1169         do_facet $SINGLEMDS "lctl set_param fail_loc=0x0"
1170         lctl set_param fail_loc=0x0
1171         lctl set_param -n ldlm.cancel_unused_locks_before_replay "1"
1172         rm -f $DIR/$tfile
1173 }
1174 run_test 52 "time out lock replay (3764)"
1175
1176 # bug 3462 - simultaneous MDC requests
1177 test_53a() {
1178         [[ $(lctl get_param mdc.*.import |
1179              grep "connect_flags:.*multi_mod_rpc") ]] ||
1180                 { skip "Need MDC with 'multi_mod_rpcs' feature"; return 0; }
1181
1182         cancel_lru_locks mdc    # cleanup locks from former test cases
1183         mkdir $DIR/${tdir}-1 || error "mkdir $DIR/${tdir}-1 failed"
1184         mkdir $DIR/${tdir}-2 || error "mkdir $DIR/${tdir}-2 failed"
1185         multiop $DIR/${tdir}-1/f O_c &
1186         close_pid=$!
1187         # give multiop a change to open
1188         sleep 1
1189
1190         #define OBD_FAIL_MDS_CLOSE_NET 0x115
1191         do_facet $SINGLEMDS "lctl set_param fail_loc=0x80000115"
1192         kill -USR1 $close_pid
1193         cancel_lru_locks mdc    # force the close
1194         do_facet $SINGLEMDS "lctl set_param fail_loc=0"
1195
1196         mcreate $DIR/${tdir}-2/f || error "mcreate $DIR/${tdir}-2/f failed"
1197
1198         # close should still be here
1199         [ -d /proc/$close_pid ] || error "close_pid doesn't exist"
1200
1201         replay_barrier_nodf $SINGLEMDS
1202         fail $SINGLEMDS
1203         wait $close_pid || error "close_pid $close_pid failed"
1204
1205         $CHECKSTAT -t file $DIR/${tdir}-1/f ||
1206                 error "$CHECKSTAT $DIR/${tdir}-1/f attribute check failed"
1207         $CHECKSTAT -t file $DIR/${tdir}-2/f ||
1208                 error "$CHECKSTAT $DIR/${tdir}-2/f attribute check failed"
1209         rm -rf $DIR/${tdir}-*
1210 }
1211 run_test 53a "|X| close request while two MDC requests in flight"
1212
1213 test_53b() {
1214         cancel_lru_locks mdc    # cleanup locks from former test cases
1215
1216         mkdir $DIR/${tdir}-1 || error "mkdir $DIR/${tdir}-1 failed"
1217         mkdir $DIR/${tdir}-2 || error "mkdir $DIR/${tdir}-2 failed"
1218         multiop_bg_pause $DIR/${tdir}-1/f O_c ||
1219                 error "multiop_bg_pause $DIR/${tdir}-1/f failed"
1220         close_pid=$!
1221
1222         #define OBD_FAIL_MDS_REINT_NET 0x107
1223         do_facet $SINGLEMDS "lctl set_param fail_loc=0x80000107"
1224         mcreate $DIR/${tdir}-2/f &
1225         open_pid=$!
1226         sleep 1
1227
1228         do_facet $SINGLEMDS "lctl set_param fail_loc=0"
1229         kill -USR1 $close_pid
1230         cancel_lru_locks mdc    # force the close
1231         wait $close_pid || error "close_pid $close_pid failed"
1232         # open should still be here
1233         [ -d /proc/$open_pid ] || error "open_pid doesn't exist"
1234
1235         replay_barrier_nodf $SINGLEMDS
1236         fail $SINGLEMDS
1237         wait $open_pid || error "open_pid failed"
1238
1239         $CHECKSTAT -t file $DIR/${tdir}-1/f ||
1240                 error "$CHECKSTAT $DIR/${tdir}-1/f attribute check failed"
1241         $CHECKSTAT -t file $DIR/${tdir}-2/f ||
1242                 error "$CHECKSTAT $DIR/${tdir}-2/f attribute check failed"
1243         rm -rf $DIR/${tdir}-*
1244 }
1245 run_test 53b "|X| open request while two MDC requests in flight"
1246
1247 test_53c() {
1248         cancel_lru_locks mdc    # cleanup locks from former test cases
1249
1250         mkdir $DIR/${tdir}-1 || error "mkdir $DIR/${tdir}-1 failed"
1251         mkdir $DIR/${tdir}-2 || error "mkdir $DIR/${tdir}-2 failed"
1252         multiop $DIR/${tdir}-1/f O_c &
1253         close_pid=$!
1254
1255         #define OBD_FAIL_MDS_REINT_NET 0x107
1256         do_facet $SINGLEMDS "lctl set_param fail_loc=0x80000107"
1257         mcreate $DIR/${tdir}-2/f &
1258         open_pid=$!
1259         sleep 1
1260
1261         #define OBD_FAIL_MDS_CLOSE_NET 0x115
1262         do_facet $SINGLEMDS "lctl set_param fail_loc=0x80000115"
1263         kill -USR1 $close_pid
1264         cancel_lru_locks mdc    # force the close
1265
1266         #bz20647: make sure all pids exist before failover
1267         [ -d /proc/$close_pid ] || error "close_pid doesn't exist"
1268         [ -d /proc/$open_pid ] || error "open_pid doesn't exists"
1269         replay_barrier_nodf $SINGLEMDS
1270         fail_nodf $SINGLEMDS
1271         wait $open_pid || error "open_pid failed"
1272         sleep 2
1273         # close should be gone
1274         [ -d /proc/$close_pid ] && error "close_pid should not exist"
1275         do_facet $SINGLEMDS "lctl set_param fail_loc=0"
1276
1277         $CHECKSTAT -t file $DIR/${tdir}-1/f ||
1278                 error "$CHECKSTAT $DIR/${tdir}-1/f attribute check failed"
1279         $CHECKSTAT -t file $DIR/${tdir}-2/f ||
1280                 error "$CHECKSTAT $DIR/${tdir}-2/f attribute check failed"
1281         rm -rf $DIR/${tdir}-*
1282 }
1283 run_test 53c "|X| open request and close request while two MDC requests in flight"
1284
1285 test_53d() {
1286         [[ $(lctl get_param mdc.*.import |
1287              grep "connect_flags:.*multi_mod_rpc") ]] ||
1288                 { skip "Need MDC with 'multi_mod_rpcs' feature"; return 0; }
1289
1290         cancel_lru_locks mdc    # cleanup locks from former test cases
1291
1292         mkdir $DIR/${tdir}-1 || error "mkdir $DIR/${tdir}-1 failed"
1293         mkdir $DIR/${tdir}-2 || error "mkdir $DIR/${tdir}-2 failed"
1294         multiop $DIR/${tdir}-1/f O_c &
1295         close_pid=$!
1296         # give multiop a chance to open
1297         sleep 1
1298
1299         #define OBD_FAIL_MDS_CLOSE_NET_REP 0x13b
1300         do_facet $SINGLEMDS "lctl set_param fail_loc=0x8000013b"
1301         kill -USR1 $close_pid
1302         cancel_lru_locks mdc    # force the close
1303         do_facet $SINGLEMDS "lctl set_param fail_loc=0"
1304         mcreate $DIR/${tdir}-2/f || error "mcreate $DIR/${tdir}-2/f failed"
1305
1306         # close should still be here
1307         [ -d /proc/$close_pid ] || error "close_pid doesn't exist"
1308         fail $SINGLEMDS
1309         wait $close_pid || error "close_pid failed"
1310
1311         $CHECKSTAT -t file $DIR/${tdir}-1/f ||
1312                 error "$CHECKSTAT $DIR/${tdir}-1/f attribute check failed"
1313         $CHECKSTAT -t file $DIR/${tdir}-2/f ||
1314                 error "$CHECKSTAT $DIR/${tdir}-2/f attribute check failed"
1315         rm -rf $DIR/${tdir}-*
1316 }
1317 run_test 53d "close reply while two MDC requests in flight"
1318
1319 test_53e() {
1320         cancel_lru_locks mdc    # cleanup locks from former test cases
1321
1322         mkdir $DIR/${tdir}-1 || error "mkdir $DIR/${tdir}-1 failed"
1323         mkdir $DIR/${tdir}-2 || error "mkdir $DIR/${tdir}-2 failed"
1324         multiop $DIR/${tdir}-1/f O_c &
1325         close_pid=$!
1326
1327         #define OBD_FAIL_MDS_REINT_NET_REP 0x119
1328         do_facet $SINGLEMDS "lctl set_param fail_loc=0x119"
1329         mcreate $DIR/${tdir}-2/f &
1330         open_pid=$!
1331         sleep 1
1332
1333         do_facet $SINGLEMDS "lctl set_param fail_loc=0"
1334         kill -USR1 $close_pid
1335         cancel_lru_locks mdc    # force the close
1336         wait $close_pid || error "close_pid failed"
1337         # open should still be here
1338         [ -d /proc/$open_pid ] || error "open_pid doesn't exists"
1339
1340         replay_barrier_nodf $SINGLEMDS
1341         fail $SINGLEMDS
1342         wait $open_pid || error "open_pid failed"
1343
1344         $CHECKSTAT -t file $DIR/${tdir}-1/f ||
1345                 error "$CHECKSTAT $DIR/${tdir}-1/f attribute check failed"
1346         $CHECKSTAT -t file $DIR/${tdir}-2/f ||
1347                 error "$CHECKSTAT $DIR/${tdir}-2/f attribute check failed"
1348         rm -rf $DIR/${tdir}-*
1349 }
1350 run_test 53e "|X| open reply while two MDC requests in flight"
1351
1352 test_53f() {
1353         cancel_lru_locks mdc    # cleanup locks from former test cases
1354
1355         mkdir $DIR/${tdir}-1 || error "mkdir $DIR/${tdir}-1 failed"
1356         mkdir $DIR/${tdir}-2 || error "mkdir $DIR/${tdir}-2 failed"
1357         multiop $DIR/${tdir}-1/f O_c &
1358         close_pid=$!
1359
1360         #define OBD_FAIL_MDS_REINT_NET_REP 0x119
1361         do_facet $SINGLEMDS "lctl set_param fail_loc=0x119"
1362         mcreate $DIR/${tdir}-2/f &
1363         open_pid=$!
1364         sleep 1
1365
1366         #define OBD_FAIL_MDS_CLOSE_NET_REP 0x13b
1367         do_facet $SINGLEMDS "lctl set_param fail_loc=0x8000013b"
1368         kill -USR1 $close_pid
1369         cancel_lru_locks mdc    # force the close
1370
1371         #bz20647: make sure all pids are exists before failover
1372         [ -d /proc/$close_pid ] || error "close_pid doesn't exist"
1373         [ -d /proc/$open_pid ] || error "open_pid doesn't exists"
1374         replay_barrier_nodf $SINGLEMDS
1375         fail_nodf $SINGLEMDS
1376         wait $open_pid || error "open_pid failed"
1377         sleep 2
1378         # close should be gone
1379         [ -d /proc/$close_pid ] && error "close_pid should not exist"
1380         do_facet $SINGLEMDS "lctl set_param fail_loc=0"
1381
1382         $CHECKSTAT -t file $DIR/${tdir}-1/f ||
1383                 error "$CHECKSTAT $DIR/${tdir}-1/f attribute check failed"
1384         $CHECKSTAT -t file $DIR/${tdir}-2/f ||
1385                 error "$CHECKSTAT $DIR/${tdir}-2/f attribute check failed"
1386         rm -rf $DIR/${tdir}-*
1387 }
1388 run_test 53f "|X| open reply and close reply while two MDC requests in flight"
1389
1390 test_53g() {
1391         cancel_lru_locks mdc    # cleanup locks from former test cases
1392
1393         mkdir $DIR/${tdir}-1 || error "mkdir $DIR/${tdir}-1 failed"
1394         mkdir $DIR/${tdir}-2 || error "mkdir $DIR/${tdir}-2 failed"
1395         multiop $DIR/${tdir}-1/f O_c &
1396         close_pid=$!
1397
1398         #define OBD_FAIL_MDS_REINT_NET_REP 0x119
1399         do_facet $SINGLEMDS "lctl set_param fail_loc=0x119"
1400         mcreate $DIR/${tdir}-2/f &
1401         open_pid=$!
1402         sleep 1
1403
1404         #define OBD_FAIL_MDS_CLOSE_NET 0x115
1405         do_facet $SINGLEMDS "lctl set_param fail_loc=0x80000115"
1406         kill -USR1 $close_pid
1407         cancel_lru_locks mdc    # force the close
1408         do_facet $SINGLEMDS "lctl set_param fail_loc=0"
1409
1410         #bz20647: make sure all pids are exists before failover
1411         [ -d /proc/$close_pid ] || error "close_pid doesn't exist"
1412         [ -d /proc/$open_pid ] || error "open_pid doesn't exists"
1413         replay_barrier_nodf $SINGLEMDS
1414         fail_nodf $SINGLEMDS
1415         wait $open_pid || error "open_pid failed"
1416         sleep 2
1417         # close should be gone
1418         [ -d /proc/$close_pid ] && error "close_pid should not exist"
1419
1420         $CHECKSTAT -t file $DIR/${tdir}-1/f ||
1421                 error "$CHECKSTAT $DIR/${tdir}-1/f attribute check failed"
1422         $CHECKSTAT -t file $DIR/${tdir}-2/f ||
1423                 error "$CHECKSTAT $DIR/${tdir}-2/f attribute check failed"
1424         rm -rf $DIR/${tdir}-*
1425 }
1426 run_test 53g "|X| drop open reply and close request while close and open are both in flight"
1427
1428 test_53h() {
1429         cancel_lru_locks mdc    # cleanup locks from former test cases
1430
1431         mkdir $DIR/${tdir}-1 || error "mkdir $DIR/${tdir}-1 failed"
1432         mkdir $DIR/${tdir}-2 || error "mkdir $DIR/${tdir}-2 failed"
1433         multiop $DIR/${tdir}-1/f O_c &
1434         close_pid=$!
1435
1436         #define OBD_FAIL_MDS_REINT_NET 0x107
1437         do_facet $SINGLEMDS "lctl set_param fail_loc=0x80000107"
1438         mcreate $DIR/${tdir}-2/f &
1439         open_pid=$!
1440         sleep 1
1441
1442         #define OBD_FAIL_MDS_CLOSE_NET_REP 0x13b
1443         do_facet $SINGLEMDS "lctl set_param fail_loc=0x8000013b"
1444         kill -USR1 $close_pid
1445         cancel_lru_locks mdc    # force the close
1446         sleep 1
1447
1448         #bz20647: make sure all pids are exists before failover
1449         [ -d /proc/$close_pid ] || error "close_pid doesn't exist"
1450         [ -d /proc/$open_pid ] || error "open_pid doesn't exists"
1451         replay_barrier_nodf $SINGLEMDS
1452         fail_nodf $SINGLEMDS
1453         wait $open_pid || error "open_pid failed"
1454         sleep 2
1455         # close should be gone
1456         [ -d /proc/$close_pid ] && error "close_pid should not exist"
1457         do_facet $SINGLEMDS "lctl set_param fail_loc=0"
1458
1459         $CHECKSTAT -t file $DIR/${tdir}-1/f ||
1460                 error "$CHECKSTAT $DIR/${tdir}-1/f attribute check failed"
1461         $CHECKSTAT -t file $DIR/${tdir}-2/f ||
1462                 error "$CHECKSTAT $DIR/${tdir}-2/f attribute check failed"
1463         rm -rf $DIR/${tdir}-*
1464 }
1465 run_test 53h "open request and close reply while two MDC requests in flight"
1466
1467 #b3761 ASSERTION(hash != 0) failed
1468 test_55() {
1469 # OBD_FAIL_MDS_OPEN_CREATE | OBD_FAIL_ONCE
1470     do_facet $SINGLEMDS "lctl set_param fail_loc=0x8000012b"
1471     touch $DIR/$tfile &
1472     # give touch a chance to run
1473     sleep 5
1474     do_facet $SINGLEMDS "lctl set_param fail_loc=0x0"
1475     rm $DIR/$tfile
1476     return 0
1477 }
1478 run_test 55 "let MDS_CHECK_RESENT return the original return code instead of 0"
1479
1480 #b3440 ASSERTION(rec->ur_fid2->id) failed
1481 test_56() {
1482     ln -s foo $DIR/$tfile
1483     replay_barrier $SINGLEMDS
1484     #drop_reply "cat $DIR/$tfile"
1485     fail $SINGLEMDS
1486     sleep 10
1487 }
1488 run_test 56 "don't replay a symlink open request (3440)"
1489
1490 #recovery one mds-ost setattr from llog
1491 test_57() {
1492         #define OBD_FAIL_MDS_OST_SETATTR       0x12c
1493         do_facet $SINGLEMDS "lctl set_param fail_loc=0x8000012c"
1494         touch $DIR/$tfile || error "touch $DIR/$tfile failed"
1495         replay_barrier $SINGLEMDS
1496         fail $SINGLEMDS
1497         wait_recovery_complete $SINGLEMDS || error "MDS recovery is not done"
1498         wait_mds_ost_sync || error "wait_mds_ost_sync failed"
1499         $CHECKSTAT -t file $DIR/$tfile ||
1500                 error "$CHECKSTAT $DIR/$tfile attribute check failed"
1501         do_facet $SINGLEMDS "lctl set_param fail_loc=0x0"
1502         rm $DIR/$tfile
1503 }
1504 run_test 57 "test recovery from llog for setattr op"
1505
1506 cleanup_58() {
1507         zconf_umount $(hostname) $MOUNT2
1508         trap - EXIT
1509 }
1510
1511 #recovery many mds-ost setattr from llog
1512 test_58a() {
1513         mkdir $DIR/$tdir || error "mkdir $DIR/$tdir failed"
1514         #define OBD_FAIL_MDS_OST_SETATTR       0x12c
1515         do_facet $SINGLEMDS "lctl set_param fail_loc=0x8000012c"
1516         createmany -o $DIR/$tdir/$tfile-%d 2500
1517         replay_barrier $SINGLEMDS
1518         fail $SINGLEMDS
1519         sleep 2
1520         $CHECKSTAT -t file $DIR/$tdir/$tfile-* >/dev/null ||
1521                 error "$CHECKSTAT $DIR/$tfile-* attribute check failed"
1522         do_facet $SINGLEMDS "lctl set_param fail_loc=0x0"
1523         unlinkmany $DIR/$tdir/$tfile-%d 2500 ||
1524                 error "unlinkmany $DIR/$tfile failed"
1525         rmdir $DIR/$tdir
1526 }
1527 run_test 58a "test recovery from llog for setattr op (test llog_gen_rec)"
1528
1529 test_58b() {
1530         local orig
1531         local new
1532
1533         trap cleanup_58 EXIT
1534
1535         large_xattr_enabled &&
1536                 orig="$(generate_string $(max_xattr_size))" || orig="bar"
1537         # Original extended attribute can be long. Print a small version of
1538         # attribute if an error occurs
1539         local sm_msg=$(printf "%.9s" $orig)
1540
1541         mount_client $MOUNT2 || error "mount_client on $MOUNT2 failed"
1542         mkdir $DIR/$tdir || error "mkdir $DIR/$tdir failed"
1543         touch $DIR/$tdir/$tfile || error "touch $DIR/$tdir/$tfile failed"
1544         replay_barrier $SINGLEMDS
1545         setfattr -n trusted.foo -v $orig $DIR/$tdir/$tfile
1546         fail $SINGLEMDS
1547         new=$(get_xattr_value trusted.foo $MOUNT2/$tdir/$tfile)
1548         [[ "$new" = "$orig" ]] ||
1549                 error "xattr set ($sm_msg...) differs from xattr get ($new)"
1550         rm -f $DIR/$tdir/$tfile
1551         rmdir $DIR/$tdir
1552         cleanup_58
1553         wait_clients_import_state ${CLIENTS:-$HOSTNAME} "mgs" FULL
1554 }
1555 run_test 58b "test replay of setxattr op"
1556
1557 test_58c() { # bug 16570
1558         local orig
1559         local orig1
1560         local new
1561
1562         trap cleanup_58 EXIT
1563
1564         if large_xattr_enabled; then
1565                 local xattr_size=$(max_xattr_size)
1566                 orig="$(generate_string $((xattr_size / 2)))"
1567                 orig1="$(generate_string $xattr_size)"
1568         else
1569                 orig="bar"
1570                 orig1="bar1"
1571         fi
1572
1573         # PING_INTERVAL max(obd_timeout / 4, 1U)
1574         sleep $((TIMEOUT / 4))
1575
1576         # Original extended attribute can be long. Print a small version of
1577         # attribute if an error occurs
1578         local sm_msg=$(printf "%.9s" $orig)
1579         local sm_msg1=$(printf "%.9s" $orig1)
1580
1581         mount_client $MOUNT2 || error "mount_client on $MOUNT2 failed"
1582         mkdir $DIR/$tdir || error "mkdir $DIR/$tdir failed"
1583         touch $DIR/$tdir/$tfile || error "touch $DIR/$tdir/$tfile failed"
1584         drop_request "setfattr -n trusted.foo -v $orig $DIR/$tdir/$tfile" ||
1585                 error "drop_request for setfattr failed"
1586         new=$(get_xattr_value trusted.foo $MOUNT2/$tdir/$tfile)
1587         [[ "$new" = "$orig" ]] ||
1588                 error "xattr set ($sm_msg...) differs from xattr get ($new)"
1589         drop_reint_reply "setfattr -n trusted.foo1 \
1590                           -v $orig1 $DIR/$tdir/$tfile" ||
1591                 error "drop_reint_reply for setfattr failed"
1592         new=$(get_xattr_value trusted.foo1 $MOUNT2/$tdir/$tfile)
1593         [[ "$new" = "$orig1" ]] ||
1594                 error "second xattr set ($sm_msg1...) differs xattr get ($new)"
1595         rm -f $DIR/$tdir/$tfile
1596         rmdir $DIR/$tdir
1597         cleanup_58
1598 }
1599 run_test 58c "resend/reconstruct setxattr op"
1600
1601 # log_commit_thread vs filter_destroy race used to lead to import use after free
1602 # bug 11658
1603 test_59() {
1604         remote_ost_nodsh && skip "remote OST with nodsh" && return 0
1605
1606         mkdir $DIR/$tdir || error "mkdir $DIR/$tdir failed"
1607         createmany -o $DIR/$tdir/$tfile-%d 200 ||
1608                 error "createmany create files failed"
1609         sync
1610         unlinkmany $DIR/$tdir/$tfile-%d 200 ||
1611                 error "unlinkmany $DIR/$tdir/$tfile failed"
1612         #define OBD_FAIL_PTLRPC_DELAY_RECOV       0x507
1613         do_facet ost1 "lctl set_param fail_loc=0x507"
1614         fail ost1
1615         fail $SINGLEMDS
1616         do_facet ost1 "lctl set_param fail_loc=0x0"
1617         sleep 20
1618         rmdir $DIR/$tdir
1619 }
1620 run_test 59 "test log_commit_thread vs filter_destroy race"
1621
1622 # race between add unlink llog vs cat log init in post_recovery (only for b1_6)
1623 # bug 12086: should no oops and No ctxt error for this test
1624 test_60() {
1625         mkdir $DIR/$tdir || error "mkdir $DIR/$tdir failed"
1626         createmany -o $DIR/$tdir/$tfile-%d 200 ||
1627                 error "createmany create files failed"
1628         replay_barrier $SINGLEMDS
1629         unlinkmany $DIR/$tdir/$tfile-%d 0 100
1630         fail $SINGLEMDS
1631         unlinkmany $DIR/$tdir/$tfile-%d 100 100
1632         local no_ctxt=$(dmesg | grep "No ctxt")
1633         [ -z "$no_ctxt" ] || error "ctxt is not initialized in recovery"
1634 }
1635 run_test 60 "test llog post recovery init vs llog unlink"
1636
1637 #test race  llog recovery thread vs llog cleanup
1638 test_61a() {    # was test_61
1639         remote_ost_nodsh && skip "remote OST with nodsh" && return 0
1640
1641         mkdir $DIR/$tdir || error "mkdir $DIR/$tdir failed"
1642         createmany -o $DIR/$tdir/$tfile-%d 800 ||
1643                 error "createmany create files failed"
1644         replay_barrier ost1
1645         unlinkmany $DIR/$tdir/$tfile-%d 800
1646         #   OBD_FAIL_OST_LLOG_RECOVERY_TIMEOUT 0x221
1647         set_nodes_failloc "$(osts_nodes)" 0x80000221
1648         facet_failover ost1
1649         sleep 10
1650         fail ost1
1651         sleep 30
1652         set_nodes_failloc "$(osts_nodes)" 0x0
1653
1654         $CHECKSTAT -t file $DIR/$tdir/$tfile-* &&
1655                 error "$CHECKSTAT $DIR/$tdir/$tfile attribute check should fail"
1656         rmdir $DIR/$tdir
1657 }
1658 run_test 61a "test race llog recovery vs llog cleanup"
1659
1660 #test race  mds llog sync vs llog cleanup
1661 test_61b() {
1662         #   OBD_FAIL_MDS_LLOG_SYNC_TIMEOUT 0x13a
1663         do_facet $SINGLEMDS "lctl set_param fail_loc=0x8000013a"
1664         facet_failover $SINGLEMDS
1665         sleep 10
1666         fail $SINGLEMDS
1667         do_facet client dd if=/dev/zero of=$DIR/$tfile bs=4k count=1 ||
1668                 error "dd failed"
1669 }
1670 run_test 61b "test race mds llog sync vs llog cleanup"
1671
1672 #test race  cancel cookie cb vs llog cleanup
1673 test_61c() {
1674         remote_ost_nodsh && skip "remote OST with nodsh" && return 0
1675
1676         #   OBD_FAIL_OST_CANCEL_COOKIE_TIMEOUT 0x222
1677         touch $DIR/$tfile || error "touch $DIR/$tfile failed"
1678         set_nodes_failloc "$(osts_nodes)" 0x80000222
1679         rm $DIR/$tfile
1680         sleep 10
1681         fail ost1
1682         set_nodes_failloc "$(osts_nodes)" 0x0
1683 }
1684 run_test 61c "test race mds llog sync vs llog cleanup"
1685
1686 test_61d() { # bug 16002 # bug 17466 # bug 22137
1687 #   OBD_FAIL_OBD_LLOG_SETUP        0x605
1688     stop mgs
1689     do_facet mgs "lctl set_param fail_loc=0x80000605"
1690     start mgs $(mgsdevname) $MGS_MOUNT_OPTS &&
1691         error "mgs start should have failed"
1692     do_facet mgs "lctl set_param fail_loc=0"
1693     start mgs $(mgsdevname) $MGS_MOUNT_OPTS || error "cannot restart mgs"
1694 }
1695 run_test 61d "error in llog_setup should cleanup the llog context correctly"
1696
1697 test_62() { # Bug 15756 - don't mis-drop resent replay
1698         mkdir $DIR/$tdir || error "mkdir $DIR/$tdir failed"
1699         replay_barrier $SINGLEMDS
1700         createmany -o $DIR/$tdir/$tfile- 25 ||
1701                 error "createmany create files failed"
1702         #define OBD_FAIL_TGT_REPLAY_DROP         0x707
1703         do_facet $SINGLEMDS "lctl set_param fail_loc=0x80000707"
1704         fail $SINGLEMDS
1705         do_facet $SINGLEMDS "lctl set_param fail_loc=0"
1706         unlinkmany $DIR/$tdir/$tfile- 25 ||
1707                 error "unlinkmany $DIR/$tdir/$tfile failed"
1708         return 0
1709 }
1710 run_test 62 "don't mis-drop resent replay"
1711
1712 #Adaptive Timeouts (bug 3055)
1713 AT_MAX_SET=0
1714
1715 at_cleanup () {
1716     local var
1717     local facet
1718     local at_new
1719
1720     echo "Cleaning up AT ..."
1721     if [ -n "$ATOLDBASE" ]; then
1722         local at_history=$($LCTL get_param -n at_history)
1723         do_facet $SINGLEMDS "lctl set_param at_history=$at_history" || true
1724         do_facet ost1 "lctl set_param at_history=$at_history" || true
1725     fi
1726
1727         if [ $AT_MAX_SET -ne 0 ]; then
1728                 for facet in mds client ost; do
1729                         var=AT_MAX_SAVE_${facet}
1730                         echo restore AT on $facet to saved value ${!var}
1731                         at_max_set ${!var} $facet
1732                         at_new=$(at_max_get $facet)
1733                         echo Restored AT value on $facet $at_new
1734                         [ $at_new -eq ${!var} ] ||
1735                         error "AT value not restored SAVED ${!var} NEW $at_new"
1736                 done
1737         fi
1738 }
1739
1740 at_start()
1741 {
1742     local at_max_new=600
1743
1744     # Save at_max original values
1745     local facet
1746     if [ $AT_MAX_SET -eq 0 ]; then
1747         # Suppose that all osts have the same at_max
1748         for facet in mds client ost; do
1749             eval AT_MAX_SAVE_${facet}=$(at_max_get $facet)
1750         done
1751     fi
1752     local at_max
1753     for facet in mds client ost; do
1754         at_max=$(at_max_get $facet)
1755         if [ $at_max -ne $at_max_new ]; then
1756             echo "AT value on $facet is $at_max, set it by force temporarily to $at_max_new"
1757             at_max_set $at_max_new $facet
1758             AT_MAX_SET=1
1759         fi
1760     done
1761
1762     if [ -z "$ATOLDBASE" ]; then
1763         ATOLDBASE=$(do_facet $SINGLEMDS "lctl get_param -n at_history")
1764         # speed up the timebase so we can check decreasing AT
1765         do_facet $SINGLEMDS "lctl set_param at_history=8" || true
1766         do_facet ost1 "lctl set_param at_history=8" || true
1767
1768         # sleep for a while to cool down, should be > 8s and also allow
1769         # at least one ping to be sent. simply use TIMEOUT to be safe.
1770         sleep $TIMEOUT
1771     fi
1772 }
1773
1774 test_65a() #bug 3055
1775 {
1776     remote_ost_nodsh && skip "remote OST with nodsh" && return 0
1777
1778     at_start || return 0
1779     $LCTL dk > /dev/null
1780     debugsave
1781     $LCTL set_param debug="other"
1782     # Slow down a request to the current service time, this is critical
1783     # because previous tests may have caused this value to increase.
1784     REQ_DELAY=`lctl get_param -n mdc.${FSNAME}-MDT0000-mdc-*.timeouts |
1785                awk '/portal 12/ {print $5}'`
1786     REQ_DELAY=$((${REQ_DELAY} + ${REQ_DELAY} / 4 + 5))
1787
1788     do_facet $SINGLEMDS lctl set_param fail_val=$((${REQ_DELAY} * 1000))
1789 #define OBD_FAIL_PTLRPC_PAUSE_REQ        0x50a
1790     do_facet $SINGLEMDS $LCTL set_param fail_loc=0x8000050a
1791     createmany -o $DIR/$tfile 10 > /dev/null
1792     unlinkmany $DIR/$tfile 10 > /dev/null
1793     # check for log message
1794     $LCTL dk | grep "Early reply #" || error "No early reply"
1795     debugrestore
1796     # client should show REQ_DELAY estimates
1797     lctl get_param -n mdc.${FSNAME}-MDT0000-mdc-*.timeouts | grep portal
1798     sleep 9
1799     lctl get_param -n mdc.${FSNAME}-MDT0000-mdc-*.timeouts | grep portal
1800 }
1801 run_test 65a "AT: verify early replies"
1802
1803 test_65b() #bug 3055
1804 {
1805         remote_ost_nodsh && skip "remote OST with nodsh" && return 0
1806
1807         at_start || return 0
1808         # turn on D_ADAPTTO
1809         debugsave
1810         $LCTL set_param debug="other trace"
1811         $LCTL dk > /dev/null
1812         # Slow down a request to the current service time, this is critical
1813         # because previous tests may have caused this value to increase.
1814         $SETSTRIPE --stripe-index=0 --stripe-count=1 $DIR/$tfile ||
1815                 error "$SETSTRIPE failed for $DIR/$tfile"
1816
1817         multiop $DIR/$tfile Ow1yc
1818         REQ_DELAY=`lctl get_param -n osc.${FSNAME}-OST0000-osc-*.timeouts |
1819                    awk '/portal 6/ {print $5}'`
1820         REQ_DELAY=$((${REQ_DELAY} + ${REQ_DELAY} / 4 + 5))
1821
1822         do_facet ost1 lctl set_param fail_val=${REQ_DELAY}
1823         #define OBD_FAIL_OST_BRW_PAUSE_PACK      0x224
1824         do_facet ost1 $LCTL set_param fail_loc=0x224
1825
1826         rm -f $DIR/$tfile
1827         $SETSTRIPE --stripe-index=0 --stripe-count=1 $DIR/$tfile ||
1828                 error "$SETSTRIPE failed"
1829         # force some real bulk transfer
1830         multiop $DIR/$tfile oO_CREAT:O_RDWR:O_SYNC:w4096c
1831
1832         do_facet ost1 $LCTL set_param fail_loc=0
1833         # check for log message
1834         $LCTL dk | grep "Early reply #" || error "No early reply"
1835         debugrestore
1836         # client should show REQ_DELAY estimates
1837         lctl get_param -n osc.${FSNAME}-OST0000-osc-*.timeouts | grep portal
1838 }
1839 run_test 65b "AT: verify early replies on packed reply / bulk"
1840
1841 test_66a() #bug 3055
1842 {
1843     remote_ost_nodsh && skip "remote OST with nodsh" && return 0
1844
1845     at_start || return 0
1846     lctl get_param -n mdc.${FSNAME}-MDT0000-mdc-*.timeouts | grep "portal 12"
1847     # adjust 5s at a time so no early reply is sent (within deadline)
1848     do_facet $SINGLEMDS "$LCTL set_param fail_val=5000"
1849 #define OBD_FAIL_PTLRPC_PAUSE_REQ        0x50a
1850     do_facet $SINGLEMDS "$LCTL set_param fail_loc=0x8000050a"
1851     createmany -o $DIR/$tfile 20 > /dev/null
1852     unlinkmany $DIR/$tfile 20 > /dev/null
1853     lctl get_param -n mdc.${FSNAME}-MDT0000-mdc-*.timeouts | grep "portal 12"
1854     do_facet $SINGLEMDS "$LCTL set_param fail_val=10000"
1855     do_facet $SINGLEMDS "$LCTL set_param fail_loc=0x8000050a"
1856     createmany -o $DIR/$tfile 20 > /dev/null
1857     unlinkmany $DIR/$tfile 20 > /dev/null
1858     lctl get_param -n mdc.${FSNAME}-MDT0000-mdc-*.timeouts | grep "portal 12"
1859     do_facet $SINGLEMDS "$LCTL set_param fail_loc=0"
1860     sleep 9
1861     createmany -o $DIR/$tfile 20 > /dev/null
1862     unlinkmany $DIR/$tfile 20 > /dev/null
1863     lctl get_param -n mdc.${FSNAME}-MDT0000-mdc-*.timeouts | grep "portal 12"
1864     CUR=$(lctl get_param -n mdc.${FSNAME}-MDT0000-mdc-*.timeouts | awk '/portal 12/ {print $5}')
1865     WORST=$(lctl get_param -n mdc.${FSNAME}-MDT0000-mdc-*.timeouts | awk '/portal 12/ {print $7}')
1866     echo "Current MDT timeout $CUR, worst $WORST"
1867     [ $CUR -lt $WORST ] || error "Current $CUR should be less than worst $WORST"
1868 }
1869 run_test 66a "AT: verify MDT service time adjusts with no early replies"
1870
1871 test_66b() #bug 3055
1872 {
1873         remote_ost_nodsh && skip "remote OST with nodsh" && return 0
1874
1875         at_start || return 0
1876         ORIG=$(lctl get_param -n mdc.${FSNAME}-MDT0000*.timeouts |
1877                 awk '/network/ {print $4}')
1878         $LCTL set_param fail_val=$(($ORIG + 5))
1879         #define OBD_FAIL_PTLRPC_PAUSE_REP      0x50c
1880         $LCTL set_param fail_loc=0x50c
1881         ls $DIR/$tfile > /dev/null 2>&1
1882         $LCTL set_param fail_loc=0
1883         CUR=$(lctl get_param -n mdc.${FSNAME}-MDT0000*.timeouts |
1884                 awk '/network/ {print $4}')
1885         WORST=$(lctl get_param -n mdc.${FSNAME}-MDT0000*.timeouts |
1886                 awk '/network/ {print $6}')
1887         echo "network timeout orig $ORIG, cur $CUR, worst $WORST"
1888         [ $WORST -gt $ORIG ] ||
1889                 error "Worst $WORST should be worse than orig $ORIG"
1890 }
1891 run_test 66b "AT: verify net latency adjusts"
1892
1893 test_67a() #bug 3055
1894 {
1895     remote_ost_nodsh && skip "remote OST with nodsh" && return 0
1896
1897     at_start || return 0
1898     CONN1=$(lctl get_param -n osc.*.stats | awk '/_connect/ {total+=$2} END {print total}')
1899     # sleeping threads may drive values above this
1900     do_facet ost1 "$LCTL set_param fail_val=400"
1901 #define OBD_FAIL_PTLRPC_PAUSE_REQ    0x50a
1902     do_facet ost1 "$LCTL set_param fail_loc=0x50a"
1903     createmany -o $DIR/$tfile 20 > /dev/null
1904     unlinkmany $DIR/$tfile 20 > /dev/null
1905     do_facet ost1 "$LCTL set_param fail_loc=0"
1906     CONN2=$(lctl get_param -n osc.*.stats | awk '/_connect/ {total+=$2} END {print total}')
1907     ATTEMPTS=$(($CONN2 - $CONN1))
1908     echo "$ATTEMPTS osc reconnect attempts on gradual slow"
1909         [ $ATTEMPTS -gt 0 ] &&
1910                 error_ignore bz13721 "AT should have prevented reconnect"
1911         return 0
1912 }
1913 run_test 67a "AT: verify slow request processing doesn't induce reconnects"
1914
1915 test_67b() #bug 3055
1916 {
1917     remote_ost_nodsh && skip "remote OST with nodsh" && return 0
1918
1919     at_start || return 0
1920     CONN1=$(lctl get_param -n osc.*.stats | awk '/_connect/ {total+=$2} END {print total}')
1921
1922     # exhaust precreations on ost1
1923     local OST=$(ostname_from_index 0)
1924     local mdtosc=$(get_mdtosc_proc_path mds $OST)
1925     local last_id=$(do_facet $SINGLEMDS lctl get_param -n \
1926         osc.$mdtosc.prealloc_last_id)
1927     local next_id=$(do_facet $SINGLEMDS lctl get_param -n \
1928         osc.$mdtosc.prealloc_next_id)
1929
1930         mkdir -p $DIR/$tdir/${OST} || error "mkdir $DIR/$tdir/${OST} failed"
1931         $SETSTRIPE -i 0 -c 1 $DIR/$tdir/${OST} || error "$SETSTRIPE failed"
1932         echo "Creating to objid $last_id on ost $OST..."
1933 #define OBD_FAIL_OST_PAUSE_CREATE        0x223
1934     do_facet ost1 "$LCTL set_param fail_val=20000"
1935     do_facet ost1 "$LCTL set_param fail_loc=0x80000223"
1936     createmany -o $DIR/$tdir/${OST}/f $next_id $((last_id - next_id + 2))
1937
1938     client_reconnect
1939     do_facet ost1 "lctl get_param -n ost.OSS.ost_create.timeouts"
1940     log "phase 2"
1941     CONN2=$(lctl get_param -n osc.*.stats | awk '/_connect/ {total+=$2} END {print total}')
1942     ATTEMPTS=$(($CONN2 - $CONN1))
1943     echo "$ATTEMPTS osc reconnect attempts on instant slow"
1944     # do it again; should not timeout
1945     do_facet ost1 "$LCTL set_param fail_loc=0x80000223"
1946     cp /etc/profile $DIR/$tfile || error "cp failed"
1947     do_facet ost1 "$LCTL set_param fail_loc=0"
1948     client_reconnect
1949     do_facet ost1 "lctl get_param -n ost.OSS.ost_create.timeouts"
1950     CONN3=$(lctl get_param -n osc.*.stats | awk '/_connect/ {total+=$2} END {print total}')
1951     ATTEMPTS=$(($CONN3 - $CONN2))
1952     echo "$ATTEMPTS osc reconnect attempts on 2nd slow"
1953     [ $ATTEMPTS -gt 0 ] && error "AT should have prevented reconnect"
1954     return 0
1955 }
1956 run_test 67b "AT: verify instant slowdown doesn't induce reconnects"
1957
1958 test_68 () #bug 13813
1959 {
1960     remote_ost_nodsh && skip "remote OST with nodsh" && return 0
1961
1962     at_start || return 0
1963     local ldlm_enqueue_min=$(find /sys -name ldlm_enqueue_min)
1964     [ -z "$ldlm_enqueue_min" ] && skip "missing /sys/.../ldlm_enqueue_min" && return 0
1965     local ldlm_enqueue_min_r=$(do_facet ost1 "find /sys -name ldlm_enqueue_min")
1966     [ -z "$ldlm_enqueue_min_r" ] && skip "missing /sys/.../ldlm_enqueue_min in the ost1" && return 0
1967     local ENQ_MIN=$(cat $ldlm_enqueue_min)
1968     local ENQ_MIN_R=$(do_facet ost1 "cat $ldlm_enqueue_min_r")
1969         echo $TIMEOUT >> $ldlm_enqueue_min
1970         do_facet ost1 "echo $TIMEOUT >> $ldlm_enqueue_min_r"
1971
1972         mkdir $DIR/$tdir || error "mkdir $DIR/$tdir failed"
1973         $SETSTRIPE --stripe-index=0 -c 1 $DIR/$tdir ||
1974                 error "$SETSTRIPE failed for $DIR/$tdir"
1975         #define OBD_FAIL_LDLM_PAUSE_CANCEL       0x312
1976         $LCTL set_param fail_val=$(($TIMEOUT - 1))
1977         $LCTL set_param fail_loc=0x80000312
1978         cp /etc/profile $DIR/$tdir/${tfile}_1 || error "1st cp failed $?"
1979         $LCTL set_param fail_val=$((TIMEOUT * 5 / 4))
1980         $LCTL set_param fail_loc=0x80000312
1981         cp /etc/profile $DIR/$tdir/${tfile}_2 || error "2nd cp failed $?"
1982         $LCTL set_param fail_loc=0
1983
1984         echo $ENQ_MIN >> $ldlm_enqueue_min
1985         do_facet ost1 "echo $ENQ_MIN_R >> $ldlm_enqueue_min_r"
1986         rm -rf $DIR/$tdir
1987         return 0
1988 }
1989 run_test 68 "AT: verify slowing locks"
1990
1991 at_cleanup
1992 # end of AT tests includes above lines
1993
1994 # start multi-client tests
1995 test_70a () {
1996         [ -z "$CLIENTS" ] &&
1997                 { skip "Need two or more clients." && return; }
1998         [ $CLIENTCOUNT -lt 2 ] &&
1999                 { skip "Need two or more clients, have $CLIENTCOUNT" && return; }
2000
2001         echo "mount clients $CLIENTS ..."
2002         zconf_mount_clients $CLIENTS $MOUNT
2003
2004         local clients=${CLIENTS//,/ }
2005         echo "Write/read files on $DIR ; clients $CLIENTS ... "
2006         for CLIENT in $clients; do
2007                 do_node $CLIENT dd bs=1M count=10 if=/dev/zero \
2008                         of=$DIR/${tfile}_${CLIENT} 2>/dev/null ||
2009                                 error "dd failed on $CLIENT"
2010         done
2011
2012         local prev_client=$(echo $clients | sed 's/^.* \(.\+\)$/\1/')
2013         for C in ${CLIENTS//,/ }; do
2014                 do_node $prev_client dd if=$DIR/${tfile}_${C} \
2015                         of=/dev/null 2>/dev/null ||
2016                         error "dd if=$DIR/${tfile}_${C} failed on $prev_client"
2017                 prev_client=$C
2018         done
2019
2020         ls $DIR
2021 }
2022 run_test 70a "check multi client t-f"
2023
2024 check_for_process () {
2025         local clients=$1
2026         shift
2027         local prog=$@
2028
2029         killall_process $clients "$prog" -0
2030 }
2031
2032 test_70b () {
2033         local clients=${CLIENTS:-$HOSTNAME}
2034
2035         zconf_mount_clients $clients $MOUNT
2036
2037         local duration=300
2038         [ "$SLOW" = "no" ] && duration=120
2039         # set duration to 900 because it takes some time to boot node
2040         [ "$FAILURE_MODE" = HARD ] && duration=900
2041
2042         local elapsed
2043         local start_ts=$(date +%s)
2044         local cmd="rundbench 1 -t $duration"
2045         local pid=""
2046         if [ $MDSCOUNT -ge 2 ]; then
2047                 test_mkdir -p -c$MDSCOUNT $DIR/$tdir
2048                 $LFS setdirstripe -D -c$MDSCOUNT $DIR/$tdir
2049         fi
2050         do_nodesv $clients "set -x; MISSING_DBENCH_OK=$MISSING_DBENCH_OK \
2051                 PATH=\$PATH:$LUSTRE/utils:$LUSTRE/tests/:$DBENCH_LIB \
2052                 DBENCH_LIB=$DBENCH_LIB TESTSUITE=$TESTSUITE TESTNAME=$TESTNAME \
2053                 MOUNT=$MOUNT DIR=$DIR/$tdir/\\\$(hostname) LCTL=$LCTL $cmd" &
2054         pid=$!
2055
2056         #LU-1897 wait for all dbench copies to start
2057         while ! check_for_process $clients dbench; do
2058                 elapsed=$(($(date +%s) - start_ts))
2059                 if [ $elapsed -gt $duration ]; then
2060                         killall_process $clients dbench
2061                         error "dbench failed to start on $clients!"
2062                 fi
2063                 sleep 1
2064         done
2065
2066         log "Started rundbench load pid=$pid ..."
2067
2068         elapsed=$(($(date +%s) - start_ts))
2069         local num_failovers=0
2070         local fail_index=1
2071         while [ $elapsed -lt $duration ]; do
2072                 if ! check_for_process $clients dbench; then
2073                         error_noexit "dbench stopped on some of $clients!"
2074                         killall_process $clients dbench
2075                         break
2076                 fi
2077                 sleep 1
2078                 replay_barrier mds$fail_index
2079                 sleep 1 # give clients a time to do operations
2080                 # Increment the number of failovers
2081                 num_failovers=$((num_failovers+1))
2082                 log "$TESTNAME fail mds$fail_index $num_failovers times"
2083                 fail mds$fail_index
2084                 elapsed=$(($(date +%s) - start_ts))
2085                 if [ $fail_index -ge $MDSCOUNT ]; then
2086                         fail_index=1
2087                 else
2088                         fail_index=$((fail_index+1))
2089                 fi
2090         done
2091
2092         wait $pid || error "rundbench load on $clients failed!"
2093 }
2094 run_test 70b "dbench ${MDSCOUNT}mdts recovery; $CLIENTCOUNT clients"
2095 # end multi-client tests
2096
2097 random_fail_mdt() {
2098         local max_index=$1
2099         local duration=$2
2100         local monitor_pid=$3
2101         local elapsed
2102         local start_ts=$(date +%s)
2103         local num_failovers=0
2104         local fail_index
2105
2106         elapsed=$(($(date +%s) - start_ts))
2107         while [ $elapsed -lt $duration ]; do
2108                 fail_index=$((RANDOM%max_index+1))
2109                 kill -0 $monitor_pid ||
2110                         error "$monitor_pid stopped"
2111                 sleep 120
2112                 replay_barrier mds$fail_index
2113                 sleep 10
2114                 # Increment the number of failovers
2115                 num_failovers=$((num_failovers+1))
2116                 log "$TESTNAME fail mds$fail_index $num_failovers times"
2117                 fail mds$fail_index
2118                 elapsed=$(($(date +%s) - start_ts))
2119         done
2120 }
2121
2122 cleanup_70c() {
2123         trap 0
2124         rm -f $DIR/replay-single.70c.lck
2125         rm -rf /$DIR/$tdir
2126 }
2127
2128 test_70c () {
2129         local clients=${CLIENTS:-$HOSTNAME}
2130         local rc=0
2131
2132         zconf_mount_clients $clients $MOUNT
2133
2134         local duration=300
2135         [ "$SLOW" = "no" ] && duration=180
2136         # set duration to 900 because it takes some time to boot node
2137         [ "$FAILURE_MODE" = HARD ] && duration=600
2138
2139         local elapsed
2140         local start_ts=$(date +%s)
2141
2142         trap cleanup_70c EXIT
2143         (
2144                 while [ ! -e $DIR/replay-single.70c.lck ]; do
2145                         test_mkdir -p -c$MDSCOUNT $DIR/$tdir || break
2146                         if [ $MDSCOUNT -ge 2 ]; then
2147                                 $LFS setdirstripe -D -c$MDSCOUNT $DIR/$tdir ||
2148                                 error "set default dirstripe failed"
2149                         fi
2150                         cd $DIR/$tdir || break
2151                         tar cf - /etc | tar xf - || error "tar failed in loop"
2152                 done
2153         )&
2154         tar_70c_pid=$!
2155         echo "Started tar $tar_70c_pid"
2156
2157         random_fail_mdt $MDSCOUNT $duration $tar_70c_pid
2158         kill -0 $tar_70c_pid || error "tar $tar_70c_pid stopped"
2159
2160         touch $DIR/replay-single.70c.lck
2161         wait $tar_70c_pid || error "$?: tar failed"
2162
2163         cleanup_70c
2164         true
2165 }
2166 run_test 70c "tar ${MDSCOUNT}mdts recovery"
2167
2168 cleanup_70d() {
2169         trap 0
2170         kill -9 $mkdir_70d_pid
2171 }
2172
2173 test_70d () {
2174         [ $MDSCOUNT -lt 2 ] && skip "needs >= 2 MDTs" && return 0
2175         local clients=${CLIENTS:-$HOSTNAME}
2176         local rc=0
2177
2178         zconf_mount_clients $clients $MOUNT
2179
2180         local duration=300
2181         [ "$SLOW" = "no" ] && duration=180
2182         # set duration to 900 because it takes some time to boot node
2183         [ "$FAILURE_MODE" = HARD ] && duration=900
2184
2185         mkdir -p $DIR/$tdir
2186
2187         local elapsed
2188         local start_ts=$(date +%s)
2189
2190         trap cleanup_70d EXIT
2191         (
2192                 while true; do
2193                         $LFS mkdir -i0 -c2 $DIR/$tdir/test || {
2194                                 echo "mkdir fails"
2195                                 break
2196                         }
2197                         $LFS mkdir -i1 -c2 $DIR/$tdir/test1 || {
2198                                 echo "mkdir fails"
2199                                 break
2200                         }
2201
2202                         touch $DIR/$tdir/test/a || {
2203                                 echo "touch fails"
2204                                 break;
2205                         }
2206                         mkdir $DIR/$tdir/test/b || {
2207                                 echo "mkdir fails"
2208                                 break;
2209                         }
2210                         rm -rf $DIR/$tdir/test || {
2211                                 echo "rmdir fails"
2212                                 break
2213                         }
2214
2215                         touch $DIR/$tdir/test1/a || {
2216                                 echo "touch fails"
2217                                 break;
2218                         }
2219                         mkdir $DIR/$tdir/test1/b || {
2220                                 echo "mkdir fails"
2221                                 break;
2222                         }
2223
2224                         rm -rf $DIR/$tdir/test1 || {
2225                                 echo "rmdir fails"
2226                                 break
2227                         }
2228                 done
2229         )&
2230         mkdir_70d_pid=$!
2231         echo "Started  $mkdir_70d_pid"
2232
2233         random_fail_mdt $MDSCOUNT $duration $mkdir_70d_pid
2234         kill -0 $mkdir_70d_pid || error "mkdir/rmdir $mkdir_70d_pid stopped"
2235
2236         cleanup_70d
2237         true
2238 }
2239 run_test 70d "mkdir/rmdir striped dir ${MDSCOUNT}mdts recovery"
2240
2241 cleanup_70e() {
2242         trap 0
2243         kill -9 $rename_70e_pid
2244 }
2245
2246 test_70e () {
2247         [ $MDSCOUNT -lt 2 ] && skip "needs >= 2 MDTs" && return 0
2248         local clients=${CLIENTS:-$HOSTNAME}
2249         local rc=0
2250
2251         echo ha > /proc/sys/lnet/debug
2252         zconf_mount_clients $clients $MOUNT
2253
2254         local duration=300
2255         [ "$SLOW" = "no" ] && duration=180
2256         # set duration to 900 because it takes some time to boot node
2257         [ "$FAILURE_MODE" = HARD ] && duration=900
2258
2259         mkdir -p $DIR/$tdir
2260         $LFS mkdir -i0 $DIR/$tdir/test_0
2261         $LFS mkdir -i0 $DIR/$tdir/test_1
2262         touch $DIR/$tdir/test_0/a
2263         touch $DIR/$tdir/test_1/b
2264         trap cleanup_70e EXIT
2265         (
2266                 while true; do
2267                         mrename $DIR/$tdir/test_0/a $DIR/$tdir/test_1/b > \
2268                                                 /dev/null || {
2269                                 echo "a->b fails"
2270                                 break;
2271                         }
2272
2273                         checkstat $DIR/$tdir/test_0/a && {
2274                                 echo "a still exists"
2275                                 break
2276                         }
2277
2278                         checkstat $DIR/$tdir/test_1/b || {
2279                                 echo "b still  exists"
2280                                 break
2281                         }
2282
2283                         touch $DIR/$tdir/test_0/a || {
2284                                 echo "touch a fails"
2285                                 break
2286                         }
2287
2288                         mrename $DIR/$tdir/test_1/b $DIR/$tdir/test_0/a > \
2289                                                 /dev/null || {
2290                                 echo "a->a fails"
2291                                 break;
2292                         }
2293                 done
2294         )&
2295         rename_70e_pid=$!
2296         echo "Started  $rename_70e_pid"
2297
2298         random_fail_mdt 2 $duration $rename_70e_pid
2299         kill -0 $rename_70e_pid || error "rename $rename_70e_pid stopped"
2300
2301         cleanup_70e
2302         true
2303 }
2304 run_test 70e "rename cross-MDT with random fails"
2305
2306 test_70f_write_and_read(){
2307         local srcfile=$1
2308         local stopflag=$2
2309         local client
2310
2311         echo "Write/read files in: '$DIR/$tdir', clients: '$CLIENTS' ..."
2312         for client in ${CLIENTS//,/ }; do
2313                 [ -f $stopflag ] || return
2314
2315                 local tgtfile=$DIR/$tdir/$tfile.$client
2316                 do_node $client dd $DD_OPTS bs=1M count=10 if=$srcfile \
2317                         of=$tgtfile 2>/dev/null ||
2318                         error "dd $DD_OPTS bs=1M count=10 if=$srcfile " \
2319                               "of=$tgtfile failed on $client, rc=$?"
2320         done
2321
2322         local prev_client=$(echo ${CLIENTS//,/ } | awk '{ print $NF }')
2323         local index=0
2324
2325         for client in ${CLIENTS//,/ }; do
2326                 [ -f $stopflag ] || return
2327
2328                 # flush client cache in case test is running on only one client
2329                 # do_node $client cancel_lru_locks osc
2330                 do_node $client $LCTL set_param ldlm.namespaces.*.lru_size=clear
2331
2332                 tgtfile=$DIR/$tdir/$tfile.$client
2333                 local md5=$(do_node $prev_client "md5sum $tgtfile")
2334                 [ ${checksum[$index]// */} = ${md5// */} ] ||
2335                         error "$tgtfile: checksum doesn't match on $prev_client"
2336                 index=$((index + 1))
2337                 prev_client=$client
2338         done
2339 }
2340
2341 test_70f_loop(){
2342         local srcfile=$1
2343         local stopflag=$2
2344         DD_OPTS=
2345
2346         mkdir -p $DIR/$tdir || error "cannot create $DIR/$tdir directory"
2347         $SETSTRIPE -c -1 $DIR/$tdir || error "cannot $SETSTRIPE $DIR/$tdir"
2348
2349         touch $stopflag
2350         while [ -f $stopflag ]; do
2351                 test_70f_write_and_read $srcfile $stopflag
2352                 # use direct IO and buffer cache in turns if loop
2353                 [ -n "$DD_OPTS" ] && DD_OPTS="" || DD_OPTS="oflag=direct"
2354         done
2355 }
2356
2357 test_70f_cleanup() {
2358         trap 0
2359         rm -f $TMP/$tfile.stop
2360         do_nodes $CLIENTS rm -f $TMP/$tfile
2361         rm -f $DIR/$tdir/$tfile.*
2362 }
2363
2364 test_70f() {
2365 #       [ x$ost1failover_HOST = x$ost_HOST ] &&
2366 #               { skip "Failover host not defined" && return; }
2367 #       [ -z "$CLIENTS" ] &&
2368 #               { skip "CLIENTS are not specified." && return; }
2369 #       [ $CLIENTCOUNT -lt 2 ] &&
2370 #               { skip "Need 2 or more clients, have $CLIENTCOUNT" && return; }
2371
2372         [[ $(lustre_version_code ost1) -lt $(version_code 2.9.53) ]] &&
2373                 skip "Need server version at least 2.9.53" && return
2374
2375         echo "mount clients $CLIENTS ..."
2376         zconf_mount_clients $CLIENTS $MOUNT
2377
2378         local srcfile=$TMP/$tfile
2379         local client
2380         local index=0
2381
2382         trap test_70f_cleanup EXIT
2383         # create a different source file local to each client node so we can
2384         # detect if the file wasn't written out properly after failover
2385         do_nodes $CLIENTS dd bs=1M count=10 if=/dev/urandom of=$srcfile \
2386                 2>/dev/null || error "can't create $srcfile on $CLIENTS"
2387         for client in ${CLIENTS//,/ }; do
2388                 checksum[$index]=$(do_node $client "md5sum $srcfile")
2389                 index=$((index + 1))
2390         done
2391
2392         local duration=120
2393         [ "$SLOW" = "no" ] && duration=60
2394         # set duration to 900 because it takes some time to boot node
2395         [ "$FAILURE_MODE" = HARD ] && duration=900
2396
2397         local stopflag=$TMP/$tfile.stop
2398         test_70f_loop $srcfile $stopflag &
2399         local pid=$!
2400
2401         local elapsed=0
2402         local num_failovers=0
2403         local start_ts=$SECONDS
2404         while [ $elapsed -lt $duration ]; do
2405                 sleep 3
2406                 replay_barrier ost1
2407                 sleep 1
2408                 num_failovers=$((num_failovers + 1))
2409                 log "$TESTNAME failing OST $num_failovers times"
2410                 fail ost1
2411                 sleep 2
2412                 elapsed=$((SECONDS - start_ts))
2413         done
2414
2415         rm -f $stopflag
2416         wait $pid
2417         test_70f_cleanup
2418 }
2419 run_test 70f "OSS O_DIRECT recovery with $CLIENTCOUNT clients"
2420
2421 cleanup_71a() {
2422         trap 0
2423         kill -9 $mkdir_71a_pid
2424 }
2425
2426 random_double_fail_mdt() {
2427         local max_index=$1
2428         local duration=$2
2429         local monitor_pid=$3
2430         local elapsed
2431         local start_ts=$(date +%s)
2432         local num_failovers=0
2433         local fail_index
2434         local second_index
2435
2436         elapsed=$(($(date +%s) - start_ts))
2437         while [ $elapsed -lt $duration ]; do
2438                 fail_index=$((RANDOM%max_index + 1))
2439                 if [ $fail_index -eq $max_index ]; then
2440                         second_index=1
2441                 else
2442                         second_index=$((fail_index + 1))
2443                 fi
2444                 kill -0 $monitor_pid ||
2445                         error "$monitor_pid stopped"
2446                 sleep 120
2447                 replay_barrier mds$fail_index
2448                 replay_barrier mds$second_index
2449                 sleep 10
2450                 # Increment the number of failovers
2451                 num_failovers=$((num_failovers+1))
2452                 log "fail mds$fail_index mds$second_index $num_failovers times"
2453                 fail mds${fail_index},mds${second_index}
2454                 elapsed=$(($(date +%s) - start_ts))
2455         done
2456 }
2457
2458 test_71a () {
2459         [ $MDSCOUNT -lt 2 ] && skip "needs >= 2 MDTs" && return 0
2460         local clients=${CLIENTS:-$HOSTNAME}
2461         local rc=0
2462
2463         zconf_mount_clients $clients $MOUNT
2464
2465         local duration=300
2466         [ "$SLOW" = "no" ] && duration=180
2467         # set duration to 900 because it takes some time to boot node
2468         [ "$FAILURE_MODE" = HARD ] && duration=900
2469
2470         mkdir -p $DIR/$tdir
2471
2472         local elapsed
2473         local start_ts=$(date +%s)
2474
2475         trap cleanup_71a EXIT
2476         (
2477                 while true; do
2478                         $LFS mkdir -i0 -c2 $DIR/$tdir/test
2479                         rmdir $DIR/$tdir/test
2480                 done
2481         )&
2482         mkdir_71a_pid=$!
2483         echo "Started  $mkdir_71a_pid"
2484
2485         random_double_fail_mdt 2 $duration $mkdir_71a_pid
2486         kill -0 $mkdir_71a_pid || error "mkdir/rmdir $mkdir_71a_pid stopped"
2487
2488         cleanup_71a
2489         true
2490 }
2491 run_test 71a "mkdir/rmdir striped dir with 2 mdts recovery"
2492
2493 test_73a() {
2494         multiop_bg_pause $DIR/$tfile O_tSc ||
2495                 error "multiop_bg_pause $DIR/$tfile failed"
2496         pid=$!
2497         rm -f $DIR/$tfile
2498
2499         replay_barrier $SINGLEMDS
2500         #define OBD_FAIL_LDLM_ENQUEUE_NET                       0x302
2501         do_facet $SINGLEMDS "lctl set_param fail_loc=0x80000302"
2502         fail $SINGLEMDS
2503         kill -USR1 $pid
2504         wait $pid || error "multiop pid failed"
2505         [ -e $DIR/$tfile ] && error "file $DIR/$tfile should not exist"
2506         return 0
2507 }
2508 run_test 73a "open(O_CREAT), unlink, replay, reconnect before open replay, close"
2509
2510 test_73b() {
2511         multiop_bg_pause $DIR/$tfile O_tSc ||
2512                 error "multiop_bg_pause $DIR/$tfile failed"
2513         pid=$!
2514         rm -f $DIR/$tfile
2515
2516         replay_barrier $SINGLEMDS
2517         #define OBD_FAIL_LDLM_REPLY       0x30c
2518         do_facet $SINGLEMDS "lctl set_param fail_loc=0x8000030c"
2519         fail $SINGLEMDS
2520         kill -USR1 $pid
2521         wait $pid || error "multiop pid failed"
2522         [ -e $DIR/$tfile ] && error "file $DIR/$tfile should not exist"
2523         return 0
2524 }
2525 run_test 73b "open(O_CREAT), unlink, replay, reconnect at open_replay reply, close"
2526
2527 # bug 18554
2528 test_74() {
2529         local clients=${CLIENTS:-$HOSTNAME}
2530
2531         zconf_umount_clients $clients $MOUNT
2532         stop ost1
2533         facet_failover $SINGLEMDS
2534         zconf_mount_clients $clients $MOUNT
2535         mount_facet ost1
2536         touch $DIR/$tfile || error "touch $DIR/$tfile failed"
2537         rm $DIR/$tfile || error "rm $DIR/$tfile failed"
2538         clients_up || error "client evicted: $?"
2539         return 0
2540 }
2541 run_test 74 "Ensure applications don't fail waiting for OST recovery"
2542
2543 remote_dir_check_80() {
2544         local MDTIDX=1
2545         local diridx
2546         local fileidx
2547
2548         diridx=$($GETSTRIPE -M $remote_dir) ||
2549                 error "$GETSTRIPE -M $remote_dir failed"
2550         [ $diridx -eq $MDTIDX ] || error "$diridx != $MDTIDX"
2551
2552         createmany -o $remote_dir/f-%d 20 || error "creation failed"
2553         fileidx=$($GETSTRIPE -M $remote_dir/f-1) ||
2554                 error "$GETSTRIPE -M $remote_dir/f-1 failed"
2555         [ $fileidx -eq $MDTIDX ] || error "$fileidx != $MDTIDX"
2556
2557         return 0
2558 }
2559
2560 test_80a() {
2561         [ $MDSCOUNT -lt 2 ] && skip "needs >= 2 MDTs" && return 0
2562         ([ $FAILURE_MODE == "HARD" ] &&
2563                 [ "$(facet_host mds1)" == "$(facet_host mds2)" ]) &&
2564                 skip "MDTs needs to be on diff hosts for HARD fail mode" &&
2565                 return 0
2566
2567         local MDTIDX=1
2568         local remote_dir=$DIR/$tdir/remote_dir
2569
2570         mkdir -p $DIR/$tdir || error "mkdir $DIR/$tdir failed"
2571         #define OBD_FAIL_OUT_UPDATE_NET_REP     0x1701
2572         do_facet mds${MDTIDX} lctl set_param fail_loc=0x1701
2573         $LFS mkdir -i $MDTIDX $remote_dir &
2574         local CLIENT_PID=$!
2575
2576         replay_barrier mds1
2577         fail mds${MDTIDX}
2578
2579         wait $CLIENT_PID || error "remote creation failed"
2580
2581         remote_dir_check_80 || error "remote dir check failed"
2582         rm -rf $DIR/$tdir || error "rmdir failed"
2583
2584         return 0
2585 }
2586 run_test 80a "DNE: create remote dir, drop update rep from MDT0, fail MDT0"
2587
2588 test_80b() {
2589         [ $MDSCOUNT -lt 2 ] && skip "needs >= 2 MDTs" && return 0
2590         ([ $FAILURE_MODE == "HARD" ] &&
2591                 [ "$(facet_host mds1)" == "$(facet_host mds2)" ]) &&
2592                 skip "MDTs needs to be on diff hosts for HARD fail mode" &&
2593                 return 0
2594
2595         local MDTIDX=1
2596         local remote_dir=$DIR/$tdir/remote_dir
2597
2598         mkdir $DIR/$tdir || error "mkdir $DIR/$tdir failed"
2599         #define OBD_FAIL_UPDATE_OBJ_NET_REP     0x1701
2600         do_facet mds${MDTIDX} lctl set_param fail_loc=0x1701
2601         $LFS mkdir -i $MDTIDX $remote_dir &
2602         local CLIENT_PID=$!
2603
2604         replay_barrier mds1
2605         replay_barrier mds2
2606         fail mds$((MDTIDX + 1))
2607
2608         wait $CLIENT_PID || error "remote creation failed"
2609
2610         remote_dir_check_80 || error "remote dir check failed"
2611         rm -rf $DIR/$tdir || error "rmdir failed"
2612
2613         return 0
2614 }
2615 run_test 80b "DNE: create remote dir, drop update rep from MDT0, fail MDT1"
2616
2617 test_80c() {
2618         [ $MDSCOUNT -lt 2 ] && skip "needs >= 2 MDTs" && return 0
2619         ([ $FAILURE_MODE == "HARD" ] &&
2620                 [ "$(facet_host mds1)" == "$(facet_host mds2)" ]) &&
2621                 skip "MDTs needs to be on diff hosts for HARD fail mode" &&
2622                 return 0
2623
2624         local MDTIDX=1
2625         local remote_dir=$DIR/$tdir/remote_dir
2626
2627         mkdir $DIR/$tdir || error "mkdir $DIR/$tdir failed"
2628         #define OBD_FAIL_UPDATE_OBJ_NET_REP     0x1701
2629         do_facet mds${MDTIDX} lctl set_param fail_loc=0x1701
2630         $LFS mkdir -i $MDTIDX $remote_dir &
2631         local CLIENT_PID=$!
2632
2633         replay_barrier mds1
2634         replay_barrier mds2
2635         fail mds${MDTIDX}
2636         fail mds$((MDTIDX + 1))
2637
2638         wait $CLIENT_PID || error "remote creation failed"
2639
2640         remote_dir_check_80 || error "remote dir check failed"
2641         rm -rf $DIR/$tdir || error "rmdir failed"
2642
2643         return 0
2644 }
2645 run_test 80c "DNE: create remote dir, drop update rep from MDT1, fail MDT[0,1]"
2646
2647 test_80d() {
2648         [ $MDSCOUNT -lt 2 ] && skip "needs >= 2 MDTs" && return 0
2649         local MDTIDX=1
2650         local remote_dir=$DIR/$tdir/remote_dir
2651
2652         mkdir $DIR/$tdir || error "mkdir $DIR/$tdir failed"
2653         #define OBD_FAIL_UPDATE_OBJ_NET_REP     0x1701
2654         do_facet mds${MDTIDX} lctl set_param fail_loc=0x1701
2655         $LFS mkdir -i $MDTIDX $remote_dir &
2656         local CLIENT_PID=$!
2657
2658         # sleep 3 seconds to make sure MDTs are failed after
2659         # lfs mkdir -i has finished on all of MDTs.
2660         sleep 3
2661
2662         replay_barrier mds1
2663         replay_barrier mds2
2664         fail mds${MDTIDX},mds$((MDTIDX + 1))
2665
2666         wait $CLIENT_PID || error "remote creation failed"
2667
2668         remote_dir_check_80 || error "remote dir check failed"
2669         rm -rf $DIR/$tdir || error "rmdir failed"
2670
2671         return 0
2672 }
2673 run_test 80d "DNE: create remote dir, drop update rep from MDT1, fail 2 MDTs"
2674
2675 test_80e() {
2676         [ $MDSCOUNT -lt 2 ] && skip "needs >= 2 MDTs" && return 0
2677         ([ $FAILURE_MODE == "HARD" ] &&
2678                 [ "$(facet_host mds1)" == "$(facet_host mds2)" ]) &&
2679                 skip "MDTs needs to be on diff hosts for HARD fail mode" &&
2680                 return 0
2681
2682         local MDTIDX=1
2683         local remote_dir=$DIR/$tdir/remote_dir
2684
2685         mkdir $DIR/$tdir || error "mkdir $DIR/$tdir failed"
2686         # OBD_FAIL_MDS_REINT_NET_REP       0x119
2687         do_facet mds$((MDTIDX + 1)) lctl set_param fail_loc=0x119
2688         $LFS mkdir -i $MDTIDX $remote_dir &
2689         local CLIENT_PID=$!
2690
2691         # sleep 3 seconds to make sure MDTs are failed after
2692         # lfs mkdir -i has finished on all of MDTs.
2693         sleep 3
2694
2695         replay_barrier mds1
2696         fail mds${MDTIDX}
2697
2698         wait $CLIENT_PID || error "remote creation failed"
2699
2700         remote_dir_check_80 || error "remote dir check failed"
2701         rm -rf $DIR/$tdir || error "rmdir failed"
2702
2703         return 0
2704 }
2705 run_test 80e "DNE: create remote dir, drop MDT1 rep, fail MDT0"
2706
2707 test_80f() {
2708         [ $MDSCOUNT -lt 2 ] && skip "needs >= 2 MDTs" && return 0
2709         ([ $FAILURE_MODE == "HARD" ] &&
2710                 [ "$(facet_host mds1)" == "$(facet_host mds2)" ]) &&
2711                 skip "MDTs needs to be on diff hosts for HARD fail mode" &&
2712                 return 0
2713         local MDTIDX=1
2714         local remote_dir=$DIR/$tdir/remote_dir
2715
2716         mkdir $DIR/$tdir || error "mkdir $DIR/$tdir failed"
2717         # OBD_FAIL_MDS_REINT_NET_REP       0x119
2718         do_facet mds$((MDTIDX + 1)) lctl set_param fail_loc=0x119
2719         $LFS mkdir -i $MDTIDX $remote_dir &
2720         local CLIENT_PID=$!
2721
2722         replay_barrier mds2
2723         fail mds$((MDTIDX + 1))
2724
2725         wait $CLIENT_PID || error "remote creation failed"
2726
2727         remote_dir_check_80 || error "remote dir check failed"
2728         rm -rf $DIR/$tdir || error "rmdir failed"
2729
2730         return 0
2731 }
2732 run_test 80f "DNE: create remote dir, drop MDT1 rep, fail MDT1"
2733
2734 test_80g() {
2735         [ $MDSCOUNT -lt 2 ] && skip "needs >= 2 MDTs" && return 0
2736         ([ $FAILURE_MODE == "HARD" ] &&
2737                 [ "$(facet_host mds1)" == "$(facet_host mds2)" ]) &&
2738                 skip "MDTs needs to be on diff hosts for HARD fail mode" &&
2739                 return 0
2740
2741         local MDTIDX=1
2742         local remote_dir=$DIR/$tdir/remote_dir
2743
2744         mkdir $DIR/$tdir || error "mkdir $DIR/$tdir failed"
2745         # OBD_FAIL_MDS_REINT_NET_REP       0x119
2746         do_facet mds$((MDTIDX + 1)) lctl set_param fail_loc=0x119
2747         $LFS mkdir -i $MDTIDX $remote_dir &
2748         local CLIENT_PID=$!
2749
2750         # sleep 3 seconds to make sure MDTs are failed after
2751         # lfs mkdir -i has finished on all of MDTs.
2752         sleep 3
2753
2754         replay_barrier mds1
2755         replay_barrier mds2
2756         fail mds${MDTIDX}
2757         fail mds$((MDTIDX + 1))
2758
2759         wait $CLIENT_PID || error "remote creation failed"
2760
2761         remote_dir_check_80 || error "remote dir check failed"
2762         rm -rf $DIR/$tdir || error "rmdir failed"
2763
2764         return 0
2765 }
2766 run_test 80g "DNE: create remote dir, drop MDT1 rep, fail MDT0, then MDT1"
2767
2768 test_80h() {
2769         [ $MDSCOUNT -lt 2 ] && skip "needs >= 2 MDTs" && return 0
2770         local MDTIDX=1
2771         local remote_dir=$DIR/$tdir/remote_dir
2772
2773         mkdir $DIR/$tdir || error "mkdir $DIR/$tdir failed"
2774         # OBD_FAIL_MDS_REINT_NET_REP       0x119
2775         do_facet mds$((MDTIDX + 1)) lctl set_param fail_loc=0x119
2776         $LFS mkdir -i $MDTIDX $remote_dir &
2777         local CLIENT_PID=$!
2778
2779         # sleep 3 seconds to make sure MDTs are failed after
2780         # lfs mkdir -i has finished on all of MDTs.
2781         sleep 3
2782
2783         replay_barrier mds1
2784         replay_barrier mds2
2785         fail mds${MDTIDX},mds$((MDTIDX + 1))
2786
2787         wait $CLIENT_PID || error "remote dir creation failed"
2788
2789         remote_dir_check_80 || error "remote dir check failed"
2790         rm -rf $DIR/$tdir || error "rmdir failed"
2791
2792         return 0
2793 }
2794 run_test 80h "DNE: create remote dir, drop MDT1 rep, fail 2 MDTs"
2795
2796 test_81a() {
2797         [ $MDSCOUNT -lt 2 ] && skip "needs >= 2 MDTs" && return 0
2798         ([ $FAILURE_MODE == "HARD" ] &&
2799                 [ "$(facet_host mds1)" == "$(facet_host mds2)" ]) &&
2800                 skip "MDTs needs to be on diff hosts for HARD fail mode" &&
2801                 return 0
2802
2803         local MDTIDX=1
2804         local remote_dir=$DIR/$tdir/remote_dir
2805
2806         mkdir $DIR/$tdir || error "mkdir $DIR/$tdir failed"
2807         $LFS mkdir -i $MDTIDX $remote_dir || error "lfs mkdir failed"
2808
2809         touch $remote_dir || error "touch $remote_dir failed"
2810         # OBD_FAIL_OBJ_UPDATE_NET_REP       0x1701
2811         do_facet mds${MDTIDX} lctl set_param fail_loc=0x1701
2812         rmdir $remote_dir &
2813         local CLIENT_PID=$!
2814
2815         replay_barrier mds2
2816         fail mds$((MDTIDX + 1))
2817
2818         wait $CLIENT_PID || error "rm remote dir failed"
2819
2820         stat $remote_dir &>/dev/null && error "$remote_dir still exist!"
2821
2822         rm -rf $DIR/$tdir || error "rmdir failed"
2823
2824         return 0
2825 }
2826 run_test 81a "DNE: unlink remote dir, drop MDT0 update rep,  fail MDT1"
2827
2828 test_81b() {
2829         [ $MDSCOUNT -lt 2 ] && skip "needs >= 2 MDTs" && return 0
2830         ([ $FAILURE_MODE == "HARD" ] &&
2831                 [ "$(facet_host mds1)" == "$(facet_host mds2)" ]) &&
2832                 skip "MDTs needs to be on diff hosts for HARD fail mode" &&
2833                 return 0
2834         local MDTIDX=1
2835         local remote_dir=$DIR/$tdir/remote_dir
2836
2837         mkdir $DIR/$tdir || error "mkdir $DIR/$tdir failed"
2838         $LFS mkdir -i $MDTIDX $remote_dir || error "lfs mkdir failed"
2839
2840         # OBD_FAIL_OBJ_UPDATE_NET_REP       0x1701
2841         do_facet mds${MDTIDX} lctl set_param fail_loc=0x1701
2842         rmdir $remote_dir &
2843         local CLIENT_PID=$!
2844
2845         replay_barrier mds1
2846         fail mds${MDTIDX}
2847
2848         wait $CLIENT_PID || error "rm remote dir failed"
2849
2850         stat $remote_dir &>/dev/null && error "$remote_dir still exist!"
2851
2852         rm -rf $DIR/$tdir || error "rmdir failed"
2853
2854         return 0
2855 }
2856 run_test 81b "DNE: unlink remote dir, drop MDT0 update reply,  fail MDT0"
2857
2858 test_81c() {
2859         [ $MDSCOUNT -lt 2 ] && skip "needs >= 2 MDTs" && return 0
2860         ([ $FAILURE_MODE == "HARD" ] &&
2861                 [ "$(facet_host mds1)" == "$(facet_host mds2)" ]) &&
2862                 skip "MDTs needs to be on diff hosts for HARD fail mode" &&
2863                 return 0
2864
2865         local MDTIDX=1
2866         local remote_dir=$DIR/$tdir/remote_dir
2867
2868         mkdir $DIR/$tdir || error "mkdir $DIR/$tdir failed"
2869         $LFS mkdir -i $MDTIDX $remote_dir || error "lfs mkdir failed"
2870
2871         # OBD_FAIL_OBJ_UPDATE_NET_REP       0x1701
2872         do_facet mds${MDTIDX} lctl set_param fail_loc=0x1701
2873         rmdir $remote_dir &
2874         local CLIENT_PID=$!
2875
2876         replay_barrier mds1
2877         replay_barrier mds2
2878         fail mds${MDTIDX}
2879         fail mds$((MDTIDX + 1))
2880
2881         wait $CLIENT_PID || error "rm remote dir failed"
2882
2883         stat $remote_dir &>/dev/null && error "$remote_dir still exist!"
2884
2885         rm -rf $DIR/$tdir || error "rmdir failed"
2886
2887         return 0
2888 }
2889 run_test 81c "DNE: unlink remote dir, drop MDT0 update reply, fail MDT0,MDT1"
2890
2891 test_81d() {
2892         [ $MDSCOUNT -lt 2 ] && skip "needs >= 2 MDTs" && return 0
2893         local MDTIDX=1
2894         local remote_dir=$DIR/$tdir/remote_dir
2895
2896         mkdir $DIR/$tdir || error "mkdir $DIR/$tdir failed"
2897         $LFS mkdir -i $MDTIDX $remote_dir || error "lfs mkdir failed"
2898
2899         # OBD_FAIL_OBJ_UPDATE_NET_REP       0x1701
2900         do_facet mds${MDTIDX} lctl set_param fail_loc=0x1701
2901         rmdir $remote_dir &
2902         local CLIENT_PID=$!
2903
2904         replay_barrier mds1
2905         replay_barrier mds2
2906         fail mds${MDTIDX},mds$((MDTIDX + 1))
2907
2908         wait $CLIENT_PID || error "rm remote dir failed"
2909
2910         stat $remote_dir &>/dev/null && error "$remote_dir still exist!"
2911
2912         rm -rf $DIR/$tdir || error "rmdir failed"
2913
2914         return 0
2915 }
2916 run_test 81d "DNE: unlink remote dir, drop MDT0 update reply,  fail 2 MDTs"
2917
2918 test_81e() {
2919         [ $MDSCOUNT -lt 2 ] && skip "needs >= 2 MDTs" && return 0
2920         ([ $FAILURE_MODE == "HARD" ] &&
2921                 [ "$(facet_host mds1)" == "$(facet_host mds2)" ]) &&
2922                 skip "MDTs needs to be on diff hosts for HARD fail mode" &&
2923                 return 0
2924
2925         local MDTIDX=1
2926         local remote_dir=$DIR/$tdir/remote_dir
2927
2928         mkdir $DIR/$tdir || error "mkdir $DIR/$tdir failed"
2929         $LFS mkdir -i $MDTIDX $remote_dir || error "lfs mkdir failed"
2930
2931         # OBD_FAIL_MDS_REINT_NET_REP       0x119
2932         do_facet mds$((MDTIDX + 1)) lctl set_param fail_loc=0x119
2933         rmdir $remote_dir &
2934         local CLIENT_PID=$!
2935         do_facet mds$((MDTIDX + 1)) lctl set_param fail_loc=0
2936
2937         replay_barrier mds1
2938         fail mds${MDTIDX}
2939
2940         wait $CLIENT_PID || error "rm remote dir failed"
2941
2942         stat $remote_dir &>/dev/null && error "$remote_dir still exist!"
2943
2944         rm -rf $DIR/$tdir || error "rmdir failed"
2945
2946         return 0
2947 }
2948 run_test 81e "DNE: unlink remote dir, drop MDT1 req reply, fail MDT0"
2949
2950 test_81f() {
2951         [ $MDSCOUNT -lt 2 ] && skip "needs >= 2 MDTs" && return 0
2952         ([ $FAILURE_MODE == "HARD" ] &&
2953                 [ "$(facet_host mds1)" == "$(facet_host mds2)" ]) &&
2954                 skip "MDTs needs to be on diff hosts for HARD fail mode" &&
2955                 return 0
2956
2957         local MDTIDX=1
2958         local remote_dir=$DIR/$tdir/remote_dir
2959
2960         mkdir $DIR/$tdir || error "mkdir $DIR/$tdir failed"
2961         $LFS mkdir -i $MDTIDX $remote_dir || error "lfs mkdir failed"
2962
2963         # OBD_FAIL_MDS_REINT_NET_REP       0x119
2964         do_facet mds$((MDTIDX + 1)) lctl set_param fail_loc=0x119
2965         rmdir $remote_dir &
2966         local CLIENT_PID=$!
2967
2968         replay_barrier mds2
2969         fail mds$((MDTIDX + 1))
2970
2971         wait $CLIENT_PID || error "rm remote dir failed"
2972
2973         stat $remote_dir &>/dev/null && error "$remote_dir still exist!"
2974
2975         rm -rf $DIR/$tdir || error "rmdir failed"
2976
2977         return 0
2978 }
2979 run_test 81f "DNE: unlink remote dir, drop MDT1 req reply, fail MDT1"
2980
2981 test_81g() {
2982         [ $MDSCOUNT -lt 2 ] && skip "needs >= 2 MDTs" && return 0
2983         ([ $FAILURE_MODE == "HARD" ] &&
2984                 [ "$(facet_host mds1)" == "$(facet_host mds2)" ]) &&
2985                 skip "MDTs needs to be on diff hosts for HARD fail mode" &&
2986                 return 0
2987
2988         local MDTIDX=1
2989         local remote_dir=$DIR/$tdir/remote_dir
2990
2991         mkdir $DIR/$tdir || error "mkdir $DIR/$tdir failed"
2992         $LFS mkdir -i $MDTIDX $remote_dir || error "lfs mkdir failed"
2993
2994         # OBD_FAIL_MDS_REINT_NET_REP       0x119
2995         do_facet mds$((MDTIDX + 1)) lctl set_param fail_loc=0x119
2996         rmdir $remote_dir &
2997         local CLIENT_PID=$!
2998
2999         replay_barrier mds1
3000         replay_barrier mds2
3001         fail mds${MDTIDX}
3002         fail mds$((MDTIDX + 1))
3003
3004         wait $CLIENT_PID || error "rm remote dir failed"
3005
3006         stat $remote_dir &>/dev/null && error "$remote_dir still exist!"
3007
3008         rm -rf $DIR/$tdir || error "rmdir failed"
3009
3010         return 0
3011 }
3012 run_test 81g "DNE: unlink remote dir, drop req reply, fail M0, then M1"
3013
3014 test_81h() {
3015         [ $MDSCOUNT -lt 2 ] && skip "needs >= 2 MDTs" && return 0
3016         local MDTIDX=1
3017         local remote_dir=$DIR/$tdir/remote_dir
3018
3019         mkdir $DIR/$tdir || error "mkdir $DIR/$tdir failed"
3020         $LFS mkdir -i $MDTIDX $remote_dir || error "lfs mkdir failed"
3021
3022         # OBD_FAIL_MDS_REINT_NET_REP       0x119
3023         do_facet mds$((MDTIDX + 1)) lctl set_param fail_loc=0x119
3024         rmdir $remote_dir &
3025         local CLIENT_PID=$!
3026
3027         replay_barrier mds1
3028         replay_barrier mds2
3029         fail mds${MDTIDX},mds$((MDTIDX + 1))
3030
3031         wait $CLIENT_PID || error "rm remote dir failed"
3032
3033         stat $remote_dir &>/dev/null && error "$remote_dir still exist!"
3034
3035         rm -rf $DIR/$tdir || error "rmdir failed"
3036
3037         return 0
3038 }
3039 run_test 81h "DNE: unlink remote dir, drop request reply, fail 2 MDTs"
3040
3041 test_84a() {
3042 #define OBD_FAIL_MDS_OPEN_WAIT_CREATE  0x144
3043     do_facet $SINGLEMDS "lctl set_param fail_loc=0x80000144"
3044     createmany -o $DIR/$tfile- 1 &
3045     PID=$!
3046     mds_evict_client
3047     wait $PID
3048     client_up || client_up || true    # reconnect
3049 }
3050 run_test 84a "stale open during export disconnect"
3051
3052 test_85a() { #bug 16774
3053         lctl set_param -n ldlm.cancel_unused_locks_before_replay "1"
3054
3055         for i in $(seq 100); do
3056                 echo "tag-$i" > $DIR/$tfile-$i
3057                 grep -q "tag-$i" $DIR/$tfile-$i || error "f2-$i"
3058         done
3059
3060         lov_id=$(lctl dl | grep "clilov")
3061         addr=$(echo $lov_id | awk '{print $4}' | awk -F '-' '{print $NF}')
3062         count=$(lctl get_param -n \
3063                 ldlm.namespaces.*MDT0000*$addr.lock_unused_count)
3064         echo "before recovery: unused locks count = $count"
3065
3066         fail $SINGLEMDS
3067
3068         count2=$(lctl get_param -n \
3069                  ldlm.namespaces.*MDT0000*$addr.lock_unused_count)
3070         echo "after recovery: unused locks count = $count2"
3071
3072         if [ $count2 -ge $count ]; then
3073                 error "unused locks are not canceled"
3074         fi
3075 }
3076 run_test 85a "check the cancellation of unused locks during recovery(IBITS)"
3077
3078 test_85b() { #bug 16774
3079         lctl set_param -n ldlm.cancel_unused_locks_before_replay "1"
3080
3081         if ! combined_mgs_mds ; then
3082                 mount_mgs_client
3083         fi
3084
3085         create_pool $FSNAME.$TESTNAME ||
3086                 error "unable to create pool $TESTNAME"
3087         do_facet mgs $LCTL pool_add $FSNAME.$TESTNAME $FSNAME-OST0000 ||
3088                 error "unable to add pool $TESTNAME"
3089
3090         $SETSTRIPE -c 1 -p $FSNAME.$TESTNAME $DIR
3091
3092         for i in $(seq 100); do
3093                 dd if=/dev/urandom of=$DIR/$tfile-$i bs=4096 \
3094                         count=32 >/dev/null 2>&1
3095         done
3096
3097         cancel_lru_locks osc
3098
3099         for i in $(seq 100); do
3100                 dd if=$DIR/$tfile-$i of=/dev/null bs=4096 \
3101                         count=32 >/dev/null 2>&1
3102         done
3103
3104         lov_id=$(lctl dl | grep "clilov")
3105         addr=$(echo $lov_id | awk '{print $4}' | awk -F '-' '{print $NF}')
3106         count=$(lctl get_param -n \
3107                           ldlm.namespaces.*OST0000*$addr.lock_unused_count)
3108         echo "before recovery: unused locks count = $count"
3109         [ $count -ne 0 ] || error "unused locks ($count) should be zero"
3110
3111         fail ost1
3112
3113         count2=$(lctl get_param \
3114                  -n ldlm.namespaces.*OST0000*$addr.lock_unused_count)
3115         echo "after recovery: unused locks count = $count2"
3116
3117         do_facet mgs $LCTL pool_remove $FSNAME.$TESTNAME $FSNAME-OST0000 ||
3118                 error "unable to remove pool $TESTNAME"
3119         do_facet mgs $LCTL pool_destroy $FSNAME.$TESTNAME ||
3120                 error "unable to destroy the pool $TESTNAME"
3121
3122         if ! combined_mgs_mds ; then
3123                 umount_mgs_client
3124         fi
3125
3126         if [ $count2 -ge $count ]; then
3127                 error "unused locks are not canceled"
3128         fi
3129 }
3130 run_test 85b "check the cancellation of unused locks during recovery(EXTENT)"
3131
3132 test_86() {
3133         local clients=${CLIENTS:-$HOSTNAME}
3134
3135         zconf_umount_clients $clients $MOUNT
3136         do_facet $SINGLEMDS lctl set_param mdt.${FSNAME}-MDT*.exports.clear=0
3137         remount_facet $SINGLEMDS
3138         zconf_mount_clients $clients $MOUNT
3139 }
3140 run_test 86 "umount server after clear nid_stats should not hit LBUG"
3141
3142 test_87a() {
3143         do_facet ost1 "lctl set_param -n obdfilter.${ost1_svc}.sync_journal 0"
3144
3145         replay_barrier ost1
3146         $SETSTRIPE -i 0 -c 1 $DIR/$tfile
3147         dd if=/dev/urandom of=$DIR/$tfile bs=1024k count=8 ||
3148                 error "dd to $DIR/$tfile failed"
3149         cksum=$(md5sum $DIR/$tfile | awk '{print $1}')
3150         cancel_lru_locks osc
3151         fail ost1
3152         dd if=$DIR/$tfile of=/dev/null bs=1024k count=8 || error "Cannot read"
3153         cksum2=$(md5sum $DIR/$tfile | awk '{print $1}')
3154         if [ $cksum != $cksum2 ] ; then
3155                 error "New checksum $cksum2 does not match original $cksum"
3156         fi
3157 }
3158 run_test 87a "write replay"
3159
3160 test_87b() {
3161         do_facet ost1 "lctl set_param -n obdfilter.${ost1_svc}.sync_journal 0"
3162
3163         replay_barrier ost1
3164         $SETSTRIPE -i 0 -c 1 $DIR/$tfile
3165         dd if=/dev/urandom of=$DIR/$tfile bs=1024k count=8 ||
3166                 error "dd to $DIR/$tfile failed"
3167         sleep 1 # Give it a chance to flush dirty data
3168         echo TESTTEST | dd of=$DIR/$tfile bs=1 count=8 seek=64
3169         cksum=$(md5sum $DIR/$tfile | awk '{print $1}')
3170         cancel_lru_locks osc
3171         fail ost1
3172         dd if=$DIR/$tfile of=/dev/null bs=1024k count=8 || error "Cannot read"
3173         cksum2=$(md5sum $DIR/$tfile | awk '{print $1}')
3174         if [ $cksum != $cksum2 ] ; then
3175                 error "New checksum $cksum2 does not match original $cksum"
3176         fi
3177 }
3178 run_test 87b "write replay with changed data (checksum resend)"
3179
3180 test_88() { #bug 17485
3181         mkdir $DIR/$tdir || error "mkdir $DIR/$tdir failed"
3182         mkdir -p $TMP/$tdir || error "mkdir $TMP/$tdir failed"
3183
3184         $SETSTRIPE -i 0 -c 1 $DIR/$tdir || error "$SETSTRIPE"
3185
3186         replay_barrier ost1
3187         replay_barrier $SINGLEMDS
3188
3189     # exhaust precreations on ost1
3190     local OST=$(ostname_from_index 0)
3191     local mdtosc=$(get_mdtosc_proc_path $SINGLEMDS $OST)
3192     local last_id=$(do_facet $SINGLEMDS lctl get_param -n osc.$mdtosc.prealloc_last_id)
3193     local next_id=$(do_facet $SINGLEMDS lctl get_param -n osc.$mdtosc.prealloc_next_id)
3194         echo "before test: last_id = $last_id, next_id = $next_id"
3195
3196         echo "Creating to objid $last_id on ost $OST..."
3197         createmany -o $DIR/$tdir/f-%d $next_id $((last_id - next_id + 2)) ||
3198                 error "createmany create files to last_id failed"
3199
3200         #create some files to use some uncommitted objids
3201         last_id=$(($last_id + 1))
3202         createmany -o $DIR/$tdir/f-%d $last_id 8 ||
3203                 error "createmany create files with uncommitted objids failed"
3204
3205     last_id2=$(do_facet $SINGLEMDS lctl get_param -n osc.$mdtosc.prealloc_last_id)
3206     next_id2=$(do_facet $SINGLEMDS lctl get_param -n osc.$mdtosc.prealloc_next_id)
3207     echo "before recovery: last_id = $last_id2, next_id = $next_id2" 
3208
3209     # if test uses shutdown_facet && reboot_facet instead of facet_failover ()
3210     # it has to take care about the affected facets, bug20407
3211     local affected_mds1=$(affected_facets mds1)
3212     local affected_ost1=$(affected_facets ost1)
3213
3214     shutdown_facet $SINGLEMDS
3215     shutdown_facet ost1
3216
3217     reboot_facet $SINGLEMDS
3218     change_active $affected_mds1
3219     wait_for_facet $affected_mds1
3220     mount_facets $affected_mds1 || error "Restart of mds failed"
3221
3222     reboot_facet ost1
3223     change_active $affected_ost1
3224     wait_for_facet $affected_ost1
3225     mount_facets $affected_ost1 || error "Restart of ost1 failed"
3226
3227     clients_up
3228
3229     last_id2=$(do_facet $SINGLEMDS lctl get_param -n osc.$mdtosc.prealloc_last_id)
3230     next_id2=$(do_facet $SINGLEMDS lctl get_param -n osc.$mdtosc.prealloc_next_id)
3231         echo "after recovery: last_id = $last_id2, next_id = $next_id2"
3232
3233         # create new files, which should use new objids, and ensure the orphan
3234         # cleanup phase for ost1 is completed at the same time
3235         for i in $(seq 8); do
3236                 file_id=$(($last_id + 10 + $i))
3237                 dd if=/dev/urandom of=$DIR/$tdir/f-$file_id bs=4096 count=128
3238         done
3239
3240         # if the objids were not recreated, then "ls" will fail with -ENOENT
3241         ls -l $DIR/$tdir/* || error "can't get the status of precreated files"
3242
3243         local file_id
3244         # write into previously created files
3245         for i in $(seq 8); do
3246                 file_id=$(($last_id + $i))
3247                 dd if=/dev/urandom of=$DIR/$tdir/f-$file_id bs=4096 count=128
3248                 cp -f $DIR/$tdir/f-$file_id $TMP/$tdir/
3249         done
3250
3251         # compare the content
3252         for i in $(seq 8); do
3253                 file_id=$(($last_id + $i))
3254                 cmp $TMP/$tdir/f-$file_id $DIR/$tdir/f-$file_id ||
3255                         error "the content of file is modified!"
3256         done
3257
3258         rm -fr $TMP/$tdir
3259 }
3260 run_test 88 "MDS should not assign same objid to different files "
3261
3262 test_89() {
3263         cancel_lru_locks osc
3264         mkdir $DIR/$tdir || error "mkdir $DIR/$tdir failed"
3265         rm -f $DIR/$tdir/$tfile
3266         wait_mds_ost_sync
3267         wait_delete_completed
3268         BLOCKS1=$(df -P $MOUNT | tail -n 1 | awk '{ print $3 }')
3269         $SETSTRIPE -i 0 -c 1 $DIR/$tdir/$tfile
3270         dd if=/dev/zero bs=1M count=10 of=$DIR/$tdir/$tfile
3271         sync
3272         stop ost1
3273         facet_failover $SINGLEMDS
3274         rm $DIR/$tdir/$tfile
3275         umount $MOUNT
3276         mount_facet ost1
3277         zconf_mount $(hostname) $MOUNT || error "mount fails"
3278         client_up || error "client_up failed"
3279         wait_mds_ost_sync
3280         wait_delete_completed
3281         BLOCKS2=$(df -P $MOUNT | tail -n 1 | awk '{ print $3 }')
3282         [ $((BLOCKS2 - BLOCKS1)) -le 4  ] ||
3283                 error $((BLOCKS2 - BLOCKS1)) blocks leaked
3284 }
3285
3286 run_test 89 "no disk space leak on late ost connection"
3287
3288 cleanup_90 () {
3289     local facet=$1
3290     trap 0
3291     reboot_facet $facet
3292     change_active $facet
3293     wait_for_facet $facet
3294     mount_facet $facet || error "Restart of $facet failed"
3295     clients_up
3296 }
3297
3298 test_90() { # bug 19494
3299     local dir=$DIR/$tdir
3300     local ostfail=$(get_random_entry $(get_facets OST))
3301
3302     if [[ $FAILURE_MODE = HARD ]]; then
3303         local affected=$(affected_facets $ostfail);
3304         if [[ "$affected" != $ostfail ]]; then
3305             skip not functional with FAILURE_MODE=$FAILURE_MODE, affected: $affected
3306             return 0
3307         fi
3308     fi
3309         # ensure all OSTs are active to allow allocations
3310         wait_osts_up
3311
3312         mkdir $dir || error "mkdir $dir failed"
3313
3314         echo "Create the files"
3315
3316     # file "f${index}" striped over 1 OST
3317     # file "all" striped over all OSTs
3318
3319     $SETSTRIPE -c $OSTCOUNT $dir/all ||
3320         error "setstripe failed to create $dir/all"
3321
3322     for (( i=0; i<$OSTCOUNT; i++ )); do
3323         local f=$dir/f$i
3324         $SETSTRIPE -i $i -c 1 $f || error "$SETSTRIPE failed to create $f"
3325