Whamcloud - gitweb
LU-9590 tests: remove replay-single tests from ALWAYS_EXCEPT
[fs/lustre-release.git] / lustre / tests / replay-single.sh
1 #!/bin/bash
2
3 set -e
4 #set -v
5
6 #
7 # This test needs to be run on the client
8 #
9 SAVE_PWD=$PWD
10 export MULTIOP=${MULTIOP:-multiop}
11 LUSTRE=${LUSTRE:-$(cd $(dirname $0)/..; echo $PWD)}
12 SETUP=${SETUP:-}
13 CLEANUP=${CLEANUP:-}
14 . $LUSTRE/tests/test-framework.sh
15 init_test_env $@
16 . ${CONFIG:=$LUSTRE/tests/cfg/$NAME.sh}
17 init_logging
18 CHECK_GRANT=${CHECK_GRANT:-"yes"}
19 GRANT_CHECK_LIST=${GRANT_CHECK_LIST:-""}
20
21 require_dsh_mds || exit 0
22
23 # Skip these tests
24 # bug number for skipped tests:
25 ALWAYS_EXCEPT="$REPLAY_SINGLE_EXCEPT "
26 # UPDATE THE COMMENT ABOVE WITH BUG NUMBERS WHEN CHANGING ALWAYS_EXCEPT!
27
28 #                                  7.5  (min)"
29 [ "$SLOW" = "no" ] && EXCEPT_SLOW="44b"
30
31 [ $(facet_fstype $SINGLEMDS) = "zfs" ] &&
32 # bug number for skipped test:
33         ALWAYS_EXCEPT="$ALWAYS_EXCEPT "
34
35 build_test_filter
36
37 check_and_setup_lustre
38
39 mkdir -p $DIR
40
41 assert_DIR
42 rm -rf $DIR/[df][0-9]* $DIR/f.$TESTSUITE.*
43
44 # LU-482 Avert LVM and VM inability to flush caches in pre .33 kernels
45 if [ $LINUX_VERSION_CODE -lt $(version_code 2.6.33) ]; then
46     sync
47     do_facet $SINGLEMDS sync
48 fi
49
50 test_0a() {     # was test_0
51         mkdir $DIR/$tdir || error "mkdir $DIR/$tdir failed"
52         replay_barrier $SINGLEMDS
53         fail $SINGLEMDS
54         rmdir $DIR/$tdir
55 }
56 run_test 0a "empty replay"
57
58 test_0b() {
59         remote_ost_nodsh && skip "remote OST with nodsh" && return 0
60
61         # this test attempts to trigger a race in the precreation code,
62         # and must run before any other objects are created on the filesystem
63         fail ost1
64         createmany -o $DIR/$tfile 20 || error "createmany -o $DIR/$tfile failed"
65         unlinkmany $DIR/$tfile 20 || error "unlinkmany $DIR/$tfile failed"
66 }
67 run_test 0b "ensure object created after recover exists. (3284)"
68
69 test_0c() {
70         replay_barrier $SINGLEMDS
71         mcreate $DIR/$tfile
72         umount $MOUNT
73         facet_failover $SINGLEMDS
74         zconf_mount $(hostname) $MOUNT || error "mount fails"
75         client_up || error "post-failover df failed"
76         # file shouldn't exist if replay-barrier works as expected
77         rm $DIR/$tfile && error "File exists and it shouldn't"
78         return 0
79 }
80 run_test 0c "check replay-barrier"
81
82 test_0d() {
83         replay_barrier $SINGLEMDS
84         umount $MOUNT
85         facet_failover $SINGLEMDS
86         zconf_mount $(hostname) $MOUNT || error "mount fails"
87         client_up || error "post-failover df failed"
88 }
89 run_test 0d "expired recovery with no clients"
90
91 test_1() {
92         replay_barrier $SINGLEMDS
93         mcreate $DIR/$tfile
94         fail $SINGLEMDS
95         $CHECKSTAT -t file $DIR/$tfile ||
96                 error "$CHECKSTAT $DIR/$tfile attribute check failed"
97         rm $DIR/$tfile
98 }
99 run_test 1 "simple create"
100
101 test_2a() {
102         replay_barrier $SINGLEMDS
103         touch $DIR/$tfile
104         fail $SINGLEMDS
105         $CHECKSTAT -t file $DIR/$tfile ||
106                 error "$CHECKSTAT $DIR/$tfile attribute check failed"
107         rm $DIR/$tfile
108 }
109 run_test 2a "touch"
110
111 test_2b() {
112         mcreate $DIR/$tfile || error "mcreate $DIR/$tfile failed"
113         replay_barrier $SINGLEMDS
114         touch $DIR/$tfile
115         fail $SINGLEMDS
116         $CHECKSTAT -t file $DIR/$tfile ||
117                 error "$CHECKSTAT $DIR/$tfile attribute check failed"
118         rm $DIR/$tfile
119 }
120 run_test 2b "touch"
121
122 test_3a() {
123         local file=$DIR/$tfile
124         replay_barrier $SINGLEMDS
125         mcreate $file
126         openfile -f O_DIRECTORY $file
127         fail $SINGLEMDS
128         $CHECKSTAT -t file $file ||
129                 error "$CHECKSTAT $file attribute check failed"
130         rm $file
131 }
132 run_test 3a "replay failed open(O_DIRECTORY)"
133
134 test_3b() {
135         replay_barrier $SINGLEMDS
136         #define OBD_FAIL_MDS_OPEN_PACK | OBD_FAIL_ONCE
137         do_facet $SINGLEMDS "lctl set_param fail_loc=0x80000114"
138         touch $DIR/$tfile
139         do_facet $SINGLEMDS "lctl set_param fail_loc=0"
140         fail $SINGLEMDS
141         $CHECKSTAT -t file $DIR/$tfile &&
142                 error "$CHECKSTAT $DIR/$tfile attribute check should fail"
143         return 0
144 }
145 run_test 3b "replay failed open -ENOMEM"
146
147 test_3c() {
148         replay_barrier $SINGLEMDS
149         #define OBD_FAIL_MDS_ALLOC_OBDO | OBD_FAIL_ONCE
150         do_facet $SINGLEMDS "lctl set_param fail_loc=0x80000128"
151         touch $DIR/$tfile
152         do_facet $SINGLEMDS "lctl set_param fail_loc=0"
153         fail $SINGLEMDS
154
155         $CHECKSTAT -t file $DIR/$tfile &&
156                 error "$CHECKSTAT $DIR/$tfile attribute check should fail"
157         return 0
158 }
159 run_test 3c "replay failed open -ENOMEM"
160
161 test_4a() {     # was test_4
162         replay_barrier $SINGLEMDS
163         for i in $(seq 10); do
164                 echo "tag-$i" > $DIR/$tfile-$i
165         done
166         fail $SINGLEMDS
167         for i in $(seq 10); do
168                 grep -q "tag-$i" $DIR/$tfile-$i || error "$tfile-$i"
169         done
170 }
171 run_test 4a "|x| 10 open(O_CREAT)s"
172
173 test_4b() {
174         for i in $(seq 10); do
175                 echo "tag-$i" > $DIR/$tfile-$i
176         done
177         replay_barrier $SINGLEMDS
178         rm -rf $DIR/$tfile-*
179         fail $SINGLEMDS
180         $CHECKSTAT -t file $DIR/$tfile-* &&
181                 error "$CHECKSTAT $DIR/$tfile-* attribute check should fail" ||
182                 true
183 }
184 run_test 4b "|x| rm 10 files"
185
186 # The idea is to get past the first block of precreated files on both
187 # osts, and then replay.
188 test_5() {
189         replay_barrier $SINGLEMDS
190         for i in $(seq 220); do
191                 echo "tag-$i" > $DIR/$tfile-$i
192         done
193         fail $SINGLEMDS
194         for i in $(seq 220); do
195                 grep -q "tag-$i" $DIR/$tfile-$i || error "$tfile-$i"
196         done
197         rm -rf $DIR/$tfile-*
198         sleep 3
199         # waiting for commitment of removal
200 }
201 run_test 5 "|x| 220 open(O_CREAT)"
202
203 test_6a() {     # was test_6
204         mkdir $DIR/$tdir || error "mkdir $DIR/$tdir failed"
205         replay_barrier $SINGLEMDS
206         mcreate $DIR/$tdir/$tfile
207         fail $SINGLEMDS
208         $CHECKSTAT -t dir $DIR/$tdir ||
209                 error "$CHECKSTAT $DIR/$tdir attribute check failed"
210         $CHECKSTAT -t file $DIR/$tdir/$tfile ||
211                 error "$CHECKSTAT $DIR/$tdir/$tfile attribute check failed"
212         sleep 2
213         # waiting for log process thread
214 }
215 run_test 6a "mkdir + contained create"
216
217 test_6b() {
218         mkdir $DIR/$tdir || error "mkdir $DIR/$tdir failed"
219         replay_barrier $SINGLEMDS
220         rm -rf $DIR/$tdir
221         fail $SINGLEMDS
222         $CHECKSTAT -t dir $DIR/$tdir &&
223                 error "$CHECKSTAT $DIR/$tdir attribute check should fail" ||
224                 true
225 }
226 run_test 6b "|X| rmdir"
227
228 test_7() {
229         mkdir $DIR/$tdir || error "mkdir $DIR/$tdir failed"
230         replay_barrier $SINGLEMDS
231         mcreate $DIR/$tdir/$tfile
232         fail $SINGLEMDS
233         $CHECKSTAT -t dir $DIR/$tdir ||
234                 error "$CHECKSTAT $DIR/$tdir attribute check failed"
235         $CHECKSTAT -t file $DIR/$tdir/$tfile ||
236                 error "$CHECKSTAT $DIR/$tdir/$tfile attribute check failed"
237         rm -fr $DIR/$tdir
238 }
239 run_test 7 "mkdir |X| contained create"
240
241 test_8() {
242         replay_barrier $SINGLEMDS
243         multiop_bg_pause $DIR/$tfile mo_c ||
244                 error "multiop mknod $DIR/$tfile failed"
245         MULTIPID=$!
246         fail $SINGLEMDS
247         ls $DIR/$tfile
248         $CHECKSTAT -t file $DIR/$tfile ||
249                 error "$CHECKSTAT $DIR/$tfile attribute check failed"
250         kill -USR1 $MULTIPID || error "multiop mknod $MULTIPID not running"
251         wait $MULTIPID || error "multiop mknod $MULTIPID failed"
252         rm $DIR/$tfile
253 }
254 run_test 8 "creat open |X| close"
255
256 test_9() {
257         replay_barrier $SINGLEMDS
258         mcreate $DIR/$tfile
259         local old_inum=$(ls -i $DIR/$tfile | awk '{print $1}')
260         fail $SINGLEMDS
261         local new_inum=$(ls -i $DIR/$tfile | awk '{print $1}')
262
263         echo " old_inum == $old_inum, new_inum == $new_inum"
264         if [ $old_inum -eq $new_inum  ] ;
265         then
266                 echo "old_inum and new_inum match"
267         else
268                 echo " old_inum and new_inum do not match"
269                 error "old index($old_inum) does not match new index($new_inum)"
270         fi
271         rm $DIR/$tfile
272 }
273 run_test 9 "|X| create (same inum/gen)"
274
275 test_10() {
276         mcreate $DIR/$tfile || error "mcreate $DIR/$tfile failed"
277         replay_barrier $SINGLEMDS
278         mv $DIR/$tfile $DIR/$tfile-2
279         rm -f $DIR/$tfile
280         fail $SINGLEMDS
281         $CHECKSTAT $DIR/$tfile &&
282                 error "$CHECKSTAT $DIR/$tfile attribute check should fail"
283         $CHECKSTAT $DIR/$tfile-2 ||
284                 error "$CHECKSTAT $DIR/$tfile-2 attribute check failed"
285         rm $DIR/$tfile-2
286         return 0
287 }
288 run_test 10 "create |X| rename unlink"
289
290 test_11() {
291         mcreate $DIR/$tfile || error "mcreate $DIR/$tfile failed"
292         echo "old" > $DIR/$tfile
293         mv $DIR/$tfile $DIR/$tfile-2
294         replay_barrier $SINGLEMDS
295         echo "new" > $DIR/$tfile
296         grep new $DIR/$tfile
297         grep old $DIR/$tfile-2
298         fail $SINGLEMDS
299         grep new $DIR/$tfile || error "grep $DIR/$tfile failed"
300         grep old $DIR/$tfile-2 || error "grep $DIR/$tfile-2 failed"
301 }
302 run_test 11 "create open write rename |X| create-old-name read"
303
304 test_12() {
305         mcreate $DIR/$tfile || error "mcreate $DIR/$tfile failed"
306         multiop_bg_pause $DIR/$tfile o_tSc ||
307                 error "multiop_bg_pause $DIR/$tfile failed"
308         pid=$!
309         rm -f $DIR/$tfile
310         replay_barrier $SINGLEMDS
311         kill -USR1 $pid || error "multiop $pid not running"
312         wait $pid || error "multiop $pid failed"
313
314         fail $SINGLEMDS
315         [ -e $DIR/$tfile ] && error "file $DIR/$tfile should not exist"
316         return 0
317 }
318 run_test 12 "open, unlink |X| close"
319
320 # 1777 - replay open after committed chmod that would make
321 #        a regular open a failure
322 test_13() {
323         mcreate $DIR/$tfile || error "mcreate $DIR/$tfile failed"
324         multiop_bg_pause $DIR/$tfile O_wc ||
325                 error "multiop_bg_pause $DIR/$tfile failed"
326         pid=$!
327         chmod 0 $DIR/$tfile
328         $CHECKSTAT -p 0 $DIR/$tfile ||
329                 error "$CHECKSTAT $DIR/$tfile attribute check failed"
330         replay_barrier $SINGLEMDS
331         fail $SINGLEMDS
332         kill -USR1 $pid || error "multiop $pid not running"
333         wait $pid || error "multiop $pid failed"
334
335         $CHECKSTAT -s 1 -p 0 $DIR/$tfile ||
336                 error "second $CHECKSTAT $DIR/$tfile attribute check failed"
337         rm $DIR/$tfile || error "rm $DIR/$tfile failed"
338         return 0
339 }
340 run_test 13 "open chmod 0 |x| write close"
341
342 test_14() {
343         multiop_bg_pause $DIR/$tfile O_tSc ||
344                 error "multiop_bg_pause $DIR/$tfile failed"
345         pid=$!
346         rm -f $DIR/$tfile
347         replay_barrier $SINGLEMDS
348         kill -USR1 $pid || error "multiop $pid not running"
349         wait $pid || error "multiop $pid failed"
350
351         fail $SINGLEMDS
352         [ -e $DIR/$tfile ] && error "file $DIR/$tfile should not exist"
353         return 0
354 }
355 run_test 14 "open(O_CREAT), unlink |X| close"
356
357 test_15() {
358         multiop_bg_pause $DIR/$tfile O_tSc ||
359                 error "multiop_bg_pause $DIR/$tfile failed"
360         pid=$!
361         rm -f $DIR/$tfile
362         replay_barrier $SINGLEMDS
363         touch $DIR/$tfile-1 || error "touch $DIR/$tfile-1 failed"
364         kill -USR1 $pid || error "multiop $pid not running"
365         wait $pid || error "multiop $pid failed"
366
367         fail $SINGLEMDS
368         [ -e $DIR/$tfile ] && error "file $DIR/$tfile should not exist"
369         touch $DIR/$tfile-2 || error "touch $DIR/$tfile-2 failed"
370         return 0
371 }
372 run_test 15 "open(O_CREAT), unlink |X|  touch new, close"
373
374 test_16() {
375         replay_barrier $SINGLEMDS
376         mcreate $DIR/$tfile
377         munlink $DIR/$tfile
378         mcreate $DIR/$tfile-2
379         fail $SINGLEMDS
380         [ -e $DIR/$tfile ] && error "file $DIR/$tfile should not exist"
381         [ -e $DIR/$tfile-2 ] || error "file $DIR/$tfile-2 does not exist"
382         munlink $DIR/$tfile-2 || error "munlink $DIR/$tfile-2 failed"
383 }
384 run_test 16 "|X| open(O_CREAT), unlink, touch new,  unlink new"
385
386 test_17() {
387         replay_barrier $SINGLEMDS
388         multiop_bg_pause $DIR/$tfile O_c ||
389                 error "multiop_bg_pause $DIR/$tfile failed"
390         pid=$!
391         fail $SINGLEMDS
392         kill -USR1 $pid || error "multiop $pid not running"
393         wait $pid || error "multiop $pid failed"
394         $CHECKSTAT -t file $DIR/$tfile ||
395                 error "$CHECKSTAT $DIR/$tfile attribute check failed"
396         rm $DIR/$tfile
397 }
398 run_test 17 "|X| open(O_CREAT), |replay| close"
399
400 test_18() {
401         replay_barrier $SINGLEMDS
402         multiop_bg_pause $DIR/$tfile O_tSc ||
403                 error "multiop_bg_pause $DIR/$tfile failed"
404         pid=$!
405         rm -f $DIR/$tfile
406         touch $DIR/$tfile-2 || error "touch $DIR/$tfile-2 failed"
407         echo "pid: $pid will close"
408         kill -USR1 $pid || error "multiop $pid not running"
409         wait $pid || error "multiop $pid failed"
410
411         fail $SINGLEMDS
412         [ -e $DIR/$tfile ] && error "file $DIR/$tfile should not exist"
413         [ -e $DIR/$tfile-2 ] || error "file $DIR/$tfile-2 does not exist"
414         # this touch frequently fails
415         touch $DIR/$tfile-3 || error "touch $DIR/$tfile-3 failed"
416         munlink $DIR/$tfile-2 || error "munlink $DIR/$tfile-2 failed"
417         munlink $DIR/$tfile-3 || error "munlink $DIR/$tfile-3 failed"
418         return 0
419 }
420 run_test 18 "open(O_CREAT), unlink, touch new, close, touch, unlink"
421
422 # bug 1855 (a simpler form of test_11 above)
423 test_19() {
424         replay_barrier $SINGLEMDS
425         mcreate $DIR/$tfile
426         echo "old" > $DIR/$tfile
427         mv $DIR/$tfile $DIR/$tfile-2
428         grep old $DIR/$tfile-2
429         fail $SINGLEMDS
430         grep old $DIR/$tfile-2 || error "grep $DIR/$tfile-2 failed"
431 }
432 run_test 19 "mcreate, open, write, rename "
433
434 test_20a() {    # was test_20
435         replay_barrier $SINGLEMDS
436         multiop_bg_pause $DIR/$tfile O_tSc ||
437                 error "multiop_bg_pause $DIR/$tfile failed"
438         pid=$!
439         rm -f $DIR/$tfile
440
441         fail $SINGLEMDS
442         kill -USR1 $pid || error "multiop $pid not running"
443         wait $pid || error "multiop $pid failed"
444         [ -e $DIR/$tfile ] && error "file $DIR/$tfile should not exist"
445         return 0
446 }
447 run_test 20a "|X| open(O_CREAT), unlink, replay, close (test mds_cleanup_orphans)"
448
449 test_20b() { # bug 10480
450         local wait_timeout=$((TIMEOUT * 4))
451         local BEFOREUSED
452         local AFTERUSED
453
454         BEFOREUSED=$(df -P $DIR | tail -1 | awk '{ print $3 }')
455         dd if=/dev/zero of=$DIR/$tfile bs=4k count=10000 &
456         while [ ! -e $DIR/$tfile ] ; do
457                 usleep 60                      # give dd a chance to start
458         done
459
460         $GETSTRIPE $DIR/$tfile || error "$GETSTRIPE $DIR/$tfile failed"
461         # make it an orphan
462         rm -f $DIR/$tfile || error "rm -f $DIR/$tfile failed"
463         mds_evict_client
464         client_up || client_up || true    # reconnect
465
466         do_facet $SINGLEMDS "lctl set_param -n osd*.*MDT*.force_sync 1"
467
468         fail $SINGLEMDS                            # start orphan recovery
469         wait_recovery_complete $SINGLEMDS || error "MDS recovery not done"
470         wait_delete_completed_mds $wait_timeout ||
471                 error "delete did not complete"
472
473         AFTERUSED=$(df -P $DIR | tail -1 | awk '{ print $3 }')
474         log "before $BEFOREUSED, after $AFTERUSED"
475         (( $AFTERUSED > $BEFOREUSED + $(fs_log_size) )) &&
476                 error "after $AFTERUSED > before $BEFOREUSED"
477         return 0
478 }
479 run_test 20b "write, unlink, eviction, replay, (test mds_cleanup_orphans)"
480
481 test_20c() { # bug 10480
482         multiop_bg_pause $DIR/$tfile Ow_c ||
483                 error "multiop_bg_pause $DIR/$tfile failed"
484         pid=$!
485
486         ls -la $DIR/$tfile
487
488         mds_evict_client
489         client_up || client_up || true    # reconnect
490
491         kill -USR1 $pid || error "multiop $pid not running"
492         wait $pid || error "multiop $pid failed"
493         [ -s $DIR/$tfile ] || error "File was truncated"
494
495         return 0
496 }
497 run_test 20c "check that client eviction does not affect file content"
498
499 test_21() {
500         replay_barrier $SINGLEMDS
501         multiop_bg_pause $DIR/$tfile O_tSc ||
502                 error "multiop_bg_pause $DIR/$tfile failed"
503         pid=$!
504         rm -f $DIR/$tfile
505         touch $DIR/$tfile-1 || error "touch $DIR/$tfile-1 failed"
506
507         fail $SINGLEMDS
508         kill -USR1 $pid || error "multiop $pid not running"
509         wait $pid || error "multiop $pid failed"
510         [ -e $DIR/$tfile ] && error "file $DIR/$tfile should not exist"
511         touch $DIR/$tfile-2 || error "touch $DIR/$tfile-2 failed"
512         return 0
513 }
514 run_test 21 "|X| open(O_CREAT), unlink touch new, replay, close (test mds_cleanup_orphans)"
515
516 test_22() {
517         multiop_bg_pause $DIR/$tfile O_tSc ||
518                 error "multiop_bg_pause $DIR/$tfile failed"
519         pid=$!
520
521         replay_barrier $SINGLEMDS
522         rm -f $DIR/$tfile
523
524         fail $SINGLEMDS
525         kill -USR1 $pid || error "multiop $pid not running"
526         wait $pid || error "multiop $pid failed"
527         [ -e $DIR/$tfile ] && error "file $DIR/$tfile should not exist"
528         return 0
529 }
530 run_test 22 "open(O_CREAT), |X| unlink, replay, close (test mds_cleanup_orphans)"
531
532 test_23() {
533         multiop_bg_pause $DIR/$tfile O_tSc ||
534                 error "multiop_bg_pause $DIR/$tfile failed"
535         pid=$!
536
537         replay_barrier $SINGLEMDS
538         rm -f $DIR/$tfile
539         touch $DIR/$tfile-1 || error "touch $DIR/$tfile-1 failed"
540
541         fail $SINGLEMDS
542         kill -USR1 $pid || error "multiop $pid not running"
543         wait $pid || error "multiop $pid failed"
544         [ -e $DIR/$tfile ] && error "file $DIR/$tfile should not exist"
545         touch $DIR/$tfile-2 || error "touch $DIR/$tfile-2 failed"
546         return 0
547 }
548 run_test 23 "open(O_CREAT), |X| unlink touch new, replay, close (test mds_cleanup_orphans)"
549
550 test_24() {
551         multiop_bg_pause $DIR/$tfile O_tSc ||
552                 error "multiop_bg_pause $DIR/$tfile failed"
553         pid=$!
554
555         replay_barrier $SINGLEMDS
556         fail $SINGLEMDS
557         rm -f $DIR/$tfile
558         kill -USR1 $pid || error "multiop $pid not running"
559         wait $pid || error "multiop $pid failed"
560         [ -e $DIR/$tfile ] && error "file $DIR/$tfile should not exist"
561         return 0
562 }
563 run_test 24 "open(O_CREAT), replay, unlink, close (test mds_cleanup_orphans)"
564
565 test_25() {
566         multiop_bg_pause $DIR/$tfile O_tSc ||
567                 error "multiop_bg_pause $DIR/$tfile failed"
568         pid=$!
569         rm -f $DIR/$tfile
570
571         replay_barrier $SINGLEMDS
572         fail $SINGLEMDS
573         kill -USR1 $pid || error "multiop $pid not running"
574         wait $pid || error "multiop $pid failed"
575         [ -e $DIR/$tfile ] && error "file $DIR/$tfile should not exist"
576         return 0
577 }
578 run_test 25 "open(O_CREAT), unlink, replay, close (test mds_cleanup_orphans)"
579
580 test_26() {
581         replay_barrier $SINGLEMDS
582         multiop_bg_pause $DIR/$tfile-1 O_tSc ||
583                 error "multiop_bg_pause $DIR/$tfile-1 failed"
584         pid1=$!
585         multiop_bg_pause $DIR/$tfile-2 O_tSc ||
586                 error "multiop_bg_pause $DIR/$tfile-2 failed"
587         pid2=$!
588         rm -f $DIR/$tfile-1
589         rm -f $DIR/$tfile-2
590         kill -USR1 $pid2 || error "second multiop $pid2 not running"
591         wait $pid2 || error "second multiop $pid2 failed"
592
593         fail $SINGLEMDS
594         kill -USR1 $pid1 || error "multiop $pid1 not running"
595         wait $pid1 || error "multiop $pid1 failed"
596         [ -e $DIR/$tfile-1 ] && error "file $DIR/$tfile-1 should not exist"
597         [ -e $DIR/$tfile-2 ] && error "file $DIR/$tfile-2 should not exist"
598         return 0
599 }
600 run_test 26 "|X| open(O_CREAT), unlink two, close one, replay, close one (test mds_cleanup_orphans)"
601
602 test_27() {
603         replay_barrier $SINGLEMDS
604         multiop_bg_pause $DIR/$tfile-1 O_tSc ||
605                 error "multiop_bg_pause $DIR/$tfile-1 failed"
606         pid1=$!
607         multiop_bg_pause $DIR/$tfile-2 O_tSc ||
608                 error "multiop_bg_pause $DIR/$tfile-2 failed"
609         pid2=$!
610         rm -f $DIR/$tfile-1
611         rm -f $DIR/$tfile-2
612
613         fail $SINGLEMDS
614         kill -USR1 $pid1 || error "multiop $pid1 not running"
615         wait $pid1 || error "multiop $pid1 failed"
616         kill -USR1 $pid2 || error "second multiop $pid2 not running"
617         wait $pid2 || error "second multiop $pid2 failed"
618         [ -e $DIR/$tfile-1 ] && error "file $DIR/$tfile-1 should not exist"
619         [ -e $DIR/$tfile-2 ] && error "file $DIR/$tfile-2 should not exist"
620         return 0
621 }
622 run_test 27 "|X| open(O_CREAT), unlink two, replay, close two (test mds_cleanup_orphans)"
623
624 test_28() {
625         multiop_bg_pause $DIR/$tfile-1 O_tSc ||
626                 error "multiop_bg_pause $DIR/$tfile-1 failed"
627         pid1=$!
628         multiop_bg_pause $DIR/$tfile-2 O_tSc ||
629                 error "multiop_bg_pause $DIR/$tfile-2 failed"
630         pid2=$!
631         replay_barrier $SINGLEMDS
632         rm -f $DIR/$tfile-1
633         rm -f $DIR/$tfile-2
634         kill -USR1 $pid2 || error "second multiop $pid2 not running"
635         wait $pid2 || error "second multiop $pid2 failed"
636
637         fail $SINGLEMDS
638         kill -USR1 $pid1 || error "multiop $pid1 not running"
639         wait $pid1 || error "multiop $pid1 failed"
640         [ -e $DIR/$tfile-1 ] && error "file $DIR/$tfile-1 should not exist"
641         [ -e $DIR/$tfile-2 ] && error "file $DIR/$tfile-2 should not exist"
642         return 0
643 }
644 run_test 28 "open(O_CREAT), |X| unlink two, close one, replay, close one (test mds_cleanup_orphans)"
645
646 test_29() {
647         multiop_bg_pause $DIR/$tfile-1 O_tSc ||
648                 error "multiop_bg_pause $DIR/$tfile-1 failed"
649         pid1=$!
650         multiop_bg_pause $DIR/$tfile-2 O_tSc ||
651                 error "multiop_bg_pause $DIR/$tfile-2 failed"
652         pid2=$!
653         replay_barrier $SINGLEMDS
654         rm -f $DIR/$tfile-1
655         rm -f $DIR/$tfile-2
656
657         fail $SINGLEMDS
658         kill -USR1 $pid1 || error "multiop $pid1 not running"
659         wait $pid1 || error "multiop $pid1 failed"
660         kill -USR1 $pid2 || error "second multiop $pid2 not running"
661         wait $pid2 || error "second multiop $pid2 failed"
662         [ -e $DIR/$tfile-1 ] && error "file $DIR/$tfile-1 should not exist"
663         [ -e $DIR/$tfile-2 ] && error "file $DIR/$tfile-2 should not exist"
664         return 0
665 }
666 run_test 29 "open(O_CREAT), |X| unlink two, replay, close two (test mds_cleanup_orphans)"
667
668 test_30() {
669         multiop_bg_pause $DIR/$tfile-1 O_tSc ||
670                 error "multiop_bg_pause $DIR/$tfile-1 failed"
671         pid1=$!
672         multiop_bg_pause $DIR/$tfile-2 O_tSc ||
673                 error "multiop_bg_pause $DIR/$tfile-2 failed"
674         pid2=$!
675         rm -f $DIR/$tfile-1
676         rm -f $DIR/$tfile-2
677
678         replay_barrier $SINGLEMDS
679         fail $SINGLEMDS
680         kill -USR1 $pid1 || error "multiop $pid1 not running"
681         wait $pid1 || error "multiop $pid1 failed"
682         kill -USR1 $pid2 || error "second multiop $pid2 not running"
683         wait $pid2 || error "second multiop $pid2 failed"
684         [ -e $DIR/$tfile-1 ] && error "file $DIR/$tfile-1 should not exist"
685         [ -e $DIR/$tfile-2 ] && error "file $DIR/$tfile-2 should not exist"
686         return 0
687 }
688 run_test 30 "open(O_CREAT) two, unlink two, replay, close two (test mds_cleanup_orphans)"
689
690 test_31() {
691         multiop_bg_pause $DIR/$tfile-1 O_tSc ||
692                 error "multiop_bg_pause $DIR/$tfile-1 failed"
693         pid1=$!
694         multiop_bg_pause $DIR/$tfile-2 O_tSc ||
695                 error "multiop_bg_pause $DIR/$tfile-2 failed"
696         pid2=$!
697         rm -f $DIR/$tfile-1
698
699         replay_barrier $SINGLEMDS
700         rm -f $DIR/$tfile-2
701         fail $SINGLEMDS
702         kill -USR1 $pid1 || error "multiop $pid1 not running"
703         wait $pid1 || error "multiop $pid1 failed"
704         kill -USR1 $pid2 || error "second multiop $pid2 not running"
705         wait $pid2 || error "second multiop $pid2 failed"
706         [ -e $DIR/$tfile-1 ] && error "file $DIR/$tfile-1 should not exist"
707         [ -e $DIR/$tfile-2 ] && error "file $DIR/$tfile-2 should not exist"
708         return 0
709 }
710 run_test 31 "open(O_CREAT) two, unlink one, |X| unlink one, close two (test mds_cleanup_orphans)"
711
712 # tests for bug 2104; completion without crashing is success.  The close is
713 # stale, but we always return 0 for close, so the app never sees it.
714 test_32() {
715         multiop_bg_pause $DIR/$tfile O_c ||
716                 error "multiop_bg_pause $DIR/$tfile failed"
717         pid1=$!
718         multiop_bg_pause $DIR/$tfile O_c ||
719                 error "second multiop_bg_pause $DIR/$tfile failed"
720         pid2=$!
721         mds_evict_client
722         client_up || client_up || error "client_up failed"
723         kill -USR1 $pid1 || error "multiop $pid1 not running"
724         kill -USR1 $pid2 || error "second multiop $pid2 not running"
725         wait $pid1 || error "multiop $pid1 failed"
726         wait $pid2 || error "second multiop $pid2 failed"
727         return 0
728 }
729 run_test 32 "close() notices client eviction; close() after client eviction"
730
731 test_33a() {
732         createmany -o $DIR/$tfile-%d 10 ||
733                 error "createmany create $DIR/$tfile failed"
734         replay_barrier_nosync $SINGLEMDS
735         fail_abort $SINGLEMDS
736         # recreate shouldn't fail
737         createmany -o $DIR/$tfile--%d 10 ||
738                 error "createmany recreate $DIR/$tfile failed"
739         rm $DIR/$tfile-* -f
740         return 0
741 }
742 run_test 33a "fid seq shouldn't be reused after abort recovery"
743
744 test_33b() {
745         #define OBD_FAIL_SEQ_ALLOC                          0x1311
746         do_facet $SINGLEMDS "lctl set_param fail_loc=0x1311"
747
748         createmany -o $DIR/$tfile-%d 10
749         replay_barrier_nosync $SINGLEMDS
750         fail_abort $SINGLEMDS
751         # recreate shouldn't fail
752         createmany -o $DIR/$tfile--%d 10 ||
753                 error "createmany recreate $DIR/$tfile failed"
754         rm $DIR/$tfile-* -f
755         return 0
756 }
757 run_test 33b "test fid seq allocation"
758
759 test_34() {
760         multiop_bg_pause $DIR/$tfile O_c ||
761                 error "multiop_bg_pause $DIR/$tfile failed"
762         pid=$!
763         rm -f $DIR/$tfile
764
765         replay_barrier $SINGLEMDS
766         fail_abort $SINGLEMDS
767         kill -USR1 $pid || error "multiop $pid not running"
768         wait $pid || error "multiop $pid failed"
769         [ -e $DIR/$tfile ] && error "file $DIR/$tfile should not exist"
770         sync
771         return 0
772 }
773 run_test 34 "abort recovery before client does replay (test mds_cleanup_orphans)"
774
775 # bug 2278 - generate one orphan on OST, then destroy it during recovery from llog
776 test_35() {
777         touch $DIR/$tfile || error "touch $DIR/$tfile failed"
778
779         #define OBD_FAIL_MDS_REINT_NET_REP       0x119
780         do_facet $SINGLEMDS "lctl set_param fail_loc=0x80000119"
781         rm -f $DIR/$tfile &
782         sleep 1
783         sync
784         sleep 1
785         # give a chance to remove from MDS
786         fail_abort $SINGLEMDS
787         $CHECKSTAT -t file $DIR/$tfile &&
788                 error "$CHECKSTAT $DIR/$tfile attribute check should fail" ||
789                 true
790 }
791 run_test 35 "test recovery from llog for unlink op"
792
793 # b=2432 resent cancel after replay uses wrong cookie,
794 # so don't resend cancels
795 test_36() {
796         replay_barrier $SINGLEMDS
797         touch $DIR/$tfile
798         checkstat $DIR/$tfile
799         facet_failover $SINGLEMDS
800         cancel_lru_locks mdc
801         if dmesg | grep "unknown lock cookie"; then
802                 error "cancel after replay failed"
803         fi
804 }
805 run_test 36 "don't resend cancel"
806
807 # b=2368
808 # directory orphans can't be unlinked from PENDING directory
809 test_37() {
810         rmdir $DIR/$tfile 2>/dev/null
811         multiop_bg_pause $DIR/$tfile dD_c ||
812                 error "multiop_bg_pause $DIR/$tfile failed"
813         pid=$!
814         rmdir $DIR/$tfile
815
816         replay_barrier $SINGLEMDS
817         # clear the dmesg buffer so we only see errors from this recovery
818         do_facet $SINGLEMDS dmesg -c >/dev/null
819         fail_abort $SINGLEMDS
820         kill -USR1 $pid || error "multiop $pid not running"
821         do_facet $SINGLEMDS dmesg | grep "error .* unlinking .* from PENDING" &&
822                 error "error unlinking files"
823         wait $pid || error "multiop $pid failed"
824         sync
825         return 0
826 }
827 run_test 37 "abort recovery before client does replay (test mds_cleanup_orphans for directories)"
828
829 test_38() {
830         createmany -o $DIR/$tfile-%d 800 ||
831                 error "createmany -o $DIR/$tfile failed"
832         unlinkmany $DIR/$tfile-%d 0 400 || error "unlinkmany $DIR/$tfile failed"
833         replay_barrier $SINGLEMDS
834         fail $SINGLEMDS
835         unlinkmany $DIR/$tfile-%d 400 400 ||
836                 error "unlinkmany $DIR/$tfile 400 failed"
837         sleep 2
838         $CHECKSTAT -t file $DIR/$tfile-* &&
839                 error "$CHECKSTAT $DIR/$tfile-* attribute check should fail" ||
840                 true
841 }
842 run_test 38 "test recovery from unlink llog (test llog_gen_rec) "
843
844 test_39() { # bug 4176
845         createmany -o $DIR/$tfile-%d 800 ||
846                 error "createmany -o $DIR/$tfile failed"
847         replay_barrier $SINGLEMDS
848         unlinkmany $DIR/$tfile-%d 0 400
849         fail $SINGLEMDS
850         unlinkmany $DIR/$tfile-%d 400 400 ||
851                 error "unlinkmany $DIR/$tfile 400 failed"
852         sleep 2
853         $CHECKSTAT -t file $DIR/$tfile-* &&
854                 error "$CHECKSTAT $DIR/$tfile-* attribute check should fail" ||
855                 true
856 }
857 run_test 39 "test recovery from unlink llog (test llog_gen_rec) "
858
859 count_ost_writes() {
860     lctl get_param -n osc.*.stats | awk -vwrites=0 '/ost_write/ { writes += $2 } END { print writes; }'
861 }
862
863 #b=2477,2532
864 test_40(){
865         # always need connection to MDS to verify layout during IO. LU-2628.
866         lctl get_param mdc.*.connect_flags | grep -q layout_lock &&
867                 skip "layout_lock needs MDS connection for IO" && return 0
868
869         $LCTL mark multiop $MOUNT/$tfile OS_c
870         multiop $MOUNT/$tfile OS_c  &
871         PID=$!
872         writeme -s $MOUNT/${tfile}-2 &
873         WRITE_PID=$!
874         sleep 1
875         facet_failover $SINGLEMDS
876         #define OBD_FAIL_MDS_CONNECT_NET         0x117
877         do_facet $SINGLEMDS "lctl set_param fail_loc=0x80000117"
878         kill -USR1 $PID
879         stat1=$(count_ost_writes)
880         sleep $TIMEOUT
881         stat2=$(count_ost_writes)
882         echo "$stat1, $stat2"
883         if [ $stat1 -lt $stat2 ]; then
884                 echo "writes continuing during recovery"
885                 RC=0
886         else
887                 echo "writes not continuing during recovery, bug 2477"
888                 RC=4
889         fi
890         echo "waiting for writeme $WRITE_PID"
891         kill $WRITE_PID
892         wait $WRITE_PID
893
894         echo "waiting for multiop $PID"
895         wait $PID || error "multiop $PID failed"
896         do_facet client munlink $MOUNT/$tfile  ||
897                 error "munlink $MOUNT/$tfile failed"
898         do_facet client munlink $MOUNT/${tfile}-2  ||
899                 error "munlink $MOUNT/$tfile-2 failed"
900         return $RC
901 }
902 run_test 40 "cause recovery in ptlrpc, ensure IO continues"
903
904 #b=2814
905 # make sure that a read to one osc doesn't try to double-unlock its page just
906 # because another osc is invalid.  trigger_group_io used to mistakenly return
907 # an error if any oscs were invalid even after having successfully put rpcs
908 # on valid oscs.  This was fatal if the caller was ll_readpage who unlocked
909 # the page, guarnateeing that the unlock from the RPC completion would
910 # assert on trying to unlock the unlocked page.
911 test_41() {
912         [ $OSTCOUNT -lt 2 ] && skip_env "needs >= 2 OSTs" && return
913
914         local f=$MOUNT/$tfile
915         # make sure the start of the file is ost1
916         $SETSTRIPE -S $((128 * 1024)) -i 0 $f
917         do_facet client dd if=/dev/zero of=$f bs=4k count=1 ||
918                 error "dd on client failed"
919         cancel_lru_locks osc
920         # fail ost2 and read from ost1
921         local mdtosc=$(get_mdtosc_proc_path $SINGLEMDS $ost2_svc)
922         local osc2dev=$(do_facet $SINGLEMDS "lctl get_param -n devices" |
923                 grep $mdtosc | awk '{print $1}')
924         [ -z "$osc2dev" ] && echo "OST: $ost2_svc" &&
925                 lctl get_param -n devices &&
926                 error "OST 2 $osc2dev does not exist"
927         do_facet $SINGLEMDS $LCTL --device $osc2dev deactivate ||
928                 error "deactive device on $SINGLEMDS failed"
929         do_facet client dd if=$f of=/dev/null bs=4k count=1 ||
930                 error "second dd on client failed"
931         do_facet $SINGLEMDS $LCTL --device $osc2dev activate ||
932                 error "active device on $SINGLEMDS failed"
933         return 0
934 }
935 run_test 41 "read from a valid osc while other oscs are invalid"
936
937 # test MDS recovery after ost failure
938 test_42() {
939         blocks=$(df -P $MOUNT | tail -n 1 | awk '{ print $2 }')
940         createmany -o $DIR/$tfile-%d 800 ||
941                 error "createmany -o $DIR/$tfile failed"
942         replay_barrier ost1
943         unlinkmany $DIR/$tfile-%d 0 400
944         debugsave
945         lctl set_param debug=-1
946         facet_failover ost1
947
948         # osc is evicted, fs is smaller (but only with failout OSTs (bug 7287)
949         #blocks_after=`df -P $MOUNT | tail -n 1 | awk '{ print $2 }'`
950         #[ $blocks_after -lt $blocks ] || return 1
951         echo "wait for MDS to timeout and recover"
952         sleep $((TIMEOUT * 2))
953         debugrestore
954         unlinkmany $DIR/$tfile-%d 400 400 ||
955                 error "unlinkmany $DIR/$tfile 400 failed"
956         $CHECKSTAT -t file $DIR/$tfile-* &&
957                 error "$CHECKSTAT $DIR/$tfile-* attribute check should fail" ||
958                 true
959 }
960 run_test 42 "recovery after ost failure"
961
962 # timeout in MDS/OST recovery RPC will LBUG MDS
963 test_43() { # bug 2530
964         remote_ost_nodsh && skip "remote OST with nodsh" && return 0
965
966         replay_barrier $SINGLEMDS
967
968         # OBD_FAIL_OST_CREATE_NET 0x204
969         do_facet ost1 "lctl set_param fail_loc=0x80000204"
970         fail $SINGLEMDS
971         sleep 10
972
973         return 0
974 }
975 run_test 43 "mds osc import failure during recovery; don't LBUG"
976
977 test_44a() { # was test_44
978         local at_max_saved=0
979
980         local mdcdev=$($LCTL dl |
981                 awk "/${FSNAME}-MDT0000-mdc-/ {if (\$2 == \"UP\") {print \$1}}")
982         [ "$mdcdev" ] || error "${FSNAME}-MDT0000-mdc- not UP"
983         [ $(echo $mdcdev | wc -w) -eq 1 ] ||
984                 { $LCTL dl; error "looking for mdcdev=$mdcdev"; }
985
986         # adaptive timeouts slow this way down
987         if at_is_enabled; then
988                 at_max_saved=$(at_max_get mds)
989                 at_max_set 40 mds
990         fi
991
992         for i in $(seq 1 10); do
993                 echo "$i of 10 ($(date +%s))"
994                 do_facet $SINGLEMDS \
995                         "lctl get_param -n md[ts].*.mdt.timeouts | grep service"
996                 #define OBD_FAIL_TGT_CONN_RACE     0x701
997                 do_facet $SINGLEMDS "lctl set_param fail_loc=0x80000701"
998                 # lctl below may fail, it is valid case
999                 $LCTL --device $mdcdev recover
1000                 df $MOUNT
1001         done
1002         do_facet $SINGLEMDS "lctl set_param fail_loc=0"
1003         [ $at_max_saved -ne 0 ] && at_max_set $at_max_saved mds
1004         return 0
1005 }
1006 run_test 44a "race in target handle connect"
1007
1008 test_44b() {
1009         local mdcdev=$($LCTL dl |
1010                 awk "/${FSNAME}-MDT0000-mdc-/ {if (\$2 == \"UP\") {print \$1}}")
1011         [ "$mdcdev" ] || error "${FSNAME}-MDT0000-mdc not up"
1012         [ $(echo $mdcdev | wc -w) -eq 1 ] ||
1013                 { echo mdcdev=$mdcdev; $LCTL dl;
1014                   error "more than one ${FSNAME}-MDT0000-mdc"; }
1015
1016         for i in $(seq 1 10); do
1017                 echo "$i of 10 ($(date +%s))"
1018                 do_facet $SINGLEMDS \
1019                         "lctl get_param -n md[ts].*.mdt.timeouts | grep service"
1020                 #define OBD_FAIL_TGT_DELAY_RECONNECT 0x704
1021                 do_facet $SINGLEMDS "lctl set_param fail_loc=0x80000704"
1022                 # lctl below may fail, it is valid case
1023                 $LCTL --device $mdcdev recover
1024                 df $MOUNT
1025         done
1026         return 0
1027 }
1028 run_test 44b "race in target handle connect"
1029
1030 test_44c() {
1031         replay_barrier $SINGLEMDS
1032         createmany -m $DIR/$tfile-%d 100 || error "failed to create directories"
1033         #define OBD_FAIL_TGT_RCVG_FLAG 0x712
1034         do_facet $SINGLEMDS "lctl set_param fail_loc=0x80000712"
1035         fail_abort $SINGLEMDS
1036         unlinkmany $DIR/$tfile-%d 100 && error "unliked after fail abort"
1037         fail $SINGLEMDS
1038         unlinkmany $DIR/$tfile-%d 100 && error "unliked after fail"
1039         return 0
1040 }
1041 run_test 44c "race in target handle connect"
1042
1043 # Handle failed close
1044 test_45() {
1045         local mdcdev=$($LCTL get_param -n devices |
1046                 awk "/ ${FSNAME}-MDT0000-mdc-/ {print \$1}")
1047         [ "$mdcdev" ] || error "${FSNAME}-MDT0000-mdc not up"
1048         [ $(echo $mdcdev | wc -w) -eq 1 ] ||
1049                 { echo mdcdev=$mdcdev; $LCTL dl;
1050                   error "more than one ${FSNAME}-MDT0000-mdc"; }
1051
1052         $LCTL --device $mdcdev recover ||
1053                 error "$LCTL --device $mdcdev recover failed"
1054
1055         multiop_bg_pause $DIR/$tfile O_c ||
1056                 error "multiop_bg_pause $DIR/$tfile failed"
1057         pid=$!
1058
1059         # This will cause the CLOSE to fail before even
1060         # allocating a reply buffer
1061         $LCTL --device $mdcdev deactivate ||
1062                 error "$LCTL --device $mdcdev deactivate failed"
1063
1064         # try the close
1065         kill -USR1 $pid || error "multiop $pid not running"
1066         wait $pid || error "multiop $pid failed"
1067
1068         $LCTL --device $mdcdev activate ||
1069                 error "$LCTL --device $mdcdev activate failed"
1070         sleep 1
1071
1072         $CHECKSTAT -t file $DIR/$tfile ||
1073                 error "$CHECKSTAT $DIR/$tfile attribute check failed"
1074         return 0
1075 }
1076 run_test 45 "Handle failed close"
1077
1078 test_46() {
1079         dmesg -c >/dev/null
1080         drop_reply "touch $DIR/$tfile"
1081         fail $SINGLEMDS
1082         # ironically, the previous test, 45, will cause a real forced close,
1083         # so just look for one for this test
1084         dmesg | grep -i "force closing client file handle for $tfile" &&
1085                 error "found force closing in dmesg"
1086         return 0
1087 }
1088 run_test 46 "Don't leak file handle after open resend (3325)"
1089
1090 test_47() { # bug 2824
1091         remote_ost_nodsh && skip "remote OST with nodsh" && return 0
1092
1093         # create some files to make sure precreate has been done on all
1094         # OSTs. (just in case this test is run independently)
1095         createmany -o $DIR/$tfile 20  ||
1096                 error "createmany create $DIR/$tfile failed"
1097
1098         # OBD_FAIL_OST_CREATE_NET 0x204
1099         fail ost1
1100         do_facet ost1 "lctl set_param fail_loc=0x80000204"
1101         client_up || error "client_up failed"
1102
1103         # let the MDS discover the OST failure, attempt to recover, fail
1104         # and recover again.
1105         sleep $((3 * TIMEOUT))
1106
1107         # Without 2824, this createmany would hang
1108         createmany -o $DIR/$tfile 20 ||
1109                 error "createmany recraete $DIR/$tfile failed"
1110         unlinkmany $DIR/$tfile 20 || error "unlinkmany $DIR/$tfile failed"
1111
1112         return 0
1113 }
1114 run_test 47 "MDS->OSC failure during precreate cleanup (2824)"
1115
1116 test_48() {
1117         remote_ost_nodsh && skip "remote OST with nodsh" && return 0
1118         [ "$OSTCOUNT" -lt "2" ] && skip_env "needs >= 2 OSTs" && return
1119
1120         replay_barrier $SINGLEMDS
1121         createmany -o $DIR/$tfile 20  ||
1122                 error "createmany -o $DIR/$tfile failed"
1123         # OBD_FAIL_OST_EROFS 0x216
1124         facet_failover $SINGLEMDS
1125         do_facet ost1 "lctl set_param fail_loc=0x80000216"
1126         client_up || error "client_up failed"
1127
1128         createmany -o $DIR/$tfile 20 20 ||
1129                 error "createmany recraete $DIR/$tfile failed"
1130         unlinkmany $DIR/$tfile 40 || error "unlinkmany $DIR/$tfile failed"
1131         return 0
1132 }
1133 run_test 48 "MDS->OSC failure during precreate cleanup (2824)"
1134
1135 test_50() {
1136         local mdtosc=$(get_mdtosc_proc_path $SINGLEMDS $ost1_svc)
1137         local oscdev=$(do_facet $SINGLEMDS "lctl get_param -n devices" |
1138                 grep $mdtosc | awk '{print $1}')
1139         [ "$oscdev" ] || error "could not find OSC device on MDS"
1140         do_facet $SINGLEMDS $LCTL --device $oscdev recover ||
1141                 error "OSC device $oscdev recovery failed"
1142         do_facet $SINGLEMDS $LCTL --device $oscdev recover ||
1143                 error "second OSC device $oscdev recovery failed"
1144         # give the mds_lov_sync threads a chance to run
1145         sleep 5
1146 }
1147 run_test 50 "Double OSC recovery, don't LASSERT (3812)"
1148
1149 # b3764 timed out lock replay
1150 test_52() {
1151         [ $(lustre_version_code $SINGLEMDS) -lt $(version_code 2.6.90) ] &&
1152                 skip "MDS prior to 2.6.90 handle LDLM_REPLY_NET incorrectly" &&
1153                 return 0
1154
1155         touch $DIR/$tfile || error "touch $DIR/$tfile failed"
1156         cancel_lru_locks mdc
1157
1158         multiop_bg_pause $DIR/$tfile s_s || error "multiop $DIR/$tfile failed"
1159         mpid=$!
1160
1161         #define OBD_FAIL_MDS_LDLM_REPLY_NET     0x157
1162         lctl set_param -n ldlm.cancel_unused_locks_before_replay "0"
1163         do_facet $SINGLEMDS "lctl set_param fail_loc=0x80000157"
1164
1165         fail $SINGLEMDS || error "fail $SINGLEMDS failed"
1166         kill -USR1 $mpid
1167         wait $mpid || error "multiop_bg_pause pid failed"
1168
1169         do_facet $SINGLEMDS "lctl set_param fail_loc=0x0"
1170         lctl set_param fail_loc=0x0
1171         lctl set_param -n ldlm.cancel_unused_locks_before_replay "1"
1172         rm -f $DIR/$tfile
1173 }
1174 run_test 52 "time out lock replay (3764)"
1175
1176 # bug 3462 - simultaneous MDC requests
1177 test_53a() {
1178         [[ $(lctl get_param mdc.*.import |
1179              grep "connect_flags:.*multi_mod_rpc") ]] ||
1180                 { skip "Need MDC with 'multi_mod_rpcs' feature"; return 0; }
1181
1182         cancel_lru_locks mdc    # cleanup locks from former test cases
1183         mkdir $DIR/${tdir}-1 || error "mkdir $DIR/${tdir}-1 failed"
1184         mkdir $DIR/${tdir}-2 || error "mkdir $DIR/${tdir}-2 failed"
1185         multiop $DIR/${tdir}-1/f O_c &
1186         close_pid=$!
1187         # give multiop a change to open
1188         sleep 1
1189
1190         #define OBD_FAIL_MDS_CLOSE_NET 0x115
1191         do_facet $SINGLEMDS "lctl set_param fail_loc=0x80000115"
1192         kill -USR1 $close_pid
1193         cancel_lru_locks mdc    # force the close
1194         do_facet $SINGLEMDS "lctl set_param fail_loc=0"
1195
1196         mcreate $DIR/${tdir}-2/f || error "mcreate $DIR/${tdir}-2/f failed"
1197
1198         # close should still be here
1199         [ -d /proc/$close_pid ] || error "close_pid doesn't exist"
1200
1201         replay_barrier_nodf $SINGLEMDS
1202         fail $SINGLEMDS
1203         wait $close_pid || error "close_pid $close_pid failed"
1204
1205         $CHECKSTAT -t file $DIR/${tdir}-1/f ||
1206                 error "$CHECKSTAT $DIR/${tdir}-1/f attribute check failed"
1207         $CHECKSTAT -t file $DIR/${tdir}-2/f ||
1208                 error "$CHECKSTAT $DIR/${tdir}-2/f attribute check failed"
1209         rm -rf $DIR/${tdir}-*
1210 }
1211 run_test 53a "|X| close request while two MDC requests in flight"
1212
1213 test_53b() {
1214         cancel_lru_locks mdc    # cleanup locks from former test cases
1215
1216         mkdir $DIR/${tdir}-1 || error "mkdir $DIR/${tdir}-1 failed"
1217         mkdir $DIR/${tdir}-2 || error "mkdir $DIR/${tdir}-2 failed"
1218         multiop_bg_pause $DIR/${tdir}-1/f O_c ||
1219                 error "multiop_bg_pause $DIR/${tdir}-1/f failed"
1220         close_pid=$!
1221
1222         #define OBD_FAIL_MDS_REINT_NET 0x107
1223         do_facet $SINGLEMDS "lctl set_param fail_loc=0x80000107"
1224         mcreate $DIR/${tdir}-2/f &
1225         open_pid=$!
1226         sleep 1
1227
1228         do_facet $SINGLEMDS "lctl set_param fail_loc=0"
1229         kill -USR1 $close_pid
1230         cancel_lru_locks mdc    # force the close
1231         wait $close_pid || error "close_pid $close_pid failed"
1232         # open should still be here
1233         [ -d /proc/$open_pid ] || error "open_pid doesn't exist"
1234
1235         replay_barrier_nodf $SINGLEMDS
1236         fail $SINGLEMDS
1237         wait $open_pid || error "open_pid failed"
1238
1239         $CHECKSTAT -t file $DIR/${tdir}-1/f ||
1240                 error "$CHECKSTAT $DIR/${tdir}-1/f attribute check failed"
1241         $CHECKSTAT -t file $DIR/${tdir}-2/f ||
1242                 error "$CHECKSTAT $DIR/${tdir}-2/f attribute check failed"
1243         rm -rf $DIR/${tdir}-*
1244 }
1245 run_test 53b "|X| open request while two MDC requests in flight"
1246
1247 test_53c() {
1248         cancel_lru_locks mdc    # cleanup locks from former test cases
1249
1250         mkdir $DIR/${tdir}-1 || error "mkdir $DIR/${tdir}-1 failed"
1251         mkdir $DIR/${tdir}-2 || error "mkdir $DIR/${tdir}-2 failed"
1252         multiop $DIR/${tdir}-1/f O_c &
1253         close_pid=$!
1254
1255         #define OBD_FAIL_MDS_REINT_NET 0x107
1256         do_facet $SINGLEMDS "lctl set_param fail_loc=0x80000107"
1257         mcreate $DIR/${tdir}-2/f &
1258         open_pid=$!
1259         sleep 1
1260
1261         #define OBD_FAIL_MDS_CLOSE_NET 0x115
1262         do_facet $SINGLEMDS "lctl set_param fail_loc=0x80000115"
1263         kill -USR1 $close_pid
1264         cancel_lru_locks mdc    # force the close
1265
1266         #bz20647: make sure all pids exist before failover
1267         [ -d /proc/$close_pid ] || error "close_pid doesn't exist"
1268         [ -d /proc/$open_pid ] || error "open_pid doesn't exists"
1269         replay_barrier_nodf $SINGLEMDS
1270         fail_nodf $SINGLEMDS
1271         wait $open_pid || error "open_pid failed"
1272         sleep 2
1273         # close should be gone
1274         [ -d /proc/$close_pid ] && error "close_pid should not exist"
1275         do_facet $SINGLEMDS "lctl set_param fail_loc=0"
1276
1277         $CHECKSTAT -t file $DIR/${tdir}-1/f ||
1278                 error "$CHECKSTAT $DIR/${tdir}-1/f attribute check failed"
1279         $CHECKSTAT -t file $DIR/${tdir}-2/f ||
1280                 error "$CHECKSTAT $DIR/${tdir}-2/f attribute check failed"
1281         rm -rf $DIR/${tdir}-*
1282 }
1283 run_test 53c "|X| open request and close request while two MDC requests in flight"
1284
1285 test_53d() {
1286         [[ $(lctl get_param mdc.*.import |
1287              grep "connect_flags:.*multi_mod_rpc") ]] ||
1288                 { skip "Need MDC with 'multi_mod_rpcs' feature"; return 0; }
1289
1290         cancel_lru_locks mdc    # cleanup locks from former test cases
1291
1292         mkdir $DIR/${tdir}-1 || error "mkdir $DIR/${tdir}-1 failed"
1293         mkdir $DIR/${tdir}-2 || error "mkdir $DIR/${tdir}-2 failed"
1294         multiop $DIR/${tdir}-1/f O_c &
1295         close_pid=$!
1296         # give multiop a chance to open
1297         sleep 1
1298
1299         #define OBD_FAIL_MDS_CLOSE_NET_REP 0x13b
1300         do_facet $SINGLEMDS "lctl set_param fail_loc=0x8000013b"
1301         kill -USR1 $close_pid
1302         cancel_lru_locks mdc    # force the close
1303         do_facet $SINGLEMDS "lctl set_param fail_loc=0"
1304         mcreate $DIR/${tdir}-2/f || error "mcreate $DIR/${tdir}-2/f failed"
1305
1306         # close should still be here
1307         [ -d /proc/$close_pid ] || error "close_pid doesn't exist"
1308         fail $SINGLEMDS
1309         wait $close_pid || error "close_pid failed"
1310
1311         $CHECKSTAT -t file $DIR/${tdir}-1/f ||
1312                 error "$CHECKSTAT $DIR/${tdir}-1/f attribute check failed"
1313         $CHECKSTAT -t file $DIR/${tdir}-2/f ||
1314                 error "$CHECKSTAT $DIR/${tdir}-2/f attribute check failed"
1315         rm -rf $DIR/${tdir}-*
1316 }
1317 run_test 53d "close reply while two MDC requests in flight"
1318
1319 test_53e() {
1320         cancel_lru_locks mdc    # cleanup locks from former test cases
1321
1322         mkdir $DIR/${tdir}-1 || error "mkdir $DIR/${tdir}-1 failed"
1323         mkdir $DIR/${tdir}-2 || error "mkdir $DIR/${tdir}-2 failed"
1324         multiop $DIR/${tdir}-1/f O_c &
1325         close_pid=$!
1326
1327         #define OBD_FAIL_MDS_REINT_NET_REP 0x119
1328         do_facet $SINGLEMDS "lctl set_param fail_loc=0x119"
1329         mcreate $DIR/${tdir}-2/f &
1330         open_pid=$!
1331         sleep 1
1332
1333         do_facet $SINGLEMDS "lctl set_param fail_loc=0"
1334         kill -USR1 $close_pid
1335         cancel_lru_locks mdc    # force the close
1336         wait $close_pid || error "close_pid failed"
1337         # open should still be here
1338         [ -d /proc/$open_pid ] || error "open_pid doesn't exists"
1339
1340         replay_barrier_nodf $SINGLEMDS
1341         fail $SINGLEMDS
1342         wait $open_pid || error "open_pid failed"
1343
1344         $CHECKSTAT -t file $DIR/${tdir}-1/f ||
1345                 error "$CHECKSTAT $DIR/${tdir}-1/f attribute check failed"
1346         $CHECKSTAT -t file $DIR/${tdir}-2/f ||
1347                 error "$CHECKSTAT $DIR/${tdir}-2/f attribute check failed"
1348         rm -rf $DIR/${tdir}-*
1349 }
1350 run_test 53e "|X| open reply while two MDC requests in flight"
1351
1352 test_53f() {
1353         cancel_lru_locks mdc    # cleanup locks from former test cases
1354
1355         mkdir $DIR/${tdir}-1 || error "mkdir $DIR/${tdir}-1 failed"
1356         mkdir $DIR/${tdir}-2 || error "mkdir $DIR/${tdir}-2 failed"
1357         multiop $DIR/${tdir}-1/f O_c &
1358         close_pid=$!
1359
1360         #define OBD_FAIL_MDS_REINT_NET_REP 0x119
1361         do_facet $SINGLEMDS "lctl set_param fail_loc=0x119"
1362         mcreate $DIR/${tdir}-2/f &
1363         open_pid=$!
1364         sleep 1
1365
1366         #define OBD_FAIL_MDS_CLOSE_NET_REP 0x13b
1367         do_facet $SINGLEMDS "lctl set_param fail_loc=0x8000013b"
1368         kill -USR1 $close_pid
1369         cancel_lru_locks mdc    # force the close
1370
1371         #bz20647: make sure all pids are exists before failover
1372         [ -d /proc/$close_pid ] || error "close_pid doesn't exist"
1373         [ -d /proc/$open_pid ] || error "open_pid doesn't exists"
1374         replay_barrier_nodf $SINGLEMDS
1375         fail_nodf $SINGLEMDS
1376         wait $open_pid || error "open_pid failed"
1377         sleep 2
1378         # close should be gone
1379         [ -d /proc/$close_pid ] && error "close_pid should not exist"
1380         do_facet $SINGLEMDS "lctl set_param fail_loc=0"
1381
1382         $CHECKSTAT -t file $DIR/${tdir}-1/f ||
1383                 error "$CHECKSTAT $DIR/${tdir}-1/f attribute check failed"
1384         $CHECKSTAT -t file $DIR/${tdir}-2/f ||
1385                 error "$CHECKSTAT $DIR/${tdir}-2/f attribute check failed"
1386         rm -rf $DIR/${tdir}-*
1387 }
1388 run_test 53f "|X| open reply and close reply while two MDC requests in flight"
1389
1390 test_53g() {
1391         cancel_lru_locks mdc    # cleanup locks from former test cases
1392
1393         mkdir $DIR/${tdir}-1 || error "mkdir $DIR/${tdir}-1 failed"
1394         mkdir $DIR/${tdir}-2 || error "mkdir $DIR/${tdir}-2 failed"
1395         multiop $DIR/${tdir}-1/f O_c &
1396         close_pid=$!
1397
1398         #define OBD_FAIL_MDS_REINT_NET_REP 0x119
1399         do_facet $SINGLEMDS "lctl set_param fail_loc=0x119"
1400         mcreate $DIR/${tdir}-2/f &
1401         open_pid=$!
1402         sleep 1
1403
1404         #define OBD_FAIL_MDS_CLOSE_NET 0x115
1405         do_facet $SINGLEMDS "lctl set_param fail_loc=0x80000115"
1406         kill -USR1 $close_pid
1407         cancel_lru_locks mdc    # force the close
1408         do_facet $SINGLEMDS "lctl set_param fail_loc=0"
1409
1410         #bz20647: make sure all pids are exists before failover
1411         [ -d /proc/$close_pid ] || error "close_pid doesn't exist"
1412         [ -d /proc/$open_pid ] || error "open_pid doesn't exists"
1413         replay_barrier_nodf $SINGLEMDS
1414         fail_nodf $SINGLEMDS
1415         wait $open_pid || error "open_pid failed"
1416         sleep 2
1417         # close should be gone
1418         [ -d /proc/$close_pid ] && error "close_pid should not exist"
1419
1420         $CHECKSTAT -t file $DIR/${tdir}-1/f ||
1421                 error "$CHECKSTAT $DIR/${tdir}-1/f attribute check failed"
1422         $CHECKSTAT -t file $DIR/${tdir}-2/f ||
1423                 error "$CHECKSTAT $DIR/${tdir}-2/f attribute check failed"
1424         rm -rf $DIR/${tdir}-*
1425 }
1426 run_test 53g "|X| drop open reply and close request while close and open are both in flight"
1427
1428 test_53h() {
1429         cancel_lru_locks mdc    # cleanup locks from former test cases
1430
1431         mkdir $DIR/${tdir}-1 || error "mkdir $DIR/${tdir}-1 failed"
1432         mkdir $DIR/${tdir}-2 || error "mkdir $DIR/${tdir}-2 failed"
1433         multiop $DIR/${tdir}-1/f O_c &
1434         close_pid=$!
1435
1436         #define OBD_FAIL_MDS_REINT_NET 0x107
1437         do_facet $SINGLEMDS "lctl set_param fail_loc=0x80000107"
1438         mcreate $DIR/${tdir}-2/f &
1439         open_pid=$!
1440         sleep 1
1441
1442         #define OBD_FAIL_MDS_CLOSE_NET_REP 0x13b
1443         do_facet $SINGLEMDS "lctl set_param fail_loc=0x8000013b"
1444         kill -USR1 $close_pid
1445         cancel_lru_locks mdc    # force the close
1446         sleep 1
1447
1448         #bz20647: make sure all pids are exists before failover
1449         [ -d /proc/$close_pid ] || error "close_pid doesn't exist"
1450         [ -d /proc/$open_pid ] || error "open_pid doesn't exists"
1451         replay_barrier_nodf $SINGLEMDS
1452         fail_nodf $SINGLEMDS
1453         wait $open_pid || error "open_pid failed"
1454         sleep 2
1455         # close should be gone
1456         [ -d /proc/$close_pid ] && error "close_pid should not exist"
1457         do_facet $SINGLEMDS "lctl set_param fail_loc=0"
1458
1459         $CHECKSTAT -t file $DIR/${tdir}-1/f ||
1460                 error "$CHECKSTAT $DIR/${tdir}-1/f attribute check failed"
1461         $CHECKSTAT -t file $DIR/${tdir}-2/f ||
1462                 error "$CHECKSTAT $DIR/${tdir}-2/f attribute check failed"
1463         rm -rf $DIR/${tdir}-*
1464 }
1465 run_test 53h "open request and close reply while two MDC requests in flight"
1466
1467 #b3761 ASSERTION(hash != 0) failed
1468 test_55() {
1469 # OBD_FAIL_MDS_OPEN_CREATE | OBD_FAIL_ONCE
1470     do_facet $SINGLEMDS "lctl set_param fail_loc=0x8000012b"
1471     touch $DIR/$tfile &
1472     # give touch a chance to run
1473     sleep 5
1474     do_facet $SINGLEMDS "lctl set_param fail_loc=0x0"
1475     rm $DIR/$tfile
1476     return 0
1477 }
1478 run_test 55 "let MDS_CHECK_RESENT return the original return code instead of 0"
1479
1480 #b3440 ASSERTION(rec->ur_fid2->id) failed
1481 test_56() {
1482     ln -s foo $DIR/$tfile
1483     replay_barrier $SINGLEMDS
1484     #drop_reply "cat $DIR/$tfile"
1485     fail $SINGLEMDS
1486     sleep 10
1487 }
1488 run_test 56 "don't replay a symlink open request (3440)"
1489
1490 #recovery one mds-ost setattr from llog
1491 test_57() {
1492         #define OBD_FAIL_MDS_OST_SETATTR       0x12c
1493         do_facet $SINGLEMDS "lctl set_param fail_loc=0x8000012c"
1494         touch $DIR/$tfile || error "touch $DIR/$tfile failed"
1495         replay_barrier $SINGLEMDS
1496         fail $SINGLEMDS
1497         wait_recovery_complete $SINGLEMDS || error "MDS recovery is not done"
1498         wait_mds_ost_sync || error "wait_mds_ost_sync failed"
1499         $CHECKSTAT -t file $DIR/$tfile ||
1500                 error "$CHECKSTAT $DIR/$tfile attribute check failed"
1501         do_facet $SINGLEMDS "lctl set_param fail_loc=0x0"
1502         rm $DIR/$tfile
1503 }
1504 run_test 57 "test recovery from llog for setattr op"
1505
1506 cleanup_58() {
1507         zconf_umount $(hostname) $MOUNT2
1508         trap - EXIT
1509 }
1510
1511 #recovery many mds-ost setattr from llog
1512 test_58a() {
1513         mkdir $DIR/$tdir || error "mkdir $DIR/$tdir failed"
1514         #define OBD_FAIL_MDS_OST_SETATTR       0x12c
1515         do_facet $SINGLEMDS "lctl set_param fail_loc=0x8000012c"
1516         createmany -o $DIR/$tdir/$tfile-%d 2500
1517         replay_barrier $SINGLEMDS
1518         fail $SINGLEMDS
1519         sleep 2
1520         $CHECKSTAT -t file $DIR/$tdir/$tfile-* >/dev/null ||
1521                 error "$CHECKSTAT $DIR/$tfile-* attribute check failed"
1522         do_facet $SINGLEMDS "lctl set_param fail_loc=0x0"
1523         unlinkmany $DIR/$tdir/$tfile-%d 2500 ||
1524                 error "unlinkmany $DIR/$tfile failed"
1525         rmdir $DIR/$tdir
1526 }
1527 run_test 58a "test recovery from llog for setattr op (test llog_gen_rec)"
1528
1529 test_58b() {
1530         local orig
1531         local new
1532
1533         trap cleanup_58 EXIT
1534
1535         large_xattr_enabled &&
1536                 orig="$(generate_string $(max_xattr_size))" || orig="bar"
1537         # Original extended attribute can be long. Print a small version of
1538         # attribute if an error occurs
1539         local sm_msg=$(printf "%.9s" $orig)
1540
1541         mount_client $MOUNT2 || error "mount_client on $MOUNT2 failed"
1542         mkdir $DIR/$tdir || error "mkdir $DIR/$tdir failed"
1543         touch $DIR/$tdir/$tfile || error "touch $DIR/$tdir/$tfile failed"
1544         replay_barrier $SINGLEMDS
1545         setfattr -n trusted.foo -v $orig $DIR/$tdir/$tfile
1546         fail $SINGLEMDS
1547         new=$(get_xattr_value trusted.foo $MOUNT2/$tdir/$tfile)
1548         [[ "$new" = "$orig" ]] ||
1549                 error "xattr set ($sm_msg...) differs from xattr get ($new)"
1550         rm -f $DIR/$tdir/$tfile
1551         rmdir $DIR/$tdir
1552         cleanup_58
1553         wait_clients_import_state ${CLIENTS:-$HOSTNAME} "mgs" FULL
1554 }
1555 run_test 58b "test replay of setxattr op"
1556
1557 test_58c() { # bug 16570
1558         local orig
1559         local orig1
1560         local new
1561
1562         trap cleanup_58 EXIT
1563
1564         if large_xattr_enabled; then
1565                 local xattr_size=$(max_xattr_size)
1566                 orig="$(generate_string $((xattr_size / 2)))"
1567                 orig1="$(generate_string $xattr_size)"
1568         else
1569                 orig="bar"
1570                 orig1="bar1"
1571         fi
1572
1573         # PING_INTERVAL max(obd_timeout / 4, 1U)
1574         sleep $((TIMEOUT / 4))
1575
1576         # Original extended attribute can be long. Print a small version of
1577         # attribute if an error occurs
1578         local sm_msg=$(printf "%.9s" $orig)
1579         local sm_msg1=$(printf "%.9s" $orig1)
1580
1581         mount_client $MOUNT2 || error "mount_client on $MOUNT2 failed"
1582         mkdir $DIR/$tdir || error "mkdir $DIR/$tdir failed"
1583         touch $DIR/$tdir/$tfile || error "touch $DIR/$tdir/$tfile failed"
1584         drop_request "setfattr -n trusted.foo -v $orig $DIR/$tdir/$tfile" ||
1585                 error "drop_request for setfattr failed"
1586         new=$(get_xattr_value trusted.foo $MOUNT2/$tdir/$tfile)
1587         [[ "$new" = "$orig" ]] ||
1588                 error "xattr set ($sm_msg...) differs from xattr get ($new)"
1589         drop_reint_reply "setfattr -n trusted.foo1 \
1590                           -v $orig1 $DIR/$tdir/$tfile" ||
1591                 error "drop_reint_reply for setfattr failed"
1592         new=$(get_xattr_value trusted.foo1 $MOUNT2/$tdir/$tfile)
1593         [[ "$new" = "$orig1" ]] ||
1594                 error "second xattr set ($sm_msg1...) differs xattr get ($new)"
1595         rm -f $DIR/$tdir/$tfile
1596         rmdir $DIR/$tdir
1597         cleanup_58
1598 }
1599 run_test 58c "resend/reconstruct setxattr op"
1600
1601 # log_commit_thread vs filter_destroy race used to lead to import use after free
1602 # bug 11658
1603 test_59() {
1604         remote_ost_nodsh && skip "remote OST with nodsh" && return 0
1605
1606         mkdir $DIR/$tdir || error "mkdir $DIR/$tdir failed"
1607         createmany -o $DIR/$tdir/$tfile-%d 200 ||
1608                 error "createmany create files failed"
1609         sync
1610         unlinkmany $DIR/$tdir/$tfile-%d 200 ||
1611                 error "unlinkmany $DIR/$tdir/$tfile failed"
1612         #define OBD_FAIL_PTLRPC_DELAY_RECOV       0x507
1613         do_facet ost1 "lctl set_param fail_loc=0x507"
1614         fail ost1
1615         fail $SINGLEMDS
1616         do_facet ost1 "lctl set_param fail_loc=0x0"
1617         sleep 20
1618         rmdir $DIR/$tdir
1619 }
1620 run_test 59 "test log_commit_thread vs filter_destroy race"
1621
1622 # race between add unlink llog vs cat log init in post_recovery (only for b1_6)
1623 # bug 12086: should no oops and No ctxt error for this test
1624 test_60() {
1625         mkdir $DIR/$tdir || error "mkdir $DIR/$tdir failed"
1626         createmany -o $DIR/$tdir/$tfile-%d 200 ||
1627                 error "createmany create files failed"
1628         replay_barrier $SINGLEMDS
1629         unlinkmany $DIR/$tdir/$tfile-%d 0 100
1630         fail $SINGLEMDS
1631         unlinkmany $DIR/$tdir/$tfile-%d 100 100
1632         local no_ctxt=$(dmesg | grep "No ctxt")
1633         [ -z "$no_ctxt" ] || error "ctxt is not initialized in recovery"
1634 }
1635 run_test 60 "test llog post recovery init vs llog unlink"
1636
1637 #test race  llog recovery thread vs llog cleanup
1638 test_61a() {    # was test_61
1639         remote_ost_nodsh && skip "remote OST with nodsh" && return 0
1640
1641         mkdir $DIR/$tdir || error "mkdir $DIR/$tdir failed"
1642         createmany -o $DIR/$tdir/$tfile-%d 800 ||
1643                 error "createmany create files failed"
1644         replay_barrier ost1
1645         unlinkmany $DIR/$tdir/$tfile-%d 800
1646         #   OBD_FAIL_OST_LLOG_RECOVERY_TIMEOUT 0x221
1647         set_nodes_failloc "$(osts_nodes)" 0x80000221
1648         facet_failover ost1
1649         sleep 10
1650         fail ost1
1651         sleep 30
1652         set_nodes_failloc "$(osts_nodes)" 0x0
1653
1654         $CHECKSTAT -t file $DIR/$tdir/$tfile-* &&
1655                 error "$CHECKSTAT $DIR/$tdir/$tfile attribute check should fail"
1656         rmdir $DIR/$tdir
1657 }
1658 run_test 61a "test race llog recovery vs llog cleanup"
1659
1660 #test race  mds llog sync vs llog cleanup
1661 test_61b() {
1662         #   OBD_FAIL_MDS_LLOG_SYNC_TIMEOUT 0x13a
1663         do_facet $SINGLEMDS "lctl set_param fail_loc=0x8000013a"
1664         facet_failover $SINGLEMDS
1665         sleep 10
1666         fail $SINGLEMDS
1667         do_facet client dd if=/dev/zero of=$DIR/$tfile bs=4k count=1 ||
1668                 error "dd failed"
1669 }
1670 run_test 61b "test race mds llog sync vs llog cleanup"
1671
1672 #test race  cancel cookie cb vs llog cleanup
1673 test_61c() {
1674         remote_ost_nodsh && skip "remote OST with nodsh" && return 0
1675
1676         #   OBD_FAIL_OST_CANCEL_COOKIE_TIMEOUT 0x222
1677         touch $DIR/$tfile || error "touch $DIR/$tfile failed"
1678         set_nodes_failloc "$(osts_nodes)" 0x80000222
1679         rm $DIR/$tfile
1680         sleep 10
1681         fail ost1
1682         set_nodes_failloc "$(osts_nodes)" 0x0
1683 }
1684 run_test 61c "test race mds llog sync vs llog cleanup"
1685
1686 test_61d() { # bug 16002 # bug 17466 # bug 22137
1687 #   OBD_FAIL_OBD_LLOG_SETUP        0x605
1688     stop mgs
1689     do_facet mgs "lctl set_param fail_loc=0x80000605"
1690     start mgs $(mgsdevname) $MGS_MOUNT_OPTS &&
1691         error "mgs start should have failed"
1692     do_facet mgs "lctl set_param fail_loc=0"
1693     start mgs $(mgsdevname) $MGS_MOUNT_OPTS || error "cannot restart mgs"
1694 }
1695 run_test 61d "error in llog_setup should cleanup the llog context correctly"
1696
1697 test_62() { # Bug 15756 - don't mis-drop resent replay
1698         mkdir $DIR/$tdir || error "mkdir $DIR/$tdir failed"
1699         replay_barrier $SINGLEMDS
1700         createmany -o $DIR/$tdir/$tfile- 25 ||
1701                 error "createmany create files failed"
1702         #define OBD_FAIL_TGT_REPLAY_DROP         0x707
1703         do_facet $SINGLEMDS "lctl set_param fail_loc=0x80000707"
1704         fail $SINGLEMDS
1705         do_facet $SINGLEMDS "lctl set_param fail_loc=0"
1706         unlinkmany $DIR/$tdir/$tfile- 25 ||
1707                 error "unlinkmany $DIR/$tdir/$tfile failed"
1708         return 0
1709 }
1710 run_test 62 "don't mis-drop resent replay"
1711
1712 #Adaptive Timeouts (bug 3055)
1713 AT_MAX_SET=0
1714
1715 at_cleanup () {
1716     local var
1717     local facet
1718     local at_new
1719
1720     echo "Cleaning up AT ..."
1721     if [ -n "$ATOLDBASE" ]; then
1722         local at_history=$($LCTL get_param -n at_history)
1723         do_facet $SINGLEMDS "lctl set_param at_history=$at_history" || true
1724         do_facet ost1 "lctl set_param at_history=$at_history" || true
1725     fi
1726
1727         if [ $AT_MAX_SET -ne 0 ]; then
1728                 for facet in mds client ost; do
1729                         var=AT_MAX_SAVE_${facet}
1730                         echo restore AT on $facet to saved value ${!var}
1731                         at_max_set ${!var} $facet
1732                         at_new=$(at_max_get $facet)
1733                         echo Restored AT value on $facet $at_new
1734                         [ $at_new -eq ${!var} ] ||
1735                         error "AT value not restored SAVED ${!var} NEW $at_new"
1736                 done
1737         fi
1738 }
1739
1740 at_start()
1741 {
1742     local at_max_new=600
1743
1744     # Save at_max original values
1745     local facet
1746     if [ $AT_MAX_SET -eq 0 ]; then
1747         # Suppose that all osts have the same at_max
1748         for facet in mds client ost; do
1749             eval AT_MAX_SAVE_${facet}=$(at_max_get $facet)
1750         done
1751     fi
1752     local at_max
1753     for facet in mds client ost; do
1754         at_max=$(at_max_get $facet)
1755         if [ $at_max -ne $at_max_new ]; then
1756             echo "AT value on $facet is $at_max, set it by force temporarily to $at_max_new"
1757             at_max_set $at_max_new $facet
1758             AT_MAX_SET=1
1759         fi
1760     done
1761
1762     if [ -z "$ATOLDBASE" ]; then
1763         ATOLDBASE=$(do_facet $SINGLEMDS "lctl get_param -n at_history")
1764         # speed up the timebase so we can check decreasing AT
1765         do_facet $SINGLEMDS "lctl set_param at_history=8" || true
1766         do_facet ost1 "lctl set_param at_history=8" || true
1767
1768         # sleep for a while to cool down, should be > 8s and also allow
1769         # at least one ping to be sent. simply use TIMEOUT to be safe.
1770         sleep $TIMEOUT
1771     fi
1772 }
1773
1774 test_65a() #bug 3055
1775 {
1776     remote_ost_nodsh && skip "remote OST with nodsh" && return 0
1777
1778     at_start || return 0
1779     $LCTL dk > /dev/null
1780     debugsave
1781     $LCTL set_param debug="other"
1782     # Slow down a request to the current service time, this is critical
1783     # because previous tests may have caused this value to increase.
1784     REQ_DELAY=`lctl get_param -n mdc.${FSNAME}-MDT0000-mdc-*.timeouts |
1785                awk '/portal 12/ {print $5}'`
1786     REQ_DELAY=$((${REQ_DELAY} + ${REQ_DELAY} / 4 + 5))
1787
1788     do_facet $SINGLEMDS lctl set_param fail_val=$((${REQ_DELAY} * 1000))
1789 #define OBD_FAIL_PTLRPC_PAUSE_REQ        0x50a
1790     do_facet $SINGLEMDS $LCTL set_param fail_loc=0x8000050a
1791     createmany -o $DIR/$tfile 10 > /dev/null
1792     unlinkmany $DIR/$tfile 10 > /dev/null
1793     # check for log message
1794     $LCTL dk | grep "Early reply #" || error "No early reply"
1795     debugrestore
1796     # client should show REQ_DELAY estimates
1797     lctl get_param -n mdc.${FSNAME}-MDT0000-mdc-*.timeouts | grep portal
1798     sleep 9
1799     lctl get_param -n mdc.${FSNAME}-MDT0000-mdc-*.timeouts | grep portal
1800 }
1801 run_test 65a "AT: verify early replies"
1802
1803 test_65b() #bug 3055
1804 {
1805         remote_ost_nodsh && skip "remote OST with nodsh" && return 0
1806
1807         at_start || return 0
1808         # turn on D_ADAPTTO
1809         debugsave
1810         $LCTL set_param debug="other trace"
1811         $LCTL dk > /dev/null
1812         # Slow down a request to the current service time, this is critical
1813         # because previous tests may have caused this value to increase.
1814         $SETSTRIPE --stripe-index=0 --stripe-count=1 $DIR/$tfile ||
1815                 error "$SETSTRIPE failed for $DIR/$tfile"
1816
1817         multiop $DIR/$tfile Ow1yc
1818         REQ_DELAY=`lctl get_param -n osc.${FSNAME}-OST0000-osc-*.timeouts |
1819                    awk '/portal 6/ {print $5}'`
1820         REQ_DELAY=$((${REQ_DELAY} + ${REQ_DELAY} / 4 + 5))
1821
1822         do_facet ost1 lctl set_param fail_val=${REQ_DELAY}
1823         #define OBD_FAIL_OST_BRW_PAUSE_PACK      0x224
1824         do_facet ost1 $LCTL set_param fail_loc=0x224
1825
1826         rm -f $DIR/$tfile
1827         $SETSTRIPE --stripe-index=0 --stripe-count=1 $DIR/$tfile ||
1828                 error "$SETSTRIPE failed"
1829         # force some real bulk transfer
1830         multiop $DIR/$tfile oO_CREAT:O_RDWR:O_SYNC:w4096c
1831
1832         do_facet ost1 $LCTL set_param fail_loc=0
1833         # check for log message
1834         $LCTL dk | grep "Early reply #" || error "No early reply"
1835         debugrestore
1836         # client should show REQ_DELAY estimates
1837         lctl get_param -n osc.${FSNAME}-OST0000-osc-*.timeouts | grep portal
1838 }
1839 run_test 65b "AT: verify early replies on packed reply / bulk"
1840
1841 test_66a() #bug 3055
1842 {
1843     remote_ost_nodsh && skip "remote OST with nodsh" && return 0
1844
1845     at_start || return 0
1846     lctl get_param -n mdc.${FSNAME}-MDT0000-mdc-*.timeouts | grep "portal 12"
1847     # adjust 5s at a time so no early reply is sent (within deadline)
1848     do_facet $SINGLEMDS "$LCTL set_param fail_val=5000"
1849 #define OBD_FAIL_PTLRPC_PAUSE_REQ        0x50a
1850     do_facet $SINGLEMDS "$LCTL set_param fail_loc=0x8000050a"
1851     createmany -o $DIR/$tfile 20 > /dev/null
1852     unlinkmany $DIR/$tfile 20 > /dev/null
1853     lctl get_param -n mdc.${FSNAME}-MDT0000-mdc-*.timeouts | grep "portal 12"
1854     do_facet $SINGLEMDS "$LCTL set_param fail_val=10000"
1855     do_facet $SINGLEMDS "$LCTL set_param fail_loc=0x8000050a"
1856     createmany -o $DIR/$tfile 20 > /dev/null
1857     unlinkmany $DIR/$tfile 20 > /dev/null
1858     lctl get_param -n mdc.${FSNAME}-MDT0000-mdc-*.timeouts | grep "portal 12"
1859     do_facet $SINGLEMDS "$LCTL set_param fail_loc=0"
1860     sleep 9
1861     createmany -o $DIR/$tfile 20 > /dev/null
1862     unlinkmany $DIR/$tfile 20 > /dev/null
1863     lctl get_param -n mdc.${FSNAME}-MDT0000-mdc-*.timeouts | grep "portal 12"
1864     CUR=$(lctl get_param -n mdc.${FSNAME}-MDT0000-mdc-*.timeouts | awk '/portal 12/ {print $5}')
1865     WORST=$(lctl get_param -n mdc.${FSNAME}-MDT0000-mdc-*.timeouts | awk '/portal 12/ {print $7}')
1866     echo "Current MDT timeout $CUR, worst $WORST"
1867     [ $CUR -lt $WORST ] || error "Current $CUR should be less than worst $WORST"
1868 }
1869 run_test 66a "AT: verify MDT service time adjusts with no early replies"
1870
1871 test_66b() #bug 3055
1872 {
1873         remote_ost_nodsh && skip "remote OST with nodsh" && return 0
1874
1875         at_start || return 0
1876         ORIG=$(lctl get_param -n mdc.${FSNAME}-MDT0000*.timeouts |
1877                 awk '/network/ {print $4}')
1878         $LCTL set_param fail_val=$(($ORIG + 5))
1879         #define OBD_FAIL_PTLRPC_PAUSE_REP      0x50c
1880         $LCTL set_param fail_loc=0x50c
1881         ls $DIR/$tfile > /dev/null 2>&1
1882         $LCTL set_param fail_loc=0
1883         CUR=$(lctl get_param -n mdc.${FSNAME}-MDT0000*.timeouts |
1884                 awk '/network/ {print $4}')
1885         WORST=$(lctl get_param -n mdc.${FSNAME}-MDT0000*.timeouts |
1886                 awk '/network/ {print $6}')
1887         echo "network timeout orig $ORIG, cur $CUR, worst $WORST"
1888         [ $WORST -gt $ORIG ] ||
1889                 error "Worst $WORST should be worse than orig $ORIG"
1890 }
1891 run_test 66b "AT: verify net latency adjusts"
1892
1893 test_67a() #bug 3055
1894 {
1895     remote_ost_nodsh && skip "remote OST with nodsh" && return 0
1896
1897     at_start || return 0
1898     CONN1=$(lctl get_param -n osc.*.stats | awk '/_connect/ {total+=$2} END {print total}')
1899     # sleeping threads may drive values above this
1900     do_facet ost1 "$LCTL set_param fail_val=400"
1901 #define OBD_FAIL_PTLRPC_PAUSE_REQ    0x50a
1902     do_facet ost1 "$LCTL set_param fail_loc=0x50a"
1903     createmany -o $DIR/$tfile 20 > /dev/null
1904     unlinkmany $DIR/$tfile 20 > /dev/null
1905     do_facet ost1 "$LCTL set_param fail_loc=0"
1906     CONN2=$(lctl get_param -n osc.*.stats | awk '/_connect/ {total+=$2} END {print total}')
1907     ATTEMPTS=$(($CONN2 - $CONN1))
1908     echo "$ATTEMPTS osc reconnect attempts on gradual slow"
1909         [ $ATTEMPTS -gt 0 ] &&
1910                 error_ignore bz13721 "AT should have prevented reconnect"
1911         return 0
1912 }
1913 run_test 67a "AT: verify slow request processing doesn't induce reconnects"
1914
1915 test_67b() #bug 3055
1916 {
1917     remote_ost_nodsh && skip "remote OST with nodsh" && return 0
1918
1919     at_start || return 0
1920     CONN1=$(lctl get_param -n osc.*.stats | awk '/_connect/ {total+=$2} END {print total}')
1921
1922     # exhaust precreations on ost1
1923     local OST=$(ostname_from_index 0)
1924     local mdtosc=$(get_mdtosc_proc_path mds $OST)
1925     local last_id=$(do_facet $SINGLEMDS lctl get_param -n \
1926         osc.$mdtosc.prealloc_last_id)
1927     local next_id=$(do_facet $SINGLEMDS lctl get_param -n \
1928         osc.$mdtosc.prealloc_next_id)
1929
1930         mkdir -p $DIR/$tdir/${OST} || error "mkdir $DIR/$tdir/${OST} failed"
1931         $SETSTRIPE -i 0 -c 1 $DIR/$tdir/${OST} || error "$SETSTRIPE failed"
1932         echo "Creating to objid $last_id on ost $OST..."
1933 #define OBD_FAIL_OST_PAUSE_CREATE        0x223
1934     do_facet ost1 "$LCTL set_param fail_val=20000"
1935     do_facet ost1 "$LCTL set_param fail_loc=0x80000223"
1936     createmany -o $DIR/$tdir/${OST}/f $next_id $((last_id - next_id + 2))
1937
1938     client_reconnect
1939     do_facet ost1 "lctl get_param -n ost.OSS.ost_create.timeouts"
1940     log "phase 2"
1941     CONN2=$(lctl get_param -n osc.*.stats | awk '/_connect/ {total+=$2} END {print total}')
1942     ATTEMPTS=$(($CONN2 - $CONN1))
1943     echo "$ATTEMPTS osc reconnect attempts on instant slow"
1944     # do it again; should not timeout
1945     do_facet ost1 "$LCTL set_param fail_loc=0x80000223"
1946     cp /etc/profile $DIR/$tfile || error "cp failed"
1947     do_facet ost1 "$LCTL set_param fail_loc=0"
1948     client_reconnect
1949     do_facet ost1 "lctl get_param -n ost.OSS.ost_create.timeouts"
1950     CONN3=$(lctl get_param -n osc.*.stats | awk '/_connect/ {total+=$2} END {print total}')
1951     ATTEMPTS=$(($CONN3 - $CONN2))
1952     echo "$ATTEMPTS osc reconnect attempts on 2nd slow"
1953     [ $ATTEMPTS -gt 0 ] && error "AT should have prevented reconnect"
1954     return 0
1955 }
1956 run_test 67b "AT: verify instant slowdown doesn't induce reconnects"
1957
1958 test_68 () #bug 13813
1959 {
1960     remote_ost_nodsh && skip "remote OST with nodsh" && return 0
1961
1962     at_start || return 0
1963     local ldlm_enqueue_min=$(find /sys -name ldlm_enqueue_min)
1964     [ -z "$ldlm_enqueue_min" ] && skip "missing /sys/.../ldlm_enqueue_min" && return 0
1965     local ldlm_enqueue_min_r=$(do_facet ost1 "find /sys -name ldlm_enqueue_min")
1966     [ -z "$ldlm_enqueue_min_r" ] && skip "missing /sys/.../ldlm_enqueue_min in the ost1" && return 0
1967     local ENQ_MIN=$(cat $ldlm_enqueue_min)
1968     local ENQ_MIN_R=$(do_facet ost1 "cat $ldlm_enqueue_min_r")
1969         echo $TIMEOUT >> $ldlm_enqueue_min
1970         do_facet ost1 "echo $TIMEOUT >> $ldlm_enqueue_min_r"
1971
1972         mkdir $DIR/$tdir || error "mkdir $DIR/$tdir failed"
1973         $SETSTRIPE --stripe-index=0 -c 1 $DIR/$tdir ||
1974                 error "$SETSTRIPE failed for $DIR/$tdir"
1975         #define OBD_FAIL_LDLM_PAUSE_CANCEL       0x312
1976         $LCTL set_param fail_val=$(($TIMEOUT - 1))
1977         $LCTL set_param fail_loc=0x80000312
1978         cp /etc/profile $DIR/$tdir/${tfile}_1 || error "1st cp failed $?"
1979         $LCTL set_param fail_val=$((TIMEOUT * 5 / 4))
1980         $LCTL set_param fail_loc=0x80000312
1981         cp /etc/profile $DIR/$tdir/${tfile}_2 || error "2nd cp failed $?"
1982         $LCTL set_param fail_loc=0
1983
1984         echo $ENQ_MIN >> $ldlm_enqueue_min
1985         do_facet ost1 "echo $ENQ_MIN_R >> $ldlm_enqueue_min_r"
1986         rm -rf $DIR/$tdir
1987         return 0
1988 }
1989 run_test 68 "AT: verify slowing locks"
1990
1991 at_cleanup
1992 # end of AT tests includes above lines
1993
1994 # start multi-client tests
1995 test_70a () {
1996         [ -z "$CLIENTS" ] &&
1997                 { skip "Need two or more clients." && return; }
1998         [ $CLIENTCOUNT -lt 2 ] &&
1999                 { skip "Need two or more clients, have $CLIENTCOUNT" && return; }
2000
2001         echo "mount clients $CLIENTS ..."
2002         zconf_mount_clients $CLIENTS $MOUNT
2003
2004         local clients=${CLIENTS//,/ }
2005         echo "Write/read files on $DIR ; clients $CLIENTS ... "
2006         for CLIENT in $clients; do
2007                 do_node $CLIENT dd bs=1M count=10 if=/dev/zero \
2008                         of=$DIR/${tfile}_${CLIENT} 2>/dev/null ||
2009                                 error "dd failed on $CLIENT"
2010         done
2011
2012         local prev_client=$(echo $clients | sed 's/^.* \(.\+\)$/\1/')
2013         for C in ${CLIENTS//,/ }; do
2014                 do_node $prev_client dd if=$DIR/${tfile}_${C} \
2015                         of=/dev/null 2>/dev/null ||
2016                         error "dd if=$DIR/${tfile}_${C} failed on $prev_client"
2017                 prev_client=$C
2018         done
2019
2020         ls $DIR
2021 }
2022 run_test 70a "check multi client t-f"
2023
2024 check_for_process () {
2025         local clients=$1
2026         shift
2027         local prog=$@
2028
2029         killall_process $clients "$prog" -0
2030 }
2031
2032 test_70b () {
2033         local clients=${CLIENTS:-$HOSTNAME}
2034
2035         zconf_mount_clients $clients $MOUNT
2036
2037         local duration=300
2038         [ "$SLOW" = "no" ] && duration=120
2039         # set duration to 900 because it takes some time to boot node
2040         [ "$FAILURE_MODE" = HARD ] && duration=900
2041
2042         local elapsed
2043         local start_ts=$(date +%s)
2044         local cmd="rundbench 1 -t $duration"
2045         local pid=""
2046         if [ $MDSCOUNT -ge 2 ]; then
2047                 test_mkdir -p -c$MDSCOUNT $DIR/$tdir
2048                 $LFS setdirstripe -D -c$MDSCOUNT $DIR/$tdir
2049         fi
2050         do_nodesv $clients "set -x; MISSING_DBENCH_OK=$MISSING_DBENCH_OK \
2051                 PATH=\$PATH:$LUSTRE/utils:$LUSTRE/tests/:$DBENCH_LIB \
2052                 DBENCH_LIB=$DBENCH_LIB TESTSUITE=$TESTSUITE TESTNAME=$TESTNAME \
2053                 MOUNT=$MOUNT DIR=$DIR/$tdir/\\\$(hostname) LCTL=$LCTL $cmd" &
2054         pid=$!
2055
2056         #LU-1897 wait for all dbench copies to start
2057         while ! check_for_process $clients dbench; do
2058                 elapsed=$(($(date +%s) - start_ts))
2059                 if [ $elapsed -gt $duration ]; then
2060                         killall_process $clients dbench
2061                         error "dbench failed to start on $clients!"
2062                 fi
2063                 sleep 1
2064         done
2065
2066         log "Started rundbench load pid=$pid ..."
2067
2068         elapsed=$(($(date +%s) - start_ts))
2069         local num_failovers=0
2070         local fail_index=1
2071         while [ $elapsed -lt $duration ]; do
2072                 if ! check_for_process $clients dbench; then
2073                         error_noexit "dbench stopped on some of $clients!"
2074                         killall_process $clients dbench
2075                         break
2076                 fi
2077                 sleep 1
2078                 replay_barrier mds$fail_index
2079                 sleep 1 # give clients a time to do operations
2080                 # Increment the number of failovers
2081                 num_failovers=$((num_failovers+1))
2082                 log "$TESTNAME fail mds$fail_index $num_failovers times"
2083                 fail mds$fail_index
2084                 elapsed=$(($(date +%s) - start_ts))
2085                 if [ $fail_index -ge $MDSCOUNT ]; then
2086                         fail_index=1
2087                 else
2088                         fail_index=$((fail_index+1))
2089                 fi
2090         done
2091
2092         wait $pid || error "rundbench load on $clients failed!"
2093 }
2094 run_test 70b "dbench ${MDSCOUNT}mdts recovery; $CLIENTCOUNT clients"
2095 # end multi-client tests
2096
2097 random_fail_mdt() {
2098         local max_index=$1
2099         local duration=$2
2100         local monitor_pid=$3
2101         local elapsed
2102         local start_ts=$(date +%s)
2103         local num_failovers=0
2104         local fail_index
2105
2106         elapsed=$(($(date +%s) - start_ts))
2107         while [ $elapsed -lt $duration ]; do
2108                 fail_index=$((RANDOM%max_index+1))
2109                 kill -0 $monitor_pid ||
2110                         error "$monitor_pid stopped"
2111                 sleep 120
2112                 replay_barrier mds$fail_index
2113                 sleep 10
2114                 # Increment the number of failovers
2115                 num_failovers=$((num_failovers+1))
2116                 log "$TESTNAME fail mds$fail_index $num_failovers times"
2117                 fail mds$fail_index
2118                 elapsed=$(($(date +%s) - start_ts))
2119         done
2120 }
2121
2122 cleanup_70c() {
2123         trap 0
2124         rm -f $DIR/replay-single.70c.lck
2125         rm -rf /$DIR/$tdir
2126 }
2127
2128 test_70c () {
2129         local clients=${CLIENTS:-$HOSTNAME}
2130         local rc=0
2131
2132         zconf_mount_clients $clients $MOUNT
2133
2134         local duration=300
2135         [ "$SLOW" = "no" ] && duration=180
2136         # set duration to 900 because it takes some time to boot node
2137         [ "$FAILURE_MODE" = HARD ] && duration=600
2138
2139         local elapsed
2140         local start_ts=$(date +%s)
2141
2142         trap cleanup_70c EXIT
2143         (
2144                 while [ ! -e $DIR/replay-single.70c.lck ]; do
2145                         test_mkdir -p -c$MDSCOUNT $DIR/$tdir || break
2146                         if [ $MDSCOUNT -ge 2 ]; then
2147                                 $LFS setdirstripe -D -c$MDSCOUNT $DIR/$tdir ||
2148                                 error "set default dirstripe failed"
2149                         fi
2150                         cd $DIR/$tdir || break
2151                         tar cf - /etc | tar xf - || error "tar failed in loop"
2152                 done
2153         )&
2154         tar_70c_pid=$!
2155         echo "Started tar $tar_70c_pid"
2156
2157         random_fail_mdt $MDSCOUNT $duration $tar_70c_pid
2158         kill -0 $tar_70c_pid || error "tar $tar_70c_pid stopped"
2159
2160         touch $DIR/replay-single.70c.lck
2161         wait $tar_70c_pid || error "$?: tar failed"
2162
2163         cleanup_70c
2164         true
2165 }
2166 run_test 70c "tar ${MDSCOUNT}mdts recovery"
2167
2168 cleanup_70d() {
2169         trap 0
2170         kill -9 $mkdir_70d_pid
2171 }
2172
2173 test_70d () {
2174         [ $MDSCOUNT -lt 2 ] && skip "needs >= 2 MDTs" && return 0
2175         local clients=${CLIENTS:-$HOSTNAME}
2176         local rc=0
2177
2178         zconf_mount_clients $clients $MOUNT
2179
2180         local duration=300
2181         [ "$SLOW" = "no" ] && duration=180
2182         # set duration to 900 because it takes some time to boot node
2183         [ "$FAILURE_MODE" = HARD ] && duration=900
2184
2185         mkdir -p $DIR/$tdir
2186
2187         local elapsed
2188         local start_ts=$(date +%s)
2189
2190         trap cleanup_70d EXIT
2191         (
2192                 while true; do
2193                         $LFS mkdir -i0 -c2 $DIR/$tdir/test || {
2194                                 echo "mkdir fails"
2195                                 break
2196                         }
2197                         $LFS mkdir -i1 -c2 $DIR/$tdir/test1 || {
2198                                 echo "mkdir fails"
2199                                 break
2200                         }
2201
2202                         touch $DIR/$tdir/test/a || {
2203                                 echo "touch fails"
2204                                 break;
2205                         }
2206                         mkdir $DIR/$tdir/test/b || {
2207                                 echo "mkdir fails"
2208                                 break;
2209                         }
2210                         rm -rf $DIR/$tdir/test || {
2211                                 echo "rmdir fails"
2212                                 break
2213                         }
2214
2215                         touch $DIR/$tdir/test1/a || {
2216                                 echo "touch fails"
2217                                 break;
2218                         }
2219                         mkdir $DIR/$tdir/test1/b || {
2220                                 echo "mkdir fails"
2221                                 break;
2222                         }
2223
2224                         rm -rf $DIR/$tdir/test1 || {
2225                                 echo "rmdir fails"
2226                                 break
2227                         }
2228                 done
2229         )&
2230         mkdir_70d_pid=$!
2231         echo "Started  $mkdir_70d_pid"
2232
2233         random_fail_mdt $MDSCOUNT $duration $mkdir_70d_pid
2234         kill -0 $mkdir_70d_pid || error "mkdir/rmdir $mkdir_70d_pid stopped"
2235
2236         cleanup_70d
2237         true
2238 }
2239 run_test 70d "mkdir/rmdir striped dir ${MDSCOUNT}mdts recovery"
2240
2241 cleanup_70e() {
2242         trap 0
2243         kill -9 $rename_70e_pid
2244 }
2245
2246 test_70e () {
2247         [ $MDSCOUNT -lt 2 ] && skip "needs >= 2 MDTs" && return 0
2248         local clients=${CLIENTS:-$HOSTNAME}
2249         local rc=0
2250
2251         echo ha > /proc/sys/lnet/debug
2252         zconf_mount_clients $clients $MOUNT
2253
2254         local duration=300
2255         [ "$SLOW" = "no" ] && duration=180
2256         # set duration to 900 because it takes some time to boot node
2257         [ "$FAILURE_MODE" = HARD ] && duration=900
2258
2259         mkdir -p $DIR/$tdir
2260         $LFS mkdir -i0 $DIR/$tdir/test_0
2261         $LFS mkdir -i0 $DIR/$tdir/test_1
2262         touch $DIR/$tdir/test_0/a
2263         touch $DIR/$tdir/test_1/b
2264         trap cleanup_70e EXIT
2265         (
2266                 while true; do
2267                         mrename $DIR/$tdir/test_0/a $DIR/$tdir/test_1/b > \
2268                                                 /dev/null || {
2269                                 echo "a->b fails"
2270                                 break;
2271                         }
2272
2273                         checkstat $DIR/$tdir/test_0/a && {
2274                                 echo "a still exists"
2275                                 break
2276                         }
2277
2278                         checkstat $DIR/$tdir/test_1/b || {
2279                                 echo "b still  exists"
2280                                 break
2281                         }
2282
2283                         touch $DIR/$tdir/test_0/a || {
2284                                 echo "touch a fails"
2285                                 break
2286                         }
2287
2288                         mrename $DIR/$tdir/test_1/b $DIR/$tdir/test_0/a > \
2289                                                 /dev/null || {
2290                                 echo "a->a fails"
2291                                 break;
2292                         }
2293                 done
2294         )&
2295         rename_70e_pid=$!
2296         echo "Started  $rename_70e_pid"
2297
2298         random_fail_mdt 2 $duration $rename_70e_pid
2299         kill -0 $rename_70e_pid || error "rename $rename_70e_pid stopped"
2300
2301         cleanup_70e
2302         true
2303 }
2304 run_test 70e "rename cross-MDT with random fails"
2305
2306 test_70f_write_and_read(){
2307         local srcfile=$1
2308         local stopflag=$2
2309         local client
2310
2311         echo "Write/read files in: '$DIR/$tdir', clients: '$CLIENTS' ..."
2312         for client in ${CLIENTS//,/ }; do
2313                 [ -f $stopflag ] || return
2314
2315                 local tgtfile=$DIR/$tdir/$tfile.$client
2316                 do_node $client dd $DD_OPTS bs=1M count=10 if=$srcfile \
2317                         of=$tgtfile 2>/dev/null ||
2318                         error "dd $DD_OPTS bs=1M count=10 if=$srcfile " \
2319                               "of=$tgtfile failed on $client, rc=$?"
2320         done
2321
2322         local prev_client=$(echo ${CLIENTS//,/ } | awk '{ print $NF }')
2323         local index=0
2324
2325         for client in ${CLIENTS//,/ }; do
2326                 [ -f $stopflag ] || return
2327
2328                 # flush client cache in case test is running on only one client
2329                 # do_node $client cancel_lru_locks osc
2330                 do_node $client $LCTL set_param ldlm.namespaces.*.lru_size=clear
2331
2332                 tgtfile=$DIR/$tdir/$tfile.$client
2333                 local md5=$(do_node $prev_client "md5sum $tgtfile")
2334                 [ ${checksum[$index]// */} = ${md5// */} ] ||
2335                         error "$tgtfile: checksum doesn't match on $prev_client"
2336                 index=$((index + 1))
2337                 prev_client=$client
2338         done
2339 }
2340
2341 test_70f_loop(){
2342         local srcfile=$1
2343         local stopflag=$2
2344         DD_OPTS=
2345
2346         mkdir -p $DIR/$tdir || error "cannot create $DIR/$tdir directory"
2347         $SETSTRIPE -c -1 $DIR/$tdir || error "cannot $SETSTRIPE $DIR/$tdir"
2348
2349         touch $stopflag
2350         while [ -f $stopflag ]; do
2351                 test_70f_write_and_read $srcfile $stopflag
2352                 # use direct IO and buffer cache in turns if loop
2353                 [ -n "$DD_OPTS" ] && DD_OPTS="" || DD_OPTS="oflag=direct"
2354         done
2355 }
2356
2357 test_70f_cleanup() {
2358         trap 0
2359         rm -f $TMP/$tfile.stop
2360         do_nodes $CLIENTS rm -f $TMP/$tfile
2361         rm -f $DIR/$tdir/$tfile.*
2362 }
2363
2364 test_70f() {
2365 #       [ x$ost1failover_HOST = x$ost_HOST ] &&
2366 #               { skip "Failover host not defined" && return; }
2367 #       [ -z "$CLIENTS" ] &&
2368 #               { skip "CLIENTS are not specified." && return; }
2369 #       [ $CLIENTCOUNT -lt 2 ] &&
2370 #               { skip "Need 2 or more clients, have $CLIENTCOUNT" && return; }
2371
2372         [[ $(lustre_version_code ost1) -lt $(version_code 2.9.53) ]] &&
2373                 skip "Need server version at least 2.9.53" && return
2374
2375         echo "mount clients $CLIENTS ..."
2376         zconf_mount_clients $CLIENTS $MOUNT
2377
2378         local srcfile=$TMP/$tfile
2379         local client
2380         local index=0
2381
2382         trap test_70f_cleanup EXIT
2383         # create a different source file local to each client node so we can
2384         # detect if the file wasn't written out properly after failover
2385         do_nodes $CLIENTS dd bs=1M count=10 if=/dev/urandom of=$srcfile \
2386                 2>/dev/null || error "can't create $srcfile on $CLIENTS"
2387         for client in ${CLIENTS//,/ }; do
2388                 checksum[$index]=$(do_node $client "md5sum $srcfile")
2389                 index=$((index + 1))
2390         done
2391
2392         local duration=120
2393         [ "$SLOW" = "no" ] && duration=60
2394         # set duration to 900 because it takes some time to boot node
2395         [ "$FAILURE_MODE" = HARD ] && duration=900
2396
2397         local stopflag=$TMP/$tfile.stop
2398         test_70f_loop $srcfile $stopflag &
2399         local pid=$!
2400
2401         local elapsed=0
2402         local num_failovers=0
2403         local start_ts=$SECONDS
2404         while [ $elapsed -lt $duration ]; do
2405                 sleep 3
2406                 replay_barrier ost1
2407                 sleep 1
2408                 num_failovers=$((num_failovers + 1))
2409                 log "$TESTNAME failing OST $num_failovers times"
2410                 fail ost1
2411                 sleep 2
2412                 elapsed=$((SECONDS - start_ts))
2413         done
2414
2415         rm -f $stopflag
2416         wait $pid
2417         test_70f_cleanup
2418 }
2419 run_test 70f "OSS O_DIRECT recovery with $CLIENTCOUNT clients"
2420
2421 cleanup_71a() {
2422         trap 0
2423         kill -9 $mkdir_71a_pid
2424 }
2425
2426 random_double_fail_mdt() {
2427         local max_index=$1
2428         local duration=$2
2429         local monitor_pid=$3
2430         local elapsed
2431         local start_ts=$(date +%s)
2432         local num_failovers=0
2433         local fail_index
2434         local second_index
2435
2436         elapsed=$(($(date +%s) - start_ts))
2437         while [ $elapsed -lt $duration ]; do
2438                 fail_index=$((RANDOM%max_index + 1))
2439                 if [ $fail_index -eq $max_index ]; then
2440                         second_index=1
2441                 else
2442                         second_index=$((fail_index + 1))
2443                 fi
2444                 kill -0 $monitor_pid ||
2445                         error "$monitor_pid stopped"
2446                 sleep 120
2447                 replay_barrier mds$fail_index
2448                 replay_barrier mds$second_index
2449                 sleep 10
2450                 # Increment the number of failovers
2451                 num_failovers=$((num_failovers+1))
2452                 log "fail mds$fail_index mds$second_index $num_failovers times"
2453                 fail mds${fail_index},mds${second_index}
2454                 elapsed=$(($(date +%s) - start_ts))
2455         done
2456 }
2457
2458 test_71a () {
2459         [ $MDSCOUNT -lt 2 ] && skip "needs >= 2 MDTs" && return 0
2460         local clients=${CLIENTS:-$HOSTNAME}
2461         local rc=0
2462
2463         zconf_mount_clients $clients $MOUNT
2464
2465         local duration=300
2466         [ "$SLOW" = "no" ] && duration=180
2467         # set duration to 900 because it takes some time to boot node
2468         [ "$FAILURE_MODE" = HARD ] && duration=900
2469
2470         mkdir -p $DIR/$tdir
2471
2472         local elapsed
2473         local start_ts=$(date +%s)
2474
2475         trap cleanup_71a EXIT
2476         (
2477                 while true; do
2478                         $LFS mkdir -i0 -c2 $DIR/$tdir/test
2479                         rmdir $DIR/$tdir/test
2480                 done
2481         )&
2482         mkdir_71a_pid=$!
2483         echo "Started  $mkdir_71a_pid"
2484
2485         random_double_fail_mdt 2 $duration $mkdir_71a_pid
2486         kill -0 $mkdir_71a_pid || error "mkdir/rmdir $mkdir_71a_pid stopped"
2487
2488         cleanup_71a
2489         true
2490 }
2491 run_test 71a "mkdir/rmdir striped dir with 2 mdts recovery"
2492
2493 test_73a() {
2494         multiop_bg_pause $DIR/$tfile O_tSc ||
2495                 error "multiop_bg_pause $DIR/$tfile failed"
2496         pid=$!
2497         rm -f $DIR/$tfile
2498
2499         replay_barrier $SINGLEMDS
2500         #define OBD_FAIL_LDLM_ENQUEUE_NET                       0x302
2501         do_facet $SINGLEMDS "lctl set_param fail_loc=0x80000302"
2502         fail $SINGLEMDS
2503         kill -USR1 $pid
2504         wait $pid || error "multiop pid failed"
2505         [ -e $DIR/$tfile ] && error "file $DIR/$tfile should not exist"
2506         return 0
2507 }
2508 run_test 73a "open(O_CREAT), unlink, replay, reconnect before open replay, close"
2509
2510 test_73b() {
2511         multiop_bg_pause $DIR/$tfile O_tSc ||
2512                 error "multiop_bg_pause $DIR/$tfile failed"
2513         pid=$!
2514         rm -f $DIR/$tfile
2515
2516         replay_barrier $SINGLEMDS
2517         #define OBD_FAIL_LDLM_REPLY       0x30c
2518         do_facet $SINGLEMDS "lctl set_param fail_loc=0x8000030c"
2519         fail $SINGLEMDS
2520         kill -USR1 $pid
2521         wait $pid || error "multiop pid failed"
2522         [ -e $DIR/$tfile ] && error "file $DIR/$tfile should not exist"
2523         return 0
2524 }
2525 run_test 73b "open(O_CREAT), unlink, replay, reconnect at open_replay reply, close"
2526
2527 # bug 18554
2528 test_74() {
2529         local clients=${CLIENTS:-$HOSTNAME}
2530
2531         zconf_umount_clients $clients $MOUNT
2532         stop ost1
2533         facet_failover $SINGLEMDS
2534         zconf_mount_clients $clients $MOUNT
2535         mount_facet ost1
2536         touch $DIR/$tfile || error "touch $DIR/$tfile failed"
2537         rm $DIR/$tfile || error "rm $DIR/$tfile failed"
2538         clients_up || error "client evicted: $?"
2539         return 0
2540 }
2541 run_test 74 "Ensure applications don't fail waiting for OST recovery"
2542
2543 remote_dir_check_80() {
2544         local MDTIDX=1
2545         local diridx
2546         local fileidx
2547
2548         diridx=$($GETSTRIPE -M $remote_dir) ||
2549                 error "$GETSTRIPE -M $remote_dir failed"
2550         [ $diridx -eq $MDTIDX ] || error "$diridx != $MDTIDX"
2551
2552         createmany -o $remote_dir/f-%d 20 || error "creation failed"
2553         fileidx=$($GETSTRIPE -M $remote_dir/f-1) ||
2554                 error "$GETSTRIPE -M $remote_dir/f-1 failed"
2555         [ $fileidx -eq $MDTIDX ] || error "$fileidx != $MDTIDX"
2556
2557         return 0
2558 }
2559
2560 test_80a() {
2561         [ $MDSCOUNT -lt 2 ] && skip "needs >= 2 MDTs" && return 0
2562         ([ $FAILURE_MODE == "HARD" ] &&
2563                 [ "$(facet_host mds1)" == "$(facet_host mds2)" ]) &&
2564                 skip "MDTs needs to be on diff hosts for HARD fail mode" &&
2565                 return 0
2566
2567         local MDTIDX=1
2568         local remote_dir=$DIR/$tdir/remote_dir
2569
2570         mkdir -p $DIR/$tdir || error "mkdir $DIR/$tdir failed"
2571         #define OBD_FAIL_OUT_UPDATE_NET_REP     0x1701
2572         do_facet mds${MDTIDX} lctl set_param fail_loc=0x1701
2573         $LFS mkdir -i $MDTIDX $remote_dir &
2574         local CLIENT_PID=$!
2575
2576         replay_barrier mds1
2577         fail mds${MDTIDX}
2578
2579         wait $CLIENT_PID || error "remote creation failed"
2580
2581         remote_dir_check_80 || error "remote dir check failed"
2582         rm -rf $DIR/$tdir || error "rmdir failed"
2583
2584         return 0
2585 }
2586 run_test 80a "DNE: create remote dir, drop update rep from MDT0, fail MDT0"
2587
2588 test_80b() {
2589         [ $MDSCOUNT -lt 2 ] && skip "needs >= 2 MDTs" && return 0
2590         ([ $FAILURE_MODE == "HARD" ] &&
2591                 [ "$(facet_host mds1)" == "$(facet_host mds2)" ]) &&
2592                 skip "MDTs needs to be on diff hosts for HARD fail mode" &&
2593                 return 0
2594
2595         local MDTIDX=1
2596         local remote_dir=$DIR/$tdir/remote_dir
2597
2598         mkdir $DIR/$tdir || error "mkdir $DIR/$tdir failed"
2599         #define OBD_FAIL_UPDATE_OBJ_NET_REP     0x1701
2600         do_facet mds${MDTIDX} lctl set_param fail_loc=0x1701
2601         $LFS mkdir -i $MDTIDX $remote_dir &
2602         local CLIENT_PID=$!
2603
2604         replay_barrier mds1
2605         replay_barrier mds2
2606         fail mds$((MDTIDX + 1))
2607
2608         wait $CLIENT_PID || error "remote creation failed"
2609
2610         remote_dir_check_80 || error "remote dir check failed"
2611         rm -rf $DIR/$tdir || error "rmdir failed"
2612
2613         return 0
2614 }
2615 run_test 80b "DNE: create remote dir, drop update rep from MDT0, fail MDT1"
2616
2617 test_80c() {
2618         [ $MDSCOUNT -lt 2 ] && skip "needs >= 2 MDTs" && return 0
2619         ([ $FAILURE_MODE == "HARD" ] &&
2620                 [ "$(facet_host mds1)" == "$(facet_host mds2)" ]) &&
2621                 skip "MDTs needs to be on diff hosts for HARD fail mode" &&
2622                 return 0
2623
2624         local MDTIDX=1
2625         local remote_dir=$DIR/$tdir/remote_dir
2626
2627         mkdir $DIR/$tdir || error "mkdir $DIR/$tdir failed"
2628         #define OBD_FAIL_UPDATE_OBJ_NET_REP     0x1701
2629         do_facet mds${MDTIDX} lctl set_param fail_loc=0x1701
2630         $LFS mkdir -i $MDTIDX $remote_dir &
2631         local CLIENT_PID=$!
2632
2633         replay_barrier mds1
2634         replay_barrier mds2
2635         fail mds${MDTIDX}
2636         fail mds$((MDTIDX + 1))
2637
2638         wait $CLIENT_PID || error "remote creation failed"
2639
2640         remote_dir_check_80 || error "remote dir check failed"
2641         rm -rf $DIR/$tdir || error "rmdir failed"
2642
2643         return 0
2644 }
2645 run_test 80c "DNE: create remote dir, drop update rep from MDT1, fail MDT[0,1]"
2646
2647 test_80d() {
2648         [ $MDSCOUNT -lt 2 ] && skip "needs >= 2 MDTs" && return 0
2649         local MDTIDX=1
2650         local remote_dir=$DIR/$tdir/remote_dir
2651
2652         mkdir $DIR/$tdir || error "mkdir $DIR/$tdir failed"
2653         #define OBD_FAIL_UPDATE_OBJ_NET_REP     0x1701
2654         do_facet mds${MDTIDX} lctl set_param fail_loc=0x1701
2655         $LFS mkdir -i $MDTIDX $remote_dir &
2656         local CLIENT_PID=$!
2657
2658         # sleep 3 seconds to make sure MDTs are failed after
2659         # lfs mkdir -i has finished on all of MDTs.
2660         sleep 3
2661
2662         replay_barrier mds1
2663         replay_barrier mds2
2664         fail mds${MDTIDX},mds$((MDTIDX + 1))
2665
2666         wait $CLIENT_PID || error "remote creation failed"
2667
2668         remote_dir_check_80 || error "remote dir check failed"
2669         rm -rf $DIR/$tdir || error "rmdir failed"
2670
2671         return 0
2672 }
2673 run_test 80d "DNE: create remote dir, drop update rep from MDT1, fail 2 MDTs"
2674
2675 test_80e() {
2676         [ $MDSCOUNT -lt 2 ] && skip "needs >= 2 MDTs" && return 0
2677         ([ $FAILURE_MODE == "HARD" ] &&
2678                 [ "$(facet_host mds1)" == "$(facet_host mds2)" ]) &&
2679                 skip "MDTs needs to be on diff hosts for HARD fail mode" &&
2680                 return 0
2681
2682         local MDTIDX=1
2683         local remote_dir=$DIR/$tdir/remote_dir
2684
2685         mkdir $DIR/$tdir || error "mkdir $DIR/$tdir failed"
2686         # OBD_FAIL_MDS_REINT_NET_REP       0x119
2687         do_facet mds$((MDTIDX + 1)) lctl set_param fail_loc=0x119
2688         $LFS mkdir -i $MDTIDX $remote_dir &
2689         local CLIENT_PID=$!
2690
2691         # sleep 3 seconds to make sure MDTs are failed after
2692         # lfs mkdir -i has finished on all of MDTs.
2693         sleep 3
2694
2695         replay_barrier mds1
2696         fail mds${MDTIDX}
2697
2698         wait $CLIENT_PID || error "remote creation failed"
2699
2700         remote_dir_check_80 || error "remote dir check failed"
2701         rm -rf $DIR/$tdir || error "rmdir failed"
2702
2703         return 0
2704 }
2705 run_test 80e "DNE: create remote dir, drop MDT1 rep, fail MDT0"
2706
2707 test_80f() {
2708         [ $MDSCOUNT -lt 2 ] && skip "needs >= 2 MDTs" && return 0
2709         ([ $FAILURE_MODE == "HARD" ] &&
2710                 [ "$(facet_host mds1)" == "$(facet_host mds2)" ]) &&
2711                 skip "MDTs needs to be on diff hosts for HARD fail mode" &&
2712                 return 0
2713         local MDTIDX=1
2714         local remote_dir=$DIR/$tdir/remote_dir
2715
2716         mkdir $DIR/$tdir || error "mkdir $DIR/$tdir failed"
2717         # OBD_FAIL_MDS_REINT_NET_REP       0x119
2718         do_facet mds$((MDTIDX + 1)) lctl set_param fail_loc=0x119
2719         $LFS mkdir -i $MDTIDX $remote_dir &
2720         local CLIENT_PID=$!
2721
2722         replay_barrier mds2
2723         fail mds$((MDTIDX + 1))
2724
2725         wait $CLIENT_PID || error "remote creation failed"
2726
2727         remote_dir_check_80 || error "remote dir check failed"
2728         rm -rf $DIR/$tdir || error "rmdir failed"
2729
2730         return 0
2731 }
2732 run_test 80f "DNE: create remote dir, drop MDT1 rep, fail MDT1"
2733
2734 test_80g() {
2735         [ $MDSCOUNT -lt 2 ] && skip "needs >= 2 MDTs" && return 0
2736         ([ $FAILURE_MODE == "HARD" ] &&
2737                 [ "$(facet_host mds1)" == "$(facet_host mds2)" ]) &&
2738                 skip "MDTs needs to be on diff hosts for HARD fail mode" &&
2739                 return 0
2740
2741         local MDTIDX=1
2742         local remote_dir=$DIR/$tdir/remote_dir
2743
2744         mkdir $DIR/$tdir || error "mkdir $DIR/$tdir failed"
2745         # OBD_FAIL_MDS_REINT_NET_REP       0x119
2746         do_facet mds$((MDTIDX + 1)) lctl set_param fail_loc=0x119
2747         $LFS mkdir -i $MDTIDX $remote_dir &
2748         local CLIENT_PID=$!
2749
2750         # sleep 3 seconds to make sure MDTs are failed after
2751         # lfs mkdir -i has finished on all of MDTs.
2752         sleep 3
2753
2754         replay_barrier mds1
2755         replay_barrier mds2
2756         fail mds${MDTIDX}
2757         fail mds$((MDTIDX + 1))
2758
2759         wait $CLIENT_PID || error "remote creation failed"
2760
2761         remote_dir_check_80 || error "remote dir check failed"
2762         rm -rf $DIR/$tdir || error "rmdir failed"
2763
2764         return 0
2765 }
2766 run_test 80g "DNE: create remote dir, drop MDT1 rep, fail MDT0, then MDT1"
2767
2768 test_80h() {
2769         [ $MDSCOUNT -lt 2 ] && skip "needs >= 2 MDTs" && return 0
2770         local MDTIDX=1
2771         local remote_dir=$DIR/$tdir/remote_dir
2772
2773         mkdir $DIR/$tdir || error "mkdir $DIR/$tdir failed"
2774         # OBD_FAIL_MDS_REINT_NET_REP       0x119
2775         do_facet mds$((MDTIDX + 1)) lctl set_param fail_loc=0x119
2776         $LFS mkdir -i $MDTIDX $remote_dir &
2777         local CLIENT_PID=$!
2778
2779         # sleep 3 seconds to make sure MDTs are failed after
2780         # lfs mkdir -i has finished on all of MDTs.
2781         sleep 3
2782
2783         replay_barrier mds1
2784         replay_barrier mds2
2785         fail mds${MDTIDX},mds$((MDTIDX + 1))
2786
2787         wait $CLIENT_PID || error "remote dir creation failed"
2788
2789         remote_dir_check_80 || error "remote dir check failed"
2790         rm -rf $DIR/$tdir || error "rmdir failed"
2791
2792         return 0
2793 }
2794 run_test 80h "DNE: create remote dir, drop MDT1 rep, fail 2 MDTs"
2795
2796 test_81a() {
2797         [ $MDSCOUNT -lt 2 ] && skip "needs >= 2 MDTs" && return 0
2798         ([ $FAILURE_MODE == "HARD" ] &&
2799                 [ "$(facet_host mds1)" == "$(facet_host mds2)" ]) &&
2800                 skip "MDTs needs to be on diff hosts for HARD fail mode" &&
2801                 return 0
2802
2803         local MDTIDX=1
2804         local remote_dir=$DIR/$tdir/remote_dir
2805
2806         mkdir $DIR/$tdir || error "mkdir $DIR/$tdir failed"
2807         $LFS mkdir -i $MDTIDX $remote_dir || error "lfs mkdir failed"
2808
2809         touch $remote_dir || error "touch $remote_dir failed"
2810         # OBD_FAIL_OBJ_UPDATE_NET_REP       0x1701
2811         do_facet mds${MDTIDX} lctl set_param fail_loc=0x1701
2812         rmdir $remote_dir &
2813         local CLIENT_PID=$!
2814
2815         replay_barrier mds2
2816         fail mds$((MDTIDX + 1))
2817
2818         wait $CLIENT_PID || error "rm remote dir failed"
2819
2820         stat $remote_dir &>/dev/null && error "$remote_dir still exist!"
2821
2822         rm -rf $DIR/$tdir || error "rmdir failed"
2823
2824         return 0
2825 }
2826 run_test 81a "DNE: unlink remote dir, drop MDT0 update rep,  fail MDT1"
2827
2828 test_81b() {
2829         [ $MDSCOUNT -lt 2 ] && skip "needs >= 2 MDTs" && return 0
2830         ([ $FAILURE_MODE == "HARD" ] &&
2831                 [ "$(facet_host mds1)" == "$(facet_host mds2)" ]) &&
2832                 skip "MDTs needs to be on diff hosts for HARD fail mode" &&
2833                 return 0
2834         local MDTIDX=1
2835         local remote_dir=$DIR/$tdir/remote_dir
2836
2837         mkdir $DIR/$tdir || error "mkdir $DIR/$tdir failed"
2838         $LFS mkdir -i $MDTIDX $remote_dir || error "lfs mkdir failed"
2839
2840         # OBD_FAIL_OBJ_UPDATE_NET_REP       0x1701
2841         do_facet mds${MDTIDX} lctl set_param fail_loc=0x1701
2842         rmdir $remote_dir &
2843         local CLIENT_PID=$!
2844
2845         replay_barrier mds1
2846         fail mds${MDTIDX}
2847
2848         wait $CLIENT_PID || error "rm remote dir failed"
2849
2850         stat $remote_dir &>/dev/null && error "$remote_dir still exist!"
2851
2852         rm -rf $DIR/$tdir || error "rmdir failed"
2853
2854         return 0
2855 }
2856 run_test 81b "DNE: unlink remote dir, drop MDT0 update reply,  fail MDT0"
2857
2858 test_81c() {
2859         [ $MDSCOUNT -lt 2 ] && skip "needs >= 2 MDTs" && return 0
2860         ([ $FAILURE_MODE == "HARD" ] &&
2861                 [ "$(facet_host mds1)" == "$(facet_host mds2)" ]) &&
2862                 skip "MDTs needs to be on diff hosts for HARD fail mode" &&
2863                 return 0
2864
2865         local MDTIDX=1
2866         local remote_dir=$DIR/$tdir/remote_dir
2867
2868         mkdir $DIR/$tdir || error "mkdir $DIR/$tdir failed"
2869         $LFS mkdir -i $MDTIDX $remote_dir || error "lfs mkdir failed"
2870
2871         # OBD_FAIL_OBJ_UPDATE_NET_REP       0x1701
2872         do_facet mds${MDTIDX} lctl set_param fail_loc=0x1701
2873         rmdir $remote_dir &
2874         local CLIENT_PID=$!
2875
2876         replay_barrier mds1
2877         replay_barrier mds2
2878         fail mds${MDTIDX}
2879         fail mds$((MDTIDX + 1))
2880
2881         wait $CLIENT_PID || error "rm remote dir failed"
2882
2883         stat $remote_dir &>/dev/null && error "$remote_dir still exist!"
2884
2885         rm -rf $DIR/$tdir || error "rmdir failed"
2886
2887         return 0
2888 }
2889 run_test 81c "DNE: unlink remote dir, drop MDT0 update reply, fail MDT0,MDT1"
2890
2891 test_81d() {
2892         [ $MDSCOUNT -lt 2 ] && skip "needs >= 2 MDTs" && return 0
2893         local MDTIDX=1
2894         local remote_dir=$DIR/$tdir/remote_dir
2895
2896         mkdir $DIR/$tdir || error "mkdir $DIR/$tdir failed"
2897         $LFS mkdir -i $MDTIDX $remote_dir || error "lfs mkdir failed"
2898
2899         # OBD_FAIL_OBJ_UPDATE_NET_REP       0x1701
2900         do_facet mds${MDTIDX} lctl set_param fail_loc=0x1701
2901         rmdir $remote_dir &
2902         local CLIENT_PID=$!
2903
2904         replay_barrier mds1
2905         replay_barrier mds2
2906         fail mds${MDTIDX},mds$((MDTIDX + 1))
2907
2908         wait $CLIENT_PID || error "rm remote dir failed"
2909
2910         stat $remote_dir &>/dev/null && error "$remote_dir still exist!"
2911
2912         rm -rf $DIR/$tdir || error "rmdir failed"
2913
2914         return 0
2915 }
2916 run_test 81d "DNE: unlink remote dir, drop MDT0 update reply,  fail 2 MDTs"
2917
2918 test_81e() {
2919         [ $MDSCOUNT -lt 2 ] && skip "needs >= 2 MDTs" && return 0
2920         ([ $FAILURE_MODE == "HARD" ] &&
2921                 [ "$(facet_host mds1)" == "$(facet_host mds2)" ]) &&
2922                 skip "MDTs needs to be on diff hosts for HARD fail mode" &&
2923                 return 0
2924
2925         local MDTIDX=1
2926         local remote_dir=$DIR/$tdir/remote_dir
2927
2928         mkdir $DIR/$tdir || error "mkdir $DIR/$tdir failed"
2929         $LFS mkdir -i $MDTIDX $remote_dir || error "lfs mkdir failed"
2930
2931         # OBD_FAIL_MDS_REINT_NET_REP       0x119
2932         do_facet mds$((MDTIDX + 1)) lctl set_param fail_loc=0x119
2933         rmdir $remote_dir &
2934         local CLIENT_PID=$!
2935         do_facet mds$((MDTIDX + 1)) lctl set_param fail_loc=0
2936
2937         replay_barrier mds1
2938         fail mds${MDTIDX}
2939
2940         wait $CLIENT_PID || error "rm remote dir failed"
2941
2942         stat $remote_dir &>/dev/null && error "$remote_dir still exist!"
2943
2944         rm -rf $DIR/$tdir || error "rmdir failed"
2945
2946         return 0
2947 }
2948 run_test 81e "DNE: unlink remote dir, drop MDT1 req reply, fail MDT0"
2949
2950 test_81f() {
2951         [ $MDSCOUNT -lt 2 ] && skip "needs >= 2 MDTs" && return 0
2952         ([ $FAILURE_MODE == "HARD" ] &&
2953                 [ "$(facet_host mds1)" == "$(facet_host mds2)" ]) &&
2954                 skip "MDTs needs to be on diff hosts for HARD fail mode" &&
2955                 return 0
2956
2957         local MDTIDX=1
2958         local remote_dir=$DIR/$tdir/remote_dir
2959
2960         mkdir $DIR/$tdir || error "mkdir $DIR/$tdir failed"
2961         $LFS mkdir -i $MDTIDX $remote_dir || error "lfs mkdir failed"
2962
2963         # OBD_FAIL_MDS_REINT_NET_REP       0x119
2964         do_facet mds$((MDTIDX + 1)) lctl set_param fail_loc=0x119
2965         rmdir $remote_dir &
2966         local CLIENT_PID=$!
2967
2968         replay_barrier mds2
2969         fail mds$((MDTIDX + 1))
2970
2971         wait $CLIENT_PID || error "rm remote dir failed"
2972
2973         stat $remote_dir &>/dev/null && error "$remote_dir still exist!"
2974
2975         rm -rf $DIR/$tdir || error "rmdir failed"
2976
2977         return 0
2978 }
2979 run_test 81f "DNE: unlink remote dir, drop MDT1 req reply, fail MDT1"
2980
2981 test_81g() {
2982         [ $MDSCOUNT -lt 2 ] && skip "needs >= 2 MDTs" && return 0
2983         ([ $FAILURE_MODE == "HARD" ] &&
2984                 [ "$(facet_host mds1)" == "$(facet_host mds2)" ]) &&
2985                 skip "MDTs needs to be on diff hosts for HARD fail mode" &&
2986                 return 0
2987
2988         local MDTIDX=1
2989         local remote_dir=$DIR/$tdir/remote_dir
2990
2991         mkdir $DIR/$tdir || error "mkdir $DIR/$tdir failed"
2992         $LFS mkdir -i $MDTIDX $remote_dir || error "lfs mkdir failed"
2993
2994         # OBD_FAIL_MDS_REINT_NET_REP       0x119
2995         do_facet mds$((MDTIDX + 1)) lctl set_param fail_loc=0x119
2996         rmdir $remote_dir &
2997         local CLIENT_PID=$!
2998
2999         replay_barrier mds1
3000         replay_barrier mds2
3001         fail mds${MDTIDX}
3002         fail mds$((MDTIDX + 1))
3003
3004         wait $CLIENT_PID || error "rm remote dir failed"
3005
3006         stat $remote_dir &>/dev/null && error "$remote_dir still exist!"
3007
3008         rm -rf $DIR/$tdir || error "rmdir failed"
3009
3010         return 0
3011 }
3012 run_test 81g "DNE: unlink remote dir, drop req reply, fail M0, then M1"
3013
3014 test_81h() {
3015         [ $MDSCOUNT -lt 2 ] && skip "needs >= 2 MDTs" && return 0
3016         local MDTIDX=1
3017         local remote_dir=$DIR/$tdir/remote_dir
3018
3019         mkdir $DIR/$tdir || error "mkdir $DIR/$tdir failed"
3020         $LFS mkdir -i $MDTIDX $remote_dir || error "lfs mkdir failed"
3021
3022         # OBD_FAIL_MDS_REINT_NET_REP       0x119
3023         do_facet mds$((MDTIDX + 1)) lctl set_param fail_loc=0x119
3024         rmdir $remote_dir &
3025         local CLIENT_PID=$!
3026
3027         replay_barrier mds1
3028         replay_barrier mds2
3029         fail mds${MDTIDX},mds$((MDTIDX + 1))
3030
3031         wait $CLIENT_PID || error "rm remote dir failed"
3032
3033         stat $remote_dir &>/dev/null && error "$remote_dir still exist!"
3034
3035         rm -rf $DIR/$tdir || error "rmdir failed"
3036
3037         return 0
3038 }
3039 run_test 81h "DNE: unlink remote dir, drop request reply, fail 2 MDTs"
3040
3041 test_84a() {
3042 #define OBD_FAIL_MDS_OPEN_WAIT_CREATE  0x144
3043     do_facet $SINGLEMDS "lctl set_param fail_loc=0x80000144"
3044     createmany -o $DIR/$tfile- 1 &
3045     PID=$!
3046     mds_evict_client
3047     wait $PID
3048     client_up || client_up || true    # reconnect
3049 }
3050 run_test 84a "stale open during export disconnect"
3051
3052 test_85a() { #bug 16774
3053         lctl set_param -n ldlm.cancel_unused_locks_before_replay "1"
3054
3055         for i in $(seq 100); do
3056                 echo "tag-$i" > $DIR/$tfile-$i
3057                 grep -q "tag-$i" $DIR/$tfile-$i || error "f2-$i"
3058         done
3059
3060         lov_id=$(lctl dl | grep "clilov")
3061         addr=$(echo $lov_id | awk '{print $4}' | awk -F '-' '{print $NF}')
3062         count=$(lctl get_param -n \
3063                 ldlm.namespaces.*MDT0000*$addr.lock_unused_count)
3064         echo "before recovery: unused locks count = $count"
3065
3066         fail $SINGLEMDS
3067
3068         count2=$(lctl get_param -n \
3069                  ldlm.namespaces.*MDT0000*$addr.lock_unused_count)
3070         echo "after recovery: unused locks count = $count2"
3071
3072         if [ $count2 -ge $count ]; then
3073                 error "unused locks are not canceled"
3074         fi
3075 }
3076 run_test 85a "check the cancellation of unused locks during recovery(IBITS)"
3077
3078 test_85b() { #bug 16774
3079         lctl set_param -n ldlm.cancel_unused_locks_before_replay "1"
3080
3081         create_pool $FSNAME.$TESTNAME ||
3082                 error "unable to create pool $TESTNAME"
3083         do_facet mgs $LCTL pool_add $FSNAME.$TESTNAME $FSNAME-OST0000 ||
3084                 error "unable to add pool $TESTNAME"
3085
3086         $SETSTRIPE -c 1 -p $FSNAME.$TESTNAME $DIR
3087
3088         for i in $(seq 100); do
3089                 dd if=/dev/urandom of=$DIR/$tfile-$i bs=4096 \
3090                         count=32 >/dev/null 2>&1
3091         done
3092
3093         cancel_lru_locks osc
3094
3095         for i in $(seq 100); do
3096                 dd if=$DIR/$tfile-$i of=/dev/null bs=4096 \
3097                         count=32 >/dev/null 2>&1
3098         done
3099
3100         lov_id=$(lctl dl | grep "clilov")
3101         addr=$(echo $lov_id | awk '{print $4}' | awk -F '-' '{print $NF}')
3102         count=$(lctl get_param -n \
3103                           ldlm.namespaces.*OST0000*$addr.lock_unused_count)
3104         echo "before recovery: unused locks count = $count"
3105         [ $count -ne 0 ] || error "unused locks ($count) should be zero"
3106
3107         fail ost1
3108
3109         count2=$(lctl get_param \
3110                  -n ldlm.namespaces.*OST0000*$addr.lock_unused_count)
3111         echo "after recovery: unused locks count = $count2"
3112
3113         do_facet mgs $LCTL pool_remove $FSNAME.$TESTNAME $FSNAME-OST0000 ||
3114                 error "unable to remove pool $TESTNAME"
3115         do_facet mgs $LCTL pool_destroy $FSNAME.$TESTNAME ||
3116                 error "unable to destroy the pool $TESTNAME"
3117
3118         if [ $count2 -ge $count ]; then
3119                 error "unused locks are not canceled"
3120         fi
3121 }
3122 run_test 85b "check the cancellation of unused locks during recovery(EXTENT)"
3123
3124 test_86() {
3125         local clients=${CLIENTS:-$HOSTNAME}
3126
3127         zconf_umount_clients $clients $MOUNT
3128         do_facet $SINGLEMDS lctl set_param mdt.${FSNAME}-MDT*.exports.clear=0
3129         remount_facet $SINGLEMDS
3130         zconf_mount_clients $clients $MOUNT
3131 }
3132 run_test 86 "umount server after clear nid_stats should not hit LBUG"
3133
3134 test_87a() {
3135         do_facet ost1 "lctl set_param -n obdfilter.${ost1_svc}.sync_journal 0"
3136
3137         replay_barrier ost1
3138         $SETSTRIPE -i 0 -c 1 $DIR/$tfile
3139         dd if=/dev/urandom of=$DIR/$tfile bs=1024k count=8 ||
3140                 error "dd to $DIR/$tfile failed"
3141         cksum=$(md5sum $DIR/$tfile | awk '{print $1}')
3142         cancel_lru_locks osc
3143         fail ost1
3144         dd if=$DIR/$tfile of=/dev/null bs=1024k count=8 || error "Cannot read"
3145         cksum2=$(md5sum $DIR/$tfile | awk '{print $1}')
3146         if [ $cksum != $cksum2 ] ; then
3147                 error "New checksum $cksum2 does not match original $cksum"
3148         fi
3149 }
3150 run_test 87a "write replay"
3151
3152 test_87b() {
3153         do_facet ost1 "lctl set_param -n obdfilter.${ost1_svc}.sync_journal 0"
3154
3155         replay_barrier ost1
3156         $SETSTRIPE -i 0 -c 1 $DIR/$tfile
3157         dd if=/dev/urandom of=$DIR/$tfile bs=1024k count=8 ||
3158                 error "dd to $DIR/$tfile failed"
3159         sleep 1 # Give it a chance to flush dirty data
3160         echo TESTTEST | dd of=$DIR/$tfile bs=1 count=8 seek=64
3161         cksum=$(md5sum $DIR/$tfile | awk '{print $1}')
3162         cancel_lru_locks osc
3163         fail ost1
3164         dd if=$DIR/$tfile of=/dev/null bs=1024k count=8 || error "Cannot read"
3165         cksum2=$(md5sum $DIR/$tfile | awk '{print $1}')
3166         if [ $cksum != $cksum2 ] ; then
3167                 error "New checksum $cksum2 does not match original $cksum"
3168         fi
3169 }
3170 run_test 87b "write replay with changed data (checksum resend)"
3171
3172 test_88() { #bug 17485
3173         mkdir $DIR/$tdir || error "mkdir $DIR/$tdir failed"
3174         mkdir -p $TMP/$tdir || error "mkdir $TMP/$tdir failed"
3175
3176         $SETSTRIPE -i 0 -c 1 $DIR/$tdir || error "$SETSTRIPE"
3177
3178         replay_barrier ost1
3179         replay_barrier $SINGLEMDS
3180
3181     # exhaust precreations on ost1
3182     local OST=$(ostname_from_index 0)
3183     local mdtosc=$(get_mdtosc_proc_path $SINGLEMDS $OST)
3184     local last_id=$(do_facet $SINGLEMDS lctl get_param -n osc.$mdtosc.prealloc_last_id)
3185     local next_id=$(do_facet $SINGLEMDS lctl get_param -n osc.$mdtosc.prealloc_next_id)
3186         echo "before test: last_id = $last_id, next_id = $next_id"
3187
3188         echo "Creating to objid $last_id on ost $OST..."
3189         createmany -o $DIR/$tdir/f-%d $next_id $((last_id - next_id + 2)) ||
3190                 error "createmany create files to last_id failed"
3191
3192         #create some files to use some uncommitted objids
3193         last_id=$(($last_id + 1))
3194         createmany -o $DIR/$tdir/f-%d $last_id 8 ||
3195                 error "createmany create files with uncommitted objids failed"
3196
3197     last_id2=$(do_facet $SINGLEMDS lctl get_param -n osc.$mdtosc.prealloc_last_id)
3198     next_id2=$(do_facet $SINGLEMDS lctl get_param -n osc.$mdtosc.prealloc_next_id)
3199     echo "before recovery: last_id = $last_id2, next_id = $next_id2" 
3200
3201     # if test uses shutdown_facet && reboot_facet instead of facet_failover ()
3202     # it has to take care about the affected facets, bug20407
3203     local affected_mds1=$(affected_facets mds1)
3204     local affected_ost1=$(affected_facets ost1)
3205
3206     shutdown_facet $SINGLEMDS
3207     shutdown_facet ost1
3208
3209     reboot_facet $SINGLEMDS
3210     change_active $affected_mds1
3211     wait_for_facet $affected_mds1
3212     mount_facets $affected_mds1 || error "Restart of mds failed"
3213
3214     reboot_facet ost1
3215     change_active $affected_ost1
3216     wait_for_facet $affected_ost1
3217     mount_facets $affected_ost1 || error "Restart of ost1 failed"
3218
3219     clients_up
3220
3221     last_id2=$(do_facet $SINGLEMDS lctl get_param -n osc.$mdtosc.prealloc_last_id)
3222     next_id2=$(do_facet $SINGLEMDS lctl get_param -n osc.$mdtosc.prealloc_next_id)
3223         echo "after recovery: last_id = $last_id2, next_id = $next_id2"
3224
3225         # create new files, which should use new objids, and ensure the orphan
3226         # cleanup phase for ost1 is completed at the same time
3227         for i in $(seq 8); do
3228                 file_id=$(($last_id + 10 + $i))
3229                 dd if=/dev/urandom of=$DIR/$tdir/f-$file_id bs=4096 count=128
3230         done
3231
3232         # if the objids were not recreated, then "ls" will fail with -ENOENT
3233         ls -l $DIR/$tdir/* || error "can't get the status of precreated files"
3234
3235         local file_id
3236         # write into previously created files
3237         for i in $(seq 8); do
3238                 file_id=$(($last_id + $i))
3239                 dd if=/dev/urandom of=$DIR/$tdir/f-$file_id bs=4096 count=128
3240                 cp -f $DIR/$tdir/f-$file_id $TMP/$tdir/
3241         done
3242
3243         # compare the content
3244         for i in $(seq 8); do
3245                 file_id=$(($last_id + $i))
3246                 cmp $TMP/$tdir/f-$file_id $DIR/$tdir/f-$file_id ||
3247                         error "the content of file is modified!"
3248         done
3249
3250         rm -fr $TMP/$tdir
3251 }
3252 run_test 88 "MDS should not assign same objid to different files "
3253
3254 test_89() {
3255         cancel_lru_locks osc
3256         mkdir $DIR/$tdir || error "mkdir $DIR/$tdir failed"
3257         rm -f $DIR/$tdir/$tfile
3258         wait_mds_ost_sync
3259         wait_delete_completed
3260         BLOCKS1=$(df -P $MOUNT | tail -n 1 | awk '{ print $3 }')
3261         $SETSTRIPE -i 0 -c 1 $DIR/$tdir/$tfile
3262         dd if=/dev/zero bs=1M count=10 of=$DIR/$tdir/$tfile
3263         sync
3264         stop ost1
3265         facet_failover $SINGLEMDS
3266         rm $DIR/$tdir/$tfile
3267         umount $MOUNT
3268         mount_facet ost1
3269         zconf_mount $(hostname) $MOUNT || error "mount fails"
3270         client_up || error "client_up failed"
3271         wait_mds_ost_sync
3272         wait_delete_completed
3273         BLOCKS2=$(df -P $MOUNT | tail -n 1 | awk '{ print $3 }')
3274         [ $((BLOCKS2 - BLOCKS1)) -le 4  ] ||
3275                 error $((BLOCKS2 - BLOCKS1)) blocks leaked
3276 }
3277
3278 run_test 89 "no disk space leak on late ost connection"
3279
3280 cleanup_90 () {
3281     local facet=$1
3282     trap 0
3283     reboot_facet $facet
3284     change_active $facet
3285     wait_for_facet $facet
3286     mount_facet $facet || error "Restart of $facet failed"
3287     clients_up
3288 }
3289
3290 test_90() { # bug 19494
3291     local dir=$DIR/$tdir
3292     local ostfail=$(get_random_entry $(get_facets OST))
3293
3294     if [[ $FAILURE_MODE = HARD ]]; then
3295         local affected=$(affected_facets $ostfail);
3296         if [[ "$affected" != $ostfail ]]; then
3297             skip not functional with FAILURE_MODE=$FAILURE_MODE, affected: $affected
3298             return 0
3299         fi
3300     fi
3301         # ensure all OSTs are active to allow allocations
3302         wait_osts_up
3303
3304         mkdir $dir || error "mkdir $dir failed"
3305
3306         echo "Create the files"
3307
3308     # file "f${index}" striped over 1 OST
3309     # file "all" striped over all OSTs
3310
3311     $SETSTRIPE -c $OSTCOUNT $dir/all ||
3312         error "setstripe failed to create $dir/all"
3313
3314     for (( i=0; i<$OSTCOUNT; i++ )); do
3315         local f=$dir/f$i
3316         $SETSTRIPE -i $i -c 1 $f || error "$SETSTRIPE failed to create $f"
3317
3318         # confirm setstripe actually created the stripe on the requested OST
3319         local uuid=$(ostuuid_from_index $i)
3320         for file in f$i all; do
3321             if [[ $dir/$file != $($LFS find --obd $uuid --name $file $dir) ]]; then
3322                 $GETSTRIPE $dir/$file
3323                 error wrong stripe: $file, uuid: $uuid
3324             fi
3325         done
3326     done
3327
3328         # Before failing an OST, get its obd name and index
3329         local varsvc=${ostfail}_svc
3330         local obd=$(do_facet $ostfail lctl get_param \
3331                     -n obdfilter.${!varsvc}.uuid)
3332         local index=$(($(facet_number $ostfail) - 1))
3333
3334         echo "Fail $ostfail $obd, display the list of affected files"
3335         shutdown_facet $ostfail || error "shutdown_facet $ostfail failed"
3336
3337         trap "cleanup_90 $ostfail" EXIT INT
3338         echo "General Query: lfs find $dir"
3339         local list=$($LFS find $dir)
3340         echo "$list"
3341         for (( i=0; i<$OSTCOUNT; i++ )); do
3342                 list_member "$list" $dir/f$i ||
3343                         error_noexit "lfs find $dir: no file f$i"
3344         done
3345         list_member "$list" $dir/all ||
3346                 error_noexit "lfs find $dir: no file all"
3347
3348         # focus on the missing OST,
3349         # we expect to see only two files affected: "f$(index)" and "all"
3350
3351         echo "Querying files on shutdown $ostfail: lfs find --obd $obd"
3352     list=$($LFS find --obd $obd $dir)
3353     echo "$list"
3354     for file in all f$index; do
3355         list_member "$list" $dir/$file ||
3356             error_noexit "lfs find does not report the affected $obd for $file"
3357     done
3358
3359     [[ $(echo $list | wc -w) -eq 2 ]] ||
3360         error_noexit "lfs find reports the wrong list of affected files ${#list[@]}"
3361
3362     echo "Check getstripe: $GETSTRIPE -r --obd $obd"
3363     list=$($GETSTRIPE -r --obd $obd $dir)
3364     echo "$list"
3365     for file in all f$index; do
3366         echo "$list" | grep $dir/$file ||
3367             error_noexit "lfs getsripe does not report the affected $obd for $file"
3368     done
3369
3370     cleanup_90 $ostfail
3371 }
3372 run_test 90 "lfs find identifies the missing striped file segments"
3373
3374 test_93a() {
3375         local server_version=$(lustre_version_code $SINGLEMDS)
3376                 [[ $server_version -ge $(version_code 2.6.90) ]] ||
3377                 [[ $server_version -ge $(version_code 2.5.4) &&
3378                    $server_version -lt $(version_code 2.5.50) ]] ||
3379                 { skip "Need MDS version 2.5.4+ or 2.6.90+"; return; }
3380
3381         cancel_lru_locks osc
3382
3383         $SETSTRIPE -i 0 -c 1 $DIR/$tfile ||
3384                 error "$SETSTRIPE  $DIR/$tfile failed"
3385         dd if=/dev/zero of=$DIR/$tfile bs=1024 count=1 ||
3386                 error "dd to $DIR/$tfile failed"
3387         #define OBD_FAIL_TGT_REPLAY_RECONNECT     0x715
3388         # We need to emulate a state that OST is waiting for other clients
3389         # not completing the recovery. Final ping is queued, but reply will be
3390         # sent on the recovery completion. It is done by sleep before
3391         # processing final pings
3392         do_facet ost1 "$LCTL set_param fail_val=40"
3393         do_facet ost1 "$LCTL set_param fail_loc=0x715"
3394         fail ost1
3395 }
3396 run_test 93a "replay + reconnect"
3397
3398 test_93b() {
3399         local server_version=$(lustre_version_code $SINGLEMDS)
3400                 [[ $server_version -ge $(version_code 2.7.90) ]] ||
3401                 { skip "Need MDS version 2.7.90+"; return; }
3402
3403         cancel_lru_locks mdc
3404
3405         createmany -o $DIR/$tfile 20 ||
3406                         error "createmany -o $DIR/$tfile failed"
3407
3408         #define OBD_FAIL_TGT_REPLAY_RECONNECT     0x715
3409         # We need to emulate a state that MDT is waiting for other clients
3410         # not completing the recovery. Final ping is queued, but reply will be
3411         # sent on the recovery completion. It is done by sleep before
3412         # processing final pings
3413         do_facet mds1 "$LCTL set_param fail_val=80"
3414         do_facet mds1 "$LCTL set_param fail_loc=0x715"
3415         fail mds1
3416 }
3417 run_test 93b "replay + reconnect on mds"
3418
3419 striped_dir_check_100() {
3420         local striped_dir=$DIR/$tdir/striped_dir
3421         local stripe_count=$($LFS getdirstripe -c $striped_dir)
3422
3423         $LFS getdirstripe $striped_dir
3424         [ $stripe_count -eq 2 ] || error "$stripe_count != 2"
3425
3426         createmany -o $striped_dir/f-%d 20 ||
3427                 error "creation failed under striped dir"
3428 }
3429
3430 test_100a() {
3431         [ $MDSCOUNT -lt 2 ] && skip "needs >= 2 MDTs" && return 0
3432         ([ $FAILURE_MODE == "HARD" ] &&
3433                 [ "$(facet_host mds1)" == "$(facet_host mds2)" ]) &&
3434                 skip "MDTs needs to be on diff hosts for HARD fail mode" &&
3435                 return 0
3436
3437         local striped_dir=$DIR/$tdir/striped_dir
3438         local MDTIDX=1
3439
3440         mkdir $DIR/$tdir || error "mkdir $DIR/$tdir failed"
3441
3442         #To make sure MDT1 and MDT0 are connected
3443         #otherwise it may create single stripe dir here
3444         $LFS setdirstripe -i1 $DIR/$tdir/remote_dir
3445
3446         #define OBD_FAIL_OUT_UPDATE_NET_REP     0x1701
3447         do_facet mds$((MDTIDX+1)) lctl set_param fail_loc=0x1701
3448         $LFS setdirstripe -i0 -c2 $striped_dir &
3449         local CLIENT_PID=$!
3450
3451         fail mds$((MDTIDX + 1))
3452
3453         wait $CLIENT_PID || error "striped dir creation failed"
3454
3455         striped_dir_check_100 || error "striped dir check failed"
3456         rm -rf $DIR/$tdir || error "rmdir failed"
3457 }
3458 run_test 100a "DNE: create striped dir, drop update rep from MDT1, fail MDT1"
3459
3460 test_100b() {
3461         [ $MDSCOUNT -lt 2 ] && skip "needs >= 2 MDTs" && return 0
3462         ([ $FAILURE_MODE == "HARD" ] &&
3463                 [ "$(facet_host mds1)" == "$(facet_host mds2)" ]) &&
3464                 skip "MDTs needs to be on diff hosts for HARD fail mode" &&
3465                 return 0
3466
3467         local striped_dir=$DIR/$tdir/striped_dir
3468         local MDTIDX=1
3469
3470         mkdir $DIR/$tdir || error "mkdir $DIR/$tdir failed"
3471
3472         #To make sure MDT1 and MDT0 are connected
3473         #otherwise it may create single stripe dir here
3474         $LFS setdirstripe -i1 $DIR/$tdir/remote_dir
3475
3476         # OBD_FAIL_MDS_REINT_NET_REP       0x119
3477         do_facet mds$MDTIDX lctl set_param fail_loc=0x119
3478         $LFS mkdir -i0 -c2 $striped_dir &
3479
3480         local CLIENT_PID=$!
3481         fail mds$MDTIDX
3482
3483         wait $CLIENT_PID || error "striped dir creation failed"
3484
3485         striped_dir_check_100 || error "striped dir check failed"
3486         rm -rf $DIR/$tdir || error "rmdir failed"
3487 }
3488 run_test 100b "DNE: create striped dir, fail MDT0"
3489
3490 test_101() { #LU-5648
3491         mkdir -p $DIR/$tdir/d1
3492         mkdir -p $DIR/$tdir/d2
3493         touch $DIR/$tdir/file0
3494         num=1000
3495
3496         replay_barrier $SINGLEMDS
3497         for i in $(seq $num) ; do
3498                 echo test$i > $DIR/$tdir/d1/file$i
3499         done
3500
3501         fail_abort $SINGLEMDS
3502         for i in $(seq $num) ; do
3503                 touch $DIR/$tdir/d2/file$i
3504                 test -s $DIR/$tdir/d2/file$i &&
3505                         ls -al $DIR/$tdir/d2/file$i && error "file$i's size > 0"
3506         done
3507
3508         rm -rf $DIR/$tdir
3509 }
3510 run_test 101 "Shouldn't reassign precreated objs to other files after recovery"
3511
3512 test_102a() {
3513         local idx
3514         local facet
3515         local num
3516         local i
3517         local pids pid
3518
3519         [[ $(lctl get_param mdc.*.import |
3520              grep "connect_flags:.*multi_mod_rpc") ]] ||
3521                 { skip "Need MDC with 'multi_mod_rpcs' feature"; return 0; }
3522
3523         $LFS mkdir -c1 $DIR/$tdir || error "mkdir $DIR/$tdir failed"
3524         idx=$(printf "%04x" $($LFS getdirstripe -i $DIR/$tdir))
3525         facet="mds$((0x$idx + 1))"
3526
3527         # get current value of max_mod_rcps_in_flight
3528         num=$($LCTL get_param -n \
3529                 mdc.$FSNAME-MDT$idx-mdc-*.max_mod_rpcs_in_flight)
3530         # set default value if client does not support multi mod RPCs
3531         [ -z "$num" ] && num=1
3532
3533         echo "creating $num files ..."
3534         umask 0022
3535         for i in $(seq $num); do
3536                 touch $DIR/$tdir/file-$i
3537         done
3538
3539         # drop request on MDT to force resend
3540         #define OBD_FAIL_MDS_REINT_MULTI_NET 0x159
3541         do_facet $facet "$LCTL set_param fail_loc=0x159"
3542         echo "launch $num chmod in parallel ($(date +%H:%M:%S)) ..."
3543         for i in $(seq $num); do
3544                 chmod 0600 $DIR/$tdir/file-$i &
3545                 pids="$pids $!"
3546         done
3547         sleep 1
3548         do_facet $facet "$LCTL set_param fail_loc=0"
3549         for pid in $pids; do
3550                 wait $pid || error "chmod failed"
3551         done
3552         echo "done ($(date +%H:%M:%S))"
3553
3554         # check chmod succeed
3555         for i in $(seq $num); do
3556                 checkstat -vp 0600 $DIR/$tdir/file-$i
3557         done
3558
3559         rm -rf $DIR/$tdir
3560 }
3561 run_test 102a "check resend (request lost) with multiple modify RPCs in flight"
3562
3563 test_102b() {
3564         local idx
3565         local facet
3566         local num
3567         local i
3568         local pids pid
3569
3570         [[ $(lctl get_param mdc.*.import |
3571              grep "connect_flags:.*multi_mod_rpc") ]] ||
3572                 { skip "Need MDC with 'multi_mod_rpcs' feature"; return 0; }
3573
3574         $LFS mkdir -c1 $DIR/$tdir || error "mkdir $DIR/$tdir failed"
3575         idx=$(printf "%04x" $($LFS getdirstripe -i $DIR/$tdir))
3576         facet="mds$((0x$idx + 1))"
3577
3578         # get current value of max_mod_rcps_in_flight
3579         num=$($LCTL get_param -n \
3580                 mdc.$FSNAME-MDT$idx-mdc-*.max_mod_rpcs_in_flight)
3581         # set default value if client does not support multi mod RPCs
3582         [ -z "$num" ] && num=1
3583
3584         echo "creating $num files ..."
3585         umask 0022
3586         for i in $(seq $num); do
3587                 touch $DIR/$tdir/file-$i
3588         done
3589
3590         # drop reply on MDT to force reconstruction
3591         #define OBD_FAIL_MDS_REINT_MULTI_NET_REP 0x15a
3592         do_facet $facet "$LCTL set_param fail_loc=0x15a"
3593         echo "launch $num chmod in parallel ($(date +%H:%M:%S)) ..."
3594         for i in $(seq $num); do
3595                 chmod 0600 $DIR/$tdir/file-$i &
3596                 pids="$pids $!"
3597         done
3598         sleep 1
3599         do_facet $facet "$LCTL set_param fail_loc=0"
3600         for pid in $pids; do
3601                 wait $pid || error "chmod failed"
3602         done
3603         echo "done ($(date +%H:%M:%S))"
3604
3605         # check chmod succeed
3606         for i in $(seq $num); do
3607                 checkstat -vp 0600 $DIR/$tdir/file-$i
3608         done
3609
3610         rm -rf $DIR/$tdir
3611 }
3612 run_test 102b "check resend (reply lost) with multiple modify RPCs in flight"
3613
3614 test_102c() {
3615         local idx
3616         local facet
3617         local num
3618         local i
3619         local pids pid
3620
3621         [[ $(lctl get_param mdc.*.import |
3622              grep "connect_flags:.*multi_mod_rpc") ]] ||
3623                 { skip "Need MDC with 'multi_mod_rpcs' feature"; return 0; }
3624
3625         $LFS mkdir -c1 $DIR/$tdir || error "mkdir $DIR/$tdir failed"
3626         idx=$(printf "%04x" $($LFS getdirstripe -i $DIR/$tdir))
3627         facet="mds$((0x$idx + 1))"
3628
3629         # get current value of max_mod_rcps_in_flight
3630         num=$($LCTL get_param -n \
3631                 mdc.$FSNAME-MDT$idx-mdc-*.max_mod_rpcs_in_flight)
3632         # set default value if client does not support multi mod RPCs
3633         [ -z "$num" ] && num=1
3634
3635         echo "creating $num files ..."
3636         umask 0022
3637         for i in $(seq $num); do
3638                 touch $DIR/$tdir/file-$i
3639         done
3640
3641         replay_barrier $facet
3642
3643         # drop reply on MDT
3644         #define OBD_FAIL_MDS_REINT_MULTI_NET_REP 0x15a
3645         do_facet $facet "$LCTL set_param fail_loc=0x15a"
3646         echo "launch $num chmod in parallel ($(date +%H:%M:%S)) ..."
3647         for i in $(seq $num); do
3648                 chmod 0600 $DIR/$tdir/file-$i &
3649                 pids="$pids $!"
3650         done
3651         sleep 1
3652         do_facet $facet "$LCTL set_param fail_loc=0"
3653
3654         # fail MDT
3655         fail $facet
3656
3657         for pid in $pids; do
3658                 wait $pid || error "chmod failed"
3659         done
3660         echo "done ($(date +%H:%M:%S))"
3661
3662         # check chmod succeed
3663         for i in $(seq $num); do
3664                 checkstat -vp 0600 $DIR/$tdir/file-$i
3665         done
3666
3667         rm -rf $DIR/$tdir
3668 }
3669 run_test 102c "check replay w/o reconstruction with multiple mod RPCs in flight"
3670
3671 test_102d() {
3672         local idx
3673         local facet
3674         local num
3675         local i
3676         local pids pid
3677
3678         [[ $(lctl get_param mdc.*.import |
3679              grep "connect_flags:.*multi_mod_rpc") ]] ||
3680                 { skip "Need MDC with 'multi_mod_rpcs' feature"; return 0; }
3681
3682         $LFS mkdir -c1 $DIR/$tdir || error "mkdir $DIR/$tdir failed"
3683         idx=$(printf "%04x" $($LFS getdirstripe -i $DIR/$tdir))
3684         facet="mds$((0x$idx + 1))"
3685
3686         # get current value of max_mod_rcps_in_flight
3687         num=$($LCTL get_param -n \
3688                 mdc.$FSNAME-MDT$idx-mdc-*.max_mod_rpcs_in_flight)
3689         # set default value if client does not support multi mod RPCs
3690         [ -z "$num" ] && num=1
3691
3692         echo "creating $num files ..."
3693         umask 0022
3694         for i in $(seq $num); do
3695                 touch $DIR/$tdir/file-$i
3696         done
3697
3698         # drop reply on MDT
3699         #define OBD_FAIL_MDS_REINT_MULTI_NET_REP 0x15a
3700         do_facet $facet "$LCTL set_param fail_loc=0x15a"
3701         echo "launch $num chmod in parallel ($(date +%H:%M:%S)) ..."
3702         for i in $(seq $num); do
3703                 chmod 0600 $DIR/$tdir/file-$i &
3704                 pids="$pids $!"
3705         done
3706         sleep 1
3707
3708         # write MDT transactions to disk
3709         do_facet $facet "sync; sync; sync"
3710
3711         do_facet $facet "$LCTL set_param fail_loc=0"
3712
3713         # fail MDT
3714         fail $facet
3715
3716         for pid in $pids; do
3717                 wait $pid || error "chmod failed"
3718         done
3719         echo "done ($(date +%H:%M:%S))"
3720
3721         # check chmod succeed
3722         for i in $(seq $num); do
3723                 checkstat -vp 0600 $DIR/$tdir/file-$i
3724         done
3725
3726         rm -rf $DIR/$tdir
3727 }
3728 run_test 102d "check replay & reconstruction with multiple mod RPCs in flight"
3729
3730 test_103() {
3731         remote_mds_nodsh && skip "remote MDS with nodsh" && return
3732 #define OBD_FAIL_MDS_TRACK_OVERFLOW 0x162
3733         do_facet mds1 $LCTL set_param fail_loc=0x80000162
3734
3735         mkdir -p $DIR/$tdir
3736         createmany -o $DIR/$tdir/t- 30 ||
3737                 error "create files on remote directory failed"
3738         sync
3739         rm -rf $DIR/$tdir/t-*
3740         sync
3741 #MDS should crash with tr->otr_next_id overflow
3742         fail mds1
3743 }
3744 run_test 103 "Check otr_next_id overflow"
3745
3746
3747 check_striped_dir_110()
3748 {
3749         $CHECKSTAT -t dir $DIR/$tdir/striped_dir ||
3750                         error "create striped dir failed"
3751         local stripe_count=$($LFS getdirstripe -c $DIR/$tdir/striped_dir)
3752         [ $stripe_count -eq $MDSCOUNT ] ||
3753                 error "$stripe_count != 2 after recovery"
3754 }
3755
3756 test_110a() {
3757         [ $MDSCOUNT -lt 2 ] && skip "needs >= 2 MDTs" && return 0
3758         ([ $FAILURE_MODE == "HARD" ] &&
3759                 [ "$(facet_host mds1)" == "$(facet_host mds2)" ]) &&
3760                 skip "MDTs needs to be on diff hosts for HARD fail mode" &&
3761                 return 0
3762
3763         mkdir -p $DIR/$tdir
3764         replay_barrier mds1
3765         $LFS mkdir -i1 -c$MDSCOUNT $DIR/$tdir/striped_dir
3766         fail mds1
3767
3768         check_striped_dir_110 || error "check striped_dir failed"
3769         rm -rf $DIR/$tdir || error "rmdir failed"
3770
3771         return 0
3772 }
3773 run_test 110a "DNE: create striped dir, fail MDT1"
3774
3775 test_110b() {
3776         [ $MDSCOUNT -lt 2 ] && skip "needs >= 2 MDTs" && return 0
3777         ([ $FAILURE_MODE == "HARD" ] &&
3778                 [ "$(facet_host mds1)" == "$(facet_host mds2)" ]) &&
3779                 skip "MDTs needs to be on diff hosts for HARD fail mode" &&
3780                 return 0
3781
3782         mkdir -p $DIR/$tdir
3783         replay_barrier mds1
3784         $LFS mkdir -i1 -c$MDSCOUNT $DIR/$tdir/striped_dir
3785         umount $MOUNT
3786         fail mds1
3787         zconf_mount $(hostname) $MOUNT
3788         client_up || return 1
3789
3790         check_striped_dir_110 || error "check striped_dir failed"
3791
3792         rm -rf $DIR/$tdir || error "rmdir failed"
3793
3794         return 0
3795 }
3796 run_test 110b "DNE: create striped dir, fail MDT1 and client"
3797
3798 test_110c() {
3799         [ $MDSCOUNT -lt 2 ] && skip "needs >= 2 MDTs" && return 0
3800         ([ $FAILURE_MODE == "HARD" ] &&
3801                 [ "$(facet_host mds1)" == "$(facet_host mds2)" ]) &&
3802                 skip "MDTs needs to be on diff hosts for HARD fail mode" &&
3803                 return 0
3804
3805         mkdir -p $DIR/$tdir
3806         replay_barrier mds2
3807         $LFS mkdir -i1 -c$MDSCOUNT $DIR/$tdir/striped_dir
3808         fail mds2
3809
3810         check_striped_dir_110 || error "check striped_dir failed"
3811
3812         rm -rf $DIR/$tdir || error "rmdir failed"
3813
3814         return 0
3815 }
3816 run_test 110c "DNE: create striped dir, fail MDT2"
3817
3818 test_110d() {
3819         [ $MDSCOUNT -lt 2 ] && skip "needs >= 2 MDTs" && return 0
3820         ([ $FAILURE_MODE == "HARD" ] &&
3821                 [ "$(facet_host mds1)" == "$(facet_host mds2)" ]) &&
3822                 skip "MDTs needs to be on diff hosts for HARD fail mode" &&
3823                 return 0
3824
3825         mkdir -p $DIR/$tdir
3826         replay_barrier mds2
3827         $LFS mkdir -i1 -c$MDSCOUNT $DIR/$tdir/striped_dir
3828         umount $MOUNT
3829         fail mds2
3830         zconf_mount $(hostname) $MOUNT
3831         client_up || return 1
3832
3833         check_striped_dir_110 || error "check striped_dir failed"
3834
3835         rm -rf $DIR/$tdir || error "rmdir failed"
3836
3837         return 0
3838 }
3839 run_test 110d "DNE: create striped dir, fail MDT2 and client"
3840
3841 test_110e() {
3842         [ $MDSCOUNT -lt 2 ] && skip "needs >= 2 MDTs" && return 0
3843         ([ $FAILURE_MODE == "HARD" ] &&
3844                 [ "$(facet_host mds1)" == "$(facet_host mds2)" ]) &&
3845                 skip "MDTs needs to be on diff hosts for HARD fail mode" &&
3846                 return 0
3847
3848         mkdir -p $DIR/$tdir
3849         replay_barrier mds2
3850         $LFS mkdir -i1 -c$MDSCOUNT $DIR/$tdir/striped_dir
3851         umount $MOUNT
3852         replay_barrier mds1
3853         fail mds1,mds2
3854         zconf_mount $(hostname) $MOUNT
3855         client_up || return 1
3856
3857         check_striped_dir_110 || error "check striped_dir failed"
3858
3859         rm -rf $DIR/$tdir || error "rmdir failed"
3860
3861         return 0
3862 }
3863 run_test 110e "DNE: create striped dir, uncommit on MDT2, fail client/MDT1/MDT2"
3864
3865 test_110f() {
3866         [ $MDSCOUNT -lt 2 ] && skip "needs >= 2 MDTs" && return 0
3867         ([ $FAILURE_MODE == "HARD" ] &&
3868                 [ "$(facet_host mds1)" == "$(facet_host mds2)" ]) &&
3869                 skip "MDTs needs to be on diff hosts for HARD fail mode" &&
3870                 return 0
3871
3872         mkdir -p $DIR/$tdir
3873         replay_barrier mds1
3874         replay_barrier mds2
3875         $LFS mkdir -i1 -c$MDSCOUNT $DIR/$tdir/striped_dir
3876         fail mds2,mds1
3877
3878         check_striped_dir_110 || error "check striped_dir failed"
3879
3880         rm -rf $DIR/$tdir || error "rmdir failed"
3881
3882         return 0
3883 }
3884 run_test 110f "DNE: create striped dir, fail MDT1/MDT2"
3885
3886 test_110g() {
3887         [ $MDSCOUNT -lt 2 ] && skip "needs >= 2 MDTs" && return 0
3888         ([ $FAILURE_MODE == "HARD" ] &&
3889                 [ "$(facet_host mds1)" == "$(facet_host mds2)" ]) &&
3890                 skip "MDTs needs to be on diff hosts for HARD fail mode" &&
3891                 return 0
3892
3893         mkdir -p $DIR/$tdir
3894         replay_barrier mds1
3895         $LFS mkdir -i1 -c$MDSCOUNT $DIR/$tdir/striped_dir
3896         umount $MOUNT
3897         replay_barrier mds2
3898         fail mds1,mds2
3899         zconf_mount $(hostname) $MOUNT
3900         client_up || return 1
3901
3902         check_striped_dir_110 || error "check striped_dir failed"
3903
3904         rm -rf $DIR/$tdir || error "rmdir failed"
3905
3906         return 0
3907 }
3908 run_test 110g "DNE: create striped dir, uncommit on MDT1, fail client/MDT1/MDT2"
3909
3910 test_111a() {
3911         [ $MDSCOUNT -lt 2 ] && skip "needs >= 2 MDTs" && return 0
3912         ([ $FAILURE_MODE == "HARD" ] &&
3913                 [ "$(facet_host mds1)" == "$(facet_host mds2)" ]) &&
3914                 skip "MDTs needs to be on diff hosts for HARD fail mode" &&
3915                 return 0
3916
3917         mkdir -p $DIR/$tdir
3918         $LFS mkdir -i1 -c2 $DIR/$tdir/striped_dir
3919         replay_barrier mds1
3920         rm -rf $DIR/$tdir/striped_dir
3921         fail mds1
3922
3923         $CHECKSTAT -t dir $DIR/$tdir/striped_dir &&
3924                         error "striped dir still exists"
3925         return 0
3926 }
3927 run_test 111a "DNE: unlink striped dir, fail MDT1"
3928
3929 test_111b() {
3930         [ $MDSCOUNT -lt 2 ] && skip "needs >= 2 MDTs" && return 0
3931         ([ $FAILURE_MODE == "HARD" ] &&
3932                 [ "$(facet_host mds1)" == "$(facet_host mds2)" ]) &&
3933                 skip "MDTs needs to be on diff hosts for HARD fail mode" &&
3934                 return 0
3935
3936         mkdir -p $DIR/$tdir
3937         $LFS mkdir -i1 -c2 $DIR/$tdir/striped_dir
3938         replay_barrier mds2
3939         rm -rf $DIR/$tdir/striped_dir
3940         umount $MOUNT
3941         fail mds2
3942         zconf_mount $(hostname) $MOUNT
3943         client_up || return 1
3944
3945         $CHECKSTAT -t dir $DIR/$tdir/striped_dir &&
3946                         error "striped dir still exists"
3947         return 0
3948 }
3949 run_test 111b "DNE: unlink striped dir, fail MDT2"
3950
3951 test_111c() {
3952         [ $MDSCOUNT -lt 2 ] && skip "needs >= 2 MDTs" && return 0
3953         ([ $FAILURE_MODE == "HARD" ] &&
3954                 [ "$(facet_host mds1)" == "$(facet_host mds2)" ]) &&
3955                 skip "MDTs needs to be on diff hosts for HARD fail mode" &&
3956                 return 0
3957
3958         mkdir -p $DIR/$tdir
3959         $LFS mkdir -i1 -c2 $DIR/$tdir/striped_dir
3960         replay_barrier mds1
3961         rm -rf $DIR/$tdir/striped_dir
3962         umount $MOUNT
3963         replay_barrier mds2
3964         fail mds1,mds2
3965         zconf_mount $(hostname) $MOUNT
3966         client_up || return 1
3967         $CHECKSTAT -t dir $DIR/$tdir/striped_dir &&
3968                         error "striped dir still exists"
3969         return 0
3970 }
3971 run_test 111c "DNE: unlink striped dir, uncommit on MDT1, fail client/MDT1/MDT2"
3972
3973 test_111d() {
3974         [ $MDSCOUNT -lt 2 ] && skip "needs >= 2 MDTs" && return 0
3975         ([ $FAILURE_MODE == "HARD" ] &&
3976                 [ "$(facet_host mds1)" == "$(facet_host mds2)" ]) &&
3977                 skip "MDTs needs to be on diff hosts for HARD fail mode" &&
3978                 return 0
3979
3980         mkdir -p $DIR/$tdir
3981         $LFS mkdir -i1 -c2 $DIR/$tdir/striped_dir
3982         replay_barrier mds2
3983         rm -rf $DIR/$tdir/striped_dir
3984         umount $MOUNT
3985         replay_barrier mds1
3986         fail mds1,mds2
3987         zconf_mount $(hostname) $MOUNT
3988         client_up || return 1
3989         $CHECKSTAT -t dir $DIR/$tdir/striped_dir &&
3990                         error "striped dir still exists"
3991
3992         return 0
3993 }
3994 run_test 111d "DNE: unlink striped dir, uncommit on MDT2, fail client/MDT1/MDT2"
3995
3996 test_111e() {
3997         [ $MDSCOUNT -lt 2 ] && skip "needs >= 2 MDTs" && return 0
3998         ([ $FAILURE_MODE == "HARD" ] &&
3999                 [ "$(facet_host mds1)" == "$(facet_host mds2)" ]) &&
4000                 skip "MDTs needs to be on diff hosts for HARD fail mode" &&
4001                 return 0
4002
4003         mkdir -p $DIR/$tdir
4004         $LFS mkdir -i1 -c2 $DIR/$tdir/striped_dir
4005         replay_barrier mds2
4006         rm -rf $DIR/$tdir/striped_dir
4007         replay_barrier mds1
4008         fail mds1,mds2
4009         $CHECKSTAT -t dir $DIR/$tdir/striped_dir &&
4010                         error "striped dir still exists"
4011         return 0
4012 }
4013 run_test 111e "DNE: unlink striped dir, uncommit on MDT2, fail MDT1/MDT2"
4014
4015 test_111f() {
4016         [ $MDSCOUNT -lt 2 ] && skip "needs >= 2 MDTs" && return 0
4017         ([ $FAILURE_MODE == "HARD" ] &&
4018                 [ "$(facet_host mds1)" == "$(facet_host mds2)" ]) &&
4019                 skip "MDTs needs to be on diff hosts for HARD fail mode" &&
4020                 return 0
4021
4022         mkdir -p $DIR/$tdir
4023         $LFS mkdir -i1 -c2 $DIR/$tdir/striped_dir
4024         replay_barrier mds1
4025         rm -rf $DIR/$tdir/striped_dir
4026         replay_barrier mds2
4027         fail mds1,mds2
4028         $CHECKSTAT -t dir $DIR/$tdir/striped_dir &&
4029                         error "striped dir still exists"
4030         return 0
4031 }
4032 run_test 111f "DNE: unlink striped dir, uncommit on MDT1, fail MDT1/MDT2"
4033
4034 test_111g() {
4035         [ $MDSCOUNT -lt 2 ] && skip "needs >= 2 MDTs" && return 0
4036         ([ $FAILURE_MODE == "HARD" ] &&
4037                 [ "$(facet_host mds1)" == "$(facet_host mds2)" ]) &&
4038                 skip "MDTs needs to be on diff hosts for HARD fail mode" &&
4039                 return 0
4040
4041         mkdir -p $DIR/$tdir
4042         $LFS mkdir -i1 -c2 $DIR/$tdir/striped_dir
4043         replay_barrier mds1
4044         replay_barrier mds2
4045         rm -rf $DIR/$tdir/striped_dir
4046         fail mds1,mds2
4047         $CHECKSTAT -t dir $DIR/$tdir/striped_dir &&
4048                         error "striped dir still exists"
4049         return 0
4050 }
4051 run_test 111g "DNE: unlink striped dir, fail MDT1/MDT2"
4052
4053 test_112_rename_prepare() {
4054         mkdir -p $DIR/$tdir/src_dir
4055         $LFS mkdir -i 1 $DIR/$tdir/src_dir/src_child ||
4056                 error "create remote source failed"
4057
4058         touch $DIR/$tdir/src_dir/src_child/a
4059
4060         $LFS mkdir -i 2 $DIR/$tdir/tgt_dir ||
4061                 error "create remote target dir failed"
4062
4063         $LFS mkdir -i 3 $DIR/$tdir/tgt_dir/tgt_child ||
4064                 error "create remote target child failed"
4065 }
4066
4067 test_112_check() {
4068         find $DIR/$tdir/
4069         $CHECKSTAT -t dir $DIR/$tdir/src_dir/src_child &&
4070                 error "src_child still exists after rename"
4071
4072         $CHECKSTAT -t file $DIR/$tdir/tgt_dir/tgt_child/a ||
4073                 error "missing file(a) after rename"
4074 }
4075
4076 test_112a() {
4077         [ $MDSCOUNT -lt 4 ] && skip "needs >= 4 MDTs" && return 0
4078         ([ $FAILURE_MODE == "HARD" ] &&
4079                 [ "$(facet_host mds1)" == "$(facet_host mds2)" ]) &&
4080                 skip "MDTs needs to be on diff hosts for HARD fail mode" &&
4081                 return 0
4082
4083         test_112_rename_prepare
4084         replay_barrier mds1
4085
4086         mrename $DIR/$tdir/src_dir/src_child $DIR/$tdir/tgt_dir/tgt_child ||
4087                 error "rename dir cross MDT failed!"
4088         fail mds1
4089
4090         test_112_check
4091         rm -rf $DIR/$tdir || error "rmdir failed"
4092 }
4093 run_test 112a "DNE: cross MDT rename, fail MDT1"
4094
4095 test_112b() {
4096         [ $MDSCOUNT -lt 4 ] && skip "needs >= 4 MDTs" && return 0
4097         ([ $FAILURE_MODE == "HARD" ] &&
4098                 [ "$(facet_host mds1)" == "$(facet_host mds2)" ]) &&
4099                 skip "MDTs needs to be on diff hosts for HARD fail mode" &&
4100                 return 0
4101
4102         test_112_rename_prepare
4103         replay_barrier mds2
4104
4105         mrename $DIR/$tdir/src_dir/src_child $DIR/$tdir/tgt_dir/tgt_child ||
4106                 error "rename dir cross MDT failed!"
4107
4108         fail mds2
4109
4110         test_112_check
4111         rm -rf $DIR/$tdir || error "rmdir failed"
4112 }
4113 run_test 112b "DNE: cross MDT rename, fail MDT2"
4114
4115 test_112c() {
4116         [ $MDSCOUNT -lt 4 ] && skip "needs >= 4 MDTs" && return 0
4117         ([ $FAILURE_MODE == "HARD" ] &&
4118                 [ "$(facet_host mds1)" == "$(facet_host mds2)" ]) &&
4119                 skip "MDTs needs to be on diff hosts for HARD fail mode" &&
4120                 return 0
4121
4122         test_112_rename_prepare
4123         replay_barrier mds3
4124
4125         mrename $DIR/$tdir/src_dir/src_child $DIR/$tdir/tgt_dir/tgt_child ||
4126                 error "rename dir cross MDT failed!"
4127
4128         fail mds3
4129
4130         test_112_check
4131         rm -rf $DIR/$tdir || error "rmdir failed"
4132 }
4133 run_test 112c "DNE: cross MDT rename, fail MDT3"
4134
4135 test_112d() {
4136         [ $MDSCOUNT -lt 4 ] && skip "needs >= 4 MDTs" && return 0
4137         ([ $FAILURE_MODE == "HARD" ] &&
4138                 [ "$(facet_host mds1)" == "$(facet_host mds2)" ]) &&
4139                 skip "MDTs needs to be on diff hosts for HARD fail mode" &&
4140                 return 0
4141
4142         test_112_rename_prepare
4143         replay_barrier mds4
4144
4145         mrename $DIR/$tdir/src_dir/src_child $DIR/$tdir/tgt_dir/tgt_child ||
4146                 error "rename dir cross MDT failed!"
4147
4148         fail mds4
4149
4150         test_112_check
4151         rm -rf $DIR/$tdir || error "rmdir failed"
4152 }
4153 run_test 112d "DNE: cross MDT rename, fail MDT4"
4154
4155 test_112e() {
4156         [ $MDSCOUNT -lt 4 ] && skip "needs >= 4 MDTs" && return 0
4157         ([ $FAILURE_MODE == "HARD" ] &&
4158                 [ "$(facet_host mds1)" == "$(facet_host mds2)" ]) &&
4159                 skip "MDTs needs to be on diff hosts for HARD fail mode" &&
4160                 return 0
4161
4162         test_112_rename_prepare
4163         replay_barrier mds1
4164         replay_barrier mds2
4165
4166         mrename $DIR/$tdir/src_dir/src_child $DIR/$tdir/tgt_dir/tgt_child ||
4167                 error "rename dir cross MDT failed!"
4168
4169         fail mds1,mds2
4170
4171         test_112_check
4172         rm -rf $DIR/$tdir || error "rmdir failed"
4173 }
4174 run_test 112e "DNE: cross MDT rename, fail MDT1 and MDT2"
4175
4176 test_112f() {
4177         [ $MDSCOUNT -lt 4 ] && skip "needs >= 4 MDTs" && return 0
4178         ([ $FAILURE_MODE == "HARD" ] &&
4179                 [ "$(facet_host mds1)" == "$(facet_host mds2)" ]) &&
4180                 skip "MDTs needs to be on diff hosts for HARD fail mode" &&
4181                 return 0
4182
4183         test_112_rename_prepare
4184         replay_barrier mds1
4185         replay_barrier mds3
4186
4187         mrename $DIR/$tdir/src_dir/src_child $DIR/$tdir/tgt_dir/tgt_child ||
4188                 error "rename dir cross MDT failed!"
4189
4190         fail mds1,mds3
4191
4192         test_112_check
4193         rm -rf $DIR/$tdir || error "rmdir failed"
4194 }
4195 run_test 112f "DNE: cross MDT rename, fail MDT1 and MDT3"
4196
4197 test_112g() {
4198         [ $MDSCOUNT -lt 4 ] && skip "needs >= 4 MDTs" && return 0
4199         ([ $FAILURE_MODE == "HARD" ] &&
4200                 [ "$(facet_host mds1)" == "$(facet_host mds2)" ]) &&
4201                 skip "MDTs needs to be on diff hosts for HARD fail mode" &&
4202                 return 0
4203
4204         test_112_rename_prepare
4205         replay_barrier mds1
4206         replay_barrier mds4
4207
4208         mrename $DIR/$tdir/src_dir/src_child $DIR/$tdir/tgt_dir/tgt_child ||
4209                 error "rename dir cross MDT failed!"
4210
4211         fail mds1,mds4
4212
4213         test_112_check
4214         rm -rf $DIR/$tdir || error "rmdir failed"
4215 }
4216 run_test 112g "DNE: cross MDT rename, fail MDT1 and MDT4"
4217
4218 test_112h() {
4219         [ $MDSCOUNT -lt 4 ] && skip "needs >= 4 MDTs" && return 0
4220         ([ $FAILURE_MODE == "HARD" ] &&
4221                 [ "$(facet_host mds1)" == "$(facet_host mds2)" ]) &&
4222                 skip "MDTs needs to be on diff hosts for HARD fail mode" &&
4223                 return 0
4224
4225         test_112_rename_prepare
4226         replay_barrier mds2
4227         replay_barrier mds3
4228
4229         mrename $DIR/$tdir/src_dir/src_child $DIR/$tdir/tgt_dir/tgt_child ||
4230                 error "rename dir cross MDT failed!"
4231
4232         fail mds2,mds3
4233
4234         test_112_check
4235         rm -rf $DIR/$tdir || error "rmdir failed"
4236 }
4237 run_test 112h "DNE: cross MDT rename, fail MDT2 and MDT3"
4238
4239 test_112i() {
4240         [ $MDSCOUNT -lt 4 ] && skip "needs >= 4 MDTs" && return 0
4241         ([ $FAILURE_MODE == "HARD" ] &&
4242                 [ "$(facet_host mds1)" == "$(facet_host mds2)" ]) &&
4243                 skip "MDTs needs to be on diff hosts for HARD fail mode" &&
4244                 return 0
4245
4246         test_112_rename_prepare
4247         replay_barrier mds2
4248         replay_barrier mds4
4249
4250         mrename $DIR/$tdir/src_dir/src_child $DIR/$tdir/tgt_dir/tgt_child ||
4251                 error "rename dir cross MDT failed!"
4252
4253         fail mds2,mds4
4254
4255         test_112_check
4256         rm -rf $DIR/$tdir || error "rmdir failed"
4257 }
4258 run_test 112i "DNE: cross MDT rename, fail MDT2 and MDT4"
4259
4260 test_112j() {
4261         [ $MDSCOUNT -lt 4 ] && skip "needs >= 4 MDTs" && return 0
4262         ([ $FAILURE_MODE == "HARD" ] &&
4263                 [ "$(facet_host mds1)" == "$(facet_host mds2)" ]) &&
4264                 skip "MDTs needs to be on diff hosts for HARD fail mode" &&
4265                 return 0
4266
4267         test_112_rename_prepare
4268         replay_barrier mds3
4269         replay_barrier mds4
4270
4271         mrename $DIR/$tdir/src_dir/src_child $DIR/$tdir/tgt_dir/tgt_child ||
4272                 error "rename dir cross MDT failed!"
4273
4274         fail mds3,mds4
4275
4276         test_112_check
4277         rm -rf $DIR/$tdir || error "rmdir failed"
4278 }
4279 run_test 112j "DNE: cross MDT rename, fail MDT3 and MDT4"
4280
4281 test_112k() {
4282         [ $MDSCOUNT -lt 4 ] && skip "needs >= 4 MDTs" && return 0
4283         ([ $FAILURE_MODE == "HARD" ] &&
4284                 [ "$(facet_host mds1)" == "$(facet_host mds2)" ]) &&
4285                 skip "MDTs needs to be on diff hosts for HARD fail mode" &&
4286                 return 0
4287
4288         test_112_rename_prepare
4289         replay_barrier mds1
4290         replay_barrier mds2
4291         replay_barrier mds3
4292
4293         mrename $DIR/$tdir/src_dir/src_child $DIR/$tdir/tgt_dir/tgt_child ||
4294                 error "rename dir cross MDT failed!"
4295
4296         fail mds1,mds2,mds3
4297
4298         test_112_check
4299         rm -rf $DIR/$tdir || error "rmdir failed"
4300 }
4301 run_test 112k "DNE: cross MDT rename, fail MDT1,MDT2,MDT3"
4302
4303 test_112l() {
4304         [ $MDSCOUNT -lt 4 ] && skip "needs >= 4 MDTs" && return 0
4305         ([ $FAILURE_MODE == "HARD" ] &&
4306                 [ "$(facet_host mds1)" == "$(facet_host mds2)" ]) &&
4307                 skip "MDTs needs to be on diff hosts for HARD fail mode" &&
4308                 return 0
4309
4310         test_112_rename_prepare
4311         replay_barrier mds1
4312         replay_barrier mds2
4313         replay_barrier mds4
4314
4315         mrename $DIR/$tdir/src_dir/src_child $DIR/$tdir/tgt_dir/tgt_child ||
4316                 error "rename dir cross MDT failed!"
4317
4318         fail mds1,mds2,mds4
4319
4320         test_112_check
4321         rm -rf $DIR/$tdir || error "rmdir failed"
4322 }
4323 run_test 112l "DNE: cross MDT rename, fail MDT1,MDT2,MDT4"
4324
4325 test_112m() {
4326         [ $MDSCOUNT -lt 4 ] && skip "needs >= 4 MDTs" && return 0
4327         ([ $FAILURE_MODE == "HARD" ] &&
4328                 [ "$(facet_host mds1)" == "$(facet_host mds2)" ]) &&
4329                 skip "MDTs needs to be on diff hosts for HARD fail mode" &&
4330                 return 0
4331
4332         test_112_rename_prepare
4333         replay_barrier mds1
4334         replay_barrier mds3
4335         replay_barrier mds4
4336
4337         mrename $DIR/$tdir/src_dir/src_child $DIR/$tdir/tgt_dir/tgt_child ||
4338                 error "rename dir cross MDT failed!"
4339
4340         fail mds1,mds3,mds4
4341
4342         test_112_check
4343         rm -rf $DIR/$tdir || error "rmdir failed"
4344 }
4345 run_test 112m "DNE: cross MDT rename, fail MDT1,MDT3,MDT4"
4346
4347 test_112n() {
4348         [ $MDSCOUNT -lt 4 ] && skip "needs >= 4 MDTs" && return 0
4349         ([ $FAILURE_MODE == "HARD" ] &&
4350                 [ "$(facet_host mds1)" == "$(facet_host mds2)" ]) &&
4351                 skip "MDTs needs to be on diff hosts for HARD fail mode" &&
4352                 return 0
4353
4354         test_112_rename_prepare
4355         replay_barrier mds2
4356         replay_barrier mds3
4357         replay_barrier mds4
4358
4359         mrename $DIR/$tdir/src_dir/src_child $DIR/$tdir/tgt_dir/tgt_child ||
4360                 error "rename dir cross MDT failed!"
4361
4362         fail mds2,mds3,mds4
4363
4364         test_112_check
4365         rm -rf $DIR/$tdir || error "rmdir failed"
4366 }
4367 run_test 112n "DNE: cross MDT rename, fail MDT2,MDT3,MDT4"
4368
4369 test_115() {
4370         [ $MDSCOUNT -lt 2 ] && skip "needs >= 2 MDTs" && return 0
4371         ([ $FAILURE_MODE == "HARD" ] &&
4372                 [ "$(facet_host mds1)" == "$(facet_host mds2)" ]) &&
4373                 skip "MDTs needs to be on diff hosts for HARD fail mode" &&
4374                 return 0
4375         local fail_index=0
4376         local index
4377         local i
4378         local j
4379
4380         mkdir -p $DIR/$tdir
4381         for ((j=0;j<$((MDSCOUNT));j++)); do
4382                 fail_index=$((fail_index+1))
4383                 index=$((fail_index % MDSCOUNT))
4384                 replay_barrier mds$((index + 1))
4385                 for ((i=0;i<5;i++)); do
4386                         test_mkdir -i$index -c$MDSCOUNT $DIR/$tdir/test_$i ||
4387                                 error "create striped dir $DIR/$tdir/test_$i"
4388                 done
4389
4390                 fail mds$((index + 1))
4391                 for ((i=0;i<5;i++)); do
4392                         checkstat -t dir $DIR/$tdir/test_$i ||
4393                                 error "$DIR/$tdir/test_$i does not exist!"
4394                 done
4395                 rm -rf $DIR/$tdir/test_* ||
4396                                 error "rmdir fails"
4397         done
4398 }
4399 run_test 115 "failover for create/unlink striped directory"
4400
4401 test_116a() {
4402         [ $MDSCOUNT -lt 2 ] && skip "needs >= 2 MDTs" && return 0
4403         [ $(lustre_version_code $SINGLEMDS) -lt $(version_code 2.7.55) ] &&
4404                 skip "Do not support large update log before 2.7.55" &&
4405                 return 0
4406         ([ $FAILURE_MODE == "HARD" ] &&
4407                 [ "$(facet_host mds1)" == "$(facet_host mds2)" ]) &&
4408                 skip "MDTs needs to be on diff hosts for HARD fail mode" &&
4409                 return 0
4410         local fail_index=0
4411
4412         mkdir -p $DIR/$tdir
4413         replay_barrier mds1
4414
4415         # OBD_FAIL_SPLIT_UPDATE_REC       0x1702
4416         do_facet mds1 "lctl set_param fail_loc=0x80001702"
4417         $LFS setdirstripe -c$MDSCOUNT $DIR/$tdir/striped_dir
4418
4419         fail mds1
4420         $CHECKSTAT -t dir $DIR/$tdir/striped_dir ||
4421                 error "stried_dir does not exists"
4422 }
4423 run_test 116a "large update log master MDT recovery"
4424
4425 test_116b() {
4426         [ $MDSCOUNT -lt 2 ] && skip "needs >= 2 MDTs" && return 0
4427         [ $(lustre_version_code $SINGLEMDS) -lt $(version_code 2.7.55) ] &&
4428                 skip "Do not support large update log before 2.7.55" &&
4429                 return 0
4430
4431         ([ $FAILURE_MODE == "HARD" ] &&
4432                 [ "$(facet_host mds1)" == "$(facet_host mds2)" ]) &&
4433                 skip "MDTs needs to be on diff hosts for HARD fail mode" &&
4434                 return 0
4435         local fail_index=0
4436
4437         mkdir -p $DIR/$tdir
4438         replay_barrier mds2
4439
4440         # OBD_FAIL_SPLIT_UPDATE_REC       0x1702
4441         do_facet mds2 "lctl set_param fail_loc=0x80001702"
4442         $LFS setdirstripe -c$MDSCOUNT $DIR/$tdir/striped_dir
4443
4444         fail mds2
4445         $CHECKSTAT -t dir $DIR/$tdir/striped_dir ||
4446                 error "stried_dir does not exists"
4447 }
4448 run_test 116b "large update log slave MDT recovery"
4449
4450 test_117() {
4451         [ $MDSCOUNT -lt 4 ] && skip "needs >= 4 MDTs" && return 0
4452         ([ $FAILURE_MODE == "HARD" ] &&
4453                 [ "$(facet_host mds1)" == "$(facet_host mds2)" ]) &&
4454                 skip "MDTs needs to be on diff hosts for HARD fail mode" &&
4455                 return 0
4456         local index
4457         local mds_indexs
4458
4459         mkdir -p $DIR/$tdir
4460         $LFS setdirstripe -i0 -c$MDSCOUNT $DIR/$tdir/remote_dir
4461         $LFS setdirstripe -i1 -c$MDSCOUNT $DIR/$tdir/remote_dir_1
4462         sleep 2
4463
4464         # Let's set rdonly on all MDTs, so client will send
4465         # replay requests on all MDTs and replay these requests
4466         # at the same time. This test will verify the recovery
4467         # will not be deadlock in this case, LU-7531.
4468         for ((index = 0; index < $((MDSCOUNT)); index++)); do
4469                 replay_barrier mds$((index + 1))
4470                 if [ -z $mds_indexs ]; then
4471                         mds_indexs="${mds_indexs}mds$((index+1))"
4472                 else
4473                         mds_indexs="${mds_indexs},mds$((index+1))"
4474                 fi
4475         done
4476
4477         rm -rf $DIR/$tdir/remote_dir
4478         rm -rf $DIR/$tdir/remote_dir_1
4479
4480         fail $mds_indexs
4481
4482         rm -rf $DIR/$tdir || error "rmdir failed"
4483 }
4484 run_test 117 "DNE: cross MDT unlink, fail MDT1 and MDT2"
4485
4486 test_118() {
4487         [ $MDSCOUNT -lt 2 ] && skip "needs >= 2 MDTs" && return 0
4488         [ $(lustre_version_code $SINGLEMDS) -lt $(version_code 2.7.64) ] &&
4489                 skip "Do not support large update log before 2.7.64" &&
4490                 return 0
4491
4492         mkdir -p $DIR/$tdir
4493
4494         $LFS setdirstripe -c2 $DIR/$tdir/striped_dir ||
4495                 error "setdirstripe fails"
4496         $LFS setdirstripe -c2 $DIR/$tdir/striped_dir1 ||
4497                 error "setdirstripe fails 1"
4498         rm -rf $DIR/$tdir/striped_dir* || error "rmdir fails"
4499
4500         # OBD_FAIL_INVALIDATE_UPDATE       0x1705
4501         do_facet mds1 "lctl set_param fail_loc=0x1705"
4502         $LFS setdirstripe -c2 $DIR/$tdir/striped_dir
4503         $LFS setdirstripe -c2 $DIR/$tdir/striped_dir1
4504         do_facet mds1 "lctl set_param fail_loc=0x0"
4505
4506         replay_barrier mds1
4507         $LFS setdirstripe -c2 $DIR/$tdir/striped_dir
4508         $LFS setdirstripe -c2 $DIR/$tdir/striped_dir1
4509         fail mds1
4510
4511         true
4512 }
4513 run_test 118 "invalidate osp update will not cause update log corruption"
4514
4515 test_119() {
4516         [ $MDSCOUNT -lt 2 ] && skip "needs >= 2 MDTs" && return 0
4517         [ $(lustre_version_code $SINGLEMDS) -lt $(version_code 2.7.64) ] &&
4518                 skip "Do not support large update log before 2.7.64" &&
4519                 return 0
4520         local stripe_count
4521         local hard_timeout=$(do_facet mds1 \
4522                 "lctl get_param -n mdt.$FSNAME-MDT0000.recovery_time_hard")
4523
4524         local clients=${CLIENTS:-$HOSTNAME}
4525         local time_min=$(recovery_time_min)
4526
4527         mkdir -p $DIR/$tdir
4528         mkdir $DIR/$tdir/tmp
4529         rmdir $DIR/$tdir/tmp
4530
4531         replay_barrier mds1
4532         mkdir $DIR/$tdir/dir_1
4533         for ((i = 0; i < 20; i++)); do
4534                 $LFS setdirstripe -c2 $DIR/$tdir/stripe_dir-$i
4535         done
4536
4537         stop mds1
4538         change_active mds1
4539         wait_for_facet mds1
4540
4541         #define OBD_FAIL_TGT_REPLAY_DELAY  0x714
4542         do_facet mds1 $LCTL set_param fail_loc=0x80000714
4543         #sleep (timeout + 5), so mds will evict the client exports,
4544         #but DNE update recovery will keep going.
4545         do_facet mds1 $LCTL set_param fail_val=$((time_min + 5))
4546
4547         mount_facet mds1 "-o recovery_time_hard=$time_min"
4548
4549         wait_clients_import_state "$clients" mds1 FULL
4550
4551         clients_up || clients_up || error "failover df: $?"
4552
4553         #revert back the hard timeout
4554         do_facet mds1 $LCTL set_param \
4555                 mdt.$FSNAME-MDT0000.recovery_time_hard=$hard_timeout
4556
4557         for ((i = 0; i < 20; i++)); do
4558                 stripe_count=$($LFS getdirstripe -c $DIR/$tdir/stripe_dir-$i)
4559                 [ $stripe_count == 2 ] || {
4560                         error "stripe_dir-$i creation replay fails"
4561                         break
4562                 }
4563         done
4564 }
4565 run_test 119 "timeout of normal replay does not cause DNE replay fails  "
4566
4567 test_120() {
4568         [ $MDSCOUNT -lt 2 ] && skip "needs >= 2 MDTs" && return 0
4569         [ $(lustre_version_code $SINGLEMDS) -lt $(version_code 2.7.64) ] &&
4570                 skip "Do not support large update log before 2.7.64" &&
4571                 return 0
4572
4573         mkdir $DIR/$tdir
4574         replay_barrier_nosync mds1
4575         for ((i = 0; i < 20; i++)); do
4576                 mkdir $DIR/$tdir/dir-$i || {
4577                         error "create dir-$i fails"
4578                         break
4579                 }
4580                 $LFS setdirstripe -c2 $DIR/$tdir/stripe_dir-$i || {
4581                         error "create stripe_dir-$i fails"
4582                         break
4583                 }
4584         done
4585
4586         fail_abort mds1
4587
4588         for ((i = 0; i < 20; i++)); do
4589                 [ ! -e "$DIR/$tdir/dir-$i" ] || {
4590                         error "dir-$i still exists"
4591                         break
4592                 }
4593                 [ ! -e "$DIR/$tdir/stripe_dir-$i" ] || {
4594                         error "stripe_dir-$i still exists"
4595                         break
4596                 }
4597         done
4598 }
4599 run_test 120 "DNE fail abort should stop both normal and DNE replay"
4600
4601 complete $SECONDS
4602 check_and_cleanup_lustre
4603 exit_status