Whamcloud - gitweb
7bd3ca1ec04655c399060839088202b75745c419
[fs/lustre-release.git] / lustre / tests / replay-ost-single.sh
1 #!/bin/bash
2
3 set -e
4
5 LUSTRE=${LUSTRE:-$(dirname $0)/..}
6 . $LUSTRE/tests/test-framework.sh
7 init_test_env "$@"
8 init_logging
9
10 # bug number for skipped test:
11 ALWAYS_EXCEPT="$REPLAY_OST_SINGLE_EXCEPT"
12 # UPDATE THE COMMENT ABOVE WITH BUG NUMBERS WHEN CHANGING ALWAYS_EXCEPT!
13
14 # bug number for SLOW test:
15 # time in minutes:                 40 min"
16 [ "$SLOW" = "no" ] && EXCEPT_SLOW="5"
17
18 build_test_filter
19
20 # While we do not use OSTCOUNT=1 setup anymore,
21 # ost1failover_HOST is used
22 #ostfailover_HOST=${ostfailover_HOST:-$ost_HOST}
23 #failover= must be defined in OST_MKFS_OPTIONS if ostfailover_HOST != ost_HOST
24
25 require_dsh_ost || exit 0
26
27 check_and_setup_lustre
28 assert_DIR
29 rm -rf $DIR/[df][0-9]*
30
31 TDIR=$DIR/d0.${TESTSUITE}
32 mkdir_on_mdt0 $TDIR
33 $LFS setstripe $TDIR -i 0 -c 1
34 $LFS getstripe $TDIR
35
36 force_new_seq_all
37
38 test_0a() {
39         zconf_umount $(hostname) $MOUNT -f
40         # needs to run during initial client->OST connection
41         #define OBD_FAIL_OST_ALL_REPLY_NET       0x211
42         do_facet ost1 "lctl set_param fail_loc=0x80000211"
43         zconf_mount $(hostname) $MOUNT && $LFS df $MOUNT || error "mount fail"
44 }
45 run_test 0a "target handle mismatch (bug 5317)"
46
47 test_0b() {
48         fail ost1
49         cp /etc/profile  $TDIR/$tfile
50         sync
51         diff /etc/profile $TDIR/$tfile
52         rm -f $TDIR/$tfile
53 }
54 run_test 0b "empty replay"
55
56 test_1() {
57         date > $TDIR/$tfile || error "error creating $TDIR/$tfile"
58         fail ost1
59         $CHECKSTAT -t file $TDIR/$tfile || error "check for file failed"
60         rm -f $TDIR/$tfile
61 }
62 run_test 1 "touch"
63
64 test_2() {
65         for i in $(seq 10); do
66                 echo "tag-$i" > $TDIR/$tfile-$i ||
67                         error "create $TDIR/$tfile-$i failed"
68         done
69         fail ost1
70         for i in $(seq 10); do
71                 grep -q "tag-$i" $TDIR/$tfile-$i ||
72                         error "grep $TDIR/$tfile-$i failed"
73         done
74         rm -f $TDIR/$tfile-*
75 }
76 run_test 2 "|x| 10 open(O_CREAT)s"
77
78 test_3() {
79         verify=$ROOT/tmp/verify-$$
80         dd if=/dev/urandom bs=4096 count=1280 | tee $verify > $TDIR/$tfile &
81         ddpid=$!
82         sync &
83         fail ost1
84         wait $ddpid || error "wait for dd failed"
85         cmp $verify $TDIR/$tfile || error "compare $verify $TDIR/$tfile failed"
86         rm -f $verify $TDIR/$tfile
87 }
88 run_test 3 "Fail OST during write, with verification"
89
90 test_4() {
91         verify=$ROOT/tmp/verify-$$
92         dd if=/dev/urandom bs=4096 count=1280 | tee $verify > $TDIR/$tfile
93         # invalidate cache, so that we're reading over the wire
94         cancel_lru_locks osc
95         cmp $verify $TDIR/$tfile &
96         cmppid=$!
97         fail ost1
98         wait $cmppid || error "wait on cmp failed"
99         rm -f $verify $TDIR/$tfile
100 }
101 run_test 4 "Fail OST during read, with verification"
102
103 iozone_bg () {
104     local args=$@
105
106     local tmppipe=$TMP/${TESTSUITE}.${TESTNAME}.pipe
107     mkfifo $tmppipe
108
109     echo "+ iozone $args"
110     iozone $args > $tmppipe &
111
112     local pid=$!
113
114     echo "tmppipe=$tmppipe"
115     echo iozone pid=$pid
116
117     # iozone exit code is 0 even if iozone is not completed
118     # need to check iozone output  on "complete"
119     local iozonelog=$TMP/${TESTSUITE}.iozone.log
120     rm -f $iozonelog
121     cat $tmppipe | while read line ; do
122         echo "$line"
123         echo "$line" >>$iozonelog
124     done;
125
126     local rc=0
127     wait $pid
128     rc=$?
129     if ! $(tail -1 $iozonelog | grep -q complete); then
130         echo iozone failed!
131         rc=1
132     fi
133     rm -f $tmppipe
134     rm -f $iozonelog
135     return $rc
136 }
137
138 test_5() {
139         if [ -z "$(which iozone 2> /dev/null)" ]; then
140                 skip_env "iozone missing"
141                 return 0
142         fi
143
144         # striping is -c 1, get min of available
145         local minavail=$(lctl get_param -n osc.*[oO][sS][cC][-_]*.kbytesavail |
146                 sort -n | head -n1)
147         local size=$(( minavail * 3/4 ))
148         local GB=1048576  # 1048576KB == 1GB
149
150         if (( size > GB )); then
151                 size=$GB
152         fi
153         # no random I/O (-i 2) as it's very slow with ZFS
154         local iozone_opts="-i 0 -i 1 -+d -r 4 -s $size -f $TDIR/$tfile"
155
156         iozone_bg $iozone_opts &
157         local pid=$!
158
159         echo iozone bg pid=$pid
160
161         sleep 8
162         fail ost1
163         local rc=0
164         wait $pid || error "wait on iozone failed"
165         rc=$?
166         log "iozone rc=$rc"
167         rm -f $TDIR/$tfile
168         wait_delete_completed_mds
169         [ $rc -eq 0 ] || error "iozone failed"
170         return $rc
171 }
172 run_test 5 "Fail OST during iozone"
173
174 test_6() {
175         remote_mds_nodsh && skip "remote MDS with nodsh" && return 0
176
177         local f=$TDIR/$tfile
178         sync && sleep 5 && sync  # wait for delete thread
179
180         # wait till space is returned, following
181         # (( $before > $after_dd)) test counting on that
182         wait_mds_ost_sync || error "first wait_mds_ost_sync failed"
183         wait_destroy_complete || error "first wait_destroy_complete failed"
184         sync_all_data
185
186         local before=$(calc_osc_kbytes kbytesfree)
187         dd if=/dev/urandom bs=4096 count=1280 of=$f || error "dd failed"
188         $LFS getstripe $f || error "$LFS getstripe $f failed"
189         local stripe_index=$(lfs getstripe -i $f)
190
191         sync
192         sleep 2 # ensure we have a fresh statfs
193         sync
194
195         #define OBD_FAIL_MDS_REINT_NET_REP       0x119
196         do_facet $SINGLEMDS "lctl set_param fail_loc=0x80000119"
197
198         wait_mds_ost_sync || error "second wait_mds_ost_sync failed"
199
200         # retry till statfs returns useful results
201         local after_dd=$(calc_osc_kbytes kbytesfree)
202         local i=0
203         while (( $before <= $after_dd && $i < 20 )); do
204                 sync
205                 sleep 1
206                 let ++i
207                 after_dd=$(calc_osc_kbytes kbytesfree)
208         done
209
210         log "before_free: $before after_dd_free: $after_dd took $i seconds"
211         (( $before > $after_dd )) ||
212                 error "free grew after dd: before:$before after_dd:$after_dd"
213
214         rm -f $f
215         fail ost$((stripe_index + 1))
216         wait_recovery_complete ost$((stripe_index + 1)) ||
217                 error "OST$((stripe_index + 1)) recovery not completed"
218         $CHECKSTAT -t file $f && return 2 || true
219         sync
220         # let the delete happen
221         wait_mds_ost_sync || error "third wait_mds_ost_sync failed"
222         wait_delete_completed || error "second wait_delete_completed failed"
223         local after=$(calc_osc_kbytes kbytesfree)
224         log "free_before: $before free_after: $after"
225         (( $before <= $after + $(fs_log_size) )) ||
226                 error "$before > $after + logsize $(fs_log_size)"
227 }
228 run_test 6 "Fail OST before obd_destroy"
229
230 test_7() {
231         local f=$TDIR/$tfile
232         sync && sleep 5 && sync # wait for delete thread
233
234         # wait till space is returned, following
235         # (( $before > $after_dd)) test counting on that
236         wait_mds_ost_sync || error "wait_mds_ost_sync failed"
237         wait_destroy_complete || error "wait_destroy_complete failed"
238
239         local before=$(calc_osc_kbytes kbytesfree)
240         dd if=/dev/urandom bs=4096 count=1280 of=$f ||
241                 error "dd to file failed: $?"
242
243         sync
244         local after_dd=$(calc_osc_kbytes kbytesfree)
245         local i=0
246         while (( $before <= $after_dd && $i < 10 )); do
247                 sync
248                 sleep 1
249                 let ++i
250                 after_dd=$(calc_osc_kbytes kbytesfree)
251         done
252
253         log "before: $before after_dd: $after_dd took $i seconds"
254         (( $before > $after_dd )) ||
255                 error "space grew after dd: before:$before after_dd:$after_dd"
256         replay_barrier ost1
257         rm -f $f
258         fail ost1
259         wait_recovery_complete ost1 || error "OST recovery not done"
260         $CHECKSTAT -t file $f && return 2 || true
261         sync
262         # let the delete happen
263         wait_mds_ost_sync || error "wait_mds_ost_sync failed"
264         wait_delete_completed || error "wait_delete_completed failed"
265         local after=$(calc_osc_kbytes kbytesfree)
266         log "before: $before after: $after"
267         (( $before <= $after + $(fs_log_size) )) ||
268                  error "$before > $after + logsize $(fs_log_size)"
269 }
270 run_test 7 "Fail OST before obd_destroy"
271
272 test_8a() {
273         [[ "$MDS1_VERSION" -ge $(version_code 2.3.0) ]] ||
274                 skip "Need MDS version at least 2.3.0"
275         verify=$ROOT/tmp/verify-$$
276         dd if=/dev/urandom of=$verify bs=4096 count=1280 ||
277                 error "Create verify file failed"
278         #define OBD_FAIL_OST_DQACQ_NET 0x230
279         do_facet ost1 "lctl set_param fail_loc=0x230"
280         dd if=$verify of=$TDIR/$tfile bs=4096 count=1280 oflag=sync &
281         ddpid=$!
282         sleep $TIMEOUT  # wait for the io to become redo io
283         if ! ps -p $ddpid  > /dev/null 2>&1; then
284                 error "redo io finished incorrectly"
285         fi
286         do_facet ost1 "lctl set_param fail_loc=0"
287         wait $ddpid || true
288         cancel_lru_locks osc
289         cmp $verify $TDIR/$tfile || error "compare $verify $TDIR/$tfile failed"
290         rm -f $verify $TDIR/$tfile
291         message=$(dmesg | grep "redo for recoverable error -115")
292         [ -z "$message" ] || error "redo error messages found in dmesg"
293 }
294 run_test 8a "Verify redo io: redo io when get -EINPROGRESS error"
295
296 test_8b() {
297         [[ "$MDS1_VERSION" -ge $(version_code 2.3.0) ]] ||
298                 skip "Need MDS version at least 2.3.0"
299         verify=$ROOT/tmp/verify-$$
300         dd if=/dev/urandom of=$verify bs=4096 count=1280 ||
301                 error "Create verify file failed"
302         #define OBD_FAIL_OST_DQACQ_NET 0x230
303         do_facet ost1 "lctl set_param fail_loc=0x230"
304         dd if=$verify of=$TDIR/$tfile bs=4096 count=1280 oflag=sync &
305         ddpid=$!
306         sleep $TIMEOUT  # wait for the io to become redo io
307         fail ost1
308         do_facet ost1 "lctl set_param fail_loc=0"
309         wait $ddpid || error "dd did not complete"
310         cancel_lru_locks osc
311         cmp $verify $TDIR/$tfile || error "compare $verify $TDIR/$tfile failed"
312         rm -f $verify $TDIR/$tfile
313 }
314 run_test 8b "Verify redo io: redo io should success after recovery"
315
316 test_8c() {
317         [[ "$MDS1_VERSION" -ge $(version_code 2.3.0) ]] ||
318                 skip "Need MDS version at least 2.3.0"
319         verify=$ROOT/tmp/verify-$$
320         dd if=/dev/urandom of=$verify bs=4096 count=1280 ||
321                 error "Create verify file failed"
322         #define OBD_FAIL_OST_DQACQ_NET 0x230
323         do_facet ost1 "lctl set_param fail_loc=0x230"
324         dd if=$verify of=$TDIR/$tfile bs=4096 count=1280 oflag=sync &
325         ddpid=$!
326         sleep $TIMEOUT  # wait for the io to become redo io
327         ost_evict_client
328         # allow recovery to complete
329         sleep $((TIMEOUT + 2))
330         do_facet ost1 "lctl set_param fail_loc=0"
331         wait $ddpid
332         cancel_lru_locks osc
333         cmp $verify $TDIR/$tfile && error "compare files should fail"
334         rm -f $verify $TDIR/$tfile
335 }
336 run_test 8c "Verify redo io: redo io should fail after eviction"
337
338 test_8d() {
339         [[ "$MDS1_VERSION" -ge $(version_code 2.3.0) ]] ||
340                 skip "Need MDS version at least 2.3.0"
341         #define OBD_FAIL_MDS_DQACQ_NET 0x187
342         do_facet $SINGLEMDS "lctl set_param fail_loc=0x187"
343         # test the non-intent create path
344         mcreate $TDIR/$tfile &
345         cpid=$!
346         sleep $TIMEOUT
347         if ! ps -p $cpid  > /dev/null 2>&1; then
348                 error "mknod finished incorrectly"
349         fi
350         do_facet $SINGLEMDS "lctl set_param fail_loc=0"
351         wait $cpid || error "mcreate did not complete"
352         stat $TDIR/$tfile || error "mknod failed"
353
354         rm $TDIR/$tfile
355
356         #define OBD_FAIL_MDS_DQACQ_NET 0x187
357         do_facet $SINGLEMDS "lctl set_param fail_loc=0x187"
358         # test the intent create path
359         openfile -f O_RDWR:O_CREAT $TDIR/$tfile &
360         cpid=$!
361         sleep $TIMEOUT
362         if ! ps -p $cpid > /dev/null 2>&1; then
363                 error "open finished incorrectly"
364         fi
365         do_facet $SINGLEMDS "lctl set_param fail_loc=0"
366         wait $cpid || error "openfile failed"
367         stat $TDIR/$tfile || error "open failed"
368 }
369 run_test 8d "Verify redo creation on -EINPROGRESS"
370
371 test_8e() {
372         [[ "$MDS1_VERSION" -ge $(version_code 2.3.0) ]] ||
373                 skip "Need MDS version at least 2.3.0"
374         sleep 1 # ensure we have a fresh statfs
375         #define OBD_FAIL_OST_STATFS_EINPROGRESS 0x231
376         do_facet ost1 "lctl set_param fail_loc=0x231"
377         $LFS df $MOUNT &
378         dfpid=$!
379         sleep $TIMEOUT
380         if ! ps -p $dfpid  > /dev/null 2>&1; then
381                 do_facet ost1 "lctl set_param fail_loc=0"
382                 error "df shouldn't have completed!"
383         fi
384 }
385 run_test 8e "Verify that ptlrpc resends request on -EINPROGRESS"
386
387 test_9() {
388         [ "$OST1_VERSION" -ge $(version_code 2.6.54) ] ||
389                 skip "Need OST version at least 2.6.54"
390         $LFS setstripe -i 0 -c 1 $DIR/$tfile || error "setstripe failed"
391
392         # LU-1573 - Add duplicate write to generate grants
393         dd if=/dev/zero of=$DIR/$tfile count=1 bs=1M > /dev/null ||
394                 error "First write failed"
395         replay_barrier ost1
396         # do IO
397         dd if=/dev/zero of=$DIR/$tfile count=1 bs=1M > /dev/null ||
398                 error "failed to write"
399         # failover, replay and resend replayed waiting request
400         #define OBD_FAIL_TGT_REPLAY_DELAY2       0x714
401         do_facet ost1 $LCTL set_param fail_loc=0x00000714
402         do_facet ost1 $LCTL set_param fail_val=$TIMEOUT
403         fail ost1
404         do_facet ost1 $LCTL set_param fail_loc=0
405         do_facet ost1 "dmesg | tail -n 100" |
406                 sed -n '/no req deadline/,$ p' | grep -qi 'Already past' &&
407                 return 1
408         return 0
409 }
410 run_test 9 "Verify that no req deadline happened during recovery"
411
412 test_10() {
413         rm -f $TDIR/$tfile
414
415         dd if=/dev/zero of=$TDIR/$tfile count=10 || error "dd failed"
416
417         #define OBD_FAIL_OSC_DELAY_IO            0x414
418         $LCTL set_param fail_val=60 fail_loc=0x414
419         cancel_lru_locks OST0000-osc &
420         sleep 2
421         facet_failover ost1 || error "failover: $?"
422
423         #define OBD_FAIL_LDLM_GRANT_CHECK        0x32a
424         $LCTL set_param fail_loc=0x32a
425         stat $TDIR/$tfile
426
427         wait
428 }
429 run_test 10 "conflicting PW & PR locks on a client"
430
431 test_12a() {
432         (( $OST1_VERSION >= $(version_code 2.14.57) )) ||
433                 skip "Need OSS version at least 2.14.57"
434
435         remote_ost || { skip "need remote OST" && return 0; }
436
437         local tmp=$TMP/$tdir
438         local dir=$DIR/$tdir
439
440         mkdir -p $tmp || error "can't create $tmp"
441         mkdir -p $dir || error "can't create $dir"
442
443         $LFS setstripe -c 1 -i 0 $dir
444
445         for i in $(seq 1 10); do mkdir $dir/d$i; done
446
447         # get client connected if was idle
448         touch $dir/file1
449         sync
450
451         replay_barrier ost1
452
453         for i in $(seq 1 10); do
454                 createmany -o $dir/d$i/file 500
455         done
456
457         ls -lR $dir > $tmp/ls_r_out 2>&1&
458         local ls_pid=$!
459
460         facet_failover ost1
461
462         echo "starting wait for ls -l"
463         wait $ls_pid
464         grep "?\|No such file or directory" $tmp/ls_r_out &&
465                 error "Found file without object on OST"
466         rm -rf $tmp
467         rm -rf $dir
468 }
469 run_test 12a "glimpse after OST failover to a missing object"
470
471 test_12b() {
472         remote_ost || { skip "need remote OST" && return 0; }
473
474         local dir=$DIR/$tdir
475         local rc
476
477         test_mkdir -p -i 0 $dir || error "can't create $dir"
478
479         $LFS setstripe -c 1 -i 0 $dir
480
481         for i in $(seq 1 10); do mkdir $dir/d$i; done
482         replay_barrier ost1
483
484         for i in $(seq 1 10); do
485                 createmany -o $dir/d$i/file 500
486         done
487
488         #define OBD_FAIL_MDS_DELAY_DELORPHAN     0x16e
489         do_facet mds1 "$LCTL set_param fail_loc=0x16e fail_val=10" ||
490                 error "can't set fail_loc"
491         facet_failover ost1
492
493         dd if=/dev/zero of=$dir/d10/file499 count=1 bs=4K > /dev/null
494         rc=$?
495         [[ $rc -eq 0 ]] || error "dd failed: $rc"
496
497         rm -rf $dir
498 }
499 run_test 12b "write after OST failover to a missing object"
500
501 complete_test $SECONDS
502 check_and_cleanup_lustre
503 exit_status