Whamcloud - gitweb
b=14512 Fix mistake made in original patch
[fs/lustre-release.git] / lustre / tests / recovery-double-scale.sh
1 #!/bin/bash
2
3 # All pairwise combinations of node failures.
4 # Was cmd3-17
5 #
6 # Author: Chris Cooper <ccooper@clusterfs.com>
7 #
8 # Script fails pair of nodes:
9 # --  in parallel by default
10 # --  in series if SERIAL is set
11
12 LUSTRE=${LUSTRE:-`dirname $0`/..}
13 SETUP=${SETUP:-""}
14 CLEANUP=${CLEANUP:-""}
15 . $LUSTRE/tests/test-framework.sh
16
17 init_test_env $@
18
19 . ${CONFIG:=$LUSTRE/tests/cfg/$NAME.sh}
20 init_logging
21 TESTSUITELOG=${TESTSUITELOG:-$TMP/$(basename $0 .sh)}
22 DEBUGLOG=$TESTSUITELOG.debug
23
24 cleanup_logs
25
26 exec 2>$DEBUGLOG
27 echo "--- env ---" >&2
28 env >&2
29 echo "--- env ---" >&2
30 set -x
31
32 [ "$SHARED_DIRECTORY" ] || \
33     { skip "$0: Empty SHARED_DIRECTORY" && exit 0; }
34
35 [ -n "$CLIENTS" ] || { skip "$0 Need two or more remote clients" && exit 0; }
36 [ $CLIENTCOUNT -ge 3 ] || \
37     { skip "$0 Need two or more remote clients, have $CLIENTCOUNT" && exit 0; }
38
39 END_RUN_FILE=${END_RUN_FILE:-$SHARED_DIRECTORY/end_run_file}
40 LOAD_PID_FILE=${LOAD_PID_FILE:-$TMP/client-load.pid}
41
42 remote_mds_nodsh && skip "remote MDS with nodsh" && exit 0
43 remote_ost_nodsh && skip "remote OST with nodsh" && exit 0
44
45 check_timeout || exit 1
46
47 build_test_filter
48
49 check_and_setup_lustre
50 rm -rf $DIR/[df][0-9]*
51
52 # the test node needs to be insulated from a lustre failure as much as possible,
53 # so not even loading the lustre modules is ideal.
54 # -- umount lustre
55 # -- remove hostname from clients list
56 zconf_umount $(hostname) $MOUNT
57 NODES_TO_USE=${NODES_TO_USE:-$CLIENTS}
58 NODES_TO_USE=$(exclude_items_from_list $NODES_TO_USE $(hostname))
59
60 check_progs_installed $NODES_TO_USE ${CLIENT_LOADS[@]}
61
62 MDTS=$(get_facets MDS)
63 OSTS=$(get_facets OST)
64
65 rm -f $END_RUN_FILE
66
67 reboot_recover_node () {
68     # item var contains a pair of clients if nodetype=clients
69     # I would prefer to have a list here
70     local item=$1
71     local nodetype=$2   
72     local timeout=$($LCTL get_param  -n timeout)
73
74     # MDS, OST item contains the facet
75     case $nodetype in
76        MDS|OST )    facet_failover $item
77                 [ "$SERIAL" ] && wait_recovery_complete $item $((timeout * 4)) || true
78                 ;;
79        clients) for c in ${item//,/ }; do
80                       # make sure the client loads die
81                       do_nodes $c "set -x; test -f $TMP/client-load.pid && \
82                              { kill -s TERM \$(cat $TMP/client-load.pid) || true; }"
83                       shutdown_client $c
84                       boot_node $c
85                       echo "Reintegrating $c"
86                       # one client fails; need dk logs from this client only 
87                       zconf_mount $c $MOUNT || NODES="$c $(mdts_nodes) $(osts_nodes)" error_exit "zconf_mount failed"
88                  done
89                  start_client_loads $item
90                  ;;
91                 # script failure:
92                 # don't use error (), the logs from all nodes not needed
93        * )      echo "reboot_recover_node: nodetype=$nodetype. Must be one of 'MDS', 'OST', or 'clients'."
94                 exit 1;;
95     esac
96 }
97
98 get_item_type () {
99     local type=$1
100     local excluded=${2:-""}
101
102     local list
103     case $type in
104        MDS )    list=$MDTS;;
105        OST )    list=$OSTS;;
106        clients) list=$NODES_TO_USE
107                 ;;
108                 # script failure:
109                 # don't use error (), the logs from all nodes not needed
110        * )      echo "Invalid type=$type. Must be one of 'MDS', 'OST', or 'clients'."
111                 exit 1;;
112     esac
113
114     [ "$excluded" ] && list=$(exclude_items_from_list $list $excluded)
115     # empty list
116     if [ ! "$(echo $list)" ]; then
117         echo
118         return
119     fi
120
121     item=$(get_random_entry $list)
122     if [ "$type" = clients ] ; then
123         item="$item $(get_random_entry $(exclude_items_from_list $list $item))"
124         item=$(comma_list $item)
125     fi
126     echo $item
127 }
128
129 # failover_pair
130 #
131 # for the two nodetypes specified, chooses a random node(s) from each
132 # class, reboots the nodes sequentially, and then restarts lustre on
133 # the nodes.
134 failover_pair() {
135     local type1=$1
136     local type2=$2
137     local title=$3
138
139     local client_nodes=""
140     local item1=
141     local item2=
142     local client1=
143     local client2=
144
145     log "
146 ==== START === $title "
147
148     item1=$(get_item_type $type1)
149     [ "$item1" ] || \
150         { echo "type1=$type1 item1 is empty" && return 0; }
151     item2=$(get_item_type $type2 $item1)
152     [ "$item2" ] || \
153         { echo "type1=$type1 item1=$item1 type2=$type2 item2=$item2 is empty" && return 0; }
154
155     # Check that our client loads are still running. If any have died,
156     # that means they have died outside of recovery, which is unacceptable.
157     log "==== Checking the clients loads BEFORE failover -- failure NOT OK"
158
159     # FIXME. need print summary on exit
160     if ! check_client_loads $NODES_TO_USE; then
161         exit 4
162     fi
163
164     log "Done checking client loads. Failing type1=$type1 item1=$item1 ... "
165
166     reboot_recover_node $item1 $type1
167
168     # Hendrix test17 description: 
169     # Introduce a failure, wait at
170     # least 5 minutes (for recovery),
171     # introduce a 2nd
172     # failure, and wait another 5
173     # minutes
174
175     # reboot_recover_node waits recovery in according to
176     # SERIAL value.
177     # We have a "double failures" if SERIAL is not set,
178     # do not need a sleep between failures for "double failures"
179
180     log "                            Failing type2=$type2 item2=$item2 ... "    
181     reboot_recover_node $item2 $type2
182
183     # Client loads are allowed to die while in recovery, so we just
184     # restart them.
185     log "==== Checking the clients loads AFTER  failovers -- ERRORS_OK=$ERRORS_OK"
186     restart_client_loads $NODES_TO_USE $ERRORS_OK || return $? 
187     log "Done checking / re-Starting client loads. PASS"
188     return 0
189 }
190
191 summary_and_cleanup () {
192     local rc=$?
193     trap 0
194
195     # Having not empty END_RUN_FILE means the failed loads only
196     if [ -s $END_RUN_FILE ]; then
197         echo "Found the END_RUN_FILE file: $END_RUN_FILE"
198         cat $END_RUN_FILE
199         local END_RUN_NODE=
200         read END_RUN_NODE < $END_RUN_FILE
201
202         # a client load will end (i.e. fail) if it finds
203         # the end run file.  that does not mean that that client load
204         # actually failed though.  the first node in the END_RUN_NODE is
205         # the one we are really interested in.
206         if [ -n "$END_RUN_NODE" ]; then
207             var=$(client_var_name $END_RUN_NODE)_load
208             echo "Client load failed on node $END_RUN_NODE"
209             echo
210             echo "client $END_RUN_NODE load debug output :"
211             local logfile=${TESTSUITELOG}_run_${!var}.sh-${END_RUN_NODE}.debug 
212             do_node ${END_RUN_NODE} "set -x; [ -e $logfile ] && cat $logfile " || true
213         fi
214         rc=1
215     fi
216
217     echo $(date +'%F %H:%M:%S') Terminating clients loads ...
218     echo "$0" >> $END_RUN_FILE
219     local result=PASS
220     [ $rc -eq 0 ] || result=FAIL
221
222     log "
223 Server failover period: $FAILOVER_PERIOD seconds
224 Exited after:           $ELAPSED seconds
225 Status: $result: rc=$rc"
226
227     # make sure the client loads die
228     do_nodes $NODES_TO_USE "set -x; test -f $TMP/client-load.pid && \
229         { kill -s TERM \$(cat $TMP/client-load.pid) || true; }"
230
231     # and free up the pdshes that started them, if any are still around
232     if [ -n "$CLIENT_LOAD_PIDS" ]; then
233         kill $CLIENT_LOAD_PIDS || true
234         sleep 5
235         kill -9 $CLIENT_LOAD_PIDS || true
236     fi
237
238     if [ $rc -ne 0 ]; then
239         # we are interested in only on failed clients and servers
240         local failedclients=$(cat $END_RUN_FILE | grep -v $0)
241         # FIXME: need ostfailover-s nodes also for FLAVOR=OST
242         local product=$(gather_logs $(comma_list $(osts_nodes) \
243                                  $(mdts_nodes) $mdsfailover_HOST $failedclients))
244         echo logs files $product
245     fi
246
247     [ $rc -eq 0 ] && zconf_mount $(hostname) $MOUNT
248     exit $rc
249 }
250
251 trap summary_and_cleanup EXIT TERM INT
252
253 #
254 # MAIN
255 #
256 log "-----============= $0 starting =============-----"
257
258 START_TS=$(date +%s)
259 CURRENT_TS=$START_TS
260 ELAPSED=0
261
262 # Set SERIAL to serialize the failure through a recovery of the first failure. 
263 SERIAL=${SERIAL:-""}
264 ERRORS_OK="yes"
265
266 [ "$SERIAL" ] && ERRORS_OK="" 
267
268 FAILOVER_PERIOD=${FAILOVER_PERIOD:-$((60*5))} # 5 minutes
269
270 # Start client loads.
271 start_client_loads $NODES_TO_USE
272 echo clients load pids:
273 if ! do_nodesv $NODES_TO_USE "cat $TMP/client-load.pid"; then
274         exit 3
275 fi
276
277 # FIXME: Do we want to have an initial sleep period where the clients 
278 # just run before introducing a failure?
279 sleep $FAILOVER_PERIOD
280
281 #CMD_TEST_NUM=17.1
282 failover_pair MDS OST     "test 1: failover MDS, then OST =========="
283 sleep $FAILOVER_PERIOD
284
285 #CMD_TEST_NUM=17.2
286 failover_pair MDS clients "test 2: failover MDS, then 2 clients ===="
287 sleep $FAILOVER_PERIOD
288
289 #CMD_TEST_NUM=17.3
290 if [ $MDSCOUNT -gt 1 ]; then
291     failover_pair MDS MDS     "test 3: failover MDS, then another MDS =="
292     sleep $FAILOVER_PERIOD
293 else
294     skip "$0 : $MDSCOUNT < 2 MDTs, test 3 skipped"
295 fi 
296
297 #CMD_TEST_NUM=17.4
298 if [ $OSTCOUNT -gt 1 ]; then
299     failover_pair OST OST     "test 4: failover OST, then another OST =="
300     sleep $FAILOVER_PERIOD
301 else
302     skip "$0 : $OSTCOUNT < 2 OSTs, test 4 skipped"
303 fi 
304
305 #CMD_TEST_NUM=17.5
306 failover_pair OST clients "test 5: failover OST, then 2 clients ===="
307 sleep $FAILOVER_PERIOD
308
309 #CMD_TEST_NUM=17.6
310 failover_pair OST MDS     "test 6: failover OST, then MDS =========="
311 sleep $FAILOVER_PERIOD
312
313 #CMD_TEST_NUM=17.7
314 failover_pair clients MDS "test 7: failover 2 clients, then MDS ===="
315 sleep $FAILOVER_PERIOD
316
317 #CMD_TEST_NUM=17.8
318 #failover_pair clients OST "test 8: failover 2 clients, then OST ===="
319 sleep $FAILOVER_PERIOD
320
321 #CMD_TEST_NUM=17.9
322 if [ $CLIENTCOUNT -ge 5 ]; then
323     failover_pair clients clients "test 9: failover 2 clients, then 2 different clients =="
324     sleep $FAILOVER_PERIOD
325 fi
326 log "==== Checking the clients loads AFTER  all failovers -- failure NOT OK"
327 if ! check_client_loads $NODES_TO_USE; then
328     log "Client load failed after failover. Exiting"
329     exit 5
330 fi
331
332 CURRENT_TS=$(date +%s)
333 ELAPSED=$((CURRENT_TS - START_TS))
334
335 log "Completed successfully in $ELAPSED seconds"
336
337 exit 0