Whamcloud - gitweb
50a933ac70c73a252fe4d18aabc9611b2e995bb7
[fs/lustre-release.git] / lustre / tests / recovery-mds-scale.sh
1 #!/bin/bash
2
3 # Was Test 11 in cmd3.
4 # For duration of 24 hours repeatedly failover a random MDS at
5 # 10 minute intervals and verify that no application errors occur.
6
7 # Test runs one of CLIENT_LOAD progs on remote clients.
8
9 LUSTRE=${LUSTRE:-`dirname $0`/..}
10 SETUP=${SETUP:-""}
11 CLEANUP=${CLEANUP:-""}
12 . $LUSTRE/tests/test-framework.sh
13
14 init_test_env $@
15
16 . ${CONFIG:=$LUSTRE/tests/cfg/$NAME.sh}
17 init_logging
18
19 TESTSUITELOG=${TESTSUITELOG:-$TMP/$(basename $0 .sh)}
20 DEBUGLOG=$TESTSUITELOG.debug
21
22 cleanup_logs
23
24 exec 2>$DEBUGLOG
25 echo "--- env ---" >&2
26 env >&2
27 echo "--- env ---" >&2
28 set -x
29
30 [ "$SHARED_DIRECTORY" ] || \
31     { skip "$0: Empty SHARED_DIRECTORY" && exit 0; }
32
33 [ -n "$CLIENTS" ] || { skip "$0 Need two or more remote clients" && exit 0; }
34 [ $CLIENTCOUNT -ge 3 ] || \
35     { skip "$0 Need two or more remote clients, have $CLIENTCOUNT" && exit 0; }
36
37 END_RUN_FILE=${END_RUN_FILE:-$SHARED_DIRECTORY/end_run_file}
38 LOAD_PID_FILE=${LOAD_PID_FILE:-$TMP/client-load.pid}
39
40 remote_mds_nodsh && skip "remote MDS with nodsh" && exit 0
41 remote_ost_nodsh && skip "remote OST with nodsh" && exit 0
42
43 build_test_filter
44
45 check_and_setup_lustre
46 rm -rf $DIR/[df][0-9]*
47
48 max_recov_time=$(max_recovery_time)
49
50 # the test node needs to be insulated from a lustre failure as much as possible,
51 # so not even loading the lustre modules is ideal.
52 # -- umount lustre
53 # -- remove hostname from clients list
54 zconf_umount $(hostname) $MOUNT
55 NODES_TO_USE=${NODES_TO_USE:-$CLIENTS}
56 NODES_TO_USE=$(exclude_items_from_list $NODES_TO_USE $(hostname))
57
58 check_progs_installed $NODES_TO_USE ${CLIENT_LOADS[@]}
59
60 MDTS=$(get_facets MDS)
61 OSTS=$(get_facets OST)
62
63 ERRORS_OK=""    # No application failures should occur during this test.
64 FLAVOR=${FLAVOR:-"MDS"}
65
66 if [ "$FLAVOR" == "MDS" ]; then
67     SERVERS=$MDTS
68 else
69     SERVERS=$OSTS
70 fi
71  
72 if [ "$SLOW" = "no" ]; then
73     DURATION=${DURATION:-$((60 * 30))}
74     SERVER_FAILOVER_PERIOD=${SERVER_FAILOVER_PERIOD:-$((60 * 5))}
75 else
76     DURATION=${DURATION:-$((60 * 60 * 24))}
77     SERVER_FAILOVER_PERIOD=${SERVER_FAILOVER_PERIOD:-$((60 * 10))} # 10 minutes
78 fi
79
80 rm -f $END_RUN_FILE
81
82 vmstatLOG=${TESTSUITELOG}_$(basename $0 .sh).vmstat
83
84 server_numfailovers () {
85     local facet
86     local var
87
88     for facet in $MDTS ${OSTS//,/ }; do
89         var=${facet}_nums
90         val=${!var}
91         if [ "$val" ] ; then
92             echo "$facet failed  over  $val times"
93         fi
94     done
95 }
96
97 summary_and_cleanup () {
98
99     local rc=$?
100     local var
101     trap 0
102
103     # Having not empty END_RUN_FILE means the failed loads only
104     if [ -s $END_RUN_FILE ]; then
105         echo "Found the END_RUN_FILE file: $END_RUN_FILE"
106         cat $END_RUN_FILE
107         local END_RUN_NODE=
108         read END_RUN_NODE < $END_RUN_FILE
109
110     # a client load will end (i.e. fail) if it finds
111     # the end run file.  that does not mean that that client load
112     # actually failed though.  the first node in the END_RUN_NODE is
113     # the one we are really interested in.
114         if [ -n "$END_RUN_NODE" ]; then
115             var=$(client_var_name $END_RUN_NODE)_load
116             echo "Client load failed on node $END_RUN_NODE" 
117             echo
118             echo "client $END_RUN_NODE load stdout and debug files :
119               ${TESTSUITELOG}_run_${!var}.sh-${END_RUN_NODE}
120               ${TESTSUITELOG}_run_${!var}.sh-${END_RUN_NODE}.debug"
121         fi
122         rc=1
123     fi
124      
125     echo $(date +'%F %H:%M:%S') Terminating clients loads ...
126     echo "$0" >> $END_RUN_FILE
127     local result=PASS
128     [ $rc -eq 0 ] || result=FAIL
129
130     log "Duration:                $DURATION
131 Server failover period: $SERVER_FAILOVER_PERIOD seconds
132 Exited after:           $ELAPSED seconds
133 Number of failovers before exit:
134 $(server_numfailovers)
135 Status: $result: rc=$rc"
136
137     # stop the vmstats on the OSTs
138     if [ "$VMSTAT" ]; then
139         do_nodes $(comma_list $(osts_nodes)) "test -f /tmp/vmstat.pid && \
140             { kill -s TERM \$(cat /tmp/vmstat.pid); rm -f /tmp/vmstat.pid; \
141             gzip -f9 $vmstatLOG-\$(hostname); }"
142     fi
143
144     # make sure the client loads die
145     do_nodes $NODES_TO_USE "set -x; test -f $LOAD_PID_FILE && \
146         { kill -s TERM \$(cat $LOAD_PID_FILE) || true; }"
147
148     # and free up the pdshes that started them, if any are still around
149     if [ -n "$CLIENT_LOAD_PIDS" ]; then
150         kill $CLIENT_LOAD_PIDS || true
151         sleep 5
152         kill -9 $CLIENT_LOAD_PIDS || true
153     fi
154     if [ $rc -ne 0 ]; then
155         # we are interested in only on failed clients and servers
156         local failedclients=$(cat $END_RUN_FILE | grep -v $0)
157         # FIXME: need ostfailover-s nodes also for FLAVOR=OST
158         local product=$(gather_logs $(comma_list $(osts_nodes) \
159                                $(mdts_nodes) $mdsfailover_HOST $failedclients))
160         echo logs files $product
161     fi
162
163     [ $rc -eq 0 ] && zconf_mount $(hostname) $MOUNT
164
165     exit $rc
166 }
167
168 #
169 # MAIN 
170 #
171 log "-----============= $0 starting =============-----"
172
173 trap summary_and_cleanup EXIT INT
174
175 ELAPSED=0
176 NUM_FAILOVERS=0
177
178 # vmstat the osts
179 if [ "$VMSTAT" ]; then
180     do_nodes $(comma_list $(osts_nodes)) "vmstat 1 > $vmstatLOG-\$(hostname) 2>/dev/null </dev/null & echo \$! > /tmp/vmstat.pid"
181 fi
182
183 # Start client loads.
184 start_client_loads $NODES_TO_USE
185
186 echo clients load pids:
187 if ! do_nodesv $NODES_TO_USE "cat $LOAD_PID_FILE"; then
188         exit 3
189 fi
190
191 MINSLEEP=${MINSLEEP:-120}
192 REQFAIL_PERCENT=${REQFAIL_PERCENT:-3}   # bug17839 comment 62
193 REQFAIL=${REQFAIL:-$(( DURATION / SERVER_FAILOVER_PERIOD * REQFAIL_PERCENT / 100))}
194 reqfail=0
195 sleep=0
196
197 START_TS=$(date +%s)
198 CURRENT_TS=$START_TS
199
200 while [ $ELAPSED -lt $DURATION -a ! -e $END_RUN_FILE ]; do
201
202     # In order to perform the 
203     # expected number of failovers, we need to account the following :
204     # 1) the time that has elapsed during the client load checking
205     # 2) time takes for failover
206
207     it_time_start=$(date +%s)
208     
209     SERVERFACET=$(get_random_entry $SERVERS)
210     var=${SERVERFACET}_nums
211
212     # Check that our client loads are still running. If any have died, 
213     # that means they have died outside of recovery, which is unacceptable.    
214
215     log "==== Checking the clients loads BEFORE failover -- failure NOT OK \
216     ELAPSED=$ELAPSED DURATION=$DURATION PERIOD=$SERVER_FAILOVER_PERIOD" 
217
218     if ! check_client_loads $NODES_TO_USE; then
219         exit 4
220     fi
221
222     log "Wait $SERVERFACET recovery complete before doing next failover ...."
223     if [[ $NUM_FAILOVERS != 0 ]]; then
224         if ! wait_recovery_complete $SERVERFACET ; then
225             echo "$SERVERFACET recovery is not completed!"
226             exit 7
227         fi
228     fi
229
230     log "Checking clients are in FULL state before doing next failover"
231     if ! wait_clients_import_state $NODES_TO_USE $SERVERFACET FULL; then
232         echo "Clients import not FULL, please consider to increase SERVER_FAILOVER_PERIOD=$SERVER_FAILOVER_PERIOD !"
233         
234     fi
235     log "Starting failover on $SERVERFACET"
236
237     facet_failover "$SERVERFACET" || exit 1
238
239     # Check that our client loads are still running during failover.
240     # No application failures should occur.
241
242     log "==== Checking the clients loads AFTER  failover -- failure NOT OK"
243     if ! check_client_loads $NODES_TO_USE; then
244         log "Client load failed during failover. Exiting"
245         exit 5
246     fi
247
248     # Increment the number of failovers
249     NUM_FAILOVERS=$((NUM_FAILOVERS+1))
250     val=$((${!var} + 1))
251     eval $var=$val
252  
253     CURRENT_TS=$(date +%s)
254     ELAPSED=$((CURRENT_TS - START_TS))
255  
256     sleep=$((SERVER_FAILOVER_PERIOD-(CURRENT_TS - it_time_start)))
257
258     # keep count the number of itterations when
259     # time spend to failover and two client loads check exceeded 
260     # the value ( SERVER_FAILOVER_PERIOD - MINSLEEP )
261     if [ $sleep -lt $MINSLEEP ]; then
262         reqfail=$((reqfail +1))
263         log "WARNING: failover and two check_client_loads time exceeded SERVER_FAILOVER_PERIOD - MINSLEEP !
264 Failed to load the filesystem with I/O for a minimum period of $MINSLEEP $reqfail times ( REQFAIL=$REQFAIL ).
265 This iteration, the load was only applied for sleep=$sleep seconds.
266 Estimated max recovery time : $max_recov_time
267 Probably the hardware is taking excessively long to boot.
268 Try to increase SERVER_FAILOVER_PERIOD (current is $SERVER_FAILOVER_PERIOD), bug 20918"
269         [ $reqfail -gt $REQFAIL ] && exit 6 
270     fi  
271
272     log "$SERVERFACET has failed over ${!var} times, and counting..."
273
274     if [ $((ELAPSED + sleep)) -gt $DURATION ]; then
275          break
276     fi
277
278     if [ $sleep -gt 0 ]; then 
279         echo "sleeping $sleep seconds ... "
280         sleep $sleep
281     fi
282 done
283
284 exit 0