Whamcloud - gitweb
Branch HEAD
[fs/lustre-release.git] / lustre / tests / parallel-scale.sh
index 246fb5e..a7613e0 100644 (file)
@@ -2,20 +2,20 @@
 #
 #set -vx
 
-set -e
-
 LUSTRE=${LUSTRE:-$(cd $(dirname $0)/..; echo $PWD)}
 . $LUSTRE/tests/test-framework.sh
 init_test_env $@
 . ${CONFIG:=$LUSTRE/tests/cfg/$NAME.sh}
 
+#              bug 20670 
+ALWAYS_EXCEPT="parallel_grouplock  $PARALLEL_SCALE_EXCEPT"
+
 #
 # compilbench
 #
-# Boulder cluster compilebench default location
-cbench_DIR=${cbench_DIR:-/testsuite/tests/$(arch)/compilebench}
-cbench_IDIRS=${cbench_IDIRS:-10}
-cbench_RUNS=${cbench_RUNS:-10} # FIXME: wiki page requirements is 30, do we really need 30 ?
+cbench_DIR=${cbench_DIR:-""}
+cbench_IDIRS=${cbench_IDIRS:-4}
+cbench_RUNS=${cbench_RUNS:-4}  # FIXME: wiki page requirements is 30, do we really need 30 ?
 
 if [ "$SLOW" = "no" ]; then
     cbench_IDIRS=2
@@ -25,8 +25,7 @@ fi
 #
 # metabench
 #
-# Boulder cluster metabench default location
-METABENCH=${METABENCH:-/testsuite/tests/$(arch)/METABENCH/src/metabench}
+METABENCH=${METABENCH:-$(which metabench 2> /dev/null || true)}
 mbench_NFILES=${mbench_NFILES:-30400}
 [ "$SLOW" = "no" ] && mbench_NFILES=10000
 MACHINEFILE=${MACHINEFILE:-$TMP/$(basename $0 .sh).machines}
@@ -36,8 +35,7 @@ mbench_THREADS=${mbench_THREADS:-4}
 #
 # simul
 #
-# Boulder cluster default location
-SIMUL=${SIMUL:-/testsuite/tests/$(arch)/simul/simul}
+SIMUL=${SIMUL:=$(which simul 2> /dev/null || true)}
 # threads per client
 simul_THREADS=${simul_THREADS:-2}
 simul_REP=${simul_REP:-20}
@@ -46,16 +44,14 @@ simul_REP=${simul_REP:-20}
 #
 # connectathon
 #
-# Boulder cluster default location
-cnt_DIR=${cnt_DIR:-/testsuite/tests/$(arch)/connectathon}
+cnt_DIR=${cnt_DIR:-""}
 cnt_NRUN=${cnt_NRUN:-10}
 [ "$SLOW" = "no" ] && cnt_NRUN=2
 
 #
 # cascading rw
 #
-# Boulder cluster default location
-CASC_RW=${CASC_RW:-/testsuite/tests/$(arch)/parallel/cascading_rw}
+CASC_RW=${CASC_RW:-$(which cascading_rw 2> /dev/null || true)}
 # threads per client
 casc_THREADS=${casc_THREADS:-2}
 casc_REP=${casc_REP:-300}
@@ -64,8 +60,7 @@ casc_REP=${casc_REP:-300}
 #
 # IOR
 #
-# Boulder cluster default location
-IOR=${IOR:-/testsuite/tests/$(arch)/IOR/src/C/IOR}
+IOR=${IOR:-$(which IOR 2> /dev/null || true)}
 # threads per client
 ior_THREADS=${ior_THREADS:-2}
 ior_blockSize=${ior_blockSize:-6}      # Gb
@@ -83,16 +78,26 @@ write_REP=${write_REP:-10000}
 #
 # write_disjoint
 #
-# Boulder cluster default location
-WRITE_DISJOINT=${WRITE_DISJOINT:-/testsuite/tests/x86_64/lustre/lustre/tests/write_disjoint}
+WRITE_DISJOINT=${WRITE_DISJOINT:-$(which write_disjoint 2> /dev/null || true)}
 # threads per client
 wdisjoint_THREADS=${wdisjoint_THREADS:-4}
 wdisjoint_REP=${wdisjoint_REP:-10000}
 [ "$SLOW" = "no" ] && wdisjoint_REP=100
 
+#
+# parallel_grouplock
+#
+#
+PARALLEL_GROUPLOCK=${PARALLEL_GROUPLOCK:-$(which parallel_grouplock 2> /dev/null || true)}
+parallel_grouplock_MINTASKS=${parallel_grouplock_MINTASKS:-5}
+
 build_test_filter
 check_and_setup_lustre
 
+get_mpiuser_id $MPI_USER
+MPI_RUNAS=${MPI_RUNAS:-"runas -u $MPI_USER_UID -g $MPI_USER_GID"}
+$GSS_KRB5 && refresh_krb5_tgt $MPI_USER_UID $MPI_USER_GID $MPI_RUNAS
+
 print_opts () {
     local var
 
@@ -116,17 +121,17 @@ print_opts () {
 test_compilebench() {
     print_opts cbench_DIR cbench_IDIRS cbench_RUNS
 
-    [ -d $cbench_DIR ] || \
-        { skip "No compilebench found" && return; }
+    [ x$cbench_DIR = x ] &&
+        { skip_env "compilebench not found" && return; }
 
     [ -e $cbench_DIR/compilebench ] || \
-        { skip "No compilebench build" && return; }
+        { skip_env "No compilebench build" && return; }
 
     local space=$(df -P $DIR | tail -n 1 | awk '{ print $4 }')
     if [ $space -le $((680 * 1024 * cbench_IDIRS)) ]; then
         cbench_IDIRS=$(( space / 680 / 1024))
         [ $cbench_IDIRS = 0 ] && \
-            skip "Need free space atleast 680 Mb, have $space" && return
+            skip_env "Need free space atleast 680 Mb, have $space" && return
 
         log free space=$space, reducing initial dirs to $cbench_IDIRS
     fi
@@ -154,8 +159,8 @@ test_compilebench() {
 run_test compilebench "compilebench"
 
 test_metabench() {
-    [ -e $METABENCH ] || \
-        { skip "metabench not found" && return; }
+    [ x$METABENCH = x ] &&
+        { skip_env "metabench not found" && return; }
 
     local clients=$CLIENTS
     [ -z $clients ] && clients=$(hostname)
@@ -191,8 +196,8 @@ test_metabench() {
 run_test metabench "metabench"
 
 test_simul() {
-    [ -e $SIMUL ] || \
-        { skip "simul not found" && return; }
+    [ x$SIMUL = x ] &&
+        { skip_env "simul not found" && return; }
 
     local clients=$CLIENTS
     [ -z $clients ] && clients=$(hostname)
@@ -231,11 +236,11 @@ run_test simul "simul"
 test_connectathon() {
     print_opts cnt_DIR cnt_NRUN
 
-    [ -d $cnt_DIR ] || \
-        { skip "No connectathon dir found" && return; }
+    [ x$cnt_DIR = x ] &&
+        { skip_env "connectathon dir not found" && return; }
 
     [ -e $cnt_DIR/runtests ] || \
-        { skip "No connectathon runtests found" && return; }
+        { skip_env "No connectathon runtests found" && return; }
 
     local testdir=$DIR/d0.connectathon
     mkdir -p $testdir
@@ -264,8 +269,8 @@ test_connectathon() {
 run_test connectathon "connectathon"
 
 test_ior() {
-    [ -e $IOR ] || \
-        { skip "IOR not found" && return; }
+    [ x$IOR = x ] &&
+        { skip_env "IOR not found" && return; }
 
     local clients=$CLIENTS
     [ -z $clients ] && clients=$(hostname)
@@ -278,7 +283,7 @@ test_ior() {
         echo "+ $space * 9/10 / 1024 / 1024 / $num_clients / $ior_THREADS"
         ior_blockSize=$(( space /2 /1024 /1024 / num_clients / ior_THREADS ))
         [ $ior_blockSize = 0 ] && \
-            skip "Need free space more than ($num_clients * $ior_THREADS )Gb: $((num_clients*ior_THREADS *1024 *1024*2)), have $space" && return
+            skip_env "Need free space more than ($num_clients * $ior_THREADS )Gb: $((num_clients*ior_THREADS *1024 *1024*2)), have $space" && return
 
         echo "free space=$space, Need: $num_clients x $ior_THREADS x $ior_blockSize Gb (blockSize reduced to $ior_blockSize Gb)"
     fi
@@ -292,6 +297,7 @@ test_ior() {
     mkdir -p $testdir
     # mpi_run uses mpiuser
     chmod 0777 $testdir
+    $LFS setstripe $testdir -c -1
 
     # 
     # -b N  blockSize -- contiguous bytes to write per task  (e.g.: 8, 4k, 2m, 1g)"
@@ -315,8 +321,8 @@ test_ior() {
 run_test ior "ior"
  
 test_cascading_rw() {
-    [ -e $CASC_RW ] || \
-        { skip "cascading_rw not found" && return; }
+    [ x$CASC_RW = x ] &&
+        { skip_env "cascading_rw not found" && return; }
 
     local clients=$CLIENTS
     [ -z $clients ] && clients=$(hostname)
@@ -355,7 +361,7 @@ run_test cascading_rw "cascading_rw"
 test_write_append_truncate() {
     # location is lustre/tests dir 
     if ! which write_append_truncate > /dev/null 2>&1 ; then
-        skip "write_append_truncate not found"
+        skip_env "write_append_truncate not found"
         return
     fi
 
@@ -394,8 +400,8 @@ test_write_append_truncate() {
 run_test write_append_truncate "write_append_truncate"
 
 test_write_disjoint() {
-    [ -e $WRITE_DISJOINT ] || \
-        { skip "write_disjoint not found" && return; }
+    [ x$WRITE_DISJOINT = x ] &&
+        { skip_env "write_disjoint not found" && return; }
 
     local clients=$CLIENTS
     [ -z $clients ] && clients=$(hostname)
@@ -427,6 +433,52 @@ test_write_disjoint() {
 }
 run_test write_disjoint "write_disjoint"
 
+test_parallel_grouplock() {
+    [ x$PARALLEL_GROUPLOCK = x ] &&
+        { skip "PARALLEL_GROUPLOCK not found" && return; }
+
+    local clients=$CLIENTS
+    [ -z $clients ] && clients=$(hostname)
+
+    local num_clients=$(get_node_count ${clients//,/ })
+
+    generate_machine_file $clients $MACHINEFILE || \
+        error "can not generate machinefile $MACHINEFILE"
+
+    print_opts clients parallel_grouplock_MINTASKS MACHINEFILE
+
+    local testdir=$DIR/d0.parallel_grouplock
+    mkdir -p $testdir
+    # mpi_run uses mpiuser
+    chmod 0777 $testdir
+
+    do_nodes $clients "lctl set_param llite.*.max_rw_chunk=0" ||
+        error "set_param max_rw_chunk=0 failed "
+
+    local cmd
+    local status=0
+    local subtest
+    for i in $(seq 12); do
+        subtest="-t $i"
+        local cmd="$PARALLEL_GROUPLOCK -g -v -d $testdir $subtest"
+        echo "+ $cmd"
+
+        mpi_run -np $parallel_grouplock_MINTASKS -machinefile ${MACHINEFILE} $cmd
+        local rc=$?
+        if [ $rc != 0 ] ; then
+            error_noexit "parallel_grouplock subtests $subtest failed! $rc"
+        else
+            echo "parallel_grouplock subtests $subtest PASS"
+        fi
+        let status=$((status + rc))
+        # clear debug to collect one log per one test
+        do_nodes $(comma_list $(nodes_list)) lctl clear
+     done
+    [ $status -eq 0 ] || error "parallel_grouplock status: $status"
+    rm -rf $testdir
+}
+run_test parallel_grouplock "parallel_grouplock"
+
 equals_msg `basename $0`: test complete, cleaning up
 check_and_cleanup_lustre
-[ -f "$TESTSUITELOG" ] && cat $TESTSUITELOG || true
+[ -f "$TESTSUITELOG" ] && cat $TESTSUITELOG && grep -q FAIL $TESTSUITELOG && exit 1 || true