Whamcloud - gitweb
Merge with old CVS version; this should now contain the best of old CVS and 20051107...
authorscjody <scjody>
Thu, 23 Mar 2006 20:58:04 +0000 (20:58 +0000)
committerscjody <scjody>
Thu, 23 Mar 2006 20:58:04 +0000 (20:58 +0000)
lustre-iokit/ior-survey/ior-survey
lustre-iokit/obdfilter-survey/obdfilter-survey
lustre-iokit/sgpdd-survey/README
lustre-iokit/sgpdd-survey/sgpdd-survey

index b7c7421..235bdc8 100644 (file)
@@ -22,11 +22,11 @@ rsize_hi=1M
 rsize_iterator="*=2"
 
 ## which tests to run (first must be write)
 rsize_iterator="*=2"
 
 ## which tests to run (first must be write)
-# remount)   not really a test; just remount to uncache everything
+# clear_cache)   not really a test; just uncache everything
 # *write*)   write
 # *)         read
 #tests=(write rewrite read reread rewrite_again)
 # *write*)   write
 # *)         read
 #tests=(write rewrite read reread rewrite_again)
-tests=(write rewrite remount read reread)
+tests=(write rewrite clear_cache read reread)
 
 # total # bytes written/read by any client node
 min_per_client_size=4G
 
 # total # bytes written/read by any client node
 min_per_client_size=4G
@@ -36,13 +36,12 @@ min_total_size=8G
 file_per_task=1
 
 # the binaries
 file_per_task=1
 
 # the binaries
-IOR="/home/ericb/ior/src/C/IOR"
-llmount=/home/ericb/lustre/utils/llmount
+IOR=/usr/local/sbin/IOR
+llmount=llmount
 pdsh=pdsh
 
 # the result file prefix (date/time + hostname makes unique)
 pdsh=pdsh
 
 # the result file prefix (date/time + hostname makes unique)
-#rslt=/home/ericb/ior_survey_`date +%F@%R`_`uname -n`
-rslt=/home/ericb/ior_survey
+rslt=/tmp/ior_survey_`date +%F@%R`_`uname -n`
 
 # where lustre is mounted on the clients
 lustre=/mnt/lustre
 
 # where lustre is mounted on the clients
 lustre=/mnt/lustre
@@ -50,10 +49,6 @@ lustre=/mnt/lustre
 # basename of the test file(s)
 testfile=${lustre}/ior_survey_testfile
 
 # basename of the test file(s)
 testfile=${lustre}/ior_survey_testfile
 
-# how to unmount and remount the F/S on a client (to clear the cache)
-# change this depending on lustre config (network type, MDS etc)
-remount="umount $lustre && $llmount -o nettype=elan mdev6:/ll_mds/client $lustre"
-
 # pdsh args required to instantiate all instances of IOR in parallel
 # the chosen module must support '-n <procs-per-node>'
 # -R<module>, -f<fanout> etc
 # pdsh args required to instantiate all instances of IOR in parallel
 # the chosen module must support '-n <procs-per-node>'
 # -R<module>, -f<fanout> etc
@@ -211,10 +206,11 @@ for ((rsize=rsize_lo; rsize<=rsize_hi; rsize$rsize_iterator)); do
                tmpf=${workf}_tmp
                echo -n > $tmpf
 
                tmpf=${workf}_tmp
                echo -n > $tmpf
 
-               if [ "$test" = "remount" ]; then
-                   echo "=> $remount" >> $tmpf
+               if [ "$test" = "clear_cache" ]; then
+                   clear_cache='for LRU in /proc/fs/lustre/ldlm/namespaces/*/lru_size; do; echo clear > $LRU; done'
+                   echo "=> $clear_cache" >> $tmpf
                    $pdsh -S -b -w "$test_clients" >> $tmpf 2>&1 \
                    $pdsh -S -b -w "$test_clients" >> $tmpf 2>&1 \
-                       "$remount"
+                       "$clear_cache"
                    status=$?
                    echo "Completion Status: $status" >> $tmpf
 
                    status=$?
                    echo "Completion Status: $status" >> $tmpf
 
index 6a76292..5deabff 100755 (executable)
@@ -9,36 +9,70 @@
 # ...or...
 # echo_client instances (set 'client_names')
 # ... use 'host:name' for obd instances on other nodes.
 # ...or...
 # echo_client instances (set 'client_names')
 # ... use 'host:name' for obd instances on other nodes.
-ost_names=(ost{1,2,3,4,5,6,7,8,9,10,11,12,13,14,15,16})
+
+# allow these to be passed in via string...
+ost_names_str=${ost_names_str:-""}
+if [ -n "$ost_names_str" ]; then
+    declare -a ost_names
+    count=0
+    for name in $ost_names_str; do
+        ost_names[$count]=$name
+        count=$((count+1))
+    done
+else
+    ost_names=(ost{1,2,3,4,5,6,7,8,9,10,11,12,13,14,15,16})
+fi
+
 #client_names=(ns8:ECHO_ns8 ns9:ECHO_ns9)
 #client_names=(ns8:ECHO_ns8 ns9:ECHO_ns9)
+client_names_str=${client_names_str:-""}
+if [ -n "$client_names_str" ]; then
+    # make sure we unset ost_names so that our client_names get noticed... 
+    unset ost_names
+    declare -a client_names
+    count=0
+    for name in $client_names_str; do
+        client_names[$count]=$name
+        count=$((count+1))
+    done
+fi
 
 # result file prefix (date/time + hostname makes unique)
 # NB ensure path to it exists
 
 # result file prefix (date/time + hostname makes unique)
 # NB ensure path to it exists
-rslt=/home_nfs/eeb/obdfilter_survey_`date +%F@%R`_`uname -n`
+rslt=${rslt:-"/tmp/obdfilter_survey_`date +%F@%R`_`uname -n`"}
 
 # lustre root (if running with own source tree)
 
 # lustre root (if running with own source tree)
-lustre_root=/home_nfs/eeb/lustre
+lustre_root=${lustre_root:-"/home_nfs/eeb/lustre"}
 
 # what tests to run (first must be write)
 
 # what tests to run (first must be write)
-#tests=(write rewrite read reread rewrite_again)
-tests=(write rewrite read)
+tests_str=${tests_str:-""}
+if [ -n "$tests_str" ]; then
+    declare -a tests
+    count=0
+    for name in $tests_str; do
+        tests[$count]=$name
+        count=$((count+1))
+    done
+else
+    #tests=(write rewrite read reread rewrite_again)
+    tests=(write rewrite read)
+fi
 
 # total size (MBytes) per obd instance
 # large enough to avoid cache effects 
 # and to make test startup/shutdown overhead insignificant
 
 # total size (MBytes) per obd instance
 # large enough to avoid cache effects 
 # and to make test startup/shutdown overhead insignificant
-size=16384
+size=${size:-16384}
 
 # record size (KBytes)
 
 # record size (KBytes)
-rszlo=1024
-rszhi=1024
+rszlo=${rszlo:-1024}
+rszhi=${rszhi:-1024}
 
 # number of objects per OST
 
 # number of objects per OST
-nobjlo=1
-nobjhi=512
+nobjlo=${nobjlo:-1}
+nobjhi=${nobjhi:-512}
 
 # threads per OST (1024 max)
 
 # threads per OST (1024 max)
-thrlo=1
-thrhi=64
+thrlo=${thrlo:-1}
+thrhi=${thrhi:-64}
 
 # restart from here iff all are defined
 restart_rsz=
 
 # restart from here iff all are defined
 restart_rsz=
@@ -46,7 +80,12 @@ restart_thr=1
 restart_nobj=1
 
 # machine's page size (K)
 restart_nobj=1
 
 # machine's page size (K)
-PAGE_SIZE=64
+if [ -z "$PAGE_SIZE" ]; then
+    if which python >/dev/null; then
+       PAGE_SIZE=`echo 'import resource; print resource.getpagesize()/1024;' |python`
+    fi
+fi
+PAGE_SIZE=${PAGE_SIZE:-4}
 
 # max buffer_mem (total_threads * buffer size)
 # (to avoid lctl ENOMEM problems)
 
 # max buffer_mem (total_threads * buffer size)
 # (to avoid lctl ENOMEM problems)
@@ -83,6 +122,7 @@ snap=1
 verify=1
 
 if [ ${#tests[@]} -eq 0 -o "${tests[0]}" != "write" ]; then
 verify=1
 
 if [ ${#tests[@]} -eq 0 -o "${tests[0]}" != "write" ]; then
+    echo "tests: ${tests[@]}"
     echo "First test must be 'write'" 1>&2
     exit 1
 fi
     echo "First test must be 'write'" 1>&2
     exit 1
 fi
@@ -90,11 +130,19 @@ fi
 rsltf="${rslt}.summary"
 workf="${rslt}.detail"
 cmdsf="${rslt}.script"
 rsltf="${rslt}.summary"
 workf="${rslt}.detail"
 cmdsf="${rslt}.script"
+vmstatf="${rslt}.vmstat"
 echo -n > $rsltf
 echo -n > $workf
 
 echo -n > $rsltf
 echo -n > $workf
 
+declare -a vmstatpids
+
+# hide a little trick to unset this from the command line
+if [ "$lustre_root" == " " ]; then
+    unset lustre_root
+fi
+
 if [ -z "$lustre_root" ]; then
 if [ -z "$lustre_root" ]; then
-    lctl=lctl
+    lctl=$(which lctl)
 else
     lctl=${lustre_root}/utils/lctl
 fi
 else
     lctl=${lustre_root}/utils/lctl
 fi
@@ -195,17 +243,40 @@ create_objects () {
     local nobj=$3
     local rfile=$4
     remote_shell $host $lctl --device $devno create $nobj > $rfile 2>&1
     local nobj=$3
     local rfile=$4
     remote_shell $host $lctl --device $devno create $nobj > $rfile 2>&1
-    n=(`awk < $rfile \
-       '/is object id/ {obj=strtonum($6);\
-                        first=!not_first; not_first=1;\
-                        if (first) first_obj=obj;
-                        else if (obj != prev + 1) exit;\
-                        prev=obj; n++}\
-            END {printf "%d %d\n", first_obj, n}'`)
-    if ((n[1] != nobj)); then
-       echo "ERROR"
-    else
-       echo ${n[0]}
+    first=0
+    prev=0
+    count=0
+    error=0
+    while read line; do
+        echo "$line" | grep -q 'is object id'
+        if [ $?  -ne 0 ]; then
+            continue
+        fi
+        if [ $first -eq 0 ]; then
+            first=$(echo $line | awk '{print $6}')
+            first=$(printf "%d" $first)
+            prev=$first
+            count=1
+        else
+            obj=$(echo $line | awk '{print $6}') 
+            obj=$(printf "%d" $obj) 
+            diff=$((obj - (prev+1))) 
+            if [ $diff -ne 0 ]; then 
+                error=1 
+            fi 
+            prev=$obj 
+            count=$((count+1)) 
+        fi 
+    done < $rfile 
+    if [ $nobj -ne $count ]; then 
+        echo "ERROR: $nobj != $count" >&2 
+        cat $rfile >&2 
+        echo "ERROR" 
+    elif [ $error -ne 0 ]; then 
+        echo "ERROR: non contiguous objs found" >&2 
+        echo "ERROR" 
+    else 
+        echo $first 
     fi
 }
 
     fi
 }
 
@@ -306,19 +377,27 @@ else
     done
 fi
 
     done
 fi
 
+# get vmstat started
 # disable portals debug and get obdecho loaded on all relevant hosts
 unique_hosts=(`unique ${host_names[@]}`)
 # disable portals debug and get obdecho loaded on all relevant hosts
 unique_hosts=(`unique ${host_names[@]}`)
+pidcount=0
 for host in ${unique_hosts[@]}; do
     remote_shell $host "echo 0 > /proc/sys/portals/debug"
 for host in ${unique_hosts[@]}; do
     remote_shell $host "echo 0 > /proc/sys/portals/debug"
+    host_vmstatf=${vmstatf}_${host}
+    echo -n > $host_vmstatf
+    remote_shell $host "vmstat 5 >> $host_vmstatf" &
+    pid=$!
+    vmstatpids[$pidcount]=$pid
+    pidcount=$((pidcount+1))
     do_unload_obdecho[$host]=0
     if obdecho_loaded $host; then
     do_unload_obdecho[$host]=0
     if obdecho_loaded $host; then
-       continue
+        continue
     fi
     load_obdecho $host
     if obdecho_loaded $host; then
     fi
     load_obdecho $host
     if obdecho_loaded $host; then
-       do_unload_obdecho[$host]=1
-       continue
-    fi
+        do_unload_obdecho[$host]=1
+        continue
+        fi
     echo "Can't load obdecho on $host" 1>&2
     exit 1
 done
     echo "Can't load obdecho on $host" 1>&2
     exit 1
 done
@@ -388,6 +467,10 @@ for ((rsz=$rszlo;rsz<=$rszhi;rsz*=2)); do
            done
            # run tests
            for test in ${tests[@]}; do
            done
            # run tests
            for test in ${tests[@]}; do
+                declare -a pidarray
+                for host in ${unique_hosts[@]}; do
+                    echo "starting run for test: $test rsz: $rsz threads: $thr objects: $nobj" >> ${vmstatf}_${host}
+                done
                print_summary -n "$test "
                # create per-host script files
                for host in ${unique_hosts[@]}; do
                print_summary -n "$test "
                # create per-host script files
                for host in ${unique_hosts[@]}; do
@@ -402,21 +485,32 @@ for ((rsz=$rszlo;rsz<=$rszhi;rsz*=2)); do
                        "$lctl > $tmpfi 2>&1 \\
                          --threads $thr -$snap $devno \\
                         test_brw $count `testname2type $test` q $pages ${thr}t${first_obj} &"
                        "$lctl > $tmpfi 2>&1 \\
                          --threads $thr -$snap $devno \\
                         test_brw $count `testname2type $test` q $pages ${thr}t${first_obj} &"
-               done
-               for host in ${unique_hosts[@]}; do
-                   echo "wait" >> ${cmdsf}_${host}
-               done
-               # timed run of all the per-host script files
-               t0=`date +%s.%N`
-               for host in ${unique_hosts[@]}; do
-                   remote_shell $host bash ${cmdsf}_${host}&
-               done
-               wait
-               t1=`date +%s.%N`
-               # clean up per-host script files
-               for host in ${unique_hosts[@]}; do
-                   rm ${cmdsf}_${host}
-               done
+                done
+                pidcount=0
+                for host in ${unique_hosts[@]}; do
+                    echo "wait" >> ${cmdsf}_${host}
+                    pidarray[$pidcount]=0
+                    pidcount=$((pidcount+1))
+                done
+                # timed run of all the per-host script files
+                t0=`date +%s.%N`
+                pidcount=0
+                for host in ${unique_hosts[@]}; do
+                    remote_shell $host bash ${cmdsf}_${host} &
+                    pidarray[$pidcount]=$!
+                    pidcount=$((pidcount+1))
+                done
+                pidcount=0
+                for host in ${unique_hosts[@]}; do
+                    wait ${pidarray[$pidcount]}
+                    pidcount=$((pidcount+1))
+                done
+                #wait
+                t1=`date +%s.%N`
+                # clean up per-host script files
+                for host in ${unique_hosts[@]}; do
+                    rm ${cmdsf}_${host}
+                done
                # compute bandwidth from total data / elapsed time
                str=`awk "BEGIN {printf \"%7.2f \",\
                         $total_size / (( $t1 - $t0 ) * 1024)}"`
                # compute bandwidth from total data / elapsed time
                str=`awk "BEGIN {printf \"%7.2f \",\
                         $total_size / (( $t1 - $t0 ) * 1024)}"`
@@ -474,8 +568,17 @@ for ((i=0; i<ndevs; i++)); do
 done
 
 # unload any obdecho modules we loaded
 done
 
 # unload any obdecho modules we loaded
+pidcount=0
 for host in ${unique_hosts[@]}; do
 for host in ${unique_hosts[@]}; do
+    remote_shell $host "killall vmstat" &
+    pid=$!
+    kill -term ${vmstatpids[$pidcount]}
+    kill -kill ${vmstatpids[$pidcount]} 2>/dev/null
+    wait $pid
+    pidcount=$((pidcount+1))
     if ((${do_unload_obdecho[$host]})); then
     if ((${do_unload_obdecho[$host]})); then
-       unload_obdecho $host
+        unload_obdecho $host
     fi
 done
     fi
 done
+
+exit 0
index 78fa376..3666baf 100644 (file)
@@ -1,3 +1,6 @@
+WARNING: Running sgp_dd will ERASE the contents of the disk devices.
+         This is NOT to be run on any OST where you care about any data
+        or you are not expecting to reformat the filesystem afterward.
 
 Requirements
 ------------
 
 Requirements
 ------------
index 409fb84..b7612d2 100755 (executable)
@@ -3,12 +3,13 @@
 ######################################################################
 # customize per survey
 
 ######################################################################
 # customize per survey
 
-# the SCSI devices to measure
-#scsidevs="/dev/sde /dev/sdh"
+# the SCSI devices to measure - WARNING: will be erased.
+#scsidevs=`ls /dev/sd[a-z] /dev/sd[a-z][a-z]` # all devices, if you use udev
+scsidevs=${scsidevs:-"/dev/sde /dev/sdh"}
 
 # result file prefix.  date/time+hostname makes unique
 # NB ensure the path exists if it includes subdirs
 
 # result file prefix.  date/time+hostname makes unique
 # NB ensure the path exists if it includes subdirs
-rslt=/tmp/sgpdd_survey_`date +%F@%R`_`uname -n`
+rslt=${rslt:-"/tmp/sgpdd_survey_`date +%F@%R`_`uname -n`"}
 
 # what to do (read or write)
 actions="write read"
 
 # what to do (read or write)
 actions="write read"
@@ -22,13 +23,13 @@ rszlo=1024
 rszhi=1024
 
 # Concurrent regions per device
 rszhi=1024
 
 # Concurrent regions per device
-crglo=1
-crghi=256
+crglo=${crglo:-1}
+crghi=${crghi:-256}
 
 # threads to share between concurrent regions per device
 # NB survey skips over #thr < #regions and #thr/#regions > SG_MAX_QUEUE
 
 # threads to share between concurrent regions per device
 # NB survey skips over #thr < #regions and #thr/#regions > SG_MAX_QUEUE
-thrlo=1
-thrhi=4096
+thrlo=${thrlo:-1}
+thrhi=${thrhi:-4096}
 
 #####################################################################
 # leave the rest of this alone unless you know what you're doing...
 
 #####################################################################
 # leave the rest of this alone unless you know what you're doing...