]> git.somenet.org - pub/astra/parallel.git/blob - prefix/runAll.sh
add reduce algorithm
[pub/astra/parallel.git] / prefix / runAll.sh
1 #!/bin/bash
2
3 #TODO: alle scheduler auswerten
4 #TODO: werte der runs behalten (kein rm-rf stats) und bei jedem weiteren run soll parseDat.py alle vorhandenen runs auswerten und das minimum nehmen.
5 #TODO: im notfall in bash auswerten, sollte python nicht einfach glob'ben können.
6 #TODO: remove binname in output -> nonunique info - use raw filename instead.
7 #TODO: noch ein neuer algo: mit pragma reduce anstelle von pragma for -> angabe
8 #TODO: performance counters -> angabe
9
10
11 if [ ! -f numlist.bin ]; then
12         echo "generating numfile.bin"
13         dd if=/dev/urandom of=numlist.bin bs=1000 count=100000
14 fi
15
16 if [ ! -e build ]; then
17         echo "compiling"
18         make
19 fi
20
21 STARTTS="`date --iso-8601=minutes`"
22 SCHEDULING="static dynamic guided runtime"
23 ALGORITHMS="seq datapar recurse hillis_sum hillis_partial reduce"
24 RUNLIST="$(seq 0 250000 1000000) $(seq 0 2500000 10000000) $(seq 0 25000000 100000000)"
25
26 echo "STARTING: stats/raw/${STARTTS}"
27 mkdir -p "stats/raw/${STARTTS}"
28
29 for sched in $SCHEDULING; do
30         echo "***** sched: ${sched} *****"
31         OMP_SCHEDULE=sched
32         ulimit -s unlimited
33         for algo in $ALGORITHMS; do
34                 echo "*** algo: ${algo} ***"
35                 for i in $RUNLIST; do
36                         if [ "$i" -eq "0" ] ; then
37                                 echo "* ignoring 0 run *"
38                         else 
39                                 build/$algo -n $i > "stats/raw/tmp" 2> /dev/null
40                                 cat "stats/raw/tmp"
41                                 mv stats/raw/tmp "stats/raw/${STARTTS}/${sched}_${algo}_n${i}"
42                         fi
43                 done
44         done
45 done
46
47 cd stats
48 ./parseDat.py
49
50 echo "done"
51