~fluidity-core/fluidity/exorcised

« back to all changes in this revision

Viewing changes to schemas/flredecomp.rnc

  • Committer: Paul Woodhams
  • Date: 2011-09-13 09:42:13 UTC
  • mfrom: (3574.1.11 flredecomp_options)
  • Revision ID: paul.woodhams@nag.co.uk-20110913094213-k571ydfnjjnjhf1c
Adding an flredecomp branch of options to diamond. Options available are to select the partitioner used (default is ParMETIS) and to enable or disable Zoltan debugging. Also adding checks for empty partitons based on input_procs and target_procs which are passed to Zoltan when flredecomping. When flredecomping we now use Zoltan_LB_Partition as according to the Zoltan doc for Zoltan_LB_Balance, which we were previously using, NUM_GLOBAL_PARTS and NUM_LOCAL_PARTS are invalid but we need them when flredecomping.

Show diffs side-by-side

added added

removed removed

Lines of Context:
 
1
# Flredecomp options
 
2
 
 
3
flredecomp = 
 
4
   (
 
5
      ## Options for the flredecomp program
 
6
      element flredecomp {
 
7
        comment, 
 
8
        ## Select which partitioner to use when flredecomping.
 
9
        ## Graph partitioners available are ParMETIS, PT-Scotch
 
10
        ## and Zoltan PHG. The Zoltan PHG hypergraph partitoner
 
11
        ## is also available.
 
12
        ## Default is ParMETIS graph partitioner.
 
13
        element final_partitioner {
 
14
            ## Use the ParMETIS graph partitioner. ParMETIS setup to match as
 
15
            ## closely as possible the setup used previously by Sam.
 
16
            element metis {
 
17
                empty
 
18
            }|
 
19
            ## Use the PT-Scotch graph partitioner.
 
20
            element scotch {
 
21
                empty
 
22
            }|
 
23
            ## Use the Zoltan PHG partitioner.
 
24
            element zoltan {
 
25
                ## Select the partitioning method you would like used by Zoltan PHG.
 
26
                ## Currently hypergraph partitioning is the simplest implementation
 
27
                ## and can produce non-contiguous partitions for certain problems.
 
28
                element method {
 
29
                "graph"|"hypergraph"
 
30
                }
 
31
            }
 
32
        }?,
 
33
        ## Zoltan Debugging
 
34
        ## 
 
35
        ## Turn on more verbose output for use when debugging Zoltan.
 
36
        element zoltan_debug {
 
37
           ## Turn on graph checking.
 
38
           ## When using ParMETIS or PT-Scotch options for turning on
 
39
           ## graph checking are provided by Zoltan.
 
40
           ## 1 - on process checking,
 
41
           ## 2 - full checking (very slow)
 
42
           element graph_checking {
 
43
               "1"|"2"
 
44
           }?,
 
45
           ## Print out a dump file of the edge counts.
 
46
           ## Edge counts for each owned node are calculated in zoltan_cb_get_num_edges.
 
47
           ## This option dumps the edge count for each owned node.
 
48
           ## Dump is to the current directory, in a file called edge_counts_*.dat
 
49
           ## One dump file is created for each rank.
 
50
           element dump_edge_counts {
 
51
              empty
 
52
           }?,
 
53
           ## Print out a dump file of node sizes.
 
54
           ## Zoltan needs to be told how much data is associated with each node when
 
55
           ## doing phase one migration.
 
56
           ## Here we dump the size calculated by zoltan_cb_pack_node_sizes for each
 
57
           ## owned node.
 
58
           ## Dump is to the current directory, in a file called node_sizes_*.dat
 
59
           ## One dump file is created for each rank.
 
60
           element dump_node_sizes {
 
61
              empty
 
62
           }?,
 
63
           ## Print out a dump file of halo node sizes.
 
64
           ## Zoltan needs to be told how much data is associated with each halo node when
 
65
           ## doing phase two migration.
 
66
           ## Here we dump the size calculated by zoltan_cb_pack_halo_node_sizes for each
 
67
           ## owned node.
 
68
           ## Dump is to the current directory, in a file called halo_node_sizes_*.dat
 
69
           ## One dump file is created for each rank.
 
70
           element dump_halo_node_sizes {
 
71
              empty
 
72
           }?,
 
73
           ## Print out a dump file of field sizes.
 
74
           ## Zoltan needs to be told how much data is associated with the fields for each 
 
75
           ## element when we're transfering fields.
 
76
           ## Here we dump the size calculated by zoltan_cb_pack_field_sizes for each
 
77
           ## owned node.
 
78
           ## Dump is to the current directory, in a file called field_sizes_*.dat
 
79
           ## One dump file is created for each rank.
 
80
           element dump_field_sizes {
 
81
              empty
 
82
            }?
 
83
         }?
 
84
      }
 
85
   )