~ubuntu-branches/debian/sid/lammps/sid

« back to all changes in this revision

Viewing changes to bench/README

  • Committer: Package Import Robot
  • Author(s): Anton Gladky
  • Date: 2015-04-29 23:44:49 UTC
  • mfrom: (5.1.3 experimental)
  • Revision ID: package-import@ubuntu.com-20150429234449-mbhy9utku6hp6oq8
Tags: 0~20150313.gitfa668e1-1
Upload into unstable.

Show diffs side-by-side

added added

removed removed

Lines of Context:
4
4
the Benchmark section of the LAMMPS documentation, and on the
5
5
Benchmark page of the LAMMPS WWW site (lammps.sandia.gov/bench).
6
6
 
7
 
This directory also has 2 sub-directories:
8
 
 
9
 
GPU                 GPU versions of 3 of these benchmarks
10
 
POTENTIALS          benchmarks scripts for various potentials in LAMMPS
11
 
 
12
 
The scripts and results in both of these directories are discussed on
13
 
the Benchmark page of the LAMMPS WWW site (lammps.sandia.gov/bench) as
14
 
well.  The two directories have their own README files which you
15
 
should refer to before running the scripts.
16
 
 
17
 
The remainer of this file refers to the 5 problems in the top-level
18
 
of this directory and how to run them on CPUs, either in serial
19
 
or parallel.
 
7
This directory also has several sub-directories:
 
8
 
 
9
FERMI           benchmark scripts for desktop machine with Fermi GPUs (Tesla)
 
10
KEPLER          benchmark scripts for GPU cluster with Kepler GPUs
 
11
POTENTIALS      benchmarks scripts for various potentials in LAMMPS
 
12
 
 
13
The results for all of these benchmarks are displayed and discussed on
 
14
the Benchmark page of the LAMMPS WWW site: lammps.sandia.gov/bench.
 
15
 
 
16
The remainder of this file refers to the 5 problems in the top-level
 
17
of this directory and how to run them on CPUs, either in serial or
 
18
parallel.  The sub-directories have their own README files which you
 
19
should refer to before running those scripts.
20
20
 
21
21
----------------------------------------------------------------------
22
22
 
71
71
 
72
72
----------------------------------------------------------------------
73
73
 
 
74
Here is a src/Make.py command which will perform a parallel build of a
 
75
LAMMPS executable "lmp_mpi" with all the packages needed by all the
 
76
examples.  This assumes you have an MPI installed on your machine so
 
77
that "mpicxx" can be used as the wrapper compiler.  It also assumes
 
78
you have an Intel compiler to use as the base compiler.  You can leave
 
79
off the "-cc mpi wrap=icc" switch if that is not the case.  You can
 
80
also leave off the "-fft fftw3" switch if you do not have the FFTW
 
81
(v3) installed as an FFT package, in which case the default KISS FFT
 
82
library will be used.
 
83
 
 
84
cd src
 
85
Make.py -j 16 -p none molecule manybody kspace granular orig \
 
86
  -cc mpi wrap=icc -fft fftw3 -a file mpi
 
87
 
 
88
----------------------------------------------------------------------
 
89
 
74
90
Here is how to run each problem, assuming the LAMMPS executable is
75
 
named lmp_foo, and you are using the mpirun command to launch parallel
 
91
named lmp_mpi, and you are using the mpirun command to launch parallel
76
92
runs:
77
93
 
78
94
Serial (one processor runs):
79
95
 
80
 
lmp_foo < in.lj
81
 
lmp_foo < in.chain
82
 
lmp_foo < in.eam
83
 
lmp_foo < in.chute
84
 
lmp_foo < in.rhodo
 
96
lmp_mpi < in.lj
 
97
lmp_mpi < in.chain
 
98
lmp_mpi < in.eam
 
99
lmp_mpi < in.chute
 
100
lmp_mpi < in.rhodo
85
101
 
86
102
Parallel fixed-size runs (on 8 procs in this case):
87
103
 
88
 
mpirun -np 8 lmp_foo < in.lj
89
 
mpirun -np 8 lmp_foo < in.chain
90
 
mpirun -np 8 lmp_foo < in.eam
91
 
mpirun -np 8 lmp_foo < in.chute
92
 
mpirun -np 8 lmp_foo < in.rhodo
 
104
mpirun -np 8 lmp_mpi < in.lj
 
105
mpirun -np 8 lmp_mpi < in.chain
 
106
mpirun -np 8 lmp_mpi < in.eam
 
107
mpirun -np 8 lmp_mpi < in.chute
 
108
mpirun -np 8 lmp_mpi < in.rhodo
93
109
 
94
110
Parallel scaled-size runs (on 16 procs in this case):
95
111
 
96
 
mpirun -np 16 lmp_foo -var x 2 -var y 2 -var z 4 < in.lj
97
 
mpirun -np 16 lmp_foo -var x 2 -var y 2 -var z 4 < in.chain.scaled
98
 
mpirun -np 16 lmp_foo -var x 2 -var y 2 -var z 4 < in.eam
99
 
mpirun -np 16 lmp_foo -var x 4 -var y 4 < in.chute.scaled
100
 
mpirun -np 16 lmp_foo -var x 2 -var y 2 -var z 4 < in.rhodo.scaled
 
112
mpirun -np 16 lmp_mpi -var x 2 -var y 2 -var z 4 < in.lj
 
113
mpirun -np 16 lmp_mpi -var x 2 -var y 2 -var z 4 < in.chain.scaled
 
114
mpirun -np 16 lmp_mpi -var x 2 -var y 2 -var z 4 < in.eam
 
115
mpirun -np 16 lmp_mpi -var x 4 -var y 4 < in.chute.scaled
 
116
mpirun -np 16 lmp_mpi -var x 2 -var y 2 -var z 4 < in.rhodo.scaled
101
117
 
102
118
For each of the scaled-size runs you must set 3 variables as -var
103
119
command line switches.  The variables x,y,z are used in the input