Difference: HowToUse (1 vs. 18)

Revision 182012-07-12 - RobertoAlfieri

Line: 1 to 1
 
META TOPICPARENT name="WebHome"

MPI-multicore: Accesso all'infrastruttura

Changed:
<
<

Istruzioni

>
>

Istruzioni: link esterni

 
Line: 79 to 80
  Compilazione MPI sul nodo
Changed:
<
<
Per compilare sul nodo la soluzione ottimale e' il caricamento dei moduli (es: module load openmpi-x86_64)
>
>
Per compilare sul nodo la soluzione ottimale e' l'utilizzo del Pre Run Hook di MPI-Start, in cui vengono definite le variabili necessarie (.e.g $MPI_MPICC):

 #!/bin/sh
  
 pre_run_hook ()
 {
  $MPI_MPICC my_mpi_prog.c -o my_mpi_prog   
  return 0
 }

 mpi-start -t openmpi -pre ./pre_run_hook.sh  -- my_mpi_prog

 
Deleted:
<
<
I moduli sono disponibili per mpich2 a partire da SL5 e per openmpi a partire da SL6.
  Network

Revision 172012-07-05 - RobertoAlfieri

Line: 1 to 1
 
META TOPICPARENT name="WebHome"

MPI-multicore: Accesso all'infrastruttura

Line: 77 to 77
 - MPI user manual
Added:
>
>
Compilazione MPI sul nodo

Per compilare sul nodo la soluzione ottimale e' il caricamento dei moduli (es: module load openmpi-x86_64)

I moduli sono disponibili per mpich2 a partire da SL5 e per openmpi a partire da SL6.

 Network
Line: 93 to 99
  Ambiente Specifico - Selezione "diretta" dei siti:
Changed:
<
<
#INFN-PARMA: gcc/gfortran-44, gsl-devel, gmp-devel, blas-devel, lapack-devel, fftw3-devel, hdf5-devel, netcdf-devel
>
>
#INFN-PARMA: gcc/gfortran-44, lapack-devel, blas-devel gsl-devel, fftw3-devel, gmp-devel, cfitsio-devel, netcdf-devel, hdf5-devel
 requirements=(other.GlueCEUniqueID=="emi-ce.pr.infn.it:8443/cream-pbs-parallel");
Changed:
<
<
#INFN-PISA: gsl, lapack, blas, ftw, gmp, hdf5
>
>
#INFN-PISA: lapack-devel, blas-devel gsl-devel, fftw3-devel, gmp-devel, cfitsio-devel, netcdf-devel, hdf5-devel
 #requirements=(other.GlueCEUniqueID=="gridce4.pi.infn.it:8443/cream-lsf-gridmpi"); #UNI-NAPOLI: gmp, #requirements=(other.GlueCEUniqueID=="emi-ce01.scope.unina.it:8443/cream-pbs-hpc");

Revision 162012-06-26 - RobertoAlfieri

Line: 1 to 1
 
META TOPICPARENT name="WebHome"

MPI-multicore: Accesso all'infrastruttura

Line: 8 to 8
 
Added:
>
>

Iscrizione alla VO gridit

https://voms.cnaf.infn.it:8443/voms/gridit/

 

Selezione dell'ambiente

TAG "Wholenodes"

Revision 152012-06-04 - RobertoAlfieri

Line: 1 to 1
 
META TOPICPARENT name="WebHome"

MPI-multicore: Accesso all'infrastruttura

Line: 116 to 116
 

Istruzioni di utilizzo di MPI/Grid nelle comunita' scientifiche

Changed:
<
<
>
>
 
\ No newline at end of file

Revision 142012-06-02 - RobertoAlfieri

Line: 1 to 1
 
META TOPICPARENT name="WebHome"

MPI-multicore: Accesso all'infrastruttura

Line: 27 to 27
 Applicazione "scattered": 8 core possibilmente su 8 nodi diversi.
CPUnumber=8;
Changed:
<
<
HostNumber=8;
>
>
SMPgranularity=1;
 

Esempio di utilizzo dell'ambiente con un processo MPI per core, utilizzando il flavour openMPI

Revision 132012-06-01 - RobertoAlfieri

Line: 1 to 1
 
META TOPICPARENT name="WebHome"

MPI-multicore: Accesso all'infrastruttura

Line: 77 to 77
 Requirements = member("MPI-INFINIBAND", other.GlueHostApplicationSoftwareRunTimeEnvironment):
Changed:
<
<
Ambiente standard - gcc/gfortran 4.1.2, ...
>
>
Ambiente standard - gcc/gfortran/f95 4.1.2, ...
  Selezione dei siti che supportano MPI (MPI-START) e la release corrente di Cream per EMI-1 (1.13.4):
Line: 87 to 87
  Ambiente Specifico - Selezione "diretta" dei siti:
Changed:
<
<
#INFN-PARMA: gcc44 gfortran44, gsl-devel, gmp-devel, blas-devel, lapack-devel, fftw3-devel, hdf5-devel, netcdf-devel
>
>
#INFN-PARMA: gcc/gfortran-44, gsl-devel, gmp-devel, blas-devel, lapack-devel, fftw3-devel, hdf5-devel, netcdf-devel
 requirements=(other.GlueCEUniqueID=="emi-ce.pr.infn.it:8443/cream-pbs-parallel");
Changed:
<
<
#UNI-NAPOLI: ..
>
>
#INFN-PISA: gsl, lapack, blas, ftw, gmp, hdf5 #requirements=(other.GlueCEUniqueID=="gridce4.pi.infn.it:8443/cream-lsf-gridmpi"); #UNI-NAPOLI: gmp,
 #requirements=(other.GlueCEUniqueID=="emi-ce01.scope.unina.it:8443/cream-pbs-hpc");
Changed:
<
<
#UNI-PERUGIA: ..
>
>
#UNI-PERUGIA:
 #requirements=(other.GlueCEUniqueID=="cex.grid.unipg.it:8443/cream-pbs-grid");
Changed:
<
<
#INFN-PISA: #requirements=(other.GlueCEUniqueID=="gridce4.pi.infn.it:8443/cream-lsf-gridmpi");
>
>
 #IGI-BOLOGNA: #requirements=(other.GlueCEUniqueID=="");

Revision 122012-05-31 - RobertoAlfieri

Line: 1 to 1
 
META TOPICPARENT name="WebHome"

MPI-multicore: Accesso all'infrastruttura

Line: 87 to 87
  Ambiente Specifico - Selezione "diretta" dei siti:
Changed:
<
<
#INFN-PARMA: gcc44 gfortran44, gsl-devel, gmp-devel, blas-devel, lapack-devel, fftw3-devel, hdf5-devel
>
>
#INFN-PARMA: gcc44 gfortran44, gsl-devel, gmp-devel, blas-devel, lapack-devel, fftw3-devel, hdf5-devel, netcdf-devel
 requirements=(other.GlueCEUniqueID=="emi-ce.pr.infn.it:8443/cream-pbs-parallel"); #UNI-NAPOLI: .. #requirements=(other.GlueCEUniqueID=="emi-ce01.scope.unina.it:8443/cream-pbs-hpc");

Revision 112012-05-29 - RobertoAlfieri

Line: 1 to 1
 
META TOPICPARENT name="WebHome"

MPI-multicore: Accesso all'infrastruttura

Line: 66 to 66
 

Riferimenti:

Deleted:
<
<
Evolution of Grid meta-scheduling towards the EMI era
 
Added:
>
>
Evolution of Grid meta-scheduling towards the EMI era - MPI user manual
 

Network

Revision 102012-05-28 - RobertoAlfieri

Line: 1 to 1
 
META TOPICPARENT name="WebHome"

MPI-multicore: Accesso all'infrastruttura

Line: 12 to 12
  TAG "Wholenodes"
Deleted:
<
<
Applicazione MPI generica: 64 cores, senza requisiti sulla loro dislocazione:
CPUnumber=64
 Applicazione SMP: 1 nodo intero con almeno 8 core ciascuno.
WholeNodes=true;
Line: 24 to 19
 SMPGranularity = 8;
Added:
>
>
Applicazione MPI generica: 64 cores, senza requisiti sulla loro dislocazione.
CPUnumber=64

Applicazione "scattered": 8 core possibilmente su 8 nodi diversi.

CPUnumber=8;
HostNumber=8; 

Esempio di utilizzo dell'ambiente con un processo MPI per core, utilizzando il flavour openMPI

mpi-start -t openmpi  -vv -- my-mpi-prog
  Applicazione ibrida MPI/openMP: 8 nodi interi con almeno 8 core ciascuno.
Line: 32 to 43
 SMPGranularity = 8;
Changed:
<
<
Applicazione "scattered": 8 core possibilmente su 8 nodi diversi.
>
>
Esempio di utilizzo dell'ambiente con un processo MPI per nodo. MPI-start setta anche la variabile OMP_NUM_THREADS in modo che ogni processo MPI possa lanciare tanti threads quanti sono i core del nodo.
 
Changed:
<
<
CPUnumber=8; HostNumber=8;
>
>
mpi-start -t openmpi -pnode -vv -- my-mpi-prog

Esempio con un processo MPI per socket. MPI-start setta anche la variabile OMP_NUM_THREADS in modo che ogni processo MPI possa lanciare tanti threads quanti sono i core del socket.

mpi-start -t openmpi  -psocket -vv -- my-mpi-prog

Esempio con due processi MPI per socket. MPI-start setta anche la variabile OMP_NUM_THREADS in modo che ogni processo MPI possa lanciare un thread per core.

mpi-start -t openmpi  -npsocket=2  -vv -- my-mpi-prog
 
Line: 43 to 69
 Evolution of Grid meta-scheduling towards the EMI era
Deleted:
<
<
MPI-start
  Network

Revision 92012-05-28 - RobertoAlfieri

Line: 1 to 1
 
META TOPICPARENT name="WebHome"

MPI-multicore: Accesso all'infrastruttura

Line: 10 to 10
 

Selezione dell'ambiente

Changed:
<
<
Utilizzo dei TAG "Wholenodes"
>
>
TAG "Wholenodes"
  Applicazione MPI generica: 64 cores, senza requisiti sulla loro dislocazione:
Line: 43 to 43
 Evolution of Grid meta-scheduling towards the EMI era
Added:
>
>
MPI-start
 Network
Added:
>
>
 
Requirements  = member("MPI-INFINIBAND", other.GlueHostApplicationSoftwareRunTimeEnvironment):
Line: 58 to 61
  Ambiente Specifico - Selezione "diretta" dei siti:
Added:
>
>
#INFN-PARMA: gcc44 gfortran44, gsl-devel, gmp-devel, blas-devel, lapack-devel, fftw3-devel, hdf5-devel
 requirements=(other.GlueCEUniqueID=="emi-ce.pr.infn.it:8443/cream-pbs-parallel");
Added:
>
>
#UNI-NAPOLI: ..
 #requirements=(other.GlueCEUniqueID=="emi-ce01.scope.unina.it:8443/cream-pbs-hpc");
Added:
>
>
#UNI-PERUGIA: ..
 #requirements=(other.GlueCEUniqueID=="cex.grid.unipg.it:8443/cream-pbs-grid");
Added:
>
>
#INFN-PISA:
 #requirements=(other.GlueCEUniqueID=="gridce4.pi.infn.it:8443/cream-lsf-gridmpi");
Added:
>
>
#IGI-BOLOGNA: #requirements=(other.GlueCEUniqueID=="");
 
Changed:
<
<
Documento per la standardizzazione dell un ambiente software
>
>
Documento per la standardizzazione dell'ambiente software

 

IGI Portal

Revision 82012-05-28 - RobertoAlfieri

Line: 1 to 1
 
META TOPICPARENT name="WebHome"

MPI-multicore: Accesso all'infrastruttura

Line: 8 to 8
 
Changed:
<
<
JDL requirements (end-point based):
>
>

Selezione dell'ambiente

Utilizzo dei TAG "Wholenodes"

Applicazione MPI generica: 64 cores, senza requisiti sulla loro dislocazione:

 
Added:
>
>
CPUnumber=64

Applicazione SMP: 1 nodo intero con almeno 8 core ciascuno.

WholeNodes=true;
#HostNumber=1; (default)
SMPGranularity = 8;

Applicazione ibrida MPI/openMP: 8 nodi interi con almeno 8 core ciascuno.

WholeNodes=true;
HostNumber=8;
SMPGranularity = 8;

Applicazione "scattered": 8 core possibilmente su 8 nodi diversi.

CPUnumber=8;
HostNumber=8; 
 
Added:
>
>
Riferimenti: Evolution of Grid meta-scheduling towards the EMI era

Network

Requirements  = member("MPI-INFINIBAND", other.GlueHostApplicationSoftwareRunTimeEnvironment):

Ambiente standard - gcc/gfortran 4.1.2, ...

Selezione dei siti che supportano MPI (MPI-START) e la release corrente di Cream per EMI-1 (1.13.4):

 requirements=(other.GlueCEImplementationVersion=="1.13.4") && Member("MPI-START",other.GlueHostApplicationSoftwareRunTimeEnvironment);
Added:
>
>
 
Added:
>
>
Ambiente Specifico - Selezione "diretta" dei siti:
requirements=(other.GlueCEUniqueID=="emi-ce.pr.infn.it:8443/cream-pbs-parallel");
#requirements=(other.GlueCEUniqueID=="emi-ce01.scope.unina.it:8443/cream-pbs-hpc");
#requirements=(other.GlueCEUniqueID=="cex.grid.unipg.it:8443/cream-pbs-grid");
#requirements=(other.GlueCEUniqueID=="gridce4.pi.infn.it:8443/cream-lsf-gridmpi");
 
Added:
>
>
Documento per la standardizzazione dell un ambiente software
 

IGI Portal

Changed:
<
<
Il portale IGI, ancora in fase di sviluppo, supportera' la sottomissione di job MPI.
>
>
Il portale IGI supporta la sottomissione di job MPI con i nuovi TAG "Wholenodes".
 

Revision 72012-04-13 - RobertoAlfieri

Line: 1 to 1
 
META TOPICPARENT name="WebHome"

MPI-multicore: Accesso all'infrastruttura

Line: 10 to 10
  JDL requirements (end-point based):
Changed:
<
<
requirements=(other.GlueCEUniqueID=="emi-ce.pr.infn.it:8443/cream-pbs-parallel"); #requirements=(other.GlueCEUniqueID=="cex.grid.unipg.it:8443/cream-pbs-grid");
>
>
requirements=(other.GlueCEImplementationVersion=="1.13.4") && Member("MPI-START",other.GlueHostApplicationSoftwareRunTimeEnvironment);
 

IGI Portal

Revision 62012-03-22 - RobertoAlfieri

Line: 1 to 1
 
META TOPICPARENT name="WebHome"
Changed:
<
<

Accesso all'infrastruttura

>
>

MPI-multicore: Accesso all'infrastruttura

 

Istruzioni

Line: 8 to 8
 
Added:
>
>
JDL requirements (end-point based):
 requirements=(other.GlueCEUniqueID=="emi-ce.pr.infn.it:8443/cream-pbs-parallel");
 #requirements=(other.GlueCEUniqueID=="cex.grid.unipg.it:8443/cream-pbs-grid"); 
 

IGI Portal

Revision 52012-02-26 - RobertoAlfieri

Line: 1 to 1
 
META TOPICPARENT name="WebHome"

Accesso all'infrastruttura

Line: 14 to 14
 Il portale IGI, ancora in fase di sviluppo, supportera' la sottomissione di job MPI.

Changed:
<
<
>
>
 

Istruzioni di utilizzo di MPI/Grid nelle comunita' scientifiche

Revision 42012-02-21 - RobertoAlfieri

Line: 1 to 1
 
META TOPICPARENT name="WebHome"

Accesso all'infrastruttura

Changed:
<
<

Accesso via User Interface

>
>

Istruzioni

 
Deleted:
<
<
Istruzioni:
 
Deleted:
<
<
Esperienze sull'uso di MPI in grid:
 

IGI Portal

Line: 22 to 17
 
Added:
>
>

Istruzioni di utilizzo di MPI/Grid nelle comunita' scientifiche

 

Revision 32012-02-17 - RobertoAlfieri

Line: 1 to 1
 
META TOPICPARENT name="WebHome"

Accesso all'infrastruttura

Accesso via User Interface

Added:
>
>
Istruzioni:
 
Changed:
<
<
>
>
Esperienze sull'uso di MPI in grid:
 

IGI Portal

Changed:
<
<
Il portale IGI e' ancora in fase di sviluppo e supportera' la sottomissione di job MPI.
>
>
Il portale IGI, ancora in fase di sviluppo, supportera' la sottomissione di job MPI.
 

Revision 22012-02-16 - RobertoAlfieri

Line: 1 to 1
 
META TOPICPARENT name="WebHome"

Accesso all'infrastruttura

Accesso via User Interface

Changed:
<
<
>
>
 

IGI Portal

Revision 12012-02-15 - RobertoAlfieri

Line: 1 to 1
Added:
>
>
META TOPICPARENT name="WebHome"

Accesso all'infrastruttura

Accesso via User Interface

IGI Portal

Il portale IGI e' ancora in fase di sviluppo e supportera' la sottomissione di job MPI.


 
This site is powered by the TWiki collaboration platformCopyright © 2008-2020 by the contributing authors. All material on this collaboration platform is the property of the contributing authors.
Ideas, requests, problems regarding TWiki? Send feedback