Тут показані розбіжності між вибраною ревізією та поточною версією сторінки.
Both sides previous revision Попередня ревізія Наступна ревізія | Попередня ревізія Остання ревізія Both sides next revision | ||
hpc [2015/04/25 10:33] wombat [OpenMPI] MPICH links |
hpc [2015/06/14 20:59] wombat [Ссылки] LLNL tutorials |
||
---|---|---|---|
Рядок 2: | Рядок 2: | ||
===== OpenMP ===== | ===== OpenMP ===== | ||
+ | |||
+ | https://computing.llnl.gov/tutorials/openMP/ | ||
+ | |||
Рядок 18: | Рядок 21: | ||
https://www.open-mpi.org/ | https://www.open-mpi.org/ | ||
+ | Сначала нужно настроить [[ssh#подключение_по_ключу|доступ через SSH по ключу]]. | ||
+ | |||
+ | Для проверки работоспособности системы запустим программу ''hostname'' на нескольких компьютерах из локальной сети: | ||
+ | |||
+ | mpirun -np 2 --host 192.168.1.2,192.168.1.3 hostname | ||
+ | |||
+ | После написания [[mpi|программы]] с использованием технологии MPI, запустить её можно так: | ||
+ | |||
+ | Компиляция: | ||
+ | mpicc -o mpi-test.bin mpi-test.c | ||
+ | |||
+ | Копирование на другие компьютеры: | ||
+ | scp -P22 mpi-test.bin Calculator1:~/ | ||
+ | |||
+ | Выделение ресурсов [[slurm|SLURM]]: | ||
+ | salloc -n8 /bin/bash | ||
+ | |||
+ | Запуск: | ||
+ | mpirun ./mpi-test.bin | ||
+ | |||
+ | Опыт показал, что вместо последних двух команд лучше задавать одну такую: | ||
+ | salloc -n8 mpirun ./mpi-test.bin | ||
+ | Тогда после завершения работы программы, соответствующее задание удаляется из очереди SLURM, и ресурсы освобождаются для следующих задач. | ||
==== MPICH ==== | ==== MPICH ==== | ||
http://www.mpich.org/documentation/guides/ | http://www.mpich.org/documentation/guides/ | ||
+ | |||
+ | |||
+ | ===== Планировщики задач ===== | ||
+ | |||
+ | https://research.cs.wisc.edu/htcondor/manual/v8.3/2_9Parallel_Applications.html | ||
+ | |||
+ | https://computing.llnl.gov/linux/slurm/ | ||
+ | |||
+ | http://www.adaptivecomputing.com/products/open-source/torque/ | ||
+ | |||
+ | == Grun == | ||
+ | |||
+ | > A lightweight replacement for job queueing systems like LSF, Torque, condor, SGE, for private clusters. | ||
+ | > ... | ||
+ | > Grun doesn't support MPI and other fancy grid things (although you can layer map-reduce on it) | ||
+ | |||
+ | https://github.com/earonesty/grun | ||
+ | |||
===== Ссылки ===== | ===== Ссылки ===== | ||
Рядок 35: | Рядок 79: | ||
https://research.cs.wisc.edu/htcondor/manual/v8.3/1_1High_Throughput_Computin.html | https://research.cs.wisc.edu/htcondor/manual/v8.3/1_1High_Throughput_Computin.html | ||
+ | |||
+ | http://toolkit.globus.org/toolkit/ | ||
+ | |||
+ | http://www.openlava.org/ | ||
+ | |||
+ | http://graal.ens-lyon.fr/diet/ | ||
+ | |||
+ | [[https://computing.llnl.gov/tutorials/linux_clusters/ | LLNL Linux Clusters Overview]] | ||
+ | |||
+ | [[https://computing.llnl.gov/tutorials/parallel_comp/ | LLNL Introduction to Parallel Computing]] | ||
+ | |||
+ | |||
+ | |||
===== Видеокурсы ===== | ===== Видеокурсы ===== | ||