Оптимизация отображения неоднородно взаимодействующих MPI процессов на вычислительную архитектуру

Виктор Викторович Гетманский, Владимир Сергеевич Чалышев, Дмитрий Иванович Крыжановский, Евгений Иванович Лексиков

Аннотация


Разработан метод отображения на кластерную архитектуру неоднородно взаимодействующих параллельных процессов в вычислительном приложении, использующем MPI. Метод предназначен для сокращения задержек при синхронизации за счет назначения наиболее интенсивно взаимодействующих процессов, на вычислительные ядра с наиболее быстрым интерконнектом. Метод использует представление вычислительной задачи и архитектуры кластера в виде взвешенного графа. Разработан эвристический алгоритм, дающий за приемлемое время результат отображения номеров процессов на номера вычислительных ядер кластера. На примере хорошо масштабируемого вычислительного пакета получено ускорение вычислений на 17–20 % в результате оптимизации отображения для тестов от 300 до 4800 процессов.


Ключевые слова


отображение задач, кластер, графы задачи и системы, MPI

Полный текст:

PDF

Литература


Копысов, С.П. Методы привязки параллельных процессов и потоков к многоядерным узлам вычислительных систем / С.П. Копысов, А.К. Новиков, Л.Е. Тонков и др. // Вестн. Удмуртск. ун-та. Матем. Мех. Компьют. науки. — 2010. — Вып. 1. — С. 123–132.

Курносов, М.Г. Назначение ветвей параллельной программы на процессорные ядра распределенной вычислительной системы / М.Г. Курносов // Материалы Межд. научно-технической конференции «Многопроцессорные вычислительные и управляющие системы» (пос. Дивноморское, Геленджик, 2007). — Таганрог: ТТИ ЮФУ, 2007. — Т. 1. — С. 227–231.

Karlsson, C. Optimizing Process-to-Core Mappings for Application Level Multi-dimensional MPI Communications / C. Karlsson, T. Davies, Z. Chen // Cluster Computing (CLUSTER), 2012 IEEE International Conf. Proceedings (Beijing, China, September, 24–28, 2012). — Beijing, 2012. — P. 486–494.

Zhang, J. Process Mapping for MPI Collective Communications / J. Zhang, J. Zhai, W. Chen, et al. // Lecture Notes in Computer Science. — 2009. — Vol. 5704. — P. 81–92.

Chen, H. MPIPP: an Automatic Profile-Guided Parallel Process Placement Toolset for SMP Clusters and Multiclusters / H. Chen, W. Chen, J. Huang, et al. // ICS’06 Proceedings of the 20th annual international conference on Supercomputing (Queensland, Australia, June, 28 – July, 01, 2006). — Queensland, 2006. — P. 353–360.

Intel® MPI Library Reference Manual. URL: http://software.intel.com/sites/products/documentation/hpc/ics/impi/41/lin/Reference_Manual/index.htm (дата обращения: 20.12.2014).

Larsson, P. Shared Memory Communication vs. Infiniband / P. Larsson. URL: http://www.nsc.liu.se/~pla/blog/2013/09/12/smp-vs-infiniband (дата обращения: 20.12.2014).

Gygi, F. Large-Scale First-Principles Molecular Dynamics Simulations on the BlueGene/L Platform using the Qbox Code / F. Gygi, R.K. Yates, J. Lorenz, et al. // Proceedings of the ACM/IEEE SC 2005 Conference (Seattle, WA, USA, November, 12–18, 2005). — Seattle, 2005. — 24 p.

Суперкомпьютер «Торнадо ЮУрГУ». URL: http://supercomputer.susu.ac.ru/computers/tornado (дата обращения: 20.12.2014).




DOI: http://dx.doi.org/10.14529/cmse150201