Существует необходимость в разработке новых подходов к параллельному программированию, отличных от применяемых в стандартных инструментах разработки параллельных приложений, таких как OpenMP и MPI. Несмотря на многолетний опыт использования и длительное развитие этих инструментов, они не позволяют ни использовать преимущества современных аппаратных платформ, ни эффективно обходить их недостатки. Так, например, в OpenMP до настоящего времени не реализована поддержка систем с архитектурой NUMA, а MPI не позволяет создавать эффективные программы для систем с общей памятью. Кроме того, MPI и OpenMP не позволяют распределять вычисления в неоднородных системах, таких как Roadrunner. В данной работе рассматривается один из альтернативных методов - программирование параллельных вычислений при помощи замыканий. Эта техника является развитием идей, на которых основывалось ранее предлагавшееся программирование с графом потоков данных (DFG). При попытках разрабатывать в рамках DFG некоторые реальные приложения выяснилось следующее. (1) подход, как и ожидалось, позволяет избавить программиста от значительного объёма работ по созданию подпрограмм для перераспределения данных во время вычисления. (2) как и ожидалось, он позволяет получить такое представление параллельной программы, которое можно эффективно исполнять на разнородном вычислительно оборудовании. (3) но, несмотря на указанные преимущества, программирование в рамках DFG оказалось затруднено необходимостью явно описывать управление потоками данных - в зависимости от условий приостанавливать и возобновлять активность потоков. Это описание часто нужно наделять высокой логической сложностью, особенно в тех случаях, когда граф должен быть перестраиваемым под разное количество вычислительных узлов.
Существует необходимость в разработке новых подходов к параллельному программированию, отличных от применяемых в стандартных инструментах разработки параллельных приложений, таких как OpenMP и MPI. Несмотря на многолетний опыт использования и длительное развитие этих инструментов, они не позволяют ни использовать преимущества современных аппаратных платформ, ни эффективно обходить их недостатки. Так, например, в OpenMP до настоящего времени не реализована поддержка систем с архитектурой NUMA, а MPI не позволяет создавать эффективные программы для систем с общей памятью. Кроме того, MPI и OpenMP не позволяют распределять вычисления в неоднородных системах, таких как Roadrunner. В данной работе рассматривается один из альтернативных методов - программирование параллельных вычислений при помощи замыканий. Эта техника является развитием идей, на которых основывалось ранее предлагавшееся программирование с графом потоков данных (DFG). При попытках разрабатывать в рамках DFG некоторые реальные приложения выяснилось следующее. (1) подход, как и ожидалось, позволяет избавить программиста от значительного объёма работ по созданию подпрограмм для перераспределения данных во время вычисления. (2) как и ожидалось, он позволяет получить такое представление параллельной программы, которое можно эффективно исполнять на разнородном вычислительно оборудовании. (3) но, несмотря на указанные преимущества, программирование в рамках DFG оказалось затруднено необходимостью явно описывать управление потоками данных - в зависимости от условий приостанавливать и возобновлять активность потоков. Это описание часто нужно наделять высокой логической сложностью, особенно в тех случаях, когда граф должен быть перестраиваемым под разное количество вычислительных узлов.
Количество просмотров:
Вернуться в раздел Параллельные направления