Теория и практика параллельных вычислений
Контрольные вопросы
Какой минимальный набор средств является достаточным для организации параллельных вычислений в системах с распределенной памятью?
В чем состоит важность стандартизации средств передачи сообщений?
Что следует понимать под параллельной программой?
В чем различие понятий процесса и процессора?
Какой минимальный набор функций MPI позволяет начать разработку параллельных программ?
Как описываются передаваемые сообщения?
Как можно организовать прием сообщений от конкретных процессов?
Как определить время выполнения MPI-программы?
В чем различие парных и коллективных операций передачи данных?
Какая функция MPI обеспечивает передачу данных от одного процесса всем процессам?
Что понимается под операцией редукции?
В каких ситуациях следует применять барьерную синхронизацию?
Какие режимы передачи данных поддерживаются в MPI?
Как организуется неблокирующий обмен данными в MPI?
В чем состоит понятие тупика? Когда функция одновременного выполнения передачи и приема гарантирует отсутствие тупиковых ситуаций?
Какие коллективные операции передачи данных предусмотрены в MPI?
Что понимается под производным типом данных в MPI?
Какие способы конструирования типов имеются в MPI?
В каких ситуациях может быть полезна упаковка и распаковка данных?
Что понимается в MPI под коммуникатором?
Для чего может потребоваться создание новых коммуникаторов?
Что понимается в MPI под виртуальной топологией?
Какие виды топологий предусмотрены в MPI?
Для чего может оказаться полезным использование виртуальных топологий?
В чем состоят особенности разработки параллельных программ с использованием MPI на алгоритмическом языке Fortran?
Какие основные дополнительные возможности предусмотрены в стандарте MPI-2?
Содержание раздела