Распределенные вычисления
128. Что такое канал?
1) Связь между процессорами
2) Участок локальной сети
3) Очередь для обмена сообщениями
4) механизм синхронизации процессов
129. Перечислите особенности удаленного вызова процедур
1) Вызов происходит всегда синхронно
2) При вызове создается новый процесс
3) В процедуре может быть несколько точек входа
4) Нельзя вызывать методы объектов
130. Перечислите особенности рандеву
1) В процедуре может быть несколько точек входа
2) Используются специальные операторы вызова и приема
3) Не создается новый процесс
4) Используется канал для передачи сообщений
MPI. Введение.
131. Укажите области параллельного программирования, для которых наиболее удобна технология MPI.
1) Программирование для систем с общей памятью
Программирование для кластеров
Научные вычисления
4) Программирование клиент-серверных приложений
132. Укажите элементарные операции, на которых основан обмен информацией в MPI.
Прием и передача сообщений
2) Удаленный вызов процедур
3) Обращение к области общей памятью
4) Чтение и запись семафоров.
133. По какой технологии создается программа при использовании MPI 1.0?
1) SPSD
SPMD
3) MPSD
4) MPMD
134. Что означает технология SPMD?
1) Все процессы имеют общую память.
2) Каждый из процессов выполняет свою задачу обработки информации.
3) Все процессы работают одновременно.
Все процессы выполняют одну и ту же программу.
135. Какие основные проблемы возникают при использовании MPI?
Необходимо распределить данные между процессами
2) Необходимо обеспечить синхронизацию при доступе к общим данным.
Необходимо избегать тупиков
4) Необходимо обеспечить рассылку процессов по вычислительным узлам.
136. Какая типичная роль у процесса с номером 0 при использовании MPI?
1) Запуск остальных процессов.
2) Обеспечение синхронизации процессов.
3) Поддержка общей памяти.
Распределение исходных данных и сбор результатов.
137. Что входит в реализацию MPI?
1) Язык программирования.
2) Набор управляющих комментариев.
Библиотека, содержащая функции MPI
Исполняющая система.
138. Как производится обмен данными между разными MPI-программами?
1) С помощью обмена сообщениями.
2) С помощью общей памяти.
3) С помощью средств синхронизации.
Обмен данными невозможен.
139. Как определяется количество процессов в MPI программе?
1) Определяется автоматически исходя из количества вычислительных узлов
2) Устанавливается программистом из самой программы.
Устанавливается в конфигурационных файлах при запуске программы
4) Определяется исходя из размера задачи.
MPI. Базовые функции.
140. Какую функцию необходимо вызвать в начале MPI-программы?
1) MPI_Create
2) MPI_Run
3) MPI_Start
MPI_Init
141. Что такое коммуникатор в MPI?
1) Идентификатор группы процессов.
2) Процесс, распределяющий данные другим процессам
Механизм синхронизации программ
4) Инфраструктура передачи сообщений.
142. Как называется уникальный номер процесса в MPI?
1) Порядок.
Ранг.
3) Идентификатор.
4) Степень.
143. Когда функция MPI_Send завершает свою работу?
Когда можно повторно использовать буфер отправки.
2) Когда сообщение поступило получателю.
3) Немедленно.
4) Когда сообщение попало в очередь на отправку.
144. Для отправки сообщения всем процессам нужно
1) Указать в качестве номера получателя MPI_ANY_SOURCE
2) Указать в качестве номера получателя 0
Использовать функцию MPI_Bcast
4) Подождать выхода новой версии MPI.
145. Какая функция осуществляет асинхронную отправку сообщения?
MPI_Isend
2) MPI_Send
3) MPI_Ssend
4) MPI_Bsend
146. Какая функция гарантирует отсутствие взаимоблокировок?
1) MPI_Isend
2) MPI_Ssend
MPI_Sendrecv
4) MPI_BSend
147. Что возвращают функции MPI?
1) Количество принятых или переданных данных.
2) Информацию о статусе пересылки.
3) Информацию о процессах
Код ошибки.
148. Какие величины идентифицируют процесс?
Номер процесса в группе
2) Уникальное имя процесса.
Имя коммуникатора.
4) Уникальное имя компьютера.
MPI. Коллективные операции
149. Какие коллективные операции используются для рассылки данных?
MPI_Bcast
MPI_Scatter
3) MPI_Gather
4) MPI_ Reduce
150. Какие коллективные операции используются для cбора данных?
1) MPI_Bcast
2) MPI_Scatter
MPI_Gather
MPI_ Reduce
151. Какая функция обеспечивает синхронизацию процессов?
1) MPI_Alltoall
MPI_Barrier
3) MPI_Test
4) MPI_Bcast
152. Какая функция позволяет разослать данные из каждого процесса на все остальные?
1) MPI_Bcast
2) MPI_Alltoall
3) MPI_Scatter
MPI_Allscatter
153. Какая операция не поддерживается функцией MPI_Reduce?
1) сложение
2) вычисление максимума
3) умножение
Деление
154. С какими процессами работают коллективные операции?
1) С процессами, номера которых указаны при вызове функций
2) Со всеми процессами в параллельной программе
Поиск по сайту:
|