Развивает MPI в следующих направлениях:
·
Динамическое создание и уничтожение процессов (важно для работы в сетях ЭВМ).
· Односторонние коммуникации и средства синхронизации для организации взаимодействия процессов через общую память (для эффективной работы на системах с непосредственным доступом процессоров к памяти других процессоров).
· Параллельные операции ввода-вывода (для эффективного использования существующих возможностей параллельного доступа многих процессоров к различным дисковым устройствам).
4 Синхронизация в распределенных системах
Обычно децентрализованные алгоритмы имеют следующие свойства:
(1) Относящаяся к делу информация распределена среди множества ЭВМ.
(2) Процессы принимают решение на основе только локальной информации.
(3) Не должно быть единственной критической точки, выход из строя которой приводил бы к краху алгоритма.
(4) Не существует общих часов или другого источника точного глобального времени.
Первые три пункта все говорят о недопустимости сбора всей информации для принятия решения в одно место. Обеспечение синхронизации без централизации требует подходов, отличных от используемых в традиционных ОС.
Последний пункт также очень важен - в распределенных системах достигнуть согласия относительно времени совсем непросто. Важность наличия единого времени можно оценить на примере программы make в ОС UNIX.
Главные теоретические проблемы - отсутствие глобальных часов и невозможность зафиксировать глобальное состояние (для анализа ситуации - обнаружения дедлоков, для организации промежуточного запоминания).