Параллельное программирование

Автор: Пользователь скрыл имя, 16 Марта 2012 в 11:58, реферат

Описание работы

Параллельное программирование служит для создания программ, эффективно использующих вычислительные ресурсы за счет одновременного исполнения кода на нескольких вычислительных узлах. Для создания параллельных приложений используются параллельные языки программирования и специализированные системы поддержки параллельного программирования, такие как MPI и OpenMP. Параллельное программирование является более сложным по сравнению с последовательным как в написании кода, так и в его отладки. Для облегчения процесса параллельного программирования существуют специализированные инструменты, например, отладчик TotalView, статический анализатор кода VivaMP.

Содержание

1.Теория параллельного программирования………………………………………………2
2.Open MP. Что это такое?.................................................................................6
3. Проблемы параллельного программирования………………………………………..9
4. Интерфейс MPI…………………………………………………………………………………………..12
5.Выводы………………………………………………………………………………………………………..14

Работа содержит 1 файл

Реферат на тему.docx

— 36.67 Кб (Скачать)

Оглавление

 

1.Теория параллельного программирования………………………………………………2

2.Open MP. Что это такое?.................................................................................6

3. Проблемы параллельного программирования………………………………………..9

4. Интерфейс MPI…………………………………………………………………………………………..12

5.Выводы………………………………………………………………………………………………………..14

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Параллельное  программирование.

Параллельное  программирование служит для создания программ, эффективно использующих вычислительные ресурсы за счет одновременного исполнения кода на нескольких вычислительных узлах. Для создания параллельных приложений используются параллельные языки программирования и специализированные системы поддержки  параллельного программирования, такие  как MPI и OpenMP. Параллельное программирование является более сложным по сравнению с последовательным как в написании кода, так и в его отладки. Для облегчения процесса параллельного программирования существуют специализированные инструменты, например, отладчик TotalView, статический анализатор кода VivaMP.

Это раздел программирования, связанный с изучением и разработкой методов и средств для: а) адекватного описания в программах естественного параллелизма моделируемых в ЭВМ и управляемых ЭВМ систем и процессов, б) распараллеливания обработки информации в многопроцессорных и мультипрограммных ЭВМ с целью ускорения вычислений и эффективного использования ресурсов ЭВМ.

 В отличие  от программирования последовательных  вычислений, концептуальную основу  которого составляет понятие алгоритма, реализуемого по шагам строго последовательно во времени, в П. п. программа порождает совокупность параллельно протекающих процессов обработки информации, полностью независимых или связанных между собой статическими или динамическими пространственно-временными или причинно-следственными отношениями.

Вычислительный  параллелизм выступает в разных конкретных формах в зависимости  от этапа программирования, от сложности  параллельных фрагментов и характера  связей между ними.

 В текстах, описывающих задачи и программы, можно выделить уровни сложности фрагментов, для которых задача распараллеливания, т. е. составления параллельной программы, решается по-разному: выражения со скалярными данными; выражения над структурными данными (векторы, матрицы, деревья и т. п.), записываемые в алгоритмических языках с помощью операторов цикла; подзадачи и подпрограммы; независимые задачи и программы в мультипроцессорных системах.

Предпосылкой  для распараллеливания выражений  служит тот факт, что входящие в  них операции и функции удовлетворяют  некоторым соотношениям, индуцирующим на всем множестве выражений отношение эквивалентности по результатам (например, для арифметических операций - ассоциативность, коммутативность, дистрибутивность). Задача распараллеливания состоит в построении по заданному выражению Е эквивалентного выражения E', которое может быть исполнено за наименьшее число параллельных шагов, где параллельный шаг - это совокупность действий, выполняемых одновременно на разных вычислителях (процессорах). Напр., выражение преобразуется в эквивалентное выражение, исполнение которого осуществляется за 3 параллельных шага. Отношение числа параллельных шагов исполнения к числу последовательных шагов называется ускорением распараллеливания. Любое арифметическое выражение с поперандами может быть вычислено параллельно за О(log n).шагов с использованием п процессоров. Относительная простота алгоритмов распараллеливания выражений позволяет реализовать их автоматически в ЭВМ с помощью специальных программ или аппаратными средствами.

Большее ускорение  может быть получено за счет распараллеливания  обработки структурных данных. В  алгоритмических языках типа алгол или фортран выражения над структурными данными программируются с помощью операторов цикла вида FOR I=A, В, С,DO S, где I - целочисленный параметр цикла,  А - его начальное значение,  В - конечное значение,  С - шаг изменения параметра, S - тело цикла, задающее действия, выполнимые на одном шаге итерации. Для распараллеливания системы вложенных циклов рассматривается n-мерное целочисленное пространство итераций с координатными осями I1, I2, . . ., In. Выполнение K 1-й итерации по параметру Il, K2-й итерации но параметру I2, . . ., К п-й итерации по параметру I п  изображается точкой (K1, . . .,  К n).этого пространства. В пространстве итераций ищется семейство поверхностей, удовлетворяющих условию: все итерации ( К 1, . . ., К  п), лежащие на любой из этих поверхностей, могут выполняться параллельно. Для программного представления параллельной обработки структурных данных необходимы специальные языковые средства. С этой целью разработаны модификации существующих языков программирования (в основном - фортрана), в которые вводятся параллельные операторы циклов, например, вида:

 

 FOR ALL (I, J, K)/[1:N; 1:L; 1:M],

 

 при исполнении которых тело цикла копируется по определенным правилам на параллельно исполняемые итерации. Эти языки снабжаются также более развитыми средствами описания структурных данных и средствами управления размещением их в памяти для обеспечения быстрого параллельного доступа к структурным данным. Дальнейшее повышение уровня языков программирования состоит в использовании групповых операций над структурными данными таких, как покомпонентное умножение и сложение векторов и матриц, скалярное и векторное произведение, обращение матриц и т. п. Применение таких языков позволяет заменить автоматическое распараллеливание последовательных циклов, которое на практике осуществимо, но относительно сложно, на непосредственное задание параллельных групповых операций.

Параллельные  выражения могут исполняться  асинхронно или синхронно. В первом случае не фиксируется связь между  временами выполнения параллельных операций, во втором случае времена  их выполнения должны вкладываться в  жесткие рамки тактированного расписания. Если операции имеют фиксированные  длительности и известно число процессоров, доступных в любой момент исполнения, то целесообразно применять синхронный метод вычислений, в противном  случае - более гибкий асинхронный. Управление асинхронным исполнением  выражений основано на потоковом  принципе: операция может выполняться  в любой момент времени после  того, как для нее подготовлены операнды.

Распараллеливание на уровне подзадач и подпрограмм  существенно сложнее. В этом случае параллельные процессы могут иметь  сложную внутреннюю структуру. Длительность их выполнения не фиксирована; процессы взаимодействуют, обмениваясь данными и обращаясь к общим ресурсам (общие данные и программы в памяти, внешние устройства и т. п.). Автоматическое распараллеливание на этом уровне требует сложных алгоритмов анализа задач и учета динамических ситуаций в системе. В связи с этим особое значение имеет создание языков П. п., позволяющих программисту непосредственно описывать сложные взаимодействия параллельных процессов.

В большинстве  языков и систем П. п. принята частично асинхронная организация вычислений. В языках П. п. имеются средства выделения (порождения) параллельных процессов  и средства их синхронизации, которые в аппаратуре поддерживаются механизмами прерываний - принудительных остановок процессов с запоминанием их текущих состояний и с последующей активацией или возобновлением др. процессов.

Наиболее  известными и простыми программными механизмами синхронизации являются семафоры и события. Семафор - это  специальная управляющая переменная, принимающая целочисленные значения. Семафор обычно связан с некоторым конфликтным ресурсом. К семафору применимы только две операции Р и V. Если в ходе исполнения процесса встретится операция P(s), где s - семафор, то процесс может продолжаться с уменьшением значения s на 1 только в том случае, когда значение s положительно; в противном случае он приостанавливается и занимает место в очереди q(s).процессов, ждущих соответствующего ресурса. Операция V увеличивает значение s на 1 и возобновляет первый в очереди q(s).процесс.

Механизм  семафоров широко используется в  языках управления процессами в операционных системах ЭВМ и в ряде универсальных  языков программирования (напр., алгол-68). Механизм событий включает управляющие  переменные, текущие значения которых отмечают наступление каких-либо программных или системных событий (завершение процессов, прерывания и т. п.), и специальные операторы ожидания событий.

 Семафоры  и события являются универсальными  средствами синхронизации, но  они слишком примитивны, и неправильное  их использование может привести  к аварийным ситуациям таким,  как взаимная блокировка процессов  (напр., два процесса требуют для  своего продолжения по два  ресурса и каждый "захватил" по одному). Стремление повысить надежность программирования приводит к появлению более сложных механизмов синхронизации: "почтовые ящики" - особые структуры для обмена сообщениями, для которых фиксированы правила работы с ними параллельных процессов; мониторы - наборы процедур и данных, к которым процессы могут обращаться только поочередно и которые содержат заданные программистом правила организации взаимодействий.

 Чисто  асинхронное П. п. используется для организации вычислений в распределенных вычислительных системах, в которых полностью исключены конфликты по ресурсам. Стремление упростить организацию взаимодействий между процессами с общими ресурсами привлекает внимание к асинхронным методам вычислений, в которых разрешен нерегламентированный доступ параллельных процессов к общим ресурсам. Напр., разрабатываются асинхронные алгоритмы, в которых параллельные процессы обмениваются данными с общей памятью, причем неупорядоченный доступ к памяти не мешает достижению однозначного результата.

 

 В теории  П. п. разрабатываются формальные  модели параллельных программ, процессов  и систем и с их помощью  исследуются различные аспекты П. п.: автоматическое распараллеливание последовательных алгоритмов и программ; разработка параллельных методов вычислений для разных классов задач и разных классов параллельных вычислительных систем- оптимальное планирование параллельных вычислений и распределение ресурсов между параллельными процессами; формальное описание семантики программ и языков П. п. Среди таких моделей - схемы параллельных программ, отражающие с разной степенью детализации структурные свойства программ; графовые модели и асинхронные сети ( Петри сети), являющиеся математическими абстракциями дискретных процессов и систем.

Что такое  OpenMP?

Первая спецификация компилятора OpenMP (Open specifications for Multi-Processing), являющегося развитием провального и ныне забытого проекта ANSI X3H5, появилась в 1997 году и предназначалась для одного из древнейших языков программирования Fortran, на котором некогда было написано большинство "серьезных" вычислительных приложений. В 1998 году появились варианты OpenMP для языков C/C++; стандарт прижился, получил распространение и к настоящему моменту дорос до версии 2.5. Поддержка спецификации есть во всех компиляторах Intel, начиная с шестой версии (OpenMP 2.0 - с восьмой); в компиляторе Microsoft C/C++, начиная с Visual Studio 2005; буквально на днях стало известно о худо-бедно стандартизованном OpenMP-расширении для GCC[OpenMP для GNU-систем, разумеется, существовал и раньше. Но проект GOMP (GNU OpenMP), обеспечивающий полноценное встраивание поддержки OpenMP непосредственно в GCC, появился только сейчас. 18 ноября пришло сообщение о готовности встроить GOMP в свежие билды GCC - ждем с нетерпением! Для линуксоидов, конечно, вручную параллелить код для pthreads - дело привычное, однако полноценная поддержка OpenMP со стороны GNU Project полностью устранит проблему портирования параллельных приложений между ОС, использующими разные модели потоков].

OpenMP идеально портируется. Он не привязывается к особенностям операционной системы и позволяет создавать переносимые приложения, использующие потоки и объекты синхронизации. Вдобавок большинство OpenMP-директив являются (в терминологии С/C++) "прагмами" (#pragma), а потому попросту игнорируются не понимающим их компилятором[Кстати, программисты, учтите: поддержку OpenMP зачастую требуется явно включать ключом в компиляторе! И еще: далеко не все возможности OpenMP сводятся к прагмам], который генерирует из OpenMP-программ вполне корректные, хотя и однопоточные приложения.

OpenMP позволяет работать на нескольких уровнях - либо задавать низкоуровневые объекты вручную, либо указывать, какие переменные являются "общими" и требуют синхронизации, передоверяя собственно синхронизацию компилятору. Благодаря OpenMP программист может вручную определять в коде программы атомные операции.

На мой  взгляд, этих качеств более чем  достаточно, чтобы OpenMP стал таким же стандартом для параллельного программирования, которым является C/C++ для программирования обычного.

Недостатков у OpenMP два. Первый - только сейчас появляющаяся поддержка сообщества Open Source. Второй - относительно жесткая модель программирования, навязываемая программисту[К примеру, совсем не очевидно, как заставить OpenMP-программу работать в режиме "системы массового обслуживания", когда некий "главный" поток принимает поступающие извне задания (скажем, запрос к БД или обращение с веб-серверу) по отдельным потокам. А вручную подобная система делается элементарно].

OpenMP

В их основу положена идея использования специальных  компиляторов ("знающих" про параллельное программирование), для которых в  коде программы расставляются специальные  пометки-примечания, указывающие, что  и где следует делать параллельно, а что - последовательно. Программист  же пишет что-то вроде

# ВыполниЭтотУчастокКодаПараллельно

Действие

а компилятор пытается по его замечаниям сориентироваться. Скажем, встретив указание "разбей этот цикл по двум потокам" перед кодом, в котором перебором по всем объектам вычисляется физика и AI, компилятор пробует сгенерировать такой  код, в котором будет действительно  ровно два потока, каждый из них  будет выполнять примерно половину общего объема работы. Язык замечаний в OpenMP развит хорошо, и на нем можно внятно растолковывать те или иные особенности исполнения данного участка программы, добиваясь нужного эффекта[OpenMP позволяет делать практически все то же самое, что доступно пользователю при работе непосредственно с операционной системой, и даже немного больше (вплоть до определения атомных операций над участками кода)]. А можно и не растолковывать, положившись целиком на компилятор - к начинающим OpenMP весьма либерален. Прибавьте сюда поддержку этого начинания корпорацией Intel, являющейся одним из ведущих производителей компиляторов для своих CPU, - и вам станет понятно, почему OpenMP превратился в стандарт де-факто, ожидающий утверждения в комитете по стандартизации ANSI.

Информация о работе Параллельное программирование