Новости
О Центре
Кластер
Общее описание
Программная архитектура
Система управления кластером
Результаты вычислительных эксперементов
Обучение
Исследования
Конференции
Полезные ссылки
NVIDIA
Контакты
О сайте
Имя:
Пароль:
запомнить:
Забыли пароль? Регистрация

Результаты вычислительных эксперементов

4. Оптимизация системного программного обеспечения для организации параллельных вычислений

Основной подход для организации параллельных вычислений в многопроцессорных вычислительных системах с распределенной памятью состоит в использовании интерфейса передачи сообщений (message passing interface - MPI). Для обеспечения совместимости разрабатываемого в рамках данного подхода параллельного программного обеспечения были выполнены работы по созданию стандарта MPI - см., например, Group и др. (1994). Координация усилий по стандартизации MPI осуществляется в рамках международного консорциума MPI Forum (см. www.mpi-forum.org).

Поддержка стандарта MPI обеспечивается при помощи создания программных библиотек. В настоящий момент известно достаточно большое число реализаций MPI. Эти разработки, обеспечивая поддержку единого стандарта, различаются по способам построения и могут быть ориентированы на различные операционные системы и аппаратные платформы. Как результат, при организации параллельных вычислений важным вопросом является выбор эффективной реализации MPI, наиболее соответствующей условиям применяемой вычислительной системы. При этом, если данный вопрос для операционной системы Unix практически разрешен в пользу библиотеки MPICH (см., например, www-unix.mcs.anl.gov/mpi/MPICH/), то для многопроцессорных (кластерных) систем, построенных на основе операционной системы Microsoft Windows, проблема выбора эффективного варианта MPI по-прежнему имеет высокую значимость и актуальность.

Целью рассматриваемых в данном разделе вычислительных экспериментов являлась оценка эффективности двух наиболее применяемых в системах под управлением ОС семейства Microsoft Windows свободно распространяемых реализаций библиотек MPI:

-       Argonne National Lab MPICH (www-unix.mcs.anl.gov/mpi/MPICH/);

-       RWTH Aachen MP-MPICH (www.lfbs.rwth-aachen.de/~joachim/MP-MPICH.html).

Выполнение вычислительных экспериментов осуществлялось для определения пропускной способности и времени задержки (латентности) передачи данных коммуникационной среды кластера Нижегородского университета. Данные показатели являются одними из наиболее важных характеристик параллельных вычислительных систем.

1. В первой серии экспериментов выполнялась оценка латентности (задержки) перед началом передачи данных. Для этого в тесте осуществляется передача сообщений нулевой длины от вычислительного узла 0 к одному из узлов вычислительной системы. Для снижения погрешности измерения посылка сообщений осуществляется 2000 раз и результаты измерения усредняются. Результаты таких экспериментов представлены в таблице 4.1.

Результаты приведенных экспериментов показывают, что время задержки начала передачи сообщений для варианта MPICH выше (по крайней мере на 50%) по сравнению с реализацией MP-MPICH.

Таблица 4.1.

Тип взаимодействующих узлов

Латентность (мкс.)

MPICH

MP- MPICH

2 процессора на одном двухпроцессорном сервере

23.5441

0.719183

2 процессора на разных двухпроцессорных серверах (сеть - Gigabit Ethernet)

115.96

66.7918

Процессор двухпроцессорного сервера и рабочая станция кластера, соединенных сетью Fast Ethernet

162.217

109.288

 

2. Во второй серии экспериментов оценивалась пропускная способность (скорость передачи) данных между двумя процессорами двухпроцессорного сервера кластера. Результаты экспериментов представлены в виде графиков для размера пересылаемых пакетов от 16 до 1024 байтов на рис. 4.1 и для размера пересылаемых пакетов от 1024 до 2097152 байтов на рис. 4.2.

3. В третьей серии экспериментов оценивалась пропускная способность (скорость передачи) данных между процессорами двухпроцессорных серверов кластера, соединенных сетью Gigabit Ethernet. Результаты экспериментов представлены в виде графиков для размера пересылаемых пакетов от 16 до 1024 байтов на рис. 4.3 и для размера пересылаемых пакетов от 1024 до 2097152 байтов на рис. 4.4.

Рис. 4.1. Скорость передачи данных между процессорами одного двух процессорного сервера для пакетов данных от 16 до 1024 байтов

Рис. 4.2. Скорость передачи данных между процессорами одного двух процессорного сервера для пакетов данных от 1024 до 2097152 байтов

Рис. 4.3. Скорость передачи данных между процессорами двухпроцессорных серверов кластера, соединенных между сетью Gigabit Ethernet, для пакетов данных от 16 до 1024 байтов

Рис. 4.4. Скорость передачи данных между процессорами двухпроцессорных серверов кластера, соединенных между сетью Gigabit Ethernet, для пакетов данных от 1024 до 2097152 байтов

4. В четвертой серии экспериментов оценивалась пропускная способность (скорость передачи) данных между процессором двухпроцессорного сервера кластера и рабочей станцией, которые соединены сетью Fast Ethernet. Результаты экспериментов представлены в виде графиков для размера пересылаемых пакетов от 16 до 1024 байтов на рис. 4.5 и для размера пересылаемых пакетов от 1024 до 2097152 байтов на рис. 4.6.

Рис. 4.5. Скорость передачи данных между процессором двухпроцессорного сервера кластера и рабочей станцией, которые соединены сетью Fast Ethernet, для пакетов данных от 16 до 1024 байтов

Рис. 4.6. Скорость передачи данных между процессором двухпроцессорного сервера кластера и рабочей станцией, которые соединены сетью Fast Ethernet, для пакетов данных от 1024 до 2097152 байтов

5. Обобщая результаты приведенных экспериментов, в целом можно заключить, что использование реализации MP-MPICH обеспечивает большую скорость передачи данных по сравнению с вариантом библиотеки MPICH. Преимущество MP-MPICH наиболее заметно при относительно небольших размерах пересылаемых пакетов данных при использовании сетей с высокой пропускной способностью (Gigabit Ethernet). Результаты экспериментов позволяют рекомендовать вариант библиотеки MP-MPICH в качестве системного программного обеспечения для организации параллельных вычислений в многопроцессорных (кластерных) системах, построенных на основе операционных платформ семейства Microsoft Windows.


<< вернуться  |   Документ от: 09.09.2005 11:42

Новости

22.10.2012
04.09.2012
05.04.2012
06.03.2012
02.03.2012