|
|
Аннотации курсовНовые языки для параллельных вычислений.Предисловие: Потребность решения сложных прикладных задач с большим объемом вычислений и принципиальная ограниченность максимального быстродействия «классических» (по схеме фон Неймана) ЭВМ привели к появлению многопроцессорных вычислительных систем (МВС). Особую значимость параллельные вычисления приобрели с переходом компьютерной индустрии на массовый выпуск многоядерных процессоров. Суперкомпьютерные технологии и высокопроизводительные вычисления с использованием параллельных вычислительных систем становятся важным фактором научно-технического прогресса; их применение принимает всеобщий характер. Знание современных тенденций развития ЭВМ и аппаратных средств для достижения параллелизма, умение разрабатывать модели, методы и программы параллельного решения задач обработки данных следует отнести к числу важных квалификационных характеристик современного специалиста по прикладной математике, информатике и вычислительной технике. Цель: Цель лекции состоит в предоставлении слушателям основных понятий параллельных вычислений, необходимых для последующего изучения моделей, методов и технологий параллельного программирования. Предварительные знания: При изложении учебного материала лекции у обучаемых предполагается наличие общих (начальных) знаний в области программирования. Краткая аннотация: Лекция представляет собой общее введение в проблематику моделирования, анализа и разработки параллельных алгоритмов и программ для высокопроизводительных вычислительных систем. Для оценки эффективности вычислений приводятся основные показатели качества параллельных методов – ускорение (speedup), эффективность (efficiency), стоимость (cost) вычислений. Далее в лекции рассматриваются методы построения оценок максимально достижимых значений показателей эффективности. Для получения таких оценок использован закон Амдаля (Amdahl) и закон Густавсона-Барсиса (Gustafson-Barsis). Приводятся примеры для иллюстрации рассмотренных понятий. Для анализа вычислений рассматривается модель в виде графа «операции-операнды» для описания существующих информационных зависимостей в выбираемых алгоритмах решения задач. Приводятся теоретические оценки для определения максимального возможного распараллеливания. Для демонстрации применимости рассмотренных моделей и методов анализа параллельных алгоритмов приводится ряд учебных примеров. Для анализа способов организации параллельных вычислений проводится систематизация класса многопроцессорных вычислительных систем. Даны модели вычислений для систем с общей и распределенной памятью, с распределенной общей (distributed shared) памятью. Приведена общая характеристика проблем, возникающих при параллельных вычислениях для систем с общей памятью (обеспечение однозначности кэш-памяти разных процессоров, необходимость синхронизации вычислений). Рассмотрена общая схема передачи сообщений для вычислительных систем с распределенной памятью. Приведены основные характеристики сетей передачи данных в многопроцессорных вычислительных системах. При рассмотрении способов разработки параллельных программ проводится анализ поддержки модели вычислений в современных технологиях программирования. Рассматриваются технологии MPI, OpenMP, DVM, Т-система и изучаются модели вычислений с разделённым глобальным адресным пространством (partitioned global address space). Список ключевых терминов: Ускорение, эффективность, масштабируемость, стоимость, параллельных вычислений, закон Амдаля, закон Густавсона-Барсиса. Граф «операции-операнды», граф информационных зависимостей, расписание параллельного выполнения вычислений, время выполнения алгоритма, каскадная схема суммирования, алгоритм умножения матриц. Мультипроцессор, общая память, когерентность (однозначность) кэш-памяти, синхронизация, мультикомпьютер, распределенная память, операции передачи сообщений, кластер, топология сети. Технологии MPI, OpenMP, DVM, Т-система, PGAS. |
Новости22.10.2012
04.09.2012
05.04.2012
06.03.2012
02.03.2012
|