velikol.ru
1



Наименование дисциплины: Параллельные вычисления

Направление подготовки: 010400 Прикладная математика и информатика

Профиль подготовки: Математическое моделирование и вычислительная математика

Квалификация (степень) выпускника: бакалавр

Форма обучения: очная

Автор: к. ф.- м. н., доцент, кафедры математического моделирования Глызин Д.С.


1.Целями освоения дисциплины "Параллельные вычисления" являются:

1) знакомство с современными технологиями высокопроизводительных вычислений

2) получение знаний об эффективно реализуемых параллельных алгоритмах

3) умение оценить применимость и эффективность различных параллельных технологий и алгоритмов для решения ресурсоемких вычислительных задач


2. Дисциплина «Параллельные вычисления» относится к дисциплинам по выбору вариативной части цикла Б2. (математический и естественно- научный цикл).

Для ее успешного изучения необходимы знания и умения, приобретенные в результате освоения предшествующих дисциплин: «информатика», «языки программирования».

Знания и умения, приобретенные студентами в результате изучения дисциплины, будут использоваться при изучении курсов численных методов, математического моделирования, а также при выполнении курсовых и дипломных работ, связанных с математическим моделированием.


3.В результате освоения дисциплины обучающийся должен

Знать:

основные типы технологий параллельных вычислений, область их применимости; базовые параллельные алгоритмы, особенности их реализации для высокопроизводительных вычислений

Уметь:

адаптировать типовые алгоритмы для решения конкретных задач, реализовывать параллельные алгоритмы с помощью технологий как с общей, так и распределенной памятью

Владеть:

базовыми средствами разработки программного обеспечения для параллельных вычислительных систем


4.Общая трудоемкость дисциплины составляет 3 зачетные единицы, 108 часов.

5.Содержание дисциплины




Раздел дисциплины

1

^ Общие сведения о параллельном программировании

Обзор технологий параллельных вычислений. Архитектуры с общей и распределенной памятью. Простейшие параллельные алгоритмы типа «разделяй и властвуй» Модели согласованности памяти. Границы эффективного параллелизма. Идеально параллелизуемые задачи



2

^ Архитектуры с общей памятью: OpenMP

Oсновы OpenMP. Директивы препроцессора и необходимые функции. Синхронизация в OpenMP. Модели согласованности памяти, реализация в OpenMP. Декомпозиция области и численное решение уравнения теплопроводности.

3

^ Архитектуры с распределенной памятью

Основы MPI. Работа с университетским кластером. Пересылка и распределение данных в MPI. Операции точка-точка и коллективные операции. Параллельные реализации простейших матричных алгоритмов. Топологии, группы и коммуникаторы в MPI. Сеточные вычисления, решение уравнения Лапласа методом Якоби.

4

^ Параллельные вычисления общего назначения на видеокартах. Технология NVIDIA CUDA, архитектура GPU. Иерархия памяти CUDA, глобальная память, параллельное решение СЛАУ. Эффуктивное использование shared-памяти. Параллельная редукция. Текстурная память, цифровая обработка сигналов, нерегулярный парарллелизм. Трассировка лучей на CUDA. Оптимизация программ на CUDA.




    6. Учебно-методическое и информационное обеспечение дисциплины



а) основная литература:

1.Г.Р. Эндрюс. Основы многопоточного, параллельного и распределенного программирования. : Пер. с англ. — М.: Издательский дом «Вильямс», 2003.

2.В.В. Воеводин, Вл.В. Воеводин. Параллельные вычисления. С.-Петербург, "БХВ-Петербург", 2002.

3.Д.С. Глызин, Д.С. Кащенко. Параллельное и функциональное программирование. Методические указания. Яросл. гос. ун-т им. П.Г. Демидова. — Ярославль: ЯрГУ, 2009.

4.А.С. Антонов. Параллельное программирование с использованием технологии OpenMP: учеб. пособие — М.: Изд-во МГУ, 2009.

5.Корнеев В.Д. Параллельное программирование в MPI. — Москва-Ижевск: Институт компьютерных исследований, 2003.

б) дополнительная литература:

1.Д. Кнут, Искусство программирования, том 1. Основные алгоритмы. : Пер. с англ. — М.: Издательский дом «Вильямс», 2008.

2.Д. Уоткинс, Основы матричных вычислений. Пер. с англ. — М.: БИНОМ. Лаборатория знаний, 2006.

в) программное обеспечение и Интернет-ресурсы:

OpenMP Architecture Review Board: http://www.openmp.org

PARALLEL.RU http://parallel.ru

NVIDIA developer zone http://developer.nvidia.com/object/gpucomputing.html