От издательстваВ пособии рассматривается организация вычислительного кластера на базе локальной сети. Изложены способы инсталляции системного программного обеспечения, методы запуска параллельных задач, описаны средства оценки эффективности вычислений, представлено описание библиотеки для параллельных вычислений PETSc. Предназначено студентам специальностей «Радиофизика» и «Физическая электроника». Издание может быть полезно студентам естественнонаучных специальностей и научным работникам для создания вычислительного кластера и изучения работы на нем.СодержаниеПРЕДИСЛОВИЕ. I. ОРГАНИЗАЦИЯ КЛАСТЕРОВ. Глава 1. Сетевые средства кластеров. 1.1. Классы параллельных ЭВМ, кластеры 1.2. Компьютерные сети. 1.3. Сетевые операционные системы. 1.4. Характеристики некоторых компьютерных сетей. 1.5. Кластер СКИФ. 1.6. Метакомпьютинг. Контрольные вопросы. Глава 2. Системные программные средства кластеров. 2.1. Системы программирования для кластеров. 2.2. MPICH – основная реализации MPI. Контрольные вопросы. Глава 3. Инсталляция и настройка средств кластера. 3.1. Требования к аппаратному обеспечению кластера. 3.2. Инсталляция и настройка элементов кластера 3.3. Тестирование кластера на работоспособность и производительность. Контрольные вопросы. II. РАБОТА НА КЛАСТЕРЕ. Глава 4. Запуск и выполнение приложений на кластере. 4.1. Этапы подготовки и выполнения приложения 4.2. Организация работы пользователя. 4.3. Настройка компилятора для работы с MPICH 4.4. Запуск MPI-программ на одном процессоре 4.5. Запуск приложений в многопроцессорном режиме. 4.6. Пример запуска и выполнения стандартных параллельных приложений. Контрольные вопросы. Глава 5. Отладка параллельных приложений. 5.1. Особенности отладки параллельных приложений. 5.2. Трассировка 5.3. Отладка с помощью последовательных отладчиков. 5.4. Параллельный Отладчик TotalView. Контрольные вопросы. Глава 6. Профилирование параллельных приложений 6.1. Профилирование 6.2. Библиотека MPE 6.3. Самопрофилирование 6.4. Форматы логфайлов. 6.5. Использование библиотеки профилирования MPE. 6.6. Визуализация результатов. 6.7. Пример профилирования. Контрольные вопросы. Глава 7. Эффективность параллельных вычислений. 7.1. Сетевой закон Амдала. 7.2. Эффективность и масштабируемость вычислений. 7.3. Системные проблемы. Контрольные вопросы. III. БИБЛИОТЕКА PETSC. Глава 8. Начальные сведения. 8.1. Состав библиотеки. 8.2. Запуск PETSc-программ. 8.3. Написание PETSc-программ. 8.4. Пример простой параллельной PETSc-программы. 8.5. Структура корневой директории. Контрольные вопросы. Глава 9. Векторы и параллельное распределение данных. 9.1. Создание и сборка векторов. 9.2. Основные векторные операции. 9.3. Индексация и упорядочивание. 9.4. Структуированные сетки, использующие распределенные массивы. 9.5. Программное обеспечение для управления векторами, связанными с неструктуированными сетками. Глава 10. Матрицы. 10.1. Введение. 10.2. Создание и сборка матриц. 10.3. Основные матричные операции. 10.4. Нематричное представление матриц. 10.5. Другие матричные операции. Глава 11. SLES: решатели систем линейных уравнений. 11.1. Использование SLES. 11.2. Решение последовательных линейных систем. 11.3. Методы Крылова. 11.4. Переобусловливатели. ПРИЛОЖЕНИЕ. Некоторые термины раздела 3. Указатель функций раздала 3. ПРЕДМЕТНЫЙ УКАЗАТЕЛЬ. ЛИТЕРАТУРА. Еще по теме «вычислительные кластеры» Антонов А. С. Введение в параллельные вычисления (методическое пособие) Воеводин Вл. В., Жуматий С. А. Вычислительное дело и кластерные системы Немнюгин С., Стесик О. Параллельное программирование для многопроцессорных вычислительных систем Шпаковский Г. И., Серикова Н. В. Программирование для многопроцессорных систем в стандарте MPI
Author(s): Шпаковский Г. И., Верхотуров А. Е., Серикова Н. В.
Publisher: БГУ
Year: 2004
Language: Russian
Pages: 172
Tags: Информатика и вычислительная техника;Вычислительные машины, системы и сети (ВМСС);
1.1. КЛАССЫ ПАРАЛЛЕЛЬНЫХ ЭВМ, КЛАСТЕРЫ......Page 5
1.2. КОМПЬЮТЕРНЫЕ СЕТИ......Page 8
сети Ethernet от коэффициента использования......Page 15
1.3. СЕТЕВЫЕ ОПЕРАЦИОННЫЕ СИСТЕМЫ......Page 16
1.4. ХАРАКТЕРИСТИКИ НЕКОТОРЫХ КОМПЬЮТЕРНЫХ СЕТЕЙ......Page 18
Характеристика......Page 19
В соответствии с работой [9] кластеры можно разделить на две......Page 20
1.6. МЕТАКОМПЬЮТИНГ......Page 21
2.1. СИСТЕМЫ ПРОГРАММИРОВАНИЯ ДЛЯ КЛАСТЕРОВ......Page 23
2.1.1. Стандарт OpenMP......Page 24
2.1.2. Стандарт MPI......Page 26
2.1.3. Библиотека PETSc......Page 31
2.2. MPICH – ОСНОВНАЯ РЕАЛИЗАЦИИ MPI......Page 32
2.2.1. Принципы построения MPICH......Page 33
2.2.2. Управление запуском процессов......Page 37
2.2.3. Состав пакета MPICH и назначение его элементов......Page 40
КОНТРОЛЬНЫЕ ВОПРОСЫ......Page 42
3.1. ТРЕБОВАНИЯ К АППАРАТНОМУ ОБЕСПЕЧЕНИЮ КЛАСТЕРА......Page 43
3.2.1. Установка MPICH......Page 44
3.2.2. Установка PETSc......Page 47
3.3. ТЕСТИРОВАНИЕ КЛАСТЕРА НА РАБОТОСПОСОБНОСТЬ......Page 48
3.3.1. Тест transfer......Page 50
3.3.2. Тест nettest......Page 51
3.3.4. Тест nfstest......Page 52
Тестируемые функции MPI......Page 53
КОНТРОЛЬНЫЕ ВОПРОСЫ......Page 54
4.1. ЭТАПЫ ПОДГОТОВКИ И ВЫПОЛНЕНИЯ ПРИЛОЖЕНИЯ......Page 56
4.2. ОРГАНИЗАЦИЯ РАБОТЫ ПОЛЬЗОВАТЕЛЯ......Page 57
4.3. НАСТРОЙКА КОМПИЛЯТОРА ДЛЯ РАБОТЫ С MPICH......Page 58
Рис. 4.2. Установка пути для lib-файлов......Page 59
4.5. ЗАПУСК ПРИЛОЖЕНИЙ В МНОГОПРОЦЕССОРНОМ РЕЖИМЕ......Page 62
4.6. ПРИМЕР ЗАПУСКА И ВЫПОЛНЕНИЯ СТАНДАРТНЫХ......Page 64
5.1. ОСОБЕННОСТИ ОТЛАДКИ ПАРАЛЛЕЛЬНЫХ ПРИЛОЖЕНИЙ......Page 68
5.2. ТРАССИРОВКА......Page 70
5.3. ОТЛАДКА С ПОМОЩЬЮ ПОСЛЕДОВАТЕЛЬНЫХ ОТЛАДЧИКОВ......Page 72
5.4. ПАРАЛЛЕЛЬНЫЙ ОТЛАДЧИК TOTALVIEW......Page 73
КОНТРОЛЬНЫЕ ВОПРОСЫ......Page 74
6.1. ПРОФИЛИРОВАНИЕ......Page 75
6.2. БИБЛИОТЕКА MPE......Page 76
6.3. САМОПРОФИЛИРОВАНИЕ......Page 77
6.4. ФОРМАТЫ ЛОГФАЙЛОВ......Page 78
6.6. ВИЗУАЛИЗАЦИЯ РЕЗУЛЬТАТОВ......Page 80
6.7. ПРИМЕР ПРОФИЛИРОВАНИЯ......Page 81
7.1. СЕТЕВОЙ ЗАКОН АМДАЛА......Page 85
7.2. ЭФФЕКТИВНОСТЬ И МАСШТАБИРУЕМОСТЬ ВЫЧИСЛЕНИЙ......Page 87
Рис.7.3. Зависимость коэффициента утилизации от числа процес......Page 92
7.3. СИСТЕМНЫЕ ПРОБЛЕМЫ......Page 93
КОНТРОЛЬНЫЕ ВОПРОСЫ......Page 94
8.1. СОСТАВ БИБЛИОТЕКИ......Page 95
8.3. НАПИСАНИЕ PETSC-ПРОГРАММ......Page 97
8.4. ПРИМЕР ПРОСТОЙ ПАРАЛЛЕЛЬНОЙ PETSC-ПРОГРАММЫ......Page 102
Input parameters include:\n......Page 103
Всегда следует перед выходом из программы вызывать PetscFina......Page 107
КОНТРОЛЬНЫЕ ВОПРОСЫ......Page 108
9.1. СОЗДАНИЕ И СБОРКА ВЕКТОРОВ......Page 109
9.2. ОСНОВНЫЕ ВЕКТОРНЫЕ ОПЕРАЦИИ......Page 112
9.3.1. Прикладное упорядочивание......Page 114
9.3.2. Локально-глобальное соответствие......Page 116
ИСПОЛЬЗУЮЩИЕ РАСПРЕДЕЛЕННЫЕ МАССИВЫ......Page 118
9.4.1. Создание распределенных массивов......Page 119
9.4.2. Локально/глобальные векторы и распределение данны......Page 120
9.4.3. Локальные (с теневыми точками) рабочие векторы......Page 121
DAGetGhostCorners(DA da,int *x,int *y,int *z,int *m, int *n,......Page 122
9.5.1. Индексные ряды......Page 124
9.5.2. Рассылки и сборки......Page 125
9.5.3. Рассылка теневых значений......Page 127
9.5.4. Векторы с ячейками для теневых значений......Page 128
10.1. ВВЕДЕНИЕ......Page 129
10.2. СОЗДАНИЕ И СБОРКА МАТРИЦ......Page 130
10.2.1. Разреженные матрицы......Page 132
10.2.2. Плотные матрицы......Page 137
10.3. ОСНОВНЫЕ МАТРИЧНЫЕ ОПЕРАЦИИ......Page 138
Основные матричные операции......Page 139
10.4. НЕМАТРИЧНОЕ ПРЕДСТАВЛЕНИЕ МАТРИЦ......Page 140
10.5. ДРУГИЕ МАТРИЧНЫЕ ОПЕРАЦИИ......Page 141
11.1. ИСПОЛЬЗОВАНИЕ SLES......Page 142
11.3. МЕТОДЫ КРЫЛОВА......Page 145
11.3.1. Переобусловливание внутри KSP......Page 147
11.3.2. Тесты сходимости......Page 148
KSPSetMonitor(KSP ksp,int (*mon)(KSP ksp,int it,double......Page 149
11.3.4. Спектр операторов......Page 151
11.4. ПЕРЕОБУСЛОВЛИВАТЕЛИ......Page 152
11.4.1. ILU и ICC переобусловливатели......Page 153
11.4.2. SOR and SSOR переобусловливатели......Page 155
11.4.3. LU факторизация......Page 156
и аддитивный переобусловливатель Шварца с перекрытием......Page 157
11.4.5. Переобусловливатели на основе оболочки......Page 159
11.4.6. Объединение переобусловливателей......Page 160
НЕКОТОРЫЕ ТЕРМИНЫ РАЗДЕЛА 3......Page 162
ВЕКТОРНЫЕ ФУНКЦИИ......Page 163
МАТРИЧНЫЕ ФУНКЦИИ......Page 165
SLES......Page 166
ЛИТЕРАТУРА......Page 169
Глава 4. Запуск и выполнение приложений на кластере………….......Page 170
Глава 10. Матрицы................................................Page 171