автореферат диссертации по информатике, вычислительной технике и управлению, 05.13.16, диссертация на тему:Исследование и разработка алгоритмов математической физики на многопроцессорных вычислительных системах

доктора физико-математических наук
Музафаров, Хафиз Азизович
город
Ижевск
год
1992
специальность ВАК РФ
05.13.16
Автореферат по информатике, вычислительной технике и управлению на тему «Исследование и разработка алгоритмов математической физики на многопроцессорных вычислительных системах»

Автореферат диссертации по теме "Исследование и разработка алгоритмов математической физики на многопроцессорных вычислительных системах"

6 од

5 ДПР 1393 государстезш-кя коиггет рс,*с?

ПО ДЕЛА!! НАУКИ И ВНСЕЕИ ШКОЛЫ ИЕВСКГО К2ХАНИЧЕСШ КНСПГГУТ ТАПКЕНТСККЛ ГССУДЛРСТЗЕНЬШ УНИВЕРСИТЕТ

На правах рукепнс:!

ПУЭЛФАРОЭ шиз АЗИЗОВИЧ

ИССЛЕДОВАНИЕ И РАЗРАБОТКА АЛГОРИТМОВ МАТЕМАТИЧЕСЯОП

■ФИЗИКИ НА. МНОГОПРОЦЕССОРНЫХ ВЫЧИСЛИТЕЛЬНЫХ СИСТЕМАХ

05.13.16 - Применение вычислительной техники, ^тематического моделирования и математических методов в научных исследованиях

АВТОРЕФЕРАТ диссертации на соискание ученой степени доктора физико-математических наук

Ихевск 1992 г.

Работа выполнена в Ташкентском Государственном Университете

им. В. И. Ленина Официальные оппоненты:

доктор физико-математических наук, профессор Е.И. Леванов, доктор физико-математических наук, С. В. ПеАгин,

доктор физико-математических наук, профессор В. Н. Айрашик.

Ведущая организация:

Московский Государственный Университет им. М. В. Ломоносова

Завдта диссертации состоится "15" ОШ^ЬЫХ^ 1993 г. в часов на заседании Специализированного совета при

Ижевском механическом институте. Адрес: 426069, Ижевск, ул. Студенческая, д.7 "

С диссертацией можно ознакомиться в научной библиотеке Ижевского механического института.

Автореферат разослан " " 1993 г.

Ученый секретарь Специализированного совета

доктор технических наух, профессор ^/оСв^— В. И. Гольдфарб

ОБЩАЯ ХАРАКТЕРИСТИКА РАбОТЫ .

Актуальность работа. 3 настоящее время шгсгие задачи научно-технического прогресса, такие как прогноз погода и клпыата, экологии, динамики гидкости и газа , высокотемпературных и сверхтекучих процессовс квантовой механики и ыногиэ другие, эффективно решается математический моделированием, о использование« повито" вычислительной техники. Кая показывав? ыногочиележше опыта математического моделирования, для удовлетворения растуадх потребностей подобных задач в машинных ресурсах требуются ЭВМ моадостью порядка нескольких миллиардов операций в секунду. Такая потребность объясняется, в перьув очередь, нелинейностью дифференциальных уравнений математической фкзики, описываладх яти процессы, учетом многих факторов при составлении дифференциальных уравнений и т. д. Увеличение мощности однопроцессорных вычислительных систем до 1С* описей и выше физически ограничено. На первый взгляд вычислительные системы, состоящие ко транспьютеров на базе RISC С redused instruction set computer) процессоров с MIMD Cmulti instruction mulii data) архитектурой, ориентированные на параллельную обработку информации, удовлетворяют этим требованиям. Например, транспьютер T-90G имеет производительность 25 MFLOPS, а стандартная плата из 10 таких транспьютеров, соединенная с PC/AT, образует настольную вычислительную систему с производительностью супер-ЭВМ - 250 MFLOPS. Транспьютеры имеют следующее основные достоинства, по сравнению с однопроцессорной ЭВМ:

- относительная дешевилна, по сравнению с однопроцессорной

ЭВМ такой ко годности;

- ксигпакткостъ;

- надежность,

- Еозкогшость настройки топологии процессорной ревзтки на рассиатрзшаекуп задачу.

Перснэктивы использований многопроцессорных систем на daae транспьютеров (транспьютерных плат и рабочих станций, а такге суперкомпьютеров, соетохщп: из нескольких сотен и тысяч транспьютерных злеыоктов) становятся все более значительными, если учесть постоянной совершенствований базовых элементов -увелкчэкие цосшости отдельного транспьютера.

Однако наиболее серьезные препятствие« на пути распространения транспьютерных систем являктся трудности создания програюжого продукта к в первую очередь - для решения задач иатскатичзсксй физики. Необходима разработка алгоритмов и программ, адаптированию: к архитектура многопроцессорного транспьютерного комплекса, который относится к многопроцессорным ЭВМ MIMD - архитектуры с распределенной памятью. Для эффективного использования ЭВМ такого типа архитектуры с целью равномерной загрузки процессоров С load balancing) необходимы вычислительные алгоритмы, обладаюзцге внутренним параллелизмом, регулярностью н однородностью. Кроме того, необходимо минимизировать объем информации, которой обиенивавтея кедду собой процессоры - транспьютеры.

Целью работы является: 1. Показать возкозяоети транспьютерной реализации проблем моделирования на примере численной реализации ряда трудоемких

- s -

задач математической физики.

2. Теоретическое исследование основных свойств "традиционных" алгоритмов математической физики для массовой реализации их на многопроцессорных вычислительных системах MIMD - архитектуры.

3. Создание транспьвтерной вычислительной системы вшхгге с программным реяением актуальных научно - технических задач как пакета прикладных программ.

4. Изучение некоторых аспектов параллельных процессов в неразрывной единства software и hardware для выработки общих требований к вычислительным системам и выбора оптимальных чмслешшх катодов.

Научная новизна работы. Основным з вопросе новизны исследований является решение комплекса вопросов, связанных с использованием относительно дешевых вычислительных систем на базе транспьютерных элементов для численной реализации нелинейных задач математической физики, традиционно ориентированных на супер-ЭВМ. Подобный подход впервые проделан на уровне исследования и разработки алгоритмов для некоторых трудоемких задач математической физики с цель» систематизации теории и практики.

Наряду с исследованием вышеуказанных вопросов новым в работе является также решение некоторых нелинейных задач иатокатичесхоз физики, представляющих теоретический и ггракгический интерес:

1. Исследованы процессы обтекания вязким, теплопроводным газом в переходном режиме с числом Кнудсена Кл^- 0.04 с использованием хинетачески-ссгласованных разностных схем с

коррекцией.

2. Численное- моделирование задачи фильтрации поливных вод в зоне

аэрации.

3. Моделирование одномерных цилиндрически симметричных задач радиационной газовой динамики.

4. Матедатическсе моделирование взаимодействия лазерного излучения с веществом, а такта прикладные проблемы, требующие исследования лазерного воздействия на тонкие металлические пленки 1=0.1 шш. и пленки из органических материалов толвдной 1 -- 1 ыкм.

Научная и практическая ценность работы. Исследованы

проблемы численной реализации нелинейных задач ыатфизики на традиционных вычислительных системах и показана эффективность примешала для такик задач дешевых супер-кошгьютеров на транспызтеркых элементах, что имеет важное научное и практическое значение.

Результаты первой главы:

- моделирование обтекания вязкий, теплопроводным газом в переходном ренг&е с числом Кнудсена Кпм= 0.04. Эта задача имеет теоретическое значение в области динамики разреженного газа, а результаты могут быть применены при аэрокосмических исследованиях.

- Численное моделирование геофяльтрационных потоков имеет большое практическое значение для определения уровня подземных вод, решения проблемы рационального орошения земель и, в целом, является важным вкладом в области "компьютеры и окружавшая среда".

Результаты численного моделирования задач физики плазма и управляемого термоядерного синтеза имепт научной и практическое значение. Так, эта результаты могут быть использованы для изготовления запошгнаадих устройств с оптическими способами записи инфорнащщ для создания элементов с субвшкрснными разьгараш в шкроэлеетроникэ. Теоретически исследована задача о фазовых прэзрацэкиях вззэстза при объемном выделении энергии, Такхз ценным в работе является численное моделирование сальшточэчяыя жзлучаэаих ресурсов в цилиндрической постановке, которые потуг быть использованы как эффективные, высококнтэнсивныа источники излучения в видииой и ультрафзояэтовой областях спектра.

Вазиаи научном н практический аспектом работы является создание методики расчета, анализ теоретических аспектов параллельной обработки информации, позволяющий внедрять многопроцессорную вычислительную систему на базе транспьвтерншг элементов для решения трудоемких задач математической физики.

Апробация работа. Основные результаты диссертации докладывались на Республиканской конференции "Современные проблемы алгоритмизации" (Ташкент, 1991г.), во Всесоюзной школе-сенинаро молодых ученых и специалистов "Математическое моделирование в естествознании и технологиям'' (Светлогорск, 1988г.), на семинарах академика РАН Самарского A.A. (институт математического моделирования РАН, 1932г.), академика Кабулсва В.К. (институт кибернетики с ВЦ АН РУ, 1992г.)t на семинаре Алимова И.А. (ТашГУ, 1992г.), на семинаре профессора Махмудова A.A. (институт механики и СС АН РУ, 1932г.), на семинар»

лаборатории математического моделирования (ТашГУ, 1932г.3, на сешшаро профессора Пейгина С. В. (Томский Государственный Университет, 1992г.).

По материалам дхссертадки опупликовавы статьи (1-91.

Структура и объем диссертации. Диссертация состоит из введения, трех глав и заключения. Обьем работы составляет 202 страниц текста, в том числе 35 рисунков и 7 таблиц. Список литературы содержит 94 наименования.

Автор считает своим приятным долгом поблагодарить своих учителей - академика Самарского A.A. и профессора Четверушкнна Б.Н. за научную консультации и постоянное внимание к работе.

СОДЕРЖАНИЕ РАБОТЫ.

В введении обоснована актуальность численной реализации нелинейных задач математической физики на многопроцессорных вычислительных системах на базе транспьютерных элементов. Обусловлена важность создания паралелькых алгоритмов, адаптации существующих алгоритмов на топологию процессорной решетки транспьютеров и создания пакетов прикладных программ с целью проведения вычислительного эксперимента для трудоемких задач математической физики. Кратко изложим содержание диссертации.

Первая глава диссертации посвящена проблемам численного моделирования задач газовой динамики и геофильтрационных потоков. Математические модели таких задач сводиться к решению

нелинейных задач математической физика, -гребущих для своего рогашня большее ресурсов и быстродействия 5ВМ. Численное моделирование проводится на традиционных ЭВМ класса 1ВМ РС АТ ЗШ н на транспьютере Т200.

Однхш кз слоааых с точки зрения вычислительной газодинамики является численное моделирование течений вязкого снимаемого теплопроводного газа. Рассмотрим течение вдоль очень плоской пластины Срнс. 1.3.

V

00

и

X

Рис. 1

При обтекании пластины вязким газом вблизи пластины за счет вязкости появляется затормогенкая область, которая называется пограничным слоем С рис.1, зактрихованная одласть 3. Течение разрешенного газа описывается уравнением Больцыана

аг ~дГ

аггч + -1- =

ех.

Ж,х,?)

С1)

где Т - функция распределения,

-о* - ~

XI,- — - «?)«?,)3 ¡V п| йп (1?

интеграл столкновений. ?, £ скорости двух молекул до столкновения, ? скорости молехул после столкновения, п -

единичный вектор нормали, п - масса молекулы,

V- £ - Í," относительная скорость, а - диаштр молекулы.

Для того чтобы учесть вязкость и теплопроводность газа везде, распределение будем считать локально Навье-Стоксовским, которое имеет вид:

р

fNS ж fo [ 1 + "2КТ cicj " 4- 4i -W-

*(-§-'-ж-}] í2)

r да. да. ^ где, ptJ = <5tJ p - tu [ + - ---§- div 0 6tJ]

81

'i = ~ X

где f - локалько-максвеловское распределение fijj -символ Кронекера, v - вязкость газа X - когффшдажт теплопроводности газа При численном иоделироваша течения вязкого снимаемого теплопроводного газа принята следующие основные газодинамические параметры:

Ма_ = = 5 - число Маха на бесконечность;

ÍJL L

00

Ке = 12S - число Ренольдса на бесконечность;

sU

Маю

Кп- —- = 0,04 - число Кнудсена на бесконечность;

Ре„ со

Рг = 0,72 - число Прандтля; у = 1.4 - показатель адиабаты; сда = 1 - скорость звука на бесконечности и так далее. Известно, что когда число Кнудсена . Кп = 0.01 - 0.05, такие течения не описываются уравнениями Кавье - Стокса.

Уравнения Навъг-Стокса хорошо описывают течения, для которых Кп 2 0,001. В» таких случаях эффективно применение Кинетически Согласованных Разностных Схви С К. С. Р. С. 3. Вообще говоря, К. С. Р. С. отличазвтея от традиационных алгоритмов газовой динамики опекой порядка процедура осреднения по скорости молекул и разностной аппроксимация: - Уравнение Больцмана - разностная аппроксимация этого уравнения,осреднение разностной аппроксимации для уравнения Больцмана и построение разностной схемы для газодинамических параметров.

Эти вопросы подробно изучены в работах Четверушкнна Б. Н., Елизаровой Т. Г. и других.

К. С. Р. С. с коррекцией иыевт вид:

СЗ)

Сри)1+ Сри2+р)0 + Сриу)0 = [-^т Сри1 +Зр'-0 ] +

(4)

+

С 5)

' 1 'у 1 4 'г1»

♦ [4 Д. сЗД* [4 *

Здесь р - плотность, и - скорость, Е - полная энергия, hs, hy - шаги разностной сетки, соответственно в х и у направления, где с - локальная скорость звука. Граничные условия на пластине имеют вид:

1. Скорость газа на пластине равна нулю.

и|с - Vic - 0

2. Температура пластины считается постоянной и равной начальному значению.

Tj0 - тс = иг

3. Для достижения адекватности, граничные условия в близи пластины сформулерованы в потоковом виде и получены в анзяетнчесхои виде.

В связи с этим численная реализация (33 - (6) сводится к потоковому виду. В этом ха параграфе приведены схемы численной реализации на персональном компьютере IBM PC AT 388.

На рисунках 2, 3, 4, S, 6, приведены графики поперечных сечений газодсаяическкх параметров P,p,T,u,v по х вдоль пластины. Рассмотрим профили плотности (рис.3.5. Обратим внимание на то, что вблизи передней кройки пластины плотность изменяется монотонно..Далее по мере удаления от носика пластины профили становятся все более немонотонными , имея максимумы и минимумы, что вполне согласуется с расчетами по кинетическим уравнениям. Отметим, что величины максимумов плотности возрастают с увеличением расстояния от передней хромки пластины. Это, а таксе наличие ярко выраженных минимумов (причем минимальные значения находятся в первой приграничной точке),

отличает данный расчет от аналогичных расчетов по модельным кинетическим уравнениям. Вероятно, это связано с тем, что давление в первой приграничной точке Срис.2.) имеет максимум, превышающий давление на границе, хотя, согласно кинетической теории, давление доляно быть постоянным поперек пластины около границы. Таким нефизическиы скачком давления награнице также объясняется появление отрицательной поперечной скорости около поверхности (рис.6). Рассматривая профили продольной составляющей скорости (рис.5) и температуры Срис.4).можно заметить наличие больших градиентов, свидетельствующихо скачке скорости и температурном скачке, что характерно для течений умеренно разрешенных газов. Из (рис.5) видно, что профили скорости более крутые (большие градиенты), чем соответствующие профили в пограничном слое, получающиеся из решения обычных уравнений Навье-Стокса. Немонотонные профили температуры (рис.4.) также качественно совпадают с расчетами по кинетическим уравнениям.

Из рисунков 7, 8, 9, 10, И, где показаны поля плотности, давления, температуры, продольной и поперечной скорости, видно, что рассматриваемое течение является характерным для не очень малых чисел Кнудсена: в нем четко проявляется тенденция к образованию ударной волны, что мохно заметить на рис.8, (поле плотности), и к отделению ее от пристеночного пограничного слоя, который мохно наблюдать на рис. 10. (поле продольной скорости).

В этой же главе расматривается распараллеливание алгоритма задачи на транспьютере Т800. В этом случае разностная схема, соответствующая описанному алгоритму записывается на трехточечный шаблон по пространству и двухслойном по времяни:

Sjns»j(j

i i ; i i ! . i i j i i i i : ; : i i ооооооооооооооооосэоо-оооооо tn V V V V чг kî Kj ri rô <n с* сч ci —* o ó c> о a"

Ю •

О S

п.

О

а

Р-<

»jn)tu»<iuj»i.

2.5

2.5

ï-Z.S

(wfwjÇiffl^ I

О-м-

0.5

I

Рис.8

1.5

г

z.s

2.S

0.5

Рис.9

= г с и^. и/,

1+1

С 7)

где и и Г - сеточная переменная и оператор соответственно. Разобьем всю расчетную область на подобласти числом, равным количеству транспьютеров. Выбирая разбиение на подобные часта так, чтобы в каждой из них было равное, по возмодности, число точек. Расчет по неявной схеме может идти независимо в каждом процессоре. Единственные точки для продолжения расчетов, в которых необходимо использование информации из соседних процессоров, являются граничные точки. Если объем информации, передаваемый из процессора в процессор не велик, то этот обмен не влияет на эффэктивность распараллеливания.Разобьем расчетную область СО ^ п+11, а части следующий

где, 1 - номер процессора, к - общее число процессоров, к число процессоров-, на которые приходится ро лн-1 точке (остаток от деления , т - число точек, приходящихся на процессоры с номерами к( +1 + к (целая часть от деления количества точек на число транспьютеров) числа точек на число транспьютеров), п -общее число внутренних точек. Предполагается, что точки 0 и п+1 - граничные. При таком разбиении достигается наиболее равномерное распределение точек по процессорам, а значит, сводится к минимуму время простоя из-за различного объема вычислительной работы, приходящейся на каждый процессор. Рассмотрим подробнее на примере реальной задачи. Пусть есть

образом:

(8)

1с4 = п пкх! к,

К1-1)*(и+1) ^ 1*(и+1)+11, 1=1 ^ к

1

1а-1)*т+к + 1*т+1+к ], 1=к +1 + к

- 20 -

область 40x60 точек, изображенная на рисунке 12.

Вдоль горизонтальной оси расчетной области размерена пластина, обтекание которой исследовалось в поставленной задаче. Разобьем область на прямоугольники 10x60 Спо вертикальной оси). Каждую из 60-тн вертикальных линеек будем рассматривать как одномерную задачу, к которой применимы все

40

30 20

10 0

0 60

рис. 12.

приведенные выше рассуждения. При четырех процессорах Ск=4Э, и сетке из сорока внутренних точек С т=40 ) разбиение будет выглядеть следующим образом Ст=10): [ 0 ^ 111С 0 + 611

[10 + 21И 0 + 61] С9)

[20 + 311[ 0 + 61] 130 + 411[ 0 + 611

Интервалы по первому измерению перекрываются между собой. На каждом процессоре вычисляются значения физических величин нового временного слоя для всех внутренних точек подобластей (для первой подобласти это точки [ 1 + ЮН 1 + 601). Значения

TRAM3

TRAM2

TRAM1

TRAMO

функций нового слоя в граничных точках определяются либо из граничных условий (для первого и последнего процессоров), либо из примыкающих процессоров, поскольку граничные N+l.J-ые точки i-ro процессора являются l.j-ми внутренними точками i+1-го процессора, а значит могут быть вычислены и переданы для продолжения счета, аналогично, O.J-ые точки i+1-го процессора является N.J-ыи внутренними точками 1-го процессора.

Неоднородность области, вызванная наличием пластины,не вносит никаких трудностей при распараллеливании. Вычислительные модули совершенно идентичны, и каждый может проводить расчеты как в обычных точках области, так и в точках, примыкающих к пластине. Перед началом счета каждому модулю сообщается положение его подобласти в общей области, и положение пластины в общей области, таким образом, модуль располагает всей необходимой информацией для правильного выбора расчетных формул.

Вторым фактором, влияющим на эффективность использования вычислительной мощности, является время пересылки результатов вычислений во всех точках всех процессоров в управляющую ЭВМ (HOST) (для анализа пользователем, визуализации, записи на диск, другой обработки). Обычно один из транспьютеров связан с HOST-машиной (ROOT-транспьютер), и передача информации со всей расчетной области вынужденно происходит через него, что приводит к появлению еще одного узкого места, не подлежащего распараллеливанию. Поэтому разумно проводить такой глобальный сбор информации не на каждом временном слое, а значительно реже - через десятки или сотни шагов по времени.

Программа была реализована на языке F0RTRAN-3L для многопроцессорной системы на базе транспьютеров Т800, связаных в

одну линейку. Обадй объем текста программы, по сравнению с вариантой для IBM PC, возрос очень незначительно, причем основной объем нового текста составляют операторы межзадачного обмена, программирование которых, в рамках разработанной методики, не составляет проблемы.

Результаты расчетов на одном и четырех транспьютерах показывает, что при сетке 40x60 накладные расходы малы по сравнению со временем полезного счета. Это положение подтверждается данными контрольных расчетов, приведенных в таблице 1.

Таблица 1.

процессор 80388 Т800 4 х Т800

Время счета,сек 460 507 127

Эффективность С1.1) 1 0,998

Ускорение С1.1) 1 3,99

Эффективность использования вычислительной мощности Рк от

Т Т числа процесоров Р. = ---, ускорение счета А. = ——,

к*т)с \

к - число процессоров, Тк - обцее время рассчета контрольного варианта на вычислительной системе в целом при использовании к процессоров. Видно, что эффективность распараллеливания составляет 99%.

Для сравнения приводится время счета на 386 процессоре, оно несколько меньше, чем время счета на одном транспьютере Т800. Однако, время счета на Т800 сильно зависит от местоположения программного кода и данных в физической памяти транспьютера Сза счет переразмедения кода и данных можно выиграть по времени исполнения в 1,5 * 2,5 раза), однахо оптимизация подобного рода для этой конкретной задачи не проводилась.

Рассмотрим методику распараллеливания процессов сбора информации и вычислений, позволившую свести на нет накладные расходы на пересылку больших массивов информации с одной стороны, и существенно облегчившую процесс распараллеливания с другой.

Вычисления организованы следующим образом: Структура программы

рис.13.

На схеме присутствуют следующие элементы: Т8ОО1 - Транспьютеры;

Master - Управляющая программа, обеспечивающая ввод исходных данных, инициализацию расчета, , рассылку данных вычислительным модулям, сбор результатов вычислений и передачу их HOST-машине;

taskj - Вычислительные модули;

Dt - Служебные программы "демультиплексор", обеспечивающие правильную рассылку сообщений от задачи Master к задачам task1

14 - Служебные программы— "интегратор", обеспечивающие правильную передачу результатов вычислений от задач task4 к задаче I&ster.

Каждая из сетевых задач СП ,I Э содержит внутренний буфер данных, что собственно и позволяет проводить вычисления параллельно с пересылкой больших объемов информации. Эти задачи реализованы на языке С-ЗЬ и имеет очень простую структуру.

Во втором параграфе первой главы рассматривается численная реализация математической модели, описываюцей геофильтрационные потоки. Для основных процессов геофильтрации составлены математические модели и даны некоторые важные физические понятия. Более подробно рассматривается процесс влагопереноса в почве глубиной 1. 6 начальный момент времени вся почва считается сухим С(о=0). Предполагается, что на поверхности почвы влажность максимальная Си=и() в любой момент времени.Рассматриваемый грунт будем считать суглинкой, его параметры:

коэффициент фильтрации кф = 0.001 см/сек

начальная влажность со = 0.19

О

максимальная влажность = 0.43

удельный вес воды уо = 1 г/см3

Дифференциальная задача имеет вид:

удовлетворвдее начальному условию иСу,0) = со /со.

* О Ф

и граничным условиям

иСОД) = 1 иС1Д) = со /со .

О #

где По= ¡3 , а - пористость грунта Со- = 3 + 4), кф- коэф-

фициент фильтрации, с = а/В , у - удельный вес или объемная

0< у <1, 0 < I < I СЮ)

* ' ЛАК

касса воды,(оо и ы0~ начальное и максимальное насыщение грунта,

a=kx/D .

Ф о

Дифференциальная задача СЮ) описывающая процесс влагопере-носа является нелинейным.

Методы решения этого уравнения хорошо изучены в работах А. А. Саыарского и его учеников. Для численного решения уравнения СЮ) используется неявная схема сквозного счета. Полученное нелинейное разностное уравнение с помощью метода Ньютона сводится к системе линейных разностных уравнений, которая в свою очередь решается методом прогонки. Рассмотрены два варианта расчета этого алгоритма: компьютерный и траспьютернкй. По результатам проведенных расчетов были построены графики характэризнруюцне движение влаги в зоне аэрации Срис. 14). Из рисунков С14,15) видно, что в случае задания на поверхности зоны аэрации доздевания с постоянной интенсивностью и при однородном строении этой зоны образуется четко вьграхенная область просачивания глубиной 1, в пределах которой влажность практическая оказывается постоянной.

Таким образом, двигенне здесь происходит за счет свободного стекання при напорном градиенте, равном единице, а влаяность на фронте просачивания изменяется скачкообразно от начального значения шо до значения w в зоне просачивания. При этом скорость просачивания равна

к» , со лсг

у = -^

рГ СО - ш 4 со, о »

, со ^tr

Г-1 , сг = 3.5 СИ)

м ^

Характер изменения скорости просачивания представлен на рис. 15. Здесь надо отметить три момента нзкенения скорости просачивания: а) начальное снижение скорости; б) временное

fr о

ш w to и м а *о *0 ЧЭ 43 'О чз It (I К й (Í л ККККБК

HMRRHM

TJ

« >ОСЙК5

О ЛЯ

• А АЛЛ

1-й

I

го en í

oeee© Глубина 24 cu ***М< Глубина 54 cu □□□сю Глубина 84 см

Рис Л 5

повышение скорости в связи с растворением и выделением воздуха; в) дальнейшее снижение скорости, обусловленное увеличением глубины просачивания, образованием экранирующего слоя на поверхности земли.

Во второй главе диссертации рассматриваются проблемы численного моделирования задач радиационной газовой динамики (РГД) и возможности реализации их на многопроцессорных транспьютерных системах. Не вызывает сомнения тот факт, что с решением задач ■РГД связано достаточно много прикладных задач имеющие важное народно-хозяйственное значение. С точки зрения численного моделирования при решении уравнений РГД требуется большой объем вычислений.

В качестве основы рассмотрим систему пространственно двумерных ' уравнений РГД в многогрупповом диффузионном приближении

др дри дру

— + -+ -= 0, С12)

at ôx Зу

дри dp? ôpuv dp

at ôx ay ax

dpv apuv apv* ap at ax ay ay

aE acuCE+p)) acvCE+p))

— + - + - = -div W , С15)

at ax ay

— & -

V = t Vk ,

k=t

div V = жЛр '

С16)

С17)

Б систекэ уравнений С12)-С17) использованы следующие обозначения: р - плотность,0 = Си,v) - вектор скорости, Т - температура, рСр,Т) - газодинамическое давление,s = сСТ.р) - внутренняя энергия, Е = рСца +v*)/2 + е - полная энергия газа, и^. -спектральная плотность энергии излучения, -групповой поток энергии излучения, хкСТ,р)-групповые коэффициенты поглощения, lkCT,p) - длина свободного пробега, г^ - граница групп, k=l.....m

где ukp - плотность излучения абсолютно черного тела.

Для системы уравнений С12)-С17) в диссертации дана блок-схема решения и проблемы связанные с численной реализацией на традиционных вычислительных системах. В качестве примера моделирована две задачи РГД: численное моделирование задач динамики излучающего газа для цилиндрической геометрии; ¡¿атэштггческеэ моделирование взаимодействия лазерного излучения с веществом. Эти две важные с точки зрения актуальности примеры ярхо демонстрируют сложности моделирования и расчета на традиционных вычислительных системах. Далее рассматриваются обаая методика решения-задач РГД на транспьютерных системах. Алгоритм это? системы адаптируется на многопроцессорную систему MIMD CHulti Instruction Multi Data) архитектуры с распределенной памятью.

Предположим, что задача решается в прямоугольной области в декартовых Сх,у) координатах. Отметим, что рассмотренная схеиа

адаптации достаточно легко обобщается и на область, составленную из нескольких прямоугольников.

Рассмотрим следующую вычислительную систему Срис. 16), состоящую кз МкР транспьютеров (двумерная решетка), персонального компьютера и управляющего транспьютера.

Согласно "геометрическому параллелизму" вся расчетная область разбивается на М х Р подобластей, равных числу транспьютеров. Причем каждая подобласть содержит равное число расчетных точек.

м

Рис. 16.

При таком подходе к адаптации алгоритма для высокой эффективности распараллеливания, линейного (или близхого к линейному) роста производительности системы с ростом числа процессоров, необходимо следующее. Важно, чтобы время, затраченное на вычисления, производимые каждым транспьютером, было существенно больше времени обмена информацией. между соседними процессорами. С учетом этих требований в диссертации пригодится этапы решения алгоритма РГД на транспьютере.

На первом этапе для расчета уравнений неразрывности движения я энергии предложены К. С.Р.С. применительно к задачам РГД. На самом деле адаптация К. С. Р. С. на

многопроцессорные системы не представляет особых трудностей.

При численной реализации К.С. Р. С. следует обратить внимание на ыожду процессорный обмен информации. В самом деле, для продолжения расчета на новом слое по времяни в транспьютере СМ,Р ) рисунок 17 необходимо получить информацию из граничных точек соседних процессоров. Если этот обмен информации невелик,а для явной схемы необходимо получить только значение функций в граничных точках соседних транспьютеров, то возможно не только

Рис. 17.Организация обменов в транспьютерной системе, о - внутренние точки, о - граничные точки, значения функций з которых передаются в соседние процессоры.

минимизировать потерн на обмен, но и организовать "оуег1арр1пд"-обковременный расчет во внутренних точках транспьютера и обмен информации с соседними процессорами.

Во втором этапе алгоритма интеграционный поток энергии излучения V?, аппроксимируется пятиточечной разностной схемой:

в' IIе + к* ик - С С* + Хк ) и* +

1П 1,11-1 1 П 1-1,11 1П 1п 1 Г1

к к к к к + Е и + II и + Г - 0 .

1 П 1 +1 ,П 1 П 1 ,11+1 1 п

СШ

Дня решения разностной схемы С18) успешно мокло применять " а - (з " итерационного метода предложенного Четверушкинш Б.Н. Разностная схема С18) после некоторого преобразования решается итерационным способом, аналогичным методу Зейделя. Разобьем прямоугольную счетную область на четыре подобласти, состоящие из равного числа пространственных точек, так, чтобы каждая из них легла на свой процессор.Срис. 18)

] i . г>6 "T77! Г^Гг tr,e>'

777

1 а,(3 г 3 4

Рис.18. Схема построения внутренних граничных условий.

Распараллеливание алгоритма происходит в две стадии. На первой - в областях (процессорах) 1 и 3 вычисляется а от левой границы к правой, а в областях 2 и 4 вычисляется у от правой границы к левей. После этого происходит обмен информацией между процессорами. Б 2 и 4 передаются значения а, а в 1 и 3 -значения у. На второй стадии процессоры 1 и 3 вычисляют у от правой границы к левой, процессоры 2 и 4 вычисляют а от левой границы к правой. Отметим, что коэффициенты а, у вычисляются независимо друг от друга на различных процессорах.

Аналогично решается система ¡3 уравнений. Это все элементарно обобщается и на двухмерную решетку процессоров с четным числом процессоров по каждому направлению. Так, потери на распараллеливание составили не более 20*.

Таким же успехом решаются другие эталы для уравнений РГД.

Подводя обвдй итог, можно сказать, что рассмотренный в

диссертации алгоритм решения пространственный двумерный задачи РГД з многогрупповой диффузионном приближении допускает реализацию на многопроцессорных вычислительных системах МИФ -архитектуры с распределенной памятью. Еозыошюсти расчета зтих задач на транспьютерных вычислительных системах, включая создание библиотек прикладных программ, которая является вагккы звеном для суперкомпьютеров ка транспьютерных элементах будут возрастать с каждой решенной задачей.

8 третьей главе приведены результаты теоретических исследований о применение многопроцессорных ЭВМ М1М0 архитектуры с распределенной паиятью для решения задач математической физики. Подробно излагаются основные принципы работы, ахитектуры вычислительных систем допускающему параллельную реализацию программ, пути повышения скорости ЭВМ и связанную с ней проблемы. К основным недостаткам транспьютеров следует отнести их непригодность к традиционным алгоритмам математической физики. Для эффективного использования таких систем необходимо адаптировать существугци& алгоритм на топологию транспьютерной системы или в ряде случаев создание новых алгоритмов.

Транспьютеры в последнее время находят широкое применение в различных областях науки, техники и производства, так как отличаются высокой производительностью и эффективностью создания параллельных систем. Поэтому они находят применение и хак отдельные высокопроизводительные микропроцессоры, так и как базовые элементы для создания параллельных вычислительных систем.

- 34 -

Перечислим основные области применения транспьютеров:

1.Создание больших мультитранспьютерных вычислительных систем, содержащих от десятков до тысяч транспьютеров, Призерами таких систем являются Computing Surface С фирма ffeilco), FPS Т (Float Point Systeos ), Supernoda (программа Esprit 3 и другие.

2.Использование в качестве основного процессора в высокопроизводительной рабочей станция С Atari Abaq ).

3.Создание портативных транспьютерных акселераторов для различных компьютеров, выпускаемых в виде дополнительных плат и настольных систем.

4.Применение в качестве базовых элементов в различных специализированных процессорах, главным образом для обработки сигналов и изображения.

Используемый в транспьютере RISC С reduced instruction set computer ) - подход позволял упростить логику управления процессором, переложил всю работу по оптимизации вычисления на компилятор. Очень важным достоинством этого подхода явилось то, что транспьютер очень хомпахтен, так как современная СБИС технология позволила разместить на одном кристалле практически весь компьютер с- арифметическим устройством, управлением, памятью и наналаян.

Транспьютер включает в себя центральный процессор (ЦП),оперативное запоминающее устройство ( ОЗУ 3,параллельный интерфейс внешней памяти. 4 последовательных канала передачи данных для прямых связей с другими транспьютерами и арифметическое устройство для операций над числами с плавающей точкой С АУ 3. С См. рис. 19.)

Транспьютеры ориентированы на выполнение

программ, написанных на языке Оккам. В них аппаратно реализованыасе аспекты модели этого языка, поэтому на требуется специальных программных средств для планирования параллельных процессов и организации обмена между транспьютерами.

В настоящее время широко применяются и другие языки высокого уровня такие как ГОЙТНАИ-ЗЬ, С-ЗЬ и другие.

Традиционные алгоритмические языки хорошо согласованы с классическими однопроцессорными ЭВМ. По отношению к параллельным вычислителышы системам такой возможности нет, так как для зтнх

4 Кбайт ОЗУ

С

ДУ С ^разряда)

интерфейс памяти"

Ц П

I

канал О

канал 1

канал ¿Г

"канал

и-

Зг-

Рис. 19. Блок схема Т800.

систем проблемы согласованности используемых алгоритмов и структуры системы многочисленны и актуальны.

В диссертации обсуждается возможные способы параллелизма, среди них предподчтение отдается "геометрическому параллелизму" позволяющему получать наибольшую эффективность При таком способе параллелизма для решения разностных задач можно достич:

локальность взаимодействий между пространственными узлами разностной сетки С обмен между соседними кли близкими узлами разностной сетки ); регулярность структуры обмена данных ыэаду узлами разностной сетхн; однотипность вычислений позволяющее применение однородных разностных схем.

Транспьютеры являются частным случаем процессоров RISC -архитектуры. В значительной мере создание программного продукта для многопроцессорных транспьютерных комплексов RISC архитектуры имеот общие проблемы. В связи с этим в диссертации приведены общие сведения о компьютерах на RISC процессорах.

В заключения показана возможность использования многопроцессорных вычислительных систем на базе транспьютеров Т-800 для решения некоторых задач математической физики, и сформулированы основные итоги диссертационной работы в следующем виде:

1. Однородность алгоритма. Наряду с одинаковым числом точек внутри каждой подобласти (которую считает транспьютер) это требование автоматически обеспечивает равномерную загрузку (load balancing) процессоров.

2. Внутренний параллелизм алгоритма - минимизация обменов можду процессорами во время счета. Эти требования обеспечивают ыянкмизацкю потерь машинного времени на проведение обмена информацией между процессорами. Требование справедливо как для транспьютеров, так и для других RISC процессоров.

3. Требования I к 2 приводят к направленному потоку "явных",' обладающих хорошей устойчивостью, схем. Кроме того, из неявных моано рекомендовать схему типа "domain decomposition" с

минимальным перекрытием областей Cmin overlapping).

4. Решение кахдой последующей задачи строится легче, чем предыдущей. Важность активного использования накопленного опыта в создании новой "транспьютерной вычислительной математики".

3. Необходимость использования на данной этапе для построения кногопроцессорных алгоритмов и програте супер-компьютеров традиционной архитектуры (Опробирование алгоритмов и моделей на кем вести легче, пока не накоплен достаточный опыт составления транспьютерных программ.).

6. Трактовка транспьютерной вычислительной системы вместе с программой решения актуальной научно-технич&скоЯ задачи как пакета прикладных программ С эта трактовка -расширение понятия триада А,А.Самарского "модель - алгоритм - программа + транспьютерная станция"). Данная трактовка нэ покажется экзотичной, если вспомнить, что сами транспьютерные вычислительные системы очань дешевы, а основную стоимость будет составлять разработанное математическое обеспечение, включая прикладные прот-раммы.

По текэ диссертации опубликованы следусаще работы.

1. Вабищевич П. Н. , Музафаров X. А., Дяабиров А. У. О числеккси моделировании геофяльтрационных процессов. Тезисы, доклады Всесоюзной ихолы-соыинара молодых ученых и специалистов. Калининград, 1933, с 21.

2. Горелик А. Г., Дубинин Н. В. , Мажукин В. И. , Музафаров X. А. О механизме разрушения полимеров лазерным излучением. Препринт ВЦММ АН СССР, N 7, 1991. с.17.

3. Четверушкин Б.Н. , Музафаров Х.А. Численное моделирование динамики излучающего газа. Тезисы докладов Республиканской конференции "Современные проблемы алгоритмизации", Ташкент,

1991, с. 47-48.

4. Музафаров X.А., Жураев Г. У. Численное моделирование двигеиия влаги в зоне аэрации. Алгоритмы, Ташкент, ШСО АН РУЗ. 1992, вып. 76, с. 27-38.

5. Нутзафаров X. А. , Четверуикин Б. Н. О моделировании задач радиационной газовой динамзясл на многопроцессорных вычислительных системах. // Математическое моделирование,

1992,т. 4, N2, с. 52-61.

6. Козубская Т.К., Музафаров X. А., Жураов Г. У. Расширение пакета программ RADIAN для решения одномерных задач радиационной газовой динамики в цилиндрической геометрии Препринт ШМ РАН, 1S92, N 37

7. Гуров Д., Музафаров X. А., Путтиез А. А. Некоторые аспекты адаптации алгоритмов на многопроцессорные транспьютерные системы. Препринт ИММ РАН, М., 1992, N 34

8. Абалакин И. В., Кабаку лов А. Б., Музафароз X. А. , Якобовский М.В. Моделирование умеренного разрегенного гага на транспьютерных системах.// Математическое моделирование, 1992, N11

9. Cheiverushkin B.N. , Muz afar о v Н. А. Ал Implementation radiative gas dynamic problems on multiprocessor transputer systems. International conference on parallel computing and transputer applications, Barcelona, 1992.

Тигографи» ЦНИЗИуюгы