автореферат диссертации по информатике, вычислительной технике и управлению, 05.13.18, диссертация на тему:Разработка методик и программ для решения уравнения переноса излучения на основе параллельных вычислений

кандидата физико-математических наук
Моряков, Алексей Владимирович
город
Москва
год
2011
специальность ВАК РФ
05.13.18
цена
450 рублей
Диссертация по информатике, вычислительной технике и управлению на тему «Разработка методик и программ для решения уравнения переноса излучения на основе параллельных вычислений»

Автореферат диссертации по теме "Разработка методик и программ для решения уравнения переноса излучения на основе параллельных вычислений"

национальный исследовательский центр

«курчатовский институт» институт ядерных peak"

МОРЯКОВ Алексей Владимирович

РАЗРАБОТКА МЕТОДИК И ПРОГРАММ ДЛЯ РЕШЕНИЯ УРАВНЕНИЯ ПЕРЕНОСА ИЗЛУЧЕНИЯ НА ОСНОВЕ ПАРАЛЛЕЛЬНЫХ ВЫЧИСЛЕНИЙ

Специальность: 05.13.18 - математическое моделирование, численные методы и комплексы программ

АВТОРЕФЕРАТ диссертации на соискание ученой степени кандидата физико-математических наук

12МАЙ2011 iH4

Москва — 2011

4845138

Работа выполнена в Институте Ядерных Реакторов Национального Исследовательского Центра «Курчатовский Институт»

Научный руководитель:

Официальные оппоненты:

кандидат физико-математических наук, старший научный сотрудник, Зарицкий Сергей Михайлович

доктор технических наук, старший научный сотрудник, Селезнев Евгений Федорович

кандидат физико-математических наук, старший научный сотрудник, Басс Леонид Петрович

Ведущая организация:

Открытое акционерное общество «Ордена Ленина Научно-исследовательский и Конструкторский Институт Энерготехники им. Н.А.Доллежаля»

Защита состоится «. .» мая 2011г. в 1часов на заседании диссертационного совета Д 002.070.01 при Институте проблем безопасного развития атомной энергетики Российской академии наук по адресу: 115191, г. Москва, ул. Б.Тульская, д. 52.

С диссертацией можно ознакомиться в библиотеке Института проблем безопасного развития атомной энергетики Российской академии наук.

Автореферат разослан « » апреля 2011 г.

Ученый секретарь диссертационного совета к.т.н.

В.Е. Калантаров

© Национальный исследовательский центр «Курчатовский институт», 2011

ОБЩАЯ ХАРАКТЕРИСТИКА РАБОТЫ

Актуальность работы.

При проектировании ядерно-энергетических установок (ЯЭУ) возникает потребность в решении задач защиты от нейтронного и гамма излучения, задач определения радиационной нагрузки конструкций, а также задач на собственное значение для активных зон реакторов. Надежное решение этих задач требует использования всех достижений современной вычислительной техники.

Значительные размеры ЯЭУ требуют больших пространственных сеток для адекватного описания уравнения переноса Больцмана в конечно-разностном представлении. Зачастую, для решения полномасштабных задач расчета радиационной нагрузки конструкций, не хватает ресурсов обычных персональных ЭВМ. Мощные вычислительные машины, состоящие из нескольких тысяч процессоров, способных работать параллельно, позволяют решить эти задачи с необходимой высокой точностью.

Цель работы.

Основная цель диссертационной работы - создание вычислительного инструмента, позволяющего решать уравнение переноса излучения в больших реакторных системах и способного использовать все доступные ресурсы вычислительных комплексов современной архитектуры.

Для достижения поставленной цели автор решил следующие задачи:

- разработал методику и создал программы для решения уравнения переноса излучения на многопроцессорных компьютерах с использованием параллельных вычислений;

- провел тестирование и исследование эффективности предложенной методики.

Программы ориентированы на использование многопроцессорных ЭВМ, применяющих MPI стандарт для передачи данных, и не имеют ограничений на число процессоров, способных работать параллельно.

Научная новизна и практическая ценность работы.

1. Разработана эффективная методика и алгоритмы для решения многогрупповых задач переноса излучения с использованием параллельных вычислительных комплексов.

2. Создан новый вычислительный инструмент (программы LUCKY и LUCKY_C), использующий архитектуру современных

вычислительных комплексов, позволяющий решать уравнение переноса излучения в больших реакторных системах без ограничения на число используемых процессоров.

3. Продемонстрирована высокая эффективность алгоритмов параллельных вычислений.

4. Выполнены верификационные исследования разработанных алгоритмов и программ.

5. Программа LUCKY применяется для решения практических задач защиты от излучения в ЯЭУ и радиационной нагрузки конструкций.

Достоверность полученных результатов подтверждена выполненными верификационными расчетами, результатами сравнений с данными реперных бенчмарк экспериментов. Внедрение работы.

Программы LUCKY и LUCKY_C прошли государственную регистрацию и применяются для решения ряда задач защиты в ЯЭУ, в том числе расчета радиационной нагрузки на корпус реактора ВВЭР.

Личный вклад автора.

Все результаты диссертации получены лично автором:

- разработана методика для решения уравнения переноса излучения на основе параллельных вычислений;

- разработаны эффективные алгоритмы для решения уравнения переноса излучения на многопроцессорных вычислительных системах, проведена оптимизация параллельного итерационного процесса;

- созданы программы LUCKY и LUCKY_C, реализующие разработанную методику;

- проведены верификационные исследования, подтверждающие высокую эффективность и работоспособность предложенных алгоритмов.

Создана оригинальная методика для решения многогруппового уравнения переноса Больцмана с использованием параллельных вычислений, основанная на принципах редукции задачи к простейшим подзадачам. Методика реализована в программах. Разбиение всей расчетной области на отдельные подобласти, представление подобластей в виде элементарных ячеек, в которых могут быть вычислены различными методами базовые решения для уравнения Больцмана, позволяет с меньшими временными затратами проводить итерационный процесс получения решения задачи. Предложенная

методика позволяет использовать без ограничения максимально доступные на данный момент ресурсы суперкомпьютеров (суперкомпьютер Академии Наук МВС-1000, используемое число процессоров 1000-3500), осуществляющих обмен данных на основе стандарта MPI с эффективностью параллельных вычислений от 45 до 9 %.

Структура работы.

Диссертация состоит из введения, пяти глав, заключения, пяти приложений и списка литературы. Содержание работы изложено на 156 страницах. Список использованных источников включает 36 наименований.

Первая глава посвящена архитектуре суперкомпьютеров и параллельным процессам на суперкомпьютерах. Во второй главе представлен обзор трехмерных расчетных программ, позволяющих решать задачи защиты и критические задачи в ЯЭУ. Третья глава посвящена постановке задачи, балансным соотношениям и разработанной автором методике параллельных вычислений. В четвертой главе проводится обзор основных характеристик программ LUCKY и LUCKY_C. В пятой главе даны результаты расчетов по программе LUCKY, сравнение с другими программами и экспериментальными данными. В заключении сделаны основные выводы на основе приведенных в диссертации материалов.

На защиту выносятся.

1. Оригинальная методика для решения многогрупповых задач переноса излучения с применением алгоритмов параллельных вычислений.

2. Результаты исследования эффективности алгоритмов параллельных вычислений.

3. Итерационные схемы решения многогрупповых задач для параллельного алгоритма.

4. Программы LUCKY и LUCKY_C для супер-ЭВМ, предназначенные для решения задач переноса излучения в больших и геометрически сложных системах в многогрупповом приближении по энергии.

5. Результаты верификационных исследований разработанных алгоритмов и программ.

Реализация результатов.

Созданные программы успешно применяются для расчета защиты от излучения в ЯЭУ и радиационной нагрузки конструкций.

Апробация результатов работы и публикации с участием автора.

По теме диссертации автором опубликовано 4 статьи в журнале "Вопросы Атомной Науки и Техники" серия "Физика ядерных реакторов" и 4 доклада на международных конференциях. Программа LUCKY использовалась для проведения расчетов радиационной нагрузки на корпуса реактора ВВЭР-1000, в решении задач защиты ЯЭУ.

ОСНОВНОЕ СОДЕРЖАНИЕ РАБОТЫ

Во введении обосновывается актуальность темы. Развитие такой отрасли, как ядерная энергетика, требует применения самых современных вычислительных технологий, которые позволят успешно развивать эту отрасль и решать поставленные перед ней задачи. Техническое сопровождение существующих ЯЭУ в атомной энергетике, создание новых установок, расчет эксплуатационных характеристик активных зон, решение задач защиты ЯЭУ от нейтронного и гамма излучения, которое неизбежно сопровождает работу этих установок - основные задачи, которые необходимо решить. Кроме того, не всегда возможно или требует значительных финансовых вложений проведение большого количества прямых экспериментов, моделирующих работу ЯЭУ.

Поэтому, создание совершенных методов математического моделирования сложных физических процессов - приоритетная задача, успешное решение которой позволит получить значительный экономический эффект. Доступные на данный момент мощные вычислительные машины при моделировании этих процессов будут эффективны только в том случае, если методы расчета позволят использовать все преимущества этой техники.

Огромные вычислительные ресурсы в сочетании с высокой производительностью позволяют переходить к моделированию процессов переноса излучения на новом уровне, совершенствуя существующие математические модели и создавая новые.

Первая глава посвящена суперкомпьютерам и параллельным процессам на суперкомпьютерах. На данный момент, одним из самых доступных в России является суперкомпьютер, стоящий в Межведомственном Суперкомпьютерном Центре Академии Наук (МСЦ) МВС-1000, имеющий ~ 9 ООО процессоров. А самым

производительным компьютером в мире является суперкомпьютер, работающий в Китае и имеющий -14 ООО процессоров и ~ 7 ООО графических ускорителей NVIDIA Tesla. В настоящее время во многих исследовательских организациях устанавливаются мощные суперкомпьютеры. Примером может служить суперкомпьютер, установленный в МГУ им. М.В. Ломоносова, имеющий ~ 35 ООО процессоров.

Созданные программы LUCKY и LUCKY_C (применяемая геометрия X-Y-Z) [1-8], используя 3500 процессоров суперкомпьютера МСЦ, позволяют решать на данной ЭВМ задачи прохождения излучения в расчетном объеме 10 м3 с пространственным шагом дискретизации в 3 мм. Это соответствует применению ~ 0,7 х 109 пространственных точек. Если применять, например, библиотеку ядерных данных BUGLE 96 , имеющую 47 нейтронных групп и 20 групп гамма квантов в приближении Р7 по индикатрисе рассеяния и sô угловое приближение по квадратуре, то время расчета таких задач составит ~ 15 часов.

При шаге в 5 мм на этих ресурсах можно рассчитывать систему в ~ 50 м3. Этого уже достаточно, чтобы описать почти полностью реакторную установку. Средства пакета AUTOCAD, доступные в программах, позволяют легко контролировать введенные данные по геометрии расчета. При этом геометрические элементы, применяемые в задаче, будут определены с точностью до шага дискретизации. В программах использована оригинальная методика вычисления решений краевых задач в элементарных ячейках с использованием Sn метода. Сечения для расчета применяются из библиотек ядерных данных в формате GIT (Group Independent Таре) , полученных из файлов ядерных данных ENDFB. Эффективность параллельного процесса.

Параллельный процесс должен обладать хорошей эффективностью, в противном случае время расчета задач будет очень большим. Эффективность параллельного процесса определяет выигрыш по времени, который можно получить при параллельных вычислениях на многопроцессорных системах. Эта величина определяется обычно как E=Ti/(nxT„), где Т! - время вычисления задачи на одном процессоре, а Т„ - время вычисления той же задачи на п процессорах. Величина Е < 1. Таким образом, если эффективность параллельного процесса равна Е, суперкомпьютер вычисляет задачу в Ехп раз быстрее при использовании п

процессоров. Величину эффективности Е можно рассматривать как выигрыш по времени, получаемый на один применяемый процессор.

Высокая эффективность достигается посредством разработки специальных алгоритмов для многопроцессорных систем. Для получения высокой эффективности многопроцессорный параллельный алгоритм не должен включать интенсивный обмен данными между процессорами, чтобы сократить время на неизбежные потери времени на обмен. Необходимо помнить, что эффективность определяется как самим методом вычислений, так и архитектурой суперкомпьютера. Поэтому можно определить теоретическую эффективность (без учета потерь времени на обмены), или эффективность метода, и практическую эффективность (для конкретного суперкомпьютера) с учетом этих потерь. Очевидно, что последняя величина будет меньше, чем первая. Теоретическая эффективность характеризует "качество" разработанного параллельного алгоритма. Чем выше эта величина, тем более приспособлен и перспективен параллельный алгоритм для работы на многопроцессорной ЭВМ.

Во второй главе представлен обзор и возможности современного вычислительного инструмента для получения решения уравнения переноса излучения при решении задач защиты и критических задач. Это программы MCNP, TORT, КАТРИН, РАДУГА-5 и TITAN.

Третья глава посвящена постановке задачи, основным положениям разработанной автором методики параллельных вычислений и способам оптимизации алгоритма решения.

Дадим постановку задачи и основные формулы для получения решения уравнения переноса в элементарных ячейках по предложенной методике. Сначала рассмотрим произвольную краевую задачу для линейного оператора. Для любого линейного оператора А решение краевой задачи Ф может быть представлено как сумма решения двух задач. Пусть решаем краевую задачу

АФ = Q ; Ф|0 = Тгр , где Q - член источника, Тф- функция на границе расчетной области D. Запишем краевую задачу 1 АФ0 =Q ; Фо|о = 0 и краевую задачу 2 АФ,=0; Ф,|0 = >Ргр.

Тогда Ф = Ф0 + Ф1 в силу линейности оператора

А(Ф0+ФО =£ ; (Фо+ФОЬ^Ч'гр.

Данное утверждение справедливо и для уравнения переноса Больцмана. Решаем уравнение Больцмана для подобласти, где под подобластью может пониматься часть расчетного объема. Запишем краевую задачу

ЬФ = 8Ф + 0; Ф|с = Ч'гр, (1)

-ч л

где ь = а — + О. — + а. — + 2„(г), 8 = [р(г,П' -» П)<Я1" ах ду дг £

Будем искать Ф = Ф0 + Ф1 Решим уравнение для этой подобласти

ЬФ0 = БФо + б ; ФоЬ = 0 (2)

Решим уравнение для подобласти

ЬФ1 = 8Ф! ; Ф,Ь = ¥гр (3)

Тогда Ь (Фо+ФО (Ф0+Ф1) + й \ (Фо + Ф0|о = 1РгР , есть решение уравнения (1).

Остановимся подробнее на решении уравнения (2). Выберем угол ¿1 и будем считать, что для всех остальных углов функция <2(Л,г) в подобласти равна 0.

Пусть 2(0,г) = где - известные

/=1

базисные функции для разложения <2(И ,г) по пространству внутри подобласти. Будем решать уравнение

В силу линейности уравнения для произвольного (2(П,г) решение уравнения (2) представляется в виде

ф0(я,г)=£ Ж-СП'.ВДЛ!' , Ф0(Яг)|д = 0 (5)

/=1 £2

Остановимся подробнее на решении уравнения (3) Выберем угол £1 , и будем считать, что для всех остальных углов функция Тгр(П,г) на границе равна 0.

Пусть ЗДг',1-) = (6)

/=1

функция на границе подобласти, где ^¡(£1,г) - известные базисные функции для разложения Тгр(П,г) по пространству на границах подобласти.

Пусть ф, (П,Л,г) решение задачи Ц^(й',г) + ф,.(а',П,г)) = 8(^(й',г) + ф,.(й',П,г)) ; (^(а',г) + ф;(П',£1',г)) \0= г) (7)

ф,.(а',ВД) |о=0 для

Тогда Ф[(£1,Я,г) как решение задачи (3) с разложением (6) для Тгр(П ,г) и Ф^П, Л ,г) | в= г) представим в виде

/=1 1=1

где 9,- (а ,п,г) = Ъ (П,г) + ф,. (£1,а г). Покажем это. Найдем решение уравнения (7).

Тогда знаем в,{П',£1,г) и для \/9,.(£2 ,£2 ,г)| ,г), в силу того,

что УфДП.П.г)^ =0.

Понятно, что а1.(П')Ь0,.(£г',П,г) = а,.(П')80,(£2',П,г) и справедливо равенство

¿а((П')Ь0,(П,,П,г) = £а((П,)8Э((П,,П1г).

1=1 м

Уравнение линейно, и можно записать

Ь(|]а,.(П')е1.(П',П,г) = 8(|;а,.(П')е,.(£2',П,г). Но по

/=1 /=1

» оо ( ,

предыдущему определению (8) Ф^Я ,£2,г) = ЕаДЯ )0,(Я ,Д,г), и

/=1

для Ф!(П,П,г) выполняется условие Ф](П ,г) | д = ^(Я ,г). Что и требовалось показать.

Если функция тгрсдг) имеет произвольное распределение по я, то решение Ф] задачи (3) будет представлено через интеграл

формулой Ф,(Я,г)= 11 а;(П')е;(П',а,г)с1П 1=1 £2

Ранее получили решение задачи (2) от источника в подобласти

ф0(п,г) = 1 лз,(я')\|/,.(я',я,гмя' 1=1 а

Тогда решение задачи (1) Ф(П,г)=Фо(£2,г)+Ф!(П,г); Ф|0 = ^(Я.г)

Предложенный алгоритм позволяет находить Ф - решение уравнения (1), которое описывает краевую задачу для рассматриваемой подобласти с произвольным £2(П,г) внутри подобласти и произвольной функцией Тгр(12,г) на границе подобласти, т.е..

Находить функции 8,-(П ,П,г) и ,й,г) (назовем их

базовыми решениями) приходится численным методом, аналитическое решение для этих функций найти сложно. Они зависят от размеров и физических параметров подобластей, для которых ставится краевая задача. Если вся расчетная система разбита на конечное число подобластей (каждая подобласть отдельный вычислительный процесс суперкомпьютера), то эти функции могут быть получены для этих подобластей и использоваться в дальнейшем при вычислении решения краевой задачи для всей системы в итерационном процессе по сшивке решений на общих границах подобластей. Среди методов, практикующих такой подход к решению задачи переноса, можно отметить метод поверхностных гармоник (работы Н.И. Лалетина и его сотрудников).

В методике, реализованной в программах LUCKY и LUCKY_C, в качестве такой подобласти выбирается пространственная ячейка небольшого размера, для которой PmSa методом получаются базовые решения. Критерий выбора - размер ячейки должен составлять от 0,3 до 0,1 длин свободного пробега частиц в веществе этой ячейки во всем энергетическом диапазоне, чтобы корректно описать поведение решения при конечно-разностной аппроксимации уравнения переноса. Второй критерий выбора размера ячейки - детальное описание геометрии для пространственных элементов, входящих в систему. Размер ячейки должен удовлетворять этим двум критериям. Именно для этих ячеек насчитываются и сохраняются функции 0,(il,£2,r) и V|/, (i2 ,il,r). Число таких ячеек с уникальным материальным составом небольшое (обычно несколько десятков), что позволяет быстро для этих ячеек насчитать базовые решения. Сшивка решения на границах соседних ячеек (на которых выходящий угловой поток из одной ячейки является входящим в другую) происходит в соответствии с требованием непрерывности решения. Коэффициенты

разложения Тф(£2,г) = ,г), а, (П ) определяются

/=1

однозначно по узлам входящих в ячейку угловых потоков на общих границах ячеек.

Достоинствами методики являются:

- решение Фо(Я,г) (см. (5)) для ячеек получается один раз и не меняется в дальнейшем вычислительном процессе;

- отсутствие необходимости в итерационном процессе многократно вычислять интеграл столкновений в операторе в уравнения переноса, т.к. влияние на решения интеграла столкновения уже учтено в базовых решениях для ячеек;

- возможность при получении базовых решений использовать индикатрису рассеяния максимально доступного в библиотеке сечений порядка разложения по полиномам Лежандра без потери времени для всего вычислительного процесса, так как базовые решения в ячейках получаются один раз и время их вычисления незначительно;

- в итерационном процессе по ячейкам для текущей ячейки, в которой вычисляется решение, учитывается влияние на решение всех 6 соседей (геометрия Х-Ч-Ъ прямоугольная, ячейка - параллелепипед), что приводит к снижению необходимого числа итераций при вычислении решения;

- возможность проводить итерационный процесс на пространственной подобласти с использованием отдельного вычислительного процессора суперкомпьютера.

Перечисленные достоинства предлагаемой методики позволили получить хорошую эффективность вычислительного процесса с использованием параллельных вычислений на суперкомпьютере.

В 5П методе предполагается, что угловой поток на единичной сфере задается дискретным набором направлений Ц (/' = где N

- число направлений на единичной сфере. Если функция (Л, х, у, г) на границе ячейки для углового потока частиц

представляется в виде ряда с учетом только линейной части по переменным х, у, г , то (8) представляется в виде: ф, (£1;, у, I) = а, ) + а2 (И, )х + а3 (П. )у + а4 (П. )г + а5 (Slj )ху

+ а6 (П. )хг + а7 (Пу )уг + <р(Д 7, х, у, г) где номер углового направления £1.

Считаем, что размеры ячейки удовлетворяют описанным выше двум критериям и можно ограничиться линейным представлением искомой функции. В этой модели используются семь базовых функций=1, £,г=х , = £4 = z, =ху, Z36=xz, =yz

на граничных плоскостях XY, XZ, YZ) для линейного представления угловых потоков по пространственным переменным на границах ячейки, а ф(П;.,;с, у, z) = as(ilj)xyz ■ Коэффициенты

а,(£1 •)......a-jiSlj) определяются однозначно по узлам на образующих

плоскостях ячейки, as(ilj) из решения задачи (7).

Предполагаем, что внутри ячейки (ячейка мала) источник задан средним значением по пространству, т.е. имеет вид Q(ilj) = qiSljMSlj), где Wlj) = 1.

После вычислений 0m(£2y,£2,,r) (m = 1...7) и У|/(П;-,П;,г)

окончательная формула для определения углового потока в узлах ячейки в энергетической группе для метода дискретных ординат будет иметь вид:

8 М 7 • 8 М

фи = ZZZ+ ZZ■ (9)

Л=1 /=1 m=1 it=l /=1

Здесь М - число угловых направлений в октанте;

®mikij - базовое решение от базовой функции разложения

углового потока на границе;

\|/; к i j - базовое решение от базовой функции для представления распределенного источника внутри ячейки;

атП - коэффициент разложения по базовым функциям решения на границах ячейки;

qt к - среднее значение источника в ячейке;

i - номер узла (узлов в элементарной ячейке-параллелепипеде 8); j - номер угла в выходном октанте узла; к - номер октанта единичной сферы (октантов всего 8); I - номер угла в октанте;

т - номер базовой функции в разложении решения на границах ячейки (7 базовых функций для представления решения на границах).

Решение уравнения переноса для всей расчетной области получается посредством итерационного процесса, в котором используется условие равенства угловых потоков на границах соседних подобластей. Связь между ячейками в подобласти рассчитывается по представленной выше формуле (9).

Существуют несколько способов распараллелить процесс получения решения. Один из них основан на разбиении всей пространственной области расчета на отдельные подобласти. Если рассматривать задачу переноса излучения для каждой подобласти как задачу с известными граничными условиями, то можно решать эту задачу на отдельном процессоре суперкомпьютера, организовав, таким образом, параллельные процессы для всех подобластей. Обеспечив сшивку решения посредством итерационного процесса по общим граничным поверхностям для всех подобластей, можно получить искомое решение. Другой способ распараллелить процесс вычисления решения применим для задач на поиск собственного значения и основан на параллельном получении решения во всех энергетических группах на общей пространственной сетке. В рамках внешних итераций учитывается вклад отдельных групп в интеграл деления и рассеяния и, таким образом, через итерационный процесс получается искомое решение.

В программе LUCKY реализован первый способ распараллеливания процесса вычисления решения, а в программе LUCKY_C совмещены сразу два способа, то есть, наряду с распараллеливанием получения решения по энергетическим группам, применяется параллельный процесс вычисления решения по пространственным подобластям. Представим основные положения параллельной схемы, реализованной в программах LUCKY и LUCKY_C.

1. Вся область расчета разбивается на отдельные независимые подобласти (сетка подобластей). Число подобластей может быть любым, но не больше числа процессоров на суперкомпьютере.

2. На каждой подобласти существует пространственная сетка для детального описания геометрии расчета и аппроксимации решения. Размерность и параметры сетки для всех подобластей одинаковые.

3. Каждая подобласть, которая может содержать до нескольких сотен тысяч пространственных точек, рассчитывается на отдельном процессоре суперкомпьютера.

4. Для описания геометрии задачи автором создан геометрический модуль. Этот модуль работает параллельно на всех процессорах, ведущих расчет своих подобластей. Кроме этого, пользователь должен иметь возможность контролировать процесс правильности задания исходных данных. Контроль задания геометрии расчета производится с использованием программы AUTOCAD. Геометрия расчета проверяется на персональном компьютере, отлаженный вариант геометрии используется на суперкомпьютере.

Геометрия задачи представляется как комбинация простых тел из библиотеки геометрического модуля. Принцип вложения (каждое следующее тело вытесняет общую часть предыдущего тела) дает возможность создавать сложные геометрические структуры. Геометрический модуль позволяет создавать вложения неограниченного порядка из простейших тел, объявляя вновь созданные элементы как простейшие, воспроизводить блоки (группы элементов со своей системой координат), структуры блоков. Пользователи фактически могут создавать сложнейшие геометрические элементы и библиотеки элементов для своих задач. Создание локальной сетки на подобластях по материальным зонам и пространственным интервалам осуществляется автоматически программой, после работы которой, генерируется файл lucky.Isp для программы AUTOCAD в целях контроля заданной геометрии расчета.

5. Связь между подобластями происходит через граничные угловые потоки по общим граничным поверхностям с помощью средств MPI.

6. Применяется двойная редукция: подобласть как часть всей области расчета и элементарная ячейка как часть подобласти. Используя заранее насчитанные базовые решения (решений краевых задач от базовых функций с поверхности ячеек и решения от распределенного источника внутри ячейки) для ячеек методом дискретных ординат, можно быстро находить решения краевых задач для узлов элементарных ячеек при проведении итерационного процесса. Это позволяет снизить численные затраты при получении окончательного решения в ходе итерационного процесса и добиться хорошей эффективности вычислительного процесса.

7. Для отдельной энергетической группы проводится итерационный процесс (после каждой итерации обмен граничными угловыми потоками между подобластями) до вычисления решения с необходимой точностью в данной группе.

8. В программе LUCKY_C осуществляется как пространственное распараллеливание, так и распараллеливание по энергетическим группам. Каждая подобласть в своей энергетической группе рассчитывается на отдельном процессоре с последующим обменом решениями, полученными во всех энергетических группах для данной пространственной подобласти с целью вычисления источника деления и рассеяния. Таким образом, полное число параллельно применяемых процессоров для данной программы равно числу пространственных подобластей, умноженному на число энергетических групп. В связи с этим, необходимое число процессоров для решения многогрупповой критической задачи будет больше, чем для решения задачи на прохождение излучения.

9. Один процессор используется как контрольный для проверки сходимости решения и обработки результатов (расчета функционалов), следовательно, необходимое число процессоров равно числу подобластей плюс один для программы LUCKY и числу энергетических групп, умноженных на число подобластей плюс один для программы LUCKY_C .

При использовании большого числа процессоров у пользователя появляется возможность задавать очень мелкую пространственную сетку для конечно-разностной аппроксимации оператора переноса и таким образом применять прямоугольную X-Y-Z геометрию как универсальную для описания тел любой формы.

Автор при разработке программ уделил особое внимание созданию эффективных алгоритмов задания геометрических данных и описания физических параметров для расчета. Так, например, задание полной сетки для задачи обеспечивается вводом всего 6 чисел. Первые три числа определяют сетку для подобластей на расчетной области. Эти числа определяют разбиение задачи на подобласти, каждая из которых будет вычисляться на отдельном процессоре. Следующие три числа определяют пространственную сетку внутри каждой подобласти. Все пространственные подобласти-клоны одинаковы по размерам и по пространственной сетке.

Кроме того, существует возможность расчета больших систем с применением записанного после предыдущего расчета решения на определенной плоскости (плоскость определяется пользователем таким образом, чтобы исключить влияние граничного условия на решение в данной плоскости), что позволяет находить решение в системах, имеющих большие геометрические размеры, рассчитывая

их постепенно с "перехлестом", задавая геометрию задачи, как бы постепенно "перемещаясь" по расчетной области в определенном направлении.

Для автоматизированного задания исходных данных реализована автоматическая связь программы LUCKY с другими программами. Например, программа LUCKY способна читать файл, создаваемый программой ПЕРМАК, содержащий потвэльное пространственное распределение энерговыделения по кассетам реактора ВВЭР. Таким образом, представляется возможным легко применять данное распределение в качестве источника нейтронов в активной зоне для решения задач защиты данного типа реакторов. Методы ускорения сходимости итерационного процесса.

Ускорить параллельный итерационный процесс, описанный выше, достаточно сложно по следующим причинам:

- граничные условия строго определены только на границах всей области расчета (базового тела), на каждой пространственной подобласти нет постоянных граничных условий, в процессе итераций решение на границах подобластей все время меняется;

- неизвестна заранее мера влияния подобластей друг на друга, достаточно сложно предсказать поведение погрешности в процессе итераций.

Тем не менее, для ускорения итерационного процесса успешно применяется метод Гаусса-Зейделя. Схема этого метода позволяет использовать в текущей итерации часть уже полученного решения для определения другой части решения в этой же итерации. Итерация считается законченной, когда последовательно вычислено решение для угловых потоков для всех октантов единичной сферы. В программе LUCKY применяется схема Гаусса-Зейделя для определения решения внутри подобласти в процессе получения решения по пространственной сетке и в процессе обмена граничными угловыми потоками между подобластями.

Таким образом, решение, вычисленное для подобласти в каком-либо угловом октанте в текущей итерации, может быть сразу же передано на граничную поверхность соседней подобласти и затем использовано для получения решения в других октантах для этой подобласти в этой же итерации. Для работы по этой схеме все подобласти автоматически собираются в группы, состоящие из 8 соседних подобластей. Число подобластей в группе равно числу октантов на единичной сфере. Впоследствии при вычислении решения

по угловым октантам проводится индивидуальная по октантам схема получения решения на каждом из 8 подобластей отдельной группы.

В результате применения данной схемы для вычисления решения каждая подобласть из своей восьмерки "видит" входящие в нее угловые потоки от соседних подобластей уже в текущей итерации, а не в следующей, как при обычной, не сдвинутой по октантам схеме получения решения.

Эффективность (которую можно приблизительно определить как выигрыш по числу итераций) такого "ускорения" составляет в среднем для групп гамма квантов ~ 1,8 , а для нейтронных групп ~ 1,3 и зависит в основном от геометрии задачи. Опыт проведения расчетов показывает, что чем более вытянуто базовое тело по какой-либо координатной оси, тем эффективнее будет предложенная схема ускорения.

Для программы LUCKY_C применяется классический метод перенормировки, когда полученное на внешней итерации решение после перерасчета источника деления применяется в качестве начального приближения для проведения следующей итераций.

Проведено исследование влияния на эффективность параллельного процесса различных параметров расчетной модели. Даны рекомендации (стратегия разбиения расчетной области на подобласти) по организации вычислительных параллельных процессов с применением разработанных программ.

В четвертой главе проводится обзор основных характерстик программ LUCKY и LUCKY_C. Используемые ядерные данные.

Для расчетов необходима библиотека ядерных констант, организованная по группам в GIT формате, широко применяемом формате для американских программ. Формат такой библиотеки предполагает хранение сечений для энергетических групп в виде моментов разложения по полиномам Лежандра. С помощью американских программ GIP , TAPEMAKER можно получить макросечения из соответствующих групповых библиотек ядерных данных, например, BUGLE 96 или других поддерживающих GIT формат. Решаемые задачи.

С помощью программы LUCKY можно решать задачи защиты от излучения нейтронов и гамма квантов с заданным фиксированным распределенным источником излучения в групповом представлении искомого решения по энергии. Число энергетических групп в расчете

может быть произвольным. Возможно решение задач с источником в делящихся средах (применяются внешние итерации по источнику деления). Программа LUCKY_C позволяет проводить решение задач на собственное значение для делящихся систем. Граничные условия могут быть либо условиями отражения на любой из внешних границ расчетной области, либо нулевыми (нет влета частиц в систему). Ограничения решаемых задач.

Основные ограничения по размерам пространственной сетки и числу энергетических групп связаны с размером доступной оперативной памяти на процессорах и быстродействием суперкомпьютера. Применяется динамическое распределение памяти. Типичное время расчета.

Время расчета задачи определяется, в основном, числом узлов пространственной сетки на подобластях и порядком выбранного S„ приближения при вычислении базовых решений в элементарной ячейке, а также быстродействием процессоров суперкомпьютера. Время на итерацию может составлять от нескольких секунд до нескольких минут, а число итераций в зависимости от задачи достигать нескольких десятков. Особенности программ.

К особенностям программ можно отнести возможность параллельно работать на большом числе процессоров (имеется опыт работы на 1000...3500 процессоров) с эффективностью от 45 до 9 %.

Кроме этого, программа LUCKY способна проводить расчеты с продолжением геометрии по какой-либо выбранной пользователем координатной оси расчетной области. Работая в таком режиме, программа записывает файл с выходящими угловыми потоками с поверхности подобластей, находящихся у границы системы. Статус программ. Операционная система. Требование к оборудованию.

Программы применяются для расчета реальных задач защиты. Основным требованием к суперкомпьютеру является наличие многих процессов (более 1), транслятора с языка программирования FORTRAN 90 и возможность использовать интерфейс MPI стандарта. Операционная система UNIX, LINUX. Перспективы развития программ LUCKY и LUCKY С.

Как главную перспективу развития программ можно рассматривать адаптацию программ для гибридных вычислительных систем (технологии MPI и CUDA) для параллельных задач.

Эффективность такой гибридной вычислительной системы будет определяться в основном быстродействием высокоскоростной сети между узлами суперкомпьютера.

Для компенсации недостаточной точности PmS„ метода в воздушных полостях при вычислении элементарных решений для ячеек с малым сечением возможно применение методики прямого интегрирования при получении базовых решений в воздушных ячейках.

В пятой главе представлены результаты расчетов по программе LUCKY, проведено сравнение с результатами, полученными по другим программам и с экспериментальными данными для ряда тестовых, модельных задач и бенчмарк экспериментов. Результаты представлены в приложениях А, Б, В, Г, Д диссертации.

Для задач верификации были подобраны полномасштабные задачи с глубоким прохождением излучения через защиту: расчет базовых экспериментов с макетами защиты на реакторе ИР-50 (прохождение нейтронного и гамма излучения через большие слои воды, железа, многослойной защиты), расчет плотности потока быстрых нейтронов на корпусе реактора 3 блока атомной станции Балаково ВВЭР-1000 и сравнение с бенчмарк экспериментом.

Кроме того, решена одногрупповая тестовая задача, имеющая точное решение, и макетная задача для реактора ВВЭР-1000. Для макетной задачи проведено сравнение с результатами, полученными по программе TORT, как наиболее близкой по методу решения уравнения переноса и применяющей ту же библиотеку ядерных данных. Для всех просчитанных верификационных задач наблюдается хорошее совпадение результатов расчета по программе LUCKY с результатами, полученными по различным программам, а также с результатами бенчмарк экспериментов.

Для демонстрации возможностей программы LUCKY приведем параметры расчетной модели, выбранные для расчета бенчмарк эксперимента по радиационной нагрузке на корпус атомной станции Балаково. Задача решалась на 3381 процессоре. Рассчитывалась 1Л часть установки, размер расчетной области по координатным осям составил 3,1х ЗДОх 3,55 метра. В качестве источника в активной зоне с применением автоматического интерфейса между программами принимались данные потвэльного распределения энерговыделения, вычисленные по программе ПЕРМАК. Использование мелкой пространственной сетки позволило детально описать геометрию

расчета и применять наиболее точную конечно-разностную аппроксимацию уравнения переноса. Шаг пространственной сетки по координатным осям для описания композиции задачи принимался равным 2,5 мм по осям X, Y, для оси Z шаг равен 8 мм. Полное число точек в расчете ~ 0,67х109 . В P3S8 приближении время расчета для 30 групп нейтронов составило ~ 400 минут.

Заключение.

В заключении сформулированы результаты работы.

1. Создан новый вычислительный инструмент, использующий современную архитектуру вычислительных комплексов и позволяющий решать уравнение переноса излучения в больших реакторных системах.

2. Разработана оригинальная методика для решения уравнения переноса излучения на основе параллельных вычислений.

3. Созданы программы LUCKY и LUCKY_C (язык программирования ФОРТРАН 90), в которых реализована предложенная методика.

4. В целях верификации программы LUCKY проведены расчеты ряда тестовых и модельных задач и бенчмарк экспериментов реальных композиций реакторов. Результаты расчетов хорошо согласуются с результатами, полученными в экспериментах и других расчетах.

Применение предложенной методики позволяет проводить параллельные расчеты с эффективностью равной от 45 % до 9 % на суперкомпьютерах с распределенной памятью, применяющих MPI стандарт на большом числе процессоров (от 1000 до 3500).

Созданный вычислительный инструмент позволяет в полной мере использовать все доступные ресурсы суперкомпьютера без ограничения на число процессоров, применять мелкие пространственные сетки для описания сложных по геометрии задач, повышая точность расчетной модели, использовать X-Y-Z геометрию как универсальную.

Основные публикации по теме диссертации

1. Моряков А.В. Использование параллельных технологий для решения многогруппового уравнения переноса методом дискретных ординат. //ВАНТ. Сер. Физика ядерных реакторов, 2002, вып. 4 , с. 3-14.

2. Моряков А.В. Программа LUCKY. Решение уравнения переноса нейтронов и гамма излучения с использованием параллельных технологий. //ВАНТ. Сер. Физика ядерных реакторов, 2010, вып. 4, с. 18-29

3. Моряков А.В. Результаты расчетов по программе LUCKY. Сравнение с другими программами и экспериментальными данными. //ВАНТ. Сер. Физика ядерных реакторов, 2010, вып. 4, с. 30-40

4. Моряков А.В. Алгоритм получения угловых потоков в ячейке для многопроцессорных программ LUCKY и LUCKY_C. И ВАНТ. Сер. Физика ядерных реакторов, 2011, вып. 1, с. 3-7

5. Moriakov A.V., Vasyukhno V.P., Netecha М.Е., Kchacheresov G.A. Programs LUCKY & LUCKY_C 3D Parallel Transport Codes for the Multigroup Transport Equation Solution for XYZ Geometry by PmSn Method. / Proceeding of the Parallel CFD 2003 Conference. Moskow, Russia, May 13-15,2003 , page 439-446.

6. Moriakov A.V., Vasyukhno V.P., Netecha M.E., Kchacheresov G.A. Programs LUCKY & LUCKY_C 3D Parallel Transport Codes for the Multigroup Transport Equation Solution for XYZ Geometry by PmSn Method. / The International Conference on Supercomputing in Nuclear Applications (SNA - 2003), Paris 22-24 September 2003.

7. Moriakov A.V. In Venus-2 MOX - fuelled Reactor Dosimetry Calculations. / Final Report, Nuclear Science NEA/NSC/DOC (2005)22

8. Zaritsky S.M., Egorov A.L., Moryakov A.V. et al. New WWER benchmark on the LR-0 experimental reactor. / Int. Conf. On the Physics of Reactors " Nuclear Power: A Sustainable Resource" Casino-Kursaal Conference Center, Interlaken, Switzerland, September 14-19, 2008.

Подписано в печать 04.04.2011. Формат 60x90/16 Печать офсетная. Усл. печ. л. 1,25 Тираж 120. Заказ № 30

Отпечатано в НИЦ «Курчатовский институт» 123182, Москва, пл. Академика Курчатова, д. 1

Оглавление автор диссертации — кандидата физико-математических наук Моряков, Алексей Владимирович

Введение

Глава 1. Суперкомпьютеры, параллельные процессы на суперкомпьютерах

1.1 Эффективность параллельного процесса

Глава 2. Обзор трехмерных программ, применяемых для расчета ядерных энергетических установок

2.1 Метод дискретных ординат

2.2 Метод Монте-Карло

2.3 Современные трехмерные программы расчета защиты ядерных энергетических установок

2.3.1 Программа TORT

2.3.2 Программа КАТРИН

2.3.3 Программа MCNP

2.3.4 Программа РАДУГА

2.3.5 Программа TITAN

Глава 3. Методика для решения уравнения переноса излучения на основе параллельных вычислений

3.1 Цель и задачи, для решения которых создавались программы LUCKY и LUCKYC

3.2 Метод решения

3.3 Основные положения методики параллельных вычислений

3.3.1 Балансные соотношения для решений в элементарной ячейке

3.3.2 Итерационная параллельная схема

3.4 Геометрический модуль и средства контроля расчетной модели

3.4.1 Основные понятия

3.4.2 Геометрические блоки

3.4.3 Построение структур и новых геометрических тел прототипов

3.4.4 Описание элементарных доступных пользователю тел прототипов

3.4.5 Контроль геометрии через программу AUTOCAD

3.4.6 Методы ускорения сходимости итерационного процесса

3.4.7 Зависимость эффективности от различных параметров расчетной модели

Глава 4. Обзор по программам LUCKY и LUCKYC

4.1 Применяемые ядерные данные и формат данных

4.2 Методические рекомендации по применению программ

LUCKY и LUCKYC

4.3 Компьютеры, на которых работают программы

4.4 Решаемые задачи

4.5 Ограничения решаемых задач

4.6 Типичное время расчета

4.7 Особенности программ

4.8 Вспомогательные программы

4.9 Статус программ. Операционная система. Требования к оборудованию

4.10 Проблема двойной точности

4.11 Перспективы развития программ LUCKY и LUCKYC

Глава 5. Результаты расчетов по программе LUCKY

Сравнение с другими программами и экспериментальными данными

5.1 Расчет модельной задачи-макета для типичной композиции реактора ВВЭР

5.1.1 Анализ результатов

5.2 Расчет быстрых потоков нейтронов на корпус реактора атомной станции Балаково

5.2.1 Анализ результатов

5.3 Расчет тестовой задачи с воздушными полостями 80 5.3.1 Анализ результатов

5.4 Расчеты и сравнение с экспериментальными данными на реакторе

5.4.1 Экспериментальная установка и макеты защиты

5.4.2 Методика расчетов, исходные данные и расчетные модели

5.4.3 Базовый эксперимент с водой

5.4.4 Базовый эксперимент с железом

5.4.5 Эксперимент с макетом радиационной защиты

5.4.6 Сопоставление расчетных и экспериментальных данных 89 5.5 Оценка эффективности параллельных вычислений решенных задач с использованием большого числа процессоров

Введение 2011 год, диссертация по информатике, вычислительной технике и управлению, Моряков, Алексей Владимирович

Человечество все больше и больше потребляет энергии, которая требуется для развития различных отраслей производства и комфортной жизни. В современном мире доля ядерной энергетики неуклонно возрастает. Это объясняется различными причинами. Ресурсы углеводородов не безграничны, а запасов ядерного топлива на данный момент достаточно, чтобы обеспечить необходимые темпы развития производства энергии. Планами государства предусматривается построение несколько десятков энергоблоков атомных электростанций типа ВВЭР различной мощности. Кроме того, возможность устанавливать локально ядерные энергетические установки (ЯЭУ) небольшой мощности в труднодоступных, удаленных от основных транспортных магистралей местах способных достаточно долгое время работать на одной топливной загрузке делает эти установки незаменимыми в производстве энергии.

Развитие такой отрасли как ядерная энергетика, требует применения самых современных технологий, которые позволят успешно развивать эту отрасль и решать поставленные перед ней задачи.

Техническое сопровождение существующих ЯЭУ в атомной энергетике и создание новых установок является одной из приоритетных инженерных задач, которые включает решение следующих проблем: расчет эксплуатационных характеристик активных зон, решение задач защиты ЯЭУ от нейтронного и гамма излучения, неизбежно сопровождающее работу этих установок. Кроме того, не всегда возможно, или требует значительных финансовых вложений, проведение большого количества прямых экспериментов, моделирующих работу ЯЭУ.

Поэтому создание совершенных расчетных моделей для математического моделирования сложных физических процессов - главная задача, решение которой позволит получить значительный экономический эффект. Доступные на данный момент мощные вычислительные машины при моделировании этих процессов будут эффективны только в том случае, если методы расчета позволят применять все преимущества этой техники.

Огромные ресурсы в сочетании с высокой производительностью позволяют переходить к моделированию процессов переноса излучения на новом, высокоточном уровне, совершенствуя существующие математические модели и создавая новые. Возможность практически точно, с мелким шагом геометрической детализации, описывать сложную геометрию решаемых задач, применять более детальное разбиение энергетической области при многогрупповых расчетах, поднимает качество таких расчетных моделей до нового высокоточного уровня.

Значительные размеры ЯЭУ требуют больших пространственных сеток для адекватного описания уравнения переноса Больцмана в конечно-разностном представлении. Поэтому для решения полномасштабных задач защиты уже не хватает ресурсов обычных персональных ЭВМ. Мощные вычислительные машины, состоящие из нескольких тысяч процессоров и способные работать параллельно — это суперкомпьютеры, которые позволяют разрешить эти задачи на высокоточном уровне.

Основная цель диссертационной работы - создание вычислительного инструмента, использующего современную архитектуру вычислительных комплексов, способного применять все доступные ресурсы этих комплексов, позволяющего решать уравнение переноса излучения в больших реакторных системах.

Для достижения поставленной цели автор решил следующие задачи: разработана методика и созданы программы для решения уравнения переноса излучения на многопроцессорных компьютерах с использованием параллельных вычислений, программы способны использовать все доступные ресурсы вычислительной системы, без ограничения на число используемых процессоров; проведено тестирование и исследование эффективности предложенной методики.

Актуальность работы определяется необходимостью; создания вычислительного инструмента, использующего современную, архитектуру вычислительных комплексов для решения задач переноса излучения в больших реакторных системах, когда мощности' персонального компьютера не достаточно для получения достоверного результата.

Научная новизна результатов работы с остоит. в следующем:

- создан новый; вычислительный: инструмент (программы ИЛСКУ и ЬиСКУ С), использующий г современную - архитектуру вычислительных комплексов, позволяющий; решать уравнение переноса излучения- в больших реакторных системах и применять все: доступные: вычислительные ресурсы суперкомпьютера (без:ограничений на,число процессоров);,

- программы обладают хорошей эффективностью, что позволяет использовать детальные математические модели; при, решении^ задачи- за; реальные; времена» расчета.

Достоверность полученных- результатов подтверждена? выполненными' верификационными расчетами«, на основании? которых: делается вывод о возможности? использования разработанных программ, в реальных расчетах при обосновании ядерной безопасности в ЯЭУ.

Практическая;ценность полученных результатов;определяется:

- расширением расчетных возможностей современного вычислительного инструмента при решении уравнения переноса в больших реакторных системах;

- разработкой.оригинальной методикирешения уравнения переноса излучения, адаптированной к высокопроизводительным параллельным вычислениям;

- созданием программ ЬиСКУ и ЬиСКУС;

- созданием нового вычислительного.инструмента позволяющего вшолной:-мере;использовать все:доступные ресурсы суперкомпьютера без ограничения на число процессоров, применять мелкие пространственные сетки для описания сложных по геометрии задач, повышая точность расчетной модели, использовать X-Y-Z геометрию как универсальную;

- наличием опыта решения реальных задач с использованием от 1000 - 3500 процессоров с эффективностью от 9 до 45 %.

- наличием возможности адаптации программ для гибридных вычислительных систем.

Реализация результатов. Проведена верификация вычислительного инструмента на реальных задачах с использованием от 1000 до 3500 процессоров, эффективность от 45 до 9 %. Созданные программы успешно применяются для расчета защиты от излучения вЯЭУ.

Личный вклад автора. Все основные результаты диссертации получены лично автором.

Апробация работы. Основные положения диссертации докладывались на 4 конференциях.

Публикации. По теме диссертации опубликованы 4 статьи в журнале "Вопросы атомной науки и техники". На защиту выносятся.

1. Оригинальная методика решения многогрупповых задач переноса излучения с применением алгоритмов параллельных вычислений.

2. Результаты исследования эффективности алгоритмов параллельных вычислений.

3. Итерационные схемы решения многогрупповых задач для параллельных алгоритмов.

4. Результаты верификационных исследования разработанных алгоритмов и программ.

5. Программы LUCKY и LUCKYC для супер-ЭВМ, предназначенные для решения задач переноса излучения в больших и геометрически сложных системах в многогрупповом приближении.

Первая глава посвящена суперкомпьютерам и параллельным процессам на суперкомпьютерах.

Во второй главе представлен обзор трехмерных расчетных программ MCNP, TORT, КАТРИН, РАДУГА-5 и TITAN применяемых для вычисления решения уравнения переноса при решении задач защиты и критических задач в ЯЭУ.

Третья глава посвящена основным положениям методики параллельных вычислений и способам оптимизации получения решения.

В четвертой главе проводиться обзор особенностей программ LUCKY и LUCKYC.

В пятой главе представлены результаты расчетов по программе LUCKY, сравнение с другими программами и экспериментальными данными. Результаты представлены в приложениях А, Б, В, Г, Д диссертации.

Заключение диссертация на тему "Разработка методик и программ для решения уравнения переноса излучения на основе параллельных вычислений"

Заключение

Сделаем основные выводы по результатам данной работы.

1. Создан новый вычислительный инструмент, использующий современную архитектуру вычислительных комплексов, позволяющий решать уравнение переноса излучения в больших реакторных системах.

2. Разработана оригинальная методика для решения уравнения переноса излучения на основе параллельных вычислений.

3. Созданы программы LUCKY и LUCKYC (язык программирования ФОРТРАН 90) в которых реализована предложенная методика.

4. Применение предложенной методики позволяет проводить параллельные расчеты с эффективностью равной от 9 до 45 % (за счет организации эффективного итерационного процесса для ячеек) на суперкомпьютерах с распределенной памятью, применяющих MPI стандарт на большом числе процессоров (от 1000 до 3500). Потери времени на обмен составляют не более 10—50 % от времени расчета на задачах с использованием большого числа процессоров, так как число подобластей участвующих в обмене данными в итерационном процессе на отдельном вычислительном модуле не превышает 6.

5. Даны рекомендации (стратегия разбиения расчетной области на подобласти) по организации вычислительных параллельных процессов с применением разработанных программ.

6. Созданный вычислительный инструмент позволяет в полной мере использовать все доступные ресурсы суперкомпьютера без ограничения на число процессоров, применять мелкие пространственные сетки для описания сложных по геометрии задач, повышая точность расчетной модели, использовать X-Y-Z геометрию как универсальную.

7. Проведены расчеты по программе LUCKY ряда тестовых и модельных задач, реальной композиции реактора ВВЭР-1000 Балаково, для которой проведено сравнение полученных результатов с результатами бенчмарк эксперимента на внешней поверхности корпуса реактора. Просчитаны эксперименты, которые проводились на исследовательском реакторе ИР-50, дано сравнение полученных результатов с экспериментальными данными.

8. Результаты сравнения дают основание для применения программы LUCKY при решении задач защиты от нейтронного и гамма излучения в ЯЭУ.

9. Имеются хорошие перспективы увеличения производительности программ при использовании гибридных вычислительных систем.

Библиография Моряков, Алексей Владимирович, диссертация по теме Математическое моделирование, численные методы и комплексы программ

1. Zabrodin A.V., Levin V.K., Korneev V.Y. The Massively Parallel Computer System MBC-100. Parallel Computing Technologies. / Third Int. Conf., PaCT-95, St.Petersburg, September 1995 Proc.

2. Забродин A.B. Параллельные вычислительные технологии. Состояние, перспективы. Препринт ИПМ им. М.В. Келдыша, № 71, 1999 ( http: //www.parallel.ru 10.10.2008 ).

3. Баранов A.B., Лацис А.О. , Сажин C.B., Храмцов М.Ю. Руководство пользователя системы МВС-1000/М www.jscc.ru (дата обращения: 10.10.2008). ИПМ им. М.В. Келдыша РАН. Отдел ИВСиЛС, сектор эксплуатации МВС.

4. Воеводин В.В., Воеводин Вл.В. Параллельные вычисления. СПб: БХВ-Петербург, 2002.

5. Горелик A.M. Программирование на современном ФОРТРАНЕ. М: Финансы и Статистика, 2006.

6. PVF Parallel Fortran for Scientists and Engineers. The Portland Group Simicroelectronics Two Centerpointe Drive Lake Oswey, OR 87035 Copyright 2010, Simicroelectronics Inc, USA, 2010.

7. Visual FortranCompiler Professional Edition 11.1, Copyright Intel Corporation, USA, 2010.

8. Лебедев В.И., Марчук Г.И. Численные методы в теории переноса нейтронов. М: Атомиздат, 1971.

9. Смелов В.В. Лекции по теории переноса нейтронов. М: Атомиздат, 1978.

10. Фейнберг С.М., Шихов С.Б., Троянский В.Б. Теория ядерных реакторов, т.1, М: Атомиздат, 1978

11. Белл Д., Глесстон С. Теория ядерных реакторов. М: Атомиздат, 1971

12. Doors 3.2: One,Two and Three-Dimensional Discrete Ordinates Neutron/Photon Transport Code System. RSIC Code Package, CCC-650.

13. Booth Т.Е., Brown F.B., Bull J.S. et al. MCNP-A General Monte Carlo N-Particle Transport Code. Ver. 5, ORNL, LA-UR-03-1987, 2003.

14. Красковский Д.Г., Виноградов A.B. AutoCAD 2000 для всех. М.: КомпьютерПресс, 1999.

15. Engle W.W. A User Manual for ANISN. Union Carbide Corporation, K-1693, 1967

16. Волощенко A. M., Крючков В. П. КАТРИН-2.0 программа для решения уравнения переноса нейтронов и фотонов методом дискретных ординат в трехмерной геометрии. Инструкция для пользователя. Отчет ИПМ им. М. В. Келдыша РАН, инв. № 7-27-2004, М: 2004.

17. Басс Л.П., Николаева О.В. РАДУГА-5 программа решения уравнения переноса в 2 - и 3 - мерных геометриях. / Сб. докл. сем. "Нейтроника-99: Алгоритмы и программы для нейтронно-физических расчетов ядерных ректоров", Обнинск, 26-28 окт, 1999, с. 145-150

18. Ce Yi "TITAN: А 3-D Deterministic Radiation Transport Code; TITAN User Manual Version 1.19,"Univ. Of Florida (2009).

19. Моряков A.B. Использование параллельных технологий для решения многогруппового уравнения переноса методом дискретных ординат. //ВАНТ. Сер. Физика ядерных реакторов, 2002, вып. 4 , с. 3-14.

20. Моряков A.B. Программа LUCKY. Решение уравнения переноса нейтронов и гамма излучения с использованием параллельных технологий. //ВАНТ. Сер. Физика ядерных реакторов, 2010, вып. 4., с. 18-29

21. Моряков А.В. Алгоритм получения угловых потоков в ячейке для многопроцессорных программ LUCKY и LUCKYC // ВАНТ. Сер. Физика ядерных реакторов, 2011, вып. 1, с. 3-7

22. Moriakov A.V. In Venus-2 MOX fuelled Reactor Dosimetry Calculations. / Final Report, Nuclear Science NEA/NSC/DOC (2005)22

23. NVIDIA CUD A, ver 3.0, Reference Manual NVIDIA Corporation. Santa Clara, USA, 2010.

24. Grafer 8. User Guide 2D and 3D Grahing Software for Scientists, Engineers, & Business Professionals. Golden Software Inc 809 14th Street, Golden, Colorado 80401-1866, USA. Copyright Golden Software Inc 2009.

25. Surfer 9. Contouring and 3D Surface Mapping for Scientists and Engineers Copyright Golden Software Inc. 2009.

26. Лизоркин М.П. , Курченкова Г.И. , Лебедев В.И. Аннотация программы ПЕРМАК -У. //ВАНТ. Сер.: Физика и техника ядерных реакторов, 1988, вып. 4.

27. Стахнов A. Linux. СПб: БХВ-Петербург, 2009

28. White J.E. et al. BUGLE-96: Coupled 47 Neutron, 20 Gamma-Ray Group Cross Section Library Derived from ENDF/B-VI for LWR Shielding and Pressure Vessel Dosimetry Application, RSIC Data Library Collection, DLC-185, March 1996.

29. Keisuke Kobayashi, Naoki Sugimura, Yasunobu Nagaya.

30. D Radiation Transport Benchmark Problems and Results for Simple Geometries with Void Regions. Nuclear Science Committee, Nuclear Energy Agency Organisation for Economic co-operation and Development. November 2000

31. Гермогенова Т.А. и др. Новые материалы в банке тестовых задач радиационной защиты. / В сб. тезисов докладов 7-ой Российской научной конференции "Защита от ионизирующих излучений ЯЭУ". Обнинск, ГНЦ РФ ФЭИ, 22-24 сентября 1998.