автореферат диссертации по информатике, вычислительной технике и управлению, 05.13.18, диссертация на тему:Гибридный генетический нейросетевой алгоритм идентификации параметров ресурсоемких моделей

кандидата технических наук
Гагарин, Александр Владимирович
город
Уфа
год
2011
специальность ВАК РФ
05.13.18
цена
450 рублей
Диссертация по информатике, вычислительной технике и управлению на тему «Гибридный генетический нейросетевой алгоритм идентификации параметров ресурсоемких моделей»

Автореферат диссертации по теме "Гибридный генетический нейросетевой алгоритм идентификации параметров ресурсоемких моделей"

ГАГАРИН Александр Владимирович

ГИБРИДНЫЙ ГЕНЕТИЧЕСКИЙ НЕЙРОСЕТЕВОЙ АЛГОРИТМ ИДЕНТИФИКАЦИИ ПАРАМЕТРОВ РЕСУРСОЕМКИХ МОДЕЛЕЙ

СПЕЦИАЛЬНОСТЬ 05.13.18 Математическое моделирование, численные методы и комплексы

программ

- 1 ДЕК 2011

АВТОРЕФЕРАТ диссертации на соискание ученой степени кандидата технических наук

Уфа —2011

Работа выполнена в ФГБОУ ВПО «Уфимский государственный авиационный технический университет»

Научный руководитель: д-р физ.-мат. наук, проф.

ГАЗИЗОВ Рафаил Кавыевич,

кафедра высокопроизводительных вычислительных технологий и систем Уфимского государственного авиационного технического университета

Официальные оппоненты: д-р техн. наук, проф.

ЖЕРНАКОВ Сергей Владимирович,

кафедра электроники и биомедицинских технологий Уфимского государственного авиационного технического университета

канд. физ.-мат. наук САВИЧЕВ Владимир Иванович,

аналитический отдел ООО «БашНИПИнефгь»

Ведущая организация: ФГБОУ ВПО «Уфимский государственный

нефтяной технический университет»

Защита состоится «21 » декабря 2011 года в 10 часов на заседании диссертационного совета Д-212.288.03 при Уфимском государственном авиационном техническом университете по адресу: 450000, РБ, г. Уфа, ул. Карла Маркса, 12

С диссертацией можно ознакомиться в библиотеке университета

Автореферат разослан « 18 » ноября 2011 г.

Ученый секретарь диссертационного совета д-р техн. наук, проф.

В. В. Миронов

ОБЩАЯ ХАРАКТЕРИСТИКА РАБОТЫ

Актуальность темы

Одним из важнейших инструментов прогнозирования повеления сложных объектов исследования (ОИ) является математическое моделирование с использованием полномасштабных цифровых моделей этих объектов. Оно дает возможность заменить натурный эксперимент математическим (численным) и исследовать проявление того или иного воздействия на ОИ с помощью изучения влияния параметров на математическую модель. Такой эксперимент, дополняя натурный, позволяет глубже исследовать явление или процесс и принимать наиболее обоснованные решения, сокращающие возможность ошибки.

Теория идетггификации систем появилась почти одновременно с теорией автоматического управления, о чем свидетельствуют рабогы Н. Nyquist (1932) и II. Bode (1945), в которых, по существу, описываются методы идентификации. В дальнейшем данным вопросом занималось множество известных ученых, таких как R. Lee (1964), G. Box, G. Jenkins (1970), A. Sage (1971), J. Mendel (1973), P. Eykhoff (1974) и др. Современное состояние даштой теории представлено в монографиях таких авторов, как D. Grop (1979), JI. А. Растригин (1981), L. Ljung (1991), Я.З. Цыпкин (1995) и др. Идентификация ОИ с выходными сигналами у (к) = (у\(к),у2(к),. ..,ут{к)), измеряемыми в дискретные моменты времени /ь к = 1,2,..., осуществляется при помощи математической модели у = M(k | х). Выходные сигналы у (к | х) = = (yi(k I х),у2(к I х),... ,у'т(к I х)) модели зависят от вектора настраиваемых параметров х € Dm с R", значения которых подлежат определению. Для этого вводится целевая функция (ЦФ), отражающая качество идентификации. Часто она имеет квадратичную форму

где W — матрица весовых коэффициентов.

Далее задача идентификации параметров ОИ сводится, как правило, к задаче минимизации ЦФ (1). Обычно она имеет множество локальных минимумов, что ограничивает применимость методов локальной оптимизации (например, градиентных) только возможной стадией уточнения решения. Поэтому в таких задачах, как правило, применяются алгоритмы с возможностями глобальной оптимизации. Разработкой детерминированных и эвристических методов глобальной оптимизации занимались С. А. Пиявский (1967), Н.П. Жидков (1968), Б.О. Шуберт (1972), Ю.Г. Евтушенко (1974), И. Федорова (1978), Р. Г. Стронгин (1978), А. V. Levy, S. Gomez (1980), А. О. Griewank

(1981), Е. Гальперин (1985), J. S. Агога (1992) и другие ученые. Стохастические алгоритмы представлены в работах N. Metropolis (1953), J. Н. Conway

(1982), A.II.G. Rinnooy Кап, C.G.E. Boender (1985), W.L. Price, M. Piccioni

N

О)

e(k,x) = y(k)-$(k\x),

(1987), S. Lucidi (1988), P. Jain (1989) и многих других исследователей. Созданием и совершенствованием эволюционных алгоритмов занимались, в частности, J.H. Holland (1962), I. Rechenberg (1965), H. Schwefel (1965), К. DeJong (1975), D. Whitley (1989), К. Deb, D.E. Goldberg (1991), Z. Michalewicz(1992), F. Herrera, M. Lozano (1998), T. Back (2000) и др.

Развитие генетических алгоритмов (ГА) с целью ускорения эволюционного поиска в настоящее время идет по многим направлениям. К традиционным можно отнести усовершенствования основных операторов селекции, скрещивания и мутации, распараллеливание, разработку самонастраивающихся ГА. Одним из наиболее перспективных направлений является создание гибридных схем, когда ГА работает в паре с другим алгоритмом оптимизации, например с алгоритмом градиентного спуска (В. А. Тенев и Н. Б. Паклин, 2003).

Большим потенциалом обладает также использование гибридных схем с применением ГА и нейронных сетей (НС). Данному вопросу в последнее время посвящается много работ, например, A.A. Javadi, Z. Liu (2005), J.-T. Kuo

(2006), T. Morimoto, К. С. Giannakoglou (2007) и др. Подобные гибридные алгоритмы основаны на технике суррогатного моделирования или метамоде-лирования, предполагающей замену полномасштабной модели ОИ на значительно менее ресурсоемкую модель, приближенно воспроизводящую отклик исходной модели. Теория метамоделирования развивается, в частности, такими учеными, как А.П. Кулешов, A.B. Берпштейн, Е.В. Бурнаев, G.G. Wang

(2007), A. Forrester, A. Sobester, A. Keane (2008).

Цель диссертационной работы

Целью диссертационного исследования является разработка эффективных алгоритмов решения задачи идентификации параметров ресурсоемких математических моделей на основе методов эволюционных вычислений, ней-росетевой аппроксимации и декомпозиции области поиска решения, а также реализация разработанных алгоритмов в виде комплекса программ.

Задачи исследования

1. Разработать гибридный генетический нейросетевой алгоритм идентификации параметров ресурсоемких математических моделей объекта исследования на основе данных натурного эксперимента.

2. Разработать алгоритм формирования обучающей выборки и обучения нейронной сети в составе гибридного алгоритма.

3. Разработать алгоритм идентификации параметров больших моделей, которые можно представить в виде конечного числа слабо связашшх частей, а критерий адекватности модели (целевую функцию) — в виде суперпозиции вложенных функций.

4. Реализовать предложенные алгоритмы в виде комплекса программ и проанализировать их эффективность с помощью вычислительных экспериментов.

5. Применить разработанные алгоритмы для идентификации параметров гидродинамических моделей нефтяных месторождений.

Методы исследопания

В работе использованы методы теории оптимизации, математической статистики, мягких вычислений, искусственною интеллекта, базовые положения теории фильтрации многофазных систем.

Результаты, выносимые на защиту

1. Гибридный генетический нейросетевой алгоритм (ГА+НС) для идентификации параметров ресурсоемких моделей.

2. Алгоритм формирования обучающей выборки и обучения радиально-базисной нейронной сети в составе ГА+НС.

3. Генетический алгоритм с «вертикальными» субпопуляциями (ГА+ВСП) для идентификации параметров математических моделей ОИ с целевой функцией, представимой в виде суперпозиции вложенных функций, «существенно» зависящих от непересекающихся подмножеств множества всех аргументов ЦФ.

4. Реализация предложенных алгоритмов на языке С+ + в виде комплекса программ.

5. Результаты анализа эффективности разработанных алгоритмов и рекомендации по их применению.

Научная новизна

1. Гибридная схема ГА+НС, разработанная для решения задач идентификации параметров ресурсоемких математических моделей. Отличается интеграцией в цикл ГА нейросетевого контура, предназначенного для получения прогноза оптимального решения. Обучающая выборка для НС формируется динамически в процессе работ ы алгоритма.

2. Алгоритм формирования обучающей выборки и обучения радиально-базисной нейронной сети в составе нейросетевого контура ГА+НС. Отличается предварительной кластеризацией множества приближений с автоматическим определением количества кластеров.

3. Генетический алгоритм с вертикальными субпопуляциями, предназначенный для оптимизации целевых функций, являющихся суперпозициями вложенных функций. Отличается оптимизацией вложенных функций от меньшего числа неизвестных одновременно с поиском оптимума в пространстве всех неизвестных ЦФ.

Практическая значимость и внедрение результатов работы

Разработанные алгоритмы ГА+НС и ГА+ВСП позволяют существенно сократить время, затрачиваемое на идентификацию параметров ресурсоемких математических моделей ОИ, по сравнению с обычным ГА.

Программная реализация предложенных алгоритмов на языке С++ в виде динамически подключаемых библиотек дает возможность применять их в составе различных программных комплексов. На разработанные библиотеки получено свидетельство об официальной регистрации программы для ЭВМ.

Алгоритмы ГА+НС и ГА+ВСП используются в пакетах прикладных программ, разработанных в ООО «РН-УфаНИПИнефть», таких как программный

комплекс для гидродинамического моделирования «NGT BOS» и система автоматической адаптации моделей на базе программного комплекса MATLAB, для работы с реальными проектами разработки нефтяных месторождений, а также в исследовательских целях.

Апробация работы

Основные результаты работы докладывались и обсуждались на следующих научно-технических конференциях.

• Российский и Каспийский региональный конкурс студенческих и аспирантских работ SPE, Москва, 2006.

• Вторая региональная зимняя школа аспирантов и молодых ученых, Уфа, 2007.

• Научная сессия Государственного университета авиационного приборостроения, Санкт-Петербург, 2007.

• Четвертая Международная научно-практическая конференция «Исследование, разработка и применение высоких технологий в промышленности», Санкт-Петербург, 2007.

• Научно-практический семинар «Информационные технологии при разработке месторождений», Уфа, 2007.

• 36-я международная конференция «Современные информационные технологии в нефтяной и газовой промышленности», Коста дель Соль (Испания), 2007.

• Международная научная конференция «Параллельные вычислительные технологии (ПаВТ)», Уфа, 2010.

• Научно-практические семинары в ООО «РН-УфаНИПИнефть».

Публикации

По теме диссертации опубликовано 10 работ, в том числе 4 статьи в рецензируемых научных журналах из списка ВАК, 5 статей и материалов научно-практических конференций в других изданиях, 1 свидетельство об официальной регистрации программы для ЭВМ.

Структура и объем диссертации

Диссертационная работа изложена на 211 страницах машинописного текста и включает в себя введение, четыре главы основного материала, заключение и библиографический список из 145 наименований, излаженные на 157 страницах, а также два приложения. Работа содержит 50 рисунков и 35 таблиц.

СОДЕРЖАНИЕ РАБОТЫ

Во введении обосновывается актуальность диссертационной работы, формулируются цель и задачи исследования, обсуждается новизна и практическая значимость результатов, а также кратко излагаются содержание и основные результаты работы.

В первой главе приводится постановка задачи параметрического оценивания модели объекта исследования как задачи глобальной оптимизации.

Анализируется практическая значимость сокращения размерности пространства поиска параметров модели на примере разбиения на регионы гидродинамической модели нефтяного месторождения.

Рассматриваются особенности применения генетических алгоритмов в задачах оптимизации и основные направления их развития. Отмечается, что одним из наиболее перспективных направлений является создание гибридных алгоритмов, в частности, основанных на совместном использование ГА и нейронной сети в качестве аппроксиматора ЦФ.

Проводится обзор таких архитектур НС как многослойный персегггрон (МП) и радиально-базисная нейронная сеть (РЕПС). Проводится анализ алгоритмов обучения РБНС, в том числе на основе архитектуры каскадной корреляции С. Фальмана, дающей возможность построить сеть с минимальным количеством скрытых нейронов. Описываются классические алгоритмы кластеризации, применяемые на первом этапе обучения РБНС, и проводится анализ алгоритмов с автоматическим определением количества кластеров. Рассматриваются существующие гибридные ГА, использующие ттейроттпуто сеть в качестве аппроксиматора ЦФ, и отмечаются их недостатки.

Общие сведения об эволюционных алгоритмах и НС, описание ГА с бинарным и вещественным представлением хромосомы, различных генетических операторов, архитектуры МП и алгоритма обратного распространения ошибки (ОРО) для обучения НС содержатся в приложении А.

Во второй главе описываются разработанные гибридный генетический нейросетевой алгоритм ГА+НС и генетический алгоритм с вертикальными субпопуляциями ГА+ВСП.

В разделе 2.1 предлагается схема гибридного генетического нейросете-вого алгоритма ГА+НС (рис. 1). Она отличается от классической тем, что на каждой итерации в популяцию потомков, полученных с помощью операторов скрещивания и мутации, добавляется прогноз х* оптимального решения х", вычисленный с использованием иейросетевого контура. ГА с такой схемой, применяемый для минимизации ЦФ /(х), рассчитываемой на основе результатов моделирования, в работе называется главным. Поиск х* производится с помощью классического ГА, называемого в работе вспомогательным, для которого в качестве ЦФ используется /(х) — нейросетевая аппроксимация /(х). Операции формирования обучающей выборки и обучения НС повторяются в нейросетевом контуре на каждой итерации главного ГА.

В разделе 2.2 показывается, что применение РБНС в нейросетевом контуре ГА+НС более предпочтительно по сравнению с МП.

В разделе 2.3 описывается разработанный алгоритм обучения РБНС в составе алгоритма ГА+НС, состоящий из трех этапов.

1. Определение количества радиально-базисных функций (нейронов скрытого слоя) и первого приближения позиций их центров с помощью кластеризации входных данных с автоматическим определением количества кластеров.

2. Уточнение всех весов сети с помощью алгоритма ОРО.

Начальная инициализация

популяции основного ГА

Эволюционные операторы главного ГА

Проверка критериев останови! оптимизации

Нейросетевой контур

Моделирование I объекта иссле- j ; дования

оптимальное решение х

К*.■/(*))! ---►

Нейронная сеть

Форми|Ювание обучающего множества и области поиска

выборка iL

Обучение НС

приближения х j- !

прогноз оптимального решения X

Рисунок 1 Схема алгоритма ГА+НС

3. Возможное дополнительное обучение РБНС на основе алгоритма каскадной корреляции С. Фальмана.

Рассматривается процедура выполнения первого этапа, в результате которой также формируется обучающая выборка для алгоритма ОРО и область поиска для вспомогательного ГЛ. Входными данными для нее является множество А = {(х,/(х))} из N'^ приближений, сгенерированных главным l'A к началу итерации у, вместе с соответствующими значениями ЦФ. Процедура состоит из следующей последовательности действий.

1. Создание множества из Nb лучших приближений В с А (ограничение сверху размера обучающей выборки для РБНС, т. к. А растет неограниченно). Обозначим текущее лучшее приближение как хА (xb е В).

2. Кластеризация В с помощью разработанного алгоритма с автоматическим определением количества кластеров. Найденное число кластеров Ny определяет количество радиально-базисных функций (нейронов скрытого слоя), центры которых располагаются в центрах найденных кластеров Y = {у}.

3. Формирование обучающей выборки /. с В для второго этапа обучения РБНС. В выборку Ь попадают приближения (и соответствующие им значения ЦФ) из ЛГ/. ближайших к лучшему приближению кластеров, т. е. £ = {(Х|, /(X;)), хг € Си ¿{Хь, УО < ¿(хьУ;)> V; Й {/,}}, где - множество точек, принадлежащих у'-му кластеру с центром в точке У] : С] = {х,- б В : ¿(х,-, у;0 < (/(х,-,уЛ), У£ # ./}, а с/(х,у) — расстояние между точками х и у.

4. Определение области поиска для вспомогательного ГА, задаваемой в виде границ а = (дь • • • ,ал) и Ь = ... , /;„): а,- = , Ь; = тахг {л^,}, Ух, = (хгд, хг,2,..., хг,„) е г. Здесь 2 — множество приближений из Мг^г < ЛУ кластеров вокруг лучшего решения, определяемое аналогично 1<.

В разделе 2.4 описываются разработанные алгоритмы кластеризации с автоматическим определением количества кластеров, применяемые на первом этапе алгоритма обучения РБНС. Первый алгоритм КМ+ОА основан на методе кластеризации по к средним, а второй ВА +СА — на методе детерминированного отжига. В обоих алгоритмах классический равновероятный выбор элементов из входного множества заменяется на оператор селекции ГА, использующий значения ЦФ для каждого входного вектора. Также оба алгоритма содержат специальные шаги для удаления избыточных кластеров. Применение данных'алгоритмов позволяет построить РБНС с минимальным количеством скрытых нейронов, что обеспечивает гладкость получаемых аппроксимаций.

В разделе 2.5 описывается третий этап обучения РБНС, позволяющий дополнительно снизить ошибку обучения посредством добавления новых скрытых нейронов по методу каскадной корреляции С. Фальмана. Для добавления одного нейрона формируется множество нейронов-кандидатов, обучаемых по принципу максимизации оценки полезности нейрона. После этого наиболее полезный нейрон встраивается в РБНС по каскадному принципу, а его веса замораживаются.

В разделе 2.6 рассматривается задача идентификации параметров математических моделей ОИ, таких, что ЦФ может быть представлена в виде суперпозиции вложенных функций;

/(х) = С(Д(х),/2(х), ...,Жх)). (2)

Каждая из вложенных функций /5(х) «существенно» зависит от множества неизвестных х5 с х, х = \1 и ... и х,, а влияние на /,(х) со стороны других неизвестных ЦФ мало, т. е.:

Л(Х) = + /г8(х), й5(х) <£ £,(Х5), 5 = 1,... ,5.

Также предполагается, что в идеальном случае полностью независимых вложенных функций (/(, г 0, /, = я = 1,..., 5) оптимум / достигается в точках оптимума /,:

х°р« = агё пш /(х) = х°р' и х^ и ... и х°р1,

(3)

род1ггельская популяция

хромосома вл. функция 1

ХЦ - 1 XI „

/ v;,;. ; 1 х>„

.тд? х*.к ■*г>Л ■ 1 хгп

миграция

шжшт

шшшшш

тжжшж:.

шшшшш

популяция потомков

целевая функция вл. функция 2 д

1 Я

Итерация ГА в субпопуляции 2

Т.

миграция

Рисунок 2 — Схема итерации ГА с двумя вертикальными субпопуляциями

где

= ахё гшп //х),

хеДи

В этом случае поиск решения в пространстве параметров ЦФ можно заменить на 5 независимых оптимизаций вложенных функций меньшей размерности.

Описывается разработанный генетический алгоритм с «вертикальными» субпопуляциями (ГА+ВСП), который дает возможность быстрее, чем классический ГА, находить оптимум ЦФ вида (2) при условии (3), используя значения вложенных функций {<?! = /Хх), с]2 = /200.....Ця = Л(х)}. Вертикальная

субпопуляция, соответствующая функции /„ определяется подмножеством аргументов х5 ЦФ. Если представить основную популяцию в виде матрицы, в строках которой находятся хромосомы (приближения), то ГА+ВСП вертикально разбивает эту матрицу на субпопуляции. Суть алгоритма заключается в оптимизации каждой вложенной функции одновременно с оптимизацией /(х) с помощью отдельных ГА.

В конце очередной итерации все потомки, полученные в субпопуляциях, заменяют соответствующие подмножества аргументов в случайно выбранных приближениях го матрицы потомков основной популяции (рис. 2). Данный

шаг в работе называется миграцией. Количество таких замен регулируется экспортно задаваемыми долями миграции rs = ps/p, rs € [0,1], где ps — количество потомков, создаваемых в субпопуляции s, р — размер основной популяции. Если доли миграции для всех субпопуляций одинаковы и равны г, то при г = 0 миграция не выполняется и ГА+ВСП соответствует классическому ГА, а при г = 1 потомки основной популяции полностью заменяются случайными комбинациями потомков субпопуляций и поиск в пространстве всех неизвестных ЦФ отсутствует.

В третьей главе приводятся результаты исследования эффективности разработанных алгоритмов с помощью вычислительных экспериментов.

В разделе 3.1 кратко рассматривается разработанный комплекс программ. Приводится схема информационною взаимодействия между различными компонентами комплекса в процессе работы алгоритмов ГА+НС и ГА+ВСП. Общие сведения о разработанном программном комплексе, описание основных классов и функций, формирующих интерфейс для его использования в языках программирования С и С++, а также типовые сценарии его применения содержатся в приложепии Б.

В разделе 3.2 алгоритмы DA+GA и KM+GA тестируются на примере задачи кластеризации множества двумерных векторов х;, распределенных по нормальному закону вокруг пяти центров уj. При этом каждому х,- ставится в соответствие определенное значение ЦФ. Приводятся результаты трех вычислительных экспериментов: 1) ЦФ /(х;) = d(\:, yj), где у j — псевдослучайные вектора; 2) ЦФ Растригина (4), где у у выбраны из множества локальных минимумов ЦФ (моделируются условия, возникающие при применении алгоритмов в составе ГА+НС); 3) ЦФ Растригина (4), где у j — псевдослучайные вектора.

Обосновывается выбор алгоритма DA+GA для использования на первом этапе обучения РБНС, т. к. он в среднем точнее определяет количество центров yj, по сравнению с KM VGA, хотя он более ресурсоемок. Оба алгоритма в третьем эксперименте находят локальные минимумы функции Растригина, не совпдающие с центрами у j, за счет использования информации о значениях ЦФ.

В разделе 3.3 проводятся вычислительные эксперименты с алгоритмом ГА+НС на задаче минимизации функций Растригина и Розенброка

/ros(x) с количеством параметров п = 2,3,5,10,50,100:

п

/им(х) = Юл + Yjixj - 10 cos(2/rx;)), xopt = (0, ..., 0), (4)

ы

n-1

/rosW = j] [l00 (4t - x,)2 + (1 - X,-

,x°P, = (l, ...,1). (5)

Показывается, что в процессе минимизации ЦФ алгоритмами ГА+НС (два этана обучения), ГА+НС+ДО (три этапа, включая дополнительное обучение) и

Число параметров п = 3

Число параметров п - 50

102-8

1 20 40 60 80 100 Итерации

10"

1 20 40 60 80 100 Итерации

Рисунок 3 — Сравнение ГАтНС, ГАтНС+ДО и классического ГА в задаче минимизации функции Растригина

Число параметров п = 3

Число параметров п = 50

104

103

10°

10

— ГА+НС — • ГА+НС+ДО — ГА

у

~"" ~ ™ ™ ™1— ---------

ю6

— ГА+НС

- ■ ГА+НС+ДО

— ГА

40 60 Итерации

100

40 60 80 Ктерпцян

Рисунок 4 - Сравнение ГА+НС. ГА+НС+ДО и классического ГА в задаче минимизации функции Розенброка

классическим ГА (рис. 3 и 4) алгоритм ГА+НС+ДО превосходит классический ГА по скорости минимизации во всех экспериментах.

На основе экспериментов на функции Розенброка с 50 и 100 параметрами, где значение ЦФ улучшается алгоритмом ГА+НС+ДО на 2-3 порядка в течение первых 10 итераций, делается вывод о сравнительно более высокой эффективности нейросетевых прогнозов в начале процесса оптимизации. Подобное поведение ГА+НС+ДО дает ему важное преимущество в задачах, где ЦФ вычисляется на основе результатов ресурсоемких расчетов, т. к. позволяет остановить оптимизацию на ранней стадии, получив приемлемое по точности решение.

В разделе 3.4 проводятся вычислительные эксперименты с алгоритмом ГА+ВСП на задаче минимизации функций и Р2, каждая из которых содер-

жит три вложеттттых функции

3 3

^(х) = £ />). ^(х) - |~] /», /; - - (5 - 1) ■ с) + /г'Дх), ¿=1,2.

м 1 хеК30, х,еК10, л= 1,2,3,

где #(х) — тестовая функция с множеством локальных минимумов;

с = 100 - константа, характеризующая удаление глобальных минимумов функций g(\) друг от друга;

/г'5 - слагаемое, отражающее влияние множества всех параметров х на /,; а = 0,2 — параметр, определяющий значимость к,.

Задача решается с помощью обычного ГА и ГА+ВСП (размер популяции р = 100 приближений). Целью экспериментов является сравнение скорости оптимизации классического ГА и ГА+ВСП с различными долями миграции, одинаковыми для всех трех субпопуляций и изменяющимися в пределах от г = 0,01 до г = 1. Приводятся результаты экспериментов для трех различных функций g(x): функции Растригина gJtas(Ю, функции Розенброка ,?дол-(х) и функции Акли £Аск(х)- На рисунке 5 приведены результаты минимизации 771 И при !?(х) =

4 2 О

-2 § -4

| -8 -10 -!2 -14 -16.

Р«

ТГ=1Р

> = р,01

г = 0,2

т

г = 0,6

г -0,4.

! /¡V г= 1 \

г =0,8

"1

0 100 200 300 400 500 600 700 800 900 1000 Мтерадиа

(а) - Р

3

2.5 ?

1.5 1

0.5 О

! 1 г = 0

........рчул. г =0,01

г = 0,2 I ■ '«¡а.

°.8 г = 0,6

'О 100 200 300 400 500 600 700 800 900 1000 Итерации

(б)-Г2

Рисунок 5 — Минимизация функций Р' и Р'2 алгоритмами ГА и ГА+ВСП при ¿>(х) = ¿^(х)

Результаты экспериментов на обеих тестовых функциях показывают, что ГА+ВСП (г > 0) значительно превосходит классический ГА (г = 0) по скорости минимизации ЦФ при любых долях миграции. Однако, для нахождения глобального минимума функции Г2 доли мигратщи должны быть меньше единицы. т. к. необходим поиск во всем пространстве аргументов ЦФ.

В четвертой главе приводятся результаты применения разработанных

1 3 5 7 9 И 13 15 17 19 21 23 25 27 Итерации

Рисунок 6 — Классический ГА и ГА+НС в задаче минимизации ЦФ (6). Пунктиром выделены итерации, на которых нейросетевой прогноз становился лучшим приближением в популяции.

алгоритмов для решения задачи идентификации параметров гидродинамических моделей нефтяных месторождений, называемой также задачей адаптации модели.

В разделе 4.1 рассматриваются этапы процесса адаптации, основные подходы к решению этой задачи и цикл процесса автоматической адаптации гидродинамической модели нефтегазового месторождения.

В разделе 4.2 приводится пример определения значений пористости вокруг группы скважин в модели реального месторождения с помощью алгоритма ГА+НС. Для этого каждой скважине W,-, i = 1,...,39, ставится в соответствие множитель т*. применяемый к множеству ячеек с индексами {(х(у,, yw,, ztv,)}, содержащих ствол скважины W;. Пористость в данных ячейках вычисляется так: m(xwrywt,zwi) = «°C*wi,)'wiIz»'1) ■ tn% где т° — начальное значение пористости. Кроме того, каждый множитель влияет на соседние со стволом скважины ячейки. Степень влияния рассчитывается при помощи алгоритма Кригинга (Ordinary Kriging). Вводится ТДФ следующего вида:

f(m\, пь,..., = (Qw, - Qwiim';))2,

(6)

где <2»', — измеренное значение суммарною дебита жидкости;

О^щ = (>°Л + <2* , — суммарный дебит нефти, бил ~~ суммарный дебит воды на скважине Щ;

С>№,(щ ) — расчетное значение суммарного дебита жидкости. Моделирование влияния значений пористости па суммарный дебит жидкости на выбранных скважинах осуществляется с помощью секторной гидродинамической модели (части модели всего месторождения) для 78 скважин,

содержащей 282854 активные ячейки. Показывается, что алгоритм ГЛ+НС за 8 итераций находит решение лучше, чем классический ГА за 27 итераций (рис. 6). Оценка затраченного процессорного времени показывает, что применение алгоритма ГА+НС позволяет завершить расчет в 2,8 раза быстрее, по сравнению с классическим ГА, и сэкономить около 45 часов процессорного времени. Эти значения получены при условии одновременного расчета вариантов модели, соответствующих приближениям одной популяции ГА+НС, на кластере за время = 2,5 часа и оценке временных затрат на обмен данных с кластером и обработку результатов расчета и = 30 с на одну модель. При увеличении результат изменяется в пользу ГА+НС.

В разделе 4.3 описывается пример использования ГА+НС и ГЛ+ВСП для идентификации кривых относительных фазовых цроницаемостей (ОФП) воды и нефти секторной гидродинамической модели нефтяного месторождения. Для представления ОФП применяется следующая математическая модель:

где KrJS w) - ОФП воды; Kr0(S w) - ОФП нефти; Sw — водоиасьпценность, Sw е [0,1]; Swmín — точка минимальной водонасыщенности; Ser — точка начальной водонасыщенности (связанной воды); S0rw — точка остаточной нефтенасыщенности; Мго — ОФП нефти при минимальной водонасыщенности; Mrw — ОФП воды в точке остаточной нефтенасыщенности; ap,i,Pp е [0,4], i - 1,2 — искомые параметры. Точки SUTmn, Scr, S йг,„ задаются экспертно и не изменяются. Вектор искомых параметров х = \aw,uaw¿,pv,a0¡ua0¿,p0,Mro,Mr») определяет форму кривых ОФП. Для их идентификации используется следующая ЦФ:

где ( — индекс интересующего контрольного параметра; — номер скважины; к — индекс временного шага;

У|>(£) — измеренные значения ¡'-го параметра на скважине м>\

| х) — расчетные значения ¿-го параметра на скважине ус; о-,- — среднеквадратическое отклонение у,>(&), / = 1,...,ш, к - 1,...

т W N

,2

Итерации Итерации

(а) - Сравнение ГЛ и ГА+НС (б) - Сравнение ГЛ и ГА+ВСП

Рисунок 7 — Результаты применения ГА+НС и ГА+ВСП в задаче определения ОФП

В эксперименте с алгоритмом ГА+НС используется гидродинамическая модель для 98 скважин (4506 активных ячеек). Приводятся результаты сравнения ГА и ГА+НС в данной задаче, полученные усреднением по пяти расчетам, на каждом го которых выполнялось 10 итераций главного ГА (рис. 7, а). Из результатов следует, что применение предложенного гибридного алгоритма позволяет значительно увеличить точность найденного решения. На третьей итерации ГА+НС минимизирует ЦФ до значения, которое не достигается классическим ГА за 10 итераций. В течение первых четырех итераций приближение быстро улучшается благодаря нейросетевым прогнозам.

В эксперименге с ГА+ВС11 используется модель для 42 скважины (5501 активная ячейка), разделенная на два региона, в каждом из которых ОФП задаются отдельно. ЦФ представляет собой сумму двух функций вида (7), соответствующих выделенным регионам. Доли миграции для обеих субпопуляций ГА+ВСП равны 0,8. Приводятся результаты сравнения ГА и ГА+ВСП в этом эксперименте (рис. 7, б), также полученные усреднением по пяти расчетам. Они показывают преимущество одновременной оптимизации вложенных функций, соответствующих каждому из регионов и ЦФ, соответствующей модели в целом. Алгоритм ГА+ВСП превосходит классический ГА, достаточно быстро улучшая решение в течение первых пяти итераций. Обычный ГА за 10 итераций не может минимизировать ЦФ до значения, достигнутого при использовании вертикальных субпопуляций уже на второй итерации.

ВЫВОДЫ

1. Разработан гибридный генетический нейросетевой алгоритм (ГА+НС), в котором радиально-базисная нейронная сеть выполняет функцию аппрокси-матора ЦФ. Отличительной особенностью алгоритма является интеграция в цикл ГА нейросетевого контура, формирующего на каждой итерации нейро-сетевуто аппроксимацию ЦФ, которая используется для построения прогноза

оптимального решения с помощью другого ГЛ.

2. Разработан трехэтапный алгоритм обучения РБНС в составе нсйросе-тевого контура ГА+ИС. Отличается применением на первом этапе алгоритма кластеризащпт с автоматическим определением количества кластеров, позволяющего определить количество скрытых нейронов РБНС и первое приближение позиций центров соответствующих радиалыго-базиспых функций. На третьем этапе ошибка обучения дополнительно снижается путем добавления новых скрытых нейронов в соответствии с архитектурой каскадной корреляции С. Фальмана.

3. Разработан генетический алгоритм с вертикальными субпопуляциями (ГА+ВСП), предназначенный для оптимизации ЦФ, представляющих собой суперпозицию вложенных функций. Отличается созданием «вертикальной» субпопуляции для каждой вложенной функции и использованием результатов промежуточных расчетов значений этих функций для оптимизации каждой из них одновременно с поиском в пространстве всех неизвестных ЦФ.

4. На языке С++ разработан комплекс программ, содержащий реализации всех предложенных алгоритмов. Результаты численных экспериментов по минимизации ЦФ Растригина и Розенброка с различным числом параметров (от 2 до 100) показали, что нейросетевые прогнозы особенно эффективны в начале процесса оптимизации. Это дает возожность остановить оптимизацию на ранней стадии, получив приемлемое по точности решение, в задачах, где ЦФ вычисляется на основе результатов ресурсоемких расчетов.

5. Алгоритмы ГА+НС и ГА+ВСП были применены в задачах идентификации параметров гидродинамических моделей, таких как уточнение значении пористости в ячейках вокруг группы скважин и определение кривых относительных фазовых проницаемостей воды и нефти. Показано, что применение разработанных алгоритмов позволяет примерно в три раза сократить время, затрачиваемое на процесс идентификации указанных параметров разномасштабных гидродинамических моделей при получении решения заданной точности или найти лучшее приближение по сравнению с классическим ГА в случае ограничения времени процесса адаптации.

СПИСОК ПУБЛИКАЦИЙ

В рецензируемых журналах из списка ВАК

1. Модифицированные генетические алгоритмы с применением нейронных сетей и вертикальных субпопуляций / A.B. Гагарин // Вестник УГАТУ: науч. журнал Уфимск. гос. авиац. техн. ун-та. 2006. Т. 8, № 2 (18). С. 119-122.

2. Интеллектуальный алгоритм оптимизации параметров ресурсоемких моделей / A.B. Гагарин // Информационные технологии. 2008. Т. 137, № 1. С. 23-28.

3. Гибридный генетический нейросетевой алгоритм в задаче идентификации параметров цифровых моделей /A.B. Гагарин, Р. К. Газизов // Вестпик УГАТУ: науч. журнал Уфимск. гос. авиац. техн. ун-та. 2009. Т. 13, № 2 (35).

С. 246-255.

4. Опыт решения задачи параметрическою оценивания цифровых моделей нефтяного месторождения / А. В. Гагарин, Г. А. Макеев, Р. А. Байков, В. Г. Волков // Вестник Южно-Уральского государственного университета. 2010. Т. 211, №35. С. 12-24.

Б других изданиях

5. Применение генетического алгоритма с использованием «вертикальных» субпопуляций для определения параметров гидродинамической модели резервуара / A.B. Гагарин // Интеллектуальные системы обработки информации и управления: сборник статей 2-ой региональной зимней школы-семинара аспирантов и молодых ученых, 13-17 февраля 2007. Т. 1. Уфа: Издательство «Технология», 2007. С. 298-303.

6. Исследование генетического алгоритма с вертикальными субпопуляциями с помощью вычислительных экспериментов и применение для идентификации параметров гидродинамической модели нефтяного месторождения с несколькими регионами /A.B. Гагарин, Р. К. Газизов // Компьютерные науки и информационные технологии: сборник трудов девятой международной конференции, 9-13 сентября 2007 (CSn"2007). Т. 4. 2007. С. 71-76 (опубликовано на английском языке).

7. Интеллектуальные алгоритмы адаптации параметров гидродинамической модели резервуара / A.B. Гагарин, О.В. Надеждин // Научная сессия ГУАП, 9-13 апреля 2007 г.: сборник докладов в 3 ч. Т. 2. СПб: ГОУ ВПО «СПбГУАП», 2007. С. 75-79.

8. Применение гибрида генетического алгоритма и нейронной сети для идентификации параметров гидродинамической модели резервуара /A.B. Гагарин, О.В. Надеждин // Исследование, разработка и примените высоких технологий в промышленности: сборник трудов Четвертой Международной научно-практической конференции. Т. 11. СПб: 2007. С. 95-98.

9. Свидетельство об официальной регистрации программы для ЭВМ № 2008610656. Интеллектуальные алгоритмы оптимизации / A.B. Гагарин // М.: Роспатент. 2008.

10. Автоматизированная система идентификации параметров цифровых моделей на основе интеллектуальных алгоритмов оптимизации / Р. А. Байков, A.B. Гагарин, Р.К. Газизов, Г. А. Макеев // Интеллектуальные системы управления / Под ред. академика С.Н. Васильева. М.: Машиностроение, 2010. С. 292-300.

Диссертант

A.B. Гагарин

ГАГАРИН Александр Владимирович

ГИБРИДНЫЙ ГЕНЕТИЧЕСКИЙ НЕЙРОСЕТЕВОЙ АЛГОРИТМ ИДЕНТИФИКАЦИИ ПАРАМЕТРОВ РЕСУРСОЕМКИХ МОДЕЛЕЙ

СПЕЦИАЛЬНОСТЬ 05.13.18 Математическое моделирование, численные методы и комплексы программ

АВТОРЕФЕРАТ диссертации на соискание ученой степени кандидата технических наук

Подписано к печати 16.11.2011 г. Формат 60x84 1/16. Бумага офсетная. Печать плоская. Гарнитура Times New Roman. Усл. печ. л. 1,0. Уч.-изд. л. 0,9. Тираж 100 экз.

ФГБОУ ВПО Уфимский государственный авиационный технический

университет Центр оперативной полиграфии 450000, Уфа-центр, ул. К.Маркса, 12

Текст работы Гагарин, Александр Владимирович, диссертация по теме Математическое моделирование, численные методы и комплексы программ

61 12-5/808

ФГБОУ ВПО «Уфимский государственный авиационный технический

университет»

На правах рукописи

Гагарин Александр Владимирович

Гибридный генетический нейросетевой алгоритм идентификации параметров ресурсоемких моделей

05.13.18 - Математическое моделирование, численные методы и комплексы

программ

ДИССЕРТАЦИЯ на соискание ученой степени кандидата технических наук

Научный руководитель д. ф.-м. н., проф. Р. К. Газизов

Уфа-2011

Содержание

Введение........................................................................4

ГЛАВА 1. Анализ эволюционных алгоритмов, нейронных сетей и алгоритмов кластеризации..........................................................16

1.1. Задача параметрического оценивания..............................16

1.2. Особенности параметрического оценивания ресурсоемких моделей ..................................................................17

1.3. Генетические алгоритмы в задачах оптимизации................21

1.4. Нейронные сети в задачах аппроксимации........................24

1.5. Алгоритмы кластеризации..........................................30

1.6. Гибридные ГА, использующие нейронную сеть..................34

1.7. Основные результаты и выводы по первой главе................38

ГЛАВА 2. Интеллектуальные алгоритмы идентификации параметров ресурсоемких моделей........................................................39

2.1. Гибридная схема использования нейронной сети в составе ГА 39

2.2. Выбор архитектуры НС для использования в составе ГА+НС . 43

2.3. Алгоритм обучения РБНС в нейросетевом контуре ГА+НС . . 52

2.4. Алгоритмы кластеризации входных данных на первом этапе обучения РБНС......................................................56

2.5. Дополнительное обучение РБНС..................................76

2.6. Генетический алгоритм с вертикальными субпопуляциями . . 79

2.7. Основные результаты и выводы по второй главе................83

ГЛАВА 3. Исследование разработанных алгоритмов с помощью вычислительных экспериментов....................................................85

3.1. Краткие сведения о разработанном комплексе программ .... 85

3.2. Тестирование алгоритмов кластеризации КЛ/ЖлА и БА+ОА . 88

3.3. Тестирование ГА+НС на задаче минимизации функций Растри-гина и Розенброка....................................................94

3.4. Тестирование ГА+В СП на задаче минимизации функций ... 110

3.5. Основные результаты и выводы по третьей главе................118

ГЛАВА 4. Применение разработанных алгоритмов для идентификации параметров гидродинамических моделей нефтяных месторождений . . 120

4.1. Прямая задача теории гидродинамического моделирования . . 120

4.2. Обратная задача теории гидродинамического моделирования — адаптация модели нефтяного месторождения....................123

4.3. Подбор множителей пористости околоскважинного пространства с использованием ГА+НС ....................................128

4.4. Определение относительных фазовых проницаемостей модели резервуара с помощью ГА+НС и ГА+ВСП........................135

4.5. Основные результаты и выводы по четвертой главе..............142

Заключение......................................................................144

Список использованных источников..........................................146

Приложение А. Описание некоторых алгоритмов искусственного интеллекта ........................................................................161

А.1. Генетические алгоритмы............................................161

А.2. Нейронные сети......................................................182

Приложение Б. Описание разработанного комплекса программ .... 189

Б.1. Общие сведения......................................................189

Б.2. Модуль ha_utils......................................................191

Б.З. Модуль ha_alg........................................................198

Б.4. Краткое описание применения комплекса программ......208

Введение

Актуальность темы

Одним из важнейших инструментов прогнозирования поведения сложных объектов исследования (ОИ) является математическое моделирование с использованием полномасштабных цифровых моделей этих объектов. Оно дает возможность заменить натурный эксперимент математическим (численным) и исследовать проявление того или иного воздействия на ОИ с помощью изучения влияния параметров на математическую модель. Такой эксперимент, дополняя натурный, позволяет глубже исследовать явление или процесс и принимать наиболее обоснованные решения, сокращающие возможность ошибки.

Теория идентификации систем появилась почти одновременно с теорией автоматического управления, о чем свидетельствуют работы Н. Nyquist (1932) и Н. Bode (1945), в которых, по существу, описываются методы идентификации. В дальнейшем данным вопросом занималось множество известных ученых, таких как R. Lee (1964), G. Box, G. Jenkins (1970), A. Sage (1971), J. Mendel (1973), P. Eykhoff (1974) и др. Современное состояние данной теории представлено в монографиях таких авторов, как D. Grop (1979), JI. А. Растригин (1981), L. Ljung-(1991), Я. 3. Цыпкин (1995) и др. Идентификация ОИ с выходными сигналами у (к) - (у\(к),у2{к),... ,ут(к)), измеряемыми в дискретные моменты времени к = 1,2,..., осуществляется при помощи математической модели у = M(k | х). Выходные сигналы у (к | х) = = (yi(& I х),у2(к I х),... ,ут(к I х)) модели зависят от вектора настраиваемых параметров х е DM с R", значения которых подлежат определению. Для этого вводится целевая функция (ЦФ), отражающая качество идентификации. Часто она имеет квадратичную форму

n

£(k,x)=y(k)-j(k\x),

где W — матрица весовых коэффициентов.

Далее задача идентификации параметров ОИ сводится, как правило, к задаче минимизации ЦФ (1). Обычно она имеет множество локальных минимумов, что ограничивает применимость методов локальной оптимизации (например, градиентных) только возможной стадией уточнения решения. Поэтому в таких задачах, как правило, применяются алгоритмы с возможностями глобальной оптимизации. Разработкой детерминированных и эвристических методов глобальной оптимизации занимались С. А. Пиявский (1967), Н.П. Жидков (1968), Б. О. Шуберт (1972), Ю.Г. Евтушенко (1974), И. Федорова (1978), Р. Г. Стронгин (1978), А. V. Levy, S. Gomez (1980), А. О. Griewank

(1981), Е. Гальперин (1985), J. S. Агога (1992) и другие ученые. Стохастические алгоритмы представлены в работах N. Metropolis (1953), J. Н. Conway

(1982), A.H.G. Rinnooy Kan, C.G.E. Boender (1985), W.L. Price, M. Piccioni (1987), S. Lucidi (1988), P. Jain (1989) и многих других исследователей. Созданием и совершенствованием эволюционных алгоритмов занимались, в частности, J.H. Holland (1962), I. Rechenberg (1965), Н. Schwefel (1965), К. DeJong (1975), D. Whitley (1989), К. Deb, D. E. Goldberg (1991), Z. Michalewicz (1992), F. Herrera, M. Lozano (1998), Т. Back (2000) и др.

Развитие генетических алгоритмов (ГА) с целью ускорения эволюционного поиска в настоящее время идет по многим направлениям. К традиционным можно отнести усовершенствования основных операторов селекции, скрещивания и мутации, распараллеливание, разработку самонастраивающихся ГА. Одним из наиболее перспективных направлений является создание гибридных схем, когда ГА работает в паре с другим алгоритмом оптимизации, например с алгоритмом градиентного спуска (В. А. Тенев и Н. Б. Паклин, 2003).

Большим потенциалом обладает также использование гибридных схем с применением ГА и нейронных сетей (НС). Данному вопросу в последнее время посвящается много работ, например, A. A. Javadi, Z. Liu (2005), J.-T. Kuo (2006), Т. Morimoto, К. С. Giannakoglou (2007) и др. Подобные гибридные ал-

горитмы основаны на технике суррогатного моделирования или метамоде-лирования, предполагающей замену полномасштабной модели ОИ на значительно менее ресурсоемкую модель, приближенно воспроизводящую отклик исходной модели. Теория метамоделирования развивается, в частности, такими учеными, как А. П. Кулешов, А. В. Бернштейн, Е. В. Бурнаев, G. G. Wang (2007), A. Forrester, A. Sobester, А. Кеапе (2008).

Цель диссертационной работы

Целью диссертационного исследования является разработка эффективных алгоритмов решения задачи идентификации параметров ресурсоемких математических моделей на основе методов эволюционных вычислений, ней-росетевой аппроксимации и декомпозиции области поиска решения, а также реализация разработанных алгоритмов в виде комплекса программ.

Задачи исследования

1. Разработать гибридный генетический нейросетевой алгоритм идентификации параметров ресурсоемких математических моделей объекта исследования на основе данных натурного эксперимента.

2. Разработать алгоритм формирования обучающей выборки и обучения нейронной сети в составе гибридного алгоритма.

3. Разработать алгоритм идентификации параметров больших моделей, которые можно представить в виде конечного числа слабо связанных частей, а критерий адекватности модели (целевую функцию) — в виде суперпозиции вложенных функций.

4. Реализовать предложенные алгоритмы в виде комплекса программ и проанализировать их эффективность с помощью вычислительных экспериментов.

5. Применить разработанные алгоритмы для идентификации параметров гидродинамических моделей нефтяных месторождений.

Методы исследования

В работе использованы методы теории оптимизации, математической ста-

тистики, мягких вычислений, искусственного интеллекта, базовые положения теории фильтрации многофазных систем.

Результаты, выносимые на защиту

1. Гибридный генетический нейросетевой алгоритм (ГА+НС) для идентификации параметров ресурсоемких моделей.

2. Алгоритм формирования обучающей выборки и обучения радиально-базисной нейронной сети в составе ГА+НС.

3. Генетический алгоритм с «вертикальными» субпопуляциями (ГА+ВСП) для идентификации параметров математических моделей ОИ с целевой функцией, представимой в виде суперпозиции вложенных функций, «существенно» зависящих от непересекающихся подмножеств множества всех аргументов ЦФ.

4. Реализация предложенных алгоритмов на языке С++ в виде комплекса программ.

5. Результаты анализа эффективности разработанных алгоритмов и рекомендации по их применению.

Научная новизна

1. Гибридная схема ГА+НС, разработанная для решения задач идентификации параметров ресурсоемких математических моделей. Отличается интеграцией в цикл ГА нейросетевого контура, предназначенного для получения прогноза оптимального решения. Обучающая выборка для НС формируется динамически в процессе работы алгоритма.

2. Алгоритм формирования обучающей выборки и обучения радиально-базисной нейронной сети в составе нейросетевого контура ГА+НС. Отличается предварительной кластеризацией множества приближений с автоматическим определением количества кластеров.

3. Генетический алгоритм с вертикальными субпопуляциями, предназначенный для оптимизации целевых функций, являющихся суперпозициями вложенных функций. Отличается оптимизацией вложенных функций от меньше-

го числа неизвестных одновременно с поиском оптимума в пространстве всех неизвестных ЦФ.

Практическая значимость и внедрение результатов работы

Разработанные алгоритмы ГА+НС и ГА+ВСП позволяют существенно сократить время, затрачиваемое на идентификацию параметров ресурсоемких математических моделей ОИ, по сравнению с обычным ГА.

Программная реализация предложенных алгоритмов на языке С++ в виде динамически подключаемых библиотек дает возможность применять их в составе различных программных комплексов. На разработанные библиотеки получено свидетельство об официальной регистрации программы для ЭВМ.

Алгоритмы ГА+НС и ГА+ВСП используются в пакетах прикладных программ, разработанных в ООО «РН-УфаНИПИнефть», таких как программный комплекс для гидродинамического моделирования «NGT BOS» и система автоматической адаптации моделей на базе программного комплекса MATLAB, для работы с реальными проектами разработки нефтяных месторождений, а также в исследовательских целях.

Апробация работы

Основные результаты работы докладывались и обсуждались на следующих научно-технических конференциях.

• Российский и Каспийский региональный конкурс студенческих и аспирантских работ SPE, Москва, 2006.

• Вторая региональная зимняя школа аспирантов и молодых ученых, Уфа, 2007.

• Научная сессия Государственного университета авиационного приборостроения, Санкт-Петербург, 2007.

• Четвертая Международная научно-практическая конференция «Исследование, разработка и применение высоких технологий в промышленности», Санкт-Петербург, 2007.

• Научно-практический семинар «Информационные технологии при раз-

работке месторождений», Уфа, 2007.

• 36-я международная конференция «Современные информационные технологии в нефтяной и газовой промышленности», Коста дель Соль (Испания), 2007.

• Международная научная конференция «Параллельные вычислительные технологии (ПаВТ)», Уфа, 2010.

• Научно-практические семинары в ООО «РН-УфаНИПИнефть».

Публикации

По теме диссертации опубликовано 10 работ, в том числе 4 статьи в рецензируемых научных журналах из списка ВАК, 5 статей и материалов научно-практических конференций в других изданиях, 1 свидетельство об официальной регистрации программы для ЭВМ.

Структура и объем диссертации

Диссертационная работа изложена на 211 страницах машинописного текста и включает в себя введение, четыре главы основного материала, заключение и библиографический список из 145 наименований, изложенные на 157 страницах, а также два приложения. Работа содержит 50 рисунков и 35 таблиц.

Далее кратко излагается содержание работы.

В первой главе приводится постановка задачи параметрического оценивания модели объекта исследования как задачи глобальной оптимизации. Анализируется практическая значимость сокращения размерности пространства поиска параметров модели на примере разбиения на регионы гидродинамической модели нефтяного месторождения.

Рассматриваются особенности применения генетических алгоритмов (ГА) в задачах оптимизации и основные направления развития ГА. Отмечается, что одним из наиболее перспективных направлений является создание гибридных алгоритмов, в частности, основанных на совместном использование ГА и нейронной сети (НС) в качестве аппроксиматора ЦФ.

Проводится обзор таких архитектур НС как многослойный персептрон (МП) и радиально-базисная нейронная сеть (РБНС). Проводится анализ алгоритмов обучения РБНС, в том числе на основе архитектуры каскадной корреляции Фальмана, дающей возможность построить сеть с минимальным количеством скрытых нейронов. Описываются классические алгоритмы кластеризации, применяемые на первом этапе обучения РБНС, и проводится анализ алгоритмов с автоматическим определением количества кластеров. Рассматриваются существующие гибридные ГА, использующие нейронную сеть в качестве аппроксиматора ЦФ, и отмечаются их недостатки.

Общие сведения об эволюционных алгоритмах и НС, описание ГА с бинарным и вещественным представлением хромосомы, различных генетических операторов, архитектуры МП и алгоритма обратного распространения ошибки (ОРО) для обучения НС содержатся в приложении А.

Во второй главе описываются разработанные гибридный генетический нейросетевой алгоритм ГА+НС и генетический алгоритм с вертикальными субпопуляциями ГА+ВСП.

Предлагается схема гибридного генетического нейросетевого алгоритма ГА+НС, в котором радиально-базисная нейронная сеть выполняет функцию аппроксиматора ЦФ. Отличительной особенностью алгоритма является интеграция в цикл ГА нейросетевого контура, формирующего на каждой итерации нейросетевую аппроксимацию ЦФ, которая используется для построения прогноза оптимального решения с помощью другого ГА.

Показывается, что применение РБНС в нейросетевом контуре ГА+НС более предпочтительно по сравнению с МП. Описывается трехэтапный алгоритм обучения РБНС в составе алгоритма ГА+НС. Отличительной особенностью первого этапа является кластеризация множества приближений разработанными алгоритмами с автоматическим определением количества кластеров и позиций их центров, используемых в качестве первого приближения координат центров радиально-базисных функций активации нейронов скрытого слоя. На

втором этапе все веса сети уточняются с помощью классического алгоритма обратного распространения ошибки (ОРО). Рассматривается процедура выполнения первого этапа, в результате которой также формируется обучающая выборка для алгоритма ОРО и область поиска для вспомогательного ГА.

Описываются разработанные алгоритмы кластеризации ОА+СА и КМ+ОА с автоматическим определением количества кластеров, применяемые на первом этапе алгоритма обучения РБНС. В обоих алгоритмах классический равновероятный выбор элементов из входного множества заменяется на оператор селекции ГА, использующий значения ЦФ для каждого входного вектора. Также оба алгоритма содержат специальные шаги, предназначенные для удаления избыточных кластеров. Применение данных алгоритмов позволяет построить РБНС с минимальным количеством скрытых нейронов, что обеспечивает гладкость получаемых аппроксимаций.

Предлагается третий этап обучения РБНС, позволяющий дополнительно снизить ошибку обучения посредством добавления новых скрытых нейронов по методу каскадной корреляции С. Фальмана.

Рассматривается задача идентификации параметров математических моделей ОИ, таких, что ЦФ может быть представлена в виде суперпозиции вложенных функций. Каждая вложенная функция «существенно» зависит от подмножества всех аргументов ЦФ, а влияние на �