автореферат диссертации по информатике, вычислительной технике и управлению, 05.13.17, диссертация на тему:Разработка и исследование генетических алгоритмов для принятия решений на основе многокритериальных нелинейных моделей

кандидата технических наук
Исаев, Сергей Александрович
город
Нижний Новгород
год
2000
специальность ВАК РФ
05.13.17
Диссертация по информатике, вычислительной технике и управлению на тему «Разработка и исследование генетических алгоритмов для принятия решений на основе многокритериальных нелинейных моделей»

Оглавление автор диссертации — кандидата технических наук Исаев, Сергей Александрович

Введение.

Глава 1. Математические модели принятия решений и методы их вычислительной реализации.

§ 1.1 Существующие методы поиска оптимальных решений.

§ 1.2 Эволюционно-генетические подходы к принятию оптимальных решений.

§ 1.3 Основные принципы работы ГА и их исследование.

Глава 2. Общая схема генетического алгоритма и основные вопросы его практической реализации.

§ 2.1 Представление решений в виде битовых строк.

§ 2.2 Структура нового ГА и формирование начальной совокупности решений.

§ 2.3 Создание новых решений на основе генетических операторов «кроссовера» и «мутации».

§ 2.4 Механизмы селекционного отбора получаемых решений.

§ 2.5 Особенности поиска глобальных решений в многоэкстремальных моделях принятия решений.

§ 2.6 Тестовые задачи и вычислительный эксперимент. Влияние параметров ГА на эффективность поиска.

Глава 3. Модификация генетического алгоритма для решения задач с ограничениями.

§ 3.1 Особенности применения ГА для решения задач с ограничениями.

§ 3.2 Методы штрафов.

§ 3.3 Применение метода замены переменных.

§ 3.4 Тестовые задачи и вычислительный эксперимент.

Глава 4. Модификация генетического алгоритма для решения задач многокритериальной оптимизации.

§ 4.1 Построение области компромиссов и области эффективных решений.

§ 4.2 Модификация модели представления оптимально-компромиссных решений в ГА.

§ 4.3 Специальные операторы селекционного отбора оптимально компромиссных решений.

§ 4.4 Тестовые задачи и вычислительный эксперимент.

Глава 5. Программная система для решения нелинейных и многокритериальных задач оптимизации SERGA 5.0.

§ 5.1 Общие характеристики системы и ее возможности.

§ 5.2 Работа в режиме поиска.

§ 5.3 Визуализация поведения ГА в процессе поиска.

§ 5.4 Создание библиотеки задач пользователя в модулей на языке PASCAL.

Глава 6. Сравнение генетического алгоритма с приближенно-оптимальным алгоритмом для решения одного класса задач.

§ 6.1 Постановка задачи и свойства классов оптимизируемых функций.

§ 6.2 Приближенно-оптимальный алгоритм, основанный на минимаксном подходе.

§ 6.3 Вычислительный эксперимент.

Введение 2000 год, диссертация по информатике, вычислительной технике и управлению, Исаев, Сергей Александрович

Актуальность темы исследований

Задача поиска оптимальных решений не нова. Думаю, не ошибусь, если скажу, что задача эта возникла тогда, когда человек для достижения своей цели получил возможность выбора из возможных альтернатив.

Заявленная в названии модель по сути включает в себя три класса задач

- задачи безусловной многомерной многоэкстремальной оптимизации,

- задачи невыпуклого нелинейного программирования,

- задачи поиска компромиссных решений для нескольких критериев.

К настоящему времени каждый из трех классов представлен множеством различных методов и алгоритмов. Большинство из которых основаны на использовании свойств рассматриваемого класса задач. Включение дополнительной информации о свойствах исследуемых моделей безусловно способствовало тому, что появлялись мощные и высокоэффективные алгоритмы, но сфера их применимости ограничивалась часто только узким классом задач.

Методам глобальной оптимизации посвящены работы Ю.Г.Евтушенко, И.Б.Моцкуса, Р.Г.Стронгина, А.Г.Сухарева, С.А.Пиявский, А.Г.Жилинскаса, Д.И.Батищева, М.А.Потапова и др.

Вопросы поиска решений в задачах с ограничениями исследованы в работах Франка и Вульфа (квадратичное программирование), Гурвица (метод множителей Лагранжа для выпуклых задач), Куранта (метод штрафных функций), Ф.П.Васильева, Б.Н.Пшеничного, Зойтендейка, Е.Г.Голынтейна, Д.Б.Юдина, А.С.Антипина, Д.Химмельбау, Рокафеллара и ДР

Методы решения задач с несколькими критериями описаны в работах Ю.Б.Гермейера, Д.И.Батищева, И.М.Соболя, Статникова, В.Д.Ногина, В.В.Падиновкого и ДР

Однако, применительно в реальным задачам большинство из «классических» методов были неприменимы, потому что требовалось четкое описание, четкая формализация класса этой задачи. Четкая формализация приводила к тому, что фактически для решения каждого класса задач требовался свой подход. Кроме того, в классе задач оптимизации часто возникает много «неприятных» моментов, сопряженных с

- многоэкстремальностью,

- невыпуклыми ограничениями,

- несвязными областями допустимых решений,

- и др.

Одним из направлений, позволившим создать универсальные и достаточно мощные алгоритмы для широкого класса задач, было использование методов эволюционных вычислений (подкласс методов случайного поиска). У нас в стране этим занимались Л.А.Растригин, Ю.И.Неймарк, И.Л.Букатова, А.Г.Ивахненко, М.Цыпкин, Д.Б.Юдин и др.

Методы ЭВ не гарантируют обнаружения глобального решения за полиномиальное время. Однако от этого практический интерес к ним не ослабевает, а наоборот усиливается. Объяснить это можно тем, что методы ЭВ позволяют найти более хорошие или «рациональные» решения очень трудных практических задач поиска за меньшее время, чем другие, обычно применяемые в этих случаях, методы. Конечно, термин «хорошие» или «рациональные» не строг в математическом смысле. Под «рациональными» решениями нами понимаются решения, которые удовлетворяют исследователя. Ведь в большинстве реальных задач нет особой необходимости находить именно глобальный оптимум. Чаще всего целью поисков являются решения, удовлетворяющих определенным ограничениям, например, запас прочности конструкции не должен быть менее какой-либо заданной величины. В этом смысле достаточно найти именно «рациональное», т.е. разумное решение. Вторая немаловажная причина роста популярности ЭВ заключается в стремительном росте производительности современных компьютеров.

Идей использования генетической модели передачи наследуемой биологической информации, хорошо исследованной генетиками, позволили создать гигантский спектр генетических алгоритмов (ГА).

Сначала идеи генетики при решении задач оптимизации использовались для адаптации алгоритма оптимизации. Например, в работах Неймарка предлагался подход, связанный с адаптацией коллектива автоматов, оптимизирующих дискретный объект. Начиная с работ Холланда (1975) и ДеЯнга, генетическими алгоритмами стали называть алгоритмы, моделирующие природную эволюцию в пространстве оптимизируемых параметров, а не в пространстве параметров алгоритма поиска. Однако в нашей стране эти идеи не нашли пока должного внимания, хотя по всему миру проходит множество конференций посвященных ЭВ и ГА, выпускаются монографии и учебники, издаются г бюллетени и журналы. Цель работы

Цель работы заключается в создании мощного, достаточно универсального алгоритма для решения широкого класса задач оптимизации, основанного на едином подходе, относящемся к методам эволюционных вычислений (ГА).

Научная новизна

Предложена методика, позволяющая за счет использования методов штрафов и специальных операторов многокритериального отбора сводить заявленный класс задач к единой задаче поиска на гиперкубе.

Разработана новая символьная модель алгоритма, отличная от традиционной.

Изменена структура традиционного генетического алгоритма, позволившая повысить эффективность поиска.

Предложен ряд операторов, более адекватных новой символьной модели.

Исследованы вопросы, связанные с управлением операторами алгоритма в процессе поиска. Показано влияние различных операторов на поведение алгоритма в одном из трех режимов (быстрый поиск одного решения, локализация нескольких решений и описание ландшафта исследуемой модели).

Предложен подход, основанный на использовании штрафных функций, для решения задач с невыпуклыми несвязными областями допустимых решений, задаваемых несколькими системами ограничений.

И наконец, разработан специальный оператор отбора, позволяющий для задач с несколькими критериями равномерно выстраивать решения вдоль парето - границы.

Теоретическая и практическая ценности работы

Разработанный метод может использоваться в качестве элемента систем САПР и АСУ для оптимизации параметров проектируемых систем и систем управления. Особый интерес представляет его использование в случаях, когда принятие решений осуществляется в интерактивном режиме, т.е. там, где пользователь имеет возможность оперативно взаимодействовать с вычислительной системой на любом этапе решения своей задачи.

Полученные результаты могут быть использованы для дальнейших работ по повышению эффективности генетического алгоритма. В частности, при изучении возможности самоадаптации операторов ГА в процессе поиска. Планируется, что предложенный алгоритм станет одним, достаточно мощным блоком комплекса программ для решения широкого спектра задач: от задачи коммивояжера и разрезания графов до сложных смешанных дискретно-непрерывных моделей.

Апробация результатов

Результаты диссертации докладывались и обсуждались на Всероссийском совещании-семинаре "Математическое обеспечение высоких технологий в технике, медицине и образовании" (Воронеж, 1995г.), на Всероссийском совещании-семинаре "Математическое обеспечение информационных технологий в технике, образовании и медицине". (Воронеж, 1996г.), на Всероссйской конференции "Математическое программирование и приложения" (Екатеринбург, 1997г.), на Международной конференции "Новые информационные технологии в науке, образовании и бизнесе" (Гурзуф, 1997г.), на Всероссийском совещании-семинаре "Математическое обеспечение информационных технологий в технике, образовании и медицине" (Воронеж, 1997г.), на Всероссийском совещании-семинаре "Высокие технологии в региональной информатике" (Воронеж, 1998г.), на Международной научной конференции "Оптимизация численных методов" (Уфа, 1998г.), на Всероссийской научно-практической конференции "Компьютерная геометрия и графика" (Н.Новгород, 1998г.), на XII Международной конференции "Проблемы теоретической кибернетики" (Н.Новгород, 1999г.), на семинарах кафедры информатики и автоматизации научных исследований факультета ВМН ННГУ.

Структура и объем работы

Работа состоит из введения, шести глав, списка литературы и приложения. Общий объем работы составляет 165 страниц. Список литературы составляет 177 наименование. Основные результаты излагаются в главах 2, 3, 4 и 5.

Краткое содержание работы

Во введении обосновывается актуальность проблемы, указывается место генетических алгоритмов (ГА) в общем классе методов оптимизации. Обсуждаются преимущества и недостатки, а также основные сферы применимости ГА в сравнении с 6 традиционными «классическими» методами оптимизации.

В Главе 1 приводится обзор существующих математических моделей ринятия решений. В § 1.1 описаны некоторые наиболее известные методы поиска оптимальных решений для рассматриваемого класса задач. История появления и этапы развития эволюционных методов приводятся в § 1.2. Особое место уделено работам отечественных ученых, посвященных проблемам случайного поиска и автоматным моделям. Там обсуждаются сферы применимости ГА, т.е. когда применение ГА может оказаться более выгодным по сравнению с традиционными подходами. В § 1.3 приводится обзор различных эволюционно-генетических подходов к решению трех классов задач: безусловной многоэкстремальной оптимизации, нелинейного программирования и многокритериального выбора. Обсуждаются их преимущества и недостатки при решении определенного класса задач.

В Главе 2 описана общая схема предлагаемого генетического алгоритма в сравнении с генетическим алгоритмом Холланда-Гольдберга. Сформулировано понятие задачи поиска в пространстве бинарных структур. В § 2.1 предложена новая символьная модель генетического алгоритма, позволяющая использовать более короткие бинарные кодировки, что в свою очередь значительно сужает пространство поиска. Введено понятие «фенотипа». Там же формулируется геометрическая интерпретация символьной модели генетического алгоритма и проводятся базовые понятия теории шим. В заключении параграфа дается краткий обзор нетрадиционных для ГА подходов, использующих недвоичные кодировки решений. Структура нового ГА и правила формирования начальной совокупности решений приводятся в § 2.2. В § 2.3 представлена реализация основных генетических операторов для генерации новых решений: «кроссовера» и «мутации». Приводится описание одноточечного, двухточечного и равномерного кроссовера, точечной мутации. Отдельно рассмотрен вопрос формирования «родительских» пар. Предложено несколько правил: «панмиксия», «аутбридинг» и «инбридинг». Обсуждаются вопросы эффективности различных операторов для различных задач и на различных этапах поиска. Затрагивается вопрос реализации механизмов управления выбором операторов в процессе поиска. В § 2.4 приводятся несколько схем естественного отбора. Обсуждаются вопросы эффективности этих подходов, в том числе при решении многоэкстремальных проблем. В § 2.5 предлагаются несколько новых, более адекватных новой символьной модели, схем естественного отбора. Приводятся некоторые вероятностные оценки появления и выживания в популяции субоптимальных, т.е. максимально похожих на оптимальные, решений при использовании элитного отбора и равномерного кроссовера. Предложена методика, позволяющая не используя нишевые операторы, локализовывать несколько решений многоэкстремальных задач. Тестовые задачи и вычислительный эксперимент с использованием новых подходов описан в § 2.6. Там же обсуждаются вопросы влияния различных операторов на поведение и эффективность алгоритма. Показаны условия, при которых алгоритм способен решать одну из трех задач (быстрый поиск одного решения, или локализация нескольких максимумов, или описание ландшафта целевой функции.

Глава 3 посвящена применению ГА для решения задач невыпуклого нелинейного программирования с одним критерием. В § 3.1 приводится постановка задачи многопараметрического нелинейного программирования. В общем случае исследуемая многопараметрическая функция может быть многоэкстремальной, недифференцируемой, нелипшицируемой, допускается также нефункциональное задание этой функции.

Допустимая область, задаваемая нелинейными ограничениями, может быть невьшуклой и состоящей из нескольких компонент связности. Описаны основные операторы используемого алгоритма и предложены два эвристических приеме^, препятствующих преждевременной сходимости алгоритма: динамическое изменение длины кодировки на разных этапах поиска и макромутация, возникающая в популяции, если алгоритм перестает улучшать лучшее найденной решение. В § 3.2 описано применение алгоритма для решения задач с ограничениями, используя методы штрафных сверток. Предлагается новый способ, который достаточно легко модифицируется для нескольких систем ограничений, поскольку при решении реальных задач часто возникает ситуация, когда допустимая область S является объединением нескольких областей SP: S = U SP, р = 1, 2,. к, каждая элементарная область SP задается некоторым набором ограничений: {gjP, g2p, •••gmpP}- В этом случае строится обобщенное ограничение G(x) = min {max {h,1, ., h ml'}, шах { V, ., hm22}, . max { h,k, ., hmkk},}, где hp = max {gp, 0}. На базе обобщенного ограничения мы строим следующие штрафные функции

В §3.3 рассмотрена возможность сведения ряда задач с ограничениями к задаче безусловной оптимизации путем замены переменных. На классе тестовых примеров в § 3.4 подтверждена эффективность предложенного метода.

В Глава 4 обсуждаются вопросы модификации алгоритма для построения приближения парето-оптимальной области в задачах с несколькими критериями. В § 4.1 ставится задача построения области компромисов и парето-границ для многокритериальных моделей. В § 4.2 вводится модификация символьной модели алгоритма для векторной функции приспособленности. Специфика нового класса задач привела к необходимости создания специальных операторов многокритериального отбора. Главное отличие новых операторов заключается в использовании принципа доминируемости решений. На случай, когда количество несравнимых (недоминируемых) решений превышает текущий размер популяции, предложена дополнительных процедура, позволяющая из всего множества несравнимых решений выбирать только те, которые равномерно распределены вдоль парето-границы, Также вводится специальное множество, в котором до последнего поколения поиска накапливаются отбрасываемые недоминируемые решения. В § 4.3 на классе бикритериальных тестовых примеров проиллюстрирована работоспособность предложенных подходов.

В Главе 5 приводится описание программного комплекса для решения всех трех классов задач. Общие возможности программы, класс решаемых задач, необходимые системные требования указаны в §5.1. В §5.2 даются рекомендации по настройке операторов алгоритма для решения одного из классов задач. Описан порядок работы в различных режимах поиска решений: одиночный запуск или сбор статистической информации, с различными критериями остановки алгоритма. В § 5.3 приводится описание реализованных средств визуализации хода поиска и найденных решений. Правила подключения внешних модулей для новых оптимизационных задач пользователя указаны в § 5.4.

И, наконец, Глава 6, где приводятся результаты экспериментально-теоретического

J 0, если G(X) = 0 ]A*G(X), если G(X)>0

0, если G(X) = О A*G(X)P, если G(X) > 0 ' где А - константа штрафа. где А, Р - константы. сравнения предложенного алгоритма с приближенно-оптимальным алгоритмом, постороенном на минимаксном подходе. Приближенно оптимальный алгоритм строился для одного класса задач с четко сформулированными свойствами. Целью исследований была проверка того, на сколько генетический алгоритм окажется более (или менее) эффективным инструментом поиска по сравнению с приближенно-оптимальным минимаксным алгоритмом в случае: а) если два параметра, определяющие свойства целевой функции, известны точно и б) если эти параметры заданы неверно. В § 6.1 формулируются свойства рассматриваемого класса задач. В § 6.2 приводится описание приблженно-оптимального алгоритма. Результаты вычислительного эксперимента приведены в § 6.3.

Основные результаты

Сформулированы правила сведения к задаче поиска в пространстве бинарных структур.

Предложена новая структура алгоритма и ряд генетических операторов.

Рассмотрен вопрос выбора генетических операторов и механизмы управления в процессе поиска.

Показано влияние операторов алгоритма на эффективность решения трех классов задач.

Разработана модификация алгоритма для решения задач нелинейного программирование с использованием функций штрафа и замены переменных. Для задач, допустимая область которых описывается несколькими системами ограничений, реализована свертка в обобщенное ограничение.

Разработана модификация алгоритма для задач с несколькими критериями, предусматривающая построение равномерно распределенного приближения парето-оптимальной границы.

Создан программный комплекс и проведены исследования на классах тестовых задачах.

Публикации

По теме диссертации опубликовано 17 работ, 3 работы направлены в печать.

Основные результаты диссертации опубликованы в следующих работах [113, 114, 115, 116,117,118,119,120,121,122,145,146,150,151,152,153, 154].

Заключение диссертация на тему "Разработка и исследование генетических алгоритмов для принятия решений на основе многокритериальных нелинейных моделей"

Выводы

Из таблицы видно, что генетический алгоритм проигрывает приближенно-оптимальному алгоритму только для некоторых функций только тогда, когда оптимально подобраны параметры К и р (0/1). Если же предварительная информация о свойствах исследуемых функций была задана неточно, то генетический алгоритм почти во всех случаях оказывался более эффективным методом поиска как по скорости (количеству оценок функции), так и по точности. Еще раз заметим, что ГА не использовал никакой информации о свойствах функции.

Заключение

В диссертационной работе представлен комплексный подход для решения трех классов задач непрерывной оптимизации:

1. Задачи безусловной оптимизации многопараметрических многоэкстремальных функций, определенных на гиперпараллелепипеде.

2. Задачи нелинейного программирования, для решения которых предложены две схемы. Первая схема предусматривает использование функции штрафа для недопустимых решений. Представлена модификация штрафной функции для случая с несколькими системами ограничений за счет построения так называемого обобщенного ограничения. Вторая схема (для ограничений типа равенство) предполагает использование замены переменных. Замена переменных позволяет уменьшить размерность пространства поиска, но зачастую существенно искажает ландшафт целевой функции. В работе рассмотрен класс задач оптимизации на сфере единичного радиуса.

3. Задачи поиска компромиссных решений и построения Парето-оптимальных областей в многокритериальных моделях. Предложена модификация символьной модели алгоритма и некоторых генетических операторов отбора. Рассматриваются несколько эвристических процедур, направленных на равномерное распределение множества решений вдоль Парето-границы в пространстве критериев.

В основе процедур для решения этих трех классов задач лежит единый алгоритм, основанный на эволюционно-генетическом подходе, моделирующим некоторые процессы живой природы: размножение, мутацию и естественный отбор.

Эффективность предложенного подхода оценена на классе тестовых примеров, широко используемых среди ГА исследователей и. практически, нерешаемых «классическими» методами.

В главе 6 предпринята попытка сравнить предложенный генетический алгоритм с «классическим» минимаксным подходом, на классе многомерных функций, определяемых своими мажорантами. Показано, что ГА всегда оказывался более эффективной процедурой поиска глобального решения, если не удавалось подобрать оптимальные параметры для минимаксного подхода.

И, наконец, разработана программная система принятия оптимальных и компромиссных решений, позволяющая подключать в виде внешних модулей и решать в диалоговом режиме сложные задачи нелинейной многокритериальной оптимизации.

Итак, в заключении хотелось бы еще раз остановиться на том, в чем собственно заключается новизна подхода, изложенного в работе и в чем состоят основные результаты.

1. Предложен новый подход к формированию символьной модели алгоритма. Это в первую очередь включение в модель «фенотипов» решений и за счет этого оказалось возможным использование более коротких бинарных строк представлений.

2. Использован новый способ формирования начальной популяции решений по принципу максимального побитового разнообразия.

3. Предложен новая структура генетического алгоритма. Изменен порядок выполнения генетических операторов и включено в алгоритм репродукцонное множество, накапливающее новые решения перед отбором.

4. Разработан ряд новых генетических операторов, позволяющих локализовывать несколько глобальных решений.

5. Исследован вопрос выбора генетических операторов и механизмы управления в процессе поиска.

6. Показано, как за счет настройки параметров алгоритма можно решать три класса задач (быстрый поиск одного, локализация нескольких решений или описание ландшафта целевой функции).

7. Реализована модификация алгоритма для решения задач нелинейного программирование с использованием функций штрафа и замены переменных. Для задач, допустимая область которых описывается несколькими системами ограничений, разработана свертка в обобщенное ограничение

8. Реализована модификация алгоритма для задач с несколькими критериями, предусматривающая построение равномерно распределенного приближения парето-оптимальной границы в пространстве параметров и области компромиссов в пространстве критериев.

9. Создан программный комплекс и проведены исследования на классах тестовых задачах.

Библиография Исаев, Сергей Александрович, диссертация по теме Теоретические основы информатики

1. Altenberg L. The schema theorem and Price's theorem. 1. L.D. Whitley and M.D. Vose, editors, Foundations of Genetic Algorithms, volume 3, San Mateo, CA, 1995. Morgan Kaufmann.

2. Back T. (1995) Generalized convergence models for tournament and (m A,)-selection. In L.Eshelman, editor, Proceeding of The Sixth International Conference on Genetic Algorithms (ICGA, 95), San Francisco, CA, 1995.

3. Back T., Hoffmeister F., Schwefel H.-P. A survey of evolution strategies. In R.K.Belew and L.B.Booker, editors, Proceedings of the Fourth International Conference on Genetic Algorithms, pages 2—9, San Mateo, CA, 1991. Morgan Kaufmann.

4. Bean J. C., Hadj-Alouane A.B. (1992). A dual genetic algorithm for bounded integer programs. Technical Report TR 92-53, Department of Industrial and Operations Engineering, The University of Michigan.

5. Beasley D., Bull D. R., Martin R. R. A sequential niche technique for multimodal function optimization. Evolutionary Computation, 1(2), 101—125.

6. Bertsekas D.P. Multiplier methods: a survey. Automatica, 1976, № 12, pp.133-145.

7. Bertsekas D.P. On the method of multipliers of convex programming. IEEE Trans. Autom. Contr., 1975, v. 20, pp.385-388.

8. Bethke A.D. Genetic algorithms as function optimizers (Doctoral dissertation, University of Michigan). Dissertation Abstracts International, 41(9), 3503B. (University Microfilms No. 8106101)

9. Bilchev G., Parmee I. (1995). Ant colony search vs. genetic algorithms. Technical report, Plymouth Engineering Design Centre, University of Plymouth.

10. Booker L.B. (1985). Improving the performance of genetic algorithms in classifier systems. Proceedings of an International Conference on Genetic Algorithms and Their Applications, 80-92.

11. Booker L.B. Improving search in genetic algorithms. In L. Davis, editor, Genetic Algorithms and Simulated Annealing, chapter 5, pages 61—73. Pitman, 1987.

12. Caruana R.A., Schaffer J.D. Representation and hidden bias: Gray vs. binary coding for genetic algorithms. In Fifth International Conference on Machine Learning, pages 153— 161, Los Altos, CA, June 12-14 1988. Morgan Kaufmann.

13. Colorni A., Dorigo M., Maniezzo V. (1991). Distributed optimization by ant colonies. In Proceedings of the First European Conference on Artificial Life, Paris. MIT Press/Bradford Book.

14. Davis L. Genetic Algorithms and Simulated Annealing. Pitman, 1987.

15. Davis L. Handbook of genetic algorithms. New York: Van Nostrand Reinhold, 1991.

16. De Jong K.A. An analysis of the behavior of a class of genetic adaptive systems (Doctoral dissertation, University of Michigan). Dissertation Abstracts International, 36(10), 5140B. (University Microfilms No. 76-9381), 1975.

17. De Jong K.A., Sarma J. On decentralizing selection algorithms. Proceedings of the Sixth International Conference on Genetic Algorithms. Pittsburg, PA: Morgan Kaufmann, 1995, pages 17-23.

18. Deb K. (1991). Binary and floating-point function optimization using messy geneticalgorithms (Doctoral dissertation, University of Alabama). Dissertation Abstracts International, 52(5), 2658B.

19. Dennis J.E., More J.J. Quasi-Newton methods, motivation and theory. SIAM Review, 1977, v.19 № l.pp. 46-89.

20. Eshelman L.J., Caruana R.A, Schaffer J.D. Biases in the crossover landscape. In J.D. Schaffer, editor, Proceedings of the Third International Conference on Genetic Algorithms, pages 10-19, San Mateo, CA, June 4-7 1989. Morgan Kaufmann.

21. Eshelman L.J., Schaffer J.D. Real-coded genetic algorithms and intervalschemata. In L.D. Whitley (Ed.), Foundations of genetic algorithms, 2 (pp. 187—202). San Mateo: Morgan Kaufmann.

22. Fletcheer R., Reeves C.M. Function minimization by conjugate gradients. Comput.J., 1964, v. 7, №2, pp. 149-154.

23. Fletcher R., Powell M.J.D. A rapidly convergent descent method for minimization. -ComputJ., 1963, v. 6, № 2, pp. 163-168.

24. Fogel L.J., Owens A.J., Walsh M.J. Artificial Intelligence Through Simulated Evolution. John Wiley and Sons, New York, 1966.

25. Forrest S. Genetic algorithms. In A. B. Tucker, editor, CRC Handbook of Computer Science and Engineering. CRC Press, Boca Raton, FL.

26. Frank M., Wolfe Ph., Algorithm for quadratic programming. Naval Res. Log. Quart., 1956, v. 3,№l-2,pp. 95-110.

27. Garcia-Palomares U.M., Mangasarian O.L. Superlinearly convergent quasi-Newton algorithms for nonlinearly constrained optimization problems. Math. Progr., 1976, v. 11, № 1, pp.1-13.

28. Glover F. (1977). Heuristics for integer programming using surrogate constraints. Decision Sciences 8 (1), 156—166.

29. Goldberg D.E. Genetic Algorithms in Search, Optimization, and Machine Learning. Addison-Wesley, Reading, MA, 1989.

30. Goldberg D.E. Real-coded genetic algorithms virtual alphabets and blocking. Complex Systems, 5, 139-167.

31. Goldberg D.E. Sizing populations for serial and parallel genetic algorithms. In J.D. Schaffer, editor, Proceedings of the Third International Conference on Genetic Algorithms, pages 70-79. Morgan Kaufmann, 1989.

32. Goldberg D.E., Deb K., Clark J.H. Genetic algorithms noise and the sizing of populations. Complex Systems, 6, 333—362.

33. Goldberg D.E., Deb K., Korb B. (1990). Messy genetic algorithms revisited: Studies in mixed size and scale. Complex Systems, 4, 415—444.

34. Goldberg D.E., Deb K., Korb B. Don't worry, be messy. In R.K.Belew and L.B.Booker, editors, Proceedings of the Fourth International Conference on Genetic Algorithms, pages 24-30, San Mateo, CA, 1991. Morgan Kaufmann.

35. Goldberg D.E., Richardson J. (1987). Genetic algorithms with sharing for multimodal function optimization. Genetic algorithms and their applications: Proceedings of the Second International Conference on Genetic Algorithms, 41-49.

36. Goldberg D.E., Smith R.E. (1987). Nonstationary function optimization using genetic algorithms with dominance and diploidy. Genetic algorithms and their applications: Proceedings of the Second International Conference on Genetic Algorithms, 59-68.

37. Goldstein A.A. Convex programming in Hilber space. Bull. Amer. Math. Soc., 1964, v.70, №5, pp. 709-710.

38. Grossman Ch., Kaplan A.A. Strafmethoden und modifizierte Lagrangefunktionen in der nichtlinearen Optimierung. Leipzig: BSB B.G. Teunbner Verlag, 1979.

39. Grosso P.B. (1985). Computer simulation of genetic adaptation: Parallel subcomponent interaction in a multilocus model (Doctoral dissertation, University of Michigan). (University Microfilms No. 8520908)

40. Haarhoff P.C., Buys J.D. A new methods for the optimization of a nonlinear function subject to nonlinear constraints. Comput. J. 1970, v. 13, № 2, pp.178-184.

41. Han S.P. Superlinearly convergent variable metric algorithm for general nonlinear programming problem. Math. Progr., 1976, v. 11, № 3, pp.263-282.

42. Harik G. (1993). Finding multiple solutions in problems of bounded difficulty (IlliGAL Report No. 94002). Urbana: University of Illinois, Illinois Genetic Algorithms Laboratory.

43. Harik G. (1995). Finding multimodal solutions using restricted tournament selection. Proceedings of the Sixth International Conference on Genetic Algorithms, pages 24—31, Pittsburg, PA, 1995. Morgan Kaufmann.

44. Harp S.A., Samad T. Genetic synthesis of neural network architecture. In L. Davis, editor, Handbook of Genetic Algorithms, chapter 15, pages 202—221. Van Nostrand Reinhold, 1991.

45. Hestenes M.R. Conjugate direction methods in optimization. N.Y. Heidelberg; Berlin: Springer, 1980.

46. Hestenes M.R. Multiplier and gradient methods. J. Optim. Theory Appl., 1969, v. 4, № 5, pp.303-320.

47. Hestenes M.R., Stiefel E. Methods of conjugate gradients for solving linear systems. J. Res. Nat. Bur. Stand. USA, 1952, v. 49, № 6, pp. 409 - 436.

48. Hillis W.D. (1990). Co-evolving parasites improve simulated evolution as an optimization procedure. Physica D, 42, 228-234.

49. Holland J.H. Adaptation in Natural and Artificial Systems. MIT Press, Cambridge, MA, 2nd edition, 1992.

50. Holland J.H. Adaptation in Natural and Artificial Systems. University of Michigan Press, Ann Arbor, MI, 1975.

51. Holland J.H. Genetic algorithms and classifier systems: foundations and future directions. In J.J. Grefenstette, editor, Proceedings of the Second International Conference on Genetic Algorithms, pages 82—89. Lawrence Erlbaum Associates, 1987.

52. Homaifar A., Lai S. H.-Y., Qi X. (1994). Constrained optimization via genetic algorithms. Simulation 62 (4), 242-254.

53. Horn J., Goldberg D.E., Deb K. (1994). Implicit niching in a learning classifier system: Nature's way. Evolutionary Computation, 2(1), 37—66.

54. Horn J., Nafpliotis N. (1993). Multiobjective optimization using the niched Pareto genetic algorithm (IlliGAL Report No. 93005). Urbana: University of Illinois, Illinois Genetic Algorithms Laboratory.

55. Huang H.G. Unified approach to quadratically convergent algorithms for function optimization. J. Optim. Theory Appl., 1970, v. 5, № 6, pp. 405-423.

56. Janikow C.Z., Michalewicz Z. An experimental comparison of binary and floating point representations in genetic algorithms, Proceedings of the Fourth International Conference (ICGA 1991), pages 31--36, Morgan Kaufmann, 1991.

57. Jones T. Crossover macromutation and population-based search. Proceedings of the Sixth International Conference on Genetic Algorithms.

58. Kelly J., Laguna M. (1996, April 8). Genetic Algorithms Digest. V10nl6.

59. Kelly J.E. The cutting-plane method for solving convex program. J. SI AM, 1960, v. 8, № 4, pp. 703-712.

60. Koza J.R. (1992) Genetic programming: on the programming of computers by means of natural selection. The MIT Press, Cambridge, Massachusetts, 1992.

61. LeRiche R. G., Knopf-Lenoir C., Haftka R. T. (1995). A segragated genetic algorithm for constrained structural optimization. In L. J. Eshelman (Ed.), Proceedings of the 6 th International Conference on Genetic Algorithms, pp. 558—565.

62. Louis S.J., Rawlins G.J.E. Syntactic analysis of convergence in genetic algorithms. In L.D. Whitley (Ed.), Foundations of genetic algorithms, 2 (pp. 141—151). San Mateo: Morgan Kaufmann.

63. Mahfoud S.W. (1992). Crowding and preselection revisited. In R. MEanner & B. Manderick (Eds.), Parallel problem solving from nature, 2 (pp. 27-36). Amsterdam: Elsevier.

64. Mahfoud S.W. (1994b). Crossover interactions among niches. Proceedings of the First IEEE Conference on Evolutionary Computation, IEEE World Congress on Computational Intel- ligence, 188-193.

65. Mangasarian O.L. Nonlinear programming. -N.Y.: McGrawHill, 1969.

66. Michalewicz Z. Genetic Algorithms + Data Structures = Evolution Programs. SpringerVerlag, New York, 2nd edition, 1994.

67. Michalewizc Z. Genetic algorithms, numerical optimization, and constraints. Proceeding of the Sixth ICGA, 1995, pp.151-158.

68. Michalewicz Z., C. Z. Janikow (1991). Handling constraints in genetic algorithms. In R. K. Belew and L. B. Booker (Eds.), Proceedings of the 4 th International Conference on Genetic Algorithms, pp. 151-157. Morgan Kaufmann.

69. Michalewicz Z., N. Attia (1994). Evolutionary optimization of constrained problems. In Proceedings of the 3 rd Annual Conference on Evolutionary Programming, pp. 98-108. World Scientific.

70. Miller B.L., Shaw M.J. (1995) Genetic algorithms with dinamic niche sharing formultimodal faction optimization. (IlliGAL Report No. 95010). Urbana: University of Illinois, Illinois Genetic Algorithms Laboratory.

71. Mitchell M. An Introduction to Genetic Algorithm. MIT Press, Cambridge, MA, 1996.

72. Muhlenbein H., Shlierkamp-Voosen D. (1993) Predictive models for the breeder genetic algorithm. Evolutionary Computation, 1(1), 1993.

73. Nondifferentiable optimization /Math. Prog. Study 3. Eds. M.Balinski, P.Wolfe. -Amsterdam: North Holland, 1975

74. Nonlinear optimization, theory and algorithms /Eds. L.C.W.Dixon, E.Spedicato, G.P.Szego. Boston, 1980.

75. Nonsmooth optimization /Proc. IIASA Workshop, 1977. Eds. C.Lemarechal, R.Mifflin. -Oxford: Pergamon Press, 1978.

76. ParedisJ. (1994). Coevolutionary constraint satisfaction. In Y. Davidor, H.-P. Schwefel, and R. Manner (Eds.), Proceedings of the 3 rd Conference on Parallel Problems Solving from Nature, pp. 46-55. Springer Verlag.

77. Parmeel. (1996). Cluster-Oriended Genetig Algorithms (COGAs) for the identification of high-performance regions of design spaces. First International Conference on Evolutionary Computation and Its Applications, EvGA'96, pp.66-75.

78. Parmee I., G. Purchase (1994). The development of directed genetic search technique for heavily constrained design spaces. In Proceedings of the Conference on Adaptive Computing in Engineering Design and Control, pp. 97—102. University of Plymouth.

79. Powell D., M. M. Skolnick (1993). Using genetic algorithms in engineering design optimization with non-linear constraints. In S. Forrest (Ed.), Proceedings of the 5 th International Conference on Genetic Algorithms, pp. 424—430. Morgan Kaufmann.

80. Powell M.J.D. A method for nonlinear constraints in minimization problems. In: Optimization. /Ed. R.Fletcher. London: Acad. Press, 1969, pp.283-298.

81. Reynolds R. (1994). An introduction to cultural algorithms. In Proceedings of the 3 rd Annual Conference on Evolutionary Programming, pp. 131—139. World Scientific.

82. Ritzel B. (1992). Genetic Algorithms in multiple objective optimization. Unpublished analytical class project for GE 493, University of Illinois at Urbana-Champaing, Spring 1992.

83. Robinson S.M. A quadratically convergent algorithm for general nonlinear programming problems. Math. Progr., 1972, v. 3, № 2, pp.145-156.

84. Rockkafellar R.T. The multiplier method of Hestenes and Powell applied to convex programming. J. Optim. Theory Appl., 1973, v. 12, pp.555-562.

85. Sannier A.V., Goodman E.D. (1987). Genetic learning procedures in distributed environments. Genetic algorithms and their applications: Proceedings of the Second International Conference on Genetic Algorithms, 162—169.

86. Schaffer J.D. (1984). Some experiments in machine learning using vector evaluated genetic algorithms. Unpublished doctoral dissertation, Vanderbilt University, Nashville.

87. Schaffer J.D. (1985). Multiple objective optimization with vector evaluated genetic algorithms. Proceedings of an International Conference on Genetic Algorithms and Their Applications, 93 ~ 100.

88. Schaffer J.D., Morishma A. An adaptive crossover distribution mechanism for genetic algorithms. In J.J. Grefenstette, editor, Proceedings of the Second International Conference on Genetic Algorithms, pages 36-40. Lawrence Erlbaum Associates, 1987.

89. Schoenauer M., S. Xanthakis (1993). Constrained GA optimization. In S. Forrest (Ed.), Proceedings of the 5 th International Conference on Genetic Algorithms, pp. 573—580. Morgan Kaufmann.

90. Schraudolph N.N., Belew R.K. Dynamic parameter encoding for genetic algorithms. Machine Learning, 9(1):9~21, June 1992.

91. Schwefel H.-P. Numerische optimierung von computer-modellen mittels der evolutionsstrategie. Interdisciplinary systems research, 26,1977. Birkhinauser, Basel.

92. Shorrocks B. (1979). The genesis of diversity. Baltimore: University Park Press.

93. Smith A., D. Tate (1993). Genetic optimization using a penalty function. In S. Forrest (Ed.), Proceedings of the 5 th International Conference on Genetic Algorithms, pp. 499— 503. Morgan Kaufmann.

94. Smith R.E. Adaptively resizing populations: An algorithm and analysis. Proceedings of the Fifth International Conference on Genetic Algorithms, 653.

95. Smith R.E., Forrest S., Perelson A.S. Population diversity in an immune system model: Implications for genetic search. In L.D. Whitley (Ed.), Foundations of genetic algorithms, 2 (pp. 153—165). San Mateo: Morgan Kaufmann.

96. Spears W.M., DeJong K. An analysis of multi-point crossover. In G.J.E. Rawlins, editor, Foundations of Genetic Algorithms, pages 301—315. Morgan Kaufmann, 1991.

97. Surry P., N. Radcliffe I. Boyd (1995). A multi-objective approach to constrained optimization of gas supply networks. In T. Fogarty (Ed.), Proceedings of the AISB-95 Workshop on Evolutionary Computing, Volume 993, pp. 166—180. Springer Yerlag.

98. Syswerda G. Uniform crossover in genetic algorithms. In J.D. Schaffer, editor, Proceedings of the Third International Conference on Genetic Algorithms, pages 2—9. Morgan Kaufmann, 1989.

99. Towards global optimization /Eds. L.C.W.Dixon, G.P.Szego. Amsterdam: North Holland, 1975.

100. Wierzbicki A.P. A penalty function shifting methods in constrained static optimization and its convergence properties. Archiw. Autom. i Telemech., 1971, v. 16, № 4, pp. 395-416.

101. Wolfe P. Methods for nonlinear constraints. In: Nonlin. Progr. /Ed. J.Abadie. Amsterdam: North-Holland, 1967, pp.120-131.

102. Zilinskas A. On statistical models for multimodeloptimization. Math. Operations. Stat., ser. Stat., 1978, v. 9, № 2, pp. 255-266.

103. Антипин A.C. Метод градиентного типа для отыскания седловой точки модифицированной функции Лагранжа. Эконом, и матем. методы, 1977, т. 13, № 3, с. 560-565.

104. Батищев Д.И. Методы оптимального проектирования. -М.: Радио и связь, 1984.

105. Батищев Д.И. Поисковые методы оптимального проектирования. М.: Сов радио, 1975.

106. Батищев Д.И., Исаев С.А. Решение задач математического программирования с помощью эволюционных вычислений. / Тезисы доклада на Всеросс. конференции "Математическое программирование и приложения". Екатеринбург, УрО РАН 1997г. стр. 29.

107. Батищев Д.И., Исаев С.А. Оптимизация многоэкстремальных функций с помощью генетических алгоритмов./Межвузовский сборник научных трудов "Высокие технологии в технике, медицине и образовании", Воронеж, ВГТУ, 1997г, стр.4-17.

108. Батищев Д.И., Исаев С.А. Решение задач нелинейной оптимизации с помощью репродукционно-популяционных алгоритмов. / Тезисы доклада на XII Международной конференции "Проблемы теоретической кибернетики". Н.Новгород, 1999г.

109. Батищев Д.И., Исаев С.А. Решение многокритериальных задач с помощью генетических алгоритмов. / Материалы Всеросс. научно-практической конференции "Компьютерная геометрия и графика". Н.Новгород, НГТУ, 1998г. стр. 100-101.

110. Батищев Д.И., Исаев С.А., Ремер Е.К. Эволюционно-генетический подход к решению задач невыпуклой оптимизации. / Межвузовский сборник научных трудов "Оптимизация и моделирование в автоматизированных системах", Воронеж, ВГТУ, 1998г, стр.20-28.

111. Батищев Д.И., Исаев С.А., Таланина Е.К. Задачи оптимизации на сфере. / Тезисы доклада на Всеросс. конференции "Интеллектуальные информационные системы". Воронеж, ВГТУ 1999г. стр.77-78.

112. Батищев Д.И., Львович Я.Е., Фролов В.Н. Оптимизация в САПР. Воронеж: Издательство Воронежского государственного университета, 1997.

113. Батищев Д.И., Скидкина JI.H., Трапезникова Н.В. Глобальная оптимизация с помощью эволюционно генетических алгоритмов / Мужвуз. сборник, ВГТУ, Воронеж, 1994.

114. Бахвалов Н.С. Численные методы. М.: Наука, 1973.

115. Букатова И.JI. Эволюционное моделирование и его приложения. М.: Наука, 1979.

116. Букатова И.Л., Михасев Ю.И., Шаров A.M. Эвоинформатика: теория и практика эволюционного моделирования. -М.: Наука, 1990.

117. Булатов В.П. Методы погружения в задачах оптимизации. Новосибирск: Наука, 1977.

118. Буш Р., Мостеллер Ф. Стохастические модели обучения. М.: Физматгиз, 1962.

119. Вайнберг М.М. вариационный метод и метод монотонных операторов в теории нелинейных уравнение. М.: Наука, 1972.

120. Васильев Ф.П. Лекции по методам решения экстремальных задач. М.: МГУ, 1974.

121. Волин Ю.М., Островский Г.М. Метод штрафных функций и необходимые условия оптимальности. В кн.: Управляемые системы. Вып. 9, Новосибирск: СО АН СССР, 1971.

122. Гельфанд И.М., Цетлин М.Л. О некоторых способах управления сложными системами. Успехи матем наук, 1962, т. 17, в. 1.

123. Гельфанд И.М. Цетлин М.Л. Принцип нелокального поиска в системах автоматической оптимизации. Докл. АН СССР, 1961, т. 137, № 2, с. 295-298.

124. Голынтейн Е.Г., Третьяков Н.В. Модифицированные функции Лагранжа. Эконом и матем методы, 1974, т. 10, № 3, с.568-591.

125. Гупал A.M. Стохастические решения негладких экстремальных задач. Киев.: Наукова Думка, 1979.

126. Демьянов В.Ф. Минимакс: дифференцируемость по направлениям. Л.: ЛГУ, 1974.

127. Демьянов В.Ф., Малоземцев В.Н. Введение в минимакс. М.: Наука, 1972.

128. Демьянов В.Ф., Рубинов A.M. приближенные методы решения экстремальных задач. -Л.: ЛГУ, 1968.

129. Еремин И.И., Астафьев H.H. Введение в теорию линейного и выпуклого программирования. -М.: Наука, 1976.

130. Ермольев Ю.М. методы стохастического программирования. М.: Наука, 1976.

131. Зойтендейк Г. Методы возможных направлений. М.: ИЛ, 1963.

132. Зуховицкий С.И., Авдеева Л.И. Линейное и выпуклое программирование. М.: Наука, 1967.

133. Ивахненко А.Г. Самообучающиеся системы распознавания и автоматического управления. Киев.: Техника, 1969.

134. Исаев С.А. Генетический алгоритм для решения задач нелинейной многокритериальной оптимизации. / Сборник "Вестник ННГУ". Н.Новгород, 1999г, стр. 260.

135. Исаев С.А. Многокритериальный генетический алгоритм. / Тезисы доклада на Всеросс. конференции "Интеллектуальные информационные системы". Воронеж, ВГТУ 1999г. стр.54.

136. Карлин С. Математические методы в теории игр, программировании и экономике. -М.: ИЛ, 1964.

137. Карманов В.Г. Математическое программирование. М.: Наука, 1975

138. Катковник В.Я. Линейные оценки и стохастические задачи оптимизации. М.: Наука, 1976.

139. Коротченко А.Г., Исаев С.А. Бикритериальная задача построения алгоритмов оптимизации. Вестник Нижегородского Государственного университета, ННГУ, 1997, с.149-159.

140. Коротченко А.Г., Исаев С.А. О бикритериальной задаче построения экстремума для одного класса функций. / Информационный бюллетень Ассоциации математического программирования. Вып. 7. Екатеринбург, УрО РАН 1997г. стр. 138-139.

141. Коротченко А.Г., Исаев С.А. Приближенно-оптимальные алгоритмы поиска экстремума для некоторых классов функций. / Тезисы доклада на Международной научной конференции "Оптимизация численных методов". Уфа: ИМВЦ УНЦ РАН, 1998г. стр.49-51.

142. Левитин Е.С., Поляк Б.Т. Методы минимизации при наличии ограничений. Журн. вычисл матем и матем физ., 1966, т.6, № 5, с. 787-823

143. Моисеев H.H., Иванилов Ю.П., Столярова Е.М. Методы оптимизации. — М.: Наука, 1978.

144. Моцкус И.Б. Многоэкстремальные задачи в проектировании М.: Наука, 1967.

145. Мухин В., Неймарк Ю., Ронин Е. Автоматная оптимизация с эволюционной адаптацией. В сб.: Проблемы случайного поиска. В. 2. Рига: Зинатне, 1973.

146. Мухин В.И., Неймарк Ю.И., Ронин Е.И. автоматная оптимизация с эволюционной адаптацией. В сб. «Проблемы случайного поиска», № 2, Рига: Знание, 1973, с.83-97.

147. Неймарк Ю., Григоренко В., Рапоппорт А. Исследования одной модели коллективного поведения. Изв. ВУЗов. Радиофизика, 1970, № 8.

148. Неймарк Ю., Григоренко В., Рапоппорт А. Об оптимизации независимыми детерминированными и стохастическими автоматами. В кн.: Прикладная математика и кибернетика. Горький: Изд-во ГГУ, 1967.

149. Немировский A.C., Юдин Д.Б. сложность задач и эффективность методов оптимизации. -М.: Наука, 1980.

150. Нурминский Е.А. численные методы решения детерминированных и стохастических минимаксных задач. Киев: Наукова Думка, 1979.

151. Ортега Дж., Рейнболд В. Итерационные методы решения нелинейных систем уравнений со многими неизвестными. М.: Мир, 1975.

152. Островский A.M. Решение уравнений и систем уравнений. М.: ИЛ, 1963.

153. Полак Э. Численные методы оптимизации. Единый подход. М.: Мир, 1974.

154. Поляк Б.Т. Методы минимизации функции многих переменных: обзор. Эконом и матем методы, 1967, т.З, № 6, с.881-902.

155. Пшеничный Б.Н. Алгоритмы для общей задачи математического программирования. Кибернетика, 1970, № 5, с.120-125.

156. Пшеничный Б.Н. Выпуклый анализ и экстремальные задачи. М.: Наука, 1980.

157. Пшеничный Б.Н., Данилин Ю.М. численные методы в экстремальных задачах. М.: Наука, 1975.

158. Растригин JI.А. Системы экстремального управления. М.: Наука, 1974.

159. Растригин Л.А. Случайный поиск в эволюционных вычислениях. — В сб.: Обозрение прикладной и промышленной математики, 1996, т. 3, № 5, с.688-705.

160. Растригин Л.А. Статистические методы поиска. М.: Наука, 1968.

161. Растригин Л.А., Рипа К. Автоматная теория случайного поиска. Рига: Зинатне, 1973.

162. Растригин Л.А., Самченко А. Использование механизмов эволюции для решения задач оптимизации. В кн.: Динамика систем. Динамика и управление. Горький: Изд-во ГГУ, 1984.

163. Рокафеллар Р.Т. Выпуклый анализ. М.: Мир, 1973.

164. Саульев В.К.,Самойлова И.И. Приближенные методы безусловной оптимизации функции многих переменных. В кн.: (Итоги науки и техники) Матем анализ Т.П. М.:ВИНИТИ, 1973, с.91-128.

165. Cea Ж. Оптимизация. Теория и алгоритмы. М.: Мир, 1973.

166. Стронгин Р.Г. Поиск глобального оптимума. М.: Знание, 1990.

167. Стронгин Р.Г. Численные методы в многоэкстремальных задачах. — М.: Наука, 1978.

168. Сухарев А.Г. Оптимальный поиск экстремума. М.: МГУ, 1975.

169. Третьяков Н.В. Метод штрафных оценок для задач выпуклого программирования. Эконом и матем методы, 1973, т. 9, № 3, с. 526-540.

170. Федотова И.Е. Поиск глобального оптимума в многоэкстремальных задачах. В кн.: Теория оптимальных решений. Вып. 4. Вильнюс: Институт математики и кибернетики, 1978, с.93-101.

171. Фиакко А., Мак-Кормик Дж., Нелинейное программирование: методы последовательной безусловной минимизации. М.: Мир, 1972.

172. Хемминг Р.В. численные методы для научных работников и инженеров. М.: Наука, 1968.

173. Химмельблау Д. Прикладное нелинейное программирование. М.: Мир, 1975.

174. Цетлин М.Л. Исследования по теории автоматов и моделированию биологических систем. М.: Наука, 1969.

175. Цыпкин Я.З. Основы теории обучающихся систем. М.: Наука, 1970.

176. Численные методы условной оптимизации /Под ред. Ф.Гилла, У.Мюррея. М.: Мир, 1977.

177. Шор Н.З. Методы минимизации недифференцируемых функций и их приложения. -Киев.: Наукова Думка, 1979.

178. Эльстер К.-Х., Гроссман X. Решение нелинейных оптимизационных задач с помощью штрафных и барьерных функций. В кн.: Примен исслед опер в эконом. М.: Экономика, 1977, с.95-161.

179. Эрроу К.Дж., Гурвиц Л., Удзава X. Исследования по линейному и нелинейному программированию. -М.: ИЛ, 1962.

180. Юдин Д.Б. Методы количественного анализа сложных систем. I. Изв. АН СССР. Сер тех киберн., 1966, № 1, с.3-16.