автореферат диссертации по информатике, вычислительной технике и управлению, 05.13.10, диссертация на тему:Нейросетевые модели для управления инвестициями в финансовые инструменты фондового рынка
Автореферат диссертации по теме "Нейросетевые модели для управления инвестициями в финансовые инструменты фондового рынка"
4В4УОо»
На правах рукописи
УДК 519 86, 519.7!
КРАТОВИЧ ПАВЕЛ ВАЛЕРЬЕВИЧ
НЕЙРОСЕТЕВЫЕ МОДЕЛИ ДЛЯ УПРАВЛЕНИЯ ИНВЕСТИЦИЯМИ В ФИНАНСОВЫЕ ИНСТРУМЕНТЫ ФОНДОВОГО РЫНКА
Специальность 05.13.10 управление в социальных и экономических системах
АВТОРЕФЕРАТ на соискание учёной степени кандидата технических наук
1 6 и ЮН 2011
Тверь - 2011
4849837
Работа выполнена на кафедре компьютерной безопасности и математических методов управления Тверского государственного университета
Научный руководитель
доктор физико-математических наук профессор
Андреева Елена Аркадьевна
Официальные оппоненты:
доктор технических наук профессор Семенов Николай Александрович
доктор технических наук профессор Воробьев Владимир Анатольевич
Ведущая организация Российский государственный гуманитарный университет
Защита состоится «01» июля 2011 г, в 12-00 ч. на заседании диссертационного совета Д 212,263.04 в Тверском государственном университете по адресу: 170002. Тверь. Садовый пер, 35, ауд. 200
С диссертацией можно ознакомиться в научной библиотеке Тверского государственного университета по адресу. 170000, Тверь, ул. Володарского, 44а.
Объявление о защите диссертации и автореферат опубликованы на официальном сайте Тверского государственного университета по адресу: 1)11р://шн'уег5|'1у.< versLi.nl/aspiiaiils/abstracls/.
Автореферат разослан "01" июня 2011 г.
Ученый секретарь диссертационного совета, доктор физико-математических наук доцент
С М. Дудаков
ОКЩАЯ -ХАРАКТЕРИСТИКА РАБОТЫ
Актуальность исследования
Для управления инвестициями в финансовые инструменты фондового рынка необходимо осуществить, прогнозирование биржевых котировок финансовых инструментов, сформировать инвестиционный портфель, формализовать правила открытия и закрытия позиции: по каждому финансовому инструменту, определить правила управления капиталом, а также критерии их эффективности. На рынке программных продуктов и систем представлено большое количество программ, решающих задачи прогнозирования временных рядов, внутреннего, налогового, управленческого и депозитарного учета операций с ценными бумагами. Большинство представленных программ являются узкоспециализированными продуктами, которые отличают высокие аппаратные требования, существенные затраты на внедрение, сопровождение и интеграцию с имеющейся информационной инфраструктурой инвестиционных компаний и банков, а также недоступность для частных инвесторов. Таким образом, разработка комплекса программ для решения всего комплекса задач связанных с управлением инвестициями на фондовом рынке, отвечающего потребностям как частных инвесторов, так и инвестиционных банков и управляющих компаний является актуальной прикладной задачей.
Одной из основных задач, решаемых в процессе управления инвестициями на фондовом рынке, является построение моделей прогнозирования динамики временных рядов котировок финансовых инструментов. Для решения задачи прогнозирования в работе построены различные модели на основе искусственных нейронных сетей. В силу того, что нейронные сети используются во многих областях научных и прикладных исследований, выбор оптимальной структуры сетей и алгоритмов их обучения применительно к конкретной предметной области является актуальной научной задачей.
В целях совершенствования методов и повышения качества инвестиционной деятельности па фондовом рынке актуальным является построение нсйросстевых моделей для прогнозирования динамики котировок финансовых инструментов, выявление особенностей их применения и реализации, а также разработка на их основе комплекса программ).,который благодаря модульной структуре, простоте внедрения и сопровождения, а также невысоким аппаратным требованиям был бы востребован как профессиональными управляющими, так и частными инвесторами для управления инвестициями на фондовом рынке.
Целью работы является разработка методики применения нейросетевых моделей для прогнозирования динамики временных рядов котировок финансовых инструментов и построение на их основе комплекса программ для управления инвестициями на фондовом рынке.
Задачи исследования:
1. Разработать методику применения нейронных сетей для описания динамики временных рядов котировок финансовых инструментов на фондовом рынке.
2. Разработать и реализовать па основе аппарата нейронных сетей адаптивные комбинации моделей прогнозирования временных рядов.
3. На основе построенных моделей разработать комплекс программ поддержки принятия решений по управлению инвестициями в финансовые инструменты фондового рынка.
Методы исследования. При решении поставленных задач в работе применялись методы нелинейного программирования, метод обратного распространения ошибки, алгоритм кластеризации по к средним и эконометрические методы.
При разработке комплекса программ, проведении вычислительных экспериментов и визуализации результатов использовались следующие программные продукты: Microsoft Excel, Borland Delphi 7.0.
Положения, выносимые на защиту:
1. Разработаны однослойные нейронные сети для моделирования динамики временных рядов и прогнозирования котировок финансовых инструментов фондового рынка.
2. С помощью аппарата однослойных нейронных сетей построены адаптивные комбинации моделей прогнозирования временных рядов.
3. Построены нейронные сети на основе радиальных базисных функций для прогнозирования временных рядов котировок финансовых инструментов.
4. Построены нейронные сети на основе многослойного персептрона для моделирования динамики временных рядов и прогнозирования котировок финансовых инструментов.
5. Разработан комплекс программ для управления инвестициями в финансовые инструменты фондового рынка, основанный на нейросетевых моделях прогнозирования, теории портфельного инвестирования Марковица и выработанных формальных правилах принятия инвестиционных решений и управления капиталом.
6. Выработана методика оценки эффективности комплекса программ для управления инвестициями на фондовом рынке.
Научная новизна и теоретическая значимость
Научная новизна диссертационного исследования заключается в разработке и развитии целостного теоретического, методологического и инструментального обеспечения на основе нейронных сетей для математического моделирования, анализа и прогнозирования временных рядов. Теоретическая значимость исследования отражена в следующих положениях:
1. На основе теории и методологии нейронных сетей, построены однослойные и многослойные модели для анализа и прогнозирования временных рядов котировок акций.
2. Выработаны и опробованы рекомендации по оптимизации процесса обучения нейронных сетей по алгоритму обратного распространения ошибки, позволяющие улучшить результаты прогнозирования динамики временных рядов, включая уравнения для вычисления адаптивного шага обучения и модификацию целевого функционала в алгоритме обратного распространения.
3. С помощью аппарата однослойных нейронных сетей проведено построение адаптивных комбинаций моделей прогнозирования.
4. Выработана методика оценки эффективности комплекса программ для управления инвестициями в финансовые инструменты фондового рынка.
Практическая значимость
В среде программирования Borland Delphi 7.0 разработан комплекс программ для управления инвестициями в финансовые инструменты фондового рынка, основанный на нейросетевых моделях прогнозирования, теории портфельного инвестирования Марковица и выработанных формальных правилах принятия инвестиционных решений и управления капиталом.
Основные положения, выводы, рекомендации, модели, методы и алгоритмы, рассмотренные в диссертации, ориентированы на широкое использование финансовыми учреждениями и разработчиками информационно-аналитических систем для поддержки принятия управленческих решений в процессе инвестиционной деятельности на фондовом рынке.
Достоверность и обоснованность
Достоверность и обоснованность полученных результатов базируется на использовании апробированных численных и аналитических методов исследования; применении документально обоснованных исходных данных по объектам приложений разработанных моделей и методов и соответствии результатов численных экспериментов фактическим данным.
Апробация работы
Основные результаты диссертации и отдельные её положения были представлены на семинарах ВЦ РАН по оптимальному управлению, а также в докладах на кафедре компьютерной безопасности и математических методов управления ТвГУ (2006-2010 гг.).
Эффективность предложенных методов, алгоритмов, моделей и программ подтверждена расчетами на реальных временных рядах котировок акций российских эмитентов на ММВБ. Разработанный комплекс программ для управления инвестициями в финансовые инструменты фондового рынка, а также отдельные рекомендации, вытекающие из диссертации, приняты к внедрению в ОАО «ГУТА-БАНК», где используются для планирования и осуществления деятельности профессион&чьного участника фондового рынка, что подтверждено актом о внедрении.
Основные положения работы внедрены в учебный процесс и лежат в основе разработанного на кафедре КБ и ММУ курса «Математическое моделирование нейронных сетей».
Публикации
По материалам диссертации опубликовано 9 печатных работ, среди них 3 - в изданиях, рекомендованных ВАК Минобрнауки РФ.
Структура и объём работы
Диссертация состоит из введения, трёх глав основного текста, заключения, списка использованной литературы, изложена на 165 страницах и имеет 2 приложения. В диссертации 38 рисунков и 26 таблиц, отражающих результаты численного моделирования. Список литературы включает 63 источника, из них 30 отечественных, 33 зарубежных.
КРАТКОЕ СОДЕРЖАНИЕ РАБОТЫ
Во введении обоснована актуальность темы диссертационного исследования, сформулирована цель и задачи работы, описана структура и дан краткий обзор исследования, изложены основные научные и практические результаты, выносимые на защиту.
В первой главе рассматриваются модели на основе нейронных сетей и их применение в задаче прогнозирования динамики временного ряда и формирования адаптивных комбинаций моделей прогнозирования.
Задача моделирования нейронной сети рассмотрена как дискретная задача оптимального управления.
Рассмотрим дискретную нейросетевую модель, в которой переход из /-го состояния в (/ +1) -е осуществляется по следующему правилу:
/-1
с фазовыми ограничениями / = 1,», / = 0, </.
Весовые коэффициенты выбираются из условия минимума функции
'И=+2>< («1* ■
1=0 1=1 /=.1
Построить нейронную сеть, способную решать конкретную задачу, - это значит определить топологию связей нейронной сети, веса связей , функции активации /,, целевой функционал /(»). Нейросетевая модель приобретает свои свойства в процессе обучения, которое включает в себя либо определение значений весовых коэффициентов синаптических узлов, либо специальных правил, по которым весовые коэффициенты могут быть изменены в зависимости от отклика конкретной нейронной сети.
Способность нейронных сетей после обучения к обобщению и пролонгации результатов создает потенциальные предпосылки для построения на их основе различного рода прогнозирующих систем. В работе исследована схема применения однослойных нейронных сетей для прогнозирования на примере временного ряда котировок акций ОАО «Сбербанк» за период с 12.01.09 по 12.07.09 г. (всего 125 значений).
Пусть дан временной ряд котировок акций по цене закрытия х(1) на промежутке < = 1,7\ Тогда задача прогнозирования состоит в том, чтобы найти продолжение временного ряда на неизвестном промежутке, т. е. необходимо определить дг(7" + 1), х(Т+2) и так далее.
Совокупность известных значений временного ряда образует обучающую выборку, размерности Т. Для формирования примеров для обучения используется метод «скользящего окна». Он характеризуется длиной окна р, что соответствует количеству элементов ряда, одновременно подаваемых на нейронную сеть. Следовательно, модель однослойной нейронной сети для решения задачи прогнозирования, состоит из р распределительных нейронов и одного выходного нейрона. Для рассматриваемой задачи размерность обучающей выборки - 110, размерность тестовой -15.
В качестве критерия для оценки отклонения прогноза от истинного значения используется ошибка, рассчитываемая по формуле:
1 ' 1х(/)-х(/)1
/.' = _yi_L!—lil. 100%,
(О
где х(/)- прогнозное значение /-го элемента временного ряда, х(/)- фактическое значение /-го элемента, г - размерность тестовой выборки.
Для определения ошибки в направлении тренда на каждом шаге прогноза вычисляется процент угаданных знаков.
На Рис. 1 представлены наилучшие результаты однодневного прогноза динамики временного ряда котировок акций ОАО «Сбербанк» по цене закрытия на пятнадцатидневном интервале с помощью однослойных нейронных сетей с различными функциями активации.
1 2 Э 4 5 6 7 S 9 10 11 12 13 14 15
номер торгового д|
-Прогнозныезначения ~
(а)
- Фактические значения |
1
-»-Г 1
----------------j
1 2 3 4 5
Прогнозные значения т^Г" Фактические значения J (б)
Рис.1: Однодневный прогноз: (а) - сигмоидальная функция активации, а =0,01, ошибка £ = 2,2115%; (б)- функция активации гиперболический тангенс, а =0.01; Л'= 2,3498%
Любые из существующих моделей прогнозирования динамики нестационарных временных рядов опираются на различные априорные предположения о природе нестационарности, тем самым, являясь в той же степени эвристическими, что и стационарные модели. Таким образом, более универсальной представляется идея совместного использования нескольких моделей прогнозирования. В этом случае принимается следующая гипотеза: ряд может переходить из одного состояния в другое, причем в каждом состоянии его поведение хорошо описывается одной из стандартных моделей.
Пусть для прогнозирования временного ряда ,г(/) / = 1,...,Г, используются р базовых моделей прогнозирования Прогноз в момент времени t
вычисляется по модели h с использованием информации доступной на интервале [1,/-1].
Построим модель a(t) как линейную комбинацию базовых моделей прогнозирования:
"(0 = 2>.(0&,(0; ¿»'.(0 = 1, ' = !,.. ,7' (2)
М ¿-1
Веса моделей прогнозирования w,(t), используемые для прогнозирования в момент времени вычисляются по данным предыстории из интервала [1,<-1]. Комбинацию моделей прогнозирования (2) будем называть динамически адаптируемой, так как веса обновляются в каждый момент времени непосредственно перед вычислением прогноза.
В диссертационной работе рассмотрены следующие модели динамической адаптации весов.
1. Выбор наилучшей модели по последнему наиболее актуальному отрезку ряда. Критерием выбора служит функционал экспоненциально сг лаженной средней ошибки прогнозов:
«".(0 = 1!; ' = , где /(0 = argminf;e' "(ф)-х(т)): , [О,i*/(0 и....., U
1(0 - номер модели, выбираемой в качестве наилучшей в момент времени t.
Параметр Ö е [0,1] задает «скорость забывания» предыстории. При 0 = 1 все точки ряда учитываются, при в-О учитывается только последняя точка, при 0<ö< 1 веса более старых точек ряда убывают по геометрической прогрессии.
2. Метод наименьших квадратов с регуляризацией:
/(0 = arg min ^O'-'-'CZ(m(Г)- *(r))2 + Л£(щ(/) - и*,.(/ -l))2,
4 Г-1 i=l 1-i
где минимум берется по вектору весовых коэффициентов w = (w„...,w ), удовлетворяющему условию нормировки из (2). Параметр б s [0,1] задает «скорость забывания» предыстории. Второе слагаемое представляет собой штраф за отклонение вектора весов и<(/) от вектора весовых коэффициентов Ц/-1) в предыдущий момент времени. Параметр регуляризации Я > 0 позволяет найти компромисс между точностью прогнозов на обучающих данных и устойчивостью весовых коэффициентов на каждом шаге.
3. Метод наименьших квадратов с регуляризацией и неотрицательными весами моделей. Отличается от предыдущей модели введением дополнительного условия:
ч'Дг)>0, / = 1,...,/>,
4. Усреднение прогнозов базовых моделей:
1 '
*,.(/) = — УУ(0, для всех / = 1,...,р, I = 1,....7".
рт1
5. Линейная комбинация, построенная по всему ряду:
/(() = arg min 2(5>,(т)Ь,(т) - х(г))2 .
* Г=1 (-]
Для оценки точности всех перечисленных методов проведен численный эксперимент на временном ряду котировок акций ОАО «Сбербанк». В качестве базовых моделей прогнозирования использовались пять моделей: две нейросетевые модели на основе многослойного персептрона, одна модель на основе радиальных базисных функций и две модели типа ARIMA. Точность прогноза оценивалась по функционалу (1) на 15 дневном интервале. Параметры точности базовых прогнозных моделей приведены в Таблице 1.
№ базовой модели Ошибка прогноза Е (в %) Точность прогноза направления тренда(в %)
1 1,8912 66,67
2 2,1263 73,33
3 3,3232 66,67
4 4,0724 26,67
5 4,0814 20
Таблица 1: Точность прогноза базовых моделей 8
Результаты прогнозирования динамики исследуемого временного ряда по описанным выше методам адаптации при оптимальных значениях параметров в, Л приведены в Таблице 2.
№ адаптивной модели Ошибка прогноза Е (в %) Точность прогноза направления тренда(в %)
I 1,4912 73,33
2 1,2546 80
3 1,2015 73,33
4 2,1839 33,33
5 1,7654 60
Таблица 2: Точность моделей динамической адаптации весов
Результаты численного моделирования показывают, что использование динамически адаптируемой линейной комбинации моделей прогнозирования способно увеличить точность базовых прогнозов значений временного ряда на 30-40%, а точность прогноза направления тренда возросла на 10-20% в данной прикладной задаче.
Наилучшие результаты дают модели 2 и 3 при оптимальном значении в = 0,6, что приблизительно соответствует выбору наилучшей модели по 3 - 4 последним точкам временного ряда.
Во второй главе рассматриваются многослойные нейронные сети и методика их применения в задаче прогнозирования динамики временных рядов котировок акций.
Для моделирования динамики временного ряда использована нейронная сеть со скрытыми слоями, в которой каждый нейрон слоя I связан со всеми нейронами предыдущего слоя /-1. (» )(,) - синаптический вес, связывающий выход нейрона / с входом нейрона j на итерации н, (у,)'"' - функциональный сигнал, генерируемый на выходе нейрона / на итерации п. Пусть на нейрон / поступает поток сигналов от нейронов, расположенных в предыдущем слое, тогда индуцированное локальное поле )'"', полученное на входе функции активации, связанной с данным нейроном, вычисляется по формуле:
ы
где т - общее число входов нейрона /.
Функциональный сигнал у'") на выходе нейрона ] на итерации п равен
где ф1 - функция активации у - го нейрона. В качестве функции активации в работе используется функция гиперболического тангенса: <Р, (Ц )<я)) = а )("'!), (а, Ь) > 0,
где а и Ь - константы.
Нейронная сеть указанной структуры обучается по алгоритму обратного распространения ошибки в последовательном режиме, в котором корректировка весовых коэффициентов проводится после подачи каждого примера обучения вида
, где .г'":' - входной вектор, поступающий на вход сети; </"° - желаемый
отклик; N - общее число примеров.
Изменение синаптических весов нейронов скрытых и выходного слоев l = \,...J. сети выполняется в соответствии с обобщенным дельта-правилом: К Г" = К г+)'"-")+а(5) Г(у';хГ\ (t,')<"Vy((sy)<">) яля нейронаj выходного слоя L, Ч>' ((.s, )<я))2 )'"' (Wq 1)'"' для нейрона j скрытого слоя /,
где (5\)<"
а - параметр
скорости обучения; у - постоянная момента; (е,)'"' - сигнал ошибки выходного нейрона /' на итерации п (соответствующий н-му примеру обучения).
Цель обучения - минимизация суммарной ошибки на всем обучающем множестве. Для повышения качества прогноза направления тренда в целевой функционал / вводится штрафной коэффициент таким образом, целевой функционал будет вычисляться по формуле:
(Д если (2м -г^'Хг0,1 -2(" ")>0 где п = \ , В е (0,1), с/ "' - целевое значения для
' [2-/3, если (¿( -2(" ''Х: -2<л '')<0 У ''
примера и; - прогнозное значение.
Для практической реализации алгоритма обратного распространения ошибки
полагаем, что сходимость алгоритма достигнута, если значение целевой функции
/(и.-)<е, где £>0 - заранее заданный вещественный параметр, называемый точностью
обучения.
С помощью процедуры численного моделирования, было установлено, что для временного ряда котировок акций ОАО «Сбербанка» наилучшие результаты дает использование нейронной сети с одним скрытым слоем из 2-х нейронов, пятью нейронами на распределительном слое и одним выходным нейроном.
На Рис. 2 представлены результаты однодневного прогноза для различных целевых функционалов со следующими параметрами обучения: адаптивный шаг а,
Х = 0,1, £=0,006.
44 i--
I 40--
| 38 +-------»
8 36 г»-^*-34 --------
1 2 3 4 5 6 7
10 11 12 13 14 15
- Прогнозные значений я фактические значения
(а)
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 -Фактические значения ,
-Прогнозные значения
(б)
Рис.2: Однодневный прогноз: (а) - 0 = 1, ошибка £ = 2,3036%; точность прогноза тренда 53,33% (б) — = о,5, ошибка £ = 1,9765%; точность прогноза тренда 73,33%
На Рис. 3 представлены результаты долгосрочного прогноза для различных целевых функционалов со следующими параметрами обучения: адаптивный шаг а, г = 0,1, £ = 0,06 .
1 2 3 4 5 6 7 в 9 10 11 12 13 14 15
номер тестового дня
•—Прогнозные значения —м— Фактические значения '
1 2 3 4 5 6 7 В 9 10 11 12 13 14 15
номер торгоього Дня
»— Прогнозные значения - Фактические значения
(а)
(б)
Рис.3: Долгосрочный прогноз: (а) - р = \, ошибка Е = 7,8053%; точность прогноза тренда 66,67% (б) - р = 0,5, ошибка К = 7,0446%; точность прогноза тренда 73,33%
Таким образом, использование штрафного коэффициента г/ в целевом функционале позволило на 15% повысить точность прогноза по значению и на 20% точность прогноза направления тренда для случая однодневного прогноза. В случае долгосрочного прогноза штрафной коэффициент позволил увеличить точность прогноза по значению на 10% и на 8% точность прогноза направления тренда.
Для прогнозирования динамики исследуемого временного ряда построена нейронная сеть на основе радиальных базисных функций (Рис. 4).
/1Яу . 1 X /
Л*1 У о
Е. у *УУг
Рис. 4: Нейронная сеть на основе радиальных базисных функций
В этом случае задача прогнозирования рассмотрена как задача интерполяции: для
данного множества из N точек {г |/ = 1,2.....м} и соответствующего множества из
N действительных чисел Ц еЛ1 |/ = 1,2,...,Лг} найти функцию F ■.R"'"^>Rl, удовлетворяющую следующему условию интерполяции:
/•-(*,) = 4, / = 1,2.....Л?
Метод радиальных базисных функций сводится к выбору функции /■', следующего вида:
/^¿^(Цл-Л-,11),
где {р(||х-лг,||)|( = 1,2,— множество из N произвольных (и обычно
нелинейных) функций, которые называются радиальными базисными функциями. Известные точки данных .г,€К"\ /=1,2,...,Л' выбираются в качестве центров
радиальных базисных функций. В качестве радиальных базисных функций в работе использованы функции Гаусса:
<р(г) = и , где а> 0, гей.
Обучение нейронной сети на основе радиальных базисных функций происходит в два этапа:
1) С помощью алгоритма кластеризации по к -средним производится оценка положения центров радиальных базисных функций скрытого слоя.
2) Производится оценка линейных весов выходного слоя по методу градиентного спуска.
Результаты прогноза с помощью построенной нейронной сети представлены на Рис. 5:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15
номер торгового Дня
-Прогнозные значения
-Фактические знамения |
-Прогнозные значения
5 6 7 8 9 10 11 12 13 14 15
ноиер торгового дня
-Фактические значения I
(а)
(б)
Рис.5: Прогноз сети на основе радиальных базисных функций: (а) - однодневный, ошибка Е = 4,4335%; точность прогноза тренда 66,67% (б) - долгосрочный, ошибка К = 5,0481%; точность прогноза тренда 53,3%
Точность однодневного прогноза сети на основе радиальных базисных функций оказалась существенно хуже, чем у сети на основе многослойного персептрона, обученного по алгоритму обратного распространения ошибки. Однако точность долгосрочного прогноза по значению на 40% превосходит точность аналогичного прогноза сети на основе многослойного персептрона в данной конкретной задаче, что позволяет использовать сеть на основе радиальных базисных функций для перспективного прогноза динамики исследуемого временного ряда.
В третьей главе описывается разработанный комплекс программ для управления инвестициями в финансовые инструменты фондового рынка, схема его использования, механизмы оптимизации и тестирования.
. ' ..,,„ <3^ <Э-
Клиенты на брокерском ^ „ер,ц>„о№ Трейдеры Бухгалтеры
обслуживании 1 ~ ~ ""
Рис.6: Инфраструктурная схема брокерского обслуживания ОАО "ГУТА-БА11К"
12
На Рис. 6 представлена инфраструктурная схема автоматизации операций на фондовом рынке, применяемая в ОЛО «ГУТА-БАНК». На «Сервере приложения» развернут комплекс программ для управления инвестициями на фондовом рынке. Структурная схема разработанного комплекса программ представлена на Рис. 7.
Модули прогнозирования, формирования инвестиционного портфеля, модуль управления капиталом и модуль интеграции с внешними системами реализованы в среде программирования Borland Delphi 7.0 в виде самостоятельных программных продуктов. Модуль тестирования и оценки реализован в среде MS Excel с использованием механизмов интеграции с АБС Diasoft FA# Treasury, реализованных на языке Transact SQL.
Модуль прогнозирования Модуль формирования инвестиционного портфеля Модуль управления капиталом Модуль интеграции с внешними системами
Модуль тестирования и оценки
Рис.7: Структурная схема комплекса программ для управления инвестициями на фондовом рынке
Разработка комплекса программ для управления инвестициями на фондовом рынке предполагает наряду с задачей прогнозирования котировок решение следующих задач:
а) формирование инвестиционного портфеля;
б) формализация правил открытия и закрытия позиций по каждому финансовому инструменту;
в) выработка правил управления капиталом;
г) разработка методики оценки эффективности системы.
Для решения задачи формирования инвестиционного портфеля используется портфельная теория Марковица, в соответствии с которой ожидаемая доходность портфеля из Л' финансовых инструментов (//,) и риск портфеля (<т!) оцениваются по формулам:
.V 4M
-V .V ,v
4-1 i-li.ttl
где м>, - вес <- го финансового инструмента в портфеле, веса инструментов
у
подчиняются правилу нормирования: = 1; рл - коэффициент корреляции /-го и к-
к-\
го финансовых инструментов, at, ц.,, к = 1, N - риск и доходность к -го финансового инструмента соответственно.
Модель инвестиционного портфеля, состоящего из произвольного количества финансовых инструментов N, которая обеспечивает минимальный риск и ожидаемую доходность не ниже заданного минимального значения д^ имеет вид:
[er -> min
К ä А™
Модель инвестиционного портфеля, состоящего из произвольного количества финансовых инструментов N, которая обеспечивает максимальную доходность при уровне риска меньше или равном заданному максимальному значению сг„ имеет вид:
[/', -> nia\
K'so-L
Модель оптимального по соотношению риск-доходность портфеля, состоящего из произвольного количества финансовых инструментов N, имеет вид:
fil .
—--> min
fy
Все модели также дополняются ограничениями на веса финансовых инструментов в портфеле (лимиты) вида:
<wt <w(lm,)t <1
Данные задачи могут быть решены стандартными методами нелинейной оптимизации.
Для численного решения задачи построения инвестиционного портфеля состоящего из произвольного количества финансовых инструментов N с учетом лимитов в среде программирования Borland Delphi 7.0 разработан программный продукт.
Для практического применения прогнозов, построенных на основе нейронных сетей в процессе инвестиционной деятельности на фондовом рынке необходимо формализовать правила входа и выхода из позиции по каждому из финансовых инструментов.
Пусть x(t+i) - прогнозное значение для цены закрытия x(i+i) в момент времени /; d - горизонт прогнозирования, тогда открытие позиции по финансовому инструменту происходит по условию:
RBP > RBT, где Rs!, - отдача от прогнозируемых покупок, вычисляется по формуле:
max(f(i + /'))-r(/-l) RB. = ^-;
закрытие позиции по финансовому инструменту происходит по условию:
Rsp <RST, Rsf - отдача от прогнозируемых продаж, вычисляется по формуле:
К
. ö<i<d
*(<-!)
R¡¡т и Rsт - константы, значения которых определяются на этапе проектирования комплекса программ и могут быть скорректированы в процессе оптимизации и тестирования.
Для управления капиталом в процессе инвестиционной деятельности на фондовом рынке в комплексе программ реализована методика наращивания выигрывающей позиции.
Пусть получен сигнал о покупке финансового инструмента в момент времени (, по цене Р,. В этом случае проводится первая покупка, причем сумма сделки составляет а, процентов от текущей величины свободных денежных средств. Если цена продолжает рост, то в момент времени делается вторая покупка по цене Р2 на сумму а2 процентов от текущей величины свободных денежных средств.
Наращивание объема бумаг продолжается до тех пор, пока растет рыночная цена. При развороте рынка и достижении ценой некоторого критического уровня вся позиция закрывается.
Для формализации данной методики введем обозначения: Х„ - начальная величина свободных денежных средств, N - общее число проведенных сделок, Рк -цена, по которой проводится к -я сделка (рыночная цена), с - комиссия за проведение сделки (в %), Хх - величина свободных денежных средств после N сделок, У<в> -общие затраты на покупку после N сделок (балансовая стоимость бумаг), Гх -количество бумаг в портфеле после N сделок, 1*в) - средняя цена покупки финансового инструмента после N сделок (балансовая цена). Сделаем также два допущения:
• Все ак одинаковы и равны а .
• Все покупки, начиная со второй, происходят при определенном процентном приросте рыночной цены относительно цены предыдущей сделки, то есть 1\ =/¡(1 + /?)"■
После проведения N сделок, где сумма к -й сделки составляет at процентов от текущей величины свободных денежных средств, перечисленные выше переменные будут выражаться формулами:
/;(1+с) а + р у \\+р
1 а + р 1-(1-а)Л'
а 1 + /? 1 fi-«' (J + /9
При работе по такой методике закрытие позиций осуществляется следующим образом:
1. Если после первой сделки рынок пошел против открытой позиции, то выход осуществляется по сигналу на продажу, причем, так как объем сделки сравнительно невелик, то убыток будет небольшим.
2. После второй сделки цену выхода можно поставить на границу безубыточности (с учетом комиссии), то есть Р"" = Р$в'/(\-с). Таким образом, после второй сделки портфель застрахован от убытков при неограниченном потенциале прибыли.
3. Начиная с третьей сделки цена выхода может равняться цене входа для предыдущей сделки.
Для оценки эффективности разработанного комплекса программ для управления инвестициями в финансовые инструменты фондового рынка, проведено моделирование его работы на временных рядах котировок акций ОАО «ГАЗПРОМ» и ОАО «Полюс Золота» за период с 01.09.08 г. по 31.03.09 г. Период с 01.09.08 г. по
31.12.08 г. использовался для обучения моделей на основе нейронных сетей, период с
01.01.09 г. по 31.03.09 г. - тестовый.
Для проведения тестирования комплекса программ предлагается следующая схема:
1. Решение об инвестировании в тот или иной финансовый инструмент принимается на основе анализа ожидаемой недельной доходности и ожидаемого недельного риска по инструменту.
2. Для определения весов отобранных финансовых инструментов в инвестиционном портфеле реализуется алгоритм построения инвестиционного портфеля.
3. Решение о входе и выходе из позиции принимается на основе однодневных прогнозов, полученных с помощью адаптивных комбинаций прогнозных моделей на основе нейронных сетей.
4. Для каждой выигрывающей позиции реализуется метод увеличения объема открытой позиции.
5. По итогам каждого месяца тестирования проводится анализ отчета о сделках для промежуточной оценки эффективности разработанного комплекса программ и корректировки его параметров.
По итогам тестирования был сформирован сводный отчет, позволяющий оценить качество разработанного комплекса программ для управления инвестициями в финансовые инструменты фондового рынка и сравнить его эффективность с пассивной стратегией инвестирования.
Основные результаты проведенного тестирования отражены в Таблице 3.
Дата начала тестирования 01.01.2009 г.
Величина торгового счета на начало тестирования (в руб.) 100000,00
Дата окончания тестирования 31.03.2009 г.
Величина торгового счета после окончания тестирования (в руб.) 206215,73
Число календарных дней, в течение которых происходило тестирование 90
Доход на периоде тестирования (в руб.) 106215,73
Доход на периоде тестирования (в %) 106,2%
Доход стратегии «купил и держи» на периоде тестирования (в руб.) 47097,05
Доход стратегии «купил и держи» на периоде тестирования (в %) 47,1%
Таблица 3: Результаты тестирования комплекса программ для управления инвестициями Выводы
1. С помощью разработанной в диссертации методики применения однослойных нейронных сетей проведено численное моделирование динамики временного ряда и прогнозирование биржевых котировок акций ОАО «Сбербанк» за период с 12.01.2009 по 12.07.2009 г. Получены однодневный и долгосрочный прогнозы для исследуемого временного ряда, рассмотрено влияние различных параметров модели и метода на скорость сходимости алгоритма обучения и качество прогноза. Проведенные численные эксперименты показали, что использование адаптивного шага обучения позволяет сократить число итераций алгоритма обучения, необходимых для сходимости градиентного метода минимум на 10%, но не приводит к росту качества прогноза для данной прикладной задачи. Наилучшее качество прогноза показали модели с сигмоидальной функцией
активации, для которых ошибка однодневного прогноза значений котировок не превышает 2,6%.
2. С помощью аппарата однослойных нейронных сетей проведено построение адаптивных комбинаций моделей прогнозирования. Численное моделирование по данным котировок акций ОЛО «Сбербанк» выявило преимущество адаптивных комбинаций в 30-40% по точности прогноза значений и в 10-20% по точности прогноза направления тренда по сравнению с базовыми алгоритмами, составляющими динамическую комбинацию.
3. Выработана схема применения нейронных сетей на основе радиальных базисных функций для прогнозирования временных рядов котировок финансовых инструментов на фондовом рынке. Проведено численное моделирование динамики временного ряда и прогнозирование биржевых котировок акций ОАО «Сбербанк» выявившее преимущество использования моделей на основе сетей радиальных базисных функций для долгосрочного прогноза.
4. С помощью выработанной методики применения многослойных нейронных сетей, обученных по алгоритму обратного распространения ошибки, проведено численное моделирование динамики временного ряда и прогнозирование биржевых котировок акций ОЛО «Сбербанк» за период с 12.01.2009 по 12.07.2009 г. Получены однодневный и долгосрочный прогнозы для исследуемого временного ряда, рассмотрено влияние различных параметров модели и метода на качество прогноза. Предложена модификация целевого функционала в алгоритме обратного распространения, позволяющая повысить качество прогноза направления тренда для временного ряда котировок акций в среднем на 20% и обеспечить прогноз значений котировок с ошибкой не превышающей 2% в данной прикладной задаче.
5. Реализован метод увеличения объема выигрывающей позиции, позволяющий снизить риски инвестирования, сохраняя высокую общую доходность системы.
6. На основе предложенных в работе алгоритмов и методов управления инвестициями в финансовые инструменты фондового рынка, а также рассмотренных математических моделей прогнозирования временных рядов с помощью нейронных сетей и методов построения алгоритмических комбинаций моделей прогнозирования, в среде программирования Borland Delphi 7.0 реализован комплекс программ для управления инвестиционной деятельностью на фондовом рынке.
7. В соответствии с изложенной методикой проведено тестирование и оптимизация разработанного комплекса программ для управления инвестициями в финансовые инструменты фондового рынка на примере временных рядов котировок акций ОАО «Полюс Золота» и ОАО «ГАЗПРОМ».
ПУБЛИКАЦИИ АВТОРА ПО ТЕМЕ ДИССЕРТАЦИИ В изданиях рекомендованных ВАК:
1. Кратович П.В. Нейросетевая модель прогнозирования временных рядов финансовых данных // Международный журнал «Проблемы теории и практики управления» Международное научно-практическое' приложение «Программные продукты и системы». - 2010. - №1 (89). - С. 132 - 134,
2. Кратович П.В. Нейронные сети и модели типа АЯ1МА для прогнозирования временных рядов // Международный журнал «Проблемы теории и практики управления» Международное научно-практическое приложение «Программные продукты и системы». - 2011. - №1 (93). - С. 95 - 98;
3. Кратович П.В. Модель нейронной сети типа ЯВР для прогноза котировок // Естественные и технические науки. - Москва: Спутник+, 2010. - №6 (50). - С. 527 - 529.
В прочих периодических изданиях:
4. Кратович П.В. Использование стохастических моделей для прогнозирования стоимости ценных бумаг // Математические методы управления: Сб. науч. тр.
- Тверь: ТвГУ, 2009. - С. 54 - 66;
5. Кратович П.В. Предпрогнозный анализ временных рядов финансовых данных на основе методов фрактального анализа // Молодой ученый. - № 1-2, 2010 -С. 11 - 17;
6. Кратович П.В. Методика увеличения объема выигрывающей позиции для трендовых торговых систем // Альманах современной науки и образования. -Тамбов: Грамота, 2010. - № 1 (32). - С. 58 - 61;
7. Кратович П.В. Модель синхронизации нейронных сетей и ее применение в криптографии // Многоуровневая система подготовки специалистов на основе информационных и коммуникационных технологий образования: Сб. науч. тр.
- Тверь: ТвГУ, 2006.-С. 88- 104;
8. Кратович П.В. Синхронизация нейронных сетей и ее применение // Приложения нейронных сетей в математическом моделировании: Сб. науч. тр.
- Оренбург: ОГУ, 2008 -С. 56 - 72.;
9. Кратович П.В. Модели нейронных сетей и модели АШМА в задаче прогнозирования временных рядов // Математические методы управления: Сб. науч. тр. - Тверь: ТвГУ, 2010. - С. 69 - 78;
Формат 70x84/16. Бумага ксероксная. Усл. печ. л. 1,1. Тираж 100 экз.
Отпечатано в ОАО «ТВЗ» 170003, г. Тверь, Петербургское ш., 45-6
Оглавление автор диссертации — кандидата технических наук Кратович, Павел Валерьевич
Введение.
1. Искусственные нейронные сети.
2. Управление инвестициями в финансовые инструменты фондового рынка.
Глава 1: Модели на основе однослойных нейронных сетей:.
1.1 Непрерывная нейросетевая модель.
1.2 Дискретная нейросетевая модель.
1.2.1 Примеры дискретных нейросетевых моделей.
1.3 Методы обучения нейронных сетей.
1.3.1 Алгоритм градиентного спуска.
1.3.2 Правило обучения Видроу-Хоффа.
1.4 Задача прогнозирования котировок ценных бумаг.
1.4.1 Критерий оценки качества прогноза.
1.4.2 Определение параметров нейросетевой модели.
1.4.3 Предварительная обработка временного ряда.
1.4.4 Однодневное прогнозирование.
1.4.5 Долгосрочный прогноз.
1.4.6 Примеры прогнозов динамики временных рядов, котировок акций российских эмитентов на ММВБ.
1.5 Построение адаптивных комбинаций моделей прогнозирования.
1.5. Г Постановка задачи.
1.5.2 Численное моделирование.
1.6 Выводы к Главе 1.
Глава 2: Модели.на основе многослойных нейронных сетей.
2.1 Топология многослойных нейронных сетей.
2.2 Алгоритм обратного распространения ошибки.
2.2.1 Критерий останова.
2.2.2 Достаточный объем обучающей выборки для обобщения.
2.2.3 Недостатки алгоритма обратного распространения ошибки.
2.3 Оптимизация обучения по алгоритму обратного распространения.
2.3.1 Адаптивный шаг обучения для различных функций активации.
2.3.2 Метод обучения с ранним остановом.
2.3.3 Модификация целевого функционала в задаче прогнозирования.
2.4 Численное моделирование.
2.4.1 Определение оптимальных значений параметров обучения.
2.4.2 Прогнозирование.
2.5 Примеры, прогнозов динамики временных рядов котировок акций российских эмитентов на ММВБ.
2.6 Нейронные сети на основе радиальных базисных функций.
2.7 Стратегии обучения сетей на основе радиальных базисных функций.
2.7.1 Случайный выбор фиксированных центров.
2.7.2 Выбор центров-на основе самоорганизации.
2.7.3 Выбор центров с учителем.
2.8 Задача идентификации нелинейных динамических процессов.
2.8.1 Метод восстановления фазового пространства.
2.8.2 Численное моделирование.
2.9 Выводы к Главе 2.
Глава 3: Управление инвестициями в финансовые инструменты фондового рынка.
3.1 Основные понятия.
3.2 Правила открытия и закрытия позиции.
3.3 Увеличение объема выигрывающей позиции.
3.4 Методика оптимизации портфеля Марковица.
3.4.1 Задача построения инвестиционного портфеля.
3.4.2 Алгоритм формирования инвестиционного портфеля.
3.5 Тестирование комплекса программ для управления инвестициями.
3.5.1 Отчеты о тестировании.
3.5.2 Методика тестирования.
3.5.3 Результаты тестирования.
3.6 Выводы к Главе 3.
Введение 2011 год, диссертация по информатике, вычислительной технике и управлению, Кратович, Павел Валерьевич
1. Искусственные нейронные сети
Структура искусственных нейронных сетей была смоделирована как результат изучения человеческого мозга. Искусственные нейронные сети имеют такие аналогичные мозгу свойства, как способность обучаться на опыте, основанном на знаниях, делать абстрактные умозаключения, совершать ошибки, что является более характерным для человеческой мысли, чем для созданных человеком компьютеров.
Искусственный нейрон имитирует в первом приближении свойства биологического нейрона. На вход искусственного нейрона поступает некоторое множество сигналов,. каждый из которых является выходом другого нейрона. Каждый вход умножается на соответствующий вес, аналогичный синаптической силе, и все произведения суммируются, определяя уровень активации нейрона. Хотя парадигмы нейронных сетей весьма разнообразны, в основе почти всех их лежит эта конфигурация.
Задать нейронную сеть, способную решать конкретную задачу, - это значит определить модель нейрона, топологию связей, веса связей. Нейронные сети различаются между собой в меньшей степени моделями нейрона, а в основном топологией связей и правилами определения весов.
Поведение искусственной нейронной сети зависит как от значения весовых коэффициентов, так и от функции возбуждения нейронов (активационной функции или функции активации). Известны три основных вида функций активации: пороговая, линейная и сигмоидальная. Для нейронов с пороговой функцией активации выход устанавливается на одном из двух уровней в зависимости от того, больше или меньше суммарный сигнал на входе нейрона некоторого порогового значения. Для линейных элементов выходная активность пропорциональна суммарному взвешенному входу нейрона. Для сигмоидальных элементов в зависимости от входного сигнала, выход варьируется непрерывно, но не линейно, по мере изменения входа. Примерами сигмоидов [27] являются гиперболический тангенс и логистическая функция вид = -—а>0.
1 + е
По структуре связей сети делятся на два больших класса: однослойные и многослойные.
Простейшая сеть состоит из группы нейронов, образующих слой, -однослойная нейронная сеть. К однослойным относятся модель Хопфилда и её последующие разработки [43], некоторые типы модели нейронной сети, известной под названием «машина Болыдмана» [33], [36].
Многослойная сеть имеет входной (распределительный), выходной и скрытые слои, на входной подается информация, с выходного снимается ответ, скрытые слои участвуют в обработке. Выход одного слоя является входом для последующего слоя.
Нейронные сети, созданные для решения конкретной задачи, приобретают свои свойства в процессе обучения. Обучение включает в себя либо определение значений весовых коэффициентов синаптических узлов, либо специальных правил, по которым весовые коэффициенты могут быть изменены в зависимости от отклика конкретной нейронной сети.
Сеть обучается, чтобы для некоторого множества входов давать желаемое (или, по крайней мере, сообразное с ним) множество выходов. Каждое такое входное или выходное множество рассматривается как вектор. Обучение осуществляется путем последовательного предъявления входных векторов с одновременной подстройкой весов в соответствии с определенной процедурой. В процессе обучения веса сети постепенно становятся такими, чтобы каждый входной вектор вырабатывал выходной вектор. Нейронные сети могут также обучаться совместно. В процессе совместного обучения наступает явление, названное синхронизацией. Подробное описание данного явления и его применение в криптографии дано в работах [14], [18].
Различают алгоритмы обучения с учителем и без учителя.
Обучение с учителем предполагает, что для каждого входного вектора существует целевой вектор, представляющий собой требуемый выход. Вместе они называются обучающим примером. Обычно сеть обучается на некотором числе обучающих примеров. Предъявляется входной вектор, вычисляется выход сети и сравнивается с соответствующим целевым вектором, разность (ошибка) с помощью обратной связи подается в сеть и веса изменяются в соответствии с алгоритмом, стремящимся минимизировать ошибку. Примеры из обучающего множества предъявляются последовательно, вычисляются ошибки, и веса подстраиваются для каждого примера до тех пор, пока ошибка по всему обучающему множеству не достигнет приемлемо низкого уровня.
Примерами алгоритмов обучения с учителем могут служить алгоритм обучения персептрона (модель Розенблатта) и алгоритм обратного распространения.
В отличие от алгоритма обучения с учителем, развитая Кохоненом и многими другими модель обучения, без учителя не нуждается в целевом векторе для выходов. Обучающее множество состоит лишь из входных векторов. Обучающий алгоритм подстраивает веса сети так, чтобы получились согласованные выходные векторы, т.е. чтобы предъявление достаточно близких входных векторов давало одинаковые выходы. Процесс обучения, следовательно, выделяет статистические свойства обучающего множества и группирует сходные векторы в классы. Предъявление на вход вектора из данного класса даст определенный выходной вектор, но до обучения невозможно предсказать, какой выход будет производиться данным классом входных векторов. Следовательно, выходы подобной сети должны трансформироваться в некоторую понятную форму, обусловленную процессом обучения. Это не является серьезной проблемой, так как обычно не сложно идентифицировать связь между входом и выходом, установленную сетью.
Одним из алгоритмов обучения без учителя, оказавшимся наиболее плодотворным, был. алгоритм Д. Хэбба, который в 1949 году предложил закон обучения, явившийся стартовой точкой для алгоритмов обучения искусственных нейронных сетей.
Большинство современных алгоритмов обучения выросло из концепций Хэбба. Им предложена модель обучения без учителя, в которой синаптический вес возрастает, если активированы оба нейрона, Источник и приемник. Таким образом, часто используемые пути в сети усиливаются и феномен привычки и обучения через повторение получает объяснение:
В искусственной нейронной сети, использующей обучение по Хэббу, наращивание весов определяется произведением уровней возбуждения передающего и принимающего нейронов. Это можно записать как w.(t + l) = wu(t) + ayiyJ, где w (t) - значение веса от нейрона / к нейрону j до подстройки, wtJ (t +1) -значение веса от нейрона /' к нейрону j после подстройки, а - коэффициент скорости обучения, у - выход нейрона j.
Сети, использующие обучение по Хэббу конструктивно развивались, однако за последние 30 лет были развиты более эффективные алгоритмы, обучения. В частности, были развиты алгоритмы обучения с учителем, приводящие к сетям с более широким диапазоном характеристик обучающих входных образов и большими скоростями обучения, чем использующие простое обучение по Хэббу.
Первое систематическое изучение нейронных сетей было предпринято У. Мак-Каллоком (W. McCulloch) и У. Питтсом (W. Pitts). В 1943 году У. Мак-Каллок и его ученик У. Питтс сформулировали основные положения теории деятельности головного мозга [20]. Ими были получены следующие результаты:
1. разработана модель нейрона как простейшего процессорного элемента, выполняющего вычисление переходной функции от скалярного произведения вектора входных сигналов и вектора весовых коэффициентов;
2. предложена конструкция сети таких элементов для выполнения арифметических и логических операций;
3. сделано основополагающее предположение о том, что такая сеть способна обучаться, распознавать образы, обобщать полученную информацию.
Нейрон Мак-Каллока — Питтса функционирует в дискретном времени. Он имеет N входов - синапсов и единственный выход. Значение выходного сигнала у{{) = 1 соответствует состоянию возбуждения. В состоянии покоя выходной сигнал у(0 = 0. В момент времени £ выходной сигнал формируется в зависимости от сигналов — 1),.— 1), поступивших на синапсы в момент времени ¿ —1. Последние также могут принимать значения ноль или единица. Если синаптический сигнал равен нулю, то говорят, что синапс находится в состоянии покоя. Единичное значение соответствует состоянию возбуждения синапса. Сигнал на синапс поступает либо от выхода другого нейрона, либо от сенсора - специального входа для внешних сигналов. Первоначально правила формирования выходного сигнала были введены авторами модели в виде ряда аксиом. Приведем две из них.
1. Для возбуждения нейрона в момент времени ? необходимо в момент времени I-1 возбудить определенное, фиксированное число синапсов, которое не зависит ни от предыдущей истории, ни от состояния нейрона.
2. Нейрон имеет особые входы - тормозящие синапсы. Возбуждение любого из них в момент времени t — 1 исключает возбуждение нейронов в момент времени ^.
Впоследствии модель изменилась. Синаптические сигналы - -1) (не обязательно бинарные) стали взвешивать и формировать n суммарный входной сигнал = Здесь <7; - числа, которые
1=1 называют синаптическими весами. Синапс называют возбудительным, если > 0, и тормозным, если <дг( < 0. Договорились, что в момент времени £ нейрон находится в возбужденном состоянии (у(/) = 1), если суммарный входной сигнал в момент времени. / -1 превысил некоторое пороговое значение и0, т.е. n a(t-\) = ^qixl{t-Х)>щ. Пусть 0(v) - функция Хевисайда. Она принимает нулевое значение при v < 0 и единичное при v > 0. Тогда можно записать: n (=i
Описанный объект есть то, что в настоящее время называют формальным нейроном Мак-Каллока - Питтса.
Несмотря на то, что за прошедшие годы нейроинформатика ушла далеко вперед, многие утверждения Мак-Каллока остаются актуальными и поныне. В частности, при большом разнообразии моделей нейронов принцип их действия, заложенный Мак-Каллоком и Питтсом, остаётся неизменным.
Недостатком данной модели является пороговый вид переходной функции, не предоставляющий нейронной сети достаточную гибкость при обучении и настройке на заданную проблему.
Серьёзное развитие нейрокибернетика получила в работах американского нейрофизиолога Френсиса Розенблатта (F. Rosenblatt) из Корнельского университета. В 1958 году он предложил свою модель нейронной сети. Розенблатт ввёл в модель Мак-Каллока и Питтса способность связей к модификации, что сделало её обучаемой. Эта модель была названа персептроном [22], [24], [57], [25]. Первоначально персептрон представлял собой однослойную структуру с жёсткой пороговой функцией процессорного элемента и бинарными или многозначными входами.
Первые персептроны были способны распознавать некоторые буквы латинского алфавита. Впоследствии модель персептрона была значительно усовершенствована [25].
Персептрон применялся для задачи автоматической классификации, которая в общем случае состоит в разделении пространства признаков между заданным количеством классов. В двухмерном случае требуется провести линию на плоскости, отделяющую одну область от другой. Однослойный персептрон способен делить пространство только прямыми линиями (плоскостями) [7], [22].
Персептрон обучают, подавая множество образов по одному на его вход и подстраивая веса до тех пор, пока для всех образов не будет достигнут требуемый выход.
Алгоритм обучения персептрона выглядит следующим образом:
1. системе предъявляется эталонный образ;
2. если выходы системы срабатывают правильно, весовые коэффициенты связей не изменяются;
3. если выходы срабатывают неправильно, весовым коэффициентам даётся небольшое приращение в сторону повышения качества распознавания.
В основе алгоритма лежит дельта-правило. Вводится в рассмотрение величина 8, которая равна разности между требуемым или целевым выходом Т и реальным выходом А
8 — Т — А.
Случай, когда 8-0, отвечает тому, что выход правилен и в сети ничего не изменяется.
В случае, когда 6 > О или 5 < 0 персептронный алгоритм обучения сохраняется, если 8 умножается на величину каждого входа х1 и это произведение добавляется к соответствующему весу. С целью обобщения вводится коэффициент «скорости обучения» 77, который умножается на 8х1, что позволяет управлять средней величиной изменения весов.
В алгебраической форме записи
А, = т]8х,, +1) = ^(0 +А, > где А, - коррекция, связанная с /-м входом >^(/ + 1) - значение веса / после коррекции; ту (/) - значение веса / до коррекции.
Дельта-правило модифицирует веса в соответствии с требуемым и действительным значениями выхода, как для непрерывных, так и для бинарных входов и выходов. Эти свойства открыли множество новых приложений.
Линейная разделяющая поверхность, формируемая персептроном, ограничивает круг решаемых им задач. Выходом из этого положения является использование многослойного персептрона, способного строить ломаную границу между распознаваемыми образами.
В 1969 году Минский и Пайперт показали, что персептрон не может решить задачу «ИСКЛЮЧАЮЩЕЕ ИЛИ». Выводы их по поводу перспектив персептронной модели были весьма пессимистичными. В связи с этим исследования в области нейронных сетей были почти полностью прекращены вплоть до конца 70-х годов.
Новый виток быстрого развития моделей на основе нейронных сетей, который начался в 80-х годах, связан с работами Амари (S. Amari), Андерсона, Карпентера (G. A. Carpenter) [33], Кохена (М. A. Cohen) [36] и других, и в особенности, Хопфилда (J. Hopfield) [26], [41]-[43], а также под влиянием обещающих успехов1 оптических технологий [1] и зрелой фазы развития СБИС [36] для реализации новых архитектур.
Начало современному математическому моделированию нейронных вычислений было положено работами Хопфилда в 1982 году, в которых была сформулирована математическая модель ассоциативной памяти на нейронной сети с использованием правила Хеббиана [40] для программирования сети. Но не сама модель послужила толчком к появлению работ других авторов на эту тему, сколько введённая Хопфилдом функция вычислительной энергии нейронной сети, являющейся аналогом функции Ляпунова в динамических системах. Показано, что для однослойной нейронной сети со связями типа «все на всех» характерна сходимость к одной из конечного множества равновесных точек, которые являются локальными минимумами функции энергии, содержащей в в себе всю структуру взаимосвязей в сети. Понимание такой динамики нейронной сети было и у других исследователей. Однако Хопфилд и Тэнк [26] показали как конструировать функцию энергии для конкретной оптимизационной задачи и как использовать её для отображения задачи в нейронную сеть. Например, для симметричной нейронной сети с обратными связями, т.е. связями, идущими от выходов сети к её входам, функция энергии может быть введена следующим образом: ' У j j где Е - искусственная энергия сети, - вес от выхода нейрона / к входу нейрона у, у1 - выход нейрона / и вход нейрона у, у] - выход нейрона у, I] -внешний вход нейрона ] ■,Tj - порог нейрона у .
Этот подход получил развитие и для. решения- других комбинаторных оптимизационных задач. Привлекательность подхода Хопфилда состоит в том, что нейронная сеть для конкретной задачи может быть запрограммирована без обучающих итераций. Веса связей- вычисляются на основании вида функции энергии, сконструированной для этой задачи.
Заключение диссертация на тему "Нейросетевые модели для управления инвестициями в финансовые инструменты фондового рынка"
3.6 Выводы к Главе 3
В результате проведенных в третьей главе разработки и тестировании комплекса программ для управления инвестициями в финансовые инструменты фондового рынка получены следующие основные результаты:
1. Изложены основные положения, правила построения и механизм работы комплекса программ для управления инвестициями на фондовом рынке, включая формализацию биржевой стратегии, определяющей правила открытия и закрытия позиций по финансовым инструментам, методику управления капиталом, механизмы тестирования и оптимизации программного комплекса.
2. На основе портфельной теории Марковича проведено построение инвестиционного портфеля из произвольного количества финансовых инструментов с учетом ограничений на их состав и веса в портфеле (лимитов) и приведен алгоритм поиска численных решений данной задачи.
3. Реализован метод увеличения объема выигрывающей длинной позиции для трендовых систем, позволяющий снизить риски инвестирования, сохраняя высокую общую доходность.
4. На основе предложенных в работе алгоритмов и методов построения и функционирования комплекса программ для управления инвестициями на фондовом рынке, а также рассмотренной ранее методики прогнозирования временных рядов с помощью нейронных сетей и методов построения алгоритмических комбинаций моделей прогнозирования, реализован комплекс программ для биржевой торговли акциями российских эмитентов на ММВБ.
5. В соответствии с изложенной методикой проведено тестирование и оптимизация разработанного программного комплекса на примере временных рядов котировок акций ОАО «Полюс Золота» и ОАО «ГАЗПРОМ». Результаты тестирования показали, что разработанный программный комплекс для управления инвестициями в финансовые инструменты фондового рынка, по доходности более чем в два раза превзошла пассивную стратегию инвестирования.
Заключение
В диссертации получены следующие основные результаты:
1. С помощью разработанной в диссертации методики применения однослойных нейронных сетей проведено численное моделирование динамики временного ряда и прогнозирование биржевых котировок акций ОАО «Сбербанк» за период с 12.01.2009 по 12.07.2009 г. Получены однодневный и долгосрочный прогнозы для исследуемого временного ряда, рассмотрено влияние различных параметров модели и метода на скорость сходимости алгоритма обучения и качество прогноза. Проведенные численные эксперименты показали, что использование адаптивного шага обучения позволяет сократить число итераций алгоритма обучения, необходимых для сходимости градиентного метода минимум на 10%, но не приводит к росту качества прогноза для данной прикладной задачи. Наилучшее качество прогноза показали модели с сигмоидальной функцией активации, для которых ошибка однодневного прогноза значений котировок не превышает 2,6%.
2. С помощью аппарата однослойных нейронных сетей проведено построение адаптивных комбинаций моделей прогнозирования. Численное моделирование по данным котировок акций ОАО «Сбербанк» выявило преимущество адаптивных комбинаций в 30-40% по точности прогноза значений и в 10-20% по точности прогноза направления тренда по сравнению с базовыми алгоритмами, составляющими динамическую комбинацию.
3. Выработана схема применения нейронных сетей на основе радиальных базисных функций для прогнозирования временных рядов котировок финансовых инструментов на фондовом рынке. Проведено численное моделирование динамики временного ряда и прогнозирование биржевых котировок акций ОАО «Сбербанк» выявившее преимущество использования моделей на основе сетей радиальных базисных функций для долгосрочного прогноза.
4. С помощью выработанной методики применения многослойных нейронных сетей, обученных по алгоритму обратного распространения ошибки, проведено численное моделирование динамики временного ряда и прогнозирование биржевых котировок акций ОАО «Сбербанк» за период с 12.01.2009 по 12.07.2009 г. Получены однодневный и долгосрочный прогнозы для исследуемого временного ряда, рассмотрено влияние различных параметров модели и метода на качество прогноза. Предложена модификация целевого функционала в алгоритме обратного распространения, позволяющая повысить качество прогноза направления тренда для временного ряда котировок акций в среднем на 20% и обеспечить прогноз значений котировок с ошибкой не превышающей 2% в данной прикладной задаче.
5. Реализован метод увеличения объема выигрывающей позиции, позволяющий снизить риски инвестирования, сохраняя высокую общую доходность системы.
6. На основе предложенных в работе алгоритмов и методов управления инвестициями в финансовые инструменты фондового рынка, а также рассмотренных математических моделей прогнозирования временных рядов с помощью нейронных сетей и методов построения алгоритмических комбинаций моделей прогнозирования, в среде программирования Borland Delphi 7.0 реализован комплекс программ для управления инвестиционной деятельностью на фондовом рынке.
7. В соответствии с изложенной методикой проведено тестирование и оптимизация разработанного комплекса программ для управления инвестициями в финансовые инструменты фондового рынка на примере временных рядов котировок акций ОАО «Полюс Золота» и ОАО «ГАЗПРОМ».
Библиография Кратович, Павел Валерьевич, диссертация по теме Управление в социальных и экономических системах
1. Абу-Мустафа Я.С., Псалтис Д. Оптические нейронно-сетевые компьютеры// В мире науки. 1987. N 5. С. 42-50.
2. Андреева Е.А. Оптимальное управление динамическими системами. Тверь: ТвГУ, 1999.
3. Булашев C.B. Статистика для трейдеров. — М.: Компания «Спутник +», 2003.- 245 с.
4. Воронцов К.В. Оптимизационные методы линейной и монотонной коррекции в алгебраическом подходе к проблеме распознавания // ЖВМ и МФ. 2000. -Т.40, №1. - С.166-176.
5. Головко В.А. Нейронные сети: обучение, организация и применение. Кн.4:Учеб.пособие для вузов/Общая ред. А.И. Галушкина. М.: ИПРЖР, 2001.-256 с.
6. Дуда Р,. Харт П. Распознавание образов и анализ сцен: Пер. с англ. М.: Мир. -1976.-511с.
7. Иванченко А.Г. Персептрон — системы распознавания образов. К.: Наукова думка, 1972.
8. Колмогоров А.Н. Представление непрерывных функций многих переменных суперпозицией функций одной переменной и сложением// ДАН.-1958.-N.5.-С.953-956.
9. Кравченко П.П. Как не проиграть на финансовых рынках. — М.: ДИС, 1998. — 416 с.
10. Ю.Кратович П.В. Использование стохастических моделей для прогнозирования стоимости ценных бумаг// Математические методы управления: Сб. науч. тр.- Тверь: ТвГУ, 2009. С. 54 - 66;
11. П.Кратович П.В. Методика увеличения объема выигрывающей позиции для трендовых торговых систем// Альманах современной науки и образования. — Тамбов: Грамота, 2010. № 1 (32). - С. 58 - 61;
12. Кратович П.В. Модели нейронных сетей и модели АШМА в задаче прогнозирования временных рядов// Математические методы управления: Сб. науч. тр. Тверь: ТвГУ, 2010. - С. 69 - 78;
13. Кратович П.В. Модель нейронной сети типа ЯВЕ для прогноза котировок// Естественные и технические науки. — Москва: Спутник+, 2010. №6 (50). - С. 527-529.
14. Н.Кратович П.В. Модель синхронизации нейронных сетей и ее применение в криптографии// Многоуровневая система подготовки специалистов на основе информационных и коммуникационных технологий образования: Сб. науч. тр. Тверь: ТвГУ, 2006. - С. 88 - 104;
15. Кратович П.В. Предпрогнозный анализ временных рядов финансовых данных на основе методов фрактального анализа// Молодой ученый. — № 1—2, 2010 — С. 11-17.
16. Кратович П.В. Синхронизация нейронных сетей и ее применение// Приложения нейронных сетей в математическом моделировании: Сб. науч. тр. Оренбург: ОГУ, 2008 -С. 56- 72.;
17. Куссуль В.М., Байдык Т.Н. Разработка архитектуры нейроподобной сети для распознавания формы объектов на изображении// Автоматика. 1990. N 5. С. 56-61.
18. Мак-Каллок У., Питтс У. Логические исчисления идей, относящихся к нервной деятельности//Автоматы. М.: ИЛ, 1956.
19. Максимова В.Ф. Инвестиционный менеджмент. //Московская финансово-промышленная академия. -М., 2005. 158 с.
20. Минский М., Пайперт С. Персептроны. М.: Мир, 1971.
21. Поляк Б.Т. Введение в оптимизацию. -М.: Наука.- 1983.-384 с.
22. Розенблатт Ф. Аналитические методы изучения нейронных сетей// Зарубежная радиоэлектроника. 1965. N 5. С. 40-50.
23. Розенблатт Ф. Принципы нейродинамики: Персептрон и теория механизмов мозга. Пер. с англ. -М.: Мир, 1965.
24. Тэнк Д.У. Хопфилд Д.Д. Коллективные вычисления в нейроподобных электронных схемах//В мире науки. 1988. N 2. С. 44-53.
25. Уоссермен Ф. Нейрокомпыотерная техника: Теория и практика. М.: Мир, 1992.
26. Хайкин С. Нейронные сети: полный курс, 2-е издание. Пер. с англ. — М.: Издательский дом «Вильяме», 2006. — 1104 с.
27. Хинтон Д.Е. Как обучаются нейронные сети// В мире науки. 1992. N 11. С. 103-107.
28. Шарп У., Александр Г., Бейли Дж. Инвестиции //Пер. с англ. М.: ИНФРА-М, 2001 -XII, 1028 с. :
29. Barron A.R. Universal approximation bounds for superpositions of sigmoidal function//IEEE Transactions on Information Theory, 1993, vol. 39, P. 930-945.
30. Broomhead D., S.D. Lowe Multivariable functional interpolation and adaptive networks//Complex Systems, 1988, vol. 2, P. 321-355.
31. Carpenter G.A., Grossberg S.^4 massively parallel architecture for a self-organizing neural pattern recognition machine// Comput. Vision Graphics Image Process. 1986. V. 37. P. 54-115.
32. Chen S., B. Mulgrew, S. McLaughlin Adaptive Bayesian feedback equalizer based on a radial basis function network// IEEE International Conference on Communications, 1992, vol. 3 P. 1267-1271, Chicago.
33. Chinrungrueng С., C.H. Sequin Optimal adaptive k-means alrorithm with dynamic adjustment of learning rate// IEEE Transactions on Neural Networks, 1994, vol. 6 P. 157-169.
34. Cohen M.A., Grossberg S. Absolute stability of global pattern formation and parallel memory storage by competitive neural networks// IEEE Trans. Syst., Man, Cybern. 1983. V. 13. N 5. P. 815-826.
35. Cover T.M. Geometrical and statistical properties of systems of linear inequalities with applications in pattern recognition// IEEE Transactions on Electronic Computers, 1965, vol. EC-14, P. 326-334.
36. Golub G.H., G.G. Van Loan Matrix Computations, 3rd edition, Baltimor: John Hopkins University Press, 1996.
37. Hardy R.L. Multiquadric equations of topography and other irregular surfaces// Journal of Geophysics Research, 1971, vol. 76 P. 1905-1915.
38. Hebb D.O. The organization of behavior. N.Y.: Wiley, 1949.
39. Hopfield J.J., Feinstein D.I., Palmer F.G. Unlearning has a stabilizing effect in collective memories//Nature. 1983. V. 304. P. 141-152.
40. Hopfield J.J. Neural networks and physical systems with emergent collective computational abilities//Proc. Natl. Acad. Sci. 1984. V. 9. P. 147-169.
41. Hopfield J. J., Tank D.W. Neural computation of decision in optimization problems// Biol. Cybernet. 1985. V. 52. P. 141-152.
42. Hornik K., Stinchcombe M. and White H. Multilayer feedforward networks are universal approximators//Neural Networks.- 1989.-N.2 P.359-366.
43. Hortz J., Krogh A., Palmer R. Introduction to the theory of neural computation. -Addison Wesley Publishing Company.-199l.-327p.
44. Lowe D. Adaptive radial basis function nonlinearities and the problem of generalization// First IEE International Conference on Artificial Neural Networks, 1989, P. 171-175, London.
45. Lowe D. What have neural networks to offer statistical pattern processing?// Proceedings of the SPIE Conference on Adaptive Signal Processing, 1991, P. 460471, San Diego, CA.
46. Maxwell T., Giles C., Lee Y., Chen H. Nonlinear Dynamics of Artifical Neural Systems// Proceedings of the Conf. On Neural Networks for Computing.- American Institute ofPhusics.-1986.
47. Mhaslcar H.N. Neural networks for optimal approximation of smooth and analytic functions//Neural Computation, 1996, vol. 8 P. 1731-1742.
48. Micchelli C.A. Interpolation of scattered data: Distance matrices and conditionally positive definition functions// Constructive Aproximation, 1986, vol. 2, P. 11-22.
49. Moody J., C.I. Darken Fast learning in networks of locally-tuned processing units// Neural Computation, 1989, vol. 1 P. 281-294.
50. Niyogi P., F. Girosi On the relationship between generalization error, hypothesis complexity and sample complexity for radial basis functions// Neural Computation, 1996, vol. 8 P. 819-842.
51. Pattern classification using neural networks// IEEE Communications Magazine, 1989, vol. 27 P. 47-64.
52. Poggio T., F. Girosi Networks for approximation and learning// Proceedings of the IEEE, 1990, vol. 78 P. 1481-1497.
53. Powell M.J.D. Radial basis function approximations to polynomials// Numerical Analysis 1987 Proceedings, 1988, P. 223-241', Dundee, UK.
54. Powell M.J.D. The theory of radial basis function approximation in 1990//W. Light, ed., Advances in Numerical Analysis Vol. II: Wavelets, Subdivision Algorithms and Radial Basis Functions, 1992, P. 105-210, Oxford: Oxford Science Publications.
55. Rosenblatt F. The perseptron: a probabilistic model for information storage and organization in the brain//Psychol. Rev. 1958. V. 65.
56. Rumelhart D.E., G.E. Hinton and R.J. Williams "Learning representation of back-propagation error", Nature (London), 1986, vol.323, P.533 536.
57. Sejnowski T.J., C.R. Rosenberg Parallel networks that learn to pronounce English text//Complex Systems, 1987, vol. 1 P. 145-168.
58. Takefuji D.Y. A new model of neural networks for error correction// Proc. 9th Annu Conf. IEEE Eng. Med. and Biol. Soc. Boston, Mass., Nov. 13-16, 1987. V. 3, New York, 1987. P. 1709-1710.
59. Takens F. Detecting Strange Attractors in Fluid Turbulence. In dynamical Systems and Turbulence, 1981, Springer, Berlin.
60. Wettschereck D., T. Dietterich Improving the performance of radial basis function networks by learning center locations// Advances in Neural Information Processing Systems, 1992, vol. 4 P. 1133-1140, San Mateo, CA: Morgan Kaufmann.
61. Widrow B., M.E. Hoff Jr. Adaptive switching circuits// IRE WESCON Convention Record
-
Похожие работы
- Управление инвестиционной деятельностью финансовых посредников в системе российского фондового рынка
- Нейросетевое управление рентабельностью предприятия
- Система поддержки принятия решений предприятия на основе нейросетевых технологий
- Математическое обеспечение информационной системы учета и прогнозирования продовольственных ресурсов региона
- Системный анализ взаимодействия номинального и реального секторов переходной экономики
-
- Системный анализ, управление и обработка информации (по отраслям)
- Теория систем, теория автоматического регулирования и управления, системный анализ
- Элементы и устройства вычислительной техники и систем управления
- Автоматизация и управление технологическими процессами и производствами (по отраслям)
- Автоматизация технологических процессов и производств (в том числе по отраслям)
- Управление в биологических и медицинских системах (включая применения вычислительной техники)
- Управление в социальных и экономических системах
- Математическое и программное обеспечение вычислительных машин, комплексов и компьютерных сетей
- Системы автоматизации проектирования (по отраслям)
- Телекоммуникационные системы и компьютерные сети
- Системы обработки информации и управления
- Вычислительные машины и системы
- Применение вычислительной техники, математического моделирования и математических методов в научных исследованиях (по отраслям наук)
- Теоретические основы информатики
- Математическое моделирование, численные методы и комплексы программ
- Методы и системы защиты информации, информационная безопасность