Перейти к содержанию
Форекс Форум трейдеров Академии «MasterForex-V»

Нейросетевые советники.


Рекомендуемые сообщения

Именно так, и ни как иначе. С таким учитетелм (как Зиг-заг без промежуточных значений) сеть просто с ума сойдет.

Я подавал на всех промежуточных барах направление линии зигзага - вверх или вниз.

Ссылка на комментарий
Поделиться на другие сайты

  • Ответов 51
  • Создана
  • Последний ответ

Топ авторов темы

Топ авторов темы

Изображения в теме

Я не предлагаю использовать ЗЗ в качестве учителя. Я использую его для определения больших движений, на которые имеет смысл искать закономерности для входа по другим индикаторам.
Ссылка на комментарий
Поделиться на другие сайты

Я не предлагаю использовать ЗЗ в качестве учителя. Я использую его для определения больших движений, на которые имеет смысл искать закономерности для входа по другим индикаторам.

У вас есть бар, на котором нет ни красной птички вашего индюка, ни зеленой.

Вопрос был - чему учите сеть на этом баре?

Ссылка на комментарий
Поделиться на другие сайты

Я не предлагаю использовать ЗЗ в качестве учителя. Я использую его для определения больших движений, на которые имеет смысл искать закономерности для входа по другим индикаторам.

У вас есть бар, на котором нет ни красной птички вашего индюка, ни зеленой.

Вопрос был - чему учите сеть на этом баре?

 

Не надо учить сеть на каждом баре - это утопия. Нужно отфильтровать ключевые точки с которых начинается большое движение. Именно такие точки показывает зигзаг. В идеале, на всех промежуточных барам выход сети будет меньше порога срабатывания условия на вход.

Ссылка на комментарий
Поделиться на другие сайты

Понятно.

Надо попробовать. Может и правда лучше лишнее из обучающей выборки убрать?

 

Потому что есть вещи, которые не получается пока объяснить.

Например, вот 4 предсказания синусоиды разными GRNN-сетями:

 

http://img234.imageshack.us/img234/2478/sinep3.gif

 

1. 1975 нейронов.

2. 1975 нейронов в 100 кластерах.

3. 105 нейронов.

4. 30 нейронов.

 

Самая маленькая ошибка у сети-105-нейронов (период синусоиды приблизительно 20 баров).

Но даже у 4-й сетки ошибка на порядок меньше, чем у первых двух! Причем у них какие-то странные искажения у экстремумов.

 

А советуют использовать побольше данных для обучения (имею ввиду сетки RBF).

Не понятно.

Ссылка на комментарий
Поделиться на другие сайты

Предсказания синусоиды и иных периодических временных рядов не представляется сложным. А вот предсказание случайного временного ряды ( или точнее квазислучайного, т.к. котировки, и индикаторы движутся в определенном диапазоне) это совсем иная задача.

Вообще , как мне видится (так я поступаю) сеть проектируется с хвоста, т.е. сначала берем то что мы хотим от нее получить и постепенно движемся к конечной точке -архитектура и замерность. И как правило: выход сети это непрерывная функция, которая выступает в роли учителия. А вот зигзаг непрерывным назвать сложно.

Ссылка на комментарий
Поделиться на другие сайты

Предсказания синусоиды и иных периодических временных рядов не представляется сложным. А вот предсказание случайного временного ряды ( или точнее квазислучайного, т.к. котировки, и индикаторы движутся в определенном диапазоне) это совсем иная задача.

Вообще , как мне видится (так я поступаю) сеть проектируется с хвоста, т.е. сначала берем то что мы хотим от нее получить и постепенно движемся к конечной точке -архитектура и замерность. И как правило: выход сети это непрерывная функция, которая выступает в роли учителия. А вот зигзаг непрерывным назвать сложно.

Понятно, что синусоида предсказывается.

Непонятно почему маленькой сетью лучше, чем большой.

Везде в статьях, где сравнивались разные типы сетей и выборки были маленькими, результаты PNN или GRNN не были блестящими. И всегда это объяснялось маленькой обуч. выборкой.

А с простым сигналом получилось наоборот, что наводит на мысль о том, что даже размер выборки для обучения имеет оптимум.

 

По выходу сети: я так понял, мамонт работает с вероятностной сетью.

Например она имеет два класса - рост и падения.

А также пороги чувствительности и сенситивности.

 

Если ей предъявить промежуточный бар (которым она не обучалась - только пикам) - ее отклик в каждый из двух классов будет близок к нулю.

Что, исходя из порогов, можно интерпретировать как "не знаю".

Чем ближе промежуточный бар к пику, тем больше отклик сети для этого класса. Когда превысит порог, сеть выдаст классификацию.

Так я понял, Мамонт?

Ссылка на комментарий
Поделиться на другие сайты

Понятно, что синусоида предсказывается.

Непонятно почему маленькой сетью лучше, чем большой.

Везде в статьях, где сравнивались разные типы сетей и выборки были маленькими, результаты PNN или GRNN не были блестящими. И всегда это объяснялось маленькой обуч. выборкой.

А с простым сигналом получилось наоборот, что наводит на мысль о том, что даже размер выборки для обучения имеет оптимум.

 

По выходу сети: я так понял, мамонт работает с вероятностной сетью.

Например она имеет два класса - рост и падения.

А также пороги чувствительности и сенситивности.

 

Если ей предъявить промежуточный бар (которым она не обучалась - только пикам) - ее отклик в каждый из двух классов будет близок к нулю.

Что, исходя из порогов, можно интерпретировать как "не знаю".

Чем ближе промежуточный бар к пику, тем больше отклик сети для этого класса. Когда превысит порог, сеть выдаст классификацию.

Так я понял, Мамонт?

 

В принципе - так. Ведь что такое PNN: Радиальный слой считает евклидово растояние от входного вектора до каждого нейрона, а выходной на основе этих расстояний вычисляет вероятность принадлежность входного вектора каждому классу. Если вероятности маленькие - то, либо на вход подали что-то новенькое, либо входить не стоит.

Ссылка на комментарий
Поделиться на другие сайты

 

В принципе - так. Ведь что такое PNN: Радиальный слой считает евклидово растояние от входного вектора до каждого нейрона, а выходной на основе этих расстояний вычисляет вероятность принадлежность входного вектора каждому классу. Если вероятности маленькие - то, либо на вход подали что-то новенькое, либо входить не стоит.

 

Только не путайте архитектуру сети и алгоритм обучения.

Ссылка на комментарий
Поделиться на другие сайты

  • 2 недели спустя...

Вот помаленьку подбираю входы для сети с помощью сети Кохоннена и моего индикатора. Входов пока только 4. На одном рисунке входы с зигзага 55.5.3, на другом 21.5.3. Но на обоих выборках отлавливается движение более 100пп на Н1.

Как видно, на меньшем зигзаге области покупки/продажи немного перемешались, но тенденция сохраняется. На зигзаге 55.5.3 четко выделяются два кластера.

 

Буду увеличивать размерность входов и копать дальше.

post-10533-1209370777_thumb.jpg

post-10533-1209370907_thumb.jpg

Ссылка на комментарий
Поделиться на другие сайты

  • 2 недели спустя...

Что-то тема заглохла. Сделал индикатор сегодня.

В процедуре инициализации скрипт считывает с графика стрелочки, расставленные пользователем и на их основе обучает PNN. Далее индикатор сам показывает вероятность движения в ту или иную сторону.

Состав входа подобран с помощью сетей Кохоннена.post-10533-1210174706_thumb.pngpost-10533-1210174724_thumb.png

Ссылка на комментарий
Поделиться на другие сайты

Подготовка данных, как таковая, отсутствует. Пользователь сам расставляет стрелочки на графике, показывая сетке входы. И почти в реальном времени видит результаты своего "учительства", можно оперативно убрать неудачный пример, если предсказания "размажутся". На скринах результат обучения всего на 35 примерах, на вход сети поступает всего 18 параметров с одного ТФ. Исследования продолжаются :-)
Ссылка на комментарий
Поделиться на другие сайты

Просто нейро сети (нейросетевые советники) не простая вещь. Что бы понять и создать что-то приемлимое надо понимать работу нейросетей вообще( а это складывается из нескольких постулатов). И так как во многом информация по сетям не публикуется в нете на общедоступных сайтах, то и большинства знания по данному вопросу поверхностные.

Извините, ни кого не хотел обидеть, но таковы реалии.

Ссылка на комментарий
Поделиться на другие сайты


×
×
  • Создать...