Erics Опубликовано 15 апреля, 2008 Жалоба Поделиться Опубликовано 15 апреля, 2008 Именно так, и ни как иначе. С таким учитетелм (как Зиг-заг без промежуточных значений) сеть просто с ума сойдет.Я подавал на всех промежуточных барах направление линии зигзага - вверх или вниз. Ссылка на комментарий Поделиться на другие сайты Поделиться
MAMOHT Опубликовано 16 апреля, 2008 Жалоба Поделиться Опубликовано 16 апреля, 2008 Я не предлагаю использовать ЗЗ в качестве учителя. Я использую его для определения больших движений, на которые имеет смысл искать закономерности для входа по другим индикаторам. Ссылка на комментарий Поделиться на другие сайты Поделиться
Erics Опубликовано 16 апреля, 2008 Жалоба Поделиться Опубликовано 16 апреля, 2008 Я не предлагаю использовать ЗЗ в качестве учителя. Я использую его для определения больших движений, на которые имеет смысл искать закономерности для входа по другим индикаторам.У вас есть бар, на котором нет ни красной птички вашего индюка, ни зеленой.Вопрос был - чему учите сеть на этом баре? Ссылка на комментарий Поделиться на другие сайты Поделиться
MAMOHT Опубликовано 16 апреля, 2008 Жалоба Поделиться Опубликовано 16 апреля, 2008 Я не предлагаю использовать ЗЗ в качестве учителя. Я использую его для определения больших движений, на которые имеет смысл искать закономерности для входа по другим индикаторам.У вас есть бар, на котором нет ни красной птички вашего индюка, ни зеленой.Вопрос был - чему учите сеть на этом баре? Не надо учить сеть на каждом баре - это утопия. Нужно отфильтровать ключевые точки с которых начинается большое движение. Именно такие точки показывает зигзаг. В идеале, на всех промежуточных барам выход сети будет меньше порога срабатывания условия на вход. Ссылка на комментарий Поделиться на другие сайты Поделиться
Erics Опубликовано 16 апреля, 2008 Жалоба Поделиться Опубликовано 16 апреля, 2008 Понятно.Надо попробовать. Может и правда лучше лишнее из обучающей выборки убрать? Потому что есть вещи, которые не получается пока объяснить.Например, вот 4 предсказания синусоиды разными GRNN-сетями: http://img234.imageshack.us/img234/2478/sinep3.gif 1. 1975 нейронов.2. 1975 нейронов в 100 кластерах.3. 105 нейронов.4. 30 нейронов. Самая маленькая ошибка у сети-105-нейронов (период синусоиды приблизительно 20 баров).Но даже у 4-й сетки ошибка на порядок меньше, чем у первых двух! Причем у них какие-то странные искажения у экстремумов. А советуют использовать побольше данных для обучения (имею ввиду сетки RBF).Не понятно. Ссылка на комментарий Поделиться на другие сайты Поделиться
Sergey_Murzinov Опубликовано 16 апреля, 2008 Жалоба Поделиться Опубликовано 16 апреля, 2008 Предсказания синусоиды и иных периодических временных рядов не представляется сложным. А вот предсказание случайного временного ряды ( или точнее квазислучайного, т.к. котировки, и индикаторы движутся в определенном диапазоне) это совсем иная задача.Вообще , как мне видится (так я поступаю) сеть проектируется с хвоста, т.е. сначала берем то что мы хотим от нее получить и постепенно движемся к конечной точке -архитектура и замерность. И как правило: выход сети это непрерывная функция, которая выступает в роли учителия. А вот зигзаг непрерывным назвать сложно. Ссылка на комментарий Поделиться на другие сайты Поделиться
Erics Опубликовано 17 апреля, 2008 Жалоба Поделиться Опубликовано 17 апреля, 2008 Предсказания синусоиды и иных периодических временных рядов не представляется сложным. А вот предсказание случайного временного ряды ( или точнее квазислучайного, т.к. котировки, и индикаторы движутся в определенном диапазоне) это совсем иная задача.Вообще , как мне видится (так я поступаю) сеть проектируется с хвоста, т.е. сначала берем то что мы хотим от нее получить и постепенно движемся к конечной точке -архитектура и замерность. И как правило: выход сети это непрерывная функция, которая выступает в роли учителия. А вот зигзаг непрерывным назвать сложно.Понятно, что синусоида предсказывается. Непонятно почему маленькой сетью лучше, чем большой.Везде в статьях, где сравнивались разные типы сетей и выборки были маленькими, результаты PNN или GRNN не были блестящими. И всегда это объяснялось маленькой обуч. выборкой.А с простым сигналом получилось наоборот, что наводит на мысль о том, что даже размер выборки для обучения имеет оптимум. По выходу сети: я так понял, мамонт работает с вероятностной сетью.Например она имеет два класса - рост и падения.А также пороги чувствительности и сенситивности. Если ей предъявить промежуточный бар (которым она не обучалась - только пикам) - ее отклик в каждый из двух классов будет близок к нулю.Что, исходя из порогов, можно интерпретировать как "не знаю".Чем ближе промежуточный бар к пику, тем больше отклик сети для этого класса. Когда превысит порог, сеть выдаст классификацию.Так я понял, Мамонт? Ссылка на комментарий Поделиться на другие сайты Поделиться
MAMOHT Опубликовано 17 апреля, 2008 Жалоба Поделиться Опубликовано 17 апреля, 2008 Понятно, что синусоида предсказывается. Непонятно почему маленькой сетью лучше, чем большой.Везде в статьях, где сравнивались разные типы сетей и выборки были маленькими, результаты PNN или GRNN не были блестящими. И всегда это объяснялось маленькой обуч. выборкой.А с простым сигналом получилось наоборот, что наводит на мысль о том, что даже размер выборки для обучения имеет оптимум. По выходу сети: я так понял, мамонт работает с вероятностной сетью.Например она имеет два класса - рост и падения.А также пороги чувствительности и сенситивности. Если ей предъявить промежуточный бар (которым она не обучалась - только пикам) - ее отклик в каждый из двух классов будет близок к нулю.Что, исходя из порогов, можно интерпретировать как "не знаю".Чем ближе промежуточный бар к пику, тем больше отклик сети для этого класса. Когда превысит порог, сеть выдаст классификацию.Так я понял, Мамонт? В принципе - так. Ведь что такое PNN: Радиальный слой считает евклидово растояние от входного вектора до каждого нейрона, а выходной на основе этих расстояний вычисляет вероятность принадлежность входного вектора каждому классу. Если вероятности маленькие - то, либо на вход подали что-то новенькое, либо входить не стоит. Ссылка на комментарий Поделиться на другие сайты Поделиться
Sergey_Murzinov Опубликовано 19 апреля, 2008 Жалоба Поделиться Опубликовано 19 апреля, 2008 В принципе - так. Ведь что такое PNN: Радиальный слой считает евклидово растояние от входного вектора до каждого нейрона, а выходной на основе этих расстояний вычисляет вероятность принадлежность входного вектора каждому классу. Если вероятности маленькие - то, либо на вход подали что-то новенькое, либо входить не стоит. Только не путайте архитектуру сети и алгоритм обучения. Ссылка на комментарий Поделиться на другие сайты Поделиться
MAMOHT Опубликовано 28 апреля, 2008 Жалоба Поделиться Опубликовано 28 апреля, 2008 Вот помаленьку подбираю входы для сети с помощью сети Кохоннена и моего индикатора. Входов пока только 4. На одном рисунке входы с зигзага 55.5.3, на другом 21.5.3. Но на обоих выборках отлавливается движение более 100пп на Н1. Как видно, на меньшем зигзаге области покупки/продажи немного перемешались, но тенденция сохраняется. На зигзаге 55.5.3 четко выделяются два кластера. Буду увеличивать размерность входов и копать дальше. Ссылка на комментарий Поделиться на другие сайты Поделиться
MAMOHT Опубликовано 7 мая, 2008 Жалоба Поделиться Опубликовано 7 мая, 2008 Что-то тема заглохла. Сделал индикатор сегодня.В процедуре инициализации скрипт считывает с графика стрелочки, расставленные пользователем и на их основе обучает PNN. Далее индикатор сам показывает вероятность движения в ту или иную сторону. Состав входа подобран с помощью сетей Кохоннена. Ссылка на комментарий Поделиться на другие сайты Поделиться
Sergey_Murzinov Опубликовано 7 мая, 2008 Жалоба Поделиться Опубликовано 7 мая, 2008 Не плохо. Но сразу видно только одно - нормальной подготовки данных нет. А это очень многое значит Ссылка на комментарий Поделиться на другие сайты Поделиться
MAMOHT Опубликовано 7 мая, 2008 Жалоба Поделиться Опубликовано 7 мая, 2008 Подготовка данных, как таковая, отсутствует. Пользователь сам расставляет стрелочки на графике, показывая сетке входы. И почти в реальном времени видит результаты своего "учительства", можно оперативно убрать неудачный пример, если предсказания "размажутся". На скринах результат обучения всего на 35 примерах, на вход сети поступает всего 18 параметров с одного ТФ. Исследования продолжаются :-) Ссылка на комментарий Поделиться на другие сайты Поделиться
Zhunko Опубликовано 7 мая, 2008 Жалоба Поделиться Опубликовано 7 мая, 2008 Что-то тема заглохла.Ни чего себе заглохла! 1500 посещений! Не все специалисты в нейросетях, но почти всем интересно. Ссылка на комментарий Поделиться на другие сайты Поделиться
Sergey_Murzinov Опубликовано 8 мая, 2008 Жалоба Поделиться Опубликовано 8 мая, 2008 Просто нейро сети (нейросетевые советники) не простая вещь. Что бы понять и создать что-то приемлимое надо понимать работу нейросетей вообще( а это складывается из нескольких постулатов). И так как во многом информация по сетям не публикуется в нете на общедоступных сайтах, то и большинства знания по данному вопросу поверхностные. Извините, ни кого не хотел обидеть, но таковы реалии. Ссылка на комментарий Поделиться на другие сайты Поделиться
Рекомендуемые сообщения