МЕНЮ


Фестивали и конкурсы
Семинары
Издания
О МОДНТ
Приглашения
Поздравляем

НАУЧНЫЕ РАБОТЫ


  • Инновационный менеджмент
  • Инвестиции
  • ИГП
  • Земельное право
  • Журналистика
  • Жилищное право
  • Радиоэлектроника
  • Психология
  • Программирование и комп-ры
  • Предпринимательство
  • Право
  • Политология
  • Полиграфия
  • Педагогика
  • Оккультизм и уфология
  • Начертательная геометрия
  • Бухучет управленчучет
  • Биология
  • Бизнес-план
  • Безопасность жизнедеятельности
  • Банковское дело
  • АХД экпред финансы предприятий
  • Аудит
  • Ветеринария
  • Валютные отношения
  • Бухгалтерский учет и аудит
  • Ботаника и сельское хозяйство
  • Биржевое дело
  • Банковское дело
  • Астрономия
  • Архитектура
  • Арбитражный процесс
  • Безопасность жизнедеятельности
  • Административное право
  • Авиация и космонавтика
  • Кулинария
  • Наука и техника
  • Криминология
  • Криминалистика
  • Косметология
  • Коммуникации и связь
  • Кибернетика
  • Исторические личности
  • Информатика
  • Инвестиции
  • по Зоология
  • Журналистика
  • Карта сайта
  • Нейрокомпьютерные системы

    находятся в сильном беспорядочном движении. Как и во всех физических

    системах, атомы стремятся к состоянию минимума энергии (единому

    кристаллу в данном случае), но при высоких температурах энергия

    атомных движений препятствует этому. В процессе постепенного охлаждения

    металла возникают все более низкоэнергетические состояния, пока в

    конце концов не будет достигнуто наинизшее из возможных состояний,

    глобальный минимум. В процессе отжига распределение энергетических

    уровней описывается следующим соотношением:

    P(e) ( exp (-e / kT)

    где Р(е) - вероятность того, что система находится в состоянии с

    энергией е, k - постоянная Больцмана; Т - температура по шкале

    Кельвина. При высоких температурах Р(е) приближается к единице для

    всех энергетических состояний. Таким образом, высокоэнергетическое

    состояние почти столь же вероятно, как и низкоэнергетическое. По мере

    уменьшения температуры вероятность высокоэнергетических состояний

    уменьшается по сравнению с низкоэнергетическими. При приближении

    температуры к нулю становится весьма маловероятным, чтобы система

    находилась в высокоэнергетическом состоянии.

    Больцмановское обучение

    Этот стохастический метод непосредственно применим к обучению

    искусственных нейронных сетей:

    1. Определить переменную Т, представляющую искусственную температуру.

    Придать Т большое начальное значение.

    2. Предъявить сети множество входов и вычислить выходы и целевую

    функцию.

    3. Дать случайное изменение весу и пересчитать выход сети и

    изменение целевой функции в соответствии со сделанным изменением веса.

    4. Если целевая функция уменьшилась (улучшилась), то сохранить изменение

    веса. Если изменение веса приводит к увеличению целевой функции,

    то вероятность сохранения этого изменения вычисляется с помощью

    распределения Больцмана:

    P(c) = exp (-c / kT) (5.2)

    где Р(е) - вероятность изменения с в целевой функции; k - константа,

    аналогичная константе Больцмана, выбираемая в зависимости от задачи; Т

    - искусственная температура. Выбирается случайное число /• из

    равномерного распределения от нуля до единицы. Если Р(с) больше, чем г,

    то изменение сохраняется, в противном случае величина веса возвращается

    к предыдущему значению. Это позволяет системе делать случайный шаг

    в направлении, портящем целевую функцию, позволяя ей тем самым

    вырываться из локальных минимумов, где любой малый шаг увеличивает

    целевую функцию. Для завершения больцмановского обучения повторяют

    шаги 3 и 4 для каждого из весов сети, постепенно уменьшая температуру

    Т, пока не будет достигнуто допустимо низкое значение целевой функции. В

    этот момент предъявляется другой входной вектор и процесс обучения

    повторяется. Сеть обучается на всех векторах обучающего множества, с

    возможным повторением, пока целевая функция не станет допустимой для всех

    них. Величина случайного изменения веса на шаге 3 может определяться

    различными способами. Например, подобно тепловой системе весовое

    изменение w может выбираться в соответствии с гауссовским распределением:

    P(w) = ехр(- w2/T2), (5.3)

    где P(w) - вероятность изменения веса на величину w, Т -

    искусственная температура. Такой выбор изменения веса приводит

    к системе, аналогичной [3]. Так как нужна величина изменения веса

    (w, а не вероятность изменения веса, имеющего величину w, то метод

    Монте-Карло может быть использован следующим образом:

    1. Найти кумулятивную вероятность, соответствующую P(w). Это есть

    интеграл от P(w) в пределах от 0 до w. Так как в данном случае P(w)

    не может быть проинтегрирована аналитически, она должна

    интегрироваться численно, а результат необходимо затабулировать. 2.

    Выбрать случайное число из равномерного распределения на интервале

    (0,1). Используя эту величину в качестве значения P(w), найти в таблице

    соответствующее значение для величины изменения веса. Свойства

    машины Больцмана широко изучались. В работе [1] показано, что скорость

    уменьшения температуры должна быть обратно пропорциональна логарифму

    времени, чтобы была достигнута сходимость к глобальному минимуму.

    Скорость охлаждения в такой системе выражается следующим образом:

    T(t) = T0/log(1 + t), (5.4)

    где T(t) - искусственная температура как функция времени; Т0 -

    начальная искусственная температура; t -искусственное время. Этот

    разочаровывающий результат предсказывает очень медленную скорость

    охлаждения (и данные вычисления). Этот вывод подтвердился

    экспериментально. Машины Больцмана часто требуют для обучения очень

    большого ресурса времени.

    Обучение Коши

    В работе [6] развит метод быстрого обучения подобных систем. В этом

    методе при вычислении величины шага распределение Больцмана заменяется

    на распределение Коши. Распределение Коши имеет, как показано

    на рис. .5.3, более длинные «хвосты», увеличивая тем самым вероятность

    больших шагов. В действительности распределение Коши имеет бесконечную

    (неопределенную) дисперсию. С помощью такого простого изменения

    максимальная скорость уменьшения температуры становится обратно

    пропорциональной линейной величине, а не логарифму, как для алгоритма

    обучения Больцмана. Это резко уменьшает время обучения. Эта связь может

    быть выражена следующим образом:

    T(t) = T0/(1 + t) (5.5)

    Распределение Коши имеет вид

    P(x) = T(t) / [T(t)2 + x2] ,

    где Р(х) есть вероятность шага величины х.

    [pic]

    Рис. 5.3. Распределение Коши и распределение Больцмана.

    В уравнении (5.6) Р(х) может быть проинтегрирована стандартными

    методами. Решая относительно х, получаем

    xc = р{T(t)tg[P(х)]), (5.7)

    где р - коэффициент скорости обучения; хc - изменение веса.

    Теперь применение метода Мойте Карло становится очень простым. Для

    нахождения х в этом случае выбирается случайное число из равномерного

    распределения на открытом интервале (- (/2, (/2) (необходимо ограничить

    функцию тангенса). Оно подставляется в формулу (5.7) в качестве Р(х), и

    с помощью текущей температуры вычисляется величина шага.

    Метод искусственной теплоемкости

    Несмотря на улучшение, достигаемое с помощью метода Коши, время

    обучения может оказаться все еще слишком большим. Способ, уходящий своими

    корнями в термодинамику, может быть использован для ускорения этого

    процесса. В этом методе скорость уменьшения температуры изменяется в

    соответствии с искусственной «теплоемкостью», вычисляемой в процессе

    обучения. Во время отжига металла происходят фазовые переходы,

    связанные с дискретными изменениями уровней энергии. При каждом

    фазовом переходе может иметь место резкое изменение величины,

    называемой теплоемкостью. Теплоемкость определяется как скорость

    изменения температуры с энергией. Изменения теплоемкости происходят

    из-за попадания системы в локальные энергетические минимумы.

    Искусственные нейронные сети проходят аналогичные фазы в процессе

    обучения. На границе фазового перехода искусственная теплоемкость

    может скачкообразно измениться. Эта псевдотеплоемкость определяется как

    средняя скорость изменения температуры с целевой функцией. В примере

    шарика в коробке сильная начальная встряска делает среднюю величину

    целевой функции фактически не зависящей от малых изменений температуры,

    т.е. теплоемкость близка к константе. Аналогично при очень низких

    температурах система замерзает в точке минимума, так что теплоемкость

    снова близка к константе. Ясно, что в каждой из этих областей

    допустимы сильные изменения температуры, так как не происходит

    улучшения целевой функции, При критических температурах небольшое

    уменьшение температуры приводит к большому изменению средней вели чины

    целевой функции. Возвращаясь к аналогии с шариком, при «температуре»,

    когда шарик обладает достаточной средней энергией, чтобы перейти из А

    в В, но недостаточной для перехода из В в А, средняя величина целевой

    функции испытывает скачкообразное изменение. В этих критических

    точках алгоритм должен изменять температуру очень медленно, чтобы

    гарантировать, что система не замерзнет случайно в точке А, оказавшись

    пойманной в локальный минимум. Критическая температура может быть

    обнаружена по резкому уменьшению искусственной теплоемкости, т.е. средней

    скорости изменения температуры с целевой функцией. При достижении

    критической температуры скорость изменения температуры должна замедляться,

    чтобы гарантировать сходимость к глобальному минимуму.

    ОБРАТНОЕ РАСПРОСТРАНЕНИЕ И ОБУЧЕНИЕ КОШИ

    Обратное распространение обладает преимуществом прямого поиска,

    т.е. веса всегда корректируются в направлении, минимизирующем функцию

    ошибки. Хотя время обучения и велико, оно существенно меньше, чем

    при случайном поиске, выполняемом машиной Коши, когда находится

    глобальный минимум, но многие шаги выполняются в неверном направлении,

    что отнимает много времени. Соединение этих двух методов дало

    хорошие результаты [7]. Коррекция весов, равная сумме, вычисленной

    алгоритмом обратного распространения, и случайный шаг, задаваемый

    алгоритмом Коши, приводят к системе, которая сходится и находит

    глобальный минимум быстрее, чем система, обучаемая каждым из

    методов в отдельности. Простая эвристика используется для избежания

    паралича сети, который может иметь место как при обратном

    распространении, так и при обучении по методу Коши.

    Трудности, связанные с обратным распространением

    Несмотря на мощь, продемонстрированную методом обратного

    распространения, при его применении возникает ряд трудностей, часть

    из которых, однако, облегчается благодаря использованию нового

    алгоритма.

    Сходимость. В работе [5] доказательство сходимости дается на языке

    дифференциальных уравнений в частных производных, что делает его

    справедливым лишь в том случае, когда коррекция весов выполняется с

    помощью бесконечно малых шагов. Так как это ведет к бесконечному

    времени сходимости, то оно теряет силу в практических применениях. В

    действительности нет доказательства, что обратное распространение будет

    сходиться при конечном размере шага. Эксперименты показывают, что

    сети обычно обучаются, но время обучения велико и непредсказуемо.

    Локальные минимумы. В обратном распространении для коррекции весов

    сети используется градиентный спуск, продвигающийся к минимуму в

    соответствии с локальным наклоном поверхности ошибки. Он хорошо работает

    в случае сильно изрезанных невыпуклых поверхностей, которые встречаются

    в практических задачах. В одних случаях локальный минимум является

    приемлемым решением, в других случаях он неприемлем. Даже после

    того как сеть обучена, невозможно сказать, найден ли с помощью -

    обратного распространения глобальный минимум. Если решение

    неудовлетворительно, приходится давать весам новые начальные случайные

    значения и повторно обучать сеть без гарантии, что обучение закончится на

    этой попытке или что глобальный минимум вообще будет когда либо найден.

    Паралич. При некоторых условиях сеть может при обучении попасть в такое

    состояние, когда модификация весов не ведет к действительным изменениям

    сети. Такой «паралич сети» является серьезной проблемой: один раз

    возникнув, он может увеличить время обучения на несколько порядков.

    Паралич возникает, когда значительная часть нейронов получает веса,

    достаточно большие, чтобы дать большие значения NET. Это приводит к тому,

    что величина OUT приближается к своему предельному значению, а

    производная от сжимающей функции приближается к нулю. Как мы видели,

    алгоритм обратного распространения при вычислении величины изменения

    веса использует эту производную в формуле в качестве коэффициента. Для

    пораженных параличом нейронов близость производной к нулю приводит к

    тому, что изменение веса становится близким к нулю. Если подобные

    условия возникают во многих нейронах сети, то обучение может

    замедлиться до почти полной остановки. Нет теории, способной

    предсказывать, будет ли сеть парализована во время обучения или нет.

    Экспериментально установлено, что малые размеры шага реже приводят к

    параличу, но шаг, малый для одной задачи, может оказаться большим для

    другой. Цена же паралича может быть высокой. При моделировании многие

    часы машинного времени могут уйти на то, чтобы выйти из паралича.

    Трудности с алгоритмом обучения Коши

    Несмотря на улучшение скорости обучения, даваемое машиной Коши по

    сравнению с машиной Больцмана, время сходимости все еще может в 100 раз

    превышать время для алгоритма обратного распространения. Отметим, что

    сетевой паралич особенно опасен для алгоритма обучения Коши, в

    особенности для сети с нелинейностью типа логистической функции.

    Бесконечная дисперсия распределения Коши приводит к изменениям весов

    неограниченной величины. Далее, большие изменения весов будут иногда

    приниматься даже в тех случаях, когда они неблагоприятны, часто

    приводя к сильному насыщению сетевых нейронов с вытекающим отсюда

    риском паралича.

    Комбинирование обратного распространения с обучением Коши

    Коррекция весов в комбинированном алгоритме, использующем

    обратное распространение и обучение Коши, состоит из двух компонент: (1)

    направленной компоненты, вычисляемой с использованием алгоритма

    обратного распространения, и (2) случайной компоненты, определяемой

    распределением Коши. Эти компоненты вычисляются для каждого веса, и

    их сумма является величиной, на которую изменяется вес. Как и в

    алгоритме Коши, после вычисления изменения веса вычисляется целевая

    функция. Если имеет место улучшение, изменение сохраняется. В

    противном случае оно

    сохраняется с вероятностью, определяемой распределением Больцмана.

    Коррекция веса вычисляется с использованием представленных ранее

    уравнений для каждого из алгоритмов:

    wmn,k(n+1) = wmn,k(n) + ([(( wmn,k(n) + (1 - ()(n,kOUTm,i] + (1 - ()xc ,

    где (- коэффициент, управляющий относительными величинами Коши и

    обратного распространения в компонентах весового шага. Если (

    приравнивается нулю, система становится полностью машиной Коши. Если (

    приравнивается единице, система становится машиной обратного

    распространения. Изменение лишь одного весового коэффициента между

    вычислениями весовой функции неэффективно. Оказалось, что лучше сразу

    изменять все веса целого слоя, хотя для некоторых задач может оказаться

    выгоднее иная стратегия.

    Преодоление сетевого паралича комбинированным методом обучения. Как и

    в машине Коши, если изменение веса ухудшает целевую функцию, - с

    помощью распределения Больцмана решается, сохранить ли новое

    значение веса или восстановить предыдущее значение. Таким образом,

    имеется конечная вероятность того, что ухудшающее множество приращений

    весов будет сохранено. Так как распределение Коши имеет бесконечную

    дисперсию (диапазон изменения тангенса простирается от [pic] до [pic] на

    области определения), то весьма вероятно возникновение больших

    приращений весов, часто приводящих к сетевому параличу. Очевидное

    решение, состоящее в ограничении диапазона изменения весовых шагов,

    ставит вопрос о математической корректности полученного таким образом

    алгоритма. В работе [6] доказана сходимость системы к глобальному

    минимуму лишь для исходного алгоритма. Подобного доказательства при

    искусственном ограничении размера шага не существует. В

    действительности экспериментально выявлены случаи, когда для реализации

    некоторой функции требуются большие веса, и два больших веса, вычитаясь,

    дают малую разность. Другое решение состоит в рандомизации весов

    тех нейронов, которые оказались в состоянии насыщения. Недостатком

    его является то, что оно может серьезно нарушить обучающий

    процесс, иногда затягивая его до бесконечности. Для решения

    проблемы паралича был найден метод, не нарушающий достигнутого обучения.

    Насыщенные нейроны выявляются с помощью измерения их сигналов ОПТ.

    Когда величина OUT приближается к своему предельному значению,

    положительному или отрицательному, на веса, питающие этот нейрон,

    действует сжимающая функция. Она подобна используемой для получения

    нейронного сигнала OUT, за исключением того, что диапазоном ее

    изменения является интервал (+ 5,- 5) или другое подходящее множество.

    Тогда модифицированные весовые значения равны

    Wmn = -5+10/[1 + ехр(-Wmn /5)].

    Страницы: 1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12, 13, 14, 15, 16


    Приглашения

    09.12.2013 - 16.12.2013

    Международный конкурс хореографического искусства в рамках Международного фестиваля искусств «РОЖДЕСТВЕНСКАЯ АНДОРРА»

    09.12.2013 - 16.12.2013

    Международный конкурс хорового искусства в АНДОРРЕ «РОЖДЕСТВЕНСКАЯ АНДОРРА»




    Copyright © 2012 г.
    При использовании материалов - ссылка на сайт обязательна.