МЕНЮ


Фестивали и конкурсы
Семинары
Издания
О МОДНТ
Приглашения
Поздравляем

НАУЧНЫЕ РАБОТЫ


  • Инновационный менеджмент
  • Инвестиции
  • ИГП
  • Земельное право
  • Журналистика
  • Жилищное право
  • Радиоэлектроника
  • Психология
  • Программирование и комп-ры
  • Предпринимательство
  • Право
  • Политология
  • Полиграфия
  • Педагогика
  • Оккультизм и уфология
  • Начертательная геометрия
  • Бухучет управленчучет
  • Биология
  • Бизнес-план
  • Безопасность жизнедеятельности
  • Банковское дело
  • АХД экпред финансы предприятий
  • Аудит
  • Ветеринария
  • Валютные отношения
  • Бухгалтерский учет и аудит
  • Ботаника и сельское хозяйство
  • Биржевое дело
  • Банковское дело
  • Астрономия
  • Архитектура
  • Арбитражный процесс
  • Безопасность жизнедеятельности
  • Административное право
  • Авиация и космонавтика
  • Кулинария
  • Наука и техника
  • Криминология
  • Криминалистика
  • Косметология
  • Коммуникации и связь
  • Кибернетика
  • Исторические личности
  • Информатика
  • Инвестиции
  • по Зоология
  • Журналистика
  • Карта сайта
  • Нейрокомпьютерные системы

    давать нулевой выход, помечены А и А, единичный выход - В и В. В

    сети на рис. 2.4 функция F является обычным порогом, так что OUT

    принимает значение ноль, когда NET меньше 0,5, и единица в случае,

    когда NET больше или равно 0,5. Нейрон выполняет следующее вычисление:

    [pic]

    xw1 + yw2 = 0,5 .

    Никакая комбинация значений двух весов не может дать соотношения

    между входом и выходом, задаваемого табл. 2.1. Чтобы понять это

    ограничение, зафиксируем NET на величине порога 0,5. Сеть в этом случае

    описывается уравнением (2.2). Это уравнение линейно по х и у, т.е. все

    значения по х и у, удовлетворяющие этому уравнению, будут лежать на

    некоторой прямой в плоскости x-y.

    Таблица 2.1. Таблица истинности для функции ИСКЛЮЧАЮЩЕЕ ИЛИ

    |Точки |Значения X|Значения Y|Требуемый выход |

    |A0 |0 |0 |0 |

    |B0 |1 |0 |1 |

    |B1 |0 |1 |1 |

    |A1 |1 |1 |0 |

    Любые входные значения для х и у на этой линии будут давать

    пороговое значение 0,5 для NET. Входные значения с одной стороны прямой

    обеспечат значения NET больше порога, следовательно, OUT = 1. Входные

    значения по другую сторону прямой обеспечат значения NET меньше порогового

    значения, делая OUT равным 0. Изменения значений w1 , w2 и порога

    будут менять наклон и положение прямой. Для того чтобы сеть

    реализовала функцию ИСКЛЮЧАЮЩЕЕ ИЛИ, заданную табл. 2.1, нужно

    расположить прямую так, чтобы точки А были с одной стороны прямой, а

    точки В - с другой. Попытавшись нарисовать такую прямую на рис. 2.5,

    убеждаемся, что это невозможно. Это означает, что какие бы значения ни

    приписывались весам и порогу, сеть неспособна воспроизвести

    соотношение между входом и выходом, требуемое для представления

    функции ИСКЛЮЧАЮЩЕЕ ИЛИ.

    [pic]

    Взглянув на задачу с другой точки зрения, рассмотрим NET как

    поверхность над плоскостью х-у. Каждая точка этой поверхности

    находится над соответствующей точкой плоскости х-у на расстоянии, равном

    значению NET этой точке. Можно показать, что наклон этой NЕТ-

    поверхности одинаков для всей поверхности х-у. Все точки, в которых

    значение NET равно величине порога, проектируются на линию уровня

    плоскости NET (см. рис. 2.6). Ясно, что все точки по одну сторону

    пороговой прямой спроецируются в значения NET, большие порога, а точки

    по другую сторону дадут меньшие значения ^ЕТ. Таким образом,

    пороговая прямая разбивает плоскость х-у на две области. Во всех точках

    по одну сторону пороговой прямой значение OUT равно единице, по

    другую сторону - нулю.

    [pic]

    Линейная разделимость

    Как мы видели, невозможно нарисовать прямую линию, разделяющую

    плоскость х-у так, чтобы реализовывалась функция ИСКЛЮЧАЮЩЕЕ ИЛИ. К

    сожалению, этот пример не единственный. Имеется обширный класс функций, не

    реализуемых однослойной сетью. Об этих функциях говорят, что они являются

    линейно неразделимыми, и они накладывают определентные ограничения на

    возможности однослойных сетей. Линейная разделимость ограничивает

    однослойные сети задачами классификации, в которых множества точек

    (соответствующих входным значениям) могут быть разделены геометрически.

    Для нашего случая с двумя входами разделитель является прямой

    линией. В случае трех входов разделение осуществляется плоскостью,

    рассекающей трехмерное пространство. Для четырех или более входов

    визуализация невозможна и необходимо мысленно представить n-мерное

    пространство, рассекаемое «гиперплоскостью» - геометрическим

    объектом, который рассекает пространство четырех или большего числа

    измерений. Так как линейная разделимость ограничивает возможности

    персептронного представления, то важно знать, является ли данная

    функция разделимой. К сожалению, не существует простого способа

    определить это, если число переменных велико.

    Нейрон с п двоичными входами может иметь 2п различных входных

    образов, состоящих из нулей и единиц. Так как каждый входной образ

    может соответствовать двум различным бинарным выходам (единица и ноль),

    то всего

    2" имеется 2 функций от п переменных.

    Таблица 2.2. Линейно разделимые функции

    [pic]

    (Взято из R.O.Winder, Single-stage logic. Paper presented at the

    AIEE Fall General Meeting,1960.) Как видно из табл. 2.2,

    вероятность того, что случайно выбранная функция окажется линейно

    разделимой, весьма мала даже для умеренного числа переменных. По этой

    причине однослойные персептроны на практике ограничены простыми

    задачами.

    Преодоление ограничения линейной разделимости

    К концу 60-х годов проблема линейной разделимости была хорошо понята.

    К тому же было известно, что это серьёзное ограничение представляемости

    однослойными сетями можно преодолеть, добавив дополнительные слои.

    Например, двухслойные сети можно получить каскадным соединением двух

    однослойных сетей. Они способны выполнять более общие классификации,

    отделяя те точки, которые содержатся в выпуклых ограниченных или

    неограниченных областях. Область называется выпуклой, если для любых

    двух ее точек соединяющий их отрезок целиком лежит в области. Область

    называется ограниченной, если ее можно заключить в некоторый шар.

    Неограниченную область невозможно заключить внутрь шара (например,

    область между двумя параллельными линиями). Примеры выпуклых

    ограниченных и неограниченных областей представлены на рис. 2.7.

    [pic]

    Чтобы уточнить требование выпуклости, рассмотрим простую

    двухслойную сеть с двумя входами, подведенными к двум нейронам первого

    слоя, соединенными с единственным нейроном в слое 2 (см. рис. 2.8).

    Пусть порог выходного нейрона равен 0,75, а оба его веса равны 0,5. В

    этом случае для того, чтобы порог был превышен и на выходе появилась

    единица, требуется, чтобы оба нейрона первого уровня на выходе имели

    единицу. Таким образом, выходной нейрон реализует логическую функцию

    И. На рис. 2.8 каждый нейрон слоя 1 разбивает плоскость х-у на две

    полуплоскости, один обеспечивает единичный выход для входов ниже верхней

    линии, другой - для входов выше нижней линии. На рис. 2.8 показан

    результат такого двойного разбиения, где выходной сигнал нейрона второго

    слоя равен единице только внутри V-образной области. Аналогично во

    втором слое может быть использовано три нейрона с дальнейшим разбиением

    плоскости и созданием области треугольной формы. Включением

    достаточного числа нейронов во входной слой может быть образован

    выпуклый многоугольник любой желаемой формы. Так как они образованы с

    помощью операции И над областями, задаваемыми линиями, то все такие

    многогранники выпуклы, следовательно, только выпуклые области и

    возникают. Точки, не составляющие выпуклой области, не могут быть

    отделены от других точек плоскости двухслойной сетью. Нейрон второго

    слоя не ограничен функцией И. Он может реализовывать многие другие

    функции при подходящем выборе весов и порога. Например, можно сделать

    так, чтобы единичный выход любого из нейронов первого слоя приводил к

    появлению единицы на выходе нейрона второго слоя, реализовав тем самым

    логическое ИЛИ. Имеется 16 двоичных функций от двух переменных. Если

    выбирать подходящим образом веса и порог, то можно воспроизвести 14 из

    них (все, кроме ИСКЛЮЧАЮЩЕЕ ИЛИ и ИСКЛЮЧАЮЩЕЕ НЕТ).

    [pic]

    Входы не обязательно должны быть двоичными. Вектор непрерывных

    входов может представлять собой произвольную точку на плоскости х-у. В

    этом случае мы имеем дело со способностью сети разбивать плоскость на

    непрерывные области, а не с разделением дискретных множеств точек. Для

    всех этих функций, однако, линейная разделимость показывает, что выход

    нейрона второго слоя равен единице только в части плоскости х-у,

    ограниченной многоугольной областью. Поэтому для разделения плоскостей

    Р и Q необходимо, чтобы все Р лежали внутри выпуклой многоугольной

    области, не содержащей точек Q (или наоборот). Трехслойная сеть,

    однако, является более общей. Ее классифицирующие возможности

    ограничены лишь числом искусственных нейронов и весов. Ограничения на

    выпуклость отсутствуют. Теперь нейрон третьего слоя принимает в качестве

    входа набор выпуклых многоугольников, и их логическая комбинация может

    быть невыпуклой. На рис. 2.9 иллюстрируется случай, когда два

    треугольника А и В, скомбинированные с помощью функций «А и не В»,

    задают невыпуклую область. При добавлении нейронов и весов число

    сторон многоугольников может неограниченно возрастать. Это позволяет

    аппроксимировать область любой формы с любой точностью. Вдобавок не все

    выходные области второго слоя должны пересекаться. Возможно,

    следовательно, объединять различные области, выпуклые и невыпуклые,

    выдавая на выходе единицу, всякий раз, когда входной вектор принадлежит

    одной из них. Несмотря на то, что возможности многослойных сетей

    были известны давно, в течение многих лет не было теоретически

    обоснованного алгоритма для настройки их весов.

    Эффективность запоминания

    Серьезные вопросы имеются относительно эффективности запоминания

    информации в персептроне (или любых других нейронных сетях) по

    сравнению с обычной компьютерной памятью и методами поиска информации

    в ней. Например, в компьютерной памяти можно хранить все входные образы

    вместе с классифицирующими битами. Компьютер должен найти требуемый образ

    и дать его классификацию. Различные хорошо известные методы могли бы быть

    использованы для ускорения поиска. Если точное соответствие не найдено,

    то для ответа может быть использовано правило ближайшего соседа.

    [pic]

    Число битов, необходимое для хранения этой же информации в

    весах персептрона, может быть значительно меньшим по сравнению с

    методом обычной компьютерной памяти, если образы допускают экономичную

    запись. Однако Минский [2] построил патологические примеры, в которых

    число битов, требуемых для представления весов, растет с

    размерностью задачи быстрее, чем экспоненциально. В этих случаях

    требования к памяти с ростом размерности задачи быстро становятся

    невыполнимыми. Если, как он предположил, эта ситуация не является

    исключением, то персептроны часто могут быть ограничены только малыми

    задачами. Насколько общими являются такие неподатливые множества образов?

    Это остается открытым вопросом, относящимся ко всем нейронным сетям.

    Поиски ответа чрезвычайно важны для исследований по нейронным сетям.

    ОБУЧЕНИЕ ПЕРСЕПТРОНА

    Способность искусственных нейронных сетей обучаться является их

    наиболее интригующим свойством. Подобно биологическим системам, которые

    они моделируют, эти нейронные сети сами моделируют себя в результате

    попыток достичь лучшей модели поведения. Используя критерий

    линейной неделимости, можно решить, способна ли однослойная нейронная

    сеть реализовывать требуемую функцию. Даже в том случае, когда ответ

    положительный, это принесет мало пользы, если у нас нет способа найти

    нужные значения для весов и порогов. Чтобы сеть представляла

    практическую ценность, нужен систематический метод (алгоритм) для

    вычисления этих значений. Розенблатт [4] сделал это в своем алгоритме

    обучения персептрона вместе с доказательством того, что персептрон

    может быть обучен всему, что он может реализовывать. Обучение

    может быть с учителем или без него. Для обучения с учителем нужен

    «внешний» учитель, который оценивал бы поведение системы и управлял ее

    последующими модификациями. При обучении без учителя, рассматриваемого

    в последующих главах, сеть путем самоорганизации делает требуемые

    изменения. Обучение персептрона является обучением с учителем.

    Алгоритм обучения персептрона может быть реализован на цифровом

    компьютере или другом электронном устройстве, и. сеть становится в

    определенном смысле само подстраивающейся. По этой причине процедуру

    подстройки весов обычно называют «обучением» и говорят, что сеть

    «обучается». Доказательство Розенблатта стало основной вехой и дало

    мощный импульс исследованиям в этой области. Сегодня в той или иной

    форме элементы алгоритма обучения персептрона встречаются во многих

    сетевых парадигмах.

    АЛГОРИТМ ОБУЧЕНИЯ ПЕРСЕПТРОНА

    Персептрон обучают, подавая множество образов по одному на его

    вход и подстраивая веса до тех пор, пока для всех образов не будет

    достигнут требуемый выход. Допустим, что входные образы нанесены на

    демонстрационные карты. Каждая карта разбита на квадраты и от каждого

    квадрата на персептрон подается вход. Если в квадрате имеется линия, то

    от него подается единица, в противном случае - ноль. Множество

    квадратов на карте задает, таким образом, множество нулей и единиц,

    которое и подается на входы персептрона. Цель состоит в том, чтобы

    научить персептрон включать индикатор при подаче на него множества

    входов, задающих нечетное число, и не включать в случае четного. На

    рис. 2.10 показана такая персептронная конфигурация. Допустим, что

    вектор Х является образом распознаваемой демонстрационной карты.

    Каждая компонента (квадрат) Х - (х1,х2,..., хn ) - умножается на

    соответствующую компоненту вектора весов W (w1, w2,..., wn ).

    Эти произведения суммируются. Если сумма превышает порог , то

    выход нейрона Y равен единице (индикатор зажигается), в противном

    случае он - ноль. Как мы видели в гл. 1, эта операция компактно

    записывается в векторной форме как Y = XW, а после нее следует

    пороговая операция. Для обучения сети образ Х подается на вход и

    вычисляется выход Y. Если Y правилен, то ничего не меняется. Однако

    если выход неправилен, то веса, присоединенные к входам, усиливающим

    ошибочный результат, модифицируются, чтобы уменьшить ошибку. Чтобы

    увидеть, как это осуществляется, допустим, что демонстрационная карта с

    цифрой 3 подана на вход и выход Y равен 1 (показывая нечетность).

    Так как это правильный ответ, то веса не изменяются. Если, однако, на

    вход подается карта с номером 4 и выход Y равен единице (нечетный), то

    веса, присоединенные к единичным входам, должны быть уменьшены, так как

    они стремятся дать неверный результат. Аналогично, если карта с номером 3

    дает нулевой выход, то веса, присоединенные к единичным входам, должны

    быть увеличены, чтобы скорректировать ошибку. Этот метод обучения

    может быть подытожен следующим образом:

    [pic]

    1. Подать входной образ и вычислить Y

    2. а. Если выход правильный, то перейти на шаг 1;

    б. Если выход неправильный и равен нулю, то добавить все входы к

    соответствующим им весам; или

    в. Если выход неправильный и равен единице, то вычесть каждый вход

    из соответствующего ему веса.

    3. Перейти на шаг 1.

    За конечное число шагов сеть научится разделять карты на четные

    и нечетные при условии, что множество цифр линейно разделимо. Это

    значит, что для всех нечетных карт выход будет больше порога, а для всех

    четных - меньше. Отметим, что это обучение глобально, т.е. сеть

    обучается на всем множестве карт. Возникает вопрос о том, как это

    множество должно предъявляться, чтобы минимизировать время обучения.

    Должны ли элементы множества предъявляться последовательно друг за

    другом или карты следует выбирать случайно? Несложная теория служит

    здесь путеводителем.

    Дельта-правило

    Важное обобщение алгоритма обучения персептрона, называемое

    дельта-правилом, переносит этот метод на непрерывные входы и выходы.

    Чтобы понять, как оно было получено, шаг 2 алгоритма обучения

    персептрона может быть сформулирован в обобщенной форме с помощью

    введения величины (, которая равна разности между требуемым или целевым

    выходом Т и реальным выходом А

    ( = ( T – A )

    Случай, когда ( = 0, соответствует шагу 2а, когда выход правилен

    и в сети ничего не изменяется. Шаг 26 соответствует случаю ( > 0, а шаг

    2в случаю ( < 0. В любом из этих случаев персептронный алгоритм

    обучения сохраняется, если 5 умножается на величину каждого входа х.

    и это произведение добавляется к соответствующему весу. С целью

    обобщения вводится коэффициент «скорости обучения» (, который умножается

    на (хi, что позволяет управлять средней величиной изменения весов.

    В алгебраической форме записи

    (i = ((хi (2.4)

    wi(n + 1) = wi (n)+ (i, (2.5)

    где (i - коррекция, связанная с i-м входом хi; wi(n + 1) -

    значение веса i после коррекции; wi (n) -значение веса i до

    коррекции.

    Дельта-правило модифицирует веса в соответствии с требуемым и

    Страницы: 1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12, 13, 14, 15, 16


    Приглашения

    09.12.2013 - 16.12.2013

    Международный конкурс хореографического искусства в рамках Международного фестиваля искусств «РОЖДЕСТВЕНСКАЯ АНДОРРА»

    09.12.2013 - 16.12.2013

    Международный конкурс хорового искусства в АНДОРРЕ «РОЖДЕСТВЕНСКАЯ АНДОРРА»




    Copyright © 2012 г.
    При использовании материалов - ссылка на сайт обязательна.