МЕНЮ


Фестивали и конкурсы
Семинары
Издания
О МОДНТ
Приглашения
Поздравляем

НАУЧНЫЕ РАБОТЫ


  • Инновационный менеджмент
  • Инвестиции
  • ИГП
  • Земельное право
  • Журналистика
  • Жилищное право
  • Радиоэлектроника
  • Психология
  • Программирование и комп-ры
  • Предпринимательство
  • Право
  • Политология
  • Полиграфия
  • Педагогика
  • Оккультизм и уфология
  • Начертательная геометрия
  • Бухучет управленчучет
  • Биология
  • Бизнес-план
  • Безопасность жизнедеятельности
  • Банковское дело
  • АХД экпред финансы предприятий
  • Аудит
  • Ветеринария
  • Валютные отношения
  • Бухгалтерский учет и аудит
  • Ботаника и сельское хозяйство
  • Биржевое дело
  • Банковское дело
  • Астрономия
  • Архитектура
  • Арбитражный процесс
  • Безопасность жизнедеятельности
  • Административное право
  • Авиация и космонавтика
  • Кулинария
  • Наука и техника
  • Криминология
  • Криминалистика
  • Косметология
  • Коммуникации и связь
  • Кибернетика
  • Исторические личности
  • Информатика
  • Инвестиции
  • по Зоология
  • Журналистика
  • Карта сайта
  • Нейрокомпьютерные системы

    мощности по сравнению с однослойной сетью лишь в том случае, если

    активационная функция между слоями будет нелинейной. Вычисление выхода

    слоя заключается в умножении входного вектора на первую весовую

    матрицу с последующим умножением (если отсутствует нелинейная

    активационная функция) результирующего вектора на вторую весовую матрицу.

    [pic]

    Так как умножение матриц ассоциативно, то X(W1, W2). Это

    показывает, что двухслойная линейная сеть эквивалентна одному слою

    с весовой матрицей, равной произведению двух весовых матриц.

    Следовательно, любая многослойная линейная сеть может быть заменена

    эквивалентной однослойной сетью. В гл. 2 показано, что однослойные сети

    весьма ограниченны по своим вычислительным возможностям. Таким образом,

    для расширения возможностей сетей по сравнению с однослойной сетью

    необходима нелинейная однослойная функция.

    Сети с обратными связями.

    У сетей, рассмотренных до сих пор, не было обратных связей, т.е.

    соединений, идущих от выходов некоторого слоя к входам этого же слоя

    или предшествующих слоев. Этот специальный класс сетей, называемых

    сетями без обратных связей или сетями прямого распространения,

    представляет интерес и широко используется. Сети более общего вида,

    имеющие соединения от выходов к входам, называются сетями с

    обратными связями. У сетей без обратных связей нет памяти, их выход

    полностью определяется текущими входами и значениями весов. В некоторых

    конфигурациях сетей с обратными связями предыдущие значения выходов

    возвращаются на входы; выход, следовательно, определяется как текущим

    входом, так и предыдущими выходами. По этой причине сети с обратными

    связями могут обладать свойствами, сходными с кратковременной

    человеческой памятью, сетевые выходы частично зависят от предыдущих

    входов.

    ТЕРМИНОЛОГИЯ, ОБОЗНАЧЕНИЯ И СХЕМАТИЧЕСКОЕ ИЗОБРАЖЕНИЕ ИСКУССТВЕННЫХ

    НЕЙРОННЫХ СЕТЕЙ.

    К сожалению, для искусственных нейронных сетей еще нет опубликованных

    стандартов и устоявшихся терминов, обозначений и графических

    представлений. Порой идентичные сетевые парадигмы, представленные

    различными авторами, покажутся далекими друг от друга. В этой книге

    выбраны наиболее широко используемые термины.

    Терминология.

    Многие авторы избегают термина «нейрон» для обозначения

    искусственного нейрона, считая его слишком грубой моделью своего

    биологического прототипа. В этой книге термины «нейрон», «клетка»,

    «элемент» используются взаимозаменяемо для обозначения

    «искусственного нейрона» как краткие и саморазъясняющие.

    Дифференциальные уравнения или разностные уравнения.

    Алгоритмы обучения, как и вообще искусственные нейронные сети,

    могут быть представлены как в дифференциальной, так и в конечно-

    разностной форме. При использовании дифференциальных уравнений

    предполагают, что процессы непрерывны и осуществляются подобно большой

    аналоговой сети. Для биологической системы, рассматриваемой на

    микроскопическом уровне, это не так. Активационный уровень

    биологического нейрона определяется средней скоростью, с которой он

    посылает дискретные потенциальные импульсы по своему аксону. Средняя

    скорость обычно рассматривается как аналоговая величина, но важно не

    забывать о действительном положении вещей. Если моделировать искусственную

    нейронную сеть на аналоговом компьютере, то весьма желательно

    использовать представление с помощью дифференциальных уравнений. Однако

    сегодня большинство работ выполняется на цифровых компьютерах, что

    заставляет отдавать предпочтение конечно-разностной форме как наиболее

    легко программируемой. По этой причине на протяжении всей книги

    используется конечно-разностное представление.

    Графическое представление

    Как видно из публикаций, нет общепринятого способа подсчета числа

    слоев в сети. Многослойная сеть состоит, как показано на рис. 1.6, из

    чередующихся множеств нейронов и весов. Ранее в связи с рис. 1.5 уже

    говорилось, что входной слой не выполняет суммирования. Эти нейроны

    служат лишь в качестве разветвлений для первого множества весов и не

    влияют на вычислительные возможности сети. По этой причине первый слой

    не принимается во внимание при подсчете слоев, и сеть, подобная

    изображенной на рис. 1.6, считается двухслойной, так как только два слоя

    выполняют вычисления. Далее, веса слоя считаются связанными со

    следующими за ними нейронами. Следовательно, слой состоит из множества

    весов со следующими за ними нейронами, суммирующими взвешенные

    сигналы.

    Обучение искусственных нейронных сетей.

    Среди всех интересных свойств искусственных нейронных сетей ни

    одно не захватывает так воображения, как их способность к обучению.

    Их обучение до такой степени напоминает процесс интеллектуального

    развития человеческой личности, что может показаться, что достигнуто

    глубокое понимание этого процесса. Но, проявляя осторожность, следует

    сдерживать эйфорию. Возможности обучения искусственных нейронных сетей

    ограниченны, и нужно решить много сложных задач, чтобы определить, на

    правильном ли пути мы находимся. Тем не менее, уже получены

    убедительные достижения, такие как «говорящая сеть» Сейновского (см.

    гл. 3), и возникает много других практических применений.

    Цель обучения.

    Сеть обучается, чтобы для некоторого множества входов давать

    желаемое (или, по крайней мере, сообразное с ним) множество выходов.

    Каждое такое входное (или выходное) множество рассматривается как

    вектор. Обучение осуществляется путем последовательного предъявления

    входных векторов с одновременной подстройкой весов в соответствии с

    определенной процедурой. В процессе обучения веса сети постепенно

    становятся такими, чтобы каждый входной вектор вырабатывал выходной

    вектор.

    Обучение с учителем.

    Различают алгоритмы обучения с учителем и без учителя.

    Обучение с учителем предполагает, что для каждого входного вектора

    существует целевой вектор, представляющий собой требуемый выход. Вместе

    они называются обучающей парой. Обычно сеть обучается на некотором числе

    таких обучающих пар. Предъявляется выходной вектор, вычисляется выход

    сети и сравнивается с соответствующим целевым вектором, разность

    (ошибка) с помощью обратной связи подается в сеть и веса изменяются в

    соответствии с алгоритмом, стремящимся минимизировать ошибку. Векторы

    обучающего множества предъявляются последовательно, вычисляются ошибки

    и веса подстраиваются для каждого вектора до тех пор, пока ошибка по

    всему обучающему массиву не достигнет приемлемо низкого уровня.

    Обучение без учителя.

    Несмотря на многочисленные прикладные достижения, обучение с

    учителем критиковалось за свою биологическую неправдоподобность. Трудно

    вообразить обучающий механизм в мозге, который бы сравнивал желаемые и

    действительные значения выходов, выполняя коррекцию с помощью обратной

    связи. Если допустить подобный механизм в мозге, то откуда тогда

    возникают желаемые выходы? Обучение без учителя является намного более

    правдоподобной моделью обучения в биологической системе. Развитая

    Кохоненом [3] и многими другими, она не нуждается в целевом векторе

    для выходов и, следовательно, не требует сравнения с предопределенными

    идеальными ответами. Обучающее множество состоит лишь из входных

    векторов. Обучающий алгоритм подстраивает веса сети так, чтобы

    получались согласованные выходные векторы, т.е. чтобы предъявление

    достаточно близких входных векторов давало одинаковые выходы. Процесс

    обучения, следовательно, выделяет статистические свойства обучающего

    множества и группирует сходные векторы в классы. Предъявление на вход

    вектора из данного класса даст определенный выходной вектор, но до

    обучения невозможно предсказать, какой выход будет производиться данным

    классом входных векторов. Следовательно, выходы подобной сети должны

    трансформироваться в некоторую понятную форму, обусловленную процессом

    обучения. Это не является серьезной проблемой. Обычно не сложно

    идентифицировать связь между входом и выходом, установленную сетью.

    Алгоритмы обучения.

    Большинство современных алгоритмов обучения выросло из концепций

    Хэбба [2]. Им предложена модель обучения без учителя, в которой

    синаптическая сила (вес) возрастает, если активированы оба нейрона,

    источник и приемник. Таким образом, часто используемые пути в сети

    усиливаются, и феномен привычки и обучения через повторение получает

    объяснение. В искусственной нейронной сети, использующей обучение по

    Хэббу, наращивание весов определяется произведением уровней возбуждения

    передающего и принимающего нейронов. Это можно записать как

    W ij (п + 1) = W ij (n) + ( OUT i OUT j

    где W ij (n) - значение веса от нейрона i к нейрону j до подстройки, W

    ij (п + 1) - значение веса от нейрона i к нейрону j после подстройки,

    (. - коэффициент скорости обучения, OUT i - выход нейрона i и вход

    нейрона j, OUTj - выход нейрона j. Сети, использующие обучение по Хэббу,

    конструктивно развивались, однако за последние 20 лет были развиты более

    эффективные алгоритмы обучения. В частности, в работах [4-6] и многих

    других были развиты алгоритмы обучения с учителем, приводящие к сетям с

    более широким диапазоном характеристик обучающих входных образов и

    большими скоростями обучения, чем использующие простое обучение по

    Хэббу. В настоящее время используется огромное разнообразие обучающих

    алгоритмов. Потребовалась бы значительно большая по объему книга, чем

    эта, для рассмотрения этого предмета полностью. Чтобы рассмотреть этот

    предмет систематически, если и не исчерпывающе, в каждой из последующих

    глав подробно описаны алгоритмы обучения для рассматриваемой в главе

    парадигмы. В дополнение в приложении Б представлен общий обзор, в

    определенной мере более обширный, хотя и не очень глубокий. В нем дан

    исторический контекст алгоритмов обучения, их общая таксономия, ряд

    преимуществ и ограничений. В силу необходимости это приведет к

    повторению части материала, оправданием ему служит расширение взгляда на

    предмет.

    ПРОЛОГ

    В последующих главах представлены и проанализированы некоторые

    наиболее важные сетевые конфигурации и их алгоритмы обучения.

    Представленные парадигмы дают представление об искусстве

    конструирования сетей в целом, его прошлом и настоящем. Многие другие

    парадигмы при тщательном рассмотрении оказываются лишь их модификациями.

    Сегодняшнее развитие нейронных сетей скорее эволюционно, чем

    революционно. Поэтому понимание представленных в данной книге парадигм

    позволит следить за прогрессом в этой быстро развивающейся области.

    Упор сделан на интуитивные и алгоритмические, а не математические

    аспекты. Книга адресована скорее пользователю искусственных нейронных

    сетей, чем теоретику. Сообщается, следовательно, достаточно информации,

    чтобы дать читателю возможность понимать основные идеи. Те, кто знаком

    с программированием, смогут реализовать любую из этих сетей.

    Сложные математические выкладки опущены, если только они не имеют

    прямого отношения к реализации сети. Для заинтересованного читателя

    приводятся ссылки на более строгие и полные работы.

    Глава 2 Персептроны

    ПЕРСЕПТРОНЫ И ЗАРОЖДЕНИЕ ИСКУССТВЕННЫХ НЕЙРОННЫХ СЕТЕЙ

    В качестве научного предмета искусственные нейронные сети впервые

    заявили о себе в 40-е годы. Стремясь воспроизвести функции

    человеческого мозга, исследователи создали простые аппаратные (а позже

    программные) модели биологического нейрона и системы его соединений.

    Когда нейрофизиологи достигли более глубокого понимания нервной системы

    человека, эти ранние попытки стали восприниматься как весьма грубые

    аппроксимации. Тем не менее, на этом пути были достигнуты впечатляющие

    результаты, стимулировавшие дальнейшие исследования, приведшие к

    созданию более изощренных сетей.

    [pic]

    Первое систематическое изучение искусственных нейронных сетей

    было предпринято Маккалокком и Питтсом в 1943 г. [1]. Позднее в работе

    [3] они исследовали сетевые парадигмы для распознавания изображений,

    подвергаемых сдвигам и поворотам. Простая нейронная модель, показанная

    на рис. 2.1, использовалась в большей части их работы. Элемент (

    умножает каждый вход х на вес w и суммирует взвешенные входы. Если

    эта сумма больше заданного порогового значения, выход равен единице, в

    противном случае - нулю. Эти системы (и множество им подобных) получили

    название персептронов. Они состоят из одного слоя искусственных

    нейронов, соединенных с помощью весовых коэффициентов с множеством

    входов (см. рис. 2.2), хотя в принципе описываются и более сложные

    системы.

    [pic]

    В 60-е годы персептроны вызвали большой интерес и оптимизм.

    Розенблатт [4] доказал замечательную теорему об обучении персептронов,

    объясняемую ниже. Уидроу [5-8] дал ряд убедительных демонстраций

    систем персептронного типа, и исследователи во всем мире стремились

    исследовать возможности этих систем. Первоначальная эйфория

    сменилась разочарованием, когда оказалось, что персептроны не способны

    обучиться решению ряда простых задач. Минский [2] строго

    проанализировал эту проблему и показал, что имеются жесткие ограничения

    на то, что могут выполнять однослойные персептроны, и,

    следовательно, на то, чему они могут обучаться. Так как в то время

    методы обучения многослойных сетей не были известны, исследователи

    перешли в более многообещающие области, и исследования в области

    нейронных сетей пришли в упадок. Недавнее открытие методов обучения

    многослойных сетей в большей степени, чем какой-либо иной фактор,

    повлияло на возрождение интереса и исследовательских усилий. Работа

    Минского, возможно, и охладила пыл энтузиастов персептрона, но

    обеспечила время для необходимой консолидации и развития лежащей в

    основе теории. Важно отметить, что анализ Минского не был опровергнут.

    Он остается важным исследованием и должен изучаться, чтобы ошибки 60-х

    годов не повторились. Несмотря на свои ограничения, персептроны

    широко изучались (хотя не слишком широко использовались). Теория

    персептронов является основой для многих других типов искусственных

    нейронных сетей, и персептроны иллюстрируют важные принципы. В силу

    этих причин они являются логической исходной точкой для изучения

    искусственных нейронных сетей.

    ПЕРСЕПТРОННАЯ ПРЕДСТАВЛЯЕМОСТЬ

    Доказательство теоремы обучения персептрона [4] показало, что

    персептрон способен научиться всему, что он способен представлять. Важно

    при этом уметь различать представляемость и обучаемость. Понятие

    представляемости относится к способности персептрона (или другой сети)

    моделировать определенную функцию. Обучаемость же требует наличия

    систематической процедуры настройки весов сети для реализации этой функции.

    Для иллюстрации проблемы представляемости допустим, что у нас

    есть множество карт, помеченных цифрами от 0 до 9. Допустим также, что

    мы обладаем гипотетической машиной, способной отличать карты с нечетным

    номером от карт с четным номером и зажигающей индикатор на своей панели

    при предъявлении карты с нечетным номером (см. рис. 2.3). Представима ли

    такая машина персептроном? То есть, может ли быть сконструирован

    персептрон и настроены его веса (неважно каким образом) так, чтобы он

    обладал такой же разделяющей способностью? Если это так, то говорят,

    что персептрон способен представлять желаемую машину. Мы увидим, что

    возможности представления однослойными персептронами весьма

    ограниченны. Имеется много простых машин, которые не могут быть

    представлены персептроном независимо от того, как настраиваются его

    веса.

    [pic]

    Проблема функции ИСКЛЮЧАЮЩЕЕ ИЛИ

    Один из самых пессимистических результатов Минского показывает,

    что однослойный персептрон не может воспроизвести такую простую

    функцию, как ИСКЛЮЧАЮЩЕЕ ИЛИ. Это - функция от двух аргументов, каждый из

    которых может быть нулем или единицей. Она принимает значение единицы,

    когда один из аргументов равен единице (но не оба). Проблему можно

    проиллюстрировать с помощью однослойной однонейронной системы с двумя

    входами, показанной на рис. 2.4. Обозначим один вход через х, а другой

    через у, тогда все их возможные комбинации будут состоять из четырех

    точек на плоскости х - у, как показано на рис. 2.5. Например, точка x=0

    и у=0 обозначена на рисунке как точка А .Табл. 2.1 показывает требуемую

    связь между входами и выходом, где входные комбинации, которые должны

    Страницы: 1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12, 13, 14, 15, 16


    Приглашения

    09.12.2013 - 16.12.2013

    Международный конкурс хореографического искусства в рамках Международного фестиваля искусств «РОЖДЕСТВЕНСКАЯ АНДОРРА»

    09.12.2013 - 16.12.2013

    Международный конкурс хорового искусства в АНДОРРЕ «РОЖДЕСТВЕНСКАЯ АНДОРРА»




    Copyright © 2012 г.
    При использовании материалов - ссылка на сайт обязательна.