Нейрокомпьютерные системы
Нейрокомпьютерные системы
Введение.
ПОЧЕМУ ИМЕННО ИСКУССТВЕННЫЕ НЕЙРОННЫЕ СЕТИ?
После двух десятилетий почти полного забвения интерес к
искусственным нейронным сетям быстро вырос за последние несколько лет.
Специалисты из таких далеких областей, как техническое
конструирование, философия, физиология и психология, заинтригованы
возможностями, предоставляемыми этой технологией, и ищут приложения им
внутри своих дисциплин. Это возрождение интереса было вызвано как
теоретическими, так и прикладными достижениями. Неожиданно открылись
возможности использования вычислений в сферах, до этого относящихся лишь
к области человеческого интеллекта, возможности создания машин,
способность которых учиться и запоминать удивительным образом напоминает
мыслительные процессы человека, и наполнения новым значительным
содержанием критиковавшегося термина «искусственный интеллект».
СВОЙСТВА ИСКУССТВЕННЫХ НЕЙРОННЫХ СЕТЕЙ
Искусственные нейронные сети индуцированы биологией, так как они
состоят из элементов, функциональные возможности которых аналогичны
большинству элементарных функций биологического нейрона. Эти элементы
затем организуются по способу, который может соответствовать (или не
соответствовать) анатомии мозга. Несмотря на такое поверхностное
сходство, искусственные нейронные сети демонстрируют удивительное число
свойств присущих мозгу. Например, они обучаются на основе опыта, обобщают
предыдущие прецеденты на новые случаи и извлекают существенные
свойства из поступающей информации, содержащей излишние данные.
Несмотря на такое функциональное сходство, даже самый оптимистичный их
защитник не предположит, что в скором будущем искусственные нейронные
сети будут дублировать функции человеческого мозга. Реальный «интеллект»,
демонстрируемый самыми сложными нейронными сетями. Книга имеет
практическую направленность. Если главы внимательно изучены, то большую
часть сетей оказывается возможным реализовать на обычном компьютере
общего назначения. Читателю настоятельно рекомендуется так и поступать.
Никакой другой метод не позволит добиться столь же глубокого понимания.
Предисловие
Что такое искусственные нейронные сети? Что они могут делать? Как
они работают? Как их можно использовать? Эти и множество подобных
вопросов задают специалисты из разных областей. Найти вразумительный
ответ нелегко. Университетских курсов мало, семинары слишком дороги, а
соответствующая литература слишком обширна и специализированна.
Готовящиеся к печати превосходные книги могут обескуражить начинающих.
Часто написанные на техническом жаргоне, многие из них предполагают
свободное владение разделами высшей математики, редко используемыми в
других областях. Эта книга является систематизированным вводным
курсом для профессионалов, не специализирующихся в математике. Все
важные понятия формулируются сначала обычным языком. Математические
выкладки используются, если они делают изложение более ясным. В конце
глав помещены сложные выводы и доказательства, а также приводятся ссылки
на другие работы. Эти ссылки составляют обширную библиографию важнейших
работ в областях, связанных с искусственными нейронными сетями. Такой
многоуровневый подход не только предоставляет читателю обзор по
искусственным нейронным сетям, но также позволяет заинтересованным
лицам серьезнее и глубже изучить предмет. Значительные усилия были
приложены, чтобы сделать книгу понятной и без чрезмерного упрощения
материала. Читателям, пожелавшим продолжить более углубленное
теоретическое изучение, не придется переучиваться. При упрощенном
изложении даются ссылки на более подробные работы. Книгу не
обязательно читать от начала до конца. Каждая глава предполагается
замкнутой, поэтому для понимания достаточно лишь знакомства с
содержанием гл. 1 и 2. Хотя некоторое повторение материала неизбежно,
большинству читателей это не будет обременительно.
Обучение
Искусственные нейронные сети могут менять свое поведение в
зависимости от внешней среды. Этот фактор в большей степени, чем любой
другой, ответствен за тот интерес, который они вызывают. После
предъявления входных сигналов (возможно, вместе с требуемыми выходами)
они самонастраиваются, чтобы обеспечивать требуемую реакцию. Было
разработано множество обучающих алгоритмов, каждый со своими сильными и
слабыми сторонами. Как будет указано в этой книге позднее, все еще
существуют проблемы относительно того, чему сеть может обучиться и как
обучение должно проводиться.
Обобщение
Отклик сети после обучения может быть до некоторой степени
нечувствителен к небольшим изменениям входных сигналов. Эта внутренне
присущая способность видеть образ сквозь шум и искажения жизненно важна
для распознавания образов в реальном мире. Она позволяет преодолеть
требование строгой точности, предъявляемое обычным компьютером, и
открывает путь к системе, которая может иметь дело с тем несовершенным
миром, в котором мы живем. Важно отметить, что искусственная нейронная
сеть делает обобщения автоматически благодаря своей структуре, а не с
помощью использования «человеческого интеллекта» в форме специально
написанных компьютерных программ.
Введение
Абстрагирование
Некоторые из искусственных нейронных сетей обладают способностью
извлекать сущность из входных сигналов. Например, сеть может быть
обучена на последовательность искаженных версий буквы А. После
соответствующего обучения предъявление такого искаженного примера
приведет к тому, что сеть породит букву совершенной формы. В
некотором смысле она научится порождать то, что никогда не видела.
Эта способность извлекать идеальное из несовершенных входов ставит
интересные философские вопросы. Она напоминает концепцию идеалов,
выдвинутую Платоном в его «Республике». Во всяком случае, способность
извлекать идеальные прототипы является у людей весьма ценным
качеством.
Применимость
Искусственные нейронные сети не являются панацеей. Они, очевидно,
не годятся для выполнения таких задач, как начисление заработной платы.
Похоже, однако, что им будет отдаваться предпочтение в большом классе
задач распознавания образов, с которыми плохо или вообще не справляются
обычные компьютеры.
ИСТОРИЧЕСКИЙ АСПЕКТ
Людей всегда интересовало их собственное мышление. Это
самовопрошение, думание мозга о себе самом является, возможно,
отличительной чертой человека. Имеется множество размышлений о природе
мышления, простирающихся от духовных до анатомических. Обсуждение этого
вопроса, протекавшее в горячих спорах философов и теологов с физиологами
и анатомами, принесло мало пользы, так как сам предмет весьма труден
для изучения. Те, кто опирался на самоанализ и размышление, пришли к
выводам, не отвечающим уровню строгости физических наук.
Экспериментаторы же нашли, что мозг труден для наблюдения и ставит в
тупик своей организацией. Короче говоря, мощные методы научного
исследования, изменившие наш взгляд на физическую реальность, оказались
бессильными в понимании самого человека. Нейробиологи и нейроанатомы
достигли значительного прогресса. Усердно изучая структуру и функции
нервной системы человека, они многое поняли в «электропроводке» мозга ,
но мало узнали о его функционировании. В процессе накопления ими знаний
выяснилось, что мозг имеет ошеломляющую сложность. Сотни миллиардов
нейронов, каждый из которых соединен с сотнями или тысячами Других,
образуют систему, далеко превосходящую наши самые смелые мечты о
суперкомпьютерах. Тем не менее, мозг постепенно выдает свои секреты
в процессе одного из самых напряженных и честолюбивых исследований в
истории человечества. Лучшее понимание функционирования нейрона и
картины его связей позволило исследователям создать математические
модели для проверки своих теорий. Эксперименты теперь могут проводиться
на цифровых компьютерах без привлечения человека или животных, что
решает многие практические и морально-этические проблемы. В первых же
работах выяснилось, что эти модели не только повторяют функции мозга,
но и способны выполнять функции, имеющие свою собственную ценность.
Поэтому возникли и остаются в настоящее время две взаимно обогащающие
друг друга цели нейронного моделирования: первая - понять
функционирование нервной системы человека на уровне физиологии и
психологии и вторая - создать вычислительные системы (искусственные
нейронные сети), выполняющие функции, сходные с функциями мозга.
Именно эта последняя цель и находится в центре внимания этой книги.
Параллельно с прогрессом в нейроанатомии и нейрофизиологии психологами
были созданы модели человеческого обучения. Одной из таких моделей,
оказавшейся наиболее плодотворной, была модель Д.Хэбба, который в 1949г.
предложил закон обучения, явившийся стартовой точкой для алгоритмов
обучения искусственных нейронных сетей. Дополненный сегодня
множеством других методов он продемонстрировал ученым того времени, как
сеть нейронов может обучаться. В пятидесятые и шестидесятые годы
группа исследователей, объединив эти биологические и физиологические
подходы, создала первые искусственные нейронные сети. Выполненные
первоначально как электронные сети, они были позднее перенесены в
более гибкую среду компьютерного моделирования, сохранившуюся и в
настоящее время. Первые успехи вызвали взрыв активности и оптимизма.
Минский, Розенблатт, Уидроу и другие разработали сети, состоящие из
одного слоя искусственных нейронов. Часто называемые персептронами, они
были использованы для такого широкого класса задач, как предсказание
погоды, анализ электрокардиограмм и искусственное зрение. В течение
некоторого времени казалось, что ключ к интеллекту найден, и
воспроизведение человеческого мозга является лишь вопросом
конструирования достаточно большой сети. Но эта иллюзия скоро
рассеялась. Сети не могли решать задачи, внешне весьма сходные с
теми, которые они успешно решали. С этих необъяснимых неудач начался
период интенсивного анализа. Минский, используя точные математические
методы, строго доказал ряд теорем, относящихся к функционированию сетей.
Его исследования привели к написанию книги [4], в которой он
вместе с Пайпертом доказал, что используемые в то время однослойные
сети теоретически неспособны решить многие простые задачи, в том
числе реализовать функцию «Исключающее ИЛИ». Минский также не был
оптимистичен относительно потенциально возможного здесь прогресса:
Персептрон показал себя заслуживающим изучения, несмотря на жесткие
ограничения (и даже благодаря им). У него много привлекательных
свойств: линейность, занимательная теорема об обучении, простота модели
параллельных вычислений. Нет оснований полагать, что эти достоинства
сохраняться при переходе к многослойным системам. Тем не менее мы
считаем важной задачей для исследования подкрепление (или
опровержение) нашего интуитивного убеждения, что такой переход бесплоден.
Возможно, будет открыта какая-то мощная теорема о сходимости или
найдена глубокая причина неудач дать интересную «теорему обучения»
для многослойных машин ([4], С.231-232). Блеск и строгость
аргументации Минского, а также его престиж породили огромное доверие к
книге - ее выводы были неуязвимы. Разочарованные исследователи
оставили поле исследований ради более обещающих областей, а
правительства перераспределили свои субсидии, и искусственные нейронные
сети были забыты почти на два десятилетия. Тем не менее,
несколько наиболее настойчивых ученых, таких как Кохонен, Гроссберг,
Андерсон продолжили исследования. Наряду с плохим финансированием и
недостаточной оценкой ряд исследователей испытывал затруднения с
публикациями. Поэтому исследования, опубликованные в семидесятые и в
начале восьмидесятых годов, разбросаны в массе различных журналов,
некоторые из которых малоизвестны. Постепенно появился теоретический
фундамент, на основе которого сегодня конструируются наиболее мощные
многослойные сети. Оценка Минского оказалась излишне пессимистичной,
многие из поставленных в его книге задач решаются сейчас сетями с
помощью стандартных процедур. За последние несколько лет теория
стала применяться в прикладных областях, и появились новые корпорации,
занимающиеся коммерческим использованием этой технологии. Нарастание
научной активности носило взрывной характер. В 1987 г. было проведено
четыре крупных совещания по искусственным нейронным сетям и
опубликовано свыше 500 научных сообщений - феноменальная скорость
роста. Урок, который можно извлечь из этой истории, выражается
законом Кларка, выдвинутым писателем и ученым Артуром Кларком. В нем
утверждается, что, если крупный уважаемый ученый говорит, что нечто
может быть выполнено, то он (или она) почти всегда прав. Если же ученый
говорит, что это не может быть выполнено, то он (или она) почти
всегда не прав. История науки является летописью ошибок и частичных
истин. То, что сегодня не подвергается сомнениям, завтра отвергается.
Некритическое восприятие «фактов» независимо от их источника может
парализовать научный поиск. С одной стороны, блестящая научная
работа Минского задержала развитие искусственных нейронных сетей. Нет
сомнений, однако, в том, что область пострадала вследствие
необоснованного оптимизма и отсутствия достаточной теоретической базы. И
возможно, что шок, вызванный книгой «Персептроны», обеспечил
необходимый для созревания этой научной области период.
ИСКУССТВЕННЫЕ НЕЙРОННЫЕ СЕТИ СЕГОДНЯ
Имеется много впечатляющих демонстраций возможностей искусственных
нейронных сетей: сеть научили превращать текст в фонетическое
представление, которое затем с помощью уже иных методов превращалось
в речь [7]; другая сеть может распознавать рукописные буквы [1];
сконструирована система сжатия изображений, основанная на нейронной
сети [2]. Все они используют сеть обратного распространения - наиболее
успешный, по-видимому, из современных алгоритмов. Обратное
распространение, независимо предложенное в трех различных работах [8,
5, 6,], является систематическим методом для обучения многослойных
сетей, и тем самым преодолевает ограничения, указанные Минским. Как
подчеркивается в следующих главах, обратное распространение не
свободно от проблем. Прежде всего, нет гарантии, что сеть может быть
обучена за конечное время. Много усилий, израсходованных на обучение,
пропадает напрасно после затрат большого количества машинного времени.
Когда это происходит, попытка обучения повторяется - без всякой
уверенности, что результат окажется лучше. Нет также уверенности, что
сеть обучится возможным наилучшим образом. Алгоритм обучения может попасть
в «ловушку» так называемого локального минимума и будет получено худшее
решение. Разработано много других сетевых алгоритмов обучения,
имеющих свои специфические преимущества. Некоторые из них обсуждаются в
последующих главах. Следует подчеркнуть, что никакая из сегодняшних
сетей не является панацеей, все они страдают от ограничений в своих
возможностях обучаться и вспоминать. Мы имеем дело с областью,
продемонстрировавшей свою работоспособность, имеющей уникальные
потенциальные возможности, много ограничений и множество открытых
вопросов. Такая ситуация настраивает на умеренный оптимизм. Авторы
склонны публиковать свои успехи, но не неудачи, создавая тем самым
впечатление, которое может оказаться нереалистичным. Те, кто ищет
капитал, чтобы рискнуть и основать новые фирмы, должны представить
убедительный проект последующего осуществления и прибыли. Существует,
следовательно, опасность, что искусственные нейронные сети начнут
продавать раньше, чем придет их время, обещая функциональные
возможности, которых пока невозможно достигнуть. Если это произойдет,
то область в целом может пострадать от потери кредита доверия и
вернется к застойному периоду семидесятых годов. Для улучшения
существующих сетей требуется много основательной работы. Должны быть
развиты новые технологии, улучшены существующие методы и расширены
теоретические основы, прежде чем данная область сможет полностью
реализовать свои потенциальные возможности.
ПЕРСПЕКТИВЫ НА БУДУЩЕЕ
Искусственные нейронные сети предложены для задач, простирающихся
от управления боем до присмотра за ребенком, Потенциальными приложениями
являются те, где человеческий интеллект малоэффективен, а обычные
вычисления трудоемки или неадекватны. Этот класс приложений, во всяком
случае, не меньше класса, обслуживаемого обычными вычислениями, и можно
предполагать, что искусственные нейронные сети займут свое место наряду с
обычными вычислениями в качестве дополнения такого же объема и важности.
Искусственные нейронные сети и экспертные системы
В последние годы над искусственными нейронными сетями
доминировали логические и символьно-операционные дисциплины. Например,
широко пропагандировались экспертные системы, у которых имеется много
заметных успехов, так же, как и неудач. Кое-кто говорит, что
искусственные нейронные сети заменят собой современный искусственный
интеллект, но многое свидетельствует о том, что они будут
существовать, объединяясь в системах, где каждый подход используется
для решения тех задач, с которыми он лучше справляется. Эта точка
зрения подкрепляется тем, как люди функционируют в нашем мире.
Распознавание образов отвечает за активность, требующую быстрой реакции.
Так как действия совершаются быстро и бессознательно, то этот способ
функционирования важен для выживания во враждебном окружении. Вообразите
только, что было бы, если бы наши предки вынуждены были обдумывать свою
реакцию на прыгнувшего хищника? Когда наша система распознавания
образов не в состоянии дать адекватную интерпретацию, вопрос передается
в высшие отделы мозга. Они могут запросить добавочную информацию и
займут больше времени, но качество полученных в результате решений может
быть выше. Можно представить себе искусственную систему,
подражающую такому разделению труда. Искусственная нейронная сеть
реагировала бы в большинстве случаев подходящим образом на внешнюю
среду. Так как такие сети способны указывать доверительный уровень каждого
решения, то сеть «знает, что она не знает» и передает данный случай
для разрешения экспертной системе. Решения, принимаемые на этом более
высоком уровне, были бы конкретными и логичными, но они могут нуждаться
в сборе дополнительных фактов для получения окончательного
заключения. Комбинация двух систем была бы более мощной, чем каждая
из систем в отдельности, следуя при этом высокоэффективной модели,
даваемой биологической эволюцией.
Соображения надежности
Прежде чем искусственные нейронные сети можно будет использовать
там, где поставлены на карту человеческая жизнь или ценное имущество,
должны быть решены вопросы, относящиеся к их надежности. Подобно
людям, структуру мозга которых они копируют, искусственные нейронные сети
сохраняют в определенной мере непредсказуемость. Единственный способ
точно знать выход состоит в испытании всех возможных входных сигналов. В
большой сети такая полная проверка практически неосуществима и должны
использоваться статистические методы для оценки функционирования. В
некоторых случаях это недопустимо. Например, что является допустимым
уровнем ошибок для сети, управляющей системой космической обороны?
Большинство людей скажет, любая ошибка недопустима, так как ведет к
огромному числу жертв и разрушений. Это отношение не меняется от того
обстоятельства, что человек в подобной ситуации также может допускать
ошибки. Проблема возникает из-за допущения полной безошибочности
компьютеров. Так как искусственные нейронные сети иногда будут
совершать ошибки даже при правильном функционировании, то, как
ощущается многими, это ведет к ненадежности - качеству, которое мы
считаем недопустимым для наших машин. Сходная трудность
заключается в неспособности традиционных искусственных нейронных
сетей "объяснить", как они решают задачу. Внутреннее представление,
полу чающееся в результате обучения, часто настолько сложно, что его
невозможно проанализировать, за исключением самых простых случаев.
Это напоминает нашу неспособность объяснить, как мы узнаем человека,
несмотря на различие в расстоянии, угле, освещении и на прошедшие
годы. Экспертная система может проследить процесс своих рассуждений в
обратном порядке, так что человек может проверить ее на разумность.
Сообщалось о встраивании этой способности в искусственные нейронные
сети [3], что может существенно повлиять на приемлемость этих
систем.
ВЫВОДЫ
Искусственные нейронные сети являются важным расширением понятия
вычисления. Они обещают создание автоматов, выполняющих функции, бывшие
ранее исключительной прерогативой человека. Машины могут выполнять
скучные, монотонные и опасные задания, и с развитием технологии
возникнут совершенно новые приложения. Теория искусственных
нейронных сетей развивается стремительно, но в настоящее время она
недостаточна, чтобы быть опорой для наиболее оптимистических проектов.
В ретроспективе видно, что теория развивалась быстрее, чем
предсказывали пессимисты, но медленнее, чем надеялись оптимисты, -
типичная ситуация. Сегодняшний взрыв интереса привлек к нейронным сетям
тысячи исследователей. Резонно ожидать быстрого роста нашего понимания
искусственных нейронных сетей, ведущего к более совершенным сетевым
парадигмам и множеству прикладных возможностей.
Глава I Основы искусственных нейронных сетей
Искусственные нейронные сети чрезвычайно разнообразны по своим
конфигурациям. Несмотря на такое разнообразие, сетевые парадигмы имеют
много общего. В этой главе подобные вопросы затрагиваются для того,
чтобы читатель был знаком с ними к тому моменту, когда позднее они снова
встретятся в книге. Используемые здесь обозначения и графические
представления были выбраны как наиболее широко используемые в настоящее
время (опубликованных стандартов не имеется), они сохраняются на
протяжении всей книги.
БИОЛОГИЧЕСКИЙ ПРОТОТИП
Развитие искусственных нейронных сетей вдохновляется биологией. То
есть, рассматривая сетевые конфигурации и алгоритмы, исследователи
мыслят их в терминах организации мозговой деятельности. Но на этом
аналогия может и закончиться. Наши знания о работе мозга столь
ограничены, что мало бы нашлось руководящих ориентиров для тех, кто
стал бы ему подражать. Поэтому разработчикам сетей приходится выходить
за пределы современных биологических знаний в поисках структур,
способных выполнять полезные функции. Во многих случаях это приводит к
необходимости отказа от биологического правдоподобия, мозг становится
просто метафорой, и создаются сети, невозможные в живой материи или
требующие неправдоподобно больших допущений об анатомии и
функционировании мозга. Несмотря на то, что связь с биологией слаба
и зачастую несущественна, искусственные нейронные сети продолжают
сравниваться с мозгом. Их функционирование часто напоминает
человеческое познание, поэтому трудно избежать этой аналогии. К
сожалению, такие сравнения неплодотворны и создают неоправданные
ожидания, неизбежно ведущие к разочарованию. Исследовательский
энтузиазм, основанный на ложных надеждах, может испариться,
столкнувшись с суровой действительностью, как это уже однажды было в
шестидесятые годы, и многообещающая область снова придет в упадок, если
не будет соблюдаться необходимая сдержанность. Несмотря на сделанные
предупреждения, полезно все же знать кое-что о нервной системе
млекопитающих, так как она успешно решает задачи, к выполнению
которых лишь стремятся искусственные системы. Последующее обсуждение
весьма кратко. Нервная система человека, построенная из элементов,
называемых нейронами, имеет ошеломляющую сложность. Около 10
нейронов участвуют в примерно 10 передающих связях, имеющих длину
метр и более. Каждый нейрон обладает многими качествами, общими с
другими элементами тела, но его уникальной способностью является прием,
обработка и передача электрохимических сигналов по нервным путям, которые
образуют коммуникационную систему мозга.
[pic]
Рис. 1.1. Биологический нейрон.
На рис. 1.1 показана структура пары типичных биологических
нейронов. Дендриты идут от тела нервной клетки к другим нейронам,
где они принимают сигналы в точках соединения, называемых синапсами.
Принятые синапсом входные сигналы подводятся к телу нейрона. Здесь они
суммируются, причем одни входы стремятся возбудить нейрон, другие -
воспрепятствовать его возбуждению. Когда суммарное возбуждение в теле
нейрона превышает некоторый порог, нейрон возбуждается, посылая по
аксону сигнал другим нейронам. У этой основной функциональной схемы
много усложнений и исключений, тем не менее, большинство искусственных
нейронных сетей моделируют лишь эти простые свойства.
ИСКУССТВЕННЫЙ НЕЙРОН
Искусственный нейрон имитирует в первом приближении свойства
биологического нейрона. На вход искусственного нейрона поступает
некоторое множество сигналов, каждый из которых является выходом
другого нейрона. Каждый вход умножается на соответствующий вес,
аналогичный синаптической силе, и все произведения суммируются,
определяя уровень активации нейрона. На рис. 1.2 представлена модель,
реализующая эту идею. Хотя сетевые парадигмы весьма разнообразны, в
основе почти всех их лежит эта конфигурация. Здесь множество входных
сигналов, обозначенных х(, х2 , ... , хn , поступает на искусственный
нейрон. Эти входные сигналы, в совокупности обозначаемые вектором X,
соответствуют сигналам, приходящим в синапсы биологического нейрона.
Каждый сигнал умножается на соответствующий вес w1, v2, ..., иn , и
поступает на суммирующий блок, обозначенный S. Каждый вес соответствует
«силе» одной биологической синаптической связи. (Множество весов в
совокупности обозначается вектором W.) Суммирующий блок,
соответствующий телу биологического элемента, складывает взвешенные
входы алгебраически, создавая выход, который мы будем называть NET. В
векторных обозначениях это может быть компактно записано следующим
образом:
Активационные функции
Сигнал NET далее, как правило, преобразуется активационной функцией
F и дает выходной нейронный сигнал OUT. Активационная функция может быть
обычной линейной функцией
OUT = K(NET).
где К - постоянная, пороговой функцией
OUT = 1, если NET > Т, OUT = 0 в остальных случаях,
где Т - некоторая постоянная пороговая величина, или же функцией, более
точно моделирующей нелинейную передаточную характеристику биологического
нейрона и представляющей нейронной сети большие возможности.
[pic]
На рис. 1.3 блок, обозначенный F, принимает сигнал NET и выдает сигнал
OUT. Если блок F сужает диапазон изменения величины NET так, что при
любых значениях NET значения OUT принадлежат некоторому конечному
интервалу, то F называется сжимающей функцией. В качестве «сжимающей»
функции часто используется логистическая или «сигмоидальная» (S-
образная) функция, показанная на рис. 1.4а. Эта функция математически
выражается как F(x) = 1/(1 + е-x). Таким образом,
OUT = 1/(1 + е -NET).
По аналогии с электронными системами активационную функцию можно
считать нелинейной усилительной характеристикой искусственного нейрона.
Коэффициент усиления вычисляется как отношение приращения величины
OUT к вызвавшему его небольшому приращению величины NET. Он
выражается наклоном кривой при определенном уровне возбуждения и
изменяется от малых значений при больших отрицательных возбуждениях
(кривая почти горизонтальна) до максимального значения при нулевом
возбуждении и снова уменьшается, когда возбуждение становится большим
положительным. Гроссберг (1973) обнаружил, что подобная нелинейная
характеристика решает поставленную им дилемму шумового насыщения. Каким
образом одна и та же сеть может обрабатывать как слабые, так и сильные
сигналы? Слабые сигналы нуждаются в большом сетевом усилении, чтобы
дать пригодный к использованию выходной сигнал' Однако усилительные
каскады с большими коэффициентами усиления могут привести к насыщению
выхода шумами усилителей (случайными флуктуациями), которые присутствуют
в любой физически реализованной сети. Сильные входные сигналы в свою
очередь также будут приводить к насыщению усилительных каскадов, исключая
возможность полезного использования выхода. Центральная область
логистической функции, имеющая большой коэффициент усиления, решает
проблему обработки слабых сигналов, в то время как области с падающим
усилением на положительном и отрицательном концах подходят для больших
возбуждений. Таким образом, нейрон функционирует с большим усилением в
широком диапазоне уровня входного сигнала.
OUT= 1 / f1+e -NET)=f(NET)
[pic]
Другой широко используемой активационной функцией является
гиперболический тангенс. По форме она сходна с логистической функцией и
часто используется биологами в качестве математической модели активации
нервной клетки. В качестве активационной функции искусственной
нейронной сети она записывается следующим образом:
OUT = th(х).
Подобно логистической функции гиперболический тангенс является S-
образной функцией, но он симметричен относительно начала координат, и
в точке NET = 0 значение выходного сигнала OUT равно нулю (см. рис.
1.46). В отличие от логистической функции гиперболический тангенс
принимает значения различных знаков, что оказывается выгодным для ряда
сетей (см. гл. 3). Рассмотренная простая модель искусственного
нейрона игнорирует многие свойства своего биологического двойника.
Например, она не принимает во внимание задержки во времени, которые
воздействуют на динамику системы. Входные сигналы сразу же порождают
выходной сигнал. И, что более важно, она не учитывает воздействий функции
частотной модуляции или синхронизирующей функции биологического
нейрона, которые ряд исследователей считают решающими.
[pic]
Рис. 1.46. Функция гиперболического тангенса.
Несмотря на эти ограничения, сети, построенные из этих нейронов,
обнаруживают свойства, сильно напоминающие биологическую систему.
Только время и исследования смогут ответить на вопрос, являются ли
подобные совпадения случайными или следствием того, что в модели,
верно, схвачены важнейшие черты биологического нейрона.
ОДНОСЛОВНЫЕ ИСКУССТВЕННЫЕ НЕЙРОННЫЕ СЕТИ
[pic]
Рис. 1.5. Однослойная нейронная сеть.
Хотя один нейрон и способен выполнять простейшие процедуры
распознавания, сила нейронных вычислений проистекает от соединений
нейронов в сетях. Простейшая сеть состоит из группы нейронов,
образующих слой, как показано в правой части рис. 1.5. Отметим, что
вершины-круги слева служат лишь для распределения входных сигналов. Они
не выполняют каких- либо вычислений, и поэтому не будут считаться
слоем. По этой причине они обозначены кругами, чтобы отличать их от
вычисляющих нейронов, обозначенных квадратами. Каждый элемент из
множества входов Х отдельным весом соединен с каждым искусственным
нейроном. А каждый нейрон выдает взвешенную сумму входов в сеть. В
искусственных и биологических сетях многие соединения могут
отсутствовать, все соединения показаны в целях общности. Могут иметь
место также соединения между выходами и входами элементов в слое. Такие
конфигурации рассматриваются в гл. 6. Удобно считать веса элементами
матрицы W. Матрица имеет т строк и п столбцов, где т. - число входов, а
п - число нейронов. Например, w3,2 - это вес, связывающий третий вход со
вторым нейроном. Таким образом, вычисление выходного вектора N,
компонентами которого являются выходы OUT нейронов, сводится к
матричному умножению N = XW, где N и Х- векторы-строки.
МНОГОСЛОЙНЫЕ ИСКУССТВЕННЫЕ НЕЙРОННЫЕ СЕТИ.
Более крупные и сложные нейронные сети обладают, как правило, и
большими вычислительными возможностями. Хотя созданы сети всех
конфигураций, какие только можно себе представить, послойная организация
нейронов копирует слоистые структуры определенных отделов мозга.
Оказалось, что такие многослойные сети обладают большими возможностями,
чем однослойные (см. гл. 2), и в последние годы были разработаны
алгоритмы для их обучения. Многослойные сети могут образовываться
каскадами слоев. Выход одного слоя является входом для последующего
слоя. Подобная сеть показана на рис. 1.6 и снова изображена со всеми
соединениями.
Нелинейная активационная функция
Многослойные сети могут привести к увеличению вычислительной
мощности по сравнению с однослойной сетью лишь в том случае, если
активационная функция между слоями будет нелинейной. Вычисление выхода
слоя заключается в умножении входного вектора на первую весовую
матрицу с последующим умножением (если отсутствует нелинейная
активационная функция) результирующего вектора на вторую весовую матрицу.
[pic]
Так как умножение матриц ассоциативно, то X(W1, W2). Это
показывает, что двухслойная линейная сеть эквивалентна одному слою
с весовой матрицей, равной произведению двух весовых матриц.
Следовательно, любая многослойная линейная сеть может быть заменена
эквивалентной однослойной сетью. В гл. 2 показано, что однослойные сети
весьма ограниченны по своим вычислительным возможностям. Таким образом,
для расширения возможностей сетей по сравнению с однослойной сетью
необходима нелинейная однослойная функция.
Сети с обратными связями.
У сетей, рассмотренных до сих пор, не было обратных связей, т.е.
соединений, идущих от выходов некоторого слоя к входам этого же слоя
или предшествующих слоев. Этот специальный класс сетей, называемых
сетями без обратных связей или сетями прямого распространения,
представляет интерес и широко используется. Сети более общего вида,
имеющие соединения от выходов к входам, называются сетями с
обратными связями. У сетей без обратных связей нет памяти, их выход
полностью определяется текущими входами и значениями весов. В некоторых
конфигурациях сетей с обратными связями предыдущие значения выходов
возвращаются на входы; выход, следовательно, определяется как текущим
входом, так и предыдущими выходами. По этой причине сети с обратными
связями могут обладать свойствами, сходными с кратковременной
человеческой памятью, сетевые выходы частично зависят от предыдущих
входов.
ТЕРМИНОЛОГИЯ, ОБОЗНАЧЕНИЯ И СХЕМАТИЧЕСКОЕ ИЗОБРАЖЕНИЕ ИСКУССТВЕННЫХ
НЕЙРОННЫХ СЕТЕЙ.
К сожалению, для искусственных нейронных сетей еще нет опубликованных
стандартов и устоявшихся терминов, обозначений и графических
представлений. Порой идентичные сетевые парадигмы, представленные
различными авторами, покажутся далекими друг от друга. В этой книге
выбраны наиболее широко используемые термины.
Терминология.
Многие авторы избегают термина «нейрон» для обозначения
искусственного нейрона, считая его слишком грубой моделью своего
биологического прототипа. В этой книге термины «нейрон», «клетка»,
«элемент» используются взаимозаменяемо для обозначения
«искусственного нейрона» как краткие и саморазъясняющие.
Дифференциальные уравнения или разностные уравнения.
Алгоритмы обучения, как и вообще искусственные нейронные сети,
могут быть представлены как в дифференциальной, так и в конечно-
разностной форме. При использовании дифференциальных уравнений
предполагают, что процессы непрерывны и осуществляются подобно большой
аналоговой сети. Для биологической системы, рассматриваемой на
микроскопическом уровне, это не так. Активационный уровень
биологического нейрона определяется средней скоростью, с которой он
посылает дискретные потенциальные импульсы по своему аксону. Средняя
скорость обычно рассматривается как аналоговая величина, но важно не
забывать о действительном положении вещей. Если моделировать искусственную
нейронную сеть на аналоговом компьютере, то весьма желательно
использовать представление с помощью дифференциальных уравнений. Однако
сегодня большинство работ выполняется на цифровых компьютерах, что
заставляет отдавать предпочтение конечно-разностной форме как наиболее
легко программируемой. По этой причине на протяжении всей книги
используется конечно-разностное представление.
Графическое представление
Как видно из публикаций, нет общепринятого способа подсчета числа
слоев в сети. Многослойная сеть состоит, как показано на рис. 1.6, из
чередующихся множеств нейронов и весов. Ранее в связи с рис. 1.5 уже
говорилось, что входной слой не выполняет суммирования. Эти нейроны
служат лишь в качестве разветвлений для первого множества весов и не
влияют на вычислительные возможности сети. По этой причине первый слой
не принимается во внимание при подсчете слоев, и сеть, подобная
изображенной на рис. 1.6, считается двухслойной, так как только два слоя
выполняют вычисления. Далее, веса слоя считаются связанными со
следующими за ними нейронами. Следовательно, слой состоит из множества
весов со следующими за ними нейронами, суммирующими взвешенные
сигналы.
Обучение искусственных нейронных сетей.
Среди всех интересных свойств искусственных нейронных сетей ни
одно не захватывает так воображения, как их способность к обучению.
Их обучение до такой степени напоминает процесс интеллектуального
развития человеческой личности, что может показаться, что достигнуто
глубокое понимание этого процесса. Но, проявляя осторожность, следует
сдерживать эйфорию. Возможности обучения искусственных нейронных сетей
ограниченны, и нужно решить много сложных задач, чтобы определить, на
правильном ли пути мы находимся. Тем не менее, уже получены
убедительные достижения, такие как «говорящая сеть» Сейновского (см.
гл. 3), и возникает много других практических применений.
Цель обучения.
Сеть обучается, чтобы для некоторого множества входов давать
желаемое (или, по крайней мере, сообразное с ним) множество выходов.
Каждое такое входное (или выходное) множество рассматривается как
вектор. Обучение осуществляется путем последовательного предъявления
входных векторов с одновременной подстройкой весов в соответствии с
определенной процедурой. В процессе обучения веса сети постепенно
становятся такими, чтобы каждый входной вектор вырабатывал выходной
вектор.
Обучение с учителем.
Различают алгоритмы обучения с учителем и без учителя.
Обучение с учителем предполагает, что для каждого входного вектора
существует целевой вектор, представляющий собой требуемый выход. Вместе
они называются обучающей парой. Обычно сеть обучается на некотором числе
таких обучающих пар. Предъявляется выходной вектор, вычисляется выход
сети и сравнивается с соответствующим целевым вектором, разность
(ошибка) с помощью обратной связи подается в сеть и веса изменяются в
соответствии с алгоритмом, стремящимся минимизировать ошибку. Векторы
обучающего множества предъявляются последовательно, вычисляются ошибки
и веса подстраиваются для каждого вектора до тех пор, пока ошибка по
всему обучающему массиву не достигнет приемлемо низкого уровня.
Обучение без учителя.
Несмотря на многочисленные прикладные достижения, обучение с
учителем критиковалось за свою биологическую неправдоподобность. Трудно
вообразить обучающий механизм в мозге, который бы сравнивал желаемые и
действительные значения выходов, выполняя коррекцию с помощью обратной
связи. Если допустить подобный механизм в мозге, то откуда тогда
возникают желаемые выходы? Обучение без учителя является намного более
правдоподобной моделью обучения в биологической системе. Развитая
Кохоненом [3] и многими другими, она не нуждается в целевом векторе
для выходов и, следовательно, не требует сравнения с предопределенными
идеальными ответами. Обучающее множество состоит лишь из входных
векторов. Обучающий алгоритм подстраивает веса сети так, чтобы
получались согласованные выходные векторы, т.е. чтобы предъявление
достаточно близких входных векторов давало одинаковые выходы. Процесс
обучения, следовательно, выделяет статистические свойства обучающего
множества и группирует сходные векторы в классы. Предъявление на вход
вектора из данного класса даст определенный выходной вектор, но до
обучения невозможно предсказать, какой выход будет производиться данным
классом входных векторов. Следовательно, выходы подобной сети должны
трансформироваться в некоторую понятную форму, обусловленную процессом
обучения. Это не является серьезной проблемой. Обычно не сложно
идентифицировать связь между входом и выходом, установленную сетью.
Алгоритмы обучения.
Большинство современных алгоритмов обучения выросло из концепций
Хэбба [2]. Им предложена модель обучения без учителя, в которой
синаптическая сила (вес) возрастает, если активированы оба нейрона,
источник и приемник. Таким образом, часто используемые пути в сети
усиливаются, и феномен привычки и обучения через повторение получает
объяснение. В искусственной нейронной сети, использующей обучение по
Хэббу, наращивание весов определяется произведением уровней возбуждения
передающего и принимающего нейронов. Это можно записать как
W ij (п + 1) = W ij (n) + ( OUT i OUT j
где W ij (n) - значение веса от нейрона i к нейрону j до подстройки, W
ij (п + 1) - значение веса от нейрона i к нейрону j после подстройки,
(. - коэффициент скорости обучения, OUT i - выход нейрона i и вход
нейрона j, OUTj - выход нейрона j. Сети, использующие обучение по Хэббу,
конструктивно развивались, однако за последние 20 лет были развиты более
эффективные алгоритмы обучения. В частности, в работах [4-6] и многих
других были развиты алгоритмы обучения с учителем, приводящие к сетям с
более широким диапазоном характеристик обучающих входных образов и
большими скоростями обучения, чем использующие простое обучение по
Хэббу. В настоящее время используется огромное разнообразие обучающих
алгоритмов. Потребовалась бы значительно большая по объему книга, чем
эта, для рассмотрения этого предмета полностью. Чтобы рассмотреть этот
предмет систематически, если и не исчерпывающе, в каждой из последующих
глав подробно описаны алгоритмы обучения для рассматриваемой в главе
парадигмы. В дополнение в приложении Б представлен общий обзор, в
определенной мере более обширный, хотя и не очень глубокий. В нем дан
исторический контекст алгоритмов обучения, их общая таксономия, ряд
преимуществ и ограничений. В силу необходимости это приведет к
повторению части материала, оправданием ему служит расширение взгляда на
предмет.
ПРОЛОГ
В последующих главах представлены и проанализированы некоторые
наиболее важные сетевые конфигурации и их алгоритмы обучения.
Представленные парадигмы дают представление об искусстве
конструирования сетей в целом, его прошлом и настоящем. Многие другие
парадигмы при тщательном рассмотрении оказываются лишь их модификациями.
Сегодняшнее развитие нейронных сетей скорее эволюционно, чем
революционно. Поэтому понимание представленных в данной книге парадигм
позволит следить за прогрессом в этой быстро развивающейся области.
Упор сделан на интуитивные и алгоритмические, а не математические
аспекты. Книга адресована скорее пользователю искусственных нейронных
сетей, чем теоретику. Сообщается, следовательно, достаточно информации,
чтобы дать читателю возможность понимать основные идеи. Те, кто знаком
с программированием, смогут реализовать любую из этих сетей.
Сложные математические выкладки опущены, если только они не имеют
прямого отношения к реализации сети. Для заинтересованного читателя
приводятся ссылки на более строгие и полные работы.
Глава 2 Персептроны
ПЕРСЕПТРОНЫ И ЗАРОЖДЕНИЕ ИСКУССТВЕННЫХ НЕЙРОННЫХ СЕТЕЙ
В качестве научного предмета искусственные нейронные сети впервые
заявили о себе в 40-е годы. Стремясь воспроизвести функции
человеческого мозга, исследователи создали простые аппаратные (а позже
программные) модели биологического нейрона и системы его соединений.
Когда нейрофизиологи достигли более глубокого понимания нервной системы
человека, эти ранние попытки стали восприниматься как весьма грубые
аппроксимации. Тем не менее, на этом пути были достигнуты впечатляющие
результаты, стимулировавшие дальнейшие исследования, приведшие к
созданию более изощренных сетей.
[pic]
Первое систематическое изучение искусственных нейронных сетей
было предпринято Маккалокком и Питтсом в 1943 г. [1]. Позднее в работе
[3] они исследовали сетевые парадигмы для распознавания изображений,
подвергаемых сдвигам и поворотам. Простая нейронная модель, показанная
на рис. 2.1, использовалась в большей части их работы. Элемент (
умножает каждый вход х на вес w и суммирует взвешенные входы. Если
эта сумма больше заданного порогового значения, выход равен единице, в
противном случае - нулю. Эти системы (и множество им подобных) получили
название персептронов. Они состоят из одного слоя искусственных
нейронов, соединенных с помощью весовых коэффициентов с множеством
входов (см. рис. 2.2), хотя в принципе описываются и более сложные
системы.
[pic]
В 60-е годы персептроны вызвали большой интерес и оптимизм.
Розенблатт [4] доказал замечательную теорему об обучении персептронов,
объясняемую ниже. Уидроу [5-8] дал ряд убедительных демонстраций
систем персептронного типа, и исследователи во всем мире стремились
исследовать возможности этих систем. Первоначальная эйфория
сменилась разочарованием, когда оказалось, что персептроны не способны
обучиться решению ряда простых задач. Минский [2] строго
проанализировал эту проблему и показал, что имеются жесткие ограничения
на то, что могут выполнять однослойные персептроны, и,
следовательно, на то, чему они могут обучаться. Так как в то время
методы обучения многослойных сетей не были известны, исследователи
перешли в более многообещающие области, и исследования в области
нейронных сетей пришли в упадок. Недавнее открытие методов обучения
многослойных сетей в большей степени, чем какой-либо иной фактор,
повлияло на возрождение интереса и исследовательских усилий. Работа
Минского, возможно, и охладила пыл энтузиастов персептрона, но
обеспечила время для необходимой консолидации и развития лежащей в
основе теории. Важно отметить, что анализ Минского не был опровергнут.
Он остается важным исследованием и должен изучаться, чтобы ошибки 60-х
годов не повторились. Несмотря на свои ограничения, персептроны
широко изучались (хотя не слишком широко использовались). Теория
персептронов является основой для многих других типов искусственных
нейронных сетей, и персептроны иллюстрируют важные принципы. В силу
этих причин они являются логической исходной точкой для изучения
искусственных нейронных сетей.
ПЕРСЕПТРОННАЯ ПРЕДСТАВЛЯЕМОСТЬ
Доказательство теоремы обучения персептрона [4] показало, что
персептрон способен научиться всему, что он способен представлять. Важно
при этом уметь различать представляемость и обучаемость. Понятие
представляемости относится к способности персептрона (или другой сети)
моделировать определенную функцию. Обучаемость же требует наличия
систематической процедуры настройки весов сети для реализации этой функции.
Для иллюстрации проблемы представляемости допустим, что у нас
есть множество карт, помеченных цифрами от 0 до 9. Допустим также, что
мы обладаем гипотетической машиной, способной отличать карты с нечетным
номером от карт с четным номером и зажигающей индикатор на своей панели
при предъявлении карты с нечетным номером (см. рис. 2.3). Представима ли
такая машина персептроном? То есть, может ли быть сконструирован
персептрон и настроены его веса (неважно каким образом) так, чтобы он
обладал такой же разделяющей способностью? Если это так, то говорят,
что персептрон способен представлять желаемую машину. Мы увидим, что
возможности представления однослойными персептронами весьма
ограниченны. Имеется много простых машин, которые не могут быть
представлены персептроном независимо от того, как настраиваются его
веса.
[pic]
Проблема функции ИСКЛЮЧАЮЩЕЕ ИЛИ
Один из самых пессимистических результатов Минского показывает,
что однослойный персептрон не может воспроизвести такую простую
функцию, как ИСКЛЮЧАЮЩЕЕ ИЛИ. Это - функция от двух аргументов, каждый из
которых может быть нулем или единицей. Она принимает значение единицы,
когда один из аргументов равен единице (но не оба). Проблему можно
проиллюстрировать с помощью однослойной однонейронной системы с двумя
входами, показанной на рис. 2.4. Обозначим один вход через х, а другой
через у, тогда все их возможные комбинации будут состоять из четырех
точек на плоскости х - у, как показано на рис. 2.5. Например, точка x=0
и у=0 обозначена на рисунке как точка А .Табл. 2.1 показывает требуемую
связь между входами и выходом, где входные комбинации, которые должны
давать нулевой выход, помечены А и А, единичный выход - В и В. В
сети на рис. 2.4 функция F является обычным порогом, так что OUT
принимает значение ноль, когда NET меньше 0,5, и единица в случае,
когда NET больше или равно 0,5. Нейрон выполняет следующее вычисление:
[pic]
xw1 + yw2 = 0,5 .
Никакая комбинация значений двух весов не может дать соотношения
между входом и выходом, задаваемого табл. 2.1. Чтобы понять это
ограничение, зафиксируем NET на величине порога 0,5. Сеть в этом случае
описывается уравнением (2.2). Это уравнение линейно по х и у, т.е. все
значения по х и у, удовлетворяющие этому уравнению, будут лежать на
некоторой прямой в плоскости x-y.
Таблица 2.1. Таблица истинности для функции ИСКЛЮЧАЮЩЕЕ ИЛИ
|Точки |Значения X|Значения Y|Требуемый выход |
|A0 |0 |0 |0 |
|B0 |1 |0 |1 |
|B1 |0 |1 |1 |
|A1 |1 |1 |0 |
Любые входные значения для х и у на этой линии будут давать
пороговое значение 0,5 для NET. Входные значения с одной стороны прямой
обеспечат значения NET больше порога, следовательно, OUT = 1. Входные
значения по другую сторону прямой обеспечат значения NET меньше порогового
значения, делая OUT равным 0. Изменения значений w1 , w2 и порога
будут менять наклон и положение прямой. Для того чтобы сеть
реализовала функцию ИСКЛЮЧАЮЩЕЕ ИЛИ, заданную табл. 2.1, нужно
расположить прямую так, чтобы точки А были с одной стороны прямой, а
точки В - с другой. Попытавшись нарисовать такую прямую на рис. 2.5,
убеждаемся, что это невозможно. Это означает, что какие бы значения ни
приписывались весам и порогу, сеть неспособна воспроизвести
соотношение между входом и выходом, требуемое для представления
функции ИСКЛЮЧАЮЩЕЕ ИЛИ.
[pic]
Взглянув на задачу с другой точки зрения, рассмотрим NET как
поверхность над плоскостью х-у. Каждая точка этой поверхности
находится над соответствующей точкой плоскости х-у на расстоянии, равном
значению NET этой точке. Можно показать, что наклон этой NЕТ-
поверхности одинаков для всей поверхности х-у. Все точки, в которых
значение NET равно величине порога, проектируются на линию уровня
плоскости NET (см. рис. 2.6). Ясно, что все точки по одну сторону
пороговой прямой спроецируются в значения NET, большие порога, а точки
по другую сторону дадут меньшие значения ^ЕТ. Таким образом,
пороговая прямая разбивает плоскость х-у на две области. Во всех точках
по одну сторону пороговой прямой значение OUT равно единице, по
другую сторону - нулю.
[pic]
Линейная разделимость
Как мы видели, невозможно нарисовать прямую линию, разделяющую
плоскость х-у так, чтобы реализовывалась функция ИСКЛЮЧАЮЩЕЕ ИЛИ. К
сожалению, этот пример не единственный. Имеется обширный класс функций, не
реализуемых однослойной сетью. Об этих функциях говорят, что они являются
линейно неразделимыми, и они накладывают определентные ограничения на
возможности однослойных сетей. Линейная разделимость ограничивает
однослойные сети задачами классификации, в которых множества точек
(соответствующих входным значениям) могут быть разделены геометрически.
Для нашего случая с двумя входами разделитель является прямой
линией. В случае трех входов разделение осуществляется плоскостью,
рассекающей трехмерное пространство. Для четырех или более входов
визуализация невозможна и необходимо мысленно представить n-мерное
пространство, рассекаемое «гиперплоскостью» - геометрическим
объектом, который рассекает пространство четырех или большего числа
измерений. Так как линейная разделимость ограничивает возможности
персептронного представления, то важно знать, является ли данная
функция разделимой. К сожалению, не существует простого способа
определить это, если число переменных велико.
Нейрон с п двоичными входами может иметь 2п различных входных
образов, состоящих из нулей и единиц. Так как каждый входной образ
может соответствовать двум различным бинарным выходам (единица и ноль),
то всего
2" имеется 2 функций от п переменных.
Таблица 2.2. Линейно разделимые функции
[pic]
(Взято из R.O.Winder, Single-stage logic. Paper presented at the
AIEE Fall General Meeting,1960.) Как видно из табл. 2.2,
вероятность того, что случайно выбранная функция окажется линейно
разделимой, весьма мала даже для умеренного числа переменных. По этой
причине однослойные персептроны на практике ограничены простыми
задачами.
Преодоление ограничения линейной разделимости
К концу 60-х годов проблема линейной разделимости была хорошо понята.
К тому же было известно, что это серьёзное ограничение представляемости
однослойными сетями можно преодолеть, добавив дополнительные слои.
Например, двухслойные сети можно получить каскадным соединением двух
однослойных сетей. Они способны выполнять более общие классификации,
отделяя те точки, которые содержатся в выпуклых ограниченных или
неограниченных областях. Область называется выпуклой, если для любых
двух ее точек соединяющий их отрезок целиком лежит в области. Область
называется ограниченной, если ее можно заключить в некоторый шар.
Неограниченную область невозможно заключить внутрь шара (например,
область между двумя параллельными линиями). Примеры выпуклых
ограниченных и неограниченных областей представлены на рис. 2.7.
[pic]
Чтобы уточнить требование выпуклости, рассмотрим простую
двухслойную сеть с двумя входами, подведенными к двум нейронам первого
слоя, соединенными с единственным нейроном в слое 2 (см. рис. 2.8).
Пусть порог выходного нейрона равен 0,75, а оба его веса равны 0,5. В
этом случае для того, чтобы порог был превышен и на выходе появилась
единица, требуется, чтобы оба нейрона первого уровня на выходе имели
единицу. Таким образом, выходной нейрон реализует логическую функцию
И. На рис. 2.8 каждый нейрон слоя 1 разбивает плоскость х-у на две
полуплоскости, один обеспечивает единичный выход для входов ниже верхней
линии, другой - для входов выше нижней линии. На рис. 2.8 показан
результат такого двойного разбиения, где выходной сигнал нейрона второго
слоя равен единице только внутри V-образной области. Аналогично во
втором слое может быть использовано три нейрона с дальнейшим разбиением
плоскости и созданием области треугольной формы. Включением
достаточного числа нейронов во входной слой может быть образован
выпуклый многоугольник любой желаемой формы. Так как они образованы с
помощью операции И над областями, задаваемыми линиями, то все такие
многогранники выпуклы, следовательно, только выпуклые области и
возникают. Точки, не составляющие выпуклой области, не могут быть
отделены от других точек плоскости двухслойной сетью. Нейрон второго
слоя не ограничен функцией И. Он может реализовывать многие другие
функции при подходящем выборе весов и порога. Например, можно сделать
так, чтобы единичный выход любого из нейронов первого слоя приводил к
появлению единицы на выходе нейрона второго слоя, реализовав тем самым
логическое ИЛИ. Имеется 16 двоичных функций от двух переменных. Если
выбирать подходящим образом веса и порог, то можно воспроизвести 14 из
них (все, кроме ИСКЛЮЧАЮЩЕЕ ИЛИ и ИСКЛЮЧАЮЩЕЕ НЕТ).
[pic]
Входы не обязательно должны быть двоичными. Вектор непрерывных
входов может представлять собой произвольную точку на плоскости х-у. В
этом случае мы имеем дело со способностью сети разбивать плоскость на
непрерывные области, а не с разделением дискретных множеств точек. Для
всех этих функций, однако, линейная разделимость показывает, что выход
нейрона второго слоя равен единице только в части плоскости х-у,
ограниченной многоугольной областью. Поэтому для разделения плоскостей
Р и Q необходимо, чтобы все Р лежали внутри выпуклой многоугольной
области, не содержащей точек Q (или наоборот). Трехслойная сеть,
однако, является более общей. Ее классифицирующие возможности
ограничены лишь числом искусственных нейронов и весов. Ограничения на
выпуклость отсутствуют. Теперь нейрон третьего слоя принимает в качестве
входа набор выпуклых многоугольников, и их логическая комбинация может
быть невыпуклой. На рис. 2.9 иллюстрируется случай, когда два
треугольника А и В, скомбинированные с помощью функций «А и не В»,
задают невыпуклую область. При добавлении нейронов и весов число
сторон многоугольников может неограниченно возрастать. Это позволяет
аппроксимировать область любой формы с любой точностью. Вдобавок не все
выходные области второго слоя должны пересекаться. Возможно,
следовательно, объединять различные области, выпуклые и невыпуклые,
выдавая на выходе единицу, всякий раз, когда входной вектор принадлежит
одной из них. Несмотря на то, что возможности многослойных сетей
были известны давно, в течение многих лет не было теоретически
обоснованного алгоритма для настройки их весов.
Эффективность запоминания
Серьезные вопросы имеются относительно эффективности запоминания
информации в персептроне (или любых других нейронных сетях) по
сравнению с обычной компьютерной памятью и методами поиска информации
в ней. Например, в компьютерной памяти можно хранить все входные образы
вместе с классифицирующими битами. Компьютер должен найти требуемый образ
и дать его классификацию. Различные хорошо известные методы могли бы быть
использованы для ускорения поиска. Если точное соответствие не найдено,
то для ответа может быть использовано правило ближайшего соседа.
[pic]
Число битов, необходимое для хранения этой же информации в
весах персептрона, может быть значительно меньшим по сравнению с
методом обычной компьютерной памяти, если образы допускают экономичную
запись. Однако Минский [2] построил патологические примеры, в которых
число битов, требуемых для представления весов, растет с
размерностью задачи быстрее, чем экспоненциально. В этих случаях
требования к памяти с ростом размерности задачи быстро становятся
невыполнимыми. Если, как он предположил, эта ситуация не является
исключением, то персептроны часто могут быть ограничены только малыми
задачами. Насколько общими являются такие неподатливые множества образов?
Это остается открытым вопросом, относящимся ко всем нейронным сетям.
Поиски ответа чрезвычайно важны для исследований по нейронным сетям.
ОБУЧЕНИЕ ПЕРСЕПТРОНА
Способность искусственных нейронных сетей обучаться является их
наиболее интригующим свойством. Подобно биологическим системам, которые
они моделируют, эти нейронные сети сами моделируют себя в результате
попыток достичь лучшей модели поведения. Используя критерий
линейной неделимости, можно решить, способна ли однослойная нейронная
сеть реализовывать требуемую функцию. Даже в том случае, когда ответ
положительный, это принесет мало пользы, если у нас нет способа найти
нужные значения для весов и порогов. Чтобы сеть представляла
практическую ценность, нужен систематический метод (алгоритм) для
вычисления этих значений. Розенблатт [4] сделал это в своем алгоритме
обучения персептрона вместе с доказательством того, что персептрон
может быть обучен всему, что он может реализовывать. Обучение
может быть с учителем или без него. Для обучения с учителем нужен
«внешний» учитель, который оценивал бы поведение системы и управлял ее
последующими модификациями. При обучении без учителя, рассматриваемого
в последующих главах, сеть путем самоорганизации делает требуемые
изменения. Обучение персептрона является обучением с учителем.
Алгоритм обучения персептрона может быть реализован на цифровом
компьютере или другом электронном устройстве, и. сеть становится в
определенном смысле само подстраивающейся. По этой причине процедуру
подстройки весов обычно называют «обучением» и говорят, что сеть
«обучается». Доказательство Розенблатта стало основной вехой и дало
мощный импульс исследованиям в этой области. Сегодня в той или иной
форме элементы алгоритма обучения персептрона встречаются во многих
сетевых парадигмах.
АЛГОРИТМ ОБУЧЕНИЯ ПЕРСЕПТРОНА
Персептрон обучают, подавая множество образов по одному на его
вход и подстраивая веса до тех пор, пока для всех образов не будет
достигнут требуемый выход. Допустим, что входные образы нанесены на
демонстрационные карты. Каждая карта разбита на квадраты и от каждого
квадрата на персептрон подается вход. Если в квадрате имеется линия, то
от него подается единица, в противном случае - ноль. Множество
квадратов на карте задает, таким образом, множество нулей и единиц,
которое и подается на входы персептрона. Цель состоит в том, чтобы
научить персептрон включать индикатор при подаче на него множества
входов, задающих нечетное число, и не включать в случае четного. На
рис. 2.10 показана такая персептронная конфигурация. Допустим, что
вектор Х является образом распознаваемой демонстрационной карты.
Каждая компонента (квадрат) Х - (х1,х2,..., хn ) - умножается на
соответствующую компоненту вектора весов W (w1, w2,..., wn ).
Эти произведения суммируются. Если сумма превышает порог , то
выход нейрона Y равен единице (индикатор зажигается), в противном
случае он - ноль. Как мы видели в гл. 1, эта операция компактно
записывается в векторной форме как Y = XW, а после нее следует
пороговая операция. Для обучения сети образ Х подается на вход и
вычисляется выход Y. Если Y правилен, то ничего не меняется. Однако
если выход неправилен, то веса, присоединенные к входам, усиливающим
ошибочный результат, модифицируются, чтобы уменьшить ошибку. Чтобы
увидеть, как это осуществляется, допустим, что демонстрационная карта с
цифрой 3 подана на вход и выход Y равен 1 (показывая нечетность).
Так как это правильный ответ, то веса не изменяются. Если, однако, на
вход подается карта с номером 4 и выход Y равен единице (нечетный), то
веса, присоединенные к единичным входам, должны быть уменьшены, так как
они стремятся дать неверный результат. Аналогично, если карта с номером 3
дает нулевой выход, то веса, присоединенные к единичным входам, должны
быть увеличены, чтобы скорректировать ошибку. Этот метод обучения
может быть подытожен следующим образом:
[pic]
1. Подать входной образ и вычислить Y
2. а. Если выход правильный, то перейти на шаг 1;
б. Если выход неправильный и равен нулю, то добавить все входы к
соответствующим им весам; или
в. Если выход неправильный и равен единице, то вычесть каждый вход
из соответствующего ему веса.
3. Перейти на шаг 1.
За конечное число шагов сеть научится разделять карты на четные
и нечетные при условии, что множество цифр линейно разделимо. Это
значит, что для всех нечетных карт выход будет больше порога, а для всех
четных - меньше. Отметим, что это обучение глобально, т.е. сеть
обучается на всем множестве карт. Возникает вопрос о том, как это
множество должно предъявляться, чтобы минимизировать время обучения.
Должны ли элементы множества предъявляться последовательно друг за
другом или карты следует выбирать случайно? Несложная теория служит
здесь путеводителем.
Дельта-правило
Важное обобщение алгоритма обучения персептрона, называемое
дельта-правилом, переносит этот метод на непрерывные входы и выходы.
Чтобы понять, как оно было получено, шаг 2 алгоритма обучения
персептрона может быть сформулирован в обобщенной форме с помощью
введения величины (, которая равна разности между требуемым или целевым
выходом Т и реальным выходом А
( = ( T – A )
Случай, когда ( = 0, соответствует шагу 2а, когда выход правилен
и в сети ничего не изменяется. Шаг 26 соответствует случаю ( > 0, а шаг
2в случаю ( < 0. В любом из этих случаев персептронный алгоритм
обучения сохраняется, если 5 умножается на величину каждого входа х.
и это произведение добавляется к соответствующему весу. С целью
обобщения вводится коэффициент «скорости обучения» (, который умножается
на (хi, что позволяет управлять средней величиной изменения весов.
В алгебраической форме записи
(i = ((хi (2.4)
wi(n + 1) = wi (n)+ (i, (2.5)
где (i - коррекция, связанная с i-м входом хi; wi(n + 1) -
значение веса i после коррекции; wi (n) -значение веса i до
коррекции.
Дельта-правило модифицирует веса в соответствии с требуемым и
действительным значениями выхода каждой полярности как для непрерывных,
так и для бинарных входов и выходов. Эти свойства открыли множество
новых приложений.
Трудности с алгоритмом обучения персептрона
Может оказаться затруднительным определить, выполнено ли условие
разделимости для конкретного обучающего множества. Кроме того, во многих
встречающихся на практике ситуациях входы часто меняются во времени и
могут быть разделимы в один момент времени и неразделимы в другой. В
доказательстве алгоритма обучения персептрона ничего не говорится также о
том, сколько шагов требуется для обучения сети. Мало утешительного в
знании того, что обучение закончится за конечное число шагов, если
необходимое для этого время сравнимо с геологической эпохой. Кроме
того, не доказано, что персептронный алгоритм обучения более быстр
по сравнению с простым перебором всех возможных значений весов, и в
некоторых случаях этот примитивный подход может оказаться лучше. На
эти вопросы никогда не находилось удовлетворительного ответа, они
относятся к природе обучающего материала. В различной форме они
возникают в последующих главах, где рассматриваются другие сетевые
парадигмы. Ответы для современных сетей как правило не более
удовлетворительны, чем для персептрона. Эти проблемы являются важной
областью современных исследований.
Глава 3 Процедура обратного распространения
ВВЕДЕНИЕ В ПРОЦЕДУРУ ОБРАТНОГО РАСПРОСТРАНЕНИЯ
Долгое время не было теоретически обоснованного алгоритма для
обучения многослойных искусственных нейронных сетей. А так как
возможности представления с помощью однослойных нейронных сетей
оказались весьма ограниченными, то и вся область в целом пришла в
упадок. Разработка алгоритма обратного распространения сыграла
важную роль в возрождении интереса к искусственным нейронным сетям.
Обратное распространение - это систематический метод для обучения
многослойных искусственных нейронных сетей. Он имеет солидное
математическое обоснование. Несмотря на некоторые ограничения,
процедура обратного распространения сильно расширила область
проблем, в которых могут быть использованы искусственные нейронные
сети, и убедительно продемонстрировала свою мощь. Интересна
история разработки процедуры. В [7] было дано ясное и полное описание
процедуры. Но как только эта работа была опубликована, оказалось, что
она была предвосхищена в [4]. А вскоре выяснилось, что еще раньше метод
был описан в [12]. Авторы работы [7] сэкономили бы свои усилия, знай они
о работе [12]. Хотя подобное дублирование является обычным явлением для
каждой научной области, в искусственных нейронных сетях положение с
этим намного серьезнее из-за пограничного характера самого предмета
исследования. Исследования по нейронным сетям публикуются в столь
различных книгах и журналах, что даже самому квалифицированному
исследователю требуются значительные усилия, чтобы быть осведомленным
обо всех важных работах в этой области.
ОБУЧАЮЩИЙ АЛГОРИТМ ОБРАТНОГО РАСПРОСТРАНЕНИЯ
Сетевые конфигурации
Нейрон. На рис. 3.1 показан нейрон, используемый в качестве основного
строительного блока в сетях обратного распространения. Подается
множество входов, идущих либо извне, либо от предшествующего слоя.
Каждый из них умножается на вес, и произведения суммируются. Эта
сумма, обозначаемая NET, должна быть вычислена для каждого нейрона
сети. После того, как величина NET вычислена, она модифицируется с
помощью активационной функции и получается сигнал OUT.
[pic]
На рис. 3.2 показана активационная функция, обычно используемая для
обратного распространения.
OUT = 1 / (1 + e –NET ) . (3.1)
Как показывает уравнение (3.2), эта функция, называемая сигмоидом,
весьма удобна, так как имеет простую производную, что используется при
реализации алгоритма обратного распространения.
[pic][pic] (3.2)
[pic]
Сигмоид, который иногда называется также логистической, или
сжимающей, функцией, сужает диапазон изменения NET так, что значение OUT
лежит между нулем и единицей. Как указывалось выше, многослойные
нейронные сети обладают большей представляющей мощностью, чем
однослойные, только в случае присутствия нелинейности. Сжимающая
функция обеспечивает требуемую нелинейность. В действительности
имеется множество функций, которые могли бы быть использованы. Для
алгоритма обратного распространения требуется лишь, чтобы функция была
всюду дифференцируема. Сигмоид удовлетворяет этому требованию. Его
дополнительное преимущество состоит в автоматическом контроле усиления.
Для слабых сигналов (величина NET близка к нулю) кривая вход-выход
имеет сильный наклон, дающий большое усиление. Когда величина сигнала
становится больше, усиление падает. Таким образом, большие сигналы
воспринимаются сетью без насыщения, а слабые сигналы проходят по сети
без чрезмерного ослабления.
Многослойная сеть. На рис. 3.3 изображена многослойная сеть, которая
может обучаться с помощью процедуры обратного распространения. (Для
ясности рисунок упрощен.) Первый слой нейронов (соединенный с
входами) служит лишь в качестве распределительных точек, суммирования
входов здесь не производится. Входной сигнал просто проходит через
них к весам на их выходах. А каждый нейрон последующих слоев выдает
сигналы NET и OUT, как описано выше. В литературе нет
единообразия относительно того, как считать число слоев в таких
сетях. Одни авторы
[pic]
используют число слоев нейронов (включая несуммирующий входной слой),
другие - число слоев весов. Так как последнее определение
функционально описательнее, то оно будет использоваться на протяжении
книги. Согласно этому определению, сеть на рис. 3.3 рассматривается как
двухслойная. Нейрон объединен с множеством весов, присоединенных к его
входу. Таким образом, веса первого слоя оканчиваются на нейронах
первого слоя. Вход распределительного слоя считается нулевым слоем.
Процедура обратного распространения применима к сетям с любым
числом слоев. Однако для того, чтобы продемонстрировать алгоритм,
достаточно двух слоев. Сейчас будут рассматриваться лишь сети
прямого действия, хотя обратное распространение применимо и к сетям с
обратными связями. Эти случаи будут рассмотрены в данной главе
позднее.
Обзор обучения
Целью обучения сети является такая подстройка ее весов, чтобы
приложение некоторого множества входов приводило к требуемому множеству
выходов. Для краткости эти множества входов и выходов будут
называться векторами. При обучении предполагается, что для каждого
входного вектора существует парный ему целевой вектор, задающий
требуемый выход. Вместе они называются обучающей парой. Как
правило, сеть обучается на многих парах. Например, входная часть
обучающей пары может состоять из набора нулей и единиц,
представляющего двоичный образ некоторой буквы алфавита. На рис. 3.4
показано множество входов для буквы. А, нанесенной на сетке. Если
через квадрат проходит линия, то соответствующий нейронный вход равен
единице, в противном случае он равен нулю. Выход может быть числом,
представляющим букву А, или другим набором из нулей и единиц, который
может быть использован для получения выходного образа. При
необходимости распознавать с помощью сети все буквы алфавита,
потребовалось бы 26 обучающих пар. Такая группа обучающих пар
называется обучающим множеством. Перед началом обучения всем весам
должны быть присвоены небольшие начальные значения, выбранные
случайным образом. Это гарантирует, что в сети не произойдет насыщения
большими значениями весов, и предотвращает ряд других патологических
случаев. Например, если всем весам придать одинаковые начальные
значения, а для требуемого функционирования нужны неравные значения, то
сеть не сможет обучиться. Обучение сети обратного распространения
требует выполнения следующих операций:
1. Выбрать очередную обучающую пару из обучающего множества;
подать входной вектор на вход сети.
2. Вычислить выход сети.
3. Вычислить разность между выходом сети и требуемым выходом (целевым
вектором обучающей пары).
4. Подкорректировать веса сети так, чтобы минимизировать ошибку.
5. Повторять шаги с 1 по 4 для каждого вектора обучающего
множества до тех пор, пока ошибка на всем множестве не достигнет
приемлемого уровня.
[pic]
Операции, выполняемые шагами 1 и 2, сходны с теми, которые
выполняются при функционировании уже обученной сети, т.е. подается
входной вектор и вычисляется получающийся выход. Вычисления
выполняются послойно. На рис. 3.3 сначала вычисляются выходы нейронов
слоя j, затем они используются в качестве входов слоя k, вычисляются
выходы нейронов слоя k, которые и образуют выходной вектор сети. На
шаге 3 каждый из выходов сети, которые на рис. 3.3 обозначены OUT,
вычитается из соответствующей компоненты целевого вектора, чтобы получить
ошибку. Эта ошибка используется на шаге 4 для коррекции весов сети,
причем знак и величина изменений весов определяются алгоритмом
обучения (см. ниже). После достаточного числа повторений этих
четырех шагов разность между действительными выходами и целевыми
выходами должна уменьшиться до приемлемой величины, при этом говорят,
что сеть обучилась. Теперь сеть используется для распознавания и веса не
изменяются. На шаги 1 и 2 можно смотреть как на «проход вперед»,
так как сигнал распространяется по сети от входа к выходу. Шаги 3, 4
составляют «обратный проход», здесь вычисляемый сигнал ошибки
распространяется обратно по сети и используется для подстройки весов. Эти
два прохода теперь будут детализированы и выражены в более
математической форме.
Проход вперед. Шаги 1 и 2 могут быть выражены в векторной форме
следующим образом: подается входной вектор Х и на выходе получается
вектор Y. Векторная пара вход-цель Х и Т берется из обучающего
множества. Вычисления проводятся над вектором X, чтобы получить
выходной вектор Y. Как мы видели, вычисления в многослойных
сетях выполняются слой за слоем, начиная с ближайшего к входу слоя.
Величина NET каждого нейрона первого слоя вычисляется как взвешенная
сумма входов нейрона. Затем активационная функция F «сжимает» NET и
дает величину OUT для каждого нейрона в этом слое. Когда множество
выходов слоя получено, оно является входным множеством для следующего
слоя. Процесс повторяется слой за слоем, пока не будет получено
заключительное множество выходов сети. Этот процесс может быть
выражен в сжатой форме с помощью векторной нотации. Веса между
нейронами могут рассматриваться как матрица W. Например, вес от нейрона
8 в слое 2 к нейрону 5 слоя 3 обозначается w8,5. Тогда NET-вектор слоя
N может быть выражен не как сумма произведений, а как произведение Х и W.
В векторном обозначении N = XW. Покомпонентным применением функции F к
NET-вектору N получается выходной вектор О. Таким образом, для данного
слоя вычислительный процесс описывается следующим выражением:
О = F(XW). (3.3)
Выходной вектор одного слоя является входным век тором для
следующего, поэтому вычисление выходов последнего слоя требует применения
уравнения (3.3) к каждому слою от входа сети к ее выходу.
Обратный проход. Подстройка весов выходного слоя. Так как для каждого
нейрона выходного слоя задано целевое значение, то подстройка весов
легко осуществляется с использованием модифицированного дельта-
правила из гл. 2. Внутренние слои называют «скрытыми слоями», для их
выходов не имеется целевых значений для сравнения. Поэтому обучение
усложняется. На рис. 3.5 показан процесс обучения для одного веса
от нейрона р в скрытом слое j к нейрону в q выходном слое k. Выход
нейрона слоя k, вычитаясь из целевого значения (Target), дает сигнал
ошибки. Он умножается на производную сжимающей функции [OUT(1 - OUT)],
вычисленную для этого нейрона слоя k, давая, таким образом, величину
(.
( = OUT(1 - OUT)(Target - OUT). (3.4)
Затем ( умножается на величину OUT нейрона, из которого выходит
для рассматриваемый вес. Это произведение в свою очередь умножается на
коэффициент скорости обучения ( (обычно от 0,01 до 1,0), и результат
прибавляется к весу. Такая же процедура выполняется каждого веса от
нейрона скрытого слоя к нейрону в выходном слое. Следующие
уравнения иллюстрируют это вычисление:
(wpq,k=((q,kOUTp,j, (3.5)
wpq,k(n+1) = wpq,k(n) + (wpq,k, (3.6)
где wpq,k {n) - величина веса от нейрона n в скрытом, слое к нейрону
q в выходном слое на шаге п (до коррекции); отметим, что индекс k
относится к слою, в котором заканчивается данный вес, т.е.,
согласно принятому в этой книге соглашению, с которым он объединен;
wpq,k (n+1)- величина веса на шаге п + 1 (после коррекции); (q,k-
величина ( для нейрона q в выходном слое k, OUTp,j - величина OUT
для нейрона р в скрытом слое j.
[pic]
Рис.3.5. Настройка веса в выходном слое.
Подстройка весов скрытого слоя. Рассмотрим один нейрон в скрытом
слое, предшествующем выходному слою. При проходе вперед этот нейрон
передает свой выходной сигнал нейронам в выходном слое через соединяющие
их веса. Во время обучения эти веса функционируют в обратном порядке,
пропуская величину ( от выходного слоя назад к скрытому слою. Каждый из
этих весов умножается на величину ( нейрона, к которому он присоединен в
выходном слое. Величина (, необходимая для нейрона скрытого слоя,
получается суммированием всех таких произведений и умножением на
производную сжимающей функции:
(p,q = OUTp,j (1 - OUTp,j)([pic] (p,kwpq,k) (3.7)
(см. рис.3.6). Когда значение ( получено, веса, питающие первый скрытый
уровень, могут быть подкорректированы с помощью уравнений (3.5) и (3.6),
где индексы модифицируются в соответствии со слоем.
[pic]
Рис.З.6. Настройка веса в скрытом слое.
Для каждого нейрона в данном скрытом слое должно быть вычислено
( и подстроены все веса, ассоциированные с этим слоем. Этот процесс
повторяется слой за слоем по направлению к входу, пока все веса не
будут подкорректированы. С помощью векторных обозначений операция
обратного распространения ошибки может быть записана значительно
компактнее. Обозначим множество величин ( выходного слоя через Dk
и множество весов выходного слоя как массив W’k . Чтобы получить Dj,
(-вектор выходного слоя, достаточно следующих двух операций:
1. Умножить ( - вектор выходного слоя Dk на транспонированную матрицу
весов W’k, соединяющую скрытый уровень с выходным уровнем.
2. Умножить каждую компоненту полученного произведения на производную
сжимающей функции соответствующего нейрона в скрытом слое.
В символьной записи
Dj = DkW ‘k $ [Оj $(1- Oj)], (3.8)
где оператор $ в данной книге обозначает покомпонентное произведение
векторов. О. - выходной вектор слоя j и 1 - вектор, все компоненты
которого равны 1.
Добавление нейронного смещения. Во многих случаях желательно наделять
каждый нейрон обучаемым смещением. Это позволяет сдвигать начало
отсчета логистической функции, давая эффект, аналогичный подстройке
порога персептронного нейрона, и приводит к ускорению процесса
обучения. Эта возможность может быть легко введена в обучающий
алгоритм с помощью добавляемого к каждому нейрону веса,
присоединенного к +1. Этот вес обучается так же, как и все остальные
веса, за исключением того, что подаваемый на него сигнал всегда равен
+1, а не выходу нейрона предыдущего слоя.
Импульс. В работе [7] описан метод ускорения обучения для алгоритма
обратного распространения, увеличивающий также устойчивость процесса.
Этот метод, названный импульсом, заключается в добавлении к
коррекции веса члена, пропорционального величине предыдущего изменения
веса. Как только происходит коррекция, она «запоминается» и служит для
модификации всех последующих коррекций. Уравнения коррекции модифицируются
следующим образом:
[pic](wpq,k(n+1) = ( ((q,kOUTp,j) + (((wpq,k(n)), (3.9)
[pic](wpq,k(n+1) = (wpq,k(n) + (wpq,k(n+1)), (3.10)
где ( - коэффициент импульса, обычно устанавливается около
0,9.Используя метод импульса, сеть стремится идти по дну узких оврагов
поверхности ошибки (если таковые имеются), а не двигаться от склона
к склону. Этот метод, по-видимому, хорошо работает на некоторых задачах,
но дает слабый или даже отрицательный эффект на других. В работе [8]
описан сходный метод, основанный на экспоненциальном сглаживании, который
может иметь преимущество в ряде приложений.
[pic](wpq,k(n+1) = ( (wpq,k(n) + ( 1- ( )(q,kOUTp,j . (3.11)
[pic](wpq,k(n+1) = (wpq,k(n) + ((wpq,k(n+1)), (3.12)
где ( коэффициент сглаживания, варьируемый и диапазоне от 0,0 до 1,0.
Если ( равен 1,0, то новая коррекция игнорируется и повторяется
предыдущая. В области между 0 и 1 коррекция веса сглаживается величиной,
пропорциональной (. По-прежнему, ( является коэффициентом скорости
обучения, служащим для управления средней величиной изменения веса.
ДАЛЬНЕЙШИЕ АЛГОРИТМИЧЕСКИЕ РАЗРАБОТКИ
Многими исследователями были предложены улучшения и обобщения
описанного выше основного алгоритма обратного распространения. Литература
в этой области слишком обширна, чтобы ее можно было здесь охватить.
Кроме того, сейчас еще слишком рано давать окончательные оценки.
Некоторые из этих подходов могут оказаться действительно
фундаментальными, другие же со временем исчезнут. Некоторые из
наиболее многообещающих разработок обсуждаются в этом разделе. В
[5] описан метод ускорения сходимости алгоритма обратного
распространения. Названный обратным распространением второго порядка,
он использует вторые производные для более точной оценки требуемой
коррекции весов. В [5] показано, что этот алгоритм оптимален в том
смысле, что невозможно улучшить оценку, используя производные более
высокого порядка. Метод требует дополнительных вычислений по сравнению
с обратным распространением первого порядка, и необходимы дальнейшие
эксперименты для доказательства оправданности этих затрат. В
[9] описан привлекательный метод улучшения характеристик обучения сетей
обратного распространения. В работе указывается, что общепринятый от 0
до 1 динамический диапазон входов и выходов скрытых нейронов
неоптимален. Так как величина коррекции веса (wpq,k пропорциональна
выходному уровню нейрона, порождающего OUTp,q, то нулевой уровень
ведет к тому, что вес не меняется. При двоичных входных векторах
половина входов в среднем будет равна нулю, и веса, с которыми они
связаны, не будут обучаться! Решение состоит в приведении входов к
значениям ±1/2 и добавлении смещения к сжимающей функции, чтобы она
также принимала значения ±1/2. Новая сжимающая функция выглядит следующим
образом:
OUT =-1/2 + 1 / (exp(-NET) + 1). (3.13)
С помощью таких простых средств время сходимости сокращается в среднем
от 30 до 50%. Это является одним из примеров практической модификации,
существенно улучшающей характеристику алгоритма. В [6] и [1]
описана методика применения обратного распространения к сетям с
обратными связями, т.е. к таким сетям, у которых выходы подаются
через обратную связь на входы. Как показано в этих работах, обучение в
подобных системах может быть очень быстрым и критерии устойчивости
легко удовлетворяются.
ПРИМЕНЕНИЯ
Обратное распространение было использовано в широкой сфере прикладных
исследований. Некоторые из них описываются здесь, чтобы
продемонстрировать мощь этого метода. Фирма NEC в Японии объявила
недавно, что обратное распространение было ею использовано для
визуального распознавания букв, причем точность превысила 99%. Это
улучшение было достигнуто с помощью комбинации обычных алгоритмов с
сетью обратного распространения, обеспечивающей дополнительную проверку.
В работе [8] достигнут впечатляющий успех с NetTalk, системой,
которая превращает печатный английский текст в высококачественную речь.
Магнитофонная запись процесса обучения сильно напоминает звуки
ребенка на разных этапах обучения речи. В [2] обратное
распространение использовалось в машинном распознавании рукописных
английских слов. Буквы, нормализованные по размеру, наносились на сетку,
и брались проекции линий, пересекающих квадраты сетки. Эти проекции
служили затем входами для сети обратного распространения. Сообщалось о
точности 99,7% при использовании словарного фильтра. В [3]
сообщалось об успешном применении обратного распространения к сжатию
изображений, когда образы представлялись одним битом на пиксель, что
было восьмикратным улучшением по сравнению с входными данными.
ПРЕДОСТЕРЕЖЕНИЕ
Несмотря на многочисленные успешные применения обратного
распространения, оно не является панацеей. Больше всего неприятностей
приносит неопределенно долгий процесс обучения. В сложных задачах для
обучения сети могут потребоваться дни или даже недели, она может и вообще
не обучиться. Длительное время обучения может быть результатом
неоптимального выбора длины шага. Неудачи в обучении обычно
возникают по двум причинам: паралича сети и попадания в локальный
минимум.
Паралич сети
В процессе обучения сети значения весов могут в результате
коррекции стать очень большими величинами. Это может привести к
тому, что все или большинство нейронов будут функционировать при очень
больших значениях OUT, в области, где производная сжимающей функции
очень мала. Так как посылаемая обратно в процессе обучения ошибка
пропорциональна этой производной, то процесс обучения может практически
замереть. В теоретическом отношении эта проблема плохо изучена. Обычно
этого избегают уменьшением размера шага т), но это увеличивает время
обучения. Различные эвристики использовались для предохранения от
паралича или для восстановления после него, но пока что они могут
рассматриваться лишь как экспериментальные.
Локальные минимумы
Обратное распространение использует разновидность градиентного
спуска, т.е. осуществляет спуск вниз по поверхности ошибки,
непрерывно подстраивая веса в направлении к минимуму. Поверхность
ошибки сложной сети сильно изрезана и состоит из холмов, долин,
складок и оврагов в пространстве высокой размерности. Сеть может попасть
в локальный минимум (неглубокую долину), когда рядом имеется гораздо
более глубокий минимум. В точке локального минимума все направления
ведут вверх, и сеть неспособна из него выбраться. Статистические
методы обучения могут помочь избежать этой ловушки, но они медленны.
В [10] предложен метод, объединяющий статистические методы машины Коши
с градиентным спуском обратного распространения и приводящий к системе,
которая находит глобальный минимум, сохраняя высокую скорость обратного
распространения. Это обсуждается в гл. 5.
Размер шага
Внимательный разбор доказательства сходимости в [7] показывает,
что коррекции весов предполагаются бесконечно малыми. Ясно, что это
неосуществимо на практике, так как ведет к бесконечному времени
обучения. Размер шага должен браться конечным, и в этом вопросе
приходится опираться только на опыт. Если размер шага очень мал, то
сходимость слишком медленная, если же очень велик, то может возникнуть
паралич или постоянная неустойчивость. В [II] описан адаптивный алгоритм
выбора шага, автоматически корректирующий размер шага в процессе
обучения.
Временная неустойчивость
Если сеть учится распознавать буквы, то нет смысла учить Б, если
при этом забывается А. Процесс обучения должен быть таким, чтобы сеть
обучалась на всем обучающем множестве без пропусков того, что уже
выучено. В доказательстве сходимости [7] это условие выполнено, но
требуется также, чтобы сети предъявлялись все векторы обучающего
множества прежде, чем выполняется коррекция весов. Необходимые
изменения весов должны вычисляться на всем множестве, а это требует
дополнительной памяти; после ряда таких обучающих циклов веса сойдутся к
минимальной ошибке. Этот метод может оказаться бесполезным, если сеть
находится в постоянно меняющейся внешней среде, так что второй раз
один и тот же вектор может уже не повториться. В этом случае
процесс обучения может никогда не сойтись, бесцельно блуждая или сильно
осциллируя. В этом смысле обратное распространение не похоже на
биологические системы. Как будет указано в гл.8 это несоответствие
(среди прочих) привело к системе ART , принадлежавшей Гроссбергу.
Глава 4 Сети встречного распространения
ВВЕДЕНИЕ В СЕТИ ВСТРЕЧНОГО РАСПРОСТРАНЕНИЯ
Возможности сети встречного распространения, разработанной в [5-
7], превосходят возможности однослойных сетей. Время же обучения по
сравнению с обратным распространением может уменьшаться в сто раз.
Встречное распространение не столь общо, как обратное распространение, но
оно может давать решение в тех приложениях, где долгая обучающая
процедура невозможна. Будет показано, что помимо преодоления
ограничений других сетей встречное распространение обладает
собственными интересными и полезными свойствами. Во встречном
распространении объединены два хорошо известных алгоритма:
самоорганизующаяся карта Кохонена [8] и звезда Гроссберга [2-4] (см.
приложение Б). Их объединение ведет к свойствам, которых нет ни у
одного из них в отдельности. Методы, которые подобно встречному
распространению, объединяют различные сетевые парадигмы как строительные
блоки, могут привести к сетям, более близким к мозгу по архитектуре,
чем любые другие однородные структуры. Похоже, что в мозгу именно
каскадные соединения модулей различной специализации позволяют
выполнять требуемые вычисления. Сеть встречного распространения
функционирует подобно столу справок, способному к обобщению. В
процессе обучения входные векторы ассоциируются с соответствующими
выходными векторами. Эти векторы могут быть двоичными, состоящими из
нулей и единиц, или непрерывными. Когда сеть обучена, приложение
входного векторе приводит к требуемому выходному вектору. Обобщающая?
способность сети позволяет получать правильный выxoд даже при
приложении входного вектора, который являете; неполным или слегка
неверным. Это позволяет использовать данную сеть для распознавания
образов, восстановления образов и усиления сигналов.
СТРУКТУРА СЕТИ
На рис. 4.1 показана упрощенная версия прямого действия сети
встречного распространения. На нем иллюстрируются функциональные свойства
этой парадигмы. Полная двунаправленная сеть основана на тех же
принципах, она обсуждается в этой главе позднее. Нейроны слоя 0
(показанные кружками) служат лишь точками разветвления и не выполняют
вычислений. Каждый нейрон слоя 0 соединен с каждым нейроном слоя 1
(называемого слоем Кохонена) отдельным весом wmn . Эти веса в целом
рассматриваются как матрица весов W. Аналогично, каждый нейрон в слое
Кохонена (слое 1) соединен с каждым нейроном в слое Гроссберга (слое 2)
весом vnp . Эти веса образуют матрицу весов V. Все это весьма
напоминает другие сети, встречавшиеся в предыдущих главах, различие,
однако, состоит в операциях, выполняемых нейронами Кохонена и Гроссберга.
Как и многие другие сети, встречное распространение функционирует
в двух режимах: в нормальном режиме, при котором принимается входной
вектор Х и выдается выходной вектор Y, и в режиме обучения, при
котором подается входной вектор и веса корректируются, чтобы дать
требуемый выходной вектор.
[pic]
НОРМАЛЬНОЕ ФУНКЦИОНИРОВАНИЕ
Слои Кохоненна
В своей простейшей форме слой Кохонена функционирует в духе
«победитель забирает все», т.е. для данного входного вектора один и
только один нейрон Кохонена выдает на выходе логическую единицу,
все остальные выдают ноль. Нейроны Кохонена можно воспринимать как
набор электрических лампочек, так что для любого входного вектора
загорается одна из них. Ассоциированное с каждым нейроном Кохонена
множество весов соединяет его с каждым входом. Например, на рис.4.1
нейрон Кохонена К1 имеет веса w11, w21, ...,wm1 составляющие
весовой вектор W1. Они соединяются через входной слой с входными
сигналами х1, х2 , ...,хm, составляющими входной вектор X. Подобно
нейронам большинства сетей выход NET каждого нейрона Кохонена является
просто суммой взвешенных входов. Это может быть выражено следующим
образом:
NETj = w1j x1+ w2j x2 + … + wm j xm (4.1)
где NETj - это выход NET-го нейрона Кохонена j ,
NETj = [pic] (4.2)
или в векторной записи N = XW (4.3)
где N - вектор выходов NET слоя Кохонена. Нейрон Кохонена с
максимальным значением NET является «победителем». Его выход равен
единице, у остальных он равен нулю.
Слой Гроссберга
Слой Гроссберга функционирует в сходной манере. Его выход NET
является взвешенной суммой выходов k1 ,k2, ..., kn слоя Кохонена,
образующих вектор К. Вектор соединяющих весов, обозначенный через
V, состоит из весов v11,v21 , ..., vnp . Тогда выход NET каждого
нейрона Гроссберга есть
[pic] (4.4)
где NETj - выход j-го нейрона Гроссберга, или в векторной форме
Y = KV, (4.5)
где Y - выходной вектор слоя Гроссберга, К - выходной вектор слоя
Кохонена, V - матрица весов слоя Гроссберга. Если слой Кохонена
функционирует таким образом, что лишь у одного нейрона величина NET
равна единице, а у остальных равна нулю, то лишь один элемент вектора К
отличен от нуля, и вычисления очень просты. Фактически каждый нейрон
слоя Гроссберга лишь выдает величину веса, который связывает этот
нейрон с единственным ненулевым нейроном Кохонена.
ОБУЧЕНИЕ СЛОЯ КОХОНЕНА
Слой Кохонена классифицирует входные векторы в группы схожих.
Это достигается с помощью такой подстройки весов слоя Кохонена, что
близкие входные векторы активируют один и тот же нейрон данного
слоя. Затем задачей слоя Гроссберга является получение требуемых
выходов. Обучение Кохонена является самообучением, протекающим без
учителя. Поэтому трудно (и не нужно) предсказывать, какой именно нейрон
Кохонена будет активироваться для заданного входного вектора. Необходимо
лишь гарантировать, чтобы в результате обучения разделялись несхожие
входные векторы.
Предварительная обработка входных векторов
Весьма желательно (хотя и не обязательно) нормализовать входные
векторы перед тем, как предъявлять их сети. Это выполняется с помощью
деления каждой компоненты входного вектора на длину вектора. Эта
длина находится извлечением квадратного корня из суммы квадратов
компонент вектора. В алгебраической записи
[pic] (4.6)
Это превращает входной вектор в единичный вектор с тем же самым
направлением, т.е. в вектор единичной длины в n-мерном пространстве.
Уравнение (4.6) обобщает хорошо известный случай двух измерений,
когда длина вектора равна гипотенузе прямоугольного треугольника,
образованного его х и у компонентами, как это следует из известной
теоремы Пифагора. На рис. 4.2а такой двумерный вектор V
представлен в координатах х-у, причем координата х равна четырем, а
координата х - трем. Квадратный корень из суммы квадратов этих
компонент равен пяти. Деление каждой компоненты V на пять дает
вектор V' с компонентами 4/5 и 3/5, где V' указывает в том же
направлении, что и V, но имеет единичную длину. На рис. 4.26
показано несколько единичных векторов. Они оканчиваются в точках
единичной окружности (окружности единичного радиуса), что имеет место,
когда у сети лишь два входа. В случае трех входов векторы
представлялись бы стрелками, оканчивающимися на поверхности единичной
сферы. Эти представления могут быть перенесены на сети, имеющие
произвольное число входов, где каждый входной вектор является стрелкой,
оканчивающейся на поверхности единичной гиперсферы (полезной
абстракцией, хотя и не допускающей непосредственной визуализации).
[pic]
При обучении слоя Кохонена на вход подается входной вектор, и
вычисляются его скалярные произведения с векторами весов, связанными со
всеми нейронами Кохонена. Нейрон с максимальным значением скалярного
произведения объявляется «победителем» и его веса подстраиваются. Так
как скалярное произведение, используемое для вычисления величин NET,
является мерой сходства между входным вектором и вектором весов, то
процесс обучения состоит в выборе нейрона Кохонена с весовым вектором,
наиболее близким к входному вектору, и дальнейшем приближении весового
вектора к входному. Снова отметим, что процесс является
самообучением, выполняемым без учителя. Сеть самоорганизуется таким
образом, что данный нейрон Кохонена имеет максимальный выход для данного
входного вектора. Уравнение, описывающее процесс обучения имеет
следующий вид:
Wн= Wc + ( (x – Wc), (4.7)
где wH - новое значение веса, соединяющего входную компоненту хc
выигравшим нейроном; wc - предыдущее значение этого веса; ( -
коэффициент скорости обучения, который может варьироваться в процессе
обучения. Каждый вес, связанный с выигравшим нейроном Кохонена,
изменяется пропорционально разности между его величиной и величиной
входа, к которому он присоединен. Направление изменения минимизирует
разность между весом и его входом. На рис. 4.3 этот процесс показан
геометрически в двумерном виде. Сначала находится вектор X-Wc, для
этого проводится отрезок из конца W в конец X. Затем этот вектор
укорачивается умножением его на скалярную величину (, меньшую
единицы, в результате чего получается вектор изменения (. Окончательно
новый весовой вектор W является отрезком, направленным из начала
координат в конец вектора (. Отсюда можно видеть, что эффект обучения
состоит во вращении весового вектора в направлении входного вектора без
существенного изменения его длины.
[pic]
Рис.4.3. Вращение весового вектора в процессе обучения (WH – вектор новых
весовых коэффициентов, Wc - вектор старых весовых коэффициентов).
Переменная ( является коэффициентом скорости обучения, который
вначале обычно равен ~ 0,7 и может постепенно уменьшаться в процессе
обучения. Это позволяет делать большие начальные шаги для быстрого
грубого обучения и меньшие шаги при подходе к окончательной величине.
Если бы с каждым нейроном Кохонена ассоциировался один входной
вектор, то слой Кохонена мог бы быть обучен с помощью одного вычисления
на вес. Веса нейрона-победителя приравнивались бы к компонентам
обучающего вектора (( = 1). Как правило, обучающее множество включает много
сходных между собой входных векторов, и сеть должна быть обучена
активировать один и тот же нейрон Кохонена для каждого из них. В этом
случае веса этого нейрона должны получаться усреднением входных
векторов, которые должны его активировать. Постепенное уменьшение
величины « уменьшает воздействие каждого обучающего шага, так что
окончательное значение будет средней величиной от входных векторов,
на которых происходит обучение. Таким образом, веса, ассоциированные с
нейроном, примут значение вблизи «центра» входных векторов, для которых
данный нейрон является «победителем».
Выбор начальных значений весовых векторов
Всем весам сети перед началом обучения следует придать начальные
значения. Общепринятой практикой при работе с нейронными сетями
является присваивание весам небольших случайных значений. При обучении
слоя Кохонена случайно выбранные весовые векторы следует нормализовать.
Окончательные значения весовых векторов после обучения совпадают с
нормализованными входными векторами. Поэтому нормализация перед началом
обучения приближает весовые векторы к их окончательным значениям,
сокращая, таким образом, обучающий процесс. Рандомизация весов слоя
Кохонена может породить серьезные проблемы при обучении, так как в
результате ее весовые векторы распределяются равномерно по поверхности
гиперсферы. Из-за того, что входные векторы, как правило, распределены
неравномерно и имеют тенденцию группироваться на относительно малой
части поверхности гиперсферы, большинство весовых векторов будут
так удалены от любого входного вектора, что они никогда не будут давать
наилучшего соответствия. Эти нейроны Кохонена будут всегда иметь нулевой
выход и окажутся бесполезными. Более того, оставшихся весов, дающих
наилучшие соответствия, может оказаться слишком мало, чтобы разделить
входные векторы на классы, которые расположены близко друг к другу на
поверхности гиперсферы. Допустим, что имеется несколько множеств
входных векторов, все множества сходные, но должны быть разделены на
различные классы. Сеть должна быть обучена активировать отдельный
нейрон Кохонена для каждого класса. Если начальная плотность
весовых векторов в окрестности обучающих векторов слишком мала, то
может оказаться невозможным разделить сходные классы из-за того, что
не будет достаточного количества весовых векторов в интересующей нас
окрестности, чтобы приписать по одному из них каждому классу входных
векторов. Наоборот, если несколько входных векторов получены
незначительными изменениями из одного и того же образца и должны быть
объединены в один класс, то они должны включать один и тот же нейрон
Кохонена. Если же плотность весовых векторов очень высока вблизи группы
слегка различных входных векторов, то каждый входной вектор может
активировать отдельный нейрон Кохонена. Это не является катастрофой,
так как слой Гроссберга может отобразить различные нейроны Кохонена в
один и тот же выход, но это расточительная трата нейронов Кохонена.
Наиболее желательное решение состоит в том, чтобы распределять весовые
векторы в соответствии с плотностью входных векторов, которые должны
быть разделены, помещая тем самым больше весовых векторов в окрестности
большого числа входных векторов. На практике это невыполнимо, однако
существует несколько методов приближенного достижения тех же целей.
Одно из решений, известное под названием метода выпуклой
комбинации (convex combination method), состоит в том, что все веса
приравниваются одной и той же величине 1/[pic], где п - число
входов и, следователь но, число компонент каждого весового вектора.
Благодаря этому все весовые векторы совпадают и имеют единичную
длину. Каждой же компоненте входа Х придается значение ((хi +
{[1/[pic]](1 - ()}), где п - число входов. В начале, а очень мало,
вследствие чего все входные векторы имеют длину, близкую к
1/[pic], и почти совпадают с векторами весов. В процессе обучения
сети (. постепенно возрастает, приближаясь к единице. Это позволяет
разделять входные векторы и окончательно приписывает им их истинные
значения. Весовые векторы отслеживают один или небольшую группу
входных векторов и в конце обучения дают требуемую картину выходов.
Метод выпуклой комбинации хорошо работает, но замедляет процесс обучения,
так как весовые векторы подстраиваются к изменяющейся цели.
Другой подход состоит в добавлении шума к входным век торам. Тем
самым они подвергаются случайным изменениям, схватывая в конце концов
весовой вектор. Этот метод также работоспособен, но еще более
медленен, чем метод выпуклой комбинации.
Третий метод начинает со случайных весов, но на начальной
стадии обучающего процесса подстраивает все веса, а не только
связанные с выигравшим нейроном Кохонена. Тем самым весовые векторы
перемещаются ближе к области входных векторов. В процессе обучения
коррекция весов начинает производиться лишь для ближайших к победителю
нейронов Кохонена. Этот радиус коррекции посте пенно уменьшается, так
что в конце концов корректируются только веса, связанные с выигравшим
нейроном Кохонена.
Еще один метод наделяет каждый нейрон Кохонена «Чувством
справедливости». Если он становится победителем чаще своей законной доли
времени (примерно 1/k, где k - число нейронов Кохонена), он временно
увеличивает свой порог, что уменьшает его шансы на выигрыш, давая тем
самым возможность обучаться и другим нейронам. Во многих приложениях
точность результата существенно зависит от распределения весов. К
сожалению, эффективность различных решений исчерпывающим образом не
оценена и остается проблемой.
Режим интерполяции
До сих пор мы обсуждали алгоритм обучения, в котором для каждого
входного вектора активировался лишь один нейрон Кохонена. Это называется
методом аккредитации. Его точность ограничена, так как выход полностью
является функцией лишь одного нейрона Кохонена. В методе
интерполяции целая группа нейронов Кохонена, имеющих наибольшие выходы,
может передавать свои выходные сигналы в слой Гроссберга. Число
нейронов в такой группе должно выбираться в зависимости от задачи, и
убедительных данных относительно оптимального размера группы не
имеется. Как только группа определена, ее множество выходов NET
рассматривается как вектор, длина которого нормализуется на единицу
делением каждого значения NET на корень квадратный из суммы квадратов
значений NET в группе. Все нейроны вне группы имеют нулевые выходы.
Метод интерполяции способен устанавливать более сложные
соответствия и может давать более точные результаты. По-прежнему,
однако, нет убедительных данных, позволяющих сравнить режимы
интерполяции и аккредитации.
Статистические свойства обученной сети
Метод обучения Кохонена обладает полезной и интересной
способностью извлекать статистические свойства из множества входных
данных. Как показано Кохоненом [8], для полностью обученной сети
вероятность того, что случайно выбранный входной вектор (в
соответствии с функцией плотности вероятности входного множества)
будет ближайшим к любому заданному весовому вектору, равна 1/k, где
k - число нейронов Кохонена. Это является оптимальным распределением
весов на гиперсфере. (Предполагается, что используются все весовые
векторы, что имеет место лишь в том случае, если используется один из
обсуждавшихся методов распределения весов.)
ОБУЧЕНИЕ СЛОЯ ГРОССБЕРГА
Слой Гроссберга обучается относительно просто. Входной вектор,
являющийся выходом слоя Кохонена, подается на слой нейронов Гроссберга,
и выходы слоя Гроссберга вычисляются, как при нормальном
функционировании. Далее, каждый вес корректируется лишь в том случае,
если он соединен с нейроном Кохонена, имеющим ненулевой выход. Величина
коррекции веса пропорциональна разности между весом и требуемым выходом
нейрона Гроссберга, с которым он соединен. В символьной записи
(ijн = (ijc + ((yj - (ijc)ki, (4.8)
где k. - выход i-го нейрона Кохонена (только для одного нейрона Кохонена
он отличен от нуля); уj - j-ая компонента вектора желаемых выходов.
Первоначально ( берется равным ~0,1 и затем постепенно уменьшается в
процессе обучения. Отсюда видно, что веса слоя Гроссберга будут
сходиться к средним величинам от желаемых выходов, тогда как веса слоя
Кохонена обучаются на средних значениях входов. Обучение слоя
Гроссберга - это обучение с учителем, алгоритм располагает желаемым
выходом, по которому он обучается. Обучающийся без учителя,
самоорганизующийся слой Кохонена дает выходы в недетерминированных
позициях. Они отображаются в желаемые выходы слоем Гроссберга.
Глава 5 Стохастические методы
Стохастические методы полезны как для обучения искусственных
нейронных сетей, так и для получения выхода от уже обученной
сети. Стохастические методы обучения приносят большую пользу, позволяя
исключать локальные минимумы в процессе обучения. Но с ними также связан
ряд проблем. Использование стохастических методов для получения
выхода от уже обученной сети рассматривалось в работе [2] и обсуждается
нами в гл. 6. Данная глава посвящена методам обучения сети.
ИСПОЛЬЗОВАНИЕ ОБУЧЕНИЯ
Искусственная нейронная сеть обучается посредством некоторого
процесса, модифицирующего ее веса. Если обучение успешно, то
предъявление сети множества входных сигналов приводит к появлению
желаемого множества выходных сигналов. Имеется два класса обучающих
методов: детерминистский и стохастический. Детерминистский метод
обучения шаг за шагом осуществляет процедуру коррекции весов сети,
основанную на использовании их текущих значений, а также величин
входов, фактических выходов и желаемых выходов. Обучение персептрона
является примером подобного детерминистского подхода (см. гл. 2).
Стохастические методы обучения выполняют псевдослучайные изменения
величин весов, сохраняя те изменения, которые ведут к улучшениям. Чтобы
увидеть, как это может быть сделано, рассмотрим рис. 5.1, на котором
изображена типичная сеть, в которой нейроны соединены с помощью весов.
Выход нейрона является здесь взвешенной суммой его входов, которая
преобразована с помощью нелинейной функции (подробности см. гл. 2).
Для обучения сети может быть использована следующая процедура:
1. Предъявить множество входов и вычислить получающиеся выходы.
2. Сравнить эти выходы с желаемыми выходами i вычислить величину
разности между ними. Общепринятый метод состоит в нахождении разности
между фактическим i желаемым выходами для каждого элемента обучаемой
пары возведение разностей в квадрат и нахождение суммы этих квадратов.
Целью обучения является минимизация это разности, часто называемой
целевой функцией.
3. Выбрать вес случайным образом и подкорректировать его на небольшое
случайное значение. Если коррекция помогает (уменьшает целевую функцию),
то сохранит; ее, в противном случае вернуться к первоначальном:
значению веса.
4. Повторять шаги с 1 до 3 до тех пор, пока сеть не будет обучена в
достаточной степени.
[pic]
Этот процесс стремится минимизировать целевую функцию, но может
попасть, как в ловушку, в неудачное решение. На рис. 5.2 показано,
как это может иметь место в системе с единственным весом.
Допустим, что первоначально вес взят равным значению в точке А. Если
случайные шаги по весу малы, то любые отклонения от точки А
увеличивают целевую функцию и будут отвергнуты. Лучшее значение веса,
принимаемое в точке В, никогда не будет найдено, и система будет поймана
в ловушку локальным минимумом, вместо глобального минимума в точке В.
Если же случайные коррекции веса очень велики, то как точка А, так и
точка В будут часто посещаться, но то же самое будет иметь место и для
каждой другой точки. Вес будет меняться так резко, что он никогда не
установится в желаемом минимуме. Полезная стратегия для избежания
подобных проблем состоит в больших начальных шагах и постепенном
уменьшении размера среднего случайного шага. Это позволяет сети
вырываться из локальных минимумов и в то же время гарантирует
.окончательную стабилизацию сети. Ловушки локальных минимумов
досаждают всем алгоритмам обучения, основанным на поиске минимума,
включая персептрон и сети обратного распространения, и представляют
серьезную и широко распространенную трудность, которой часто не
замечают. Стохастические методы позволяют решить эту проблему.
Стратегия коррекции весов, вынуждающая веса принимать значение
глобального оптимума в точке В, возможна. В качестве объясняющей
аналогии предположим, что на рис. 5.2 изображен шарик на поверхности в
коробке. Если коробку сильно потрясти в горизонтальном направлении, то
шарик будет быстро перекатываться от одного края к другому. Нигде не
задерживаясь, в каждый момент шарик будет с равной вероятностью
находиться в любой точке поверхности. Если постепенно уменьшать
силу встряхивания, то будет достигнуто условие, при котором шарик
будет на короткое время «застревать» в точке В. При еще более слабом
встряхивании шарик будет на короткое время останавливаться как в точке
А, так и в точке В. При непрерывном уменьшении силы встряхивания
будет достигнута критическая точка, когда сила встряхивания достаточна
для перемещения шарика из точки А в точку В, но недостаточна для того,
чтобы шарик мог вскарабкаться из В в А. Таким образом, окончательно
шарик остановится в точке глобального минимума, когда амплитуда
встряхивания уменьшится до нуля.
[pic]
Искусственные нейронные сети могут обучаться по существу тем же
самым образом посредством случайной коррекции весов. Вначале делаются
большие случайные коррекции с сохранением только тех изменений
весов, которые уменьшают целевую функцию. Затем средний размер шага
постепенно уменьшается, и глобальный минимум в конце концов
достигается. Это сильно напоминает отжиг металла, поэтому для ее
описания часто используют термин «имитация отжига». В металле,
нагретом до температуры, превышающей его точку плавления, атомы
находятся в сильном беспорядочном движении. Как и во всех физических
системах, атомы стремятся к состоянию минимума энергии (единому
кристаллу в данном случае), но при высоких температурах энергия
атомных движений препятствует этому. В процессе постепенного охлаждения
металла возникают все более низкоэнергетические состояния, пока в
конце концов не будет достигнуто наинизшее из возможных состояний,
глобальный минимум. В процессе отжига распределение энергетических
уровней описывается следующим соотношением:
P(e) ( exp (-e / kT)
где Р(е) - вероятность того, что система находится в состоянии с
энергией е, k - постоянная Больцмана; Т - температура по шкале
Кельвина. При высоких температурах Р(е) приближается к единице для
всех энергетических состояний. Таким образом, высокоэнергетическое
состояние почти столь же вероятно, как и низкоэнергетическое. По мере
уменьшения температуры вероятность высокоэнергетических состояний
уменьшается по сравнению с низкоэнергетическими. При приближении
температуры к нулю становится весьма маловероятным, чтобы система
находилась в высокоэнергетическом состоянии.
Больцмановское обучение
Этот стохастический метод непосредственно применим к обучению
искусственных нейронных сетей:
1. Определить переменную Т, представляющую искусственную температуру.
Придать Т большое начальное значение.
2. Предъявить сети множество входов и вычислить выходы и целевую
функцию.
3. Дать случайное изменение весу и пересчитать выход сети и
изменение целевой функции в соответствии со сделанным изменением веса.
4. Если целевая функция уменьшилась (улучшилась), то сохранить изменение
веса. Если изменение веса приводит к увеличению целевой функции,
то вероятность сохранения этого изменения вычисляется с помощью
распределения Больцмана:
P(c) = exp (-c / kT) (5.2)
где Р(е) - вероятность изменения с в целевой функции; k - константа,
аналогичная константе Больцмана, выбираемая в зависимости от задачи; Т
- искусственная температура. Выбирается случайное число /• из
равномерного распределения от нуля до единицы. Если Р(с) больше, чем г,
то изменение сохраняется, в противном случае величина веса возвращается
к предыдущему значению. Это позволяет системе делать случайный шаг
в направлении, портящем целевую функцию, позволяя ей тем самым
вырываться из локальных минимумов, где любой малый шаг увеличивает
целевую функцию. Для завершения больцмановского обучения повторяют
шаги 3 и 4 для каждого из весов сети, постепенно уменьшая температуру
Т, пока не будет достигнуто допустимо низкое значение целевой функции. В
этот момент предъявляется другой входной вектор и процесс обучения
повторяется. Сеть обучается на всех векторах обучающего множества, с
возможным повторением, пока целевая функция не станет допустимой для всех
них. Величина случайного изменения веса на шаге 3 может определяться
различными способами. Например, подобно тепловой системе весовое
изменение w может выбираться в соответствии с гауссовским распределением:
P(w) = ехр(- w2/T2), (5.3)
где P(w) - вероятность изменения веса на величину w, Т -
искусственная температура. Такой выбор изменения веса приводит
к системе, аналогичной [3]. Так как нужна величина изменения веса
(w, а не вероятность изменения веса, имеющего величину w, то метод
Монте-Карло может быть использован следующим образом:
1. Найти кумулятивную вероятность, соответствующую P(w). Это есть
интеграл от P(w) в пределах от 0 до w. Так как в данном случае P(w)
не может быть проинтегрирована аналитически, она должна
интегрироваться численно, а результат необходимо затабулировать. 2.
Выбрать случайное число из равномерного распределения на интервале
(0,1). Используя эту величину в качестве значения P(w), найти в таблице
соответствующее значение для величины изменения веса. Свойства
машины Больцмана широко изучались. В работе [1] показано, что скорость
уменьшения температуры должна быть обратно пропорциональна логарифму
времени, чтобы была достигнута сходимость к глобальному минимуму.
Скорость охлаждения в такой системе выражается следующим образом:
T(t) = T0/log(1 + t), (5.4)
где T(t) - искусственная температура как функция времени; Т0 -
начальная искусственная температура; t -искусственное время. Этот
разочаровывающий результат предсказывает очень медленную скорость
охлаждения (и данные вычисления). Этот вывод подтвердился
экспериментально. Машины Больцмана часто требуют для обучения очень
большого ресурса времени.
Обучение Коши
В работе [6] развит метод быстрого обучения подобных систем. В этом
методе при вычислении величины шага распределение Больцмана заменяется
на распределение Коши. Распределение Коши имеет, как показано
на рис. .5.3, более длинные «хвосты», увеличивая тем самым вероятность
больших шагов. В действительности распределение Коши имеет бесконечную
(неопределенную) дисперсию. С помощью такого простого изменения
максимальная скорость уменьшения температуры становится обратно
пропорциональной линейной величине, а не логарифму, как для алгоритма
обучения Больцмана. Это резко уменьшает время обучения. Эта связь может
быть выражена следующим образом:
T(t) = T0/(1 + t) (5.5)
Распределение Коши имеет вид
P(x) = T(t) / [T(t)2 + x2] ,
где Р(х) есть вероятность шага величины х.
[pic]
Рис. 5.3. Распределение Коши и распределение Больцмана.
В уравнении (5.6) Р(х) может быть проинтегрирована стандартными
методами. Решая относительно х, получаем
xc = р{T(t)tg[P(х)]), (5.7)
где р - коэффициент скорости обучения; хc - изменение веса.
Теперь применение метода Мойте Карло становится очень простым. Для
нахождения х в этом случае выбирается случайное число из равномерного
распределения на открытом интервале (- (/2, (/2) (необходимо ограничить
функцию тангенса). Оно подставляется в формулу (5.7) в качестве Р(х), и
с помощью текущей температуры вычисляется величина шага.
Метод искусственной теплоемкости
Несмотря на улучшение, достигаемое с помощью метода Коши, время
обучения может оказаться все еще слишком большим. Способ, уходящий своими
корнями в термодинамику, может быть использован для ускорения этого
процесса. В этом методе скорость уменьшения температуры изменяется в
соответствии с искусственной «теплоемкостью», вычисляемой в процессе
обучения. Во время отжига металла происходят фазовые переходы,
связанные с дискретными изменениями уровней энергии. При каждом
фазовом переходе может иметь место резкое изменение величины,
называемой теплоемкостью. Теплоемкость определяется как скорость
изменения температуры с энергией. Изменения теплоемкости происходят
из-за попадания системы в локальные энергетические минимумы.
Искусственные нейронные сети проходят аналогичные фазы в процессе
обучения. На границе фазового перехода искусственная теплоемкость
может скачкообразно измениться. Эта псевдотеплоемкость определяется как
средняя скорость изменения температуры с целевой функцией. В примере
шарика в коробке сильная начальная встряска делает среднюю величину
целевой функции фактически не зависящей от малых изменений температуры,
т.е. теплоемкость близка к константе. Аналогично при очень низких
температурах система замерзает в точке минимума, так что теплоемкость
снова близка к константе. Ясно, что в каждой из этих областей
допустимы сильные изменения температуры, так как не происходит
улучшения целевой функции, При критических температурах небольшое
уменьшение температуры приводит к большому изменению средней вели чины
целевой функции. Возвращаясь к аналогии с шариком, при «температуре»,
когда шарик обладает достаточной средней энергией, чтобы перейти из А
в В, но недостаточной для перехода из В в А, средняя величина целевой
функции испытывает скачкообразное изменение. В этих критических
точках алгоритм должен изменять температуру очень медленно, чтобы
гарантировать, что система не замерзнет случайно в точке А, оказавшись
пойманной в локальный минимум. Критическая температура может быть
обнаружена по резкому уменьшению искусственной теплоемкости, т.е. средней
скорости изменения температуры с целевой функцией. При достижении
критической температуры скорость изменения температуры должна замедляться,
чтобы гарантировать сходимость к глобальному минимуму.
ОБРАТНОЕ РАСПРОСТРАНЕНИЕ И ОБУЧЕНИЕ КОШИ
Обратное распространение обладает преимуществом прямого поиска,
т.е. веса всегда корректируются в направлении, минимизирующем функцию
ошибки. Хотя время обучения и велико, оно существенно меньше, чем
при случайном поиске, выполняемом машиной Коши, когда находится
глобальный минимум, но многие шаги выполняются в неверном направлении,
что отнимает много времени. Соединение этих двух методов дало
хорошие результаты [7]. Коррекция весов, равная сумме, вычисленной
алгоритмом обратного распространения, и случайный шаг, задаваемый
алгоритмом Коши, приводят к системе, которая сходится и находит
глобальный минимум быстрее, чем система, обучаемая каждым из
методов в отдельности. Простая эвристика используется для избежания
паралича сети, который может иметь место как при обратном
распространении, так и при обучении по методу Коши.
Трудности, связанные с обратным распространением
Несмотря на мощь, продемонстрированную методом обратного
распространения, при его применении возникает ряд трудностей, часть
из которых, однако, облегчается благодаря использованию нового
алгоритма.
Сходимость. В работе [5] доказательство сходимости дается на языке
дифференциальных уравнений в частных производных, что делает его
справедливым лишь в том случае, когда коррекция весов выполняется с
помощью бесконечно малых шагов. Так как это ведет к бесконечному
времени сходимости, то оно теряет силу в практических применениях. В
действительности нет доказательства, что обратное распространение будет
сходиться при конечном размере шага. Эксперименты показывают, что
сети обычно обучаются, но время обучения велико и непредсказуемо.
Локальные минимумы. В обратном распространении для коррекции весов
сети используется градиентный спуск, продвигающийся к минимуму в
соответствии с локальным наклоном поверхности ошибки. Он хорошо работает
в случае сильно изрезанных невыпуклых поверхностей, которые встречаются
в практических задачах. В одних случаях локальный минимум является
приемлемым решением, в других случаях он неприемлем. Даже после
того как сеть обучена, невозможно сказать, найден ли с помощью -
обратного распространения глобальный минимум. Если решение
неудовлетворительно, приходится давать весам новые начальные случайные
значения и повторно обучать сеть без гарантии, что обучение закончится на
этой попытке или что глобальный минимум вообще будет когда либо найден.
Паралич. При некоторых условиях сеть может при обучении попасть в такое
состояние, когда модификация весов не ведет к действительным изменениям
сети. Такой «паралич сети» является серьезной проблемой: один раз
возникнув, он может увеличить время обучения на несколько порядков.
Паралич возникает, когда значительная часть нейронов получает веса,
достаточно большие, чтобы дать большие значения NET. Это приводит к тому,
что величина OUT приближается к своему предельному значению, а
производная от сжимающей функции приближается к нулю. Как мы видели,
алгоритм обратного распространения при вычислении величины изменения
веса использует эту производную в формуле в качестве коэффициента. Для
пораженных параличом нейронов близость производной к нулю приводит к
тому, что изменение веса становится близким к нулю. Если подобные
условия возникают во многих нейронах сети, то обучение может
замедлиться до почти полной остановки. Нет теории, способной
предсказывать, будет ли сеть парализована во время обучения или нет.
Экспериментально установлено, что малые размеры шага реже приводят к
параличу, но шаг, малый для одной задачи, может оказаться большим для
другой. Цена же паралича может быть высокой. При моделировании многие
часы машинного времени могут уйти на то, чтобы выйти из паралича.
Трудности с алгоритмом обучения Коши
Несмотря на улучшение скорости обучения, даваемое машиной Коши по
сравнению с машиной Больцмана, время сходимости все еще может в 100 раз
превышать время для алгоритма обратного распространения. Отметим, что
сетевой паралич особенно опасен для алгоритма обучения Коши, в
особенности для сети с нелинейностью типа логистической функции.
Бесконечная дисперсия распределения Коши приводит к изменениям весов
неограниченной величины. Далее, большие изменения весов будут иногда
приниматься даже в тех случаях, когда они неблагоприятны, часто
приводя к сильному насыщению сетевых нейронов с вытекающим отсюда
риском паралича.
Комбинирование обратного распространения с обучением Коши
Коррекция весов в комбинированном алгоритме, использующем
обратное распространение и обучение Коши, состоит из двух компонент: (1)
направленной компоненты, вычисляемой с использованием алгоритма
обратного распространения, и (2) случайной компоненты, определяемой
распределением Коши. Эти компоненты вычисляются для каждого веса, и
их сумма является величиной, на которую изменяется вес. Как и в
алгоритме Коши, после вычисления изменения веса вычисляется целевая
функция. Если имеет место улучшение, изменение сохраняется. В
противном случае оно
сохраняется с вероятностью, определяемой распределением Больцмана.
Коррекция веса вычисляется с использованием представленных ранее
уравнений для каждого из алгоритмов:
wmn,k(n+1) = wmn,k(n) + ([(( wmn,k(n) + (1 - ()(n,kOUTm,i] + (1 - ()xc ,
где (- коэффициент, управляющий относительными величинами Коши и
обратного распространения в компонентах весового шага. Если (
приравнивается нулю, система становится полностью машиной Коши. Если (
приравнивается единице, система становится машиной обратного
распространения. Изменение лишь одного весового коэффициента между
вычислениями весовой функции неэффективно. Оказалось, что лучше сразу
изменять все веса целого слоя, хотя для некоторых задач может оказаться
выгоднее иная стратегия.
Преодоление сетевого паралича комбинированным методом обучения. Как и
в машине Коши, если изменение веса ухудшает целевую функцию, - с
помощью распределения Больцмана решается, сохранить ли новое
значение веса или восстановить предыдущее значение. Таким образом,
имеется конечная вероятность того, что ухудшающее множество приращений
весов будет сохранено. Так как распределение Коши имеет бесконечную
дисперсию (диапазон изменения тангенса простирается от [pic] до [pic] на
области определения), то весьма вероятно возникновение больших
приращений весов, часто приводящих к сетевому параличу. Очевидное
решение, состоящее в ограничении диапазона изменения весовых шагов,
ставит вопрос о математической корректности полученного таким образом
алгоритма. В работе [6] доказана сходимость системы к глобальному
минимуму лишь для исходного алгоритма. Подобного доказательства при
искусственном ограничении размера шага не существует. В
действительности экспериментально выявлены случаи, когда для реализации
некоторой функции требуются большие веса, и два больших веса, вычитаясь,
дают малую разность. Другое решение состоит в рандомизации весов
тех нейронов, которые оказались в состоянии насыщения. Недостатком
его является то, что оно может серьезно нарушить обучающий
процесс, иногда затягивая его до бесконечности. Для решения
проблемы паралича был найден метод, не нарушающий достигнутого обучения.
Насыщенные нейроны выявляются с помощью измерения их сигналов ОПТ.
Когда величина OUT приближается к своему предельному значению,
положительному или отрицательному, на веса, питающие этот нейрон,
действует сжимающая функция. Она подобна используемой для получения
нейронного сигнала OUT, за исключением того, что диапазоном ее
изменения является интервал (+ 5,- 5) или другое подходящее множество.
Тогда модифицированные весовые значения равны
Wmn = -5+10/[1 + ехр(-Wmn /5)].
Эта функция сильно уменьшает величину очень больших весов,
воздействие на малые веса значительно более слабое. Далее она
поддерживает симметрию, сохраняя небольшие различия между большими
весами. Экспериментально было показано, что эта функция выводит нейроны
из состояния насыщения без нарушения достигнутого в сети обучения. Не
было затрачено серьезных усилий для оптимизации используемой функции,
другие значения констант могут оказаться лучшими.
Экспериментальные результаты. Комбинированный алгоритм, использующий
обратное распространение и обучение Коши, применялся для обучения
нескольких больших сетей. Например, этим методом была успешно
обучена система, распознающая рукописные китайские иероглифы [6]. Все же
время обучения может оказаться большим (приблизительно 36 ч машинного
времени уходило на обучение). В другом эксперименте эта сеть
обучалась на задаче ИСКЛЮЧАЮЩЕЕ ИЛИ, которая была использована в
качестве теста для сравнения с другими алгоритмами. Для сходимости сети
в среднем требовалось около 76 предъявлений обучающего множества. В
качестве сравнения можно указать, что при использовании обратного
распространения в среднем требовалось около 245 предъявлений для решения
этой же задачи [5] и 4986 итераций при использовании обратного
распространения второго порядка. Ни одно из обучений не привело к
локальному минимуму, о которых сообщалось в [5]. Более того, ни одно из
160 обучений не обнаружило неожиданных патологий, сеть всегда
правильно обучалась. Эксперименты же с чистой машиной Коши
привели к значительно большим временам обучения. Например, при р=0,002
для обучения сети в среднем требовалось около 2284 предъявлений
обучающего множества.
Обсуждение
Комбинированная сеть, использующая обратное распространение и
обучение Коши, обучается значительно быстрее, чем каждый из
алгоритмов в отдельности, и относительно нечувствительна к величинам
коэффициентов. Сходимость к глобальному минимуму гарантируется алгоритмом
Коши, в сотнях экспериментов по обучению сеть ни разу не попадала в
ловушки локальных минимумов. Проблема сетевого паралича была решена с
помощью алгоритма селективного сжатия весов, который обеспечил
сходимость во всех предъявленных тестовых задачах без существенного
увеличения обучающего времени. Несмотря на такие обнадеживающие
результаты, метод еще не исследован до конца, особенно на больших
задачах. Значительно большая работа потребуется для определения его
достоинств и недостатков.
Глава 6 Сети Хопфилда
Сети, рассмотренные в предыдущих главах, не имели обратных связей,
т.е. связей, идущих от выходов сетей и их входам. Отсутствие обратной
связи гарантирует безусловную устойчивость сетей. Они не могут войти в
режим, когда выход беспрерывно блуждает от состояния к состоянию и не
пригоден к использованию. Но это весьма желательное свойство
достигается не бесплатно, сети без обратных связей обладают более
ограниченными возможностями по сравнению с сетями с обратными связями.
Так как сети с обратными связями имеют пути, передающие сигналы от
выходов к входам, то отклик таких сетей является динамическим, т.е.
после приложения нового входа вычисляется выход и, передаваясь по сети
обратной связи, модифицирует вход. Затем выход повторно вычисляется, и
процесс повторяется снова и снова. Для устойчивой сети последовательные
итерации приводят к все меньшим изменениям выхода, пока в конце
концов выход не становится постоянным. Для многих сетей процесс
никогда не заканчивается, такие сети называют неустойчивыми.
Неустойчивые сети обладают интересными свойствами и изучались в
качестве примера хаотических систем. Однако такой большой предмет, как
хаос, находится за пределами этой книги. Вместо этого мы сконцентрируем
внимание на устойчивых сетях, т.е. на тех, которые в конце концов
дают постоянный выход. Проблема устойчивости ставила в тупик
первых исследователей. Никто не был в состоянии предсказать, какие
из сетей будут устойчивыми, а какие будут находиться в постоянном
изменении. Более того, проблема представлялась столь трудной, что
многие исследователи были настроены пессимистически относительно
возможности ее решения. К счастью, в работе [2] была получена теорема,
описавшая подмножество сетей с обратными связями, выходы которых в
конце концов достигают устойчивого состояния. Это замечательное
достижение открыло дорогу дальнейшим исследованиям и сегодня многие
ученые занимаются исследованием сложного поведения и возможностей этих
систем. Дж. Хопфилд сделал важный вклад как в теорию, так и в
применение систем с обратными связями. Поэтому некоторые из
конфигураций известны как сети Хопфилда. Из обзора литературы видно,
что исследованием этих и сходных систем занимались многие. Например,
в работе [4] изучались общие свойства сетей, аналогичных многим,
рассмотренным здесь. Работы, цитируемые в списке литературы в конце
главы, не направлены на то, чтобы дать исчерпывающую библиографию по
системам с обратными связями. Скорее они являются лишь доступными
источниками, которые могут служить для объяснения, расширения и обобщения
содержимого этой книги.
КОНФИГУРАЦИИ СЕТЕЙ С ОБРАТНЫМИ СВЯЗЯМИ
На рис. 6.1 показана сеть с обратными связями, состоящая из двух
слоев. Способ представления несколько отличается от использованного в
работе Хопфилда и других, но эквивалентен им с функциональной точки
зрения, а также хорошо связан с сетями, рассмотренными в предыдущих
главах. Нулевой слой, как и на предыдущих рисунках, не выполняет
вычислительной функции, а лишь распределяет выходы сети обратно на
входы. Каждый нейрон первого слоя вычисляет взвешенную сумму своих
входов, давая сигнал NET, который затем с помощью нелинейной функции
F преобразуется в сигнал OUT. Эти операции сходны с нейронами других
сетей (см. гл.2).
Бинарные системы
В первой работе Хопфилда [6] функция F была просто пороговой
функцией. Выход такого нейрона равен единице, если взвешенная сумма
выходов с других нейронов больше порога Т., в противном случае она равна
нулю. Он вычисляется следующим образом:
[pic] (6.1)
[pic]
Состояние сети - это просто множество текущих значений сигналов
OUT от всех нейронов. В первоначальной сети Хопфилда состояние каждого
нейрона менялось в дискретные случайные моменты времени, в
последующей работе состояния нейронов могли меняться одновременно. Так
как выходом бинарного нейрона может быть только ноль или единица
(промежуточных уровней нет), то текущее состояние сети является двоичным
числом, каждый бит которого является сигналом OUT некоторого нейрона.
Функционирование сети легко визуализируется геометрически. На рис. 6.2 а
показан случай двух нейронов в выходном слое, причем каждой вершине
квадрата соответствует одно из четырех состояний системы (00, 01, 10,
II). На рис. 6.2 б показана трехнейронная система, представленная
кубом (в трехмерном пространстве), имеющим восемь вершин, каждая из
которых помечена трехбитовым бинарным числом. В общем случае система с п
нейронами имеет 2n различных состояний и представляется fi-мерным
гиперкубом.
[pic]
Рис. 6.2 а. Два нейрона порождают систему с четырьмя состояниями.
[pic]
Рис. 6.2 б. Три нейрона порождают систему с восемью состояниями.
Когда подается новый входной вектор, сеть переходит из вершины в
вершину, пока не стабилизируется. Устойчивая вершина определяется
сетевыми весами, текущими входами и величиной порога. Если входной
вектор частично неправилен или неполон, то сеть стабилизируется в
вершине, ближайшей к желаемой.
Устойчивость
Как и в других сетях, веса между слоями в этой сети могут
рассматриваться в виде матрицы W. В работе [2] показано, что сеть с
обратными связями является устойчивой, если ее матрица симметрична и
имеет нули на главной диагонали, т.е. если Wij = Wji и Wii = 0 для
всех i. Устойчивость такой сети может быть доказана с помощью
элегантного математического метода. Допустим, что найдена функция,
которая всегда убывает при изменении состояния сети. В конце концов эта
функция должна достичь минимума и прекратить изменение, гарантируя тем
самым устойчивость сети. Такая функция, называемая функцией
Ляпунова, для рассматриваемых сетей с обратными связями может быть
введена следующим образом:
[pic] (6.2)
где Е - искусственная энергия сети; wij - вес от выхода нейрона i к
входу нейрона j; OUTj - выход нейрона j; Ij - внешний вход нейрона j;
Тj - порог нейрона j.
Изменение энергии Е, вызванное изменением состояния j-
нейрона, есть
[pic] (6.3)
где (0UTj- изменение выхода у-го нейрона. Допустим, что величина NET
нейрона j больше порога. Тогда выражение в скобках будет положительным, а
из уравнения (6.1) следует, что выход нейрона j должен измениться в
положительную сторону (или остаться без изменения). Это значит, что
(0UTj может быть только положительным или нулем и (Е должно быть
отрицательным.
Следовательно, энергия сети должна либо уменьшиться, либо остаться без
изменения. Далее, допустим, что величина NET меньше порога. Тогда
величина (0UTj. может быть только отрицательной или нулем.
Следовательно, опять энергия должна уменьшиться или остаться без
изменения. И окончательно, если величина NET равна порогу, (j равна нулю
и энергия остается без изменения. Это показывает, что любое изменение
состояния нейрона либо уменьшит энергию, либо оставит ее без
изменения. Благодаря такому непрерывному стремлению к уменьшению
энергия в конце концов должна достигнуть минимума и прекратить
изменение. По определению такая сеть является устойчивой. Симметрия
сети является достаточным, но не необходимым условием для устойчивости
системы. Имеется много устойчивых систем (например, все сети прямого
действия!), которые ему не удовлетворяют. Можно продемонстрировать
примеры, в которых незначительное отклонение от симметрии может
приводить к непрерывным осцилляциям. Однако приближенной симметрии
обычно достаточно для устойчивости систем.
Ассоциативная память
Человеческая память ассоциативна, т.е. некоторое воспоминание
может порождать большую связанную с ним область. Например, несколько
музыкальных тактов могут вызвать целую гамму чувственных воспоминаний,
включая пейзажи, звуки и запахи. Напротив, обычная компьютерная память
является локально адресуемой, предъявляется адрес и извлекается
информация по этому адресу. Сеть с обратной связью формирует
ассоциативную память. Подобно человеческой памяти по заданной части
нужной информации вся информация извлекается из «памяти». Чтобы
организовать ассоциативную память с помощью сети с обратными связями,
веса должны выбираться так, чтобы образовывать энергетические минимумы
в нужных вершинах единичного гиперкуба. Хопфилд разработал ассоциативную
память с непрерывными выходами, изменяющимися в пределах от +1 до -1,
соответствующих двоичным значениям 0 и 1. Запоминаемая информация
кодируется двоичными векторами и хранится в весах согласно следующей
формуле:
[pic] (6.4)
где т - число запоминаемых выходных векторов; d - номер запоминаемого
выходного вектора; OUTi,d - i -компонента запоминаемого выходного
вектора. Это выражение может стать более ясным, если заметить, что
весовой массив W может быть найден вычислением внешнего произведения
каждого запоминаемого вектора с самим собой (если требуемый вектор имеет
п компонент, то эта операция образует матрицу размером п х п) и
суммированием матриц, полученных таким образом. Это может быть
записано в виде
W = [pic] (6.5)
где Dj - i -й запоминаемый вектор-строка. Как только веса заданы,
сеть может быть использована для получения запомненного выходного
вектора по данному входному вектору, который может быть частично
неправильным или неполным. Для этого выходам сети сначала придают
значения этого входного вектора. Затем входной вектор убирается и сети
предоставляется возможность «расслабиться», опустившись в ближайший
глубокий минимум. Сеть идущая по локальному наклону функции энергии,
может быть захвачена локальным минимумом, не достигнув наилучшего в
глобальном смысле решения.
Непрерывные системы
В работе [7] рассмотрены модели с непрерывной активационной
функцией F, точнее моделирующей биологический нейрон. В общем случае
это S-образная или логистическая функция
F(x) = 1 / (1+ exp(-(NET)) (6.6)
где ( - коэффициент, определяющий крутизну сигмоидальной функции. Если
( велико, F приближается к описанной ранее пороговой функции.
Небольшие значения ( дают более пологий наклон. Как и для
бинарных систем, устойчивость гарантируется, если веса симметричны, т.е.
wij =wji и wii=0 при всех i. Функция энергии, доказывающая
устойчивость подобных систем, была сконструирована, но она не
рассматривается здесь из-за своего концептуального сходства с дискретным
случаем. Интересующиеся читатели могут обратиться к работе [2] для
более полного рассмотрения этого важного предмета. Если ( велико,
непрерывные системы функционируют подобно дискретным бинарным
системам, окончательно стабилизируясь со всеми выходами, близкими
нулю или единице, т.е. в вершине единичного гиперкуба. С уменьшением (
устойчивые точки удаляются от вершин, последовательно исчезая по мере
приближения ( к нулю. На рис. 6.3 показаны линии энергетических
уровней непрерывной системы с двумя нейронами.
Сети Хопфилда и машина Больцмана
Недостатком сетей Хопфилда является их тенденция стабилизироваться
в локальном, а не глобальном минимуме функции энергии. Эта трудность
преодолевается в основном с помощью класса сетей, известных под
названием машин Больцмана, в которых изменения состоянии нейронов
обусловлены статистическими, а не детерминированными закономерностями.
Существует тесная аналогия между этими методами и отжигом металла,
поэтому и сами методы часто называют имитацией отжига.
Термодинамические системы
Металл отжигают, нагревая его до температуры, превышающей
точку его плавления, а затем давая ему медленно остыть. При высоких
температурах атомы, обладая высокими энергиями и свободой перемещения,
случайным образом принимают все возможные конфигурации. При постепенном
снижении температуры энергии атомов уменьшаются, и система в целом
стремится принять конфигурацию с минимальной энергией. Когда охлаждение
завершено, достигается состояние глобального минимума энергии.
[pic]Рис 6.3. Линии энергетических уровней.
При фиксированной температуре распределение энергий системы
определяется вероятностным фактором Больцмана.
ехр(-E / kT),
где Е - энергия системы; k - постоянная Больцмана; Т -температура.
Отсюда можно видеть, что имеется конечная вероятность того, что система
обладает высокой энергией даже при низких температурах. Сходным
образом имеется небольшая, но вычисляемая вероятность, что чайник с
водой на огне замерзнет, прежде чем закипеть. Статистическое
распределение энергий позволяет системе выходить из локальных
минимумов энергии. В то же время вероятность высокоэнергетических
состояний быстро уменьшается со снижением температуры. Следовательно,
при низких температурах имеется сильная тенденция занять
низкоэнергетическое состояние.
Статистические сети Хопфилда
Если правила изменения состояний для бинарной сети Хопфилда заданы
статистически, а не детерминировано, как в уравнении (6.1), то
возникает система, имитирующая отжиг. Для ее реализации вводится
вероятность изменения веса как функция от величины, на которую выход
нейрона OUT превышает его порог. Пусть
Ek=NETk - (k ,
где NETk - выход NET нейрона k, (k - порог нейрона k, и
pk = 1/ [1 + ехр(-(Ek/ T)],
(отметьте вероятностную функцию Больцмана в знаменателе), где Т -
искусственная температура. В стадии функционирования искусственной
температуре Т приписывается большое значение, нейроны устанавливаются в
начальном состоянии, определяемом входным вектором, и сети
предоставляется возможность искать минимум энергии в соответствии с
нижеследующей процедурой:
1. Приписать состоянию каждого нейрона с вероятностью р значение
единица, а с вероятностью 1 – рk - нуль.
2. Постепенно уменьшать искусственную температуру и повторять шаг 1,
пока не будет достигнуто равновесие.
Обобщенные сети
Принцип машины Больцмана может быть перенесен на сети практически
любой конфигурации, хотя устойчивость не гарантируется. Для этого
достаточно выбрать одно множество нейронов в качестве входов и другое
множество в качестве выходов. Затем придать входному множеству
значения входного вектора и предоставить сети возможность
релаксировать в соответствии с описанными выше правилами 1 и 2.
Процедура обучения для такой сети, описанная в [5], состоит из
следующих шагов: 1. Вычислить закрепленные вероятности.
а) придать входным и выходным нейронам значения обучающего вектора;
б) предоставить сети возможность искать равновесие;
в) записать выходные значения для всех нейронов;
г) повторить шаги от а до в для всех обучающих векторов;
д) вычислить вероятность Р+ij, т.е. по всему множеству обучающих
векторов вычислить вероятность того, что значения обоих нейронов равны
единице.
2. Вычислить незакрепленные вероятности.
а) предоставить сети возможность «свободного движения» без закрепления
входов или выходов, начав со случайного состояния;
б) повторить шаг 2а много раз, регистрируя значения всех нейронов;
в) вычислить вероятность Р-ij, т.е. вероятность того, что значения
обоих нейронов равны единице.
3. Скорректировать веса сети следующим образом:
(wij = ( [ P+ij – P-ij ] ,
где (wij. - изменение веса wij, ( - коэффициент скорости обучения.
ПРИЛОЖЕНИЯ
Аналого-цифровой преобразователь.
В недавних работах [8,10] рассматривалась электрическая схема,
основанная на сети с обратной связью, реализующая четырехбитовый
аналого-цифровой преобразователь. На рис. 6.4 показана блок-схема этого
устройства с усилителями, выполняющими роль искусственных нейронов.
Сопротивления, выполняющие роль весов, соединяют выход каждого нейрона
с входами всех остальных. Чтобы удовлетворить условию устойчивости,
выход нейрона не соединялся сопротивлением с его собственным входом,
а веса брались симметричными, т.е. сопротивление от выхода нейрона i к
входу нейрона j имело ту же величину, что и сопротивление от выхода
нейрона j к входу нейрона i. Заметим, что усилители имеют
прямой и инвертированный выходы. Это позволяет с помощью обычных
положительных сопротивлений реализовывать и те случаи, когда веса должны
быть отрицательными. На рис. 6.4 показаны все возможные
сопротивления, при этом никогда не возникает необходимости присоединять
как прямой, так и инвертированный выходы нейрона к входу другого
нейрона. В реальной системе каждый усилитель обладает конечным
входным сопротивлением и входной емкостью, что должно учитываться при
расчете динамической характеристики. Для устойчивости сети не требуется
равенства этих параметров для всех усилителей и их симметричности. Так
как эти параметры влияют лишь на время получения решения, а не на само
решение, для упрощения анализа они исключены. Предполагается, что
используется пороговая функция (предел сигмоидальной функции при X,
стремящемся к бесконечности). Далее, все выходы изменяются в начале
дискретных интервалов времени, называемых эпохами. В начале каждой
эпохи исследуется сумма входов каждого нейрона. Если она больше
порога, выход принимает единичное значение, если меньше - нулевое. На
протяжении эпохи выходы нейронов не изменяются.
[pic]
Рис. 6.4. Четырехбитовый аналого-цифровой преобразователь, использующий
сеть Хопфилда.
Целью является такой выбор сопротивлений (весов), что непрерывно
растущее напряжение X, приложенное к одновходовому терминалу, порождает
множество из четырех выходов, представляющих двоичную запись числа,
величина которого приближенно равна входному напряжению (рис. 6.5).
Определим сначала функцию энергии следующим образом:
[pic] (6.7)
где Х - входное напряжение. Когда Е минимизировано, то получаются
нужные выходы. Первое выражение в скобках минимизируется, когда
двоичное число, образованное выходами, наиболее близко (в
среднеквадратичном смысле) к аналоговой величине входа X. Второе
выражение в скобках обращается в нуль, когда все выходы равны 1 или 0,
тем самым накладывая ограничение, что выходы принимают только двоичные
значения. Если уравнение (6.7) перегруппировать и сравнить с
уравнением (6.2), то получим следующее выражение для весов:
wij=-2i+j, yi=2i
где wij - проводимость (величина, обратная сопротивлению) от выхода
нейрона i к входу нейрона j (равная также проводимости от выхода
нейрона j к входу нейрона 0); ij. - проводимость от входа Х к входу
нейрона i. Чтобы получить схему с приемлемыми значениями
сопротивлений и потребляемой мощности, все веса должны быть
промасштабированы.
[pic]
Идеальная выходная характеристика, изображенная на рис. 6.5,
будет реализована лишь в том случае, если входы устанавливаются в нуль
перед выполнением преобразования. Если этого не делать, сеть может
попасть в локальный минимум энергии и дать неверный выход.
Задача коммивояжера
Задача коммивояжера является оптимизационной задачей, часто
возникающей на практике. Она может быть сформулирована следующим
образом: для некоторой группы городов с заданными расстояниями между
ними требуется найти кратчайший маршрут с посещением каждого города
один раз и с возвращением в исходную точку. Было доказано, что эта
задача принадлежит большому множеству задач, называемых «NP-полными»
(недетерминистски полиномиальными) [3]. Для NP-полных задач не известно
лучшего метода решения, чем полный перебор всех возможных вариантов, и,
по мнению большинства математиков, маловероятно, чтобы лучший метод был
когда либо найден. Так как такой полный поиск практически неосуществим
для большого числа городов, то эвристические методы используются для
нахождения приемлемых, хотя и неоптимальных решений. Описанное в
работе [8] решение, основанное на сетях с обратными связями, является
типичным в этом отношении. Все же ответ получается так быстро, что в
определенных случаях метод может оказаться полезным. Допустим, что
города, которые необходимо посетить, помечены буквами А, В, С и D, а
расстояния между парами городов есть dab, dbc и т.д. Решением
является упорядоченное множество из n городов. Задача состоит в
отображении его в вычислительную сеть с использованием нейронов в режиме
с большой крутизной характеристики (( приближается к бесконечности).
Каждый город представлен строкой из n нейронов. Выход одного и только
одного нейрона из них равен единице (все остальные равны нулю). Этот
равный единице выход нейрона показывает порядковый номер, в котором
данный город посещается при обходе. На рис. 6.6 показан случай, когда
город С посещается первым, город А - вторым, город D - третьим и
город В - четвертым. Для такого представления требуется n2 нейронов
- число, которое быстро растет с увеличением числа городов. Длина
такого маршрута была бы равна dca + dad + ddb +
dbc. Так как каждый город посещается только один раз и в каждый
момент посещается лишь один город, то в каждой строке и в каждом столбце
имеется по одной единице. Для задачи с п городами всего имеется п!
различных маршрутов обхода. Если п = 60, то имеется 69 34155 х 1078
возможных маршрутов. Если принять во внимание, что в нашей галактике
(Млечном Пути) имеете) лишь 1011 звезд, то станет ясным, что полный
перебор всех возможных маршрутов для 1000 городов даже и. самом
быстром в мире компьютере займет время, сравнимо с геологической эпохой.
Продемонстрируем теперь, как сконструировать сет: для решения этой
NP-полной проблемы. Каждый нейрон снабжен двумя индексами, которые
соответствуют городу порядковому номеру его посещения в маршруте.
Например OUTxj = 1 показывает, что город х был j-ым по порядку j -
ым городом маршрута.
функция энергии должна удовлетворять двум требованиям: во-первых, должна
быть малой только для тех решений, которые имеют по одной единице в
каждой строке и каждом столбце; во-вторых, должна оказывать предпочтение
решениям с короткой длиной маршрута. Первое требование
удовлетворяется введением следующей, состоящей из трех сумм, функции
энергии:
[pic]
(6.9)
где А, В и С- некоторые константы. Этим достигается выполнение
следующих условий:
1. Первая тройная сумма равна нулю в том и только в том случае, если
каждая строка (город) содержит не более одной единицы.
2. Вторая тройная сумма равна нулю в том и только в том случае, если
каждый столбец (порядковый номер посещения) содержит не более одной
единицы.
3. Третья сумма равна нулю в том и только в том случае, если матрица
содержит ровно п единиц.
[pic]
Второе требование - предпочтение коротким маршрутам -
удовлетворяется с помощью добавления следующего члена к функции энергии:
(6.10)
Заметим, что этот член представляет собой длину любого допустимого
маршрута. Для удобства индексы определяются по модулю п, т.е. OUTn+j =
OUTj, a D - некоторая константа. При достаточно больших значениях
А, В и С низкоэнергетические состояния будут представлять допустимые
маршруты, а большие значения D гарантируют, что будет найден короткий
маршрут. Теперь зададим значения весов, т.е. установим
соответствие между членами в функции энергии и членами общей формы (см.
уравнение 6.2)).
Получаем
Wxi,yi = -A(xy (1-(ij) - B(ij (1- (xy ) - C - D(xy((j,i+1 + (j,i-1)
где (ij = 1, если i = j, в противном случае (ij = 0. Кроме того,
каждый нейрон имеет смещающий вес хi, соединенный с +1 и равный Сп.
В работе [8] сообщается об эксперименте, в котором задача
коммивояжера была решена для 10 городов. В этом случае возбуждающая
функция была равна
OUT = 1/ 2[1 + th(NET/ u0)].
Как показали результаты, 16 и 20 прогонов сошлись к допустимому
маршруту и около 50% решений оказались кратчайшими маршрутами, как это
было установлено с помощью полного перебора. Этот результат станет более
впечатляющим, если осознать, что имеется 181440 допустимых маршрутов.
Сообщалось, что сходимость решений, полученных по методу Хопфилда
для задачи коммивояжера, в сильной степени зависит от коэффициентов, и
не имеется систематического метода определения их значений [II]. В этой
работе предложена другая функция энергии с единственным коэффициентом,
значение которого легко определяется. В дополнение предложен новый
сходящийся алгоритм. Можно ожидать, что новые более совершенные методы
будут разрабатываться, так как полностью удовлетворительное решение
нашло бы массу применений.
ОБСУЖДЕНИЕ
Локальные минимумы
Сеть, выполняющая аналого-цифровое преобразование, всегда находит
единственное оптимальное решение. Это обусловлено простой природой
поверхности энергии в этой задаче. В задаче коммивояжера поверхность
энергии сильно изрезана, изобилует склонами, долинами и локальными
минимумами и нет гарантии, что будет найдено глобальное оптимальное
решение и что полученное решение будет допустимым. При этом возникают
серьезные вопросы относительно надежности сети и доверия к ее
решениям. Эти недостатки сети смягчаются тем обстоятельством, что
нахождение глобальных минимумов для NP-полных задач является очень
трудной задачей, которая не может быть решена в приемлемое время никаким
другим методом. Другие методы значительно более медленны и дают не
лучшие результаты.
Скорость
Способность сети быстро производить вычисления является ее
главным достоинством. Она обусловлена высокой степенью распараллеливания
вычислительного процесса. Если сеть реализована на аналоговой
электронике, то решение редко занимает промежуток времени, больший
нескольких постоянных времени сети. Более того, время сходимости
слабо зависит от размерности задачи. Это резко контрастирует с более
чем экспоненциальным ростом времени решения при использовании обычных
подходов. Моделирование с помощью однопроцессорных систем не
позволяет использовать преимущества параллельной архитектуры, но
современные мультипроцессорные системы типа Connection Machine (65536
процессоров!) весьма многообещающи для решения трудных задач.
Функция энергии
Определение функции энергии сети в зависимости от . задачи не
является тривиальным. Существующие решения были получены с помощью
изобретательности, математического опыта и таланта, которые не разбросаны
в изобилии. Для некоторых задач существуют систематические методы
нахождения весов сети. Эти методы излагаются в гл. 7.
Емкость сети
Актуальным предметом исследований является максимальное количество
запоминаемой информации, которое может храниться в сети Хопфилда.
Так как сеть из N двоичных нейронов может иметь 2n состояний, то
исследователи были удивлены, обнаружив, что максимальная емкость памяти
оказалась значительно меньшей. Если бы могло запоминаться большое
количество информационных единиц, то сеть не стабилизировалась бы на
некоторых из них. Более того, она могла бы помнить то, чему ее не
учили, т.е. могла стабилизироваться на решении, не являющемся требуемым
вектором. Эти свойства ставили в тупик первых исследователей, которые не
имели математических методов для предварительной оценки емкости памяти
сети. Последние исследования пролили свет на эту проблему.
Например, предполагалось, что максимальное количество запоминаемой
информации, которое может храниться в сети из N нейронов и
безошибочно извлекаться, меньше чем cN2, где с - положительная
константа, большая единицы. Хотя этот предел и достигается в некоторых
случаях, в общем случае он оказался слишком оптимистическим. В работе
[4] было экспериментально показано, что в общем случае предельное
значение емкости ближе к 0,15N. В работе [1] было показано, что
число таких состояний не может превышать N, что согласуется с
наблюдениями над реальными системами и является наилучшей на сегодняшний
день оценкой.
ВЫВОДЫ
Сети с обратными связями являются перспективным объектом для
дальнейших исследований. Их динамическое поведение открывает новые
интересные возможности и ставит специфические проблемы. Как
отмечается в гл. 9, эти возможности и проблемы сохраняются при
реализации нейронных сетей в виде оптических систем.
Глава 7 Двунаправленная ассоциативная память
Память человека часто является ассоциативной; один предмет
напоминает нам о другом, а этот другой о третьем. Если позволить нашим
мыслям, они будут перемещаться от предмета к предмету по цепочке
умственных ассоциаций. Кроме того, возможно использование способности к
ассоциациям для восстановления забытых образов. Если мы забыли, где
оставили свои очки, то пытаемся вспомнить, где видели их в последний
раз, с кем разговаривали и что делали. Посредством этого
устанавливается конец цепочки ассоциаций, что позволяет нашей памяти
соединять ассоциации для получения требуемого образа. Ассоциативная
память, рассмотренная в гл. 6, является, строго говоря,
автоассоциативной, это означает, что образ может быть завершен или
исправлен, но не может быть ассоциирован с другим образом. Данный
факт является результатом одноуровневой структуры ассоциативной
памяти, в которой вектор появляется на выходе тех же нейронов, на
которые поступает входной вектор. Двунаправленная ассоциативная
память (ДАП) является гетероассоциативной; входной вектор поступает
на один набор нейронов, а соответствующий выходной вектор вырабатывается
на другом наборе нейронов. Как и сеть Хопфилда, ДАП способна к
обобщению, вырабатывая правильные реакции, несмотря на искаженные
входы. Кроме того, могут быть реализованы адаптивные версии ДАП,
выделяющие эталонный образ из зашумленных экземпляров. Эти возможности
сильно напоминают процесс мышления человека и позволяют
искусственным нейронным сетям сделать шаг в направлении моделирования
мозга. В последних публикациях [9,12] представлено несколько форм
реализации двунаправленной ассоциативной памяти. Как большинство важных
идей, изложенные в этих работах идеи имеют глубокие корни; например,
в работе Гроссберга [6] представлены некоторые важные для ДАП
концепции. В данной работе ссылки приводятся не с целью разрешения
вопроса о приоритете исследовательских работ, а исключительно для
освещения их вклада в исследовательскую тематику.
СТРУКТУРА ДАП
[pic]
Рис. 7.1. Конфигурация двунаправленной ассоциативной памяти.
На рис. 7.1 приведена базовая конфигурация ДАП. Эта конфигурация
существенно отличается от используемой в работе [9]. Она выбрана таким
образом, чтобы подчеркнуть сходство с сетями Хопфилда и предусмотреть
увеличения количества слоев. На рис. 7.1 входной вектор А
обрабатывается матрицей весов W сети, в результате чего вырабатывается
вектор выходных сигналов нейронов В. Вектор В затем обрабатывается
транспонированной матрицей Wt весов сети, которая вырабатывает новые
выходные сигналы, представляющие собой новый входной вектор А. Этот
процесс повторяется до тех пор, пока сеть не достигнет стабильного
состояния, в котором ни вектор А, ни вектор В не изменяются. Заметим,
что нейроны в слоях 1 и 2 функционируют, как и в других парадигмах,
вычисляя сумму взвешенных входов и вычисляя по ней значение функции
активации F. Этот процесс может быть выражен следующим образом:
[pic] (7.1)
или в векторной форме: B = F( AW ) (7.2)
где В - вектор выходных сигналов нейронов слоя 2, А -вектор выходных
сигналов нейронов слоя 1, W - матрица весов связей между слоями 1 и 2, F
- функция активации.Аналогично
A = F (BWt) (7.3)
где Wt является транспозицией матрицы W. Как отмечено в гл. 1,
Гроссберг показал преимущества использования сигмоидальной
(логистической) функции активации
OUTi = 1 / ( 1 + e-(NETi)
где OUTi - выход нейрона i, NETi - взвешенная сумма входных сигналов
нейрона i, ( - константа, определяющая степень кривизны. В простейших
версиях ДАП значение константы ( выбирается большим, в результате чего
функция активации приближается к простой пороговой функции. В дальнейших
рассуждениях будем предполагать, что используется пороговая функция
активации. Примем также, что существует память внутри каждого нейрона в
слоях 1 и 2 и что выходные сигналы нейронов изменяются одновременно с
каждым тактом синхронизации, оставаясь постоянными между этими тактами.
Таким образом, поведение нейронов может быть описано следующими
правилами:
OUTi(n+1) = 1, если NETi(n)>0,
OUTi(n+1) = 0, если NETi(n)0,
bi = 0 , если OiTi, OUTi(n+l)=l, если NETi(n)p. Если это происходит, проводится
обучающий цикл, в процессе которого модифицируются веса векторов Тj
и Вj, связанных с возбужденным нейроном в слое распознавания.
2. Все запомненные образы проверены, определено, что они не
соответствуют входному вектору, и все нейроны слоя распознавания
заторможены. В этом случае предварительно не распределенный нейрон в
распознающем слое выделяется этому образу и его весовые векторы Вj и
Тj устанавливаются соответствующими новому входному образу.
Проблема производительности. Описанная сеть должна производить
последовательный поиск среди всех запомненных образов. В аналоговых
реализациях это будет происходить очень быстро; однако при моделировании
на обычных цифровых компьютерах этот процесс может оказаться очень
длительным. Если же сеть APT реализуется на параллельных процессорах,
все свертки на распознающем уровне могут вычисляться одновременно. В
этом случае поиск может быть очень быстрым. Время, необходимое для
стабилизации сети с латеральным торможением, может быть длительным при
моделировании на последовательных цифровых компьютерах. Чтобы выбрать
победителя в процессе латерального торможения, все нейроны в слое должны
быть вовлечены в одновременные вычисления и передачу. Это может
потребовать проведения большого объема вычислений перед достижением
сходимости. Латеральные тормозящие сети, аналогичные используемым в
неокогнитронах, могут существенно сократить это время (гл. 10).
РЕАЛИЗАЦИЯ APT Обзор
APT, как это можно увидеть из литературы, представляет собой нечто
большее, чем философию, но намного менее конкретное, чем программа
для компьютера. Это привело к наличию широкого круга реализаций,
сохраняющих идеи APT, но сильно отличающихся в деталях. Рассматриваемая
далее реализация основана на работе [5] с определенными изменениями
для обеспечения совместимости с работой [2] и моделями, рассмотренными в
данной работе. Эта реализация может рассматриваться в качестве
типовой, но необходимо иметь в виду, что другие успешные реализации имеют
большие отличия от нее.
Функционирование сетей APT
Рассмотрим более детально пять фаз процесса функционирования APT:
инициализацию, распознавание, сравнение, поиск и обучение.
Инициализация. Перед началом процесса обучения сети все весовые векторы
Вj и Тj, а также параметр сходства р, должны быть установлены в
начальные значения. Веса векторов Вj все инициализируются в одинаковые
малые значения. Согласно [2], эти значения должны удовлетворять условию
bij r, (8.4)
0 в противном случае,
где Т представляет собой порог. Принято, что латеральное торможение
существует, но игнорируется здесь для сохранения простоты выражений. Оно
обеспечивает тот факт, что только нейрон с максимальным значением NET
будет иметь выход, равный единице; все остальные нейроны будут иметь
нулевой выход. Можно рассмотреть системы, в которых в распознающем
слое возбуждаются несколько нейронов в каждый момент времени, однако
это выходит за рамки данной работы.
Сравнение. На этой фазе сигнал обратной связи от слоя распознавания
устанавливает G1 в нуль; правило двух третей позволяет возбуждаться
только тем нейронам, которые имеют равные единице соответствующие
компоненты векторов Р и X. Блок сброса сравнивает вектор С и входной
вектор X, вырабатывая сигнал сброса, когда их сходство S ниже порога
сходства. Вычисление этого сходства упрощается тем обстоятельством, что
оба вектора являются двоичными (все элементы либо 0, либо 1).
Следующая процедура проводит требуемое вычисление сходства:
1. Вычислить D - количество единиц в векторе X.
2. Вычислить N - количество единиц в векторе С.
Затем вычислить сходство S следующим образом:
S= N/D (8.5)
Например, примем, что
Х=1 0 1 1 1 0 D=5
С=0 0 1 1 1 0 1 N=4
S = N/D = 0.8
S может изменяться от 1 (наилучшее соответствие) до О (наихудшее
соответствие). Заметим, что правило двух третей делает С логическим
произведением входного вектора Х и вектора Р. Однако Р равен Тj,
весовому вектору выигравшего соревнование нейрона. Таким образом, D
может быть определено как количество единиц в логическом произведении
векторов Тj и X.
Поиск. Если сходство S выигравшего нейрона превышает параметр
сходства, поиск не требуется. Однако если сеть предварительно была
обучена, появление на входе вектора, не идентичного ни одному из
предъявленных ранее, может возбудить в слое распознавания нейрон со
сходством ниже требуемого уровня. В соответствии с алгоритмом
обучения возможно, что другой нейрон в слое распознавания будет
обеспечивать более хорошее соответствие, превышая требуемый уровень
сходства, несмотря на то, что свертка между его весовым вектором и
входным вектором может иметь меньшее значение. Пример такой
ситуации показан ниже. Если сходство ниже требуемого уровня,
запомненные образы могут быть просмотрены с целью поиска, наиболее
соответствующего входному вектору образа. Если такой образ
отсутствует, вводится новый несвязанный нейрон, который в дальнейшем
будет обучен. Для инициализации поиска сигнал сброса тормозит
возбужденный нейрон в слое распознавания на время проведения поиска,
сигнал 01 устанавливается в единицу и другой нейрон в слое
распознавания выигрывает соревнование. Его запомненный образ затем
проверяется на сходство, и процесс повторяется до тех пор, пока
конкуренцию не выиграет нейрон из слоя распознавания со сходством,
большим требуемого уровня (успешный поиск), либо пока все связанные
нейроны не будут проверены и заторможены (неудачный поиск).
Неудачный поиск будет автоматически завершаться на несвязанном нейроне,
так как его веса все равны единице, своему начальному значению.
Поэтому правило двух третей приведет к идентичности вектора С входному
век тору X, сходство S примет значение единицы и критерий сходства
будет удовлетворен.
Обучение. Обучение представляет собой процесс, в котором набор
входных векторов подается последовательно на вход сети и веса сети
изменяются при этом таким образом, чтобы сходные векторы
активизировали соответствующие нейроны. Заметим, что это - неуправляемое
обучение, нет учителя и нет целевого вектора, определяющего требуемый
ответ. В работе [2] различают два вида обучения: медленное и
быстрое. При медленном обучении входной вектор предъявляется
настолько кратковременно, что веса сети не имеют достаточного
времени для достижения своих асимптотических значений в результате
одного предъявления. В этом случае значения весов будут определяться
скорее статистическими характеристиками входных векторов, чем
характеристиками какого-то одного входного вектора. Динамика сети в
процессе медленного обучения описывается дифференциальными уравнениями.
Быстрое обучение является специальным случаем медленного
обучения, когда входной вектор прикладывается на достаточно длительный
промежуток времени, чтобы позволить весам приблизиться к их
окончательным значениям. В этом случае процесс обучения описывается
только алгебраическими выражениями. Кроме того, компоненты весовых
векторов Тj принимают двоичные значения, в отличие от непрерывного
диапазона значений, требуемого в случае быстрого обучения. В данной
работе рассматривается только быстрое обучение, интересующиеся читатели
могут найти превосходное описание более общего случая медленного
обучения в работе [2]. Рассмотренный далее обучающий алгоритм
используется как в случае успешного, так и в случае неуспешного поиска.
Пусть вектор весов Вj (связанный с возбужденным нейроном j
распознающего слоя) равен нормализованной величине вектора С. В [2]
эти веса вычисляются следующим образом:
[pic] (8.6)
где сi - i-я компонента выходного вектора слоя сравнения; j - номер
выигравшего нейрона в слое распознавания; Ьij - вес связи, соединяющей
нейрон i в слое сравнения с нейроном j в слое распознавания; L -
константа > 1 (обычно 2).
Компоненты вектора весов Т., связанного с новым запомненным
вектором, изменяются таким образом, что они становятся равны
соответствующим двоичным величинам вектора С:
tij=ci для всех i (8.7)
где tij является весом связи между выигравшим нейроном j в слое
распознавания и нейроном i в слое сравнения.
ПРИМЕР ОБУЧЕНИЯ СЕТИ APT
В общих чертах сеть обучается посредством изменения весов таким
образом, что предъявление сети входного вектора заставляет сеть
активизировать нейроны в слое распознавания, связанные с сходным
запомненным вектором. Кроме этого, обучение проводится в форме, не
разрушающей запомненные ранее образы, предотвращая тем самым
временную нестабильность. Эта задача управляется на уровне выбора
критерия сходства. Новый входной образ (который сеть не видела раньше)
не будет соответствовать запомненным образам с точки зрения параметра
сходства, тем самым формируя новый запоминаемый образ. Входной
образ, в достаточной степени соответствующий одному из запомненных
образов, не будет формировать нового экземпляра, он просто будет
модифицировать тот, на который он похож. Таким образом при
соответствующем выборе критерия сходства предотвращается запоминание
ранее изученных образов и временная нестабильность.
[pic]
На рис. 8.6 показан типичный сеанс обучения сети APT. Буквы
показаны состоящими из маленьких квадратов, каждая буква размерностью
8х8. Каждый квадрат в левой части представляет компоненту вектора Х с
единичным значением, не показанные квадраты являются компонентами с
нулевыми значениями. Буквы справа представляют запомненные образы, каждый
является набором величин компонент вектора Тj . Вначале на вход заново
проинициированной системы подается буква С. Так как отсутствуют
запомненные образы, фаза поиска заканчивается неуспешно; новый нейрон
выделяется в слое распознавания, и веса Тj устанавливаются равными
соответствующим компонентам входного вектора, при этом веса Вj
представляют масштабированную версию входного вектора.
Далее предъявляется буква В. Она также вызывает неуспешное
окончание фазы поиска и распределение нового нейрона. Аналогичный
процесс повторяется для буквы Е. Затем слабо искаженная версия буквы Е
подается на вход сети. Она достаточно точно соответствует запомненной
букве Е, чтобы выдержать проверку на сходство, поэтому используется для
обучения сети. Отсутствующий пиксель в нижней ножке буквы Е
устанавливает в 0 соответствующую компоненту вектора С, заставляя
обучающий алгоритм установить этот вес запомненного образа в нуль,
тем самым воспроизводя искажения в запомненном образе.
Дополнительный изолированный квадрат не изменяет запомненного образа,
так как не соответствует единице в запомненном образе. Четвертым
символом является буква Е с двумя различными искажениями. Она не
соответствует ранее запомненному образу (S меньше чем р), поэтому для ее
запоминания выделяется новый нейрон. Этот пример иллюстрирует
важность выбора корректного значения критерия сходства. Если значение
критерия слишком велико, большинство образов не будут подтверждать
сходство с ранее запомненными и сеть будет выделять новый нейрон для
каждого из них. Это приводит к плохому обобщению в сети, в
результате даже незначительные изменения одного образа будут создавать
отдельные новые категории. Количество категорий увеличивается, все
доступные нейроны распределяются, и способность системы к восприятию
новых данных теряется. Наоборот, если критерий сходства слишком мал,
сильно различающиеся образы будут группироваться вместе, искажая
запомненный образ до тех пор, пока в результате не получится очень малое
сходство с одним из них. К сожалению, отсутствует теоретическое
обоснование выбора критерия сходства, в каждом конкретном случае
необходимо решить, какая степень сходства должна быть принята для
отнесения образов к одной категории. Границы между категориями часто
неясны, и решение задачи для большого набора входных векторов может
быть чрезмерно трудным. В работе [2] предложена процедура с
использованием обратной связи для настройки коэффициента сходства,
вносящая, однако, некоторые искажения в результате классификации
как «наказание» за внешнее вмешательство с целью увеличения коэффициента
сходства. Такие системы требуют правил определения, является ли
производимая ими классификация корректной.
ХАРАКТЕРИСТИКИ APT
Системы APT имеют ряд важных характеристик, не являющихся
очевидными. Формулы и алгоритмы могут казаться произвольными, в то
время как в действительности они были тщательно отобраны с целью
удовлетворения требований теорем относительно производительности систем
APT. В данном разделе описываются некоторые алгоритмы APT, раскрывающие
отдельные вопросы инициализации и обучения.
Инициализация весовых векторов Т
Из ранее рассмотренного примера обучения сети можно было
видеть, что правило двух третей приводит к вычислению вектора С как
функции И между входным вектором Х и выигравшим соревнование
запомненным вектором Тj. Следовательно, любая компонента вектора С
будет равна единице в том случае, если соответствующие компоненты обоих
векторов равны единице. После обучения эти компоненты вектора Тj остаются
единичными; все остальные устанавливаются в нуль.
Это объясняет, почему веса tij. должны инициализироваться
единичными значениями. Если бы они были проинициализированы нулевыми
значениями, все компоненты вектора С были бы нулевыми независимо от
значений компонент входного вектора, и обучающий алгоритм предохранял бы
веса от изменения их нулевых значений. Обучение может
рассматриваться как процесс «сокращения» компонент запомненных векторов,
которые не соответствуют входным векторам. Этот процесс необратим,
если вес однажды установлен в нуль, обучающий алгоритм никогда не
восстановит его единичное значение. Это свойство имеет важное
отношение к процессу обучения. Предположим, что группа точно
соответствующих векторов должна быть классифицирована к одной
категории, определяемой возбуждением одного нейрона в слое
распознавания. Если эти вектора последовательно предъявляются сети, при
предъявлении первого будет распределяться нейрон распознающего слоя, его
веса будут обучены с целью соответствия входному вектору. Обучение при
предъявлении остальных векторов будет приводить к обнулению весов в тех
позициях, которые имеют нулевые значения в любом из входных векторов.
Таким образом, запомненный вектор представляет собой логическое
пересечение всех обучающих векторов и может включать существенные
характеристики данной категории весов. Новый вектор, включающий
только существенные характеристики, будет соответствовать этой
категории. Таким образом, сеть корректно распознает образ, никогда не
виденный ранее, т.е. реализуется возможность, напоминающая процесс
восприятия человека.
Настройка весовых векторов Вj.
Выражение, описывающее процесс настройки весов (выражение (8.6)
повторено здесь для справки) является центральным для описания
процесса функционирования сетей APT.
[pic]
Сумма в знаменателе представляет собой количество единиц на выходе
слоя сравнения. Эта величина может быть рассмотрена как «размер» этого
вектора. В такой интерпретации «большие» векторы С производят более
маленькие величины весов bij, чем «маленькие» вектора С. Это
свойство самомасштабирования делает возможным разделение двух векторов
в случае, когда один вектор является поднабором другого; т.е. когда
набор единичных компонент одного вектора составляет подмножество
единичных компонент другого. Чтобы продемонстрировать проблему,
возникающую при отсутствии масштабирования, используемого в выражении
(8.6), предположим, что сеть обучена двум приведенным ниже входным
векторам, при этом каждому распределен нейрон в слое распознавания.
Х1 = 1 0 0 0 0
X2= 1 1 1 0 0
Заметим, что Х1 является поднабором Х2 . В отсутствие свойства
масштабирования веса bij и tij получат значения, идентичные значениям
входных векторов. Если начальные значения выбраны равными 1,0,
веса образов будут иметь следующие значения:
T1 = В1 = 1 0 0 0 0
Т2 = B2 =1 1 1 0 0
Если X прикладывается повторно, оба нейрона в слое распознавания
получают одинаковые активации; следовательно, нейрон 2, ошибочный
нейрон, выиграет конкуренцию. Кроме выполнения некорректной
классификации, может быть нарушен процесс обучения. Так как Т2
равно 1 1 1 0 0, только первая единица соответствует единице
входного вектора, и С устанавливается в 1 0 0 0 0, критерий
сходства удовлетворяется и алгоритм обучения устанавливает вторую и
третью единицы векторов Т2 и В2 в нуль, разрушая запомненный образ.
Масштабирование весов bij предотвращает это нежелательное поведение.
Предположим, что в выражении (8.2) используется значение L=2, тем
самым определяя следующую формулу:
[pic][pic]
Значения векторов будут тогда стремиться к величинам
В1 = 1 0 0 0 0
В2 = 1/2 1/2 1/2 0 0
Подавая на вход сети вектор X1, получим возбуждающее воздействие
1,0 для нейрона 1 в слое распознавания и 1/2 для нейрона 2; таким
образом, нейрон 1 (правильный) выиграет соревнование. Аналогично
предъявление вектора Х2 вызовет уровень возбуждения 1,0 для нейрона 1 и
3/2 для нейрона 2, тем самым снова правильно выбирая победителя.
Инициализация весов bij
Инициализация весов bij малыми значениями является существенной для
корректного функционирования систем APT. Если они слишком большие,
входной вектор, который ранее был запомнен, будет скорее активизировать
несвязанный нейрон, чем ранее обученный. Выражение (8.1),
определяющее начальные значения весов, повторяется здесь для справки
bij < L / (L - 1+ т) для всех i , j. (8.1)
Установка этих весов в малые величины гарантирует, что несвязанные
нейроны не будут получать возбуждения большего, чем обученные нейроны
в слое распознавания. Используя предыдущий пример с L= 2, т=Ъ и
bij < 1/3, произвольно установим bij = 1/6. С такими весами предъявление
вектора, которому сеть была ранее обучена, приведет к более высокому
уровню активации для правильно обученного нейрона в слое
распознавания, чем для несвязанного нейрона. Например, для несвязанного
нейрона Х будет производить возбуждение 1/6, в то время как Х будет
производить возбуждение 1/2; и то и другое ниже возбуждения для
обученных нейронов.
Поиск. Может показаться, что в описанных алгоритмах отсутствует
необходимость наличия фазы поиска за исключением случая, когда для
входного вектора должен быть распределен новый несвязанный нейрон. Это
не совсем так; предъявление входного вектора, сходного, но не абсолютно
идентичного одному из запомненных образов, может при первом
испытании не обеспечить выбор нейрона слоя распознавания с уровнем
сходства большим р, хотя такой нейрон будет существовать. Как и в
предыдущем примере, предположим, что сеть обучается следующим двум
векторам:
Х =1 0 0 0 0
X =1 1 1 0 0
с векторами весов Вi, обученными следующим образом:
В1=1 0 0 0 0
В2 = 1/2 1/2 1/2 0 0
Теперь приложим входной вектор Х3 = 1 1 0 0 0. В этом случае возбуждение
нейрона 1 в слое распознавания будет 1,0, а нейрона 2 только 2/3. Нейрон
1 выйдет победителем (хотя он не лучшим образом соответствует
входному вектору), вектор С получит значение 1 1 0 0 0, S будет
равно 1/2. Если уровень сходства установлен в 3/4, нейрон 1 будет
заторможен и нейрон 2 выиграет состязание. С станет равным 1 1 0 0 0,
S станет равным 1, критерий сходства будет удовлетворен и поиск
закончится.
Теоремы APT
В работе [2] доказаны некоторые теоремы, показывающие
характеристики сетей APT. Четыре результата, приведенные ниже, являются
одними из наиболее важных:
1. После стабилизации процесса обучения предъявление одного из обучающих
векторов (или вектора с существенными характеристиками категории) будет
активизировать требуемый нейрон слоя распознавания без поиска. Эта
характеристика «прямого доступа» определяет быстрый доступ к
предварительно изученным образам.
2. Процесс поиска является устойчивым. После определения выигравшего
нейрона в сети не будет возбуждений других нейронов в результате
изменения векторов выхода слоя сравнения С; только сигнал сброса может
вызвать такие изменения.
3. Процесс обучения является устойчивым. Обучение не будет вызывать
переключения с одного возбужденного нейрона слоя распознавания на другой.
4. Процесс обучения конечен. Любая последовательность произвольных
входных векторов будет производить стабильный набор весов после
конечного количества обучающих серий; повторяющиеся последовательности
обучающих векторов не будут приводить к циклическому изменению весов.
ЗАКЛЮЧЕНИЕ
Сети APT являются интересным и важным видом систем. Они
способны решить дилемму стабильности-пластичности и хорошо
работают с других точек зрения. Архитектура APT сконструирована по
принципу биологического подобия; это означает, что ее механизмы во
многом соответствуют механизмам мозга (как мы их понимаем). Однако
они могут оказаться не в состоянии моделировать распределенную память,
которую многие рассматривают как важную характеристику функций мозга.
Экземпляры APT представляют собой «бабушкины узелки»; потеря одного
узла разрушает всю память. Память мозга, напротив, распределена по
веществу мозга, запомненные образы могут часто пережить значительные
физические повреждения мозга без полной их потери. Кажется логичным
изучение архитектур, соответствующих нашему пониманию организации и
функций мозга. Человеческий мозг представляет существующее
доказательство того факта, что решение проблемы распознавания образов
возможно. Кажется разумным эмулировать работу мозга, если мы хотим
повторить его работу. Однако контраргументом является история полетов;
человек не смог оторваться от земли до тех пор, пока не перестал
имитировать движения крыльев и полет птиц.
Глава 10 Когнитрон и неокогнитрон
Люди решают сложные задачи распознавания образов с обескураживающей
легкостью. Двухлетний ребенок без видимых усилий различает тысячи
лиц и других объектов, составляющих его окружение, несмотря на изменение
расстояния, поворота, перспективы и освещения. Может показаться,
что изучение этих врожденных способностей должно сделать простой
задачу разработки компьютера, повторяющего способности человека к
распознаванию. Ничто не может быть более далеким от истины. Сходство и
различия образов, являющиеся очевидными для человека, пока ставят в
тупик даже наиболее сложные компьютерные системы распознавания.
Таким образом, бесчисленное количество важных приложений, в которых
компьютеры могут заменить людей в опасных, скучных или неприятных
работах, остаются за пределами их текущих возможностей.
Компьютерное распознавание образов является больше искусством; наука
ограничена наличием нескольких методик, имеющих относительно небольшое
использование на практике. Инженер, конструирующий типовую систему
распознавания образов, обычно начинает с распознавания печатного
текста. Эти методы часто являются неадекватными задаче, и старания
разработчиков быстро сводятся к разработке алгоритмов, узко специфичных
для данной задачи. Обычно целью конструирования систем
распознавания образов является оптимизация ее функционирования над
выборочным набором образов. Очень часто разработчик завершает эту
задачу нахождением нового, приблизительно похожего образа, что приводит к
неудачному завершению алгоритмов. Этот процесс может продолжаться
неопределенно долго, никогда не приводя к устойчивому решению,
достаточному для повторения процесса восприятия человека, оценивающего
качество функционирования системы.
К счастью, мы имеем существующее доказательство того, что задача
может быть решена: это система восприятия человека. Учитывая
ограниченность успехов, достигнутых в результате стремления к собственным
изобретениям, кажется вполне логичным вернуться к биологическим моделям
и попытаться определить, каким образом они функционируют так
хорошо. Очевидно, что это трудно сделать по нескольким причинам. Во-
первых, сверхвысокая сложность человеческого мозга затрудняет
понимание принципов его функционирования. Трудно понять общие принципы
функционирования и взаимодействия его приблизительно 1011 нейронов
и 1014 синаптических связей. Кроме того, существует множество проблем
при проведении экспериментальных исследований. Микроскопические
исследования требуют тщательно подготовленных образцов (заморозка,
срезы, окраска) для получения маленького двумерного взгляда на большую
трехмерную структуру. Техника микропроб позволяет провести исследования
внутренней электрохимии узлов, однако трудно контролировать одновременно
большое количество узлов и наблюдать их взаимодействие. Наконец,
этические соображения запрещают многие важные эксперименты, которые
могут быть выполнены только на людях. Большое значение имели эксперименты
над животными, однако животные не обладают способностями человека
описывать свои впечатления. Несмотря на эти ограничения, многое
было изучено благодаря блестяще задуманным экспериментам. Например, в
[1] описан эксперимент, в котором котята выращивались в визуальном
окружении, состоящем только из горизонтальных черных и белых полос.
Известно, что определенные области коры чувствительны к углу ориентации,
поэтому у этих котов не развились нейроны, чувствительные к вертикальным
полосам. Этот результат наводит на мысль, что мозг млекопитающих
не является полностью «предустановленным» даже на примитивном уровне
распознавания ориентации линий. Напротив, он постоянно самоорганизуется,
основываясь на опыте.
На микроскопическом уровне обнаружено, что нейроны обладают как
возбуждающими, так и тормозящими синапсами. Первые стремятся к
возбуждению нейрона; последние подавляют его возбуждение (см. приложение
А). Это наводит на мысль, что мозг адаптируется либо изменением
воздействия этих синапсов, либо созданием или разрушением синапсов в
результате воздействия окружающей среды. Данное предположение
остается пока гипотезой с ограниченным физиологическим
подтверждением. Однако исследования, проведенные в рамках этой гипотезы,
привели к созданию цифровых моделей, некоторые из которых показывают
замечательные способности к адаптивному распознаванию образов.
КОГНИТРОН
Основываясь на текущих знаниях анатомии и физиологии мозга, в
работе [2] разработан когнитрон, гипотетическая модель системы восприятия
человека. Компьютерные модели, исследованные в [2], продемонстрировали
впечатляющие способности адаптивного распознавания образов, побуждая
физиологов исследовать соответствующие механизмы мозга. Это взаимно
усиливающее взаимодействие между искусственными нейронными сетями,
физиологией и психологией может оказаться средством, посредством
которого будет со временем достигнуто понимание механизмов мозга.
Структура
Когнитрон конструируется в виде слоев нейронов, соединенных
синапсами. Как показано на рис. 10.1, предсинаптический нейрон в одном
слое связан с постсинаптическим нейроном в следующем слое. Имеются
два типа нейронов: возбуждающие узлы, которые стремятся вызвать
возбуждение постсинаптического узла, и тормозящие узлы, которые тормозят
это возбуждение. Возбуждение нейрона определяется взвешенной суммой его
возбуждающих и тормозящих входов, однако в действительности
механизм является более сложным, чем простое суммирование.
[pic]
Рис. 10.1. Пресинаптические и постсинаптические нейроны.
На рис. 10.2 показано, что каждый нейрон связан только с нейронами
в соседней области, называемой областью связи. Это ограничение
области связи согласуется с анатомией зрительной коры, в которой редко
соединяются между собой нейроны, располагающиеся друг от друга на
расстоянии более одного миллиметра. В рассматриваемой модели нейроны
упорядочены в виде слоев со связями от одного слоя к следующему. Это
также аналогично послойной структуре зрительной коры и других частей
головного мозга.
[pic]
Обучение
Так как когнитрон реализован в виде многослойной сети, возникают
сложные проблемы обучения, связанные с выбранной структурой. Автор
отверг управляемое обучение, как биологически неправдоподобное,
используя взамен этого обучение без учителя. Получая обучающий набор
входных образов, сеть самоорганизуется посредством изменения силы
синаптических связей. При этом отсутствуют предварительно определенные
выходные образы, представляющие требуемую реакцию сети, однако сеть
самонастраивается с целью распознавания входных образов с
замечательной точностью. Алгоритм обучения когнитрона является
концептуально привлекательным. В заданной области слоя обучается только
наиболее сильно возбужденный нейрон. Автор сравнивает это с «элитным
обучением», при котором обучаются только «умные» элементы. Те нейроны,
которые уже хорошо обучены, что выражается силой их возбуждения,
получат приращение силы своих синапсов с целью дальнейшего усиления
своего возбуждения. На рис. 10.3 показано, что области связи
соседних узлов значительно перекрываются. Это расточительное
дублирование функций оправдывается взаимной конкуренцией между
ближайшими узлами. Даже если узлы в начальный момент имеют абсолютно
идентичный выход, небольшие отклонения всегда имеют место; один из
узлов всегда будет иметь более сильную реакцию на входной образ, чем
соседние. Его сильное возбуждение будет оказывать сдерживающее
воздействие на возбуждение соседних узлов, и только его синапсы будут
усиливаться; синапсы соседних узлов останутся неизменными.
Возбуждающий нейрон.
Грубо говоря, выход возбуждающего нейрона в когнитроне определяется
отношением его возбуждающих входов к тормозящим входам. Эта необычная
функция имеет важные преимущества, как практические, так и
теоретические.
[pic]
Суммарный возбуждающий вход в нейрон Е является взвешенной суммой
входов от возбуждающих нейронов в предшествующем слое. Аналогично
суммарный тормозящий вход / является взвешенной суммой входов от всех
тормозящих нейронов. В символьном виде
[pic] [pic]
где аi - вес i-го возбуждающего синапса, иi - выход i -го
возбуждающего нейрона, bj - вес j-го тормозящего синапса, v. - выход j-
го тормозящего нейрона. Заметим, что веса имеют только положительные
значения. Выход нейрона затем вычисляется следующим образом:
NET = [(1 + E)/(l + I)]-l,
OUT=NET при NET>=0,
OUT=0 при NET < 0.
Предполагая, что NET имеет положительное значение, это можно
записать следующим образом:
OUT = (E - I)/(1 + I).
Когда тормозящий вход мал ( I >1 и I >>1.
В данном случае OUT определяется отношением возбуждающих входов к
тормозящим входам, а не их разностью. Таким образом, величина OUT
ограничивается, если оба входа возрастают в одном и том же диапазоне X.
Предположив, что это так, Е и I можно выразить следующим образом:
Е = рХ, I = qX, p,q - константы, и после некоторых
преобразований OUT = [(р - q)/2q]{1 + th[log(pq)/2]}.
Эта функция возрастает по закону Вебера-Фехнера, который часто
используется в нейрофизиологии для аппроксимации нелинейных соотношений
входа/выхода сенсорных нейронов. При использовании этого соотношения
нейрон когнитрона в точности эмулирует реакцию биологических нейронов.
Это делает его как мощным вычислительным элементом, так и точной
моделью для физиологического моделирования.
Тормозящие нейроны.
В когнитроне слой состоит из возбуждающих и тормозящих узлов. Как
показано на рис. 10.4, нейрон слоя 2 имеет область связи, для которой
он имеет синаптические соединения с набором выходов нейронов в слое 1.
Аналогично в слое 1 существует тормозящий нейрон, имеющий ту же
область связи. Синаптические веса тормозящих узлов не изменяются в
процессе обучения; их веса заранее установлены таким образом, что
сумма весов в любом из тормозящих нейронов равна единице. В
соответствии с этими ограничениями, выход тормозящего узла INHIB
является взвешенной суммой его входов, которые в данном случае
представляют собой среднее арифметическое выходов возбуждающих
нейронов, к которым он подсоединен. Таким образом,
[pic]
[pic][pic]
где [pic] =1, сi - возбуждающий вес i.
Процедура обучения. Как объяснялось ранее, веса возбуждающих
нейронов изменяются только тогда, когда нейрон возбужден сильнее, чем
любой из узлов в области конкуренции. Если это так, изменение в
процессе обучения любого из его весов может быть определено следующим
образом:
(ai=qcjuj
где сj- тормозящий вес связи нейрона j в слое 1 с тормозящим нейроном i,
иj - выход нейрона j в слое 1, аi - возбуждающий вес i, q - нормирующий
коэффициент обучения. Изменение тормозящих весов нейрона i в слое
2 пропорционально отношению взвешенной суммы возбуждающих входов к
удвоенному тормозящему входу. Вычисления проводятся по формуле
[pic][pic]
Когда возбужденных нейронов в области конкуренции нет, для
изменения весов используются другие выражения. Это необходимо,
поскольку процесс обучения начинается с нулевыми значениями весов;
поэтому первоначально нет возбужденных нейронов ни в одной области
конкуренции, и обучение производиться не может. Во всех случаях, когда
победителя в области конкуренции нейронов нет, изменение весов
нейронов вычисляется следующим образом :
[pic]
где q' - положительный обучающий коэффициент меньший чем q.
Приведенная стратегия настройки гарантирует, что узлы с большой
реакцией заставляют возбуждающие синапсы, которыми они управляют,
увеличиваться сильнее, чем тормозящие синапсы. И наоборот, узлы,
имеющие малую реакцию, вызывают малое возрастание возбуждающих синап
сов, но большее возрастание тормозящих синапсов. Таким образом, если
узел 1 в слое 1 имеет больший выход, синапс а1 возрастет больше,
чем синапс b1 . И наоборот, узлы, имеющие малый выход, обеспечат малую
величину для приращения аi. Однако другие узлы в области связи будут
возбуждаться, тем самым увеличивая сигнал INHIB и значения bi. В
процессе обучения веса каждого узла в слое 2 настраиваются таким
образом, что вместе они составляют шаблон, соответствующий образам,
которые часто предъявляются в процессе обучения. При предъявлении
сходного образа шаблон соответствует ему и узел вырабатывает большой
выходной сигнал. Сильно отличающийся образ вырабатывает малый выход
и обычно подавляется конкуренцией.
Латеральное торможение. На рис. 10.4 показано, что каждый нейрон
слоя 2 получает латеральное торможение от нейронов, расположенных в
его области конкуренции. Тормозящий нейрон суммирует входы от всех
нейронов в области конкуренции и вырабатывает сигнал, стремящийся к
торможению целевого нейрона. Этот метод является эффектным, но с
вычислительной точки зрения медленным. Он охватывает большую систему с
обратной связью, включающую каждый нейрон в слое; для его стабилизации
может потребоваться большое количество вычислительных итераций. Для
ускорения вычислений в работе [2] используется остроумный метод
ускоренного латерального торможения (рис. 10.5). Здесь дополнительный
узел латерального торможения обрабатывает выход каждого
возбуждающего узла для моделирования требуемого латерального торможения.
Сначала он определяет сигнал, равный суммарному тормозящему влиянию в
области конкуренции:
[pic]
где OUTi - выход i-го нейрона в области конкуренции, g1-вес связи от
этого нейрона к латерально-тормозящему нейрону; gi выбраны таким
образом, что [pic] =1.
Выход тормозящего нейрона OUT' затем вычисляется следующим образом:
[pic]
Благодаря тому что все вычисления, связанные с таким типом
латерального торможения, являются нерекурсивными, они могут быть
проведены за один проход для слоя, тем самым определяя эффект в виде
большой экономии в вычислениях. Этот метод латерального торможения
решает и другую сложную проблему. Предположим, что узел в слое 2
возбуждается сильно, но возбуждение соседних узлов уменьшается постепенно
с увеличением расстояния. При использовании обычного латерального
торможения будет обучаться только центральный узел. Другие узлы
определяют, что центральный узел в их области конкуренции имеет
более высокий выход. С предлагаемой системой латерального
торможения такой ситуации случиться не может. Множество узлов может
обучаться одновременно и процесс обучения является более достоверным.
Рецептивная область. Анализ, проводимый до этого момента, был
упрощен рассмотрением только одномерных слоев. В действительности
когнитрон конструировался как каскад двумерных слоев, причем в данном
слое каждый нейрон получает входы от набора нейронов на части
двумерного плана, составляющей его область связи в предыдущем слое. С
этой точки зрения когнитрон организован подобно зрительной коре
человека, представляющей собой трехмерную структуру, состоящую из
нескольких различных слоев. Оказывается, что каждый слой мозга реализует
различные уровни обобщения; входной слой чувствителен к простым
образам, таким, как линии, и их ориентации в определенных областях
визуальной области, в то время как реакция других слоев является более
сложной, абстрактной и независимой от позиции образа. Аналогичные
функции реализованы в когнитроне путем моделирования организации
зрительной коры. На рис. 10.6 показано, что нейроны когнитрона в слое 2
реагируют на определенную небольшую область входного слоя 1. Нейрон в
слое 3 связан с набором нейронов слоя 2, тем самым реагируя косвенно
на более широкий набор нейронов слоя 1. Подобным образом нейроны в
последующих слоях чувствительны к более широким областям входного
образа до тех пор, пока в выходном слое каждый нейрон не станет
реагировать на все входное поле. Если область связи нейронов
имеет постоянный размер во всех слоях, требуется большое количество
слоев для перекрытия всего входного поля выходными нейронами.
Количество слоев может быть уменьшено путем расширения области связи в
последующих слоях. К сожалению, результатом этого может явиться
настолько большое перекрытие областей связи, что нейроны выходного слоя
будут иметь одинаковую реакцию. Для решения этой проблемы может быть
использовано расширение области конкуренции. Так как в данной области
конкуренции может возбудиться только один узел, влияние малой разницы
в реакциях нейронов выходного слоя усиливается.
[pic]
В альтернативном варианте связи с предыдущим слоем могут быть
распределены вероятностно с большинством синаптических связей в
ограниченной области и с более длинными соединениями, встречающимися
намного реже. Это отражает вероятностное распределение нейронов,
обнаруженное в мозге. В когнитроне это позволяет каждому нейрону
выходного слоя реагировать на полное входное поле при наличии
ограниченного количества слоев.
Результаты моделирования. В [4] описываются результаты компьютерного
моделирования четырехслойного когнитрона, предназначенного для целей
распознавания образов. Каждый слой состоит из массива 12 х 12
возбуждающих нейронов и такого же количества тормозящих нейронов.
Область связи представляет собой квадрат, включающий 5 х 5 нейронов.
Область конкуренции имеет форму ромба высотой и шириной в пять
нейронов. Латеральное торможение охватывает область 7 х 7 нейронов.
Нормирующие параметры обучения установлены таким образом, что q=l6,0
и q' =2,0. Веса синапсов проинициализированы в 0. Сеть обучалась
путем предъявления пяти стимулирующих образов, представляющих собой
изображения арабских цифр от 0 до 4, на входном слое. Веса сети
настраивались после предъявления каждой цифры, входной набор
подавался на вход сети циклически до тех пор, пока каждый образ не
был предъявлен суммарно 20 раз. Эффективность процесса обучения
оценивалась путем запуска сети в реверсивном режиме; выходные образы,
являющиеся реакцией сети, подавались на выходные нейроны и
распространялись обратно к входному слою. Образы, полученные во входном
слое, затем сравнивались с исходным входным образом. Чтобы сделать это,
обычные однонаправленные связи принимались проводящими в обратном
направлении и латеральное торможение отключалось. На рис. 10.7 показаны
типичные результаты тестирования. В столбце 2 показаны образы,
произведенные каждой цифрой на выходе сети. Эти образы возвращались
обратно, вырабатывая на входе сети образ, близкий к точной копии
исходного входного образа. Для столбца 4 на выход сети подавался только
выход нейрона, имеющего максимальное возбуждение. Результирующие образы
в точности те же, что и в случае подачи полного выходного образа,
за исключением цифры 0, для которой узел с максимальным выходом
располагался на периферии и не покрывал полностью входного поля.
[pic]
НЕОКОГНИТРОН
В попытках улучшить когнитрон была разработана мощная
парадигма, названная неокогнитрон [5-7]. В то время как когнитрон и
неокогнитрон имеют определенное сходство, между ними также существуют
фундаментальные различия, связанные с эволюцией исследований авторов.
Оба образца являются многоуровневыми иерархическими сетями,
организованными аналогично зрительной коре. В то же время
неокогнитрон более соответствует модели зрительной системы,
предложенной в работах [10-12]. В результате неокогнитрон является
намного более мощной парадигмой с точки зрения способности
распознавать образы независимо от их преобразований, вращений, искажений
и изменений масштаба. Как и когнитрон, неокогнитрон использует
самоорганизацию в процессе обучения, хотя была описана версия [9], в
которой вместо этого использовалось управляемое обучение.
Неокогнитрон ориентирован на моделирование зрительной системы
человека. Он получает на входе двумерные образы, аналогичные
изображениям на сетчатой оболочке глаза, и обрабатывает их в
последующих слоях аналогично тому, как это было обнаружено в
зрительной коре человека. Конечно, в неокогнитроне нет ничего,
ограничивающего его использование только для обработки визуальных
данных, он достаточно универсален и может найти широкое применение
как обобщенная система распознавания образов. В зрительной коре
были обнаружены узлы, реагирующие на такие элементы, как линии и углы
определенной ориентации. На более высоких уровнях узлы реагируют на
более сложные и абстрактные образы такие, как окружности, треугольники и
прямоугольники. На еще более высоких уровнях степень абстракции
возрастает до тех пор, пока не определятся узлы, реагирующие на лица
и сложные формы. В общем случае узлы на более высоких уровнях
получают вход от группы низкоуровневых узлов и, следовательно,
реагируют на более широкую область визуального поля. Реакции узлов
более высокого уровня менее зависят от позиции и более устойчивы к
искажениям.
Структура
Неокогнитрон имеет иерархическую структуру, ориентированную на
моделирование зрительной системы человека. Он состоит из
последовательности обрабатывающих слоев, организованных в
иерархическую структуру (рис. 10.8). Входной образ подается на первый
слой и передается через плоскости, соответствующие последующим слоям,
до тех пор, пока не достигнет выходного слоя, в котором
идентифицируется распознаваемый образ.
[pic]
Структура неокогнитрона трудна для представления в виде диаграммы,
но концептуально проста. Чтобы подчеркнуть его многоуровневость (с целью
упрощения графического представления), используется анализ верхнего
уровня. Неокогнитрон показан состоящим из слоев, слои состоят из
набора плоскостей и плоскости состоят из узлов.
Слои. Каждый слой неокогнитрона состоит из двух массивов плоскостей
(рис. 10.9). Массив плоскостей, содержащих простые узлы, получает
выходы предыдущего слоя, выделяет определенные образы и затем передает
их в массив плоскостей, содержащих комплексные узлы, где они
обрабатываются таким образом, чтобы сделать выделенные образы менее
позиционно зависимыми.
Плоскости. Внутри слоя плоскости простых и комплексных узлов
существуют парами, т.е. для плоскости простых узлов существует одна
плоскость комплексных узлов, обрабатывающая ее выходы. Каждая плоскость
может быть визуально представлена как двумерный массив.
[pic]
Простые узлы. Все узлы в данной плоскости простых узлов реагируют на
один и тот же образ. Как показано на рис. 10.10, плоскость простых узлов
представляет массив узлов, каждый из которых «настраивается» на один
специфический входной образ. Каждый простой узел чувствителен к
ограниченной области входного образа, называемой его рецептивной
областью. Например, все узлы в верхней плоскости простых узлов на
рис. 10.10 реагируют на С. Узел реагирует, если С встречается во входном
образе и если С обнаружено в его рецептивной области. На рис. 10.10
показано, что другие плоскости простых узлов в этом слое могут
реагировать на поворот С на 90°, другие на поворот на 180° и т.д. Если
должны быть выделены другие буквы (и их искаженные версии),
дополнительные плоскости требуются для каждой из них. Рецептивные
области узлов в каждой плоскости простых узлов перекрываются с
целью покрытия всего входного образа этого слоя. Каждый узел получает
входы от соответствующих областей всех плоскостей комплексных узлов в
предыдущем слое. Следовательно, простой узел реагирует на появление
своего образа в любой сложной плоскости предыдущего слоя, если он
окажется внутри его рецептивной области.
[pic]
Рис. 10.10. Система неокогнитрона.
Комплексные узлы. Задачей комплексных узлов является уменьшение
зависимости реакции системы от позиции образов во входном поле. Для
достижения этого каждый комплексный узел получает в качестве входного
образа выходы набора простых узлов из соответствующей плоскости того же
слоя. Эти простые узлы покрывают непрерывную область простой плоскости,
называемую рецептивной областью комплексного узла. Возбуждение любого
простого узла в этой области является достаточным для возбуждения
данного комплексного узла. Таким образом, комплексный узел реагирует на
тот же образ, что и простые узлы в соответствующей ему плоскости, но он
менее чувствителен к позиции образа, чем любой из них. Таким образом,
каждый слой комплексных узлов реагирует на более широкую область
входного образа, чем это делалось в предшествующих слоях. Эта
прогрессия возрастает линейно от слоя к слою, приводя к требуемому
уменьшению позиционной чувствительности системы в целом.
Обобщение
Каждый нейрон в слое, близком к входному, реагирует на определенные
образы в определенном месте, такие, как угол с определенной ориентацией
в заданной позиции. Каждый слой в результате этого имеет более
абстрактную, менее специфичную реакцию по сравнению с предшествующим;
выходной слой реагирует на полные образы, показывая высокую степень
независимости от их положения, размера и ориентации во входном поле.
При использовании в качестве классификатора комплексный узел
выходного слоя с наибольшей реакцией реализует выделение
соответствующего образа во входном поле. В идеальном случае это
выделение нечувствительно к позиции, ориентации, размерам или другим
искажениям.
Вычисления
Простые узлы в неокогнитроне имеют точно такие же характеристики,
что и описанные для когнитрона, и используют те же формулы для
определения их выхода. Здесь они не повторяются. Тормозящий узел
вырабатывает выход, пропорциональный квадратному корню из взвешенной суммы
квадратов его входов. Заметим, что входы в тормозящий узел идентичны
входам соответствующего простого узла и область включает область ответа
во всех комплексных плоскостях. В символьном виде
[pic]
где v - выход тормозящего узла; i - область над всеми комплексными
узлами, с которыми связан тормозящий узел; bi - вес i-й синаптической
связи от комплексного узла к тормозящему узлу; иi- выход i-го
комплексного узла. Веса Ь. выбираются монотонно уменьшающимися с
увеличением расстояния от центра области реакции, при этом сумма их
значений должна быть равна единице.
Обучение
Только простые узлы имеют настраиваемые веса. Это веса связей,
соединяющих узел с комплексными узлами в предыдущем слое и имеющих
изменяемую силу синапсов, настраиваемую таким образом, чтобы выработать
максимальную реакцию на определенные стимулирующие свойства. Некоторые из
этих синапсов являются возбуждающими и стремятся увеличить выход узлов,
в то время как другие являются тормозящими и уменьшают выход узла.
[pic]
Рис. 10.11. Связи от сложных клеток одного уровня к простым клеткам
следующего уровня.
На рис. 10.11 показана полная структура синаптических связей между
простым узлом и комплексными узлами в предшествующем слое. Каждый
простой узел реагирует только на набор комплексных узлов внутри своей
рецептивной области. Кроме того, существует тормозящий узел, реагирующий
на те же самые комплексные узлы. Веса синапсов тормозящего узла не
обучаются; они выбираются таким образом, чтобы узел реагировал на
среднюю величину выходов всех узлов, к которым он подключен.
Единственный тормозящий синапс от тормозящего узла к простому узлу
обучается, как и другие синапсы. Обучение без учителя. Для
обучения неокогнитрона на вход сети подается образ, который необходимо
распознать, и веса синапсов настраиваются слой за слоем, начиная с
набора простых узлов, ближайших ко входу. Величина синаптической
связи от каждого комплексного узла к данному простому узлу
увеличивается тогда и только тогда, когда удовлетворяются следующие два
условия: 1) комплексный узел реагирует; 2) простой узел реагирует
более сильно, чем любой из его соседних (внутри его области
конкуренции). Таким образом, простой узел обучается реагировать
более сильно на образы, появляющиеся наиболее часто в его рецептивной
области, что соответствует результатам исследований, полученных в
экспериментах с котятами. Если распознаваемый образ отсутствует на
входе, тормозящий узел предохраняет от случайного возбуждения.
Математическое описание процесса обучения и метод реализации
латерального торможения аналогичны описанным для когнитрона, поэтому
здесь они не повторяются. Необходимо отметить, что выходы простых и
комплексных узлов являются аналоговыми, непрерывными и линейными и
что алгоритм обучения предполагает их неотрицательность. Когда
выбирается простой узел, веса синапсов которого должны быть
увеличены, он рассматривается как представитель всех узлов в
плоскости, вызывая увеличение их синаптических связей на том же
самом образе. Таким образом, все узлы в плоскости обучаются
распознавать одни и те же свойства, и после обучения будут делать
это независимо от позиции образа в поле комплексных узлов в
предшествующем слое. Эта система имеет ценную способность к
самовосстановлению. Если данный узел выйдет из строя, будет найден
другой узел, реагирующий более сильно, и этот узел будет обучен
распознаванию входного образа, тем самым перекрывая действия своего
отказавшего товарища.
Обучение с учителем. В работах [3] и [8] описано самоорганизующееся
неуправляемое обучение. Наряду с этими впечатляющими
результатами, были опубликованы отчеты о других экспериментах,
использующих обучение с учителем [9]. Здесь требуемая реакция
каждого слоя заранее определяется экспериментатором. Затем веса
настраиваются с использованием обычных методов для выработки
требуемой реакции. Например, входной слой настраивался для
распознавания отрезков линий в различных ориентациях во многом
аналогично первому слою обработки зрительной коры. Последующие слои
обучались реагировать на более сложные и абстрактные свойства до тех
пор, пока в выходном слое требуемый образ не будет выделен. При
обработке сети, превосходно распознающей рукописные арабские цифры,
экспериментаторы отказались от достижения биологического правдоподобия,
обращая внимание только на достижение максимальной точности
результатов системы.
Реализация обучения. В обычных конфигурациях рецептивное поле
каждого нейрона возрастает при переходе к следующему слою. Однако
количество нейронов в слое будет уменьшаться при переходе от входных к
выходным слоям. Наконец, выходной слой имеет только один нейрон в
плоскости сложных узлов. Каждый такой нейрон представляет определенный
входной образ, которому сеть была обучена. В процессе классификации
входной образ подается на вход неокогнитрона и вычисляются выходы слой
за слоем, начиная с входного слоя. Так как только небольшая часть
входного образа подается на i вход каждого простого узла входного
слоя, некоторые простые узлы регистрируют наличие характеристик, которым
они обучены, и возбуждаются. В следующем слое выделяются более сложные
характеристики как определенные комбинации выходов комплексных
узлов. Слой за слоем свойства комбинируются во все возрастающем
диапазоне; выделяются более общие характеристики и уменьшается
позиционная чувствительность. В идеальном случае только один
нейрон выходного слоя должен возбудиться. В действительности обычно
будет возбуждаться несколько нейронов с различной силой, и входной
образ должен быть определен с учетом соотношения их выходов. Если
используется сила латерального торможения, возбуждаться будет только
нейрон с максимальным выходом. Однако это часто является не лучшим
вариантом. На практике простая функция от небольшой группы наиболее
сильно возбужденных нейронов будет часто улучшать точность классификации.
ЗАКЛЮЧЕНИЕ
Как когнитрон, так и неокогнитрон производят большое впечатление с
точки зрения точности, с которой они моделируют биологическую нервную
систему. Тот факт, что эти системы показывают результаты, имитирующие
некоторые аспекты способностей человека к обучению и познанию, наводит
на мысль, что наше понимание функций мозга приближается к уровню,
способному принести практическую пользу. Неокогнитрон является
сложной системой и требует существенных вычислительных ресурсов. По
этим причинам кажется маловероятным, что такие системы реализуют
оптимальное инженерное решение сегодняшних проблем распознавания
образов. Однако с 1960 г. стоимость вычислений уменьшалась в два раза
каждые два-три года, тенденция, которая, по всей вероятности,
сохранится в течение как минимум ближайших десяти лет. Несмотря на то,
что многие подходы, казавшиеся нереализуемыми несколько лет назад,
являются общепринятыми сегодня и могут оказаться тривиальными через
несколько лет, реализация моделей неокогнитрона на универсальных
компьютерах является бесперспективной. Необходимо достигнуть
тысячекратных улучшений стоимости и производительности компьютеров за
счет специализации архитектуры и внедрения технологии СБИС, чтобы
сделать неокогнитрон практической системой для решения сложных проблем
распознавания образов, однако ни эта, ни какая- либо другая модель
искусственных нейронных сетей не должны отвергаться только на основании
их высоких вычислительных требований.
Приложение А Биологические нейронные сети
ЧЕЛОВЕЧЕСКИЙ МОЗГ: БИОЛОГИЧЕСКАЯ МОДЕЛЬ ДЛЯ ИСКУССТВЕННЫХ НЕЙРОННЫХ СЕТЕЙ
Структура искусственных нейронных сетей была смоделирована как
результат изучения человеческого мозга. Как мы отмечали выше, сходство
между ними в действительности очень незначительно, однако даже эта скромная
эмуляция мозга приносит ощутимые результаты. Например, искусственные
нейронные сети имеют такие аналогичные мозгу свойства, как способность
обучаться на опыте, основанном на знаниях, делать абстрактные умозаключения
и совершать ошибки, что является более характерным для человеческой мысли,
чем для созданных человеком компьютеров.
Учитывая успехи, достигнутые при использовании грубой модели мозга,
кажется естественным ожидать дальнейшего продвижения вперед при
использовании более точной модели. Разработка такой модели требует
детального понимания структуры и функций мозга. Это в свою очередь требует
определения точных характеристик нейронов, включая их вычислительные
элементы и элементы связи. К сожалению, информация не является полной;
большая часть мозга остается тайной для понимания. Основные исследования
проведены в области идентификации функций мозга, однако и здесь отсутствуют
подходы, отличающиеся от чисто «схематических». Биохимия нейронов,
фундаментальных строительных блоков мозга, очень неохотно раскрывает свои
секреты. Каждый год приносит новую информацию относительно
электрохимического поведения нейронов, причем всегда в направлении
раскрытия новых уровней сложности. Ясно одно: нейрон является намного более
сложным, чем представлялось несколько лет назад, и нет полного понимания
процесса его функционирования.
Однако, несмотря на наши ограниченные познания, мозг может быть
использован в качестве ценной модели в вопросах развития искусственных
нейронных сетей. Используя метод проб и ошибок, эволюция, вероятно, привела
к структурам, оптимальным образом пригодным для решения проблем, более
характерных для человека. Кажется маловероятным, что мы получим более
хорошее решение. Тщательно моделируя мозг, мы продвигаемся в исследовании
природы и в будущем будем, вероятно, воспроизводить больше возможностей
мозга.
Данное приложение содержит штриховые наброски современных знаний
относительно структуры и функций мозга. Хотя изложение этих сведений очень
краткое, мы пытались сохранить точность. Следующие разделы иллюстрируют
текст данной работы и, возможно, будут стимулировать интерес к
биологическим системам, что приведет к развитию искусственных нейронных
сетей.
ОРГАНИЗАЦИЯ ЧЕЛОВЕЧЕСКОГО МОЗГА
Человеческий мозг содержит свыше тысячи миллиардов вычислительных
элементов, называемых нейронами. Превышая по количеству число звезд в
Млечном Пути галактики, эти нейроны связаны сотнями триллионов нервных
нитей, называемых синапсами. Эта сеть нейронов отвечает за все явления,
которые мы называем мыслями, эмоциями, познанием, а также и за совершение
мириадов сенсомоторных и автономных функций. Пока мало понятно, каким
образом все это происходит, но уже исследовано много вопросов
физиологической структуры и определенные функциональные области постепенно
изучаются исследователями.
Мозг также содержит густую сеть кровеносных сосудов, которые
обеспечивают кислородом и питательными веществами нейроны и другие ткани.
Эта система кровоснабжения связана с главной системой кровообращения
посредством высокоэффективной фильтрующей системы, называемой
гематоэнцефалическим барьером, этот барьер является механизмом защиты,
который предохраняет мозг от возможных токсичных веществ, находящихся в
крови.
Защита обеспечивается низкой проницаемостью кровеносных сосудов мозга,
а также плотным перекрытием глиальных клеток, окружающих нейроны. Кроме
этого, глиальные клетки обеспечивают структурную основу мозга. Фактически
весь объем мозга, не занятый нейронами и кровеносными сосудами, заполнен
глиальными клетками.
Гематоэнцефалический барьер является основой для обеспечения
сохранности мозга, но он значительно осложняет лечение терапевтическими
лекарствами. Он также мешает исследованиям, изучающим влияние различных
химических веществ на функции мозга. Лишь небольшая часть лекарств,
созданных с целью влияния на мозг, может преодолевать этот барьер.
Лекарства состоят из небольших молекул, способных проникать через крошечные
поры в кровеносных сосудах. Чтобы воздействовать на функции мозга, они
должны затем пройти через глиальные клетки или раствориться в их мембране.
Лишь некоторые молекулы интересующих нас лекарств удовлетворяют этим
требованиям; молекулы многих терапевтических лекарств задерживаются этим
барьером.
Мозг является основным потребителем энергии тела. Включая в себя лишь
2% массы тела, в состоянии покоя он использует приблизительно 20% кислорода
тела. Даже когда мы спим, расходование энергии продолжается. В
действительности существуют доказательства возможности увеличения
расходования энергии во время фазы сна, сопровождаемой движением глаз.
Потребляя только 20 Вт, мозг с энергетической точки зрения невероятно
эффективен. Компьютеры с одной крошечной долей вычислительных возможностей
мозга потребляют много тысяч ватт и требуют сложных средств для охлаждения,
предохраняющего их от температурного саморазрушения.
Нейрон
Нейрон является основным строительным блоком нервной системы. Он является
клеткой, подобной всем другим клеткам тела; однако определенные
существенные отличия позволяют ему выполнять все вычислительные функции и
функции связи внутри мозга.
Функционально дендриты получают сигналы от других клеток через
контакты, называемые синапсами. Отсюда сигналы проходят в тело клетки, где
они суммируются с другими такими же сигналами. Если суммарный сигнал в
течение короткого промежутка времени является достаточно большим, клетка
возбуждается, вырабатывая в аксоне импульс, который передается на следующие
клетки. Несмотря на очевидное упрощение, эта схема функционирования
объясняет большинство известных процессов мозга.
[pic]
Тело ячейки. Нейроны в мозгу взрослого человека не восстанавливаются;
они отмирают. Это означает, что все компоненты должны непрерывно
заменяться, а материалы обновляться по мере необходимости. Большинство этих
процессов происходит в теле клетки, где изменение химических факторов
приводит к большим изменениям сложных молекул. Кроме этого, тело клетки
управляет расходом энергии нейрона и регулирует множество других процессов
в клетке. Внешняя мембрана тела клетки нейрона имеет уникальную способность
генерировать нервные импульсы (потенциалы действия), являющиеся жизненными
функциями нервной системы и центром ее вычислительных способностей.
[pic]
Были идентифицированы сотни типов нейронов, каждый со своей характерной
формой тела клетки (рис. А.2), имеющей обычно от 5 до 100 мкм в диаметре. В
настоящее время этот факт рассматривается как проявление случайности,
однако могут быть найдены различные морфологические конфигурации,
отражающие важную функциональную специализацию. Определение функций
различных типов клеток является в настоящее время предметом интенсивных
исследований и основой понимания обрабатывающих механизмов мозга.
Дендриты. Большинство входных сигналов от других нейронов попадают в
клетку через дендриты, представляющие собой густо ветвящуюся структуру,
исходящую от тела клетки. На дедритах располагаются синаптические
соединения, которые получают сигналы от других аксонов. Кроме этого,
существует огромное количество синаптичес-ких связей от аксона к аксону, от
аксона к телу клетки и от дендрита к дендриту; их функции не очень ясны, но
они слишком широко распространены, чтобы не считаться с ними.
В отличие от электрических цепей, синаптические контакты обычно не
являются физическими или электрическими соединениями. Вместо этого имеется
узкое пространство, называемое синаптической щелью, отделяющее дендрит от
передающего аксона. Специальные химические вещества, выбрасываемые аксоном
в синаптическую щель, диффундируют к дендриту. Эти химические вещества,
называемые нейротрансмиттерами, улавливаются специальными рецепторами на
дендрите и внедряются в тело клетки.
Определено более 30 видов нейротрансмиттеров. Некоторые из них
являются возбуждающими и стремятся вызывать возбуждение клетки и выработать
выходной импульс. Другие являются тормозящими и стремятся подавить такой
импульс. Тело клетки суммирует сигналы, полученные от дендритов, и если их
результирующий сигнал выше порогового значения, вырабатывается импульс,
проходящий по аксону к другим нейронам.
Аксон. Аксон может быть как коротким (0,1 мм), так и превышать длину 1
м, распространяясь в другую часть тела человека. На конце аксон имеет
множество ветвей, каждая из которых завершается синапсом, откуда сигнал
передается в другие нейроны через дендриты, а в некоторых случаях прямо в
тело клетки. Таким образом, всего один нейрон может генерировать импульс,
который возбуждает или затормаживает сотни или тысячи других нейронов,
каждый из которых, в свою очередь, через свои дендриты может воздействовать
на сотни или тысячи других нейронов. Таким образом, эта высокая степень
связанности, а не функциональная сложность самого нейрона, обеспечивает
нейрону его вычислительную мощность.
Синаптическая связь, завершающая ветвь аксона, представляет собой
маленькие утолщения, содержащие сферические структуры, называемые
синаптическими пузырьками, каждый из которых содержит большое число
нейротрансмиттерных молекул. Когда нервный импульс приходит в аксон,
некоторые из этих пузырьков высвобождают свое содержимое в синаптическую
щель, тем самым инициализируя процесс взаимодействия нейронов
(рис. А.З).
Кроме распространения такого бинарного сигнала, обеспечиваемого
возбуждением первого импульса, в нейронах при слабой стимуляции могут также
распространяться электрохимические сигналы с последовательной
реакцией. Локальные по своей природе, эти сигналы быстро затухают с
удалением от места возбуждения, если не будут усилены. Природа использует
это свойство первых клеток путем создания вокруг аксонов изолирующей
оболочки из шванковских клеток. Эта оболочка, называемая миелиновой,
прерывается приблизительно через каждый миллиметр вдоль аксона узкими
разрывами, называемыми узлами, или перехватами Ранвье. Нервные импульсы,
приходящие в аксон, передаются екачкообразно от узла к узлу. Таким образом,
аксону нет нужды расходовать энергию для поддержания своего химического
градиента по всей своей длине. Только оставшиеся неизолированными перехваты
Ранвье являются объектом генерации первого импульса; для передачи сигнала
от узла к узлу более эффективными являются градуальные реакции. Кроме этого
свойства оболочки, обеспечивающего сохранение энергии, известны ее другие
свойства. Например, миелинизирован-ные нервные окончания передают сигналы
значительно быстрее немиелинизированных. Обнаружено, что некоторые болезни
приводят к ухудшению этой изоляции, что, по-видимому, является причиной
других болезней.
Мембрана клетки
В мозгу существует 2 типа связей: передача химических сигналов через
синапсы и передача электрических сигналов внутри нейрона. Великолепное
сложное действие мембраны создает способность клетки вырабатывать и
передавать оба типа этих сигналов.
Мембрана клетки имеет около 5 нм толщины и состоит из двух слоев
липидных молекул. Встроенные в мембрану различные специальные протеины
можно разделить на пять классов: насосы, каналы, рецепторы, энзимы и
структурные протеины.
Насосы активно перемещают ионы через мембрану клетки для поддержания
градиентов концентрации. Каналы пропускают ионы выборочно и управляют их
прохождением через мембрану. Некоторые каналы открываются или закрываются
распространяющимся через мембрану электрическим потенциалом, тем самым
обеспечивая быстрое и чувствительное средство изменения ионных градиентов.
Другие типы каналов управляются химически, изменяя свою проницаемость при
получении химических носителей.
Рецепторами являются протеины, которые распознают и присоединяют многие
типы молекул из окружения клетки с большой точностью. Энзимы оболочки
ускоряют разнообразные химические реакции внутри или около клеточной
мембраны. Структурные протеины соединяют клетки и помогают поддерживать
структуру самой клетки.
Внутренняя концентрация натрия в клетке в 10 раз ниже, чем в ее
окружении, а концентрация калия в 10 раз выше. Эти концентрации стремятся к
выравниванию с помощью утечки через поры в мембране клетки. Чтобы сохранить
необходимую концентрацию, протеиновые молекулы мембраны, называемые
натриевыми насосами, постоянно отсасывают натрий из клетки и подкачивают
калий в клетку. Каждый насос перемещает приблизительно две сотни ионов
натрия и около ста тридцати ионов калия в секунду. Нейрон может иметь
миллионы таких насосов, перемещающих сотни миллионов ионов калия и натрия
через мембрану клетки в каждую секунду. На концентрацию калия внутри ячейки
влияет также наличие большого числа постоянно открытых калиевых каналов,
т.е. протеиновых молекул, которые хорошо пропускают ионы калия в клетку,
но препятствуют прохождению натрия. Комбинация этих двух механизмов
отвечает за создание и поддержание динамического равновесия,
соответствующего состоянию нейрона в покое.
Градиент ионной концентрации в мембране клетки вырабатывает внутри
клетки электрический потенциал -70 мВ относительно ее окружения. Чтобы
возбудить клетку (стимулировать возникновение потенциала действия)
синаптические входы должны уменьшить этот уровень до приблизительно -50 мВ.
При этом потоки натрия и калия сразу направляются в обратную сторону; в
течение миллисекунд внутренний потенциал клетки становится +50 мВ
относительно внешнего окружения. Это изменение полярности быстро
распространится через клетку, заставляя нервный импульс
распространиться по всему аксону до его пресинаптических окончаний.
Когда импульс достигнет окончания аксона, открываются управляемые
напряжением кальциевые каналы. Это вызывает освобождение нейротран-
смиттерных молекул в синаптическую щель и процесс распространяется на
другие нейроны. После генерации потенциала действия клетка войдет в
рефракторный период на несколько миллисекунд, в течении которого она
восстановит свой первоначальный потенциал для подготовки к генерации
следующего импульса.
Рассмотрим этот процесс более детально. Первоначальное получение
нейротрансмиттерных молекул снижает внутренний потенциал клетки с -70 до
-50 мВ. При этом зависимые от потенциала натриевые каналы открываются,
позволяя натрию проникнуть в клетку. Это еще более уменьшает потенциал,
увеличивая приток натрия в клетку, и создает самоусиливающийся процесс,
который быстро распространяется в соседние области, изменяя локальный
потенциал клетки с отрицательного до положительного.
Через некоторое время после открытия натриевые каналы закрываются, а
калиевые каналы открываются. Это создает усиленный поток ионов калия из
клетки, что восстанавливает внутренний потенциал -70 мВ. Это быстрое
изменение напряжения образует потенциал действия, который быстро
распространяется по всей длине аксона подобно лавине.
Натриевые и калиевые каналы реагируют на потенциал клетки и,
следовательно, можно сказать, что они управляют напряжением. Другой тип
каналов является химически управляемым. Эти каналы открываются только
тогда, когда специальная нейротрансмиттерная молекула попадает на рецептор,
и они совсем не чувствительны к напряжению.
Такие каналы обнаруживаются в постсинаптических мембранах на дендритах
и ответственны за реакцию нейронов на воздействие различных
нейротрансмиттерных молекул. Чувствительный к ацетилхолину белок
(ацетилхолиновый рецептор) является одним из таких химических каналов.
Когда молекулы ацетилхолина выделяются в синаптическую щель, они
диффундируют к ацетилхолиновым рецепторам, входящим в постсинаптическую
мембрану. Эти рецепторы (которые также являются каналами) затем
открываются, обеспечивая свободный проход как калия, так и натрия через
мембрану. Это приводит к кратковременному локальному уменьшению
отрицательного внутреннего потенциала клетки (формируя положительный
импульс). Так как импульсы являются короткими и слабыми, то чтобы заставить
клетку выработать необходимый электрический потенциал, требуется открытие
многих таких каналов.
Ацетилхолиновые рецепторы-каналы пропускают и натрий, и калий,
вырабатывая тем самым положительные импульсы. Такие импульсы являются
возбуждающими, поскольку они способствуют появлению необходимого
потенциала. Другие химически управляемые каналы пропускают только калиевые
ионы из клетки, производя отрицательный импульс; эти импульсы являются
тормозящими, поскольку они препятствуют возбуждению клетки.
Гамма-аминомасляная кислота (ГАМК) является одним из более общих
тормозных нейротрансмиттеров. Обнаруженная почти исключительно в головном и
спинном мозге, она попадает на рецептор канала, который выборочно
пропускает ионы хлора. После входа эти ионы увеличивают отрицательный
потенциал клетки и тем самым препятствуют ее возбуждению. Дефицит ГАМК
связан с хореей Хантингтона, имеющей нейрологический синдром, вызывающий
бесконтрольное движение мускулатуры. К несчастью,
гематоэнцефалический барьер препятствует увеличению снабжения ГАМК, и
как выйти из этого положения, пока неизвестно. Вероятно, что и другие
нейрологические и умственные растройства будут наблюдаться при подобных
нарушениях в нейротрансмиттерах или других химических носителях. Уровень
возбуждеия нейрона определяется кумулятивным эффектом большого числа
возбуждающих и тормозящих входов, суммируемых телом клетки в течение
короткого временного интервала. Получение возбуждающей нейротрансмиттерной
молекулы будет увеличивать уровень возбуждения нейрона; их меньшее
количество или смесь тормозящих молекул уменьшает уровень возбуждения.
Таким образом, нейронный сигнал является импульсным или частотно-
модулируемым (ЧМ). Этот метод модуляции, широко используемый в технике
(например, ЧМ-радио), имеет значительные преимущества при наличии помех по
сравнению с другими способами. Исследования показали изумляющую сложность
биохимических процессов в мозге. Например, предполагается наличие свыше 30
вешеств, являющихся нейротрансмиттерами, и большое количество рецепторов с
различными ответными реакциями. Более того, действие определенных
нейротрансмиттерных молекул зависит от типа рецептора в постсинаптической
мембране, некоторые нейротрансмиттеры могут быть возбуждающими для одного
синапса и тормозящими для другого. Кроме того, внутри клетки существует
система «вторичного переносчика», которая включается при
получении нейротрансмиттера, что приводит к выработке большого количества
молекул циклического аденозинтрифосфата, тем самым производя значительное
усиление физиологических
реакций.
Исследователи всегда надеются найти простые образы для унификации
сложных и многообразных наблюдений. Для нейробиологических исследований
такие простые образы до сих пор не найдены. Большинство результатов
исследований подвергаются большому сомнению прежде, чем ими воспользуются.
Одним из таких результатов в изучении мозга явилось открытие
множества видов электрохимической деятельности, обнаруженных в работе
мозга; задачей является их объединение в связанную функциональную модель.
КОМПЬЮТЕРЫ И ЧЕЛОВЕЧЕСКИЙ МОЗГ
Существует подобие между мозгом и цифровым компьютером: оба оперируют
электронными сигналами, оба состоят из большого количества простых
элементов, оба выполняют функции, являющиеся, грубо говоря,
вычислительными. Тем не менее существуют и фундаментальные
отличия. По сравнению с микросекундными и даже наносекундными
интервалами вычислений современных компьютеров нервные импульсы являются
слишком медленными. Хотя каждый нейрон требует наличия миллисекундного
интервала между передаваемыми сигналами, высокая скорость вычислений мозга
обеспечивается огромным числом параллельных вычислительных блоков, причем
количество их намного превышает доступное современным ЭВМ. Диапазон
ошибок представляет другое фундаментальное отличие: ЭВМ присуща свобода от
ошибок, если входные сигналы безупречно точны и ее аппаратное и программное
обеспечение не повреждены. Мозг же часто производит лучшее угадывание и
приближение при частично незавершенных и неточных входных сигналах. Часто
он ошибается, но величина ошибки должна гарантировать наше выживание в
течение миллионов лет.
Первые цифровые вычислители часто рассматривались как «электронный
мозг». С точки зрения наших текущих знаний о сложности мозга, такое
заявление оптимистично, да и просто не соответствует истине. Эти две
системы явно различаются в каждой своей части. Они
оптимизированы для решения различных типов проблем, имеют существенные
различия в структуре и их работа оценивается различными критериями.
Некоторые говорят, что искусственные нейронные сети когда-нибудь
будут дублировать функции человеческого мозга. Прежде чем
добиться этого, необходимо понять организацию и функции мозга. Эта
задача, вероятно, не будет решена в ближайшем будущем. Надо отметить то,
что современные нейросети базируются на очень упрощенной модели,
игнорирующей большинство тех знаний, которые мы имеем о
детальном функционировании мозга. Поэтому необходимо разработать более
точную модель, которая могла бы качественнее моделировать работу мозга.
Прорыв в области искусственных нейронных сетей будет требовать развития
их теоретического фундамента. Теоретические выкладки, в свою
очередь, должны предваряться улучшением математических методов,
поскольку исследования серьезно тормозятся нащей неспособностью
иметь дело с такими системами. Успокаивает тот факт, что
современный уровень математического обеспечения был достигнут под
влиянием нескольких превосходных исследователей. В
действительности аналитические проблемы являются сверхтрудными,
так как рассматриваемые системы являются очень сложными нелинейными
динамическими системами. Возможно, для описания систем, имеющих сложность
головного мозга, необходимы совершенно новые математические
методы. Может быть и так, что разработать полностью
удовлетворяющий всем требованиям аппарат невозможно.
Несмотря на существующие проблемы, желание смоделировать
человеческий мозг не угасает, а получение зачаровывающих результатов
вдохновляет на дальнейшие усилия. Успешные модели, основанные на
предположениях о структуре мозга, разрабатываются нейроанатомами и
нейрофизиологами с целью их изучения для согласования структуры и функций
этих моделей. С другой стороны, успехи в биологической науке ведут к
модификации и тщательной разработке искуственных моделей. Аналогично
инженеры применяют искусственные модели для реализации мировых проблем и
получают положительные результаты, несмотря на отсутствие полного
взаимопонимания.
Объединение научных дисциплин для изучения проблем искусственных нейросетей
принесет эффективные результа ты, которые могут стать беспримерными в
истории науки. Биологи, анатомы, физиологи, инженеры, математики и даже
философы активно включились в процесс исследований. Проблемы являются
сложными, но цель высока: познается сама человеческая мысль.
Приложение Б Алгоритмы обучения
Искусственные нейронные сети обучаются самыми разнообразными методами.
К счастью, большинство методов обучения исходят из общих предпосылок и
имеет много идентичных характеристик. Целью данного приложения является
обзор некоторых фундаментальных алгоритмов, как с точки зрения их текущей
применимости, так и с ' точки зрения их исторической важности. После
ознакомления с этими фундаментальными алгоритмами другие, основанные на
них, алгоритмы будут достаточно легки для понимания и новые разработки
также могут быть лучше поняты и развиты.
ОБУЧЕНИЕ С УЧИТЕЛЕМ И БЕЗ УЧИТЕЛЯ
Обучающие алгоритмы могут быть классифицированы как алгоритмы обучения
с учителем и без учителя. В первом случае существует учитель, который
предъявляет входные образы сети, сравнивает результирующие выходы с
требуемыми, а затем настраивает веса сети таким образом, чтобы уменьшить
различия. Трудно представить такой обучающий механизм в биологических
системах; следовательно, хотя данный подход привел к большим успехам при
решении прикладных задач, он отвергается исследователями, полагающими, что
искусственные нейронные сети обязательно должны использовать те же
механизмы, что и человеческий мозг.
Во втором случае обучение проводится без учителя, при предъявлении
входных образов сеть самоорганизуется посредством настройки своих весов
согласно определенному алгоритму. Вследствие отсутствия указания требуемого
выхода в процессе обучения результаты непредсказуемы с точки зрения
определения возбуждающих образов для конкретных нейронов. При этом, однако,
сеть организуется в форме, отражающей существенные характеристики
обучающего набора. Например, входные образы могут быть классифицированы
согласно степени их сходства так, что образы одного класса активизируют
один и тот же выходной ней рон.
МЕТОД ОБУЧЕНИЯ ХЭББА
Работа [2] обеспечила основу для большинства алгоритмов обучения,
которые были разработаны после ей выхода. В предшествующих этой работе
трудах в обп^ виде определялось, что обучение в биологических системах
происходит посредством некоторых физических изменений в нейронах, однако
отсутствовали идеи о том, каки» образом это в действительности может иметь
место. Основываясь на физиологических и психологических исследованиях, Хэбб
в [2] интуитивно выдвинул гипотезу о том, каким образом может обучаться
набор биологических нейронов. Его теория предполагает только локальное
взаимодействие между нейронами при отсутствии глобального учителя;
следовательно, обучение является неуправляемым. Несмотря на то что его
работа не включает математического анализа, идеи, изложенные в ней,
настолько ясны и непринужденны, что получили статус универсальных
допущений. Его книга стала классической и широко изучается специалистами,
имеющими серьезный интерес в этой области.
Алгоритм обучения Хебба
По существу Хэбб предположил, что синаптическое соединение двух
нейронов усиливается, если оба эти нейрона возбуждены. Это можно
представить как усиление синапса в соответствии с корреляцией уровней
возбужденных нейронов, соединяемых данным синапсом. По этой причине
алгоритм обучения Хэбба иногда называется корреляционным алгоритмом. Идея
алгоритма выражается следующим равенством:
[pic]
где (ij(t) - сила синапса от нейрона i к нейрону j ,в момент времени t,
NETi - уровень возбуждения пресинаптического нейрона; NETj - уровень
возбуждения постсинаптического нейрона.
Концепция Хэбба отвечает на сложный вопрос, каким образом обучение
может проводиться без учителя. В методе Хэбба обучение является
исключительно локальным явлением, охватывающим только два нейрона и
соединяющий их синапс; не требуется глобальной системы обратной связи
для развития нейронных образований.
Последующее использование метода Хэбба для обучения нейронных сетей привело
к большим успехам, но наряду с этим показало ограниченность метода;
некоторые образы просто не могут использоваться для обучения этим методом.
В результате появилось большое количество расширений и нововведений,
большинство из которых в значительной степени основано на работе Хэбба.
Метод сигнального обучения Хэбба
Как мы видели, выход NET простого искусственного нейрона является
взвешенной суммой его входов. Это может быть выражено следующим
образом:
[pic]
где NETj - выход NET нейрона j; OUTi - выход нейрона i; w,. - вес связи
нейрона i с нейроном j. Можно показать, что в этом случае линейная
многослойная сеть не является более мощной, чем однословная сеть;
рассматриваемые возможности сети могут быть улучшены только введением
нелинейности в передаточную функцию нейрона. Говорят, что сеть,
использующая сигмои-дальную функцию активации и метод обучения Хэбба,
обучается по сигнальному методу Хэбба. В этом случае уравнение Хэбба
модифицируется следующим образом:
[pic]
где (ij(t) - сила синапса от нейрона i к нейрону j в момент времени t,
OUTi - выходной уровень пресинаптического нейрона равный F(NETi); OUTj
- выходной уровень постсинаптического нейрона равный F(NETj).
Метод дифференциального обучения Хэбба
Метод сигнального обучения Хэбба предполагает вычисление
свертки предыдущих изменений выходов для определения изменения весов.
Настоящий метод, называемый методом дифференциального обучения
Хэбба, использует следующее равенство:
[pic]
где (ij(t) - сила синапса от нейрона i к нейрону j в момент времени t,
OUTi(t) - выходной уровень пресинап-тического нейрона в момент времени
t, OUTj(t) - выходной уровень постсинаптического нейрона в момент
времени t.
[pic]
ВХОДНЫЕ И ВЫХОДНЫЕ ЗВЕЗДЫ
Много общих идей, используемых в искусственных нейронных сетях,
прослеживаются в работах Гроссберга; в качестве примера можно указать
конфигурации входных и выходных звезд [1], используемые во многих
сетевых парадигмах. Входная звезда, как показано на рис. Б.1, состоит
из нейрона, на который подается группа входов через синапсические
веса. Выходная звезда, показанная на рис. Б.2, является нейроном,
управляющим группой весов. Входные и выходные звезды могут быть
взаимно соединены в сети любой сложности; Гроссберг рассматривает их
как модель определенных биологических функций. Вид звезды определяет ее
название, однако звезды обычно изображаются в сети иначе.
[pic]
Обучение входной звезды
Входная звезда выполняет распознавание образов, т.е. она
обучается реагировать на определенный входной вектор Хинина какой
другой. Это обучение реализуется путем настройки весов таким образом,
чтобы они соответствовали входному вектору. Выход входной звезды
определяется как взвешенная сумма ее входов, как это описано в
предыдущих разделах. С другой точки зрения, выход можно
рассматривать как свертку входного вектора с весовым вектором, меру
сходства нормализованных векторов. Следовательно, нейрон должен
реагировать наиболее сильно на входной образ, которому был обучен.
Процесс обучения выражается следующим образом:
[pic]
где (i - вес входа хi ; хi - i-й вход; ( - нормирующий коэффициент
обучения, который имеет начальное значение 0,1 и постепенно уменьшается в
процессе обучения. После завершения обучения предъявление
входного вектора Х будет активизировать обученный входной нейрон. Это
можно рассматривать как единый обучающий цикл, если « установлен в 1,
однако в этом случае исключается способность входной звезды к обобщению.
Хорошо обученная входная звезда будет реагировать не только на
определенный единичный вектор, но также и на незначительные изменения
этого вектора. Это достигается постепенной настройкой нейронных весов
при предъявлении в процессе обучения векторов, представляющих
нормальные вариации входного вектора. Веса настраиваются таким
образом, чтобы усреднить величины обучающих векторов, и нейроны получают
способность реагировать на любой вектор этого класса.
Обучение выходной звезды
В то время как входная звезда возбуждается всякий раз при
появлении определенного входного вектора, выходная звезда имеет
дополнительную функцию; она вырабатывает требуемый возбуждающий сигнал
для других нейронов всякий раз, когда возбуждается. Для того чтобы
обучить нейрон выходной звезды, его веса настраиваются в соответствии с
требуемым целевым вектором. Алгоритм обучения может быть
представлен символически следующим образом:
[pic]
где ( представляет собой нормирующий коэффициент обучения, который в
начале приблизительно равен единице и постепенно уменьшается до нуля в
процессе обучения. Как и в случае входной звезды, веса выходной
звезды, постепенно настраиваются над множеством векторов,
представляющих собой обычные вариации идеального вектора. В этом случае
выходной сигнал нейронов представляет собой статистическую характеристику
обучающего набора и может в действительности сходиться в процессе
обучения к идеальному вектору при предъявлении только искаженных версий
вектора.
ОБУЧЕНИЕ ПЕРСЕПТРОНА
В 1957 г. Розенблатт [4] разработал модель, которая вызвала
большой интерес у исследователей. Несмотря на некоторые ограничения ее
исходной формы, она стала основой для многих современных, наиболее
сложных алгоритмов обучения с учителем. Персептрон является
настолько важным, что вся гл. 2 посвящена его описанию; однако это
описание является кратким и приводится в формате, несколько отличном от
используемого в [4]. Персептрон является двухуровневой,
нерекуррентной сетью, вид которой показан на рис. Б.З. Она использует
алгоритм обучения с учителем; другими словами, обучающая выборка
состоит из множества входных векторов, для каждого из которых указан
свой требуемый вектор цели. Компоненты входного вектора представлены
непрерывным диапазоном значений; компоненты вектора цели являются
двоичными величинами (0 или 1). После обучения сеть получает на
входе набор непрерывных входов и вырабатывает требуемый выход в виде
вектора с бинарными компонентами. Обучение осуществляется следующим
образом: 1. Рандомизируются все веса сети в малые величины. 2.
На вход сети подается входной обучающий вектор Х и вычисляется сигнал
NET от каждого нейрона, используя стандартное выражение
[pic]
Вычисляется значение пороговой функции актива ции для сигнала NET от
каждого нейрона следующим обра зом:
OUTj = 1, если NET больше чем порог (j,
OUTj = 0, в противном случае.
[pic]
Здесь (j представляет собой порог, соответствующий нейрону j (в
простейшем случае, все нейроны имеют один и тот же порог).
4. Вычисляется ошибка для каждого нейрона посредством вычитания
полученного выхода из требуемого выхода:
[pic]
5. Каждый вес модифицируется следующим образом:
[pic]
6. Повторяются шаги со второго по пятый до тех пор, пока ошибка
не станет достаточно малой.
МЕТОД ОБУЧЕНИЯ УИДРОУ—ХОФФА
Как мы видели, персептрон ограничивается бинарными выходами. Уидроу
вместе со студентом университета Хоф-фом расширили алгоритм обучения
персептрона на случай непрерывных выходов, используя сигмоидальную
функцию [5,6]. Кроме того, они разработали математическое доказательство
того, что сеть при определенных условиях будет сходиться к любой
функции, которую она может представить. Их первая модель - Адалин -
имеет один выходной нейрон, более поздняя модель - Мадалин - расширяет ее
на случай с многими выходными нейронами. Выражения, описывающие
процесс обучения Адалина, очень схожи с персептронными. Существенные
отличия имеются в четвертом шаге, где используются непрерывные сигналы NET
вместо бинарных OUT. Модифицированный шаг 4 в этом случае реализуется
следующим образом: 4. Вычислить ошибку для каждого нейрона, вычитая
сигнал NET из требуемого выхода:
[pic]
МЕТОДЫ СТАТИСТИЧЕСКОГО ОБУЧЕНИЯ
В гл. 5 детально описаны статистические методы обучения, поэтому
здесь приводится лишь обзор этих методов. Однослойные сети
несколько ограничены с точки зрения проблем, которые они могут
решать; однако в течение многих лет отсутствовали методы обучения
многослойных сетей. Статистическое обучение обеспечивает путь решения
этих проблем. По аналогии обучение сети статистическими способами
подобно процессу отжига металла. В процессе отжига температура металла
вначале повышается, пока атомы металла не начнут перемещаться
почти свободно. Затем температура постепенно уменьшается и атомы
непрерывно стремятся к минимальной энергетической конфигурации. При
некоторой низкой температуре атомы переходят на низший энергетический
уровень. В искуственн.ых нейронных сетях полная величина энергии
сети определяется как функция определенного множества сетевых
переменных. Искусственная переменная температуры инициируется в большую
величину, тем самым позволяя сетевым переменным претерпевать большие
случайные изменения. Изменения, приводящие к уменьшению полной энергии
сети, сохраняются; изменения, приводящие к увеличению энергии,
сохраняются в соответствии с вероятностной функцией. Искусственная
температура постепенно уменьшается с течением времени и сеть
конвергирует в состояние минимума полной энергии. Существует много
вариаций на тему статистического обучения. Например, глобальная энергия
может быть определена как средняя квадратичная ошибка между полученным и
желаемым выходным вектором из обучаемого множества, а переменными могут
быть веса сети. В этом случае сеть может быть обучена, начиная с
высокой искусственной температуры, путем выполнения следующих шагов:
1. Подать обучающий вектор на вход сети и вычислить выход согласно
соответствующим сетевым правилам.
2. Вычислить значение средней квадратичной ошибки между желаемым и
полученным выходными векторами.
3. Изменить сетевые веса случайным образом, затем вычислить новый
выход и результирующую ошибку. Если ошибка уменьшилась, оставить
измененный вес; если ошибка увеличилась, оставить измененный вес с
вероятностью, определяемой распределением Больцмана. Если
изменения весов не производится, то вернуть вес к его предыдущему
значению.
4. Повторить шаги с 1 по 3, постепенно уменьшая искусственную
температуру. Если величина случайного изменения весов
определяется в соответствии с распределением Больцмана,
сходимость к глобальному минимуму будет осуществляться только в
том случае, если температура изменяется обратно пропорционально
логарифму прошедшего времени обучения. Это может привести к
невероятной длительности процесса обучения, поэтому большое
внимание уделялось поиску более быстрых методов обучения. Выбором
размера шага в соответствии с распределением Коши может быть
достигнуто уменьшение температуры, обратно пропорциональное
обучающему времени, что существенно уменьшает время, требуемое
для сходимости. Заметим, что существует класс статистических
методов для нейронных сетей, в которых переменными сети
являются выходы нейронов, а не веса. В гл. 5 эти алгоритмы
рассматривались подробно.
САМООРГАНИЗАЦИЯ
В работе [3] описывались интересные и полезные результаты
исследований Кохонена на самоорганизующихся структурах, используемых для
задач распознавания образов. Вообще эти структуры классифицируют
образы, представленные векторными величинами, в которых каждый
компонент вектора соответствует элементу образа. Алгоритмы Кохонена
основываются на технике обучения без учителя. После обучения подача
входного вектора из данного класса будет приводить к выработке
возбуждающего уровня в каждом выходном нейроне; нейрон с максимальным
возбуждением представляет классификацию. Так как обучение проводится
без указания целевого вектора, то нет возможности определять
заранее, какой нейрон будет соответствовать данному классу входных
векторов. Тем не менее это планирование легко проводится путем
тестирования сети после обучения. Алгоритм трактует набор из п
входных весов нейрона как вектор в п-мерном пространстве. Перед
обучением каждый компонент этого вектора весов инициализируется в
случайную величину. Затем каждый вектор нормализуется в вектор с
единичной длиной в пространстве весов. Это делается делением каждого
случайного веса на квадратный корень из суммы квадратов компонент
этого весового вектора. Все входные вектора обучающего набора также
нормализуются и сеть обучается согласно следующему алгоритму:
1. Вектор Х подается на вход сети.
2. Определяются расстояния Dj (в n-мерном пространстве) между Х и
весовыми векторами (j каждого нейрона. В эвклидовом пространстве это
расстояние вычисляется по следующей формуле
[pic]
где xi - компонента i входного вектора X, (ij - вес входа i нейрона j.
3. Нейрон, который имеет весовой вектор, самый близкий к X,
объявляется победителем. Этот весовой вектор, называемый (c ,
становится основным в группе весовых векторов, которые лежат в
пределах расстояния D от (c .
3. Группа весовых векторов настраивается в соответствии со следующим
выражением:
[pic]
для всех весовых векторов в пределах расстояния D от (c
5. Повторяются шаги с 1 по 4 для каждого входного вектора.
В процессе обучения нейронной сети значения D и ос постепенно
уменьшаются. Автор [3] рекомендовал, чтобы коэффициент ( в начале
обучения устанавливался приблизительно равным 1 и уменьшался в процессе
обучения до О, в то время как D может в начале обучения равняться
максимальному расстоянию между весовыми векторами и в конце обучения
стать настолько маленьким, что будет обучаться только один нейрон.
В соответствии с существующей точкой зрения, точность классификации
будет улучшаться при дополнительном обучении. Согласно рекомендации
Кохонена, для получения хорошей статистической точности количество
обучающих циклов должно быть, по крайней мере, в 500 раз больше
количества выходных нейронов. Обучающий алгоритм настраивает
весовые векторы в окрестности возбужденного нейрона таким образом,
чтобы они были более похожими на входной вектор. Так как все векторы
нормализуются в векторы с единичной длиной, они могут рассматриваться
как точки на поверхности единичной гиперсферы. В процессе обучения
группа соседних весовых точек перемещается ближе к точке входного
вектора. Предполагается, что входные векторы фактически группируются
в классы в соответствии с их положением в векторном пространстве.
Определенный класс будет ассоциироваться с определенным нейроном,
перемещая его весовой вектор в направлении центра класса и способствуя
его возбуждению при появлении на входе любого вектора данного класса.
После обучения классификация выполняется посредством подачи на вход
сети испытуемого вектора, вычисления возбуждения для каждого нейрона с
последующим выбором нейрона с наивысшим возбуждением как индикатора
правильной классификации.
-----------------------
[pic]