Нейроинформатика

       

Ортогональные сети


Для обеспечения правильного воспроизведения эталонов достаточно потребовать, чтобы первое преобразование в (5) было таким, что

Ортогональные сети
Очевидно, что если проектор является ортогональным, то это требование выполняется, поскольку
Ортогональные сети
при
Ортогональные сети
а
Ортогональные сети
по определению множества
Ортогональные сети

Для обеспечения ортогональности проектора воспользуемся дуальным множеством векторов. Множество векторов

Ортогональные сети
называется дуальным к множеству векторов
Ортогональные сети
если все вектора этого множества
Ортогональные сети
удовлетворяют следующим требованиям:

  1. Ортогональные сети
    при
    Ортогональные сети
    при
    Ортогональные сети
  2. Ортогональные сети

Преобразование

Ортогональные сети
является ортогональным проектором на линейное пространство
Ортогональные сети

Ортогональная сеть ассоциативной памяти преобразует образы по формуле

Ортогональные сети

(6)

Дуальное множество векторов существует тогда и только тогда, когда множество векторов

Ортогональные сети
линейно независимо. Если множество эталонов
Ортогональные сети
линейно зависимо, то исключим из него линейно зависимые образы и будем рассматривать полученное усеченное множество эталонов как основу для построения дуального множества и преобразования (6). Образы, исключенные из исходного множества эталонов, будут по-прежнему сохраняться сетью в исходном виде (преобразовываться в самих себя). Действительно, пусть эталон
Ортогональные сети
является линейно зависимым от остальных
Ортогональные сети
эталонов. Тогда его можно представить в виде

Ортогональные сети

Подставив полученное выражение в преобразование (6) и учитывая свойства дуального множества получим:

Ортогональные сети

(7)

Рассмотрим свойства сети (6) [8.2]. Во-первых, количество запоминаемых и точно воспроизводимых эталонов не зависит от степени их скоррелированности. Во-вторых, формально сеть способна работать без искажений при любом возможном числе эталонов (всего их может быть до

Ортогональные сети
). Однако, если число линейно независимых эталонов (т.е. ранг множества эталонов) равно
Ортогональные сети
сеть становится прозрачной - какой бы образ не предъявили на ее вход, на выходе окажется тот же образ. Действительно, как было показано в (7), все образы, линейно зависимые от эталонов, преобразуются проективной частью преобразования (6) сами в себя. Значит, если в множестве эталонов есть
Ортогональные сети
линейно независимых, то любой образ можно представить в виде линейной комбинации эталонов (точнее
Ортогональные сети
линейно независимых эталонов), а проективная часть преобразования (6) в силу формулы (7) переводит любую линейную комбинацию эталонов в саму себя.


Если число линейно независимых эталонов меньше n , то сеть преобразует поступающий образ, отфильтровывая помехи, ортогональные всем эталонам.

Отметим, что результаты работы сетей (3) и (6) эквивалентны, если все эталоны попарно ортогональны.

Остановимся несколько подробнее на алгоритме вычисления дуального множества векторов. Обозначим через
Ортогональные сети
матрицу Грамма множества векторов
Ортогональные сети
Элементы матрицы Грамма имеют вид
Ортогональные сети
(
Ортогональные сети
-ый элемент матрицы Грамма равен скалярному произведению
Ортогональные сети
-го эталона на
Ортогональные сети
-ый). Известно, что векторы дуального множества можно записать в следующем виде:

Ортогональные сети


(8)
где
Ортогональные сети
- элемент матрицы
Ортогональные сети
Поскольку определитель матрицы Грамма равен нулю, если множество векторов линейно зависимо, то матрица, обратная к матрице Грамма, а следовательно и дуальное множество векторов существует только тогда, когда множество эталонов линейно независимо.

Для работы сети (6) необходимо хранить эталоны и матрицу
Ортогональные сети


Рассмотрим процедуру добавления нового эталона к сети (6). Эта операция часто называется дообучением сети. Важным критерием оценки алгоритма формирования сети является соотношение вычислительных затрат на обучение и дообучение. Затраты на дообучение не должны зависеть от числа освоенных ранее эталонов.

Для сетей Хопфилда это, очевидно, выполняется - добавление еще одного эталона сводится к прибавлению к функции H одного слагаемого
Ортогональные сети
а модификация связей в сети - состоит в прибавлении к весу ij-й связи числа
Ортогональные сети
- всего
Ортогональные сети
операций.



В результате получим
Ортогональные сети


Пусть известна
Ортогональные сети
- обратная к матрице Грамма для множества из m векторов
Ортогональные сети
Добавим к этому множеству вектор
Ортогональные сети
Тогда матрица для обращения матрицы
Ортогональные сети
методом Гаусса будет иметь вид:

Ортогональные сети


После приведения к единичной матрице главного минора ранга m получится следующая матрица:

Ортогональные сети


где
Ортогональные сети
- неизвестные величины, полученные в ходе приведения главного минора к единичной матрице. Для завершения обращения матрицы
Ортогональные сети
необходимо привести к нулевому виду первые m элементов последней строки и
Ортогональные сети
-о столбца. Для обращения в ноль i-о элемента последней строки необходимо умножить i-ю строку на
Ортогональные сети
и вычесть из последней строки. После проведения этого преобразования получим

Ортогональные сети


где
Ортогональные сети


Ортогональные сети


Ортогональные сети
только если новый эталон является линейной комбинацией первых m эталонов. Следовательно
Ортогональные сети
Для завершения обращения необходимо разделить последнюю строку на
Ортогональные сети
и затем вычесть из всех предыдущих строк последнюю, умноженную на соответствующее номеру строки
Ортогональные сети
В результате получим следующую матрицу

Ортогональные сети


где
Ортогональные сети
Поскольку матрица, обратная к симметричной, всегда симметрична получаем
Ортогональные сети
при всех i. Так как
Ортогональные сети
следовательно
Ортогональные сети


Обозначим через
Ортогональные сети
вектор
Ортогональные сети


через
Ортогональные сети
- вектор
Ортогональные сети
Используя эти обозначения можно записать

Ортогональные сети


Матрица
Ортогональные сети
записывается в виде

Ортогональные сети


Таким образом, при добавлении нового эталона требуется произвести следующие операции:

  1. Вычислить вектор
    Ортогональные сети
    (
    Ортогональные сети
    скалярных произведений -
    Ортогональные сети
    операций,
    Ортогональные сети
    ).
  2. Вычислить вектор
    Ортогональные сети
    (умножение вектора на матрицу -
    Ортогональные сети
    операций).
  3. Вычислить
    Ортогональные сети
    (два скалярных произведения -
    Ортогональные сети
    операций).
  4. Умножить матрицу на число и добавить тензорное произведение вектора
    Ортогональные сети
    на себя (
    Ортогональные сети
    операций).
  5. Записать
    Ортогональные сети


Таким образом, эта процедура требует
Ортогональные сети
операций. Тогда как стандартная схема полного пересчета потребует:

  1. Вычислить всю матрицу Грамма (
    Ортогональные сети
    операций).
  2. Методом Гаусса привести левую квадратную матрицу к единичному виду (
    Ортогональные сети
    операций).
  3. Записать
    Ортогональные сети


Всего
Ортогональные сети
операций, что в
Ортогональные сети
раз больше.

Используя ортогональную сеть (6), удалось добиться независимости способности сети к запоминанию и точному воспроизведению эталонов от степени скоррелированности эталонов. Так, например, ортогональная сеть смогла правильно воспроизвести все буквы латинского алфавита в написании, приведенном на рис. 8.1.

У сети (6) можно выделить два основных недостатка:

  1. Число линейно независимых эталонов должно быть меньше размерности системы
    Ортогональные сети
  2. Неинвариантностью - если два визуальных образа отличаются только своим положением в рамке, то в большинстве задач желательно объединять их в один эталон.


Оба этих недостатка можно устранить, изменив выбор весовых коэффициентов в (2).


Содержание раздела