Логические нейронные сети



Пример - опыт - предпосылки обобщения


Объединим множество эталонов, требующих возбуждения одного нейрона выходного слоя, понятием "обобщенный эталон". Например, эталоны А1

В1
С1, А1
В1
С2, А1
В1
С3, А1
В1
С4, А1
В1
С5 образуют один обобщенный эталон А1
В1
(С1
С2
С3
C4
C5), ведущий к R1. Тогда для обобщенного эталона введем понятие обобщенной операции &, которая объединяет все посылки, ведущие к одному выводу, A1&B1&C1&C2&C3&C4&C5
R1.

Выберем нейросеть, отражающую, как нам кажется, все особенности, которые необходимо учесть при построении алгоритма трассировки, и, как мы уже начали, возьмем тот же пример, который выглядит теперь следующим образом:

 \begin{array}{l} A1\& B1\& C1\& C2\& C3\& C4\& C5 \to R1\\ A1\& B2\& B3\& C1\& C2\& C3 \to R2\\ A1\& B2\& B3\& C4\& C5 \to R3\\ A2\& B3\& C1\& C2\& C3\& C4\& C5 \to R4\\ A2\& B1\& B2\& C1\& C2\& C3\& C4\& C5 \to R5\end{array}

(4.1)

Мы хотим, задавая обобщенный эталон на входе, например из тех, что приведены выше, экономным путем построить, возможно, пересекающиеся пути возбуждения, ведущие от каждого возбужденного входного нейрона в соответствующий нейрон выходного слоя. Способ должен быть экономным в том смысле, что пути должны быть максимально объединены, совмещены, реализуя стратегию слияния и выхода на общую, единую дорогу, ведущую к заветной цели.

При этом мы строим эвристический алгоритм, который крайне экономно расходует ресурсы сети - ее нейроны и связи, но и так же экономно вводит изменения, развивает сеть, если связей оказывается недостаточно.

Ибо мы видели, с каким трудом удается приспособить "готовую" нейросеть под конкретную задачу. Мы постоянно склонялись к вопросу: "А не лучше ли сразу строить сеть "под задачу", а не наоборот?" Нам кажется, мы нашли диалектический компромисс: беря что-то близкое, подходящее, мы минимально переделываем, словно костюм с жмущим гульфиком, купленный в универсальном магазине. Кроме того, нам очень важно сделать алгоритм доступным широким массам студенческой молодежи, овладевшей основами таинства параллельного программирования!

Нейросеть, подлежащая обучению

Рис. 4.1.  Нейросеть, подлежащая обучению

Матрица следования с транзитивными связями

Рис. 4.2.  Матрица следования с транзитивными связями

Пусть выбранная нейросеть представлена на рис. 4.1, где первоначально заданные связи обозначены тонкими стрелками.


Содержание  Назад  Вперед