Логические нейронные сети



         индивидуалки г новосибирска

Выбор передаточной функции


Выбор передаточной функции остается творческой проблемой, во многом определяемой решаемой задачей. Важно лишь то, что полное копирование нейрона, созданного природой, излишне. В то же время передаточная функция - пороговая функция, активно использующая значение порога h.

В нейронных сетях учитывают веса связей - синапсические веса ?. Рассмотрение этих весов актуально, если структура сети первоначально задана и следует ее приспособить (обучить) для решения данной задачи. Пока мы рассматриваем построение уже обученной нейросети, поэтому вес сформированных связей принимаем равным единице. Однако далее будет показано, что корректировка весов необходима даже при построении обученных сетей. Эти веса могут быть скорректированы и в процессе эксплуатации для учета влияния событий на результат - принимаемое решение.

При выборе передаточной функции и порога h руководствуются следующими требованиями:

  • эти функции в области преодоления порога должны монотонно возрастать по каждому сигналу на входе нейрона;
  • не должно быть "угасания" сигнала возбуждения при его прохождении по сети;
  • сигналы возбуждения на выходном слое должны быть четко различимы по величине для различных эталонных ситуаций;
  • должен быть примерно равным диапазон изменения величин возбуждения нейронов выходного слоя, закрепленных за разными решениями.

Практически, для логического решения задач, достаточно применять одну из следующих, например, используемых в [7], передаточных функций, определяющих величину V возбуждения нейрона в зависимости от величин Vi возбуждения связанных с ним нейронов, весов ? i этих связей, а также порога h:

1.

 \begin{array}{l} V= \xi \left (\sum_i \omega_i V_i – h\right),\\ \left (\xi (x)=\left\{ \begin{array}{ll} x, & \mbox{если}\: x \ge 0, \\ 0, & \mbox{в противном случае} \end{array} \right \right) \end{array}

2.

 \begin{array}{l} V:= \xi \left (\sum_i \omega_i V_i – h\right),\\ V:= if \: V> A\: then\: A \:else \:V \end{array}

3.

 \begin{array}{l} V:= \sum_i \omega_i V_i,\\ V:= if \: V> h\: then\: V \:else \:0 \end{array}

4.

 \begin{array}{l} V:= \sum_i \omega_i V_i,\\ V:= if \: V \ge h \wedge V < 1 \: then\: V- h \:else \: if \:V \ge 1\: then \:1-h\: else 0 \end{array}

5.

 \begin{array}{l} V:= \cfrac {1}{n}\sum_i \omega_i V_i,\\ V:= if \: V \ge h \: then\: V \:else \:0,\\ \mbox{где}\: n - \mbox{количество активных входов нейрона} \end{array}

Поясним последнее требование к передаточной функции. Оно отражает, например, распознавание букв и знаков препинания. При этом целесообразно использовать передаточную функцию 3. Однако распознавание, например, запятой и буквы "А" приводит к резкому различию величин возбуждения соответствующих нейронов выходного слоя. При условии "шумов" запятая становится практически неразличимой, что приводит к необходимости преобразования величин возбуждения нейронов выходного слоя в единый диапазон изменения. Это либо достигается вводом в рассмотрение коэффициентов приведения, как в разделе 4.3, - для одинаковой коррекции всех весов связей каждого нейрона выходного слоя, либо приходится решать эту проблему отдельно для каждой связи такого нейрона, как будет показано далее. В рассматриваемом примере проблема уравнивания сигналов на выходном слое для различных эталонов также актуальна.

Таким образом, выбор и модификация передаточной функции производятся экспериментально, хотя легко установить общие черты функций, рекомендуемых здесь.




Содержание  Назад  Вперед