Идентификация по множеству признаков при помощи нейросети (Identification by multiple features. Using neural network)

Автор: | 17.03.2019

Постановка задачи
Модель нейросети для идентификации
Оптимизация погрешности выходных сигналов
Полезные ссылки

Постановка задачи

Ниже исследуются возможности решения задачи идентификации по множеству признаков с помощью нейронной сети (НС).

Распознающую систему представим в виде «чёрного ящика». У этого ящика есть n входов, на которые подаются значения признаков субъекта для распознавания x={x1,x2,…,xn}, и k выходов y={y1,…,yk} (по числу претендентов для распознавания). Значение на входе — вещественные числа из диапазона [-1…1].  Значение выходов — вещественные числа из диапазона [0…1].

Система считается правильно настроенной, если при подаче на входы признаков, соответствующих i-тому претенденту, значение i-того выхода равно 1, а всех остальных — 0.

На практике такого результата добиться трудно и все выходы оказываются отличными от нуля. Тогда считается что номер выхода с максимальным значением и есть номер претендента, а близость этого значения к единице говорит о «степени уверенности» системы.

Модель нейросети для идентификации

Используем  модель однослойной сети с 3-мя нейронами и двумя входами на каждый нейрон для распознавания субъекта среди 3-х претендентов по 2-м признакам.

В каждом из нейронов определяется сумма значений входящих сигналов

d = w1 x1+ … + wn xn 

Результат d приводится к диапазону [0 … 1] при помощи функции активации  y=S(d) (нелинейной сигмоидальной функции).

x — значение сигнала; w — вес связи.

alpha – параметр наклона сигмоидальной функции S(d). Чем больше этот параметр, тем круче функция (угол касательной в точке перегиба функции будет больше).

В дальнейшем изложении принимаем  wi =1alpha =1, е ≈ 2,71828.

Рассмотрим пример сети с одинаковыми по модулю (1) и отличающимися по знаку сигналами xi:

Красная прямая отображает положение  субъекта распознавания на шкале допусков признаков претендентов.

Модуль сигнала xi определяет степень влияния входа i на выход нейрона, а знак – характер влияния. Знак положительный (+) для возбуждающих  и отрицательный (-) для тормозящих сигналов. Возбуждающий (тормозящий) сигнал — если признак субъекта совпадает (не совпадает) с признаком претендента.

Теперь рассмотрим пример, когда допуски 1-го и 2-го претендентов для 1-го признаков пересекаются, а признак субъекта для распознавания находится в зоне их пересечения. Для этого примера в модели сети  модули сигналов оставим пока прежними (единица), знак сигнала 2-го претендента с отрицательного меняется на положительный (возбуждающая связь).

Если допуски 1-го и 2-го претендентов для 1-го признаков пересекаются, очевидно, что оценка такого сигнала должна быть меньше, поскольку избирательность признака меньше. Определяем  средневзвешенную оценку признака, получаем 0.67.

Как видим, при уточнении входных сигналов на основе  средневзвешенной оценки значения признаков степень достоверности определения победителя (0.84) уменьшилась по сравнению с предыдущим примером (0.88). Однако, в целом результат улучшился, поскольку еще больше уменьшился показатель ближайшего конкурента (с 0.50 до 0.42).

Оптимизация погрешности выходных сигналов

Как можно оценить качество конечного результата? Минимальной разницей (Error) между  ожидаемым  (Target) и полученным (Out) значениями сигналов на выходе НС.

Как следует из выражений

d = w1 x1+ … + wn xn,      y=S(d)

на выходной сигал нейрона в одинаковой степени влияют веса входных сигналов (wi) и значения этих сигналов.  Обучение нейронных сетей обычно подразумевает подбор весов в прямой зависимости от конечного результата. В рассматриваемой задаче «Идентификация по множеству признаков» будем подбирать не веса, а модуль  слабого сигнала-признака. Напомню, слабый сигнал-признак — если допуски признаков претендентов пересекаются

Оставляем тот же пример распознавания субъекта среди 3-х претендентов по 2-м признакам, которому соответствует модель нейронная сеть с 2 входами и  3 выходами. Вес всех входных сигналов оставляем одним и тем же:  wi =1, alpha =1. Ожидаемое значение 2-го выхода равно 1, остальных выходов — 0

При значении всех входных сигналов xi=1 получили Error = 0.279. Далее последовательно уменьшаем модули сигналов от 1-го признака. Сигнал от второго признака полагаем всегда равным 1, поскольку он сильный (не имеет конкурентов)..

 Смотрим, как влияет изменение сигнала на суммарную квадратичную погрешность.

Сигнал 0.67 (получен по методу средневзвешенной оценки веса признаков) выдал погрешность (Error = 0.228), меньшую по сравнению с сигналом 1 (0.279), однако еще не минимальную. Минимальную погрешность Error = 0.197 получаем при значении сигнала 0.3.  Это отнюдь не говорит о том, что этот результат наиболее точный. Можно отметить лишь то, что для обучающей выборки он выбирает оптимальные входные сигналы.  Если с этими сигналами идентифицировать субъекты из другой выборки, то можно получить худшие результаты, например, по сравнению с методом подбора средневзвешенных весов признаков.

Полезные ссылки;

 

Автор: Николай Свирневский

Добавить комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *