ГОСТ Р 52633.5—2011
6.2.6 Повторная проверка качества обучения нейронов
Маскирование корреляционныхсвязей обученного нейрона по6.2.5 обычно приводит кзначитель
ному снижению среднего качества обучения нейронов. Соответственно необходимо осуществить по
вторный контроль остаточного качества обучения.
Если остаточное качество обучения оказывается приемлемым, то нет смысла использовать вто
рой слой нейронов.
При недостаточном качестве принятия решений первым слоем нейронов необходимо использо
вать второй слой нейронов.
7 Автоматическое обучение нейронов второго слоя
7.1 Автоматический синтез связей нейронов второго слоя
7.1.1 Задачи, выполняемые вторым слоем нейронов
Основной задачей нейронов второго слоя является повышения качества решений, принятых ней
ронами первого слоя в части снижения Р, — вероятности ошибок первого рода. Второй слой нейронов
выполняетфункцию избыточных кодов с обнаружением иисправлением ошибоки. соответственно, чис
ло выходов нейронов первого слоя N. может быть увеличено по 6.1.2.
Основное отличие нейросетевого корректирования ошибок от использования классических кодов
с обнаружением и исправлением ошибок в их меньшей избыточности. Исправление ошибок, осуще
ствляемое нейронами второго слоя, при одинаковой избыточности обеспечивает болов высокий уро
вень числа исправленных ошибок, так как при обучении нейронов второго слоя автоматически
учитывается положение стабильных и нестабильных разрядов в корректируемом коде, а также уровень
стабильности того или иного нестабильного разряда кода первого слоя нейронов.
7.1.2 Входные данные нейронов второго слоя
В случае использования двухслойной нейронной сети состояния разрядов выходного кода перво
го слоя должны быть изменены. Необходимо перейти от промежуточных кодов с состояниями разрядов
«0» и «1» к эквивалентным кодам с состояниями «-1» и «-И».
7.1.3 Выбор числа нейронов второго слоя
Выбор числа нейронов второго слоя полностью повторяет процедуру выбора числа нейронов пер
вого слоя по 6.1.2.
7.1.4 Выбор числа входов нейронов второго слоя
Число входов нейронов второго слоя необходимо выбирать в интервале от 0,2
Л
/, до 0.8
Л
/, в зави
симости от числадопускаемых ошибок кода нейронов первого слоя. Связьчисла входову нейронов вто
рого слоя с числом ошибок нейронов первого слоя для образа «Свой» задается таблицами, а значения
данных в таблицах подбирают экспериментально при разработке средства высоконадежной
биометрической аутентификации.
7.1.5 Автоматическое распределение адресов связей нейронов второго слоя
Адреса связей нейронов второго слоя с выходами нейронов первого слоя выбираются случайно.
При этом необходимо контролировать отсутствие повторений связей у каждого из нейронов, а такжедо
биваться равной частоты использования каждого из выходов нейронов предыдущего слоя.
7.2 Автоматическое обучение нейронов второго слоя
7.2.1 Вычисление модулой весовых коэффициентов обучаемого нейрона
Модули весовых коэффициентов обучаемого нейрона ц, вычисляют по формуле
А =
£<«,)
(
8
)
где а2— стабилизирующий коэффициент, экспериментально подбираемыйдля автомата обучения при
разработке средства биометрической аутентификации под каждую биометрическую техноло
гию;
о>;— показатель стабильности /-го разряда выходного кода нейронов первого слоя.
7.2.2 Случайная подстановка знаков весовых коэффициентов
Перед процедурой обучения необходимо осуществить случайную подстановку знаков весовых ко
эффициентов нейрона. После получения случайной последовательности знаков необходимо провести
проверку баланса числа положительных и отрицательных знаков на входах обучаемого нейрона.
ю