ГОСТ Р 52633.5—2011
£(.) — оператор вычисления математического ожидания;
а (.) — оператор вычисления стандартного отклонения;
Р, — вероятность ошибки первого рода (ошибочный отказ «Своему»).
5 Общие положения быстрого послойного обучения нейронных сетей
преобразователей биометрия-код доступа
5.1 Классификация нейросотовых преобразователей биометрия-код доступа
5.1.1 Нейросетевые преобразователи биометрия-код доступа классифицируют по виду входных
биометрических параметров следующим образом:
- нейросетевые преобразователи, ориентированные на работу с непрерывными биометрически
ми параметрами, имеющими, как правило, низкое среднее входное качество;
- нейросетевые преобразователи, ориентированные на работу с дискретными биометрическими
параметрами, имеющими, как правило, хорошее среднее входное качество.
Специализация нейронных сетей на обработку непрерывных или дискретных биометрических па
раметров обусловлена значительным различием алгоритмов их обучения и автоматов, реализующих
эти алгоритмы.
5.1.2 Нейросетевые преобразователи биометрия-код доступа классифицируют по числу слоев
нейронов, содержащихся в их нейронной сети. Различают нейросетевые преобразователи:
- с однослойной нейронной сетью;
- с двухслойной нейронной сетью.
Двухслойные нейронные сети, как правило, способны решатьлюбые задачи высоконадежной био
метрической идентификации и аутентификации. Дальнейшее увеличение числа слоев возможно, но
для большинства биометрических приложений является избыточным и не рассматривается в рамках
настоящего стандарта.
Нейронные сети должны осуществлять обогащение (повышение качества) исходных биометри
ческих данных. Если удается решить задачу повышения качества исходных биометрическихданныхдо
приемлемого качества однослойной нейронной сетью, то применение для решения той же задачи двух
слойной нейронной сети не рекомендуется. Корректировка незначительного числа ошибок однослой
ной нейронной сети допускается классическим избыточным кодом с обнаружением и исправлением
ошибок.
5.2 Раздельное обучение каждого из нейронов нейросети
Процедура обучения нейронной сети преобразователя биометрия-код доступа является опас
ной. так как опирается на использование примеров образа «Свой» и знание кода доступа (возможна
компрометация этих данных). В связи с этим обучение должно проводиться: в доверенной вычисли
тельной среде, в автоматическом режиме, при минимальных затратах времени, под контролем доно
ра биометрии «Свой». Сокращение времени обучения следует осуществлять за счет независимого
обучения каждого из нейронов сети и отказа от многократного применения итерационных процедур
подбора весовых коэффициентов нейрона. Блок-схема обучения одного искусственного нейрона
представлена на рисунке 1.
В однослойных нейронных сетях один нейрон отвечает за один разряд выходного кода. Задачей
автомата обучения является поиск (вычисление) таких весовых коэффициентов нейронакоторые
смещают распределение откликов сумматора нейрона в заданное извне состояние его выходной нели
нейности («0» или «1»). Пример распределения откликов нейрона на образ «Свой» до и после обучения
приведен на рисунке 2.
Обучающий автомат должен наблюдать входные биометрические данные нейрона, относящиеся
к примерам образа «Свой» и относящиеся к примерам случайных образов «Чужие». Автомат обучения
видит отклики на выходе сумматора нейрона (до их искажения нелинейным элементом нейрона).
Фактически автомат обучения одного нейрона должен решать задачу выталкивания распределения
откликов нейрона на примеры образа «Свой» на периферию распределения откликов образов «Чужой».
Выталкивание необходимо осуществлять вычислением почти всех (кромеодного — р0) весовых коэффи
циентов связей нейрона. Нулевой коэффициент нейрона ц0 необходимо использовать для приведения
точки переключения нелинейной функции в точку, соответствующую математическому ожиданию приме
ров образов «Все «Чужие», для выполнения требования ГОСТ Р 52633.0 по равновероятному состоянию
«0» и «1» выхода нейрона для образов «Чужие».
5