logo móvil

Reconocimiento facial utilizando modelo oculto de Markov y red neuronal convolucional

Autores: Bilal, Muhammad; Razzaq, Saqlain; Bhowmike, Nirman; Farooq, Azib; Zahid, Muhammad; Shoaib, Sultan

Idioma: Inglés

Editor: MDPI

Año: 2024

Disponible con Suscripción Virtualpro

Artículos


Categoría

Ingeniería y Tecnología

Licencia

Atribución – Compartir igual

Consultas: 3

Citaciones: Sin citaciones


Descripción
El reconocimiento facial (FR) utiliza un enfoque pasivo para la autenticación de personas que evita el contacto cara a cara. Entre las diferentes técnicas de FR, la mayoría de los enfoques de FR ponen poco énfasis en la reducción de la criptografía potente y en cambio se concentran en aumentar las tasas de reconocimiento. En este documento, hemos propuesto los modelos de Modelo Oculto de Markov (HMM) y Red Neuronal Convolucional (CNN) para FR utilizando conjuntos de datos ORL y Yale. Las imágenes faciales de los conjuntos de datos dados se dividen en 3 porciones, 4 porciones, 5 porciones y 6 porciones correspondientes a sus respectivos estados ocultos de HMM utilizados en el modelo HMM. Los niveles cuantificados de autovalores y coeficientes de eigenvectores de bloques superpuestos de imágenes faciales definen los estados de observación del modelo HMM. Para la selección y rechazo de imágenes, se calcula un umbral utilizando la descomposición de valores singulares (SVD). Después de entrenar HMM en HMM de 3 estados, HMM de 4 estados, HMM de 5 estados y HMM de 6 estados, las precisión de reconocimiento es del 96.5%, 98.5%, 98.5% y 99.5%, respectivamente, en la base de datos ORL y 90.6667%, 94.6667%, 94.6667% y 94.6667% en la base de datos de Yale. El modelo CNN utiliza capas convolucionales, una capa de max-pooling, una capa de aplanamiento, una capa densa y una capa de abandono. Relu se utiliza como función de activación en todas las capas excepto en la última capa, donde se utiliza softmax como función de activación. Se utiliza la entropía cruzada como función de pérdida, y hemos utilizado el optimizador Adam en nuestro algoritmo propuesto. El modelo CNN propuesto ha dado una precisión del 100% en entrenamiento y prueba en el conjunto de datos ORL. Mientras que al utilizar el conjunto de datos de Yale, el modelo CNN tiene una precisión de entrenamiento del 100% y una precisión de prueba del 85.71%. En este documento, nuestro modelo propuesto mostró que el modelo HMM es rentable con una menor precisión, mientras que el modelo CNN es más preciso en comparación con HMM pero tiene un mayor costo computacional.

Documentos Relacionados

Temas Virtualpro