Clasificación automática de las vocales en el lenguaje de señas colombiano

2018 
espanolEl reconocimiento del lenguaje de senas es un problema de alta complejidad, debido a la cantidad de gestos estaticos y dinamicos necesarios para representar dicho lenguaje, teniendo en cuenta que el mismo variara para cada pais en particular. Este articulo se enfoca en el reconocimiento de las vocales del lenguaje colombiano de senas, de forma estatica. Se adquirieron 151 imagenes por cada clase, teniendo en cuenta tambien una clase no vocal adicional con diferentes escenas. A partir de cada imagen capturada se separa el objeto de interes del resto de la escena usando informacion de color; luego, se extraen caracteristicas para describir el gesto correspondiente a cada vocal o a la clase que no corresponde a ninguna vocal. Posteriormente, se seleccionan cuatro conjuntos de caracteristicas. El primero con la totalidad de ellas; a partir de este salen tres nuevos conjuntos: el segundo extrayendo un subconjunto de caracteristicas mediante el algoritmo de Analisis de Componentes Principales (PCA). El tercer conjunto, aplicando Seleccion Secuencial hacia Adelante (SFS), mediante la medida de FISHER y el ultimo conjunto con SFS basado en el desempeno del clasificador de los vecinos mas cercanos (KNN). Finalmente se prueban multiples clasificadores para cada conjunto por medio de validacion cruzada, obteniendo un desempeno superior al 90% para la mayoria de los clasificadores, concluyendo que la metodologia propuesta permite una adecuada separacion de las clases. EnglishSign language recognition is a highly-complex problem due to the amount of static and dynamic gestures needed to represent such language, especially when it changes from country to country. This article focuses on static recognition of vowels in Colombian Sign Language. A total of 151 images were acquired for each class, and an additional non-vowel class with different scenes was also considered. The object of interest was cut out of the rest of the scene in the captured image by using color information. Subsequently, features were extracted to describe the gesture that corresponds to a vowel or to the class that does not match any vowel. Next, four sets of features were selected. The first one contained all of them; from it, three new sets were generated. The second one was extracted from a subset of features given by the Principal Component Analysis (PCA) algorithm. The third set was obtained by Sequential Feature Selection (SFS) with the FISHER measure. The last set was completed with SFS based on the performance of the K-Nearest Neighbor (KNN) algorithm. Finally, multiple classifiers were tested on each set by cross-validation. Most of the classifiers achieved a performance over 90%, which led to conclude that the proposed method allows an appropriate class distinction.
    • Correction
    • Source
    • Cite
    • Save
    • Machine Reading By IdeaReader
    0
    References
    0
    Citations
    NaN
    KQI
    []