GENERALIZACION DE LA DIVERGENCIA DE JENSEN SHANNON A ESTADISTICA NO EXTENSIVA PARA EL ANALISIS DE SECUENCIAS

2014 
La divergencia de Jensen Shannon (JSD), una version simetrizada de la divergencia de Kullback Leibler,permite cuantificar la diferencia entre distribuciones de probabilidad. Debido a esta propiedad ha sido ampliamente utilizada para el analisis de secuencias simbolicas, comparando la composicion simbolica de posibles subsecuencias. Una ventaja que ofrece JSD es que no requiere el mapeo de la secuencia simbolica a una secuencia numerica, necesaria por ejemplo en el analisis de correlacion espectral. Se han propuesto distintas extensiones de JSD para mejorar la detecci´on de bordes de subsecuencias en una secuencia, en particular para el analisis de secuencias de DNA. Desde su propuesta original, la extension propuesta por Tsallis a la entropia de Boltzmann Gibbs ha sido considerada para extender sus resultados y aplicaciones. Sin embargo no surge una unica posibilidad para la extension de JSD a partir de la definicion de Tsallis. Consideramos aqui posibles extensiones de la JSD en el marco de la entropia de Tsallis y consideramos los resultados que se obtienen cuando se aplican al analisis de secuencias simbolicas para la deteccion de bordes de subsecuencias.
    • Correction
    • Cite
    • Save
    • Machine Reading By IdeaReader
    0
    References
    0
    Citations
    NaN
    KQI
    []