Towards a Whole Body [18F] FDG Positron Emission Tomography Attenuation Correction Map Synthesizing using Deep Neural Networks

2021 
espanolLa correccion de los efectos de la atenuacion en las imagenes de Tomografia por Emision de Positrones (PET) es fundamental para obtener la correcta distribucion del radio trazador. Sin embargo la medicion directa del mapa de atenuacion no esta libre de errores y normalmente resulta en la absorcion de una dosis superior de radiacion ionizante por parte del paciente. Aqui, exploramos la tarea de generacion del mapa de atenuacion de cuerpo completo usando redes neuronales profundas. La redes son entrenadas para aprender la conversion desde una imagen de [18^F]-fluorodeoxyglucosa PET sin correccion de atenuacion a una imagen sintetica de Tomografia Computada (sCT) y ademas obtener una etiqueta del tipo de tejido en los voxeles de la imagen. Luego, la imagende sCT es refinada usando un entrenamiento de tipo adversario para recobrar detalles de alta frecuencia y estructuras perdidas usando informacion contextual. Este trabajo es entrenado y probado sobre conjuntos de datos publicos, conteniendo distintas imagenes PET de diferentes tomografos, distintos modos de administracion de dosis y modos de reconstruccion. La red es entrenada con 108 muestras y validada con 10 muestras. La generacion del sCT fue probada con 133 muestras de 8 conjuntos de datos independientes. El error medio absoluto de las redes esde 96±20 HU y 103±18 HU con una relacion senal ruido de103±18 HU y 18:6±1:5 dB para el modelo base y elmodelo adversario respectivamente. La correccion de atenuacion es probada por medio de sinogramas, obteniendo un error medio en la atenuacion de las lineas de respuesta menor al 1% con un desvio estandar menor al 8%. Las topologias de aprendizaje profundo propuestas son capaces de generar mapas de atenuacion de cuerpo completo a partir de imagenes PET sin corregir. Ademas, la exactitud de los metodos se sostiene en presencia de datos de multiples fuentes EnglishThe correction of attenuation effects in Positron Emission Tomography (PET) imaging is fundamental to obtain a correct radiotracer distribution. However direct measurement of this attenuation map is not error-free and normally results in additional ionization radiation dose to the patient. Here, we explore the task of whole body attenuation map generation using 3D deep neural networks. We analyze the advantages thar an adversarial network training cand provide to such models. The networks are trained to learn the mapping from non attenuation corrected [18 ^F]-fluorodeoxyglucose PET images to a synthetic Computerized Tomography (sCT) and also to label the input voxel tissue. Then the sCT image is further refined using an adversarial training scheme to recover higher frequency details and lost structures using context information. This work is trained and tested on public available datasets, containing several PET images from different scanners with different radiotracer administration and reconstruction modalities. The network is trained with 108 samples and validated on 10 samples. The sCT generation was tested on 133 samples from 8 distinct datasets. The resulting mean absolute error of the networks is 90±20 and 103±18HU and a peak signal to noise ratio of 19.3±1.7 dB and 18.6±1.5, for the base model and the adversarial model respectively. The attenuation correction is tested by means of attenuation sinograms, obtaining a line of response attenuation mean error lower than 1% with a standard deviation lower than 8%. The proposeddeep learning topologies are capable of generating whole body attenuation maps from uncorrected PET image data. Moreover, the accuracy of both methods holds in the presence of data from multiple sources and modalities and are trained on publicly available datasets. Finally, while the adversarial layer enhances visual appearance of the produced samples, the 3D U-Net achieves higher metric performance
    • Correction
    • Source
    • Cite
    • Save
    • Machine Reading By IdeaReader
    0
    References
    0
    Citations
    NaN
    KQI
    []