Évaluation de deux architectures matérielles dédiées à l'inférence basée sur des réseaux de neurones convolutifs

2020 
Les systemes embarques sont de plus en plus utilises pour executer des algorithmes d'intelligence artificielle, qui requierent beaucoup de ressources materielles, notamment en memoire. Ces systemes etant generalement dotes de ressources limitees, des architectures dediees commencent a emerger, a l'image de celles proposees dans les deux cartes etudiees dans cet article : GAPuino et Coral Dev Board. Ces dernieres s'appuient sur un accelerateur d'algorithmes d'inference sous forme de reseau de neurones convolutifs (acronyme anglais, CNN). Nous evaluons ces deux cartes en implementant un CNN entraine avec la celebre base de donnees MNIST. Nous etudions l'impact des architectures memoires implantees dans les accelerateurs d'inference, sur la performance et la puissance consommee par l'execution des CNN.
    • Correction
    • Source
    • Cite
    • Save
    • Machine Reading By IdeaReader
    0
    References
    0
    Citations
    NaN
    KQI
    []