next up previous contents index
Next: 1.2 Plan de l'étude. Up: 1. Introduction. Previous: 1. Introduction.   Contents   Index

Subsections

1.1 Contexte et Objectifs.

Cette thèse se situe au confluent des différents efforts amorcés par le centre CYCERON pour développer une méthodologie destinée aux études d'activations.

Dans un premier temps, elle poursuit les travaux réalisés en reconstruction 2D par F. Bouchet et moi même lors de mon DEA. Notons que la problématique de la reconstruction est un enjeu récent au centre CYCERON puisque la thèse de F. Bouchet [13] constituait les premiers pas en reconstruction. Notons également qu'avant le début de cette thèse et le travail de DEA de J. Clément [20], aucun travail sur la reconstruction 3D n'avait été mené au centre CYCERON.

D'autre part, il s'agissait de prendre en compte l'étude menée par M.J Antoine [4] au centre CYCERON portant sur la détection des signaux d'activation sur les images TEP.

Ces travaux préliminaires ont donc naturellement conduit aux deux axes principaux de ce travail de thèse.

D'autre part si cette étude a été envisagée, c'est du fait de la présence sur le site de CYCERON d'un supercalculateur CRAY et de l'arrivée en février 95 de l'imageur 3D ECAT HR+ SIEMENS. Le supercalculateur permettait d'effectuer dans un temps raisonnable des procédures coûteuses en temps calcul et l'imageur 3D autorisait l'accès à des données réelles. L'architecture du CRAY étant particulière et afin de tirer parti de sa puissance de calcul, un effort tout particulier a été réalisé pour l'implémentation des algorithmes sur cette machine.

1.1.1 Un travail orienté par les études d'activation.

A la base, ce travail trouve son origine au niveau des travaux sur les études d'activations individuelles effectués par J.B. Poline, M.J Antoine [4] et finalement F. Crivello. Les études d'activation se placent d'une manière générale dans un contexte statistique. Il s'agit de tester l'hypothèse nulle ``absence de signal d'activation'' dans des images de différence. Rappelons brièvement la méthode de détection individuelle développée originellement par Poline. On dispose, pour un sujet, d'examens métaboliques $ \{C_{r}\}_{r=1,n} $ et $ \{A_{r}\}_{r=1,n} $ acquis respectivement lors de $ n $ répétitions d'un état contrôle et d'un état actif. Partant de ces examens, on construit des images de différence normalisée entre ces deux états. Une première version pour détecter les activations individuellement consiste à délimiter dans ces images de différence des agrégats (``cluster'') de pixels en 2D ou voxels en 3D dont la valeur dépasse un seuil fixé. Il est nécessaire alors partant d'images de bruit simulées de définir la loi de probabilité d'observer au moins une région de taille supérieure à $ t $. Cette loi de probabilité permet de traduire le degré de significativité des clusters mesurés sur une image réelle de différence et donc de savoir si oui ou non le cluster observé sur l'image réelle de différence correspond à une activation. Une deuxième version (algorithme HMSD ) intègre à la fois la taille et l'intensité des clusters observés. Dans tous les cas, il est nécessaire d'établir des lois de probabilité définies pour des images de bruit (hypothèse nulle). Lorsque le bruit dans les images est stationnaire, la probabilité d'observer une région de taille supérieure à $ t $ peut être estimée analytiquement [Friston 94]. En revanche l'instationnarité et la variabilité de la corrélation présentes dans les images issues de la Tomographie 3D à émission de Positons (TEP), posent problème pour la détermination analytique de cette loi de probabilité. D'autre part, le calcul analytique ne permet pas de déterminer cette loi de probabilité quand on souhaite tester conjointement la taille et l'intensité des clusters observés. Il est donc nécessaire d'estimer cette loi de probabilité par l'utilisation d'une simulation Monte-Carlo . Dans ce but, on construit de multiples images de bruit (images crées par la différence normalisée entre deux images correspondant à un même état). On isole, pour chacune de ces images, les clusters, et on estime la probabilité de les observer par leur fréquence d'apparition au cours des itérations. Le degré de réalisme des images de bruit générées influent directement sur la pertinence du test statistique. Jusqu'à présent, les simulations reposaient sur des images de bruit construites par la convolution d'un bruit blanc par un filtre gaussien 3D. Le filtrage introduit, sur le bruit blanc, la corrélation moyenne observée sur des images post-reconstruction. Ces simulations ne prennent évidemment pas en compte l'instationnarité du bruit dans les images reconstruites.

Vu que nous disposions d'une importante puissance de calcul, l'idée était donc de construire une chaîne de simulation permettant rapidement de construire des images de bruit plus réalistes.

1.1.2 Un travail basé sur la reconstruction.

Dans leur travaux respectifs et afin d'améliorer le rapport signal sur bruit des images TEP, M.J. Antoine et F. Bouchet avaient envisagé d'intégrer de l'information a priori dans le processus de reconstruction. Pour M.J Antoine, il s'agissait d'effectuer un filtrage anisotropique post-reconstruction alors que F. Bouchet a cherché a intégrer une information anatomique au sein d'une reconstruction algébrique. L'approche suivie depuis quelques années déjà au centre I3S de Nice Sophia Antipolis les a conduit à mettre au point un algorithme permettant d'effectuer un filtrage anisotropique pendant la reconstruction. Si les algorithmes de reconstruction algébrique sont peu utilisé en 3D, c'est qu'ils sont particulièrement coûteux en temps calcul.

Une fois encore, la présence sur le centre CYCERON d'un supercalculateur nous permettait d'envisager l'adaptation et l'optimisation de cet algorithme de reconstruction pour des données provenant de l'imageur 3D ECAT HR+ SIEMENS.

1.1.3 Un souci de rapidité.

Si nous avons pris le temps de rappeler brièvement le contexte dans lequel se sont effectués ces travaux, c'est bien pour expliciter les contraintes imposées dès le départ. Il s'agissait de mettre en place un chaîne complète, réaliste et rapide, pour simuler le processus acquisition/reconstruction d'une caméra ECAT HR+. Le degré de réalisme envisagé pour tout simulateur est toujours fonction de son objectif. Nous serons donc amené tout au long de cette thèse à faire des choix et des hypothèses pour essayer de trouver un équilibre fragile entre réalisme et performances, car ces deux grandeurs sont bien souvent antinomiques.


next up previous contents index
Next: 1.2 Plan de l'étude. Up: 1. Introduction. Previous: 1. Introduction.   Contents   Index
Lecomte Jean François 2002-09-07