Cette thèse se situe au confluent des différents efforts amorcés par le centre CYCERON pour développer une méthodologie destinée aux études d'activations.
Dans un premier temps, elle poursuit les travaux réalisés en reconstruction 2D par F. Bouchet et moi même lors de mon DEA. Notons que la problématique de la reconstruction est un enjeu récent au centre CYCERON puisque la thèse de F. Bouchet [13] constituait les premiers pas en reconstruction. Notons également qu'avant le début de cette thèse et le travail de DEA de J. Clément [20], aucun travail sur la reconstruction 3D n'avait été mené au centre CYCERON.
D'autre part, il s'agissait de prendre en compte l'étude menée par M.J Antoine [4] au centre CYCERON portant sur la détection des signaux d'activation sur les images TEP.
Ces travaux préliminaires ont donc naturellement conduit aux deux axes principaux de ce travail de thèse.
A la base, ce travail trouve son origine au niveau des travaux sur les études
d'activations individuelles effectués par J.B. Poline, M.J Antoine [4]
et finalement F. Crivello. Les études d'activation se placent d'une manière
générale dans un contexte statistique. Il s'agit de tester l'hypothèse nulle
``absence de signal d'activation'' dans des images de différence. Rappelons
brièvement la méthode de détection individuelle développée originellement par
Poline. On dispose, pour un sujet, d'examens métaboliques
et
acquis respectivement lors de
répétitions
d'un état contrôle et d'un état actif. Partant de ces examens, on construit
des images de différence normalisée entre ces deux états. Une première version
pour détecter les activations individuellement consiste à délimiter dans ces
images de différence des agrégats (``cluster'')
de pixels en 2D ou voxels en 3D dont la valeur dépasse un seuil fixé. Il est
nécessaire alors partant d'images de bruit simulées de définir la loi de probabilité
d'observer au moins une région de taille supérieure à
. Cette loi de
probabilité permet de traduire le degré de significativité des clusters
mesurés sur une image réelle de différence et donc de savoir si oui ou non le
cluster observé sur l'image réelle de différence correspond à une activation.
Une deuxième version (algorithme HMSD ) intègre à la
fois la taille et l'intensité des clusters observés. Dans tous les cas,
il est nécessaire d'établir des lois de probabilité définies pour des images
de bruit (hypothèse nulle). Lorsque le bruit dans les images est stationnaire,
la probabilité d'observer une région de taille supérieure à
peut être
estimée analytiquement [Friston 94]. En revanche l'instationnarité et la
variabilité de la corrélation présentes dans les images issues de la Tomographie
3D à émission de Positons (TEP), posent problème pour la détermination analytique
de cette loi de probabilité. D'autre part, le calcul analytique ne permet pas
de déterminer cette loi de probabilité quand on souhaite tester conjointement
la taille et l'intensité des clusters observés. Il est donc nécessaire
d'estimer cette loi de probabilité par l'utilisation d'une simulation Monte-Carlo
. Dans ce but, on construit de multiples images
de bruit (images crées par la différence normalisée entre deux images correspondant
à un même état). On isole, pour chacune de ces images, les clusters,
et on estime la probabilité de les observer par leur fréquence d'apparition
au cours des itérations. Le degré de réalisme des images de bruit générées influent
directement sur la pertinence du test statistique. Jusqu'à présent, les simulations
reposaient sur des images de bruit construites par la convolution d'un bruit
blanc par un filtre gaussien 3D. Le filtrage introduit, sur le bruit blanc,
la corrélation moyenne observée sur des images post-reconstruction. Ces simulations
ne prennent évidemment pas en compte l'instationnarité du bruit dans les images
reconstruites.
Vu que nous disposions d'une importante puissance de calcul, l'idée était donc de construire une chaîne de simulation permettant rapidement de construire des images de bruit plus réalistes.
Dans leur travaux respectifs et afin d'améliorer le rapport signal sur bruit des images TEP, M.J. Antoine et F. Bouchet avaient envisagé d'intégrer de l'information a priori dans le processus de reconstruction. Pour M.J Antoine, il s'agissait d'effectuer un filtrage anisotropique post-reconstruction alors que F. Bouchet a cherché a intégrer une information anatomique au sein d'une reconstruction algébrique. L'approche suivie depuis quelques années déjà au centre I3S de Nice Sophia Antipolis les a conduit à mettre au point un algorithme permettant d'effectuer un filtrage anisotropique pendant la reconstruction. Si les algorithmes de reconstruction algébrique sont peu utilisé en 3D, c'est qu'ils sont particulièrement coûteux en temps calcul.
Une fois encore, la présence sur le centre CYCERON d'un supercalculateur nous permettait d'envisager l'adaptation et l'optimisation de cet algorithme de reconstruction pour des données provenant de l'imageur 3D ECAT HR+ SIEMENS.
Si nous avons pris le temps de rappeler brièvement le contexte dans lequel se sont effectués ces travaux, c'est bien pour expliciter les contraintes imposées dès le départ. Il s'agissait de mettre en place un chaîne complète, réaliste et rapide, pour simuler le processus acquisition/reconstruction d'une caméra ECAT HR+. Le degré de réalisme envisagé pour tout simulateur est toujours fonction de son objectif. Nous serons donc amené tout au long de cette thèse à faire des choix et des hypothèses pour essayer de trouver un équilibre fragile entre réalisme et performances, car ces deux grandeurs sont bien souvent antinomiques.