Les images de bruit que nous sommes en mesure de générer par notre simulation
traduisent bien l'instationnarité spatiale. L'idée est donc de dresser des cartes
d'apparitions de clusters dans ces images. Dans ces cartes, il s'agit
de répondre à la question suivant: ``Quelle est la probabilité
d'observer un aggrégat de voxels de taille supérieur à
après seuillage
à
d'une image de bruit présentant un écart type
?''
Dans le cas d'images stationnaires, on peut donner une valeur globale pour l'ensemble
du volume et la valeur du seuil est fixe. En revanche, pour des images de bruit
instationnaires, cette probabilité varie localement. Notre simulation, par de
multiples réalisations, nous donne accès à
. L'écart type
n'est pas calculé sur une seule réalisation pour l'ensemble des voxels du volume.
Nous pouvons donc envisager de normaliser notre image de bruit avant seuillage
afin de revenir à un bruit normal centré sur l'ensemble du volume. L'utilisation
d'un seuil fixe se justifie alors pleinement. Le fait de pouvoir itérer de multiples
acquisitions rapidement nous permet également d'envisager le calcul, sur ces
images normalisées, d'une probabilité d'apparition de clusters discriminés
sur leur taille mais aussi sur leur intensité par l'utilisation d'une simulation
Monte-Carlo.
L'implémentation et la validation des méthodes développées ayant constitué une
part importante de ce travail, la partie validation fut donc restreinte à des
études à petite échelle. Notons que tous les algorithmes implémentés présentent
de bons résultats en terme de parallélisation. Toutefois, excepté pour le calcul
du produit
, nous avons négligé la partie vectorisation.
Il semble que la vectorisation des procédures de projection nous permettrait
d'atteindre de meilleures performances encore.
Notre algorithme de minimisation alternée génère une suite de systèmes linéaires
de grande taille. Chaque entité de cette succession de systèmes est résolue
par un algorithme itératif de gradient conjugué. L'objectif est d'exploiter
a posteriori les informations numériques issues de l'itération ,
afin d'accélerer de manière très significative la résolution des problèmes linéaires
aux itérations suivantes. Cette technique d'accélération repose sur les travaux
de Rey et Risler. Développée en mécanique non-linéaire, elle s'adapterait sans
difficulté à notre problématique.
Dans la méthode de reconstruction algébrique, la minimisation du critère est
globale, la minimisation est faite sur l'intégralité du volume et nous ne reconstruisons
pas plan par plan. En revanche le voisinage utilisé est lié à des voxels coplanaires.
Nous avons implémenté le voisinage 3D basé sur une 6-connexité mais faute de
temps le voisinage 3D basé sur une 27-connexité n'a pas été envisagé. Son implémentation
toutefois ne pose pas de problème. Les résultats obtenus permettrait d'éviter
l'effet de tranches que l'on peut voir dans une vue transaxiale en créant des
continuités et de la propagation d'information suivant la direction .
Cette information suivant l'axe longitudinal est importante surtout pour la
détermination de cluster. Le voisinage 3D basé sur une 6-connexité n'est
pas suffisant car les liaisons diagonales sur l'image sont importantes. Toutefois
à titre d'illustration, nous donnons Fig la comparaison de reconstructions pour
une coupe transaxiale d'un même sinogramme en utilisant un voisinage 2D (Fig.)
et un voisinage 3D (Fig.).
La façon dont nous avons envisagé la reconstruction la rend utilisable du fait
des temps de reconstruction que nous obtenons et de la capacité mémoire requise.
Notons que c'est principalement le produit matriciel qui nous permet d'obtenir
ces performances. La perte de précision que nous avons sur la construction de
la matrice
en acceptant nos hypothèses (notamment le fait
que le bruit sur les projections est indépendant du signal) est compensée par
le fait que nous injectons de l'information a priori au moment de la reconstruction.
Rien ne nous empêche d'envisager un a priori plus évolué puisque le noyau de
la reconstruction a été optimisé. Nous avons montré Ch.11 comment,
dans un cadre statistique, nous pouvions expliquer la fonction de pondération.
Cette fonction cherche en effet à pénaliser les écarts de valeurs improbables
entre voxels. Si on rapproche cette façon de penser de celle menée lors des
études d'activation, il semble envisageable de coupler les cartes de probabilités
d'apparitions de clusters avec la reconstruction algébrique de sinogramme
de différence. L'information a priori étant puisée dans ces cartes. Il
se peut que dans ce cadre l'approche markovienne ne soit pas forcément la plus
adaptée. Cette dernière hypothèse ouvre la voie à un travail prometteur permettant
d'intégrer la détection d'activation et l'information a priori que cela
représente au moment même de la reconstruction. Elle constitue la perspective
la plus riche de ce travail de thèse.