next up previous contents index
Next: IV. Annexes Up: 11. Conclusion et Perspectives. Previous: 11.1 Résultats obtenus.   Contents   Index

Subsections

11.2 Perspectives.

11.2.1 Dresser des cartes de probabilités d'apparition des clusters.

Les images de bruit que nous sommes en mesure de générer par notre simulation traduisent bien l'instationnarité spatiale. L'idée est donc de dresser des cartes d'apparitions de clusters dans ces images. Dans ces cartes, il s'agit de répondre à la question suivant: ``Quelle est la probabilité $ I\! \! P_{t}(Taille>k) $ d'observer un aggrégat de voxels de taille supérieur à $ k $ après seuillage à $ t.\sigma $ d'une image de bruit présentant un écart type $ \sigma $?'' Dans le cas d'images stationnaires, on peut donner une valeur globale pour l'ensemble du volume et la valeur du seuil est fixe. En revanche, pour des images de bruit instationnaires, cette probabilité varie localement. Notre simulation, par de multiples réalisations, nous donne accès à $ \sigma (x,y,z) $. L'écart type n'est pas calculé sur une seule réalisation pour l'ensemble des voxels du volume. Nous pouvons donc envisager de normaliser notre image de bruit avant seuillage afin de revenir à un bruit normal centré sur l'ensemble du volume. L'utilisation d'un seuil fixe se justifie alors pleinement. Le fait de pouvoir itérer de multiples acquisitions rapidement nous permet également d'envisager le calcul, sur ces images normalisées, d'une probabilité d'apparition de clusters discriminés sur leur taille mais aussi sur leur intensité par l'utilisation d'une simulation Monte-Carlo.

11.2.2 Optimisation.

11.2.2.1 Vectorisation

L'implémentation et la validation des méthodes développées ayant constitué une part importante de ce travail, la partie validation fut donc restreinte à des études à petite échelle. Notons que tous les algorithmes implémentés présentent de bons résultats en terme de parallélisation. Toutefois, excepté pour le calcul du produit $ \mathbf{H}^{t}\mathbf{Hf} $, nous avons négligé la partie vectorisation. Il semble que la vectorisation des procédures de projection nous permettrait d'atteindre de meilleures performances encore.

11.2.2.2 Accélération de la convergence de l'algorithme de gradient conjugué.

Notre algorithme de minimisation alternée génère une suite de systèmes linéaires de grande taille. Chaque entité de cette succession de systèmes est résolue par un algorithme itératif de gradient conjugué. L'objectif est d'exploiter a posteriori les informations numériques issues de l'itération $ \alpha $, afin d'accélerer de manière très significative la résolution des problèmes linéaires aux itérations suivantes. Cette technique d'accélération repose sur les travaux de Rey et Risler. Développée en mécanique non-linéaire, elle s'adapterait sans difficulté à notre problématique.

11.2.3 Reconstruction algébrique.

11.2.3.1 Utilisation du voisinage 3D.

Dans la méthode de reconstruction algébrique, la minimisation du critère est globale, la minimisation est faite sur l'intégralité du volume et nous ne reconstruisons pas plan par plan. En revanche le voisinage utilisé est lié à des voxels coplanaires. Nous avons implémenté le voisinage 3D basé sur une 6-connexité mais faute de temps le voisinage 3D basé sur une 27-connexité n'a pas été envisagé. Son implémentation toutefois ne pose pas de problème. Les résultats obtenus permettrait d'éviter l'effet de tranches que l'on peut voir dans une vue transaxiale en créant des continuités et de la propagation d'information suivant la direction $ z $. Cette information suivant l'axe longitudinal est importante surtout pour la détermination de cluster. Le voisinage 3D basé sur une 6-connexité n'est pas suffisant car les liaisons diagonales sur l'image sont importantes. Toutefois à titre d'illustration, nous donnons Fig la comparaison de reconstructions pour une coupe transaxiale d'un même sinogramme en utilisant un voisinage 2D (Fig.) et un voisinage 3D (Fig.).

11.2.3.2 Introduction d'une information a priori plus évoluée.

La façon dont nous avons envisagé la reconstruction la rend utilisable du fait des temps de reconstruction que nous obtenons et de la capacité mémoire requise. Notons que c'est principalement le produit matriciel qui nous permet d'obtenir ces performances. La perte de précision que nous avons sur la construction de la matrice $ \mathbf{H} $ en acceptant nos hypothèses (notamment le fait que le bruit sur les projections est indépendant du signal) est compensée par le fait que nous injectons de l'information a priori au moment de la reconstruction. Rien ne nous empêche d'envisager un a priori plus évolué puisque le noyau de la reconstruction a été optimisé. Nous avons montré Ch.11 comment, dans un cadre statistique, nous pouvions expliquer la fonction de pondération. Cette fonction cherche en effet à pénaliser les écarts de valeurs improbables entre voxels. Si on rapproche cette façon de penser de celle menée lors des études d'activation, il semble envisageable de coupler les cartes de probabilités d'apparitions de clusters avec la reconstruction algébrique de sinogramme de différence. L'information a priori étant puisée dans ces cartes. Il se peut que dans ce cadre l'approche markovienne ne soit pas forcément la plus adaptée. Cette dernière hypothèse ouvre la voie à un travail prometteur permettant d'intégrer la détection d'activation et l'information a priori que cela représente au moment même de la reconstruction. Elle constitue la perspective la plus riche de ce travail de thèse.


next up previous contents index
Next: IV. Annexes Up: 11. Conclusion et Perspectives. Previous: 11.1 Résultats obtenus.   Contents   Index
Lecomte Jean François 2002-09-07