Les fondamentaux - Chapitre 12 - Erreurs en imagerie médicale
L. Arrivé
Plan du chapitre
- Introduction
- Erreurs procédurales
- Erreurs de détection
- Erreurs d'interprétation
- Erreurs de communication
- Solutions d'amélioration
Introduction
La médecine n'est pas une science exacte. Il existe une intervention humaine qui implique la possibilité toujours présente d'une erreur qui peut avoir des conséquences plus ou moins graves. Évidemment, l'imagerie médicale n'échappe pas à cette règle. Dans la majorité des cas – et c'est une particularité propre à l'imagerie médicale –, l'erreur est vérifiable a posteriori puisqu'elle est attestée par un support physique qui peut être réanalysé a posteriori. Elle est en cela différente d'autres erreurs médicales moins faciles à vérifier a posteriori. Il est par exemple beaucoup plus difficile d'analyser l'imputabilité à une erreur médicale pour une complication chirurgicale.
En imagerie médicale, on peut résumer le processus de l'examen d'imagerie en plusieurs étapes :
- la demande d'examen par un médecin clinicien (le « demandeur ») qui doit ainsi poser une question ;
- la prescription de l'examen par un spécialiste d'imagerie, radiologue ou médecin nucléaire (le « prescripteur ») – il faut bien distinguer demande et prescription ;
- la réalisation de l'examen, le plus souvent par un membre du personnel non médical, le manipulateur en électroradiologie (sauf pour l'échographie, directement réalisée par un médecin en France ; en Australie, au Royaume-Uni, au Canada et aux États-Unis, les échographies sont réalisées par des membres du personnel non médical, des sonographers) ;
- la détection d'une anomalie potentiellement présente ;
- l'interprétation de cette anomalie ;
- la communication des résultats de l'examen (le prescripteur tente de répondre à la question du demandeur ; ce dernier interprète lui-même la réponse).
Chacune de ces étapes expose par nature aux risques d'erreurs.
Erreurs procédurales
Ce type d'erreurs concerne la réalisation de l'examen, qu'il s'agisse d'un examen dont l'indication n'est pas pertinente, d'un examen pour lequel la technique de réalisation a été insuffisante ou inappropriée (par exemple absence d'injection de produit de contraste alors que cette dernière était nécessaire), ou d'un examen pour lequel une erreur physique a été réalisée (erreur sur la région à examiner, épaule droite pour épaule gauche par exemple, voire erreur concernant l'identité du patient). L'identitovigilance constitue une des règles primordiales en imagerie médicale comme dans les autres domaines d'application médicale.
L'indication d'un examen d'imagerie médicale constitue un des piliers garants d'un résultat adéquat. Tout examen d'imagerie médicale est réalisé à la suite d'une demande d'examen. Celle-ci permet au radiologue ou au médecin nucléaire de choisir l'examen le plus adapté à la demande médicale et le protocole de l'examen à réaliser, mais également une interprétation des images en fonction des renseignements cliniques fournis par le médecin demandeur.
Pour optimiser sa prescription, le médecin peut s'appuyer sur des référentiels de recommandations de pratique clinique, réalisés par les différentes sociétés savantes (la Société française de radiologie [SFR], la
Société française de médecine nucléaire [SFMN]), ou l'association de plusieurs d'entre elles (on prendra le seul exemple du Guide du bon usage des examens d'imagerie médicale).
Ainsi, le choix du bon examen et de la bonne procédure de réalisation est fonction de ce qui est recherché. Par exemple, pour détecter un pneumopéritoine secondaire à la perforation d'un ulcère, il n'est pas raisonnable aujourd'hui de prescrire et de réaliser chez un adulte un cliché radiographique d'abdomen sans préparation dont on sait qu'il est très largement inférieur à la tomodensitométrie (TDM) qui permettra de visualiser un pneumopéritoine de petite abondance (voir chapitre 27). Il est vraisemblable que les applications de l'intelligence artificielle viendront optimiser les indications des examens d'imagerie médicale.
Toujours dans le cadre des erreurs procédurales – et il s'agit là de la responsabilité du médecin spécialiste d'imagerie –, il faut adapter la technique d'imagerie à la question clinique posée. Par exemple, si l'objectif est de chercher un pneumopéritoine, on peut parfaitement réaliser une TDM sans injection de produit de contraste. Au contraire, si l'on cherche une lésion d'un organe plein, il est généralement utile d'injecter un produit de contraste par voie veineuse pour sensibiliser la recherche des anomalies.
Erreurs de détection
On considère ici comme erreur de détection, ou erreur de perception, une anomalie non détectée alors qu'elle était présente, mais non vue par l'observateur. L'erreur de détection est effectivement différente de l'erreur procédurale. Il s'agit donc ici d'une erreur visuelle, c'est-à-dire de la non-détection d'une anomalie visible a posteriori, erreur visuelle soumise aux lois de la vision humaine et de la perception. Ces erreurs doivent être évitées autant que possible, mais elles peuvent toucher même les médecins les plus expérimentés. Elles dépendent en partie du niveau de compétence et de la formation du médecin spécialiste d'imagerie, mais également de facteurs conjoncturels, comme le manque d'informations cliniques pertinentes, des conditions de travail mal adaptées et du degré de fatigue ou de stress de l'observateur.
Cependant, même dans les meilleures conditions, ces erreurs de détection sont inévitables de façon sporadique. Dans ce domaine encore, les applications de l'intelligence artificielle viendront vraisemblablement optimiser la détection des anomalies.
Erreurs d'interprétation
Il s'agit, dans ce cas, de l'interprétation inadéquate d'une anomalie supposée qui a été détectée. Elle peut entraîner un diagnostic faussement positif, quand par exemple une variante anatomique de la normale est considérée à tort comme une anomalie ou, a contrario, une interprétation faussement négative si une véritable anomalie, qui nécessiterait une prise en charge spécifique, est considérée comme une variante de la normale.
L'analyse rétrospective de larges séries d'erreurs en imagerie médicale a montré que les erreurs de détection sont beaucoup plus fréquentes que les erreurs d'interprétation ou cognitives avec un rapport d'environ 5 pour 1. Il est là encore possible que les applications de l'intelligence artificielle viennent optimiser l'interprétation des images. C'est probablement dans ce domaine de l'interprétation que l'influence de l'intelligence artificielle sera la moins rapide à s'installer.
Erreurs de communication
On peut classer ici l'ensemble des erreurs qui découlent d'une mauvaise communication entre le médecin spécialiste d'imagerie qui a interprété l'examen et le médecin demandeur. Il peut s'agir d'une absence physique d'information. C'est, par exemple, dans le cadre de la découverte d'une anomalie potentiellement grave mais non attendue, du non-respect du devoir d'information du médecin spécialiste d'imagerie au médecin demandeur. Par exemple, la découverte inattendue d'une embolie pulmonaire observée à l'occasion d'une TDM réalisée pour une autre raison implique, de la part du radiologue, l'obligation de s'assurer que l'information va directement et rapidement être communiquée au médecin demandeur. Plus généralement, les erreurs de communication peuvent découler de malentendus quant à la lecture d'un compte-rendu qui, par exemple, pourrait être jugé rassurant par le médecin demandeur, alors qu'il était simplement mal énoncé par le médecin spécialiste d'imagerie. Nous prendrons le seul exemple de l'interprétation du terme « compatible » qui peut être très différente (soit plutôt négatif, soit plutôt positif) selon les interlocuteurs.
Solutions d'amélioration
- La double lecture : interprétation systématique des examens par deux médecins de manière indépendante. Cette approche est appliquée dans le cadre des mammographies réalisées pour le dépistage du cancer du sein, afin de diminuer le risque d'interprétation faussement négative (voir chapitre 29). En revanche, cette double lecture expose au danger d'augmenter le risque d'interprétation faussement positive.
- La recherche d'un avis d'expert peut se faire dans le cadre d'un exercice en groupe, mais également aujourd'hui assez simplement dans le cadre des activités de télé-expertise propres à la téléradiologie qui fait appel au concours d'un spécialiste à distance consulté grâce aux techniques modernes de diffusion et de communication des informations.
- L'intervention des techniques d'intelligence artificielle va probablement améliorer les performances pour ce qui est de la juste indication des examens d'imagerie, de la détection des anomalies radiologiques et possiblement pour l'interprétation des images.
- Comme dans l'ensemble des exercices humains, il a été montré qu'une des techniques les plus efficaces pour réduire le risque d'erreur médicale était d'effectuer une analyse rétrospective des erreurs effectuées, afin de comprendre leurs mécanismes de survenue et de mettre en place des mesures de prévention pour éviter leur récidive.
Chapitre suivant | |
Retour au sommaire |
Les fondamentaux - Chapitre 11 - Perception de l'image
J.-Y. Devaux , D. Galanaud et F. Brunotte
Plan du chapitre
- Introduction
- Étapes de la perception visuelle
- Particularités normales de la vision susceptibles d'interférer avec la perception des images
- Limitations de perception visuelle liées au vieillissement physiologique ou à des maladies de l'observateur
- Conséquences pour l'analyse des images
- Conclusion
Introduction
La perception visuelle est « le processus d'accès à la connaissance des objets et événements de l'environnement par l'extraction de l'information de la lumière émise ou réfléchie » [1]. La perception est donc une activité cognitive qui se distingue des phénomènes purement optiques. La présentation des images est susceptible d'en modifier la perception. La perception, combinée avec un choix judicieux de l'examen et avec la manière dont celui-ci est visualisé, permet d'arriver à un diagnostic d'imagerie. De nombreux écueils sont à identifier, liés à la manière dont le cerveau humain traite l'information visuelle.
Une image correspond à la localisation dans l'espace d'un signal physique. Les images examinées par le médecin sont soit constituées par de la lumière visible réfléchie (examen direct de la peau, endoscopie), soit transmises par l'élément biologique (microscopie), soit créées sur un écran vidéo, une image papier ou un film transparent. L'imagerie médicale décrite dans cet ouvrage correspond à la transformation en image visible des interactions d'un rayonnement avec un détecteur, rayons X et gamma en radiologie et médecine nucléaire respectivement, ondes radiofréquences en résonance magnétique et ondes ultrasonores en échographie. In fine, une image médicale est donc toujours transmise à l'observateur en lumière visible, condition pour qu'elle puisse constituer une image rétinienne, transmise au cerveau puis analysée et confrontée aux connaissances acquises par le médecin.
L'ordinateur est présent dans pratiquement tous les examens d'imagerie, à la fois pour le pilotage des acquisitions et leur visualisation sur les différents supports cités précédemment. Initialement analogiques, les images médicales sont donc désormais numérisées. Leur mode de présentation doit favoriser la capacité de l'œil humain à analyser ce qu'il perçoit. Les différentes modalités d'imagerie génèrent un volume croissant de données, représentant une information de plus en plus complexe, véritable défi cognitif pour le médecin chargé de l'analyse et de l'interprétation. La réalisation et l'interprétation correctes d'un examen vont nécessiter une série de décisions, conscientes et inconscientes, de la part du médecin imageur, qui vont interférer avec l'interprétation et le diagnostic final.
Les images soumises à l'interprétation médicale sont bidimensionnelles et représentent habituellement une matrice rectangulaire de pixels (voir chapitre 2).
Étapes de la perception visuelle
Les photons de lumière visible traversent les milieux transparents de l'œil dont le cristallin, responsable de l'accommodation, avant de former l'image rétinienne. Le spectre du rayonnement électromagnétique perceptible est très limité (au maximum de 380 à 780 nm). Le signal issu de la rétine, qui comporte à la fois des cellules sensibles aux couleurs (cônes) ou uniquement à l'intensité lumineuse (bâtonnets), subit un premier traitement de l'information au sein même de la rétine (par exemple détection de contours, détection de mouvements, analyse des couleurs). Il transite par les nerfs optiques, le chiasma et les corps géniculés latéraux, puis atteint le cortex visuel primaire dans la région occipitale. L'information visuelle est ensuite traitée dans deux régions distinctes : le réseau ventral (lobe temporal), impliqué essentiellement dans la reconnaissance de l'objet, la sensibilité aux détails et la mémorisation à long terme ; le réseau dorsal (lobe pariétal) traitant la relation de l'objet au sujet, le mouvement et la mémorisation à court terme.
Un élément essentiel du traitement de l'information, comme nous le verrons à plusieurs reprises, est la confrontation aux connaissances acquises préalablement par l'observateur qui va sans cesse confronter ce qu'il voit à ce qu'il connaît.
Perception du contraste et des couleurs
Les images issues des capteurs médicaux sont généralement représentées en nuances de gris. Leur représentation sur écran se fait le plus souvent sur 8 bits, soit 256 nuances de gris. Or, l'œil humain n'est capable de discerner en moyenne que 20 à 30 niveaux de gris différents et la discrimination des nuances est d'autant plus élevée qu'elles ne sont ni très sombres, ni très claires. Même l'examen d'imagerie le plus simple (une radiographie de thorax par exemple) dépasse largement nos capacités de perception et il faut développer des stratégies pour rendre visible de manière optimale le contraste des images. Il existe une transformation entre le signal mesuré (valeur numérique stockée dans un pixel) et sa représentation sur l'écran (figure 11.1). Cette représentation est généralement une fonction affine avec un minimum correspondant au noir et un maximum correspondant au blanc. Mais elle peut aussi être une fonction courbe plus complexe ou conduire à un affichage en échelle de couleurs.
L'échelle de Hounsfield, utilisée pour la TDM, fait correspondre des valeurs allant de − 1000 UH (unités Hounsfield) à + 1000 UH à des niveaux de gris. On règle ainsi la largeur et la position de la fenêtre ou, ce qui revient au même, le minimum (correspondant au noir) et le maximum (au blanc) (figure 11.2).
On obtient ainsi différentes « fenêtres » pour sélectionner les tissus explorés, voire accentuer leurs contrastes. De base, trois fenêtres sont utilisées : celle des « os », des « poumons » et des « tissus mous » (foie, cerveau, disques intervertébraux, etc.).
La plupart des autres modalités d'imagerie sont correctement présentées en 256 niveaux de gris, mais certains traitements d'image, en particulier ceux de l'imagerie fonctionnelle (IRM fonctionnelle, scintigraphie), les représentations volumiques et les associations bimodalités font appel à des échelles de couleurs.
Un des intérêts de la représentation colorée est qu'une couleur est identifiable de manière absolue avec une certaine précision (on distingue un jaune d'un rouge), alors que les niveaux de gris ne sont pas identifiables de manière absolue (figure 11.3). Les échelles colorées sont donc plus adaptées à la quantification alors que les échelles en niveaux de gris sont plus adaptées à une interprétation plus qualitative.
La représentation des couleurs peut se faire par synthèse « additive » (ajout de lumières de différentes longueurs d'onde) ; c'est le cas pour les moniteurs qui génèrent les couleurs au moyen de trois primaires (rouge, vert, bleu [RVB], RGB en anglais), correspondant grossièrement aux trois types de cônes de la rétine. Générant pourtant 16 millions de couleurs différentes, alors que l'œil humain n'en distinguerait, en moyenne, que quelques dizaines de milliers, les écrans de visualisation ne pourront jamais représenter toutes nos capacités de différenciation de nuances colorées, en particulier dans les verts ou les pourpres.
Lors d'une impression sur papier, il s'agit au contraire de synthèse soustractive : les encres ou la peinture absorbent certaines longueurs d'onde, qu'elles « soustraient » ainsi d'une lumière blanche polychromatique ; c'est la synthèse cyan, magenta, jaune (CMJ) (ou CMY en anglais). La représentation colorée est donc différente selon que le support est un écran ou un document imprimé, avec une difficulté de calibration pour représenter correctement les couleurs.
Résolution spatiale
La résolution des différentes modalités d'imagerie n'est pas identique (voir chapitre 2). Nettement inférieures au millimètre, les images radiographiques sont, en pratique, les plus résolues. Les images d'IRM et d'échographie sont de l'ordre du millimètre alors que les images de TEP et surtout celles de scintigraphie sont peu inférieures au demi-centimètre.
La résolution de l'image visualisée dépend de la taille du pixel. Devenus de grande dimension, les écrans actuels des services d'imagerie sont toujours très résolutifs. La résolution de l'écran peut être inutilement élevée si elle excède notablement la résolution physique de la technique. Mais elle peut être aussi trop faible et diminuer artificiellement les performances du système d'imagerie.
La résolution de l'œil humain habituellement appelée acuité visuelle est d'une minute d'angle (c'est-à-dire un soixantième de degré) pour un œil normal (acuité de 10/10) et correspond à la distance sur la rétine entre deux cônes adjacents.
Il faut donc s'assurer que l'angle sous lequel deux points à distinguer sur l'écran sont vus n'est pas inférieur à un angle d'une minute.
Particularités normales de la vision susceptibles d'interférer avec la perception des images
Contraste simultané
Une image en niveaux de gris est constituée de stimuli de luminance différente présentés simultanément. La perception visuelle va évidemment dépendre du pouvoir que possède le système visuel de discriminer ces stimuli. La psychophysique de la vision décrit des interactions entre ces plages voisines qui induisent la perception de contrastes qui n'existent pas sur l'image :
- échiquier d'Adelson (figure 11.4) ;
- grilles d'Hermann (figure 11.5) (illusion de présence de carrés gris) et bandes de Mach (renforcement de la perception du passage d'une nuance à une autre, augmentant le contraste) attribuables à l'organisation même de la rétine sous forme de champs récepteurs rétiniens ;
- dépendance de la perception du contraste de la fréquence spatiale dans l'image.
Illusions visuelles
De nombreux exemples démontrent que la perception d'une image n'est pas seulement l'enregistrement d'une image bidimensionnelle formée de luminance variable.
C'est le cas du contraste simultané que nous venons de détailler, mais c'est aussi celui de nombreux exemples montrant que l'évaluation des longueurs ou des formes géométriques dépend de leur environnement.
En fonction de leur environnement, deux formes géométriques de taille identique peuvent être perçues comme de tailles différentes, une droite peut apparaître courbe, un nodule identique peut paraître de taille différente en fonction du grossissement de l'image, etc.
Ces illusions sont à distinguer des artefacts : les premières correspondent à la mauvaise perception d'une information exacte, tandis que les artefacts sont la présence d'une information fausse sur l'image liée à des problèmes lors de la réalisation de l'examen. Les illusions d'optique peuvent entraîner des erreurs d'interprétation par mauvaise perception des images, en particulier en ce qui concerne la taille des objets ou leur intensité de signal.
Figures ambiguës
Une autre démonstration de la nature interprétative de la vision vient de l'existence d'images pouvant donner lieu à plusieurs perceptions différentes. C'est le cas de l'ambiguïté visage/vase (cas classique du « vase de Rubin »). Il faut noter que ces deux perceptions sont mutuellement exclusives et qu'elles sont en compétition dans l'interprétation que nous en faisons, ce qui exprime le fait que la perception implique la construction d'un modèle d'interprétation.
Remplissage perceptif
Lorsque plusieurs figures géométriques se cachent les unes derrière les autres, l'observateur a tendance à en reconstruire la partie cachée en fonction d'un modèle géométrique dont il fait plus ou moins inconsciemment l'hypothèse plus ou moins juste.
Objets « impossibles »
Certaines images bidimensionnelles formées de lignes très simples ne peuvent pas être décrites de manière synthétique. En effet, la forme ainsi construite ne peut pas être construite physiquement, ce qui en rend la perception impossible et ce qui prouve que la vision humaine comprend l'image rétinienne associée à une étape de modélisation qui repose sur une connaissance préalable des objets.
Limitations de perception visuelle liées au vieillissement physiologique ou à des maladies de l'observateur
Les anomalies pouvant toucher le système visuel sont très nombreuses. On peut citer (de manière non exhaustive !) : les troubles de la réfraction ou de la convergence, les dyschromatopsies7 qui touchent un homme sur dix mais pratiquement pas les femmes, les réductions du champ visuel, les rétinopathies, les atteintes des voies visuelles, du cortex visuel primaire ou du cortex associatif. La perception de l'image va ainsi varier considérablement en fonction des individus. Tous ces éléments doivent donc être pris en compte dans la visualisation des examens. L'analyse d'une série de 24 images/s sur un moniteur d'ordinateur sera plus spontanée pour un sujet jeune ayant une vision parfaite que pour un sujet plus âgé présentant une presbytie et un début de cataracte !
Conséquences pour l'analyse des images
Précautions dans la visualisation des images
Les modalités de visualisation de l'image peuvent exercer à l'insu de l'observateur un certain traitement de l'image. Ainsi, un examen imprimé sur un papier ou présenté sur un écran de mauvaise qualité sera plus difficilement interprétable et fera courir le risque de passer à côté de lésions de petite taille ou présentant un faible contraste.
La perception du contraste est également influencée par les conditions d'éclairage de l'environnement. L'interprétation requiert des tâches cognitives complexes qui seront influencées par la concentration du lecteur, mais aussi par ses connaissances acquises (voir chapitre 12). La lecture d'un examen dans une salle d'interprétation sombre, au calme, sur un moniteur de catégorie médicale de luminosité et de gamme colorimétrique bien calibrées n'aura pas grand-chose à voir avec la visualisation de ce même examen dans une salle bruyante, ensoleillée, sur un écran de petite taille non dédié et non calibré.
Compréhension des traitements d'images « involontaires »
Un certain nombre de manipulations d'images sont susceptibles, à l'insu du médecin, de modifier le contraste et la résolution des images. Parmi les situations correspondantes, citons un écran de résolution insuffisante, des images transmises après compression entraînant des pertes en résolution. L'utilisation de filtres destinés à améliorer la qualité visuelle de l'image (soit filtres lissants comme les filtres « gaussiens », soit filtres renforçant les bords) présente un certain danger de suppression d'une information pertinente ou de création d'artefacts et d'illusions d'optique. Ils sont donc à manier avec prudence.
Une lésion plus petite que la résolution de l'appareillage utilisé pourra ne pas être détectée à un stade précoce. En revanche, une lésion de très petite dimension sera identifiable si son métabolisme permet une imagerie fonctionnelle et génère une intensité élevée.
Adaptation de la présentation des images aux performances visuelles de l'imageur
La présentation des images doit être adaptée aux performances visuelles de l'imageur. L'exemple le plus convaincant est celui du fenêtrage que nous avons vu plus haut. L'œil étant incapable de percevoir l'ensemble des niveaux de luminance d'un examen en une seule image, il est nécessaire d'utiliser les 30 niveaux de gris que nous pouvons distinguer en plusieurs fois afin de bien détailler toute l'échelle des niveaux de gris. En matière de résolution, l'utilisation de zoom est souvent utile.
Importance de la confrontation à une base de connaissance solide de l'imageur
Il faut insister sur le fait que l'interprétation de l'image ne peut se faire de manière adéquate que par référence à la base de connaissance dont dispose l'imageur. Par exemple, un nodule pulmonaire ne sera pas vu de la même manière chez un jeune patient atteint d'une sarcoïdose que chez un sujet plus âgé et gros fumeur, ou bien une lésion osseuse qui peut avoir de multiples origines (fracture, infection, inflammation, arthrose, tumeur, etc.) ne pourra pas être analysée correctement si le type d'examen pratiqué ou les reconstructions d'images réalisées ne sont pas adaptés au mécanisme causal. Le mode de présentation de l'image est également important, comme nous l'avons vu précédemment.
Pour aller plus loin
« Have you seen the dancing gorilla ? » : il s'agit d'une expérience célèbre réalisée par Daniel Simons et Christopher Chabris des départements de radiologie et de psychologie de la Harvard Medical School. Une courte vidéo est projetée, durant laquelle deux groupes de joueurs, certains habillés en blanc d'autres en noir, se font des passes de basket. Il est demandé aux participants de compter le nombre de fois où les joueurs habillés en blanc se passent la balle. Dans le même temps, un septième personnage, déguisé en gorille, traverse la scène en effectuant quelques pas de danse. La moitié des participants ne remarque pas la présence du gorille.
Ce phénomène est appelé cécité d'inattention, c'est-à-dire le fait de ne pas percevoir un stimulus visuel parfaitement visible car l'attention est captée par une autre tâche. L'implication en imagerie médicale est évidente et a été vérifiée par une équipe de radiologues de la même université. Si on recherche une lésion particulière (par exemple une tumeur), on peut ne pas remarquer une autre pathologie, pourtant bien visible (par exemple accident vasculaire cérébral, embolie pulmonaire, etc.).
Conclusion
Recueillir, traiter et interpréter des images : ce sont les actions à la base de nombreux diagnostics médicaux. Les caractéristiques du contraste et de la résolution de ces images doivent être adaptées de manière optimale, à la fois selon le procédé d'acquisition utilisé et selon les capacités de perception visuelle des imageurs concernés. Les possibilités de traitement de l'image par les ordinateurs modernes sont très performantes, mais leurs procédés d'affichage doivent être régulièrement contrôlés afin de maintenir la sûreté de leur usage dans l'intérêt des patients. Parallèlement, les imageurs doivent toujours être conscients des limites de la vision humaine lors de leur interprétation des images.
Référence
[1] Palmer SE. Vision Science. Photons to phenomenology. Cambridge MA : The MIT Press Third printing ; 2002.
Chapitre suivant | |
Retour au sommaire |
Les fondamentaux - Chapitre 10 - Traitement de l'image reconstruite
A. Blum
Plan du chapitre
- Introduction
- Reconstructions d'acquisitions volumiques
- Recalage, soustraction, fusion
- Réalité augmentée
- Conclusion
Objectif
- Connaître les principales modalités de traitement de l'image.
Introduction
En imagerie médicale, la formation de l'image résulte de la mesure physique des interactions entre un processus physique (rayons X, ultrasons, ondes radiofréquences, etc.) et les tissus biologiques. Ces variations d'interactions sont captées, analysées et transformées en signaux. Ces signaux sont alors traduits en une ou plusieurs images immédiatement interprétables.
L'image médicale est numérique. Qu'elle représente une projection ou une coupe, elle se divise en unités élémentaires appelés pixels (picture element). Ces pixels possèdent une information topographique et une valeur de signal représentant les interactions avec les tissus biologiques.
Lorsque l'image représente une coupe, le pixel correspond à une unité de volume élémentaire appelée voxel (volume element) (voir chapitre 2). On dispose des informations concernant sa position au sein de la coupe, sa position au sein du volume, l'épaisseur de la coupe (identique à l'épaisseur du voxel) et sa valeur de signal. L'accès aux informations affectées à chaque pixel et à chaque voxel fournit de multiples possibilités de traitement de l'image pour les modalités d'acquisition par coupes (tomodensitométrie [TDM], imagerie par résonance magnétique [IRM] et échographie). Ce chapitre aborde quelques-unes des nombreuses opérations de traitement de l'image :
- reconstructions d'acquisitions volumiques ;
- segmentation qui vise à délimiter les contours d'organes et les sélectionner ;
- recalage, permettant soustraction ou fusion.
Reconstructions d'acquisitions volumiques
Reconstructions multiplanaires (MPR)
L'empilement des coupes permet de reconstituer le volume et de produire des coupes dans tous les plans de l'espace (axial, coronal, sagittal, oblique) (figure 10.1). Ces coupes sont appelées reconstructions multiplanaires (multiplanar reconstruction [MPR]). Leur qualité est d'autant meilleure que la résolution spatiale longitudinale (axe perpendiculaire au plan de coupe) est élevée, c'est-à-dire que l'épaisseur du voxel et la distance séparant les coupes sont faibles. Un volume isotrope (résolution identique dans les trois axes ou voxel cubique) procure les meilleurs résultats. En TDM, le chevauchement des coupes améliore la résolution spatiale longitudinale.
Reconstructions projectives
Cette technique permet de projeter sur un même plan, selon une direction choisie, les voxels d'intensité maximale (maximal intensity projection [MIP]) (figure 10.2) ou les voxels d'intensité minimale (minimal intensity projection [MinIP]) (figure 10.3). La technique MIP est utile pour étudier les structures vasculaires. La technique MinIP est utile pour étudier les structures contenant de l'air, comme les bronches, ou pour de fines structures au sein de l'os en haute résolution.
Segmentation
La délimitation d'une zone (par exemple un organe ou une tumeur) dans une image permet de mieux visualiser la structure, d'en quantifier le signal ou d'en mesurer le volume. Une telle zone est appelée région d'intérêt (region of interest [ROI]) et sa délimitation est appelée segmentation. Celle-ci peut se faire manuellement, mais l'utilisation d'algorithmes automatiques ou semi-automatiques de segmentation d'organes et de lésions permet d'augmenter la précision, la fiabilité et la répétabilité de leur représentation ainsi que la mesure de leur volume. Différentes techniques de segmentation sont utilisées ; la plus simple est de déterminer si un pixel appartient ou non à la région d'intérêt en fonction de la valeur du signal par simple seuillage. D'autres techniques plus complexes prennent en compte la taille, la régularité du contour, les caractéristiques des pixels voisins, la connectivité (le fait que la région soit d'un seul tenant).
Rendu de volume et illumination globale
Les images 3D ont pour objectif d'améliorer l'analyse topographique des structures, en offrant une vue globale de la région explorée. Les images 3D font appel à une technique dite de volume rendering technique (VRT). Elles sont réalisées après un seuillage des voxels afin de sélectionner les structures d'intérêt. Des pseudo-couleurs et un certain degré de transparence sont affectés à chaque voxel en fonction de leur valeur de signal. Certains logiciels permettent une mesure des distances ou des angles tridimensionnels.
L'obtention d'une vue 3D sur un plan est obtenue en appliquant deux principes :
- le principe des surfaces cachées : une structure proche de l'œil de l'observateur cache un objet plus distant ;
- l'ombrage : en supposant que l'œil de l'observateur soit la source lumineuse, les objets proches de son œil ou qui lui font face sont plus lumineux que ceux qui sont lointains ou dans l'axe du faisceau lumineux (figure 10.4A).
La technique d'illumination globale, plus souvent appelée global illumination (imagerie photoréaliste), remplace progressivement la VRT grâce à une représentation plus réaliste de l'éclairage des objets (figures 10.4B et 10.5B) et à la possibilité d'utiliser des images avec une forte résolution spatiale, ce qui permet d'améliorer la détection et la perception des lésions (figures 10.6 et 10.7).
Recalage, soustraction, fusion
L'appariement et le recalage d'images prennent une place croissante dans l'analyse des données car ces opérations fournissent une analyse simultanée de deux acquisitions différentes d'un même patient :
- soit d'une même modalité à des temps différents ; par exemple TDM sans puis avec injection ; suivi de la réponse au traitement par chimiothérapie d'une tumeur au cours du temps ;
- soit de deux modalités différentes ; par exemple : TDM et TEP pour superposer l'information anatomique et fonctionnelle ; TDM et IRM.
Les opérations de recalage sont le préalable à la fusion ou à la soustraction des images.
Recalage
Pour pouvoir efficacement comparer deux images, les structures étudiées doivent avoir la même position. Or, lorsque les images ont été acquises sur deux appareils différents ou lorsque le patient a bougé entre deux acquisitions sur un même appareil, la mise en correspondance des images nécessite une opération appelée recalage. Les tailles du champ de vue et des pixels n'étant pas nécessairement les mêmes pour les deux images, la première étape du recalage consiste en un reformatage des images dans une base commune. La seconde étape repose sur des transformations rigides ou élastiques des objets de l'image afin de les faire correspondre :
- transformations rigides, lorsque l'objet ne s'est pas déformé mais a simplement bougé, qui consistent en de simples translations et rotations ;
- transformations élastiques, lorsque l'objet se déforme comme lors des mouvements respiratoires ou des battements cardiaques. Ces opérations sont plus complexes et altèrent potentiellement les mesures de signal.
Soustraction
La soustraction est utilisée depuis longtemps en angiographie numérisée. Une première acquisition est réalisée sans injection de produit de contraste, suivie d'une deuxième acquisition avec injection. Les deux séries sont ensuite soustraitées numériquement ; la différence correspond alors aux zones où se localise le produit de contraste, notamment dans les vaisseaux et les tissus hypervascularisés qui sont ainsi mieux visualisés. Cette technique est désormais élargie aux images en coupe ; elle est notamment appliquée en TDM et en IRM de perfusion pour l'analyse de la cinétique de rehaussement d'une tumeur.
Fusion
La fusion met en concordance dans le même espace numérique des images de même nature ou de nature différente. En médecine nucléaire (tomoscintigraphie, TEP-TDM, TEP-IRM) comme en IRM fonctionnelle, elle combine des informations fonctionnelles et morphologiques pour améliorer la valeur diagnostique des examens (figure 10.8).
Réalité augmentée
L'imagerie médicale est essentielle pour la planification préopératoire, mais elle peut également être utilisée pendant l'intervention pour en améliorer la précision et la sécurité. Le principe de la réalité augmentée consiste à superposer au monde réel et en temps réel des objets issus d'images médicales (TDM, IRM, etc.). Cette technique fait appel aux principes de segmentation, de recalage et de fusion de données multimodales. La réalité augmentée est une des processus nécessaires à la chirurgie assistée par ordinateur (CAO).
Conclusion
Les performances accrues de l'informatique permettent de faire appel à des techniques de reconstruction d'image plus nombreuses et plus performantes. Elles autorisent également des opérations combinées des données acquises et la manipulation en temps réel des différentes informations.
Essentiel à retenir
- Les modalités d'imagerie en coupe permettent de produire des volumes numériques, auxquels de multiples traitements peuvent être appliqués : reconstructions dans tous les plans de l'espace, représentations tridimensionnelles, seuillage, segmentation, recalage et fusion.
Chapitre suivant | |
Retour au sommaire |
Les fondamentaux - Chapitre 9 - Reconstruction tomographique
F. Ben-Bouallègue , E. Durand et D. Mariano-Goulart
Plan du chapitre
- Introduction
- Notion de projection
- En tomoscintigraphie
- En tomodensitométrie
- Problème direct – problème inverse
- Résolution du problème inverse en résolvant le système d'équations
- Rétroprojection
Objectifs
L'imagerie médicale repose schématiquement sur l'acquisition d'un signal physique, sur l'optimisation de ce signal (filtrages), sur sa mise en forme pour en faciliter l'utilisation médicale (reconstructions), puis sur son analyse (extraction d'éléments diagnostiques) qui fera l'objet du chapitre 10. Parmi les divers types de reconstructions possibles, la reconstruction tomographique joue un rôle central en tomodensitométrie (TDM), en imagerie par résonance magnétique (IRM) et en tomoscintigraphie d'émission. Elle fait l'objet de ce chapitre qui explique en quoi la reconstruction d'images tomographiques relève d'un problème linéaire mal conditionné et sur quels principes fonctionnent les algorithmes de rétroprojection filtrée et les techniques itératives de reconstruction. Il exclut tout formalisme mathématique, mais pourra servir d'introduction à l'approfondissement plus complet [1], mais aussi plus scientifique de la tomographie médicale.
Introduction
Avec W. Röntgen et H. Becquerel, puis la famille Curie, le XIXe siècle finissant avait vu éclore une physique des rayonnements ionisants qui permettait pour la première fois de visualiser les organes internes d'un patient de façon non invasive. Le développement de l'imagerie radiologique qui suivit très vite, puis de l'imagerie scintigraphique resta cependant longtemps cantonné à la production d'images de projections où les signaux issus des divers plans perpendiculaires au rayonnement incident se superposaient sur un plan unique, rendant complexe l'interprétation médicale. Les solutions théoriques qui permirent de résoudre cette difficulté et de disposer d'une imagerie volumique ou reconstruite en coupes existaient pourtant dès le début du XXe siècle, avec les travaux des mathématiciens J. Radon en 1917 et S. Kaczmarz en 1937.
Mais il fallut attendre l'intervention d'un ingénieur talentueux, G.N. Hounsfield, au tout début des années 1970, le développement des calculateurs numériques qui accompagna la conquête de la Lune, puis le parrainage financier d'une société d'édition musicale qui bénéficiait dans les années 1960 du succès phénoménal de quatre chanteurs à la mode venus de Liverpool pour que naisse la tomographie médicale et que les premiers scanners prennent peu à peu la place qu'on leur connaît de nos jours dans le diagnostic médical.
Notion de projection
D'une manière assez générale, on cherche à obtenir des images en trois dimensions (3D) mais les acquisitions se font généralement en deux dimensions (2D). C'est le cas aussi pour la vision : nous percevons sur notre rétine (2D) l'image 2D d'un monde en 3D ; on parle de projection (figure 9.1A). Cela s'applique aussi à la plupart des techniques d'imagerie médicale : TDM, tomoscintigraphie, TEP et, dans certains cas, à l'IRM3.
Le fait de projeter entraîne une perte d'information : à partir de l'ombre d'un objet, on ne peut pas déterminer l'objet lui-même. En revanche, la combinaison de différentes projections permet d'avoir une meilleure idée de l'objet de départ (figure 9.1B). C'est le principe général de la reconstruction tomographique, objet de ce chapitre.
Du point de vue informatique, on considère qu'une image est composée d'une matrice de voxels, considérés comme homogènes et caractérisés chacun par la valeur du signal physique qu'il contient. En pratique, la projection selon un axe vertical ou horizontal consiste simplement à faire la somme de toutes les valeurs le long d'une ligne ou d'une colonne (figure 9.2A). Bien entendu, une projection selon une direction oblique est plus complexe, mais le principe est le même. Projeter une image 3D sur un plan 2D est difficile à représenter et plus complexe à écrire en équations. Dans tout ce qui suit, nous partirons donc d'une image en 2D pour la projeter sur une ligne en 1D, ce qui est plus simple à la fois à représenter et à modéliser en équations. Le principe reste strictement le même pour passer du 3D au 2D.
En tomoscintigraphie
En tomoscintigraphie, lorsqu'on utilise un collimateur parallèle, le signal de chaque voxel correspond au nombre de photons gamma résultant de l'activité dans ce voxel, lui-même proportionnel à la concentration de radioactivité. Le nombre total de photons détectés sur un élément de détection de la gamma-caméra correspond exactement à la somme des signaux des voxels le long d'une perpendiculaire au détecteur4 (figure 9.3 et voir figure 9.2B). L'image captée par le détecteur (2D) est donc bien une projection de l'activité de l'ensemble des voxels (3D). Il en va de même en TEP avec la détection en coïncidence.
D'une manière générale, on peut exprimer la valeur de chaque projection comme :
pk = sum from {i} rk,i × ai (1)
où ai désigne le signal du voxel i, pk la projection k et les coefficients rk,i la proportion de volume du pixel i qui se projette effectivement dans la projection k. Dans l'exemple de la figure 9.2B, on aurait par exemple r1,1 = 1 ; r1,4 = 0 et r2,4 = 1. En faisant tourner la gamma-caméra autour du patient, on peut ainsi obtenir de très nombreuses projections sous des angles différents. En TEP, la détection en coïncidence permet d'obtenir simultanément des projections dans toutes les directions visibles du détecteur.
En tomodensitométrie
En TDM, on envoie un faisceau de rayons X d'intensité I0 ; après avoir traversé le patient, ce faisceau ressort de manière atténuée avec une intensité Ii. La loi générale d'atténuation est :
Ii = I0 × e-μL (2)
après la traversée d'une longueur L d'un milieu de coefficient d'atténuation μ (voir figure 9.3).
Si l'on considère la traversée des 3 voxels numérotés 1, 2 et 3 comme sur la figure 9.2B, en désignant par d la largeur du voxel, l'atténuation de la première ligne de projection sera donnée par :
I1 = I0 × e-µ1d × e-µ2d × e-µ3d = I0 × e-( µ1 + µ2 + µ3)d (3)
L'opération n'est donc pas une simple somme, comme dans la tomoscintigraphie. Cependant, en transformant l'équation 3, on aboutit facilement à :
ln(I0 /I1) / d = µ1 + µ2 + µ3 (4)
On est donc ramené exactement au problème précédent de la tomoscintigraphie où chaque projection est la somme des signaux des voxels. Dans le cas de la TDM, le signal d'un voxel correspond au coefficient d'atténuation. Comme en tomoscintigraphie, on fait tourner le tube et le détecteur autour du patient pour acquérir de très nombreuses projections sous différents angles.
Problème direct – problème inverse
L'acquisition de l'image consiste à mesurer l'ensemble des projections pk. La reconstruction de l'image consiste à en déduire l'ensemble des signaux des voxels ai qui sont des inconnues. Modéliser l'acquisition revient à déterminer l'ensemble des coefficients rk,i qui déterminent les projections. En gros, cela revient à être capable de modéliser l'acquisition des projections, c'est-à-dire, connaissant les valeurs des voxels ai, à être capable de prédire les projections pk. On appelle cela le problème direct. C'est finalement assez simple si l'on connaît la géométrie de l'acquisition.
Dans la « vie réelle », on ne connaît pas les valeurs des voxels ; c'est même justement ce qu'on cherche à déterminer à partir des projections qu'on a pu mesurer. On appelle cela un problème inverse. On dispose donc de données connues, les projections pk, d'un système d'équations linéaires du style de l'équation 1 : pk = sum ( rk,i × ai). Il suffit donc en théorie de trouver les inconnues ai en résolvant ce système.
Résolution du problème inverse en résolvant le système d'équations
Dans le cas simplifié représenté par la figure 9.4, on a un système de 4 équations à 4 inconnues (a,b,c et d).
Il est donc en théorie relativement facile de le résoudre, en particulier si l'on dispose de calculateurs électroniques. En pratique, si l'on considère une image 3D en matrice 256 × 256 × 256, on a donc 16 777 216 inconnues ; il faut un nombre d'équations au moins égal pour pouvoir le résoudre. Cette résolution mathématique théorique nécessite alors beaucoup de calculs élémentaires et est mise en défaut par une propriété propre à la plupart des grands systèmes d'équations linéaires.
Pour l'illustrer, simplifions encore notre exemple en nous attachant à reconstruire une image constituée de deux pixels (a,b) seulement, au moyens de deux projections p1 et p2.
Les deux équations de projection s'écrivent :
D1 : p1 = r11 · a + r12 · b
D2 : p2 = r11 · a + r12 · b
Dans un graphe où l'on place en abscisse les valeurs possibles de a et en ordonnée celles de b, ces deux équations sont celles de deux droites D1 et D2 dont l'intersection est la solution (a,b) du système, donc la coupe recherchée. Si ces deux équations sont très différentes l'une de l'autre (figure 9.5A), une petite erreur sur la modélisation des coefficients rij ou sur la mesure des projections pi par l'appareil d'imagerie conduit à une erreur minime (a′,b′) sur l'estimation de l'intersection de ces deux droites, donc de l'image recherchée. En revanche, si les deux équations ont des coefficients proches, la moindre erreur sur le modèle (rij) ou sur les mesures de projections (pi) donnera un résultat complètement erroné pour la coupe, avec une solution (a′,b′) très éloignée de la vérité (figure 9.5B). En tomographie, où l'on acquiert beaucoup de projections très proches les unes des autres, cette seconde situation est malheureusement la règle.
Pour cette raison, la technique qui semble a priori la plus simple, résoudre un système d'équations par un algorithme standard (déterminant, pivot de Gauss, etc.), ne peut pas être utilisée. Cela va donc nécessiter l'utilisation d'algorithmes plus complexes que ceux classiquement utilisés en algèbre.
Rétroprojection
Pour comprendre comment se fait la reconstruction, nous avons besoin de décrire un nouvel opérateur appelé « rétroprojection ». Mathématiquement, la rétroprojection consiste à sommer, au sein d'un pixel image i, chacune des projections k auquel il participe, pondérées par le coefficient rk,i.
Projection : pk = sum from {i} rk,i × ai (5)
Rétroprojection : bi = sum from {k} <?> rk,i × pk (5)
Concrètement, il s'agit de « propager » la valeur projetée, dans la direction de la projection, sur tous les pixels concernés (figure 9.6), et de sommer le résultat pour toutes les projections. On voit ici que l'image de rétroprojection (normalisée) ne correspond pas vraiment à l'image de départ : la rétroprojection n'est donc pas l'opération inverse de la projection. Cependant, on constate des similitudes ; par exemple, le voxel central a la valeur la plus élevée sur les deux images ; l'angle supérieur gauche a la plus faible valeur dans les deux cas.
L'application de cet opérateur de rétroprojection pour la reconstruction des images à partir de projections produit des images qui ressemblent à l'image originale, sans lui être identique (figure 9.7). Cela illustre encore le fait que la rétroprojection n'est pas l'opérateur inverse de la projection.
Rétroprojection filtrée
La simple opération de rétroprojection ne permet donc pas d'obtenir une image fidèle ; on voit en effet, sur les images reconstruites, des artefacts en étoile ou en halo correspondant aux traînées de rétroprojection (figure 9.8 et voir figure 9.7). On constate ainsi sur la figure 9.6 que le contraste entre le centre et les bords est plus faible sur l'image reconstruite par rétroprojection que sur l'image originale. Avant de rétroprojeter, il faut donc accentuer le contraste pour compenser cet effet. Ce filtrage, appelé « filtre rampe » et fondé sur des bases mathématiques solides, peut s'illustrer de la manière suivante : on va renforcer le contraste en changeant la valeur rétroprojetée ; au lieu de prendre la valeur obtenue par projection (voir figure 9.6), on prendra le double de cette valeur diminuée des deux tiers des valeurs des projections adjacentes.
Lorsqu'on multiplie le nombre de rétroprojections filtrées, on obtient une image fidèle à l'objet original (figure 9.9).
Reconstruction itérative
L'algorithme de rétroprojection filtrée ne nécessite pas de calculateurs électroniques puissants et a été universellement utilisé en TDM et en tomoscintigraphie jusqu'à la fin du XXe siècle. Dans les années 1970, exploitant des travaux initialement dus au mathématicien polonais S. Kaczmarz, une nouvelle famille d'algorithmes dits itératifs (ou algébriques) s'est peu à peu imposée en imagerie scintigraphique, puis en radiologie. Son développement, rendu possible par la puissance de calcul des ordinateurs modernes, a permis de réduire l'irradiation des patients en radiologie tout en se contentant, en particulier en TEP, de données de projections parfois incomplètes (ce que l'algorithme de rétroprojection filtrée ne permet pas). Ces techniques permettent en outre de mieux prendre en compte le mauvais conditionnement du problème tomographique (régularisation) et de mieux corriger certains artefacts inhérents aux acquisitions des projections (auto-atténuation en médecine nucléaire). Cette famille d'algorithmes a en commun de déterminer la coupe compatible avec les projections effectivement acquises en évaluant un écart entre celles-ci et des projections calculées à partir d'une estimation de la solution, puis en corrigeant l'estimation de la coupe au moyen de l'écart constaté.
En d'autres termes, on est capable d'acquérir des projections du corps humain en utilisant un appareil d'imagerie (TDM ou gamma-caméra). Comme nous l'avons vu, l'opération inverse n'est pas simple. En revanche, si l'on dispose d'une image informatique de l'objet, il est très simple d'en faire des projections au moyen d'un programme informatique. On peut alors comparer les projections de l'objet et les projections de son image. Le principe des techniques itératives est donc de trouver, par approximations successives, l'image qui donnera les mêmes projections que celles obtenues lors de l'acquisition (figure 9.10).
Le prototype de ce type d'algorithme itératif, ART (algebraic reconstruction technique), procède de la manière suivante : à partir d'une première coupe quelconque, l'algorithme ajuste étape par étape la coupe recherchée au moyen d'une rétroprojection normalisée par de l'écart entre les projections effectivement mesurées et celles déduites de la coupe en cours d'évaluation (figure 9.11).
L'algorithme itératif qui s'est imposé depuis les années 2000 opère itérativement comme ART, mais la correction est cette fois multiplicative et l'écart est évalué par le rapport entre projections acquises et estimées.
Plus précisément, cet algorithme fonctionne en multipliant chaque valeur inconnue de pixel i par la moyenne pondérée (par les coefficient ri,j) des rapports entre les projections j acquises et estimées qui concernent ce pixel i (voir figure 12). Il porte le nom de MLEM (pour maximum likelihood-expectation-maximisation), d'OSEM dans sa version accélérée ou de MAP-OSEM dans sa version régularisée.
6.6.Le lecteur pourra reprendre l'exemple de la figure 9.12 en initialisant la matrice à l'étape 0 avec autre chose que des 1. Il pourra alors constater qu'on aboutit à une convergence de l'algorithme sur une solution différente. Par exemple, une initialisation avec :
conduirait en une seule itération à la solution :
Cela illustre le fait qu'il peut y avoir plusieurs solutions au problème lorsque le nombre de projections est insuffisant.
Essentiel à retenir
- Les images acquises en radiographie et en scintigraphie sont des images de projection.
- Reconstruire une image en coupe revient à résoudre un grand système mal conditionné d'équations linéaires.
- Les techniques de reconstruction incluent l'algorithme de rétroprojection filtrée (et autres techniques analytiques apparentées) et les techniques itératives (ou algébriques) parmi lesquelles MLEM et sa variante OSEM sont les plus utilisées.
- Les techniques itératives présentent divers avantages parmi lesquels la possibilité de reconstruire des coupes à partir de données de projection incomplètes, de diminuer l'irradiation du patient en TDM et de mieux corriger les artefacts d'atténuation en TEP et tomoscintigraphie.
- L'algorithme MLEM opère itérativement en multipliant chaque valeur de pixel j de la coupe par la moyenne pondérée (par les coefficient ri,j) des rapports entre les projections i acquises et estimées qui concernent ce pixel j.
Référence
[1] Mariano-Goulart D. Reconstruction tomographique en imagerie médicale. EMC (Elsevier Masson SAS, Paris), Radiodiagnostic - Principes et techniques d'imagerie. 35-105-A-10 ; 2015.
Chapitre suivant | |
Retour au sommaire |
Les fondamentaux - Chapitre 8 - Imagerie par résonance magnétique
T. Tourdias et V. Lebon
Plan du chapitre
- Le phénomène de résonance magnétique nucléaire
- Principes de localisation du signal en IRM
- Les principales séquences d'IRM
- Agents de contraste en IRM
- Réalisation pratique d'un examen IRM
Objectifs
- Connaître les bases du phénomène de résonance magnétique nucléaire.
- Connaître les principes généraux permettant la localisation spatiale du signal en IRM.
- Connaître le principe général des principales séquences d'IRM.
- Connaître les règles d'utilisation des agents de contraste pour l'IRM.
- Savoir expliquer à un patient la conduite pratique d'un examen IRM.
Le phénomène de résonance magnétique nucléaire
Apparue à l'hôpital dans les années 1980, l'imagerie par résonance magnétique (IRM) exploite le phénomène de résonance magnétique nucléaire (RMN). Ce phénomène, qui met en jeu les particules élémentaires du noyau atomique, peut être décrit en toute rigueur par la mécanique quantique. Cependant, les phénomènes macroscopiques observés lors d'une expérience d'IRM peuvent être décrits à l'aide d'outils vectoriels plus simples. Cette description phénoménologique, qui repose sur un formalisme mathématique adapté au diplôme de formation générale en sciences médicales (DFGSM), sera utilisée dans ce chapitre.
Notions de source magnétique, de champ magnétique et d'aimantation
Une source magnétique est un système qui génère un champ magnétique , dont la valeur s'exprime en teslas (T). C'est par exemple une boucle de courant (courant électrique dans un circuit en forme de cercle : électro-aimant), ou bien une tige de métal aimantée comme l'aiguille d'une boussole (figure 8.1).
Cette source génère un champ magnétique, champ vectoriel qu'on peut représenter sous forme de lignes d'isochamp dans un plan particulier de l'espace. Une façon plus simple de représenter la source magnétique consiste à utiliser un vecteur, qu'on appelle « moment magnétique » et qu'on note . La norme du vecteur traduit l'intensité de la source magnétique et les coordonnées du vecteur traduisent l'orientation de cette source. La densité de moment magnétique (moment magnétique par unité de volume) est appelée « aimantation » et notée M.
Deux moments magnétiques interagissent entre eux via leurs champs magnétiques. Le champ magnétique B0 résultant d'un premier moment magnétique exerce un couple sur le second moment, c'est-à-dire qu'il tend à le faire tourner pour l'aligner dans la direction du champ magnétique (figure 8.2). La position d'équilibre d'une aimantation dans un champ magnétique est donc la position alignée par rapport à ce champ. C'est ainsi que le champ magnétique terrestre oriente l'aiguille des boussoles.
Aimantation nucléaire
Les noyaux de certains atomes possèdent une aimantation intrinsèque. Par analogie avec la boucle de courant, on considère cette aimantation comme résultant du déplacement des particules élémentaires chargées qui tournent sur elles-mêmes ou en orbite. Le terme « spin » (qui signifie tourner en anglais) est parfois utilisé pour désigner l'aimantation d'une particule élémentaire qui tourne sur elle-même. En toute rigueur, le spin désigne un observable quantique dont la manipulation dépasse le cadre de cet ouvrage.
Les noyaux d'hydrogène – qui sont constitués d'un simple proton – font partie des noyaux possédant une aimantation intrinsèque. Ils présentent un intérêt majeur pour l'exploration du corps humain dans lequel l'hydrogène est très abondant, puisque les tissus biologiques sont principalement constitués d'eau et de triglycérides (graisse sous-cutanée et viscérale). L'IRM consiste à détecter l'aimantation des noyaux d'hydrogène et à la localiser pour reconstruire des images qui, en première approximation, sont des cartes de distribution de l'eau et de la graisse du corps humain.
Détecter les aimantations nucléaires n'a rien d'évident, pour deux raisons :
- en l'absence de champ magnétique, les aimantations microscopiques sont orientées aléatoirement (figure 8.3A), si bien que leur somme vectorielle est nulle. Cela reste vrai dans le champ magnétique terrestre dont l'intensité est trop faible pour modifier significativement l'orientation des aimantations microscopiques. Il faudra donc au préalable « polariser » ces aimantations, c'est-à-dire les orienter dans une direction privilégiée ;
- on ne sait détecter efficacement une aimantation peu intense (ce qui est le cas de l'aimantation nucléaire) qu'en la mettant en mouvement. Il faudra pour cela la mettre en résonance.
Les noyaux d'hydrogène sont donc porteurs d'une aimantation qui tend spontanément à s'aligner avec le champ magnétique B0.
Polarisation de l'aimantation par un champ magnétique B0
En présence d'un champ magnétique B0, les aimantations des noyaux d'hydrogène adoptent une orientation privilégiée. Par analogie avec les aimantations macroscopiques, on peut les représenter comme des vecteurs tendant à s'aligner parallèlement à B0. Mais, à l'échelle atomique, l'énergie d'interaction entre l'aimantation d'un noyau d'hydrogène et le champ B0 est quantifiée : elle ne peut prendre que deux valeurs discrètes. Cela implique que l'aimantation nucléaire ne peut adopter que deux orientations dans le champ magnétique B0: « parallèle » et « antiparallèle » (figure 8.3B). L'état parallèle est plus peuplé que l'état antiparallèle. Le surplus d'aimantations microscopiques orientées dans la même direction que B0 donne naissance à une aimantation nucléaire macroscopique M0.
M0 est reliée à B0 par la relation : M0 = x * B0. Le coefficient de proportionnalité χ est la susceptibilité magnétique qui caractérise la capacité d'un milieu de s'aimanter sous l'effet d'un champ magnétique externe. Dans un milieu homogène infini de susceptibilité χ, si l'on applique un champ magnétique B0, le milieu va s'aimanter et le champ magnétique résultant sera (1 + χ).. Selon le cas, on peut avoir :
- χ < 0 : le champ magnétique est diminué en présence du matériau qui est dit « diamagnétique » ;
- χ > 0 de faible valeur : le champ magnétique est renforcé en présence du matériau qui est dit paramagnétique ;
- χ > 0 de forte valeur : le champ magnétique est très renforcé en présence du matériau qui est dit ferromagnétique.
Une fois l'aimantation macroscopique M0 créée, il faut la mettre en mouvement pour la détecter.
Dans un fort champ magnétique, les aimantations des noyaux d'hydrogène s'alignent entre elles. La résultante est une aimantation globale de la matière alignée sur B0 qui va être à l'origine du phénomène de RMN.
Mise en résonance de l'aimantation par une excitation radiofréquence
En physique, la résonance désigne un phénomène physique qui permet de transférer de l'énergie à un système par un phénomène oscillatoire. Le transfert d'énergie n'est possible que s'il s'effectue à une fréquence propre au système dite fréquence de résonance. Si on soumet un système résonant à une excitation ponctuelle (impulsion), alors le système sera le siège d'oscillations amorties, sur une fréquence proche de sa fréquence propre, et retournera progressivement à son état stable. Ce phénomène existe dans de très nombreux domaines de la physique : en acoustique, en électricité ou en mécanique.
C'est ce principe de résonance qu'on utilise pour mettre en mouvement l'aimantation macroscopique M0. Pour transférer de l'énergie à une aimantation placée dans un champ magnétique B0, il faut lui appliquer une onde électromagnétique dont la fréquence f0 est donnée par la relation de Larmor : f0 = γ/(2π). La fréquence propre de l'aimantation f0 est appelée fréquence de Larmor. La constante γ est appelée rapport gyromagnétique. C'est une constante caractéristique de chaque noyau possédant une aimantation. Pour le noyau d'hydrogène, γ/(2π) = 42,57 mégahertz par tesla (MHz/T). Pour les champs magnétiques utilisés en IRM, l'ordre de grandeur de f0 est 100 MHz, ce qui correspond aux fréquences de la bande FM, d'où l'appellation « ondes radiofréquence » (RF). L'émetteur utilisé en IRM fonctionne selon les mêmes principes qu'un émetteur radio. Il s'agit d'une antenne d'émission de forme généralement cylindrique qui est intégrée dans le tunnel de l'IRM.
L'énergie transférée par l'onde RF se traduit par le basculement de l'aimantation qui s'écarte de sa position d'équilibre le long de B0 (figure 8.4A). Cela correspond à l'excitation radiofréquence. Pour décrire l'évolution temporelle de l'aimantation, on se place dans un repère (O,x,y,z) centré sur l'aimantation, dont la direction z est celle du champ magnétique B0 (direction du tunnel de l'IRM), qui est également la direction de l'aimantation à l'équilibre M0. On désigne z comme la direction longitudinale et le plan (x, y) comme le plan transverse. Le vecteur aimantation M peut se décomposer en une composante longitudinale (dont la projection sur z vaut Mz) et une composante transversale de norme Mxy (figure 8.4B). Ainsi, lorsque l'aimantation est à l'équilibre avec B0, à distance de toute excitation RF, on a : Mz = M0 et Mxy = 0. Juste après une excitation basculant l'aimantation de 90°, on a : Mz = 0 et Mxy = M0.
L'excitation RF peut être caractérisée par l'angle dont l'aimantation bascule, qui est proportionnel à la durée d'application de l'onde RF et à l'intensité de cette onde. L'angle de bascule peut donc être choisi librement en jouant sur ces deux paramètres. En IRM, on utilise des émissions très courtes, de l'ordre de la milliseconde : on parle d'impulsions radiofréquences.
Sous l'influence d'une onde radio à une fréquence caractéristique (fréquence de Larmor), l'aimantation des noyaux d'hydrogène pivote et se retrouve perpendiculaire à B0. Initialement portée par l'axe longitudinal (parallèle à B0), l'aimantation se retrouve donc dans le plan transversal (perpendiculaire à B0)
Retour à l'équilibre de l'aimantation
Suite à l'impulsion RF, l'aimantation retourne à sa position d'équilibre le long de z, de la même manière que l'aiguille d'une boussole s'aligne sur le champ magnétique terrestre. Toutefois, le retour à l'équilibre de l'aimantation ne s'effectue pas selon une rotation vers l'axe z, mais selon une dynamique complexe combinant trois processus :
- la rotation de M autour de la direction de B0 (axe z) à la fréquence de Larmor f0 (figure 8.5A). Ce mouvement de rotation est désigné par le terme de précession libre, parce qu'il s'effectue en l'absence de toute excitation RF. Il faut noter que la précession s'effectue à une vitesse remarquablement élevée : dans un champ magnétique de 1,5 tesla, f0 vaut 63,9 MHz, ce qui signifie que M effectue 63 900 000 tours en une seconde. Ce mouvement de rotation correspond au signal d'IRM ;
- la disparition de la composante transversale Mxy qu'on appelle la relaxation transversale : dès la fin de l'excitation RF, l'intensité de l'aimantation transversale décroît selon un processus exponentiel caractérisé par la constante de temps T2, décrit par l'équation : dMxy/dt = –1/T2 Mxy(t). Pour une impulsion RF de 90°, cette équation admet pour solution : Mxy(t) = M0 exp(–t/T2). La constante T2 est le temps de relaxation transversale. Il caractérise la persistance transversale de l'aimantation. Dans les tissus mous, le T2 de l'eau est de l'ordre de 0,1 seconde. Cette relaxation transversale correspond à l'épuisement du signal IRM ;
- la récupération de la composante longitudinale qu'on appelle la relaxation longitudinale : dès la fin de l'excitation RF, l'intensité de l'aimantation longitudinale croît selon un processus exponentiel caractérisé par la constante de temps T1, décrit par l'équation : dMz/dt = 1/T1 [M0–Mz(t)]. Pour une impulsion RF de 90°, cette équation admet pour solution : Mz(t) = M0.[1-exp(–t/T1)]. La constante T1 est le temps de relaxation longitudinale. Il caractérise la vitesse à laquelle l'aimantation retourne à sa valeur d'équilibre M0. Dans les tissus mous, T1 est de l'ordre de 1 seconde (aux valeurs de B0 utilisées pour l'IRM). Cette relaxation longitudinale correspond à la régénération de la réserve de signal.
Lors de la relaxation, les composantes transversale et longitudinale évoluent donc chacune selon leur propre dynamique, indépendamment l'une de l'autre. Cela traduit le fait que la relaxation n'est pas une rotation de M depuis le plan transversal vers l'axe z : ce n'est pas une « excitation à l'envers ». Ainsi, le module de M n'est pas conservé lors du retour à l'équilibre : le T2 de l'eau étant sensiblement plus court que le T1 dans les tissus biologiques, Mxy disparaît avant que Mz retrouve sa valeur d'équilibre M0. Ce phénomène est illustré sur la figure 8.5B où la trajectoire de l'extrémité du vecteur aimantation est tracée. La trajectoire représentée tient compte des trois processus participant au retour à l'équilibre de l'aimantation : la précession libre, la relaxation transversale et la relaxation longitudinale. L'enveloppe de cette trajectoire présente la forme d'un « chapeau pointu ». Plus le T2 est court par rapport au T1, plus les bords du chapeau apparaîtront plats et la pointe étroite. Le fait que T1 et T2 soient deux constantes indépendantes a une conséquence majeure en IRM : les images pondérées en T1 et en T2 ne sont pas redondantes et apportent des informations complémentaires sur les tissus biologiques.
La figure 8.6 représente l'évolution temporelle des projections de M sur z (composante longitudinale) et sur x (composante transversale) après une excitation de 90°. La composante longitudinale Mz évolue selon une exponentielle croissante en T1. Mz est insensible au mouvement de précession puisqu'il s'effectue autour de z. Ce n'est évidemment pas le cas de Mx qui est la projection du vecteur tournant Mxy. À la relaxation transversale en T2 s'ajoute donc une oscillation de Mx à la fréquence f0. Pour simplifier la représentation de la composante transversale, on la représente couramment dans un repère (O,x′,y′,z) tournant autour de z à f0, qu'on appelle repère de Larmor. Dans ce repère, Mx′ évolue selon une simple exponentielle décroissante en T2.
Nous verrons que, pour acquérir une image par résonance magnétique, il faut répéter un grand nombre d'excitations RF relativement rapidement. Le délai entre deux excitations RF successives est appelé temps de répétition (TR). La question se pose donc de savoir comment l'aimantation évolue lorsqu'on applique une seconde impulsion RF après un délai TR :
- court par rapport à T1, si bien que Mz est encore éloignée de sa valeur d'équilibre M0 après TR ;
- long par rapport à T2, si bien que Mx′ peut être considérée comme nulle après TR.
La figure 8.7A illustre le retour à l'équilibre de M dans cette configuration. Juste avant cette 2e impulsion :
Mz = M0.[1–exp(–TR/T1)] et Mx′ = 0 ; l'aimantation est alignée sur z. La 2e impulsion de 90° la bascule vers le plan transverse (x′,y′). Juste après la 2e impulsion :Mz = 0 et Mx' = M0.[1–exp(–TR/T1)]. Mz relaxe ensuite en T1 : Mz(t) = M0.[1–exp(–t/T1)]. Mx′ relaxe en T2, mais à partir de la valeur initiale M0.[1–exp(–TR/T1)], ce qui donne : Mx′(t) = M0.[1–exp(–TR/T1)].exp(–t/T2). Ainsi, la composante transversale décroît exponentiellement en T2, mais son intensité dépend de T1.
La figure 8.7B représente Mz(t) pendant la 1re répétition et Mx′(t) pendant la 2e répétition. Cette représentation illustre plus directement le fait que la relaxation transversale d'une répétition dépend de la relaxation longitudinale de la répétition précédente.
Après l'excitation RF, l'aimantation retourne à son état d'équilibre avec un mouvement complexe : précession (rotation) autour de B0 qui est source du signal d'IRM et relaxation (disparition de la composante transversale et régénération de la composante longitudinale).
Détection de l'aimantation lors de son retour à l'équilibre
Lorsqu'une aimantation se déplace à proximité d'un circuit électrique en boucle, les lignes de champ qui traversent le circuit varient dans le temps : il y a variation du flux magnétique à travers le circuit. La loi de Faraday énonce que toute variation du flux magnétique traversant un circuit électrique induit une tension – aussi appelée force électromotrice – aux bornes du circuit. Ce phénomène d'induction électromagnétique est exploité dans de très nombreuses applications industrielles (production d'électricité, moteurs électriques, plaques à induction, recharge de téléphones sans fil, etc.).
En IRM, on place la boucle de circuit électrique à proximité du sujet pour détecter la tension induite par la précession de l'aimantation pendant son retour à l'équilibre (figure 8.8). En théorie, ce circuit peut être le même que celui utilisé pour l'excitation RF. En pratique, on utilise des circuits de plus petite taille placés près de la région anatomique à examiner, ce qui maximise le flux magnétique à travers le circuit et augmente la sensibilité de détection. On parle pour ces circuits d'antennes de réception (antenne tête, antenne rachis, antenne genou, etc.).
Signal RMN
Le signal détecté en RMN est la tension générée aux bornes de l'antenne de réception par la précession de l'aimantation. La loi de Faraday énonce que cette tension est proportionnelle à la vitesse à laquelle l'aimantation change. Comme illustré sur la figure 8.6, Mz et Mxy présentent des dynamiques temporelles très différentes lors du retour à l'équilibre : Mz passe de 0 à M0 en quelques secondes tandis que Mx passe de + M0 à –M0 plusieurs dizaines de millions de fois par seconde (63 millions de fois à 1,5 tesla). C'est donc la composante transversale Mxy qui génère le signal détecté. Ce signal est proportionnel à Mxy.
Après une impulsion de 90°, le signal détecté s'exprime donc sous la forme S(t) = S0·exp(–t/T2). Le terme S0 est proportionnel à M0 et dépend de nombreux facteurs instrumentaux (géométrie de l'antenne de réception, chaîne électronique de détection, etc.). Après une 2e impulsion de 90° appliquée au temps TR, on a :S(t) = S0·[1–exp(–TR/T1)]·exp(–t/T2).
Principes de localisation du signal en IRM
À ce stade, nous avons vu comment détecter les aimantations de l'eau et de la graisse des tissus biologiques : nous sommes capables de déterminer s'il existe de l'eau et de la graisse chez un sujet placé dans une IRM. Reste à localiser ces molécules au sein du corps humain, c'est-à-dire à obtenir une image par résonance magnétique.
Il est admis que la précision de localisation d'une onde électromagnétique est donnée par sa longueur d'onde. Cela explique que les rayonnements utilisés en imagerie médicale peuvent généralement être localisés avec une grande précision, comme les rayons X ou γ qu'on peut facilement focaliser ou collimater, alors que la résolution de la microscopie optique est limitée à une fraction de micromètre. Cependant, la longueur d'onde des impulsions RF utilisées en RMN est de l'ordre du mètre. On ne peut donc pas focaliser l'onde RF émise par l'antenne d'émission sur un point précis du corps humain : cette onde excite l'ensemble du volume de l'antenne d'émission. De même, le signal détecté par l'antenne de réception provient de l'ensemble du volume vu par l'antenne.
Le principe de localisation utilisé en IRM repose sur l'équivalence entre la fréquence de Larmor f0 et la position spatiale des aimantations. Dans le champ B0 de l'IRM, les aimantations ont toutes la même fréquence de Larmor. Pour introduire une dépendance entre la position spatiale et f0, il suffit de faire varier le champ B0 dans l'espace au moyen de gradients de champ magnétique.
Pour se repérer dans l'espace en IRM, on utilise un gradient de champ magnétique qui établit une relation linéaire entre espace et champ magnétique. Comme la fréquence de résonance est elle-même proportionnelle au champ magnétique, cela induit une relation linéaire entre fréquence de résonance et coordonnée d'espace. On repérera donc la position d'un objet par sa fréquence de résonance.
Notion de gradient de champ magnétique
Par définition, un gradient de champ magnétique G est une variation linéaire du champ selon une direction de l'espace. Par exemple, un gradient Gz appliqué selon z génère un champ magnétique Gz·z. Il en va de même pour x et y, comme illustré à la figure 8.9. En pratique, les gradients sont générés par des bobines enroulées dans le tunnel de l'IRM, dans lesquelles on fait circuler du courant pour établir le gradient.
Principe de la sélection de coupe
La sélection de coupe consiste à exciter les aimantations d'un plan de coupe particulier du sujet placé dans l'IRM. Pour ce faire, il faut que l'onde RF d'excitation, qui se propage dans tout le sujet, ne bascule les aimantations que d'un plan de coupe. Dans le cas d'une coupe orthogonale à z (figure 8.10), cela est obtenu en appliquant un gradient Gz simultanément à l'excitation RF. En présence du gradient, le champ magnétique s'écrit : B0(z) = B0 + Gz · z. La fréquence de Larmor dépend ainsi de la position selon z : f0(z) = f0(0) + γ / (2π) · Gz · z . L'émission d'une onde à une fréquence donnée n'affectera que les aimantations résonant à cette fréquence : une onde de fréquence f0 basculera les aimantations situées à z = 0 (figure 8.10A), tandis qu'une onde de de fréquence f0(z1) = f0(0) + γ / (2π) · Gz · z1 basculera les aimantations situées à z = z1 (figure 8.10B).
La sélection de coupe consiste donc à appliquer un gradient de champ magnétique simultanément à l'émission RF pour exciter une coupe orthogonale à la direction du gradient. Le gradient appliqué est appelé gradient de sélection de coupe.
Lors de l'émission RF, l'application d'un gradient « de sélection » permet de sélectionner une coupe du corps qui sera la seule à émettre du signal.
Principe du codage par la fréquence
Après sélection de la coupe d'intérêt, il reste à déterminer la position des aimantations dans le plan de coupe pour obtenir une image. Une fois le gradient Gz et l'excitation RF éteintes, les aimantations du plan de coupe se retrouvent basculées dans le plan (x,y). Elles entament leur retour à l'équilibre selon la précession amortie décrite précédemment. L'application d'un gradient Gx pendant la précession permet de déterminer la position des aimantations selon x. Cette technique de localisation est appelée codage par la fréquence. Pour en expliquer le principe, prenons l'exemple d'un sujet dont la tête est globalement vide mais contient de l'eau au voisinage de l'oreille droite (à l'abscisse x1) et de l'oreille gauche (à l'abscisse x2). Dans cet exemple, on considère qu'il y a davantage d'eau en x1 qu'en x2 et on se place juste après l'excitation RF de 90° (figure 8.11B). On souhaite déterminer la distribution des aimantations M selon x (figure 8.11C). Pour ce faire, on applique un gradient Gx pendant la précession. En présence du gradient Gx, le champ magnétique s'écrit : B0(x) = B0 + Gx · x (figure 8.11A). La fréquence de Larmor dépend ainsi de la position x : F0(x) = f0(0) + γ / (2π) · Gx · x. Cela est mieux visualisé dans le plan transverse (figure 8.11D, E) : l'aimantation située en x2 précesse à une fréquence supérieure à celle de l'aimantation située en x1. Le signal S détecté en présence de Gx est la somme du signal basse fréquence généré par l'aimantation située en x1 et du signal haute fréquence généré par l'aimantation située en x2. On notera que le signal issu de x1 est plus intense que celui issu de x2 car il y a davantage d'eau en x1 qu'en x2. Après enregistrement du signal global, on lui applique une transformation de Fourier (TF). Cette opération mathématique permet de passer du domaine temporel au domaine fréquentiel. La TF représente les composantes fréquentielles du signal (figure 8.11F) : un signal intense à la fréquence f0(x1) et un signal moins intense à la fréquence f0(x2). On constate que la TF du signal représentée à la figure 8.11F est parfaitement superposable à la distribution des aimantations selon x (figure 8.11C) : la TF du signal détecté en présence du gradient Gx fournit la distribution des aimantations le long de x.
Le codage par la fréquence consiste donc à appliquer un gradient simultanément à l'enregistrement du signal de précession pour localiser l'aimantation le long de la direction du gradient. Le gradient appliqué est appelé gradient de codage par la fréquence ou gradient de lecture.
Le codage par la fréquence fournit ainsi la projection des aimantations selon une direction du plan de coupe. Si on remplace Gx par un gradient Gy, on obtient la projection des aimantations selon y. En combinant les gradients Gx et Gy, on peut obtenir la projection des aimantations selon toute direction du plan (x,y). À partir de ces projections, il est possible de reconstruire l'image de la coupe par les méthodes de reconstruction tomographique classiques de type rétroprojection comme en TDM ou en tomoscintigraphie (voir chapitre 9). En pratique, on n'utilise plus que rarement cette approche en IRM mais un codage « par la phase ». Les principes sous-jacents au codage par la phase dépassent le cadre du DFGSM et ne seront pas détaillés ici, ce qui ne nuit en rien à la compréhension de l'IRM et de son utilisation pour la médecine (les images sont reconstruites par transformée de Fourier bidimensionnelle après double codage du plan de coupe par la fréquence et par la phase).
Pendant l'enregistrement du signal IRM, l'utilisation d'un gradient « de lecture » dans une autre direction permet de localiser le signal selon cette seconde direction. Différentes stratégies sont ensuite utilisables pour localiser le signal selon la troisième direction qui débordent le cadre de cet ouvrage.
Les principales séquences d'IRM
Une séquence d'IRM est une description chronologique des manipulations appliquées à l'aimantation (émission radiofréquence et gradients) et de la détection de l'aimantation (mesure du signal RMN).
Séquence d'écho de gradient
La figure 8.12 représente la séquence élémentaire de l'IRM – équivalente à la séquence d'écho de gradient – qui comprend la sélection de coupe et le codage par la fréquence. Le délai séparant l'excitation RF de la détection est appelé temps d'écho (TE). Cette séquence est couramment utilisée en IRM, mais présente un défaut majeur : les images qu'elle fournit peuvent être artefactées dans les régions où le champ B0 n'est pas parfaitement homogène.
Artefacts liés aux inhomogénéités de B0
Inhomogénéités de B0
En l'absence de patient dans l'IRM, le champ magnétique B0 est homogène, c'est-à-dire que l'ensemble du volume d'air situé dans l'IRM est soumis à la même valeur de B0 (1,5 T ou 3 T sur les IRM cliniques). Dès qu'on place un patient dans l'IRM, ce n'est plus vrai : le champ magnétique à l'intérieur des tissus biologiques n'est pas le même que celui dans l'air, car les tissus et l'air possèdent des susceptibilités magnétiques χ différentes. À noter que le champ varie également d'un tissu biologique à l'autre, mais ces variations peuvent être considérées comme négligeables par rapport à la différence avec l'air. Dès lors, dans les zones de transition entre l'air et les tissus, le champ n'est pas homogène. La figure 8.13 illustre ce phénomène pour une tête humaine placée dans une IRM à 3 T : le champ B0 est inhomogène au voisinage des cavités aériques de la tête (sinus de la face, fosses nasales, rochers).
Effet des inhomogénéités sur le signal d'écho de gradient
Pour décrire l'effet des inhomogénéités de B0 sur les images acquises par écho de gradient, il faut considérer un voxel situé au voisinage d'une cavité aérique, par exemple au-dessus des rochers (figure 8.14). Au sein du voxel, le champ magnétique est inhomogène. La figure 8.14A représente deux aimantations de ce voxel : l'une est soumise au champ B0 + δB0 et l'autre au champ B0. Après l'excitation RF, les deux aimantations précessent à des fréquences différentes (la relation de Larmor permet aisément de calculer leur écart fréquentiel δf0 = [γ/(2π)].δB0). Les aimantations se déphasent donc entre elles pendant le TE. L'aimantation Mx′y′ mesurée dans le voxel étant la somme vectorielle de toutes les aimantations, son intensité est d'autant plus atténuée que les aimantations sont déphasées. L'effet de ce déphasage s'ajoute à la relaxation en T2 – à l'origine de la diminution d'intensité des aimantations transversales pendant le TE (figure 8.14A) – si bien que l'intensité de Mx′y′ décroît plus rapidement dans un voxel à B0 inhomogène que dans un voxel à B0 homogène (figure 8.14B). La décroissance accélérée par l'inhomogénéité de B0 est caractérisée par la constante de temps T2* (« T2 étoile »). Le T2* reflète à la fois le T2 et l'inhomogénéité au sein du voxel : le T2* est toujours inférieur au T2.
Comme l'illustre l'IRM cérébrale de la figure 8.14A, les inhomogénéités de B0 entraînent des hyposignaux au voisinage des cavités aériques sur les images d'écho de gradient. Dans certains cas, cela peut être mis à profit pour détecter des lésions qui génèrent des inhomogénéités locales de B0. C'est le cas des hémorragies ou des calcifications, car l'hémoglobine désoxygénée et le calcium perturbent B0 à leur voisinage. On utilisera donc des séquences d'écho de gradient à TE relativement long pour détecter les lésions hémorragiques ou calcifiées. En dehors de ces cas particuliers, on privilégiera une autre séquence qui corrige les déphasages liés aux inhomogénéités de champ : la séquence d'écho de spin.
Séquence d'écho de spin
Principe
L'écho de spin (ES) consiste à insérer au milieu de la séquence IRM une impulsion RF de 180°. La figure 8.15 illustre la manière dont cette impulsion corrige les déphasages liés aux inhomogénéités de champ. Pendant la 1re moitié de la séquence (t = 0 à TE/2), les deux aimantations du voxel se déphasent comme dans la séquence d'écho de gradient. À t = TE/2, on applique une impulsion RF de 180° autour de l'axe x.
Comme illustré figure 8.15A, cette impulsion inverse le déphasage accumulé pendant la 1re moitié de la séquence : elle transforme les avances de phase en retards de phase. L'aimantation qui précesse le plus vite (celle soumise à B0 + δB0) se retrouve donc en retard de phase par rapport à celle qui précesse le plus lentement (celle soumise à B0). Il suffit de laisser les aimantations évoluer librement pendant la durée TE/2 pour qu'elles compensent leur retard de phase et se retrouvent alignées le long de x. Au moment de la détection (à t = TE), les aimantations sont donc parfaitement rephasées : l'effet des inhomogénéités de B0 est annulé. Le signal du voxel détecté n'est affecté que par la décroissance en T2 qui a diminué l'intensité des aimantations pendant le TE.
La figure 8.16 illustre l'intérêt de l'écho de spin (B) par rapport à l'écho de gradient (A) : les hyposignaux artéfactuels à proximité de la mastoïde et de l'ethmoïde de l'écho de gradient sont corrigés sur l'écho de spin.
Influence du TR et du TE et notion de séquences pondérées en T1 et T2
En jouant sur les valeurs des paramètres TE et TR de la séquence d'écho de spin, on peut contrôler l'influence des temps de relaxation T1 et T2 sur le signal de l'image, c'est-à-dire pondérer l'image en T1 ou en T2. On parle indifféremment de pondération ou de contraste en IRM. Pour comprendre comment le contraste est généré, il faut savoir que l'acquisition d'une image par IRM nécessite en général un grand nombre de répétitions. On peut représenter de nouveau (voir figure 8.7B) la récupération de l'aimantation longitudinale lors d'une 1re répétition (qui conditionne le contraste T1) et la décroissance de l'aimantation transversale lors de la répétition suivante (qui conditionne le contraste T2 – figure 8.17). À partir de la 2e répétition, le signal détecté par une séquence d'écho de spin s'écrit S = S0·[1–exp(–TR/T1)]·exp(–TE/T2).
On retiendra que, dans une séquence en ES, il faut donc répéter la séquence élémentaire impulsion RF de 90° puis de 180° pour créer un signal dans le plan transversal et le mesurer. Le TR et le TE vont déterminer le contraste de l'image.
Concernant le TR :
- il correspond à l'intervalle séparant deux répétitions (deux impulsions de 90°) ;
- l'aimantation longitudinale récupère pendant ce temps en fonction des caractéristiques de T1 des tissus ;
- le TR conditionne donc le contraste en T1 ;
- si le TR est suffisamment long, tous les tissus peuvent avoir le temps de récupérer leur aimantation longitudinale, même si certains récupèrent plus vite que d'autres, et les tissus seront donc mal séparés.
Donc, plus on allonge le TR, et plus on diminue la pondération (le contraste) en T1 (figure 8.18A) ;
- à l'inverse, pour un TR court, on pourra séparer les tissus ayant une récupération plus rapide (un T1 plus court) qui seront plus intenses que ceux ayant une récupération plus lente. Donc, plus on raccourcit le TR, plus la pondération (le contraste) en T1 est forte (figure 8.18B).
Concernant le TE :
- il correspond à l'intervalle entre la bascule dans le plan transversal et la mesure du signal au moment de l'écho (l'impulsion de 180° est appliqué au temps t = TE/2) ;
- l'aimantation transversale décroît pendant ce temps en fonction des caractéristiques de T2 des tissus ;
- le TE conditionne donc le contraste en T2 ;
- plus le TE est long, plus les différences de vitesse de décroissance de l'aimantation transversale apparaîtront sous la forme de différence de signal. Donc, plus on allonge le TE, plus on augmente la pondération (le contraste) en T2 (figure 8.18C) ;
- à l'inverse, si le TE est trop court, les différences de vitesse de décroissance n'auront pas le temps de s'exprimer et les tissus seront donc mal séparés. Donc, plus on raccourcit le TE, plus on diminue la pondération (le contraste) en T2 (figure 8.18D).
Ainsi, dans une séquence pondérée en T1 :
- le TR est court pour maximiser le contraste en T1 (différences liées à la relaxation longitudinale) ;
- le TE est court pour minimiser le contraste en T2 (différences liées à la décroissance transversale) ;
- les tissus avec les T1 les plus courts donneront plus de signal.
Dans une séquence pondérée en T2 :
- le TR est long pour minimiser le contraste en T1 ;
- le TE est long pour maximiser le contraste en T2 ;
- les tissus avec les T2 les plus courts donneront le moins de signal.
Pour illustrer ces notions, on peut prendre l'exemple du contraste au sein du système nerveux central. Les propriétés des tissus cérébraux sont telles que la récupération de l'aimantation longitudinale est plus rapide au sein de la substance blanche (SB) qu'au sein de la substance grise (SG), qui est elle-même plus rapide qu'au sein du liquide cérébrospinal (LCS). Autrement dit, T1SB < T1SG < T1LCS (en pratique, au bout d'un temps T1, 1 – 1/e = 63% de la récupération longitudinale a été récupérée). Un tissu dont l'aimantation longitudinale récupère vite a généralement une aimantation transversale qui décroît vite. Ainsi, la décroissance de l'aimantation transversale est plus rapide au sein de la SB qu'au sein de la SG, qui est elle-même plus rapide qu'au sein du LCS. Autrement dit, T2SB < T2SG < T2LCS (en pratique, au bout d'un temps T2, l'aimantation transversale a décru à 1/e, soit 37 % de sa valeur initiale).
Ainsi, en séquence pondérée T1 (TR court et TE court ; figure 8.19A), le contraste est dit anatomique :
- la SB est blanche, la SG est grise, le LCS est noir (hypo-intense).
En séquence pondérée T2 (TR long, TE long ; figure 8.19B), le contraste est inversé :
- la SB est la plus noire, la SG a un signal intermédiaire, le LCS est blanc (hyperintense).
Module d'inversion récupération (FLAIR et STIR)
Avant d'acquérir l'image avec une séquence d'écho de spin ou d'écho de gradient, il est possible de « préparer » l'aimantation pour modifier le contraste. Parmi les techniques utilisées pour une telle préparation, on compte notamment l'« inversion-récupération ». En faisant précéder l'impulsion initiale de 90° d'une impulsion de 180°, on obtient une séquence de type inversion-récupération. L'impulsion de 180° va inverser l'aimantation longitudinale qui passe alors de +Mz0 à –Mz0. Initialement, cette inversion ne s'accompagne pas d'aimantation transversale (Mxy = 0). À l'arrêt de l'impulsion de 180°, il s'ensuit une récupération (d'où le nom inversion-récupération) de l'aimantation longitudinale par retour dans le sens du champ magnétique principal de façon plus ou moins rapide en fonction du T1 des tissus. Au bout d'un temps appelé temps d'inversion ou TI (équivalent du TR dans une séquence ES classique), on bascule dans le plan transverse (impulsion de 90°) pour faire la mesure en écho de spin ou en écho de gradient.
Les séquences d'inversion-récupération offrent plusieurs avantages. Tout d'abord, le contraste T1 peut être amélioré par rapport à une séquence ES standard, car la relaxation longitudinale qui a lieu pendant le TI se fait sur une « une plus grande distance » (de –Mz0 à +Mz0), ce qui majore la possibilité de séparer des tissus ayant des T1 différents par rapport à une récupération qui va de 0 à +Mz0 dans une séquence ES classique. Il est donc possible d'utiliser ce schéma (en ajustant le TI et le TE) pour obtenir des images très anatomiques avec un très fort contraste T1. Pour l'exploration du cerveau, on utilise notamment ces séquences T1–IR (T1 inversion récupération) pour explorer de façon fine le ruban cortical dans un bilan d'épilepsie.
Par ailleurs, dans une séquence en inversion récupération, le signal de tous les tissus passe par 0 lors de la récupération de l'aimantation longitudinale (pour TI = T1 × ln2 ≅ 0,69 T1 du tissu considéré). Donc, si le TI est centré sur le moment où le signal d'un tissu croise le 0 lors de la récupération, alors le signal de ce tissu sera annulé.
L'eau des compartiments liquides (comme le LCS) a une aimantation longitudinale qui relaxe lentement (T1 long ; voir signal du LCS dans la figure 8.19). En utilisant un TI long (= 0,69 × T1eau ≈ 2500 ms à 1,5 T), on peut annuler le signal du LCS. Il s'agit de la séquence FLAIR (fluid-attenuated inversion recovery). Avec un TE suffisamment long, on exprime un contraste T2 dans le FLAIR au sein duquel le contraste entre la SB et la SG est donc identique à celui d'un T2, mais avec le LCS noir au lieu d'être hyperintense. Les lésions cérébrales (qui s'accompagnent très souvent d'un allongement du T2 par excès d'eau ; voir plus haut « Influence du TR et du TE et notion de séquences pondérées en T1 et T2 ») restent hyperintenses en séquence FLAIR comme sur un T2 standard (car les lésions ne correspondent pas à de l'eau libre – figure 8.20A), mais l'annulation du LCS facilite leur délimitation, par exemple pour les lésions inflammatoires de sclérose en plaques de topographie périventriculaire (figure 8.21A).
La graisse a une aimantation longitudinale qui relaxe rapidement (T1 court). En utilisant un TI court (= 0,69 × T1graisse ≈ 150 ms à 1,5 T), on peut annuler le signal de la graisse. Il s'agit de la séquence STIR (short-TI inversion recovery). On utilise fréquemment cette séquence pour annuler le signal graisseux de la moelle osseuse au niveau rachidien (figure 8.21B), ou encore le contenu graisseux de l'orbite pour mieux apprécier le nerf optique et les muscles oculomoteurs. Un des inconvénients de la séquence STIR est l'annulation possible des tissus dont le T1 est proche de celui de la graisse. Par exemple, lorsqu'on utilise un agent de contraste à base de chélate de gadolinium (voir plus bas), le T1 des tissus au sein desquels le gadolinium s'accumule va diminuer (d'où l'hypersignal T1 post-gadolinium des lésions rehaussées). Il ne faut donc pas utiliser une séquence STIR après injection de gadolinium au risque de masquer les lésions rehaussées. Il existe d'autres méthodes de saturation du signal de la graisse (saturation spectrale, excitation sélective de l'eau) qu'on utilisera après injection de gadolinium si on recherche un rehaussement dans un environnement graisseux (figure 8.21C).
Autres séquences
Les acquisitions en écho de spin et écho de gradient décrites ci-dessus peuvent servir de briques élémentaires pour de nombreuses autres séquences sur lesquelles il est ajouté d'autres « modules », de façon à être sensible à un substratum biologique plus ou moins spécifiquement. En particulier, l'IRM peut être sensible aux mouvements de l'eau à différentes échelles (du microscopique au macroscopique), ce qui est exploité dans les séquences de diffusion, de perfusion et d'angiographie.
Séquence de diffusion
Les séquences précédemment décrites sont sensibles au contenu en eau. Les séquences pondérées en diffusion explorent un autre paramètre qui est l'importance des mouvements microscopiques des molécules d'eau. Il s'agit de mouvements browniens liés à l'agitation thermique (l'eau bouge dans les cellules et entre les cellules).
Pour pondérer une séquence en diffusion, on ajoute deux impulsions de gradient de diffusion de part et d'autre de l'impulsion de 180° d'une séquence T2 ES (figure 8.22A). Cela signifie que, sur la base d'une imagerie T2, on ajoute un module qui est sensible à la diffusion microscopique des molécules d'eau. En pratique, ces impulsions de gradient de diffusion induisent une chute de signal d'autant plus importante que l'eau bouge plus librement. Plus en détail, la première impulsion induit une chute de signal (déphasage). Si les molécules d'eau sont immobiles, la seconde impulsion (parfaitement symétrique par rapport à la première) compense la perte de signal initiale (rephasage) et le signal va donc être intense sur la carte de diffusion. En revanche, si les molécules d'eau sont mobiles, la seconde impulsion ne compense pas parfaitement la perte de signal induite par la première (rephasage d'autant plus incomplet que les mouvements d'eau sont importants) et le signal chute sur la carte de diffusion (figure 8.22A, B).
On retient donc que les régions à diffusion restreinte apparaissent généralement en hypersignal sur la carte de diffusion (peu de chute de signal) et que les régions à diffusion accélérée apparaissent généralement en hyposignal sur la carte de diffusion (chute de signal). Pour quantifier l'information de diffusion, on utilise le coefficient apparent de diffusion (ou ADC pour apparent diffusion coefficient en anglais).
L'ADC quantifie directement la chute de signal induite par les gradients de diffusion. En pratique, la force des impulsions de gradient de diffusion (et donc l'importance de la pondération en diffusion) dépend de leur amplitude, de leur durée d'application et de leur éloignement dans le temps, ce qu'on quantifie de façon globale par le facteur « b ». Le facteur b s'exprime en s/mm2. En pratique, on collecte une première image sans gradient de diffusion (b = 0 s/mm2 ; ce qui est équivalent à un T2) et une seconde image avec l'utilisation du gradient (typiquement, b = 1000 s/mm2 en routine clinique). La chute de signal entre les images à b0 et les images à b1000 est d'autant plus grande que la force des gradients et l'ADC sont élevés : ln(I1000/I0) = –b × ADC). Autrement dit, sur la courbe de la chute de signal après application des gradients (en fonction de b), l'ADC représente la pente des droites (figure 8.22B).
À retenir sur les régions à diffusion restreinte
Les régions à diffusion restreinte :
- induisent une faible chute de signal après application des gradients de diffusion ;
- apparaissent en hypersignal sur l'image pondérée en diffusion ;
- présentent des valeurs d'ADC basses (pente faible traduisant une faible chute de signal) ;
- peuvent traduire, selon le contexte :
- un œdème intracellulaire (aussi appelé cytotoxique) comme à la phase aiguë de l'ischémie cérébrale (ballonisation cellulaire entraînant des obstacles à la diffusion de l'eau),
- une hypercellularité, par exemple au sein d'un lymphome (encombrement membranaire par excès de cellules gênant la diffusion de l'eau),
- un contenu épais, par exemple dans le cadre d'un abcès à pyogènes (contenu visqueux diminuant la diffusion de l'eau).
À retenir sur les régions à diffusion accélérée
Les régions à diffusion accélérée :
- induisent une forte chute de signal après application des gradients de diffusion ;
- apparaissent en hyposignal sur l'image pondérée en diffusion ;
- présentent des valeurs d'ADC hautes (pente élevée du fait d'une chute de signal importante) ;
- peuvent traduire, selon le contexte :
- un œdème extracellulaire (aussi appelé vasogénique), comme autour d'une tumeur cérébrale (excès d'eau interstitielle par ouverture de la barrière hémato-encéphalique refoulant les obstacles cellulaires à la diffusion de l'eau),
- une destruction tissulaire, par exemple au sein d'une lésion démyélinisée de sclérose en plaques (perte membranaire facilitant la diffusion de l'eau),
- un contenu nécrotique, par exemple au centre d'une tumeur (contenu « pseudo-liquidien » facilitant la diffusion de l'eau).
Concernant l'exploration cérébrale, on note aussi que, dans chaque voxel de l'image, ces mouvements microscopiques de l'eau ne sont généralement pas identiques dans toutes les directions de l'espace, mais se font dans une direction préférentielle. On parle de diffusion anisotrope, par opposition à la diffusion isotrope. En fait, l'eau diffuse plus facilement le long des faisceaux de substance blanche (SB) que perpendiculairement à ces faisceaux (figure 8.23A). Ainsi, en collectant l'information de diffusion dans plusieurs directions (au minimum 6 directions, le plus souvent 64 directions ou plus), on peut identifier, voxel à voxel, la direction préférentielle des mouvements microscopiques de l'eau qui reflète indirectement la direction des fibres de SB et qui permet de reconstruire virtuellement le trajet des faisceaux de SB (principe de la tractographie ; figure 8.23B).
Séquences de perfusion
L'imagerie de perfusion permet d'estimer le volume sanguin et les paramètres de microcirculation dans les tissus. Il existe de nombreuses méthodes pour mesurer la perfusion en IRM. Nous prendrons ici l'exemple de l'étude de la perfusion cérébrale en séquence T2 après injection de gadolinium.
On utilise pour cela la propriété du gadolinium de raccourcir les temps de relaxation T2 lorsqu'il est concentré au sein de la microcirculation, car il se comporte alors comme un agent paramagnétique accélérant le déphasage (= chute de signal) des vecteurs d'aimantation dans les voxels qu'il traverse et au-delà (figure 8.24A).
En pratique, on collecte une séquence T2 couvrant tout l'encéphale (le plus souvent T2 écho de gradient) de façon très rapide (1 à 2 secondes) et on répète cette séquence 45 à 60 fois durant l'injection d'un bolus de gadolinium. Ainsi, dans chaque point de l'image (x,y,z), on a 45 à 60 valeurs correspondant aux répétitions des acquisitions lors du passage de produit de contraste. Il s'agit d'une imagerie dite « au premier passage ». Sur les premiers volumes, le signal est stable car le gadolinium est encore en périphérie (veines périphériques, cœur, poumons), puis le signal chute quand le gadolinium arrive dans la circulation artérielle cérébrale et le signal remonte une fois que le gadolinium quitte la circulation cérébrale (figure 8.24B).
À partir de ces courbes de variation du signal lors du passage du gadolinium qui sont obtenues dans chaque voxel de l'image, il est possible de créer des cartes paramétriques dans lesquelles les valeurs d'un paramètre calculé au sein de ces courbes sont représentées au sein de l'image sur une échelle couleur (figure 8.24B, C). On calcule ainsi des cartes de temps (temps entre l'injection et la chute maximale de signal = temps au pic ; ou largeur à mi-hauteur = temps de transit moyen). On calcule aussi dans chaque point de l'image l'aire sous la courbe qui est d'autant plus importante que plus de gadolinium est arrivé et qui représente donc le volume sanguin cérébral. Ayant le volume sanguin cérébral et le temps de transit, il est possible de calculer des cartes de débit sanguin cérébral via la formule : débit = volume/temps (figure 8.24C).
Ces cartes de perfusion cérébrale peuvent être utilisées dans l'exploration d'un infarctus cérébral pour identifier l'étendue de la région hypoperfusée (allongement des paramètres de temps) qui peut être plus large que la région déjà infarcie de façon irréversible sur la séquence de diffusion (c'est le concept de la pénombre ischémique utilisé pour sélectionner les patients éligibles à un traitement de revascularisation dans des délais prolongés). Ces cartes de perfusion peuvent aussi être utilisées dans l'exploration d'une tumeur cérébrale pour identifier les régions hypervascularisées (augmentation du volume sanguin cérébral du fait d'une néo-angiogenèse liée au caractère agressif d'une tumeur gliale, par exemple).
Il existe d'autres méthodes de perfusion qui couplent l'injection de gadolinium avec la répétition de séquences T1 pour explorer d'autres organes. On peut aussi faire de la perfusion sans injecter de produit de contraste, mais en générant du signal au sein des protons du sang circulant qui est alors utilisé comme traceur endogène (technique dite par marquage de spins artériels).
Séquences d'angio-IRM
Il existe de nombreuses méthodes pour explorer les vaisseaux en IRM. Une des méthodes les plus utilisées est l'angio-IRM après injection de gadolinium. On utilise ici la propriété du gadolinium de réduire le T1 des tissus dans lesquels il est présent et donc de réduire le T1 du sang lors de son transit vasculaire. Ainsi, lorsque l'injection du gadolinium en bolus (utilisation d'un injecteur automatique) est couplée avec une séquence T1 rapide, acquise lorsque le gadolinium transite dans le système artériel, alors les artères riches en gadolinium apparaissent en hypersignal. Cette méthode est très efficace grâce au développement de séquences fortement pondérées T1 (TR et TE très courts), qui peuvent être acquises très rapidement et grâce à une bonne synchronisation de l'acquisition et du passage artériel du bolus. La réalisation d'une séquence avant l'arrivée du contraste est parfois utilisée pour servir de masque pour une éventuelle soustraction avec les séquences injectées. Les acquisitions sont aussi parfois répétées de façon dynamique après injection de façon à obtenir plusieurs phases (temps artériel, temps capillaire, temps veineux) pour l'exploration de certaines affections dans lesquelles le transit d'une phase à l'autre est perturbé (par exemple malformation artérioveineuse qui s'accompagne d'une opacification veineuse dès la phase artérielle). Pour visualiser ces imageries, on utilise généralement un post-traitement appelé MIP (maximal intensity projection) qui consiste à projeter dans chaque coupe uniquement les voxels les plus intenses (correspondant aux voxels vasculaires riches en gadolinium). En multipliant ces projections avec des angles différents, on obtient plusieurs images vasculaires 2D qu'on peut faire tourner et visualiser sous toutes les incidences comme une véritable image 3D (figure 8.25A).
Il existe aussi plusieurs alternatives pour explorer les vaisseaux sans injecter de gadolinium en utilisant des propriétés des vecteurs d'aimantation circulants de pouvoir générer du signal sous certaines conditions (séquence en temps de vol dite TOF pour time of flight, séquence en contraste de phase). Ces méthodes ont l'avantage de ne pas nécessiter d'injection de produit de contraste, mais ont d'autres contraintes.
Agents de contraste en IRM
Les agents de contraste en IRM sont des agents exogènes (médicaments) injectés le plus souvent par voie veineuse pour augmenter le contraste entre un tissu pathologique et un tissu sain ou entre deux structures anatomiques (vaisseaux et parenchyme). Les agents de contraste les plus utilisés en IRM sont les chélates de gadolinium (agent paramagnétique à effet T1). Dans des indications particulières, on utilise parfois des nanoparticules de fer (agent super-paramagnétique à effet T2).
Propriétés physicochimiques et pharmacocinétiques des chélates de gadolinium
Le gadolinium (Gd3+) est un ion métallique de la famille des lanthanides qui possède 7 électrons célibataires sur sa couche périphérique. L'ion gadolinium libre est toxique et il est toujours utilisé sous forme chélatée soit au sein d'un macrocycle (chélate de gadolinium macrocyclique), soit au sein d'une chaîne linéaire (chélate de gadolinium linéaire). Les électrons célibataires accélèrent la relaxation de l'aimantation des tissus au sein desquels le gadolinium est présent. En effet, le retour des vecteurs d'aimantation dans le sens du champ magnétique principal après l'impulsion RF (voir plus haut) nécessite une restitution d'énergie (issue de l'impulsion RF) vers l'environnement (relaxation spin-réseau) qui est facilitée par ces électrons célibataires. Ainsi, le gadolinium est surtout utilisé comme agent T1 puisqu'il entraîne un hypersignal T1 des tissus au sein desquels il est présent. Lorsque le gadolinium est concentré, le champ magnétique local créé autour de lui (effet paramagnétique) accélère la relaxation transversale (chute du signal en T2 et T2* ; voir imagerie de perfusion de la figure 8.24A), mais cet effet est généralement moindre que l'effet T1.
D'un point de vue pharmacocinétique, les chélates de gadolinium se comportent de façon proche des produits de contraste iodés utilisés en scanner. Après injection intraveineuse, ils ont une biodistribution vasculaire puis rapidement interstitielle. Ils sont éliminés majoritairement par voie urinaire (certains ont une élimination biliaire surajoutée, ce qui est utilisé pour explorer certaines affections hépatobiliaires). Leur demi-vie est de l'ordre de 90 minutes chez les patients à fonction rénale normale.
Tolérance et effets secondaires des chélates de gadolinium
La tolérance de ces agents diagnostiques est très bonne.
Il existe des réactions d'hypersensibilité allergique ou non allergique qui sont peu fréquentes et souvent d'intensité légère à modérée et de nature transitoire (nausées, vomissements, prurit, manifestations respiratoires, etc.). De façon très rare, il a été décrit des états de choc anaphylactique.
Des cas de fibrose systémique néphrogénique (atteinte fibrosante cutanée avec une extension viscérale) ont été décrits avec des chélates linéaires, mais ne sont plus rencontrés maintenant que ces produits à risque ne sont plus utilisés chez les insuffisants rénaux sévères (débit de filtration glomérulaire [DFG] < 30 mL/min/1,73 m2). Les chélates de gadolinium ne sont pas néphrotoxiques, contrairement aux produits de contraste iodés utilisés en TDM. Compte tenu de l'absence de néphrotoxicité et du risque quasi nul de fibrose néphrogénique systémique avec les produits macrocycliques qui sont actuellement autorisés, il est possible d'injecter du gadolinium chez le patient insuffisant rénal (en se limitant uniquement à une dose toutes les 7 jours si le DFG est < 30 mL/min/1,73 m2).
La rétention intracérébrale (notamment au sein des noyaux dentelés) d'une faible partie du gadolinium injecté a été décrite, notamment lorsque les injections sont répétées (par exemple pour la surveillance d'une maladie chronique). Ces phénomènes de passage et de rétention cérébrale sont plus marqués avec les chélates linéaires. Il n'y a pas, à ce jour, de niveau de preuve suffisant pour associer ces phénomènes de rétention à des effets secondaires cliniques. Néanmoins, les chélates macrocycliques sont maintenant privilégiés et les injections répétées doivent être bien justifiées par un bénéfice clinique. Certaines maladies chroniques sont maintenant surveillées, autant que possible, sans injection de chélate de gadolinium pour limiter ces phénomènes.
Il existe peu de données cliniques sur l'utilisation des produits de contraste gadolinés pendant la grossesse. Ces produits n'ont pas d'effet tératogène ou mutagène. Néanmoins, par mesure de précaution, les produits de contraste à base de gadolinium ne doivent être injectés pendant la grossesse qu'en cas de stricte nécessité, en utilisant uniquement les plus stables et à la plus petite dose nécessaire pour le diagnostic. Le passage dans le lait maternel est minime et l'allaitement peut être poursuivi sans précaution si le produit a été injecté chez une femme allaitante.
Indications des produits de contraste en IRM
Utilisation des chélates de gadolinium
Les chélates de gadolinium sont très largement utilisés en couplage avec des acquisitions T1 pour augmenter le contraste entre des tissus normaux et pathologiques (processus tumoraux, inflammatoires, infectieux) au sein desquels le gadolinium s'accumulera (voir figures 8.20A et 8.25B).
L'injection est aussi utilisée, en couplage avec une acquisition T1 au temps artériel (et/ou veineux), pour collecter des images d'angio-IRM (voir figure 8.25A).
On exploite l'effet T2 (et T2*) en imagerie de perfusion au premier passage (voir plus haut) où l'injection en embole compacte est couplée à des acquisitions dynamiques en T2 (T2*) pour suivre le transit de l'embole qui entraîne une chute de signal (voir figure 8.24).
Autres agents de contraste IRM
Il existe d'autres agents de contraste à base d'oxyde de fer super-paramagnétique qui font essentiellement chuter le signal en T2 au sein des tissus où ils s'accumulent. En pratique clinique, ces agents sont utilisés pour l'exploration du foie car ils sont captés par le système réticulo-endothélial et induisent donc une chute de signal T2 au sein du foie (et de la rate) sain ; le tissu « extra-hépatique » (par exemple une métastase) apparaissant alors en contraste négatif (pas de chute de signal).
Réalisation pratique d'un examen IRM
Contre-indications
Avant tout examen IRM, il est impératif de s'assurer de l'absence de contre-indication. Les contre-indications sont en rapport avec la présence de matériel métallique qui peut entraîner un échauffement des tissus, un dérèglement du dispositif électronique ou une migration du matériel métallique avec risque de lésion des tissus de voisinage.
Les contre-indications à la pratique d'une IRM sont donc les suivantes :
- patient porteur d'un pacemaker non compatible IRM ;
- patient porteur d'un défibrillateur cardiaque non compatible IRM ;
- patient porteur d'une valve cardiaque mécanique ancienne non compatible IRM ;
- patient porteur d'une pompe implantée (pompe à insuline, pompe à baclofène, etc.) ;
- patients ayant des éclats métalliques intra-orbitaires (origine accidentelle, meulage, travail du métal, bricolage, etc.) ;
- patient porteur de tout éclat métallique dans le corps d'origine accidentelle (limaille, balle, éclats d'obus, etc.).
D'une manière générale, tous les implants doivent être vérifiés avant la réalisation de l'examen (valves et dérivations ventriculaires, neurostimulateur, clamps artériels carotidiens, clips anévrismes, coils, stents, filtres, prothèses et valves cardiaques, implants oculaires, implants cochléaires, implants péniens, etc.). Les dispositifs récents peuvent généralement permettre la réalisation de l'examen IRM (y compris les pacemakers récents), mais en respectant des précautions spécifiques au matériel concerné. Ces précautions concernent la valeur maximale du champ magnétique utilisable (1,5 T, 3 T), la puissance maximale des gradients utilisable, le taux d'absorption spécifique maximal (dépôt d'énergie au tissu du fait des impulsions RF).
Ainsi, chez un patient qui présente un dispositif implanté, la compatibilité doit être vérifiée par l'équipe d'imagerie en utilisant les données des constructeurs afin de s'assurer que le matériel est : 1) IRM compatible (= examen possible), 2) IRM compatible sous condition (= examen possible, mais en respectant des conditions de réalisation qui vont concerner le type de machine utilisable, le type de séquence utilisable, la durée maximale de l'examen, etc.), ou 3) IRM non compatible (= examen impossible, nécessitant d'utiliser une autre modalité, comme le scanner).
La présence de matériel orthopédique (broches, vis, prothèses orthopédiques), à l'exception des fixateurs externes, n'est pas une contre-indication, mais pourra générer un artefact métallique si le matériel est dans le champ d'exploration. Il s'agit du même problème pour le matériel d'orthodontie. On peut aussi être amené à attendre quelques semaines après réalisation d'un tatouage car certaines encres contiennent des pigments ferromagnétiques.
Les patients claustrophobes peuvent avoir des difficultés à supporter l'examen du fait de l'étroitesse du tunnel de l'aimant. Une prémédication ou l'utilisation de l'hypnose peuvent permettre de réaliser l'examen chez ce type de patients. Dans des cas particuliers (pédiatrie, claustrophobie sévère, mouvements anormaux incontrôlés, patient très agité ou non coopérant) où l'examen est indispensable, on peut être amené à réaliser l'IRM sous sédation ou sous anesthésie générale (via du matériel spécifique IRM compatible).
Le patient sera interrogé à la recherche d'antécédent d'allergie au chélate de gadolinium si une injection est nécessaire.
Les patientes en âge de procréer seront interrogées sur une éventuelle grossesse. On peut pratiquer une IRM pendant la grossesse, mais uniquement si l'examen est indispensable, sans attendre l'accouchement et généralement sans utilisation de produit de contraste (sauf nécessité diagnostique absolue, voir plus haut).
Déroulement pratique de l'examen
La demande d'un examen IRM doit faire l'objet d'une demande écrite.
Le patient est accueilli par un manipulateur en électroradiologie. Tous les objets métalliques (bijoux, lunettes, clés) ou susceptibles d'être sensibles aux lignes de champs (téléphone portable, cartes de crédit) sont retirés en dehors de la salle d'examen. En effet, même si l'acquisition n'a pas encore commencé, le champ magnétique principal (B0) est permanent et il existe un risque de projection de tous les matériaux ferromagnétiques (brancards, pieds de perfusion, lits). Le patient est ensuite allongé sur la table et le manipulateur met en place des protections auditives (casque, bouchons d'oreille) car l'examen est bruyant. Le manipulateur met aussi en place les antennes permettant d'émettre les impulsions RF et de recueillir le signal (antennes émettrices et réceptrices) en fonction de la région anatomique étudiée (antenne tête pour le crâne, antenne de surface pour l'abdomen par exemple). L'acquisition en IRM est plus longue qu'en TDM, de l'ordre de 10 à 45 minutes pour chaque région anatomique étudiée. Pendant toute la durée de l'examen, le patient ne doit pas bouger et peut communiquer avec le manipulateur présent dans la salle de commande via un microphone. Le patient pourra être perfusé par le manipulateur si une injection de produit de contraste est nécessaire.
Les séquences utilisées sont prescrites par le médecin radiologue selon la question clinique qui est posée. En fonction des constatations sur les premières séquences, le radiologue peut ajuster le choix des séquences à réaliser (soit en raccourcissant le nombre de séquences si la réponse clinique est rapidement obtenue, soit à l'inverse en ajoutant d'autres acquisitions pour aider à mieux comprendre les constatations faites sur les premières images). Le radiologue analyse l'ensemble des séquences sur une console d'imagerie dédiée et il intègre ses observations avec le contexte clinique et biologique pour faire une synthèse dans un compte rendu qui est rendu au médecin demandeur et expliqué au patient. Le compte rendu pourra soit affirmer un diagnostic, soit proposer plusieurs hypothèses qui nécessiteront d'autres examens pour conclure sur un diagnostic unique.
Essentiel à retenir
- L'IRM consiste à détecter l'aimantation des noyaux d'hydrogène et à la localiser pour reconstruire des images. Pour ce faire, on utilise le champ magnétique intense de la machine IRM appelé B0 (aimant supraconducteur) qui va polariser les aimantations nucléaires, c'est-à-dire les aligner entre elles et sur B0 en induisant une aimantation macroscopique appelée M0.
- La détection de cette aimantation macroscopique est fondée sur sa mise en mouvement via une onde de radiofréquence délivrée par l'antenne d'émission permettant de faire pivoter l'aimantation des noyaux d'hydrogène par rapport à B0.
- Le retour à l'équilibre de M0 qui se réaligne sur B0 après l'excitation radiofréquence constitue la base du signal IRM. Ce retour à l'équilibre se fait selon des caractéristiques propres à chaque tissu sous la forme de : 1) la récupération de la composante longitudinale alignée sur B0 selon une exponentielle croissante en T1, et 2) la décroissance de la composante transversale perpendiculaire à B0 selon une exponentielle décroissante en T2.
- Ce sont les antennes de réception qui vont détecter la tension induite par ce retour à l'équilibre de l'aimantation qui correspond au signal IRM. Pour localiser ce signal IRM dans le volume exploré et ainsi obtenir une image, on utilise trois gradients de champ magnétique qui se superposent au champ magnétique principal B0 et qui permettent de coder la position du signal.
- La description chronologique de ces manipulations de l'aimantation constitue une séquence IRM qui peut favoriser le contraste induit par des différences de récupération de l'aimantation longitudinale (pondération T1) ou par des différences de décroissance de l'aimantation transversale (pondération T2).
- L'ajout de modules spécifiques au sein d'une séquence IRM peut aussi permettre d'annuler un signal tissulaire spécifique (eau libre, graisse) ou de sensibiliser le signal aux phénomènes de diffusion ou de perfusion.
- Des agents de contraste IRM, dont les plus utilisés sont les chélates de gadolinium, permettent d'accentuer le contraste des tissus au sein desquels ils s'accumulent.
- L'examen IRM est sans risque, à condition que le patient ne soit pas porteur de dispositif métallique implanté pouvant migrer, se dérégler ou entraîner un échauffement des tissus.
Chapitre suivant | |
Retour au sommaire |
Les fondamentaux - Chapitre 7 - Échographie
F. Patat et M. Ronot
Plan du chapitre
- Notion d'onde mécanique
- Principes de l'échographie
- Bases sémiologiques du mode B
- Modes Doppler
- Agents de contraste échographiques
- Bases technologiques
- Conclusion
Objectifs
Les objectifs de ce chapitre sont de présenter les techniques ultrasonores en allant de la compréhension des principes physiques jusqu'aux bases sémiologiques des images obtenues. Dans ce parcours, il est nécessaire d'aborder la nature des interactions des ondes ultrasonores avec les tissus du corps humain et les bases techniques du fonctionnement des systèmes employés aujourd'hui. Ce descriptif est délibérément court et limité à la stimulation de l'intuition des phénomènes, sans calcul donc, hormis la connaissance de l'unité géométrique du champ acoustique, à savoir la longueur d'onde. La description des principaux modes Doppler qui, aujourd'hui, font partie de tout examen approfondi est également envisagée. Une synthèse des caractéristiques de l'échographie et les perspectives d'évolution des outils ultrasonores en médecine clôtureront ce chapitre.
Notion d'onde mécanique
Les ondes mécaniques sont des phénomènes très fréquents : les sons dans l'air, les vagues à la surface de l'eau, les tremblements de terre ou les vibrations d'une corde instrumentale. Pour en donner une définition plus générale et abstraite, on considère un milieu matériel quelconque (solide, liquide ou gazeux), au repos pour simplifier ; il est possible de modifier localement la position d'une partie du milieu par l'application de forces. Cette perturbation de l'équilibre local engendrera des forces de voisinage qui créeront alors un mouvement. Ce phénomène de déplacements induits de proche en proche est décrit par le concept d'onde mécanique sous-tendu par un autre mot clé, celui de propagation. Lorsque les ondes mécaniques peuvent être perçues par l'ouïe d'un être vivant sous forme de sons, on parle d'ondes acoustiques. L'acoustique est donc la science qui étudie les sons.
Propriétés du milieu de propagation
Certaines propriétés dites « mécaniques » du milieu conditionnent la façon dont les ondes s'y propagent. Une onde entraîne des déformations du milieu qui mettent en jeu ses différentes propriétés élastiques intrinsèques. Pour désigner ces propriétés, on utilise le terme de « module ». Dans un milieu isotrope, toutes les directions sont équivalentes ; il n'existe que deux modules élastiques indépendants : en compression (changement de volume mais pas de forme) et en cisaillement (changement de forme).
Les modules élastiques s'expriment en Pascal (Pa) ; ils correspondent à la contrainte mécanique nécessaire pour obtenir une certaine déformation. Pour définir le module élastique en compression, on utilise le coefficient K qui gouverne la loi de la pression P nécessaire pour obtenir un changement relatif donné de volume V :
ΔP= -K * ΔV / V
La variation relative de volume est bien ΔV / V et le signe – nous indique que, pour une pression positive, ΔP, on obtient bien une diminution de ce volume. K est le coefficient de proportionnalité entre la contrainte mécanique (la pression) et la déformation obtenue.
Pour l'eau, K = 2,25 GPa = 2,25 109 Pa. Il faut une pression de 22,5 MPa pour comprimer un volume d'eau de 1 %. C'est la pression qui règne par exemple à une profondeur de 2250 mètres.
La dynamique de la mise en mouvement de la matière dépend de son inertie, c'est-à-dire de sa masse volumique ρ. Pour l'eau, on a ρ = 1000 kg/m3. On définit, enfin, une caractéristique essentielle du milieu vis-à-vis des ondes : la vitesse de propagation, aussi appelée célérité. Il faut bien distinguer la célérité, qui est la vitesse du phénomène « onde », et la vitesse des molécules du milieu. Prenons l'exemple des vagues sur la mer : un objet flottant, qui représente le mouvement des molécules d'eau, a un mouvement essentiellement vertical, montant et descendant au passage des vagues. Celles-ci, en revanche, se propagent horizontalement beaucoup plus vite. La célérité d'une onde est rapide si le milieu a une forte élasticité, c'est-à-dire s'il est raide, difficile à déformer. Inversement, elle est plus lente si le milieu présente une masse volumique importante. On démontre que la célérité c est déterminée par célérité2 = coefficient élastique/masse volumique soit :
c2 = K / ρ
La célérité du son dans l'air vaut 340 m/s et correspond au mur du son en aéronautique. Dans l'eau, elle est encore plus importante et vaut 1500 m/s, soit 5400 km/h : le son d'un caillou jeté dans le port de Brest pourrait en théorie s'entendre à New York une heure plus tard ! Les caractéristiques intrinsèques du milieu que sont ses coefficients élastiques et sa masse volumique déterminent la célérité des ondes ultrasonores.
On distingue les ondes à polarisation transverse où le mouvement est perpendiculaire à la direction de propagation (c'est typiquement le cas avec notre exemple du bouchon flottant et des vagues) et les ondes à polarisation longitudinale où le déplacement de matière est parallèle au vecteur de propagation. Les ondes habituellement utilisées en échographie sont des ondes de compression qui se propagent dans des milieux (les tissus biologiques) dont la consistance est proche de celle de l'eau ; il s'agit d'ondes longitudinales.
Les ondes de cisaillement ne sont pas utilisées en échographie conventionnelle. Le module de cisaillement peut toutefois être utilisé afin de déterminer la « dureté » (rigidité) d'une zone prédéfinie. On parle d'élastographie ultrasonore. En effet, la vitesse de propagation des ondes de cisaillement est directement reliée à la rigidité du milieu. La mesure de cette vitesse est réalisée selon des modalités différentes de celles utilisées en échographie conventionnelle. Il s'agit d'une technologie d'introduction plus récente, mais qui se généralise.
On définit par ailleurs une autre quantité importante appelée impédance acoustique qui est le produit de la masse volumique par la célérité de l'onde : Z = ρ·c. Nous verrons plus loin en quoi Z est une caractéristique déterminante dans le comportement des ondes acoustiques lorsqu'elles changent de milieu. L'unité donnée à Z est le Rayl (1 Rayl = Pa· s/m) en hommage au grand physicien britannique J.W. Rayleigh (1842–1919), fondateur de l'acoustique moderne. Le tableau 7.1 donne les caractéristiques de l'air et de l'eau.
Tableau 7.1 - Propriétés mécaniques de l'air et de l'eau à 25 °C.
Milieu |
Masse volumique (kg ∙ m–3) |
Coefficient élastique (Pa) |
Célérité (m/s) |
Impédance Z (Rayl) |
Air |
1,3 |
1,5 105 |
340 |
442 |
Eau |
1000 |
2,25 109 |
1500 |
1,5 106 |
Ondes sinusoïdales
De nombreuses formes temporelles peuvent se propager sous forme d'onde. Un type fréquent dans la nature et très commode sur le plan mathématique est représenté par les fonctions sinusoïdales. Une telle onde pourra être décrite par la formule suivante où l'on décrit la pression p qui dépend à la fois du temps t et de la distance x :
p(X,t) = A ⋅ sin [2 π { (x/λ) - (t/T) } ] = A ⋅ sin [2π/λ V⋅ (x - c ⋅t)] = A ⋅ sin [2 π f { (x/c) - t } ]
A est l'amplitude, f la fréquence, T la période et λ la longueur d'onde. Le motif de l'onde se répète à intervalle régulier dans le temps – c'est la période T – et à intervalle régulier dans l'espace : il suffit de photographier le phénomène pour voir λ, la longueur d'onde. Le lien entre ces grandeurs est facile à retrouver : au bout d'un temps T, l'onde voyageant à la vitesse c se sera déplacée de la quantité c·T = λ. On a par ailleurs : T = 1/f et c = λ·f.
À noter que le signe – entre les variables temporelles et spatiales implique une propagation dans le sens des x positifs ; le signe + inverserait le sens (figure 7.1).
Chez les humains, les sons sont définis par la gamme de fréquences audibles par un sujet jeune, typiquement 20 Hz à 20 kHz. Au-delà, on parle d'ultrasons et les fréquences essentiellement utilisées en imagerie médicale sont dans la gamme 2 MHz à 20 MHz, ce qui correspond à des périodes temporelles entre 500 et 50 ns. Il est important d'avoir en tête les longueurs d'onde dans les tissus mous où la célérité est très proche de celle de l'eau ; une onde à 1,5 MHz dans un milieu où c vaut 1500 m/s a une longueur d'onde de 1 mm :
λ = c / f = {1500 m⋅s-1} / {1,5⋅106 s-1} = 10-3 m
Une onde de 15 MHz aura une longueur d'onde dix fois plus petite, soit un dixième de millimètre. Cette notion de longueur associée à l'onde est essentielle car c'est l'étalon selon lequel doivent être analysés tous les phénomènes subséquents, notamment les interactions ultrasons-tissus. C'est aussi le juste ordre de grandeur de la résolution que l'on peut attendre des images échographiques.
L'amplitude des ondes acoustiques peut s'exprimer dans différentes variables comme la pression p de l'onde (à ne pas confondre avec la pression ambiante du milieu qui est fixe) ou la vitesse v des molécules du milieu. On peut d'ailleurs noter que ces quantités sont proportionnelles et que le coefficient qui les relie est précisément l'impédance acoustique Z.
On a ainsi p = Z·v de la même manière qu'en électricité la loi d'Ohm U = R·I traduit le lien entre tension électrique et courant, la résistance R étant le coefficient de proportionnalité reliant ces deux grandeurs.
Propriétés acoustiques des tissus
Les propriétés acoustiques des tissus biologiques sont résumées dans le tableau 7.2. On voit très clairement sur ce tableau que l'ensemble de ce qu'on appelle les tissus mous en échographie, c'est-à-dire tous les organes, à l'exception du squelette et des organes à contenu gazeux, possèdent une impédance acoustique voisine de 1,6 MRayl et une célérité à peine supérieure à celle de l'eau. Cela reflète le fait que nos tissus contiennent une grande quantité d'eau et que, mécaniquement, à l'échelle des ondes ultrasonores, ils se comportent comme un milieu liquide épais aqueux très riche en lipides, protéines et glucides. Toutes ces molécules, essentielles à la vie, changent peu la masse volumique et la faible compressibilité (due à l'eau) de ces milieux. De façon similaire, la gamme des célérités des ondes acoustiques dans les tissus mous est assez restreinte au voisinage de 1550 m/s. Cette situation est extrêmement favorable et permet aux faisceaux d'ultrasons d'avoir des trajectoires presque droites, comme on va le découvrir ensuite. Il est important aussi de noter que ces propriétés, célérité de l'onde et impédance acoustique, sont indépendantes de la composition fréquentielle de l'onde propagée.
Tableau 7.2 - La célérité en m/s et l'impédance acoustique Z de différents milieux du corps humain.
Tissu |
Célérité (m/s) |
Z : impédance (MRayl) |
Air |
340 |
0,0004 |
Eau |
1480 |
1,48 |
Poumon |
650 |
0,06-0,26 |
Sang |
1566 |
1,65 |
Os cortical |
3000–4000 |
4,2-8 |
Foie |
1560 |
1,65 |
Graisse |
1450 |
1,38 |
Muscle |
1550–1630 |
1,65-1,74 |
Rein |
1570 |
1,65 |
Cerveau |
1550 |
1,6 |
Peau |
1600 |
1,84 |
Polyamide |
2340 |
2,9 |
Atténuation
Schématiquement, l'intensité d'une onde acoustique se modifie (le plus souvent diminue) au cours de sa propagation ; on parle d'atténuation. Deux phénomènes en rendent compte : l'absorption et la dispersion.
Pour traiter de l'absorption, il faut se souvenir qu'une onde acoustique transporte de l'énergie à la fois sous forme cinétique (avec la vitesse des molécules mises en mouvement) et sous forme potentielle (avec l'énergie élastique de déformation du milieu). Comme tout mouvement, ceux induits par le passage de l'onde entraînent des frottements et une partie de l'énergie est ainsi soustraite sous forme de chaleur. C'est le phénomène d'absorption qui contribue largement à atténuer l'énergie des faisceaux ultrasonores utilisés. Classiquement, la part d'énergie absorbée est proportionnelle à l'énergie en transit ; on retrouve donc la loi classique dans bien des domaines (optique ou rayons X) d'atténuation exponentielle. Si x est la distance parcourue et I(x) l'intensité au point d'abscisse x, alors où α est le paramètre d'atténuation dont la dimension est l'inverse d'une longueur, en cm–1 par exemple.
Deux points sont importants à retenir :
- aux fréquences qui nous intéressent en échographie, le coefficient α est assez élevé ; les faisceaux sont rapidement absorbés lorsqu'ils atteignent les régions anatomiques profondes. Les échographes comportent donc des systèmes d'amplification puissants pour les signaux rétrodiffusés distants ;
- dans les tissus, le coefficient α est proportionnel à la fréquence : α = β·f et comme il intervient dans l'exposant de l'exponentielle, l'accroissement de la fréquence augmente sensiblement l'absorption.
Il serait théoriquement préférable de réaliser des explorations échographiques à la plus haute fréquence possible de manière à utiliser de courtes longueurs d'onde, interagissant à une échelle très fine avec l'anatomie tissulaire et permettant ainsi d'obtenir les meilleures résolutions spatiales possibles. La recherche d'un compromis est nécessaire car les plus hautes fréquences sont trop vite absorbées. Cela explique pourquoi elles sont réservées à l'exploration des tissus superficiels. Concrètement, on utilise des sondes de basse fréquence pour explorer des organes profonds (bonne pénétration des ondes au prix d'une résolution spatiale moindre), a fortiori pour des patients en surpoids, et des sondes haute fréquence (excellente résolution spatiale mais absorption rapide) pour les investigations superficielles ou endocavitaires.
En ce qui concerne la dispersion, nous verrons ensuite qu'il est possible de manipuler les faisceaux ultrasonores ; ceux-ci sont rarement des ondes planes (c'est-à-dire des plans se propageant de façon perpendiculaire à la direction de propagation), mais plus souvent des ondes divergentes ou convergentes. L'énergie totale de l'onde, constante, se répartit ainsi sur des surfaces d'onde qui varient au cours de la propagation. Dans une zone où l'onde est divergente, la surface d'onde s'accroît et l'intensité locale diminue. Inversement, il est possible, comme nous le verrons dans le paragraphe « Bases technologiques », de focaliser les faisceaux, c'est-à-dire de concentrer l'énergie au voisinage d'un point focal. On peut par ce biais augmenter l'intensité locale.
Il faut retenir que, pour les appareils diagnostiques, l'absorption est, de loin, le phénomène dominant.
Interface entre milieux de propagation
Les variations intratissulaires d'impédance acoustique conditionnent la manière dont une onde ultrasonore interagit avec ce tissu. Ces interactions peuvent être catégorisées en considérant trois phénomènes : la transmission, la réflexion et la diffusion.
Considérons la situation schématisée sur la figure 7.2. Deux milieux de célérités différentes c1 et c2 sont séparés par une interface plane. Chacun des milieux étant homogène, les ondes acoustiques se propagent en ligne droite mais, à l'interface, les équations de propagation ne peuvent plus être satisfaites par une seule onde. Il se passe le même phénomène qu'en optique ; deux ondes supplémentaires par rapport à l'onde incidente prennent naissance : une onde réfléchie et une onde transmise, appelée aussi onde réfractée.
Les valeurs de célérité gouvernent les lois des angles θ selon les lois de Snell-Descartes : θi = θr et c2· sin θi = c1· sin θt.
Remarque : Si sin θi ≥ c1/c2, il y a réflexion totale, c'est-à-dire une absence d'onde transmise.
Les célérités des milieux gouvernent les angles de réflexion et réfraction. En revanche, ce sont les impédances qui vont conditionner la puissance des ondes réfléchies et réfractées. Prenons le cas plus simple d'une incidence normale à l'interface (figure 7.3).
Si on définit par R et T les coefficients de réflexion et de transmission :
- R = puissance de l'onde réfléchie/puissance de l'onde incidente ;
- T = puissance de l'onde transmise/puissance de l'onde incidente.
Les lois de continuité à l'interface permettent de montrer que :
R = (Z1 - Z2)2 / (Z1 + Z2)2
et
T = (4 · Z1 · Z2) / (Z1 + Z2)2
On peut vérifier que R + T = 1, ce qui est logique puisque la puissance incidente est totalement répartie entre le faisceau transmis et le faisceau réfléchi.
La réflexion aux interfaces peut devenir très importante si les impédances sont très différentes et, dans ce cas, l'énergie transmise peut être considérablement réduite. C'est le cas des interfaces entre la sonde et l'air, puis entre l'air et la peau du patient. Pour éviter des pertes considérables à ces deux interfaces, il est nécessaire d'appliquer un gel entre la sonde et la peau du patient. Les fortes différences d'impédance entre tissus mous et air et entre tissus mous et os expliquent aussi l'impossibilité des explorations échographiques si le faisceau rencontre l'os ou des structures contenant des gaz (poumon, tube digestif).
L'interface plane a une surface très grande comparée à la longueur d'onde. Considérons maintenant le cas opposé d'un milieu constellé de petites hétérogénéités d'impédance dont la forme importe peu, puisqu'elles sont très petites à l'échelle de l'onde acoustique incidente, c'est-à-dire en comparaison avec sa longueur d'onde (figure 7.4).
Chacune des hétérogénéités est la source d'une microréflexion. Elle donnera lieu à une onde secondaire de forme sphérique, car issue d'une origine quasi ponctuelle. Ces ondes sphériques ainsi engendrées en très grand nombre sont incohérentes si les sources sont dispersées aléatoirement dans l'espace. Le faisceau incident est ainsi transformé en un ensemble d'ondelettes incohérentes sans direction privilégiée. Ce phénomène appelé diffusion est familier en optique (c'est l'explication du brouillard ou de l'aspect des nuages qui sont des assemblages de microgouttelettes d'eau liquide en suspension qui diffusent la lumière visible). Les tissus des organes observés en échographie sont constitués de cellules qui contiennent des noyaux ayant une plus grande impédance acoustique, séparées par de nombreuses interfaces entre elles et avec la microvascularisation, les fibres des tissus de soutien, etc. Chacune de ces microstructures contribue ainsi au caractère plus ou moins diffusant d'une région échographique.
Principes de l'échographie
Le principe sur lequel repose l'échographie est celui de l'écholocalisation. Il est utilisé, on le sait, dans le monde animal, notamment par les chauves-souris et certains mammifères marins. Le Sound Navigation And Ranging (SONAR), qui est une invention du XXe siècle, repose sur le même principe. Il a tout d'abord été utilisé à des fins militaires dans la guerre sous-marine, puis a été diffusé aux domaines de la pêche et du monde médical après 1945.
Ligne échographique
En échographie, tout commence avec la production d'ondes ultrasonores pulsées de courte durée, typiquement une période de la fréquence centrale, transmises au patient par la face avant de la sonde.
Le schéma de la figure 7.5 montre un système d'émission-réception d'onde ultrasonore pulsée. L'émetteur est ce que l'on appelle une sonde (à gauche du schéma). La sonde est tenue dans la main lorsque l'on réalise un examen échographique. Il en existe de très nombreux modèles, ayant des tailles et des formes différentes. Ces caractéristiques permettent de produire des ondes à des fréquences variées. Elles ont toutes en commun de pouvoir à la fois émettre et recevoir des ondes acoustiques et les transformer en signaux électriques. L'onde émise est supposée voyager sous forme d'un faisceau assez fin le long de la ligne pointillée en rouge. L'émission est pulsée sur le plan temporel (représentée par l'onde rouge sur le schéma). En pratique, elle oscille brièvement pendant une ou deux périodes, puis est stoppée. La sonde, après avoir émis l'onde initiale, se place en mode « écoute » et enregistre tous les signaux qui viennent frapper sa surface sensible. L'onde émise voyage (vers la droite sur le schéma) au sein du milieu à explorer et engendre, lorsqu'elle rencontre une rupture d'impédance acoustique, un couple onde réfléchie-onde transmise, comme nous l'avons vu. L'onde réfléchie retourne alors vers la sonde. On parle alors d'écho (qui donne son nom à l'échographie). L'onde transmise poursuit, quant à elle, son trajet dans la même direction, mais avec une puissance moins grande. La perte de puissance est faible si les ruptures d'impédance acoustique sont faibles, ce qui est souvent le cas dans les tissus mous. L'énergie qu'elle transporte peut ainsi provoquer de nouveaux échos en raison des contrastes d'impédance situés un peu plus loin en profondeur. Ces échos sont recueillis par la sonde après un délai t qui dépend de la durée du trajet aller-retour de l'onde ultrasonore. Si la source de l'écho est à la profondeur d, celui-ci arrivera avec le retard 2 d/c par rapport à l'instant d'émission. La détection d'un écho permet donc d'en déduire la profondeur à laquelle il a été généré. En écoutant suffisamment longtemps, la sonde recueille plusieurs échos successifs, générés à des profondeurs croissantes. Ainsi, avec une seule émission d'onde, on peut obtenir des renseignements sur l'anatomie acoustique le long de toute une ligne.
À noter que ces échos sont de moins en moins puissants en raison des phénomènes d'atténuation que subit l'onde durant son trajet aller puis retour. Des amplificateurs de signaux sont utilisés pour augmenter le signal au fur et à mesure que le temps (et donc la profondeur de l'écho) s'écoule à partir de l'instant d'émission. Cela porte le nom de « correction de gain en fonction de la profondeur » ou encore time gain control (TGC).
Enfin, il faut bien garder à l'esprit que le temps nécessaire à l'émission-réception des échos successifs est très court, permettant d'obtenir l'information désirée en très peu de temps. À titre d'exemple, calculons le temps nécessaire pour construire une ligne échographique dans une exploration sur une profondeur de 15 cm. Le temps nécessaire pour l'arrivée des échos les plus profonds est :
t = 2d / c donc t = 2 · 0,15 m / 1500 m·s-1 = 200 . 10-6 s = 200 μs
Réalisation d'une image en mode B
La fabrication d'une image numérique consiste à obtenir suffisamment d'informations pour attribuer une valeur à chaque pixel. Nous venons de voir que la réalisation d'un tir puis l'analyse des échos permettaient de collecter les valeurs d'échogénicité pour chaque profondeur située le long de la ligne de tir. Si l'on multiplie les émissions de façon incrémentale le long de la sonde, on réalise un balayage par les lignes de tir d'une surface plane à l'intérieur du patient (une coupe) (figure 7.6).
Par convention, la lecture d'une image échographique est toujours la même (voir chapitre 2) :
- la sonde est située en haut de l'image ;
- la forme de la sonde détermine celle de la partie haute de l'image échographique. Sur la figure 7.6, il s'agit d'une sonde courbe, ce qui explique la courbure du haut de l'image. Si la sonde avait été droite, le haut de l'image aurait été rectiligne ;
- les échos les plus profonds sont en bas de l'image ;
- si la sonde est placée de façon à obtenir un plan de coupe transversal, la droite réelle (du patient) est située à gauche de l'image et la gauche réelle est placée à droite de l'image. Si la sonde est dans une position sagittale ou oblique, les régions les plus crâniales se trouvent sur la gauche de l'image, et les régions les plus caudales sur la droite de l'image. Cela permet à chacun de comprendre l'orientation de la sonde en regardant l'image.
Comment sont créés les niveaux de gris dans une image échographique ? Très simplement, on représente, après la correction de gain en fonction de la profondeur, l'amplitude de chaque écho reçu par un niveau de gris et on attribue ce niveau au pixel correspondant à la localisation de l'écho. Les échos faibles sont par convention représentés par un gris presque noir et les échos puissants sont représentés par des niveaux de gris plus proches du blanc. La gamme d'amplitude possible des échos étant extrêmement vaste, on ne peut pas la représenter entièrement car son étendue dépasse les capacités de la vision humaine (qui ne peut distinguer guère plus de 20 à 30 niveaux de gris différents sur une même image). On utilise donc, comme le font nos sens naturels d'ailleurs, une conversion via une échelle logarithmique avant de représenter l'image en échelle de gris. Ces paramètres de conversion sont bien entendu accessibles à travers les réglages de la machine. Typiquement, on représente sur une même image une gamme d'échos, appelée aussi gamme dynamique, d'au moins 60 dB (décibels), c'est-à-dire une amplitude 1000 fois plus forte pour l'écho qui sature le blanc que pour l'écho donnant le premier niveau de gris. On appelle cette image une échographie en mode B, B pour brillance.
Finalement, une échographie en mode B est une cartographie du plan de coupe choisi, représentant les contrastes d'impédance acoustique des tissus rencontrés. Ces variations d'impédance sont liées à des changements, de faible ampleur, de la masse volumique ou de l'élasticité des tissus. Elles sont assez fortement corrélées à l'anatomie et on parle donc d'écho-anatomie pour traduire l'aspect des organes explorables sur ces images. Pour être précis, notons aussi que l'image obtenue se situe dans le plan de coupe passant par la sonde et formé par l'ensemble des faisceaux acoustiques ; d'où le terme d'échotomographie que l'on rencontre parfois, fondé sur la racine grecque « tomo » pour coupe.
Le balayage des lignes acoustiques produit une coupe. Le nombre d'images produites par seconde est appelé « cadence image ». À quelle cadence obtient-on les images du mode B ? Reprenons l'exemple précédent où l'acquisition d'une ligne nécessitait 200 μs. On peut donc disposer de 5000 lignes par seconde. Considérons qu'une image de qualité se compose de 200 lignes échographiques. On peut réaliser 5000/200, soit 25 images par seconde. Cette technique possède donc des cadences proches de celle du cinéma ou de la vidéo, et permet ainsi une acquisition dite en « temps réel ». C'est un avantage majeur de ce type d'imagerie.
Mode temps-mouvement (TM)
Ce mode appelé TM fut d'emblée inventé pour l'exploration cardiaque avant même la généralisation du mode B. Le cœur étant, par définition, une structure mobile, il est possible d'explorer les mouvements des parois ou des valves à l'aide d'une seule ligne immobile traversant des structures mobiles le long de cette ligne d'exploration.
Comme on le voit sur la figure 7.7, on utilise maintenant le mode B pour bien positionner la ligne du mode TM (pointillée). À la demande, le balayage est arrêté et on voit défiler le temps sur l'axe horizontal, ce qui permet d'analyser finement la dynamique temporelle des mouvements antéropostérieurs des structures croisant la ligne TM.
Mode 3D
L'opérateur peut déplacer le plan de coupe du mode B à sa guise et explorer ainsi l'anatomie de la région d'intérêt en trois dimensions, mais la représentation tridimensionnelle n'existe alors que dans le cerveau de l'échographiste. Cela demande une compétence forte et ne laisse pas de trace objective. On a donc imaginé piloter les faisceaux ultrasonores dans toutes les directions de façon à proposer une acquisition tridimensionnelle. La première méthode fut de placer une sonde barrette bidimensionnelle ordinaire dans un boîtier équipé d'un moteur faisant pivoter cette sonde lentement. Les acquisitions planes ainsi accumulées et mises en mémoire permettent ensuite de reconstituer un volume 3D et de proposer des visions selon différents angles. Avec cette technique, le caractère temps réel de la technique est perdu.
D'autres technologies ont vu le jour plus récemment, notamment pour les besoins de l'échocardiographie et de l'échographie obstétricale, comme dans l'exemple de la figure 7.8. Elles utilisent des sondes plus complexes, formées de capteurs ayant une structure matricielle de plus de 3000 éléments indépendants. Elles sont ainsi capables d'envoyer des tirs ultrasonores dans un volume. Des électroniques de pilotage adaptées ont été développées et permettent de saisir des volumes 3D avec un bon niveau de résolution spatiale et une cadence image satisfaisante.
Bases sémiologiques du mode B
Comme nous l'avons indiqué au paragraphe « Réalisation d'une image en mode B », l'affichage des images suit les règles classiques de l'imagerie médicale. La gauche du patient est à droite de l'image et, pour les coupes sagittales, le haut du patient est à gauche de l'image. Par ailleurs, le nez de sonde au contact avec le patient est positionné classiquement en haut de l'écran.
Échogénicité
Rappelons que l'image échographique en mode B est la représentation de l'intensité des échos ayant pris naissance tout au long de la propagation des faisceaux. On parle d'échogénicité. Si on revient à l'origine physique, c'est une carte des différences d'impédance acoustique de la zone explorée. Cela explique une caractéristique fondamentale de ces images : les zones parfaitement homogènes ne produisent pas d'écho. Elles sont dites anéchogènes, c'est-à-dire sans écho. Elles apparaissent en noir. Les structures vraiment homogènes sont les liquides purs. Les tissus, a contrario, sont parcourus de travées de collagènes, de microvaisseaux, de cellules, qui elles-mêmes possèdent un noyau et des microstructures internes responsables d'une diffusion plus ou moins forte des ultrasons. Les liquides donnant lieu à des plages anéchogènes sont donc le liquide amniotique (voir figure 7.6), la bile, l'urine, le liquide cérébrospinal (LCS) visible en échographie transfontanellaire (à travers les fontanelles des nouveau-nés) en pédiatrie. Les épanchements pleuraux, péricardiques ou péritonéaux, les kystes simples sont aussi des zones anéchogènes et cela contribue d'ailleurs à leur identification. Le cas du sang est à distinguer : ce n'est pas un liquide à proprement parler car il contient 4 à 5 millions d'hématies par millimètre cube. Aux fréquences usuelles de 2 à 12 MHz, cela entraîne une diffusion extrêmement faible par rapport aux échos provenant des autres tissus. La conséquence est que le sang apparaît en noir sur les réglages usuels. Le repérage des gros vaisseaux, ainsi clairement identifiables, constitue d'ailleurs une des bases de l'échoanatomie. Néanmoins, cette diffusivité acoustique du sang donne des signaux, certes faibles, mais qui permettent la construction des modes Doppler (voir plus loin). Notons aussi que les globules rouges sont parfois regroupés en amas de rouleaux voyageant ensemble ; c'est le cas lorsque le cisaillement de l'écoulement est faible. Le centre diffuseur est alors beaucoup plus efficace et plus échogène ; le sang devient visible en échographie classique, par exemple dans la veine cave inférieure ou au sein d'un atrium gauche dilaté.
Les fortes ruptures d'impédance acoustique entraînent des échos très puissants qui sont codés en blanc sur les images. Les interfaces ayant un coefficient de réflexion proche de 100% entraînent une réflexion totale du faisceau : le faisceau émis ne poursuit pas l'exploration à des profondeurs plus grandes. On obtient alors un écho saturé en blanc, hyperéchogène, et en arrière une zone sans écho ou contenant des artefacts. Les structures osseuses et les organes à contenu gazeux (poumons et tube digestif) produisent de telles situations et constituent donc une limite à l'exploration échographique.
Cône d'ombre et renforcement postérieurs
Nous avons vu que l'amplitude des échos recueillis sur la sonde décroît avec la profondeur et que ce phénomène est compensé par une amplification à gain électronique croissant. Mais cela n'est juste qu'en moyenne. Plus spécifiquement, en arrière d'une zone plus atténuante, les échos sont de plus faible amplitude que leurs homologues de même profondeur et apparaissent avec une brillance affaiblie sous forme de cône d'ombre postérieur à la zone hyper-atténuante (figure 7.9). À l'inverse, un milieu moins atténuant (derrière une structure liquidienne comme un kyste) laisse passer un faisceau plus intense et les échos postérieurs paraîtront avec une brillance plus grande. On parle dans ce cas de renforcement postérieur.
Modes Doppler
Effet Doppler
L'effet Doppler, ainsi nommé d'après le nom du physicien autrichien Christian Doppler (1803–1853), traite des modifications de la fréquence des ondes perçues selon la vitesse relative de l'émetteur et du récepteur. Ce phénomène n'est pas limité aux ondes acoustiques ; c'est par exemple un moyen de mesure de la vitesse d'éloignement des galaxies par observation des décalages des spectres optiques.
Sur la figure 7.10, on a imaginé une situation banale : un véhicule se déplace en émettant un son à une certaine fréquence. Deux observateurs entendent le son du moteur, le premier, Mlle K., voit la machine s'éloigner, tandis que M. J. la voit se rapprocher de lui. On a noté T0 la période du son et λ0 sa longueur d'onde lorsque la moto est au repos. V est la vitesse de déplacement horizontal. Les cercles qui sont dessinés en gris représentent les fronts d'onde (ou zone équiphase). Ils ne sont pas concentriques. En effet, le cercle le plus petit est le plus récent ; en revanche, le cercle le plus grand est plus ancien, c'est-à-dire qu'il a été émis auparavant, ce qui explique qu'il a eu le temps de grandir par propagation. Mais au moment de l'émission du plus grand cercle, la moto était plus à gauche ; le centre du grand cercle est donc décalé vers la gauche, et ce d'autant plus que l'engin se déplace vite. Le résultat est visible sans démonstration sur la figure 7.10 : M. J. perçoit des fronts d'onde tassés vers lui et donc la longueur d'onde qu'il entend est plus courte, ce qui correspond à une fréquence plus élevée : le son est plus aigu. Inversement, Mlle K. perçoit des fronts d'onde écartés ; elle entend un son plus grave. Cela décrit une expérience auditive courante quand nous sommes au bord d'une route et écoutons passer des véhicules à forte vitesse ; ils s'approchent avec un bruit plus aigu et s'éloignent avec un bruit plus grave. On peut facilement calculer de combien sont raccourcis ou écartés deux fronts d'onde successifs : le temps écoulé entre deux fronts est T0 et la distance parcourue par la moto est V.T0. Si, par convention, la vitesse V est comptée positive en situation de rapprochement et négative en situation d'éloignement, la longueur d'onde perçue par Mlle K. et M. J. est calculée par la même équation : λ = λ0 – V·T0. mais λ0 = c·T0 et donc λ = (1 – V/c)·λ0.
Pour calculer la fréquence, il suffit de considérer que f = c/λ. Si V/c est petit devant 1, le calcul se simplifie et aboutit en première approximation à f = f0· (1 + V/c).
On voit que f est égal à f0 additionné d'un petit terme égal à f0· V/c. C'est ce que l'on appelle le décalage Doppler de fréquence fD. La fréquence Doppler fD est la différence entre la fréquence perçue par l'observateur avec celle émise par l'émetteur. De façon simple, elle répond à l'équation suivante :
fD / f0 = V / C
Le rapport des fréquences (Doppler et originelle) est égal au rapport des vitesses (objet et onde). À cause de la simplification effectuée dans le calcul, cette loi n'est valide que pour les vitesses V petites devant c. La fréquence fD a le même signe que V : positif en rapprochement et négatif en situation d'éloignement.
Mode Doppler continu
Le décalage de fréquence lié à la vitesse de déplacement est mis à profit pour effectuer à distance des mesures de vitesse, avec les radars par exemple. En médecine, ce décalage est surtout utilisé pour mesurer la vitesse du sang.
Sur la figure 7.11, on voit le principe de fonctionnement d'un système Doppler continu. La sonde émet un faisceau en permanence à la fréquence f0, d'où l'appellation Doppler à émission continue, et capte simultanément les ondes rétrodiffusées. Les ondes rétrodiffusées par les globules rouges subissent deux fois l'effet Doppler, une première fois lorsque les hématies sont éclairées par le faisceau en s'en éloignant (comme sur la figure) et une seconde fois lorsqu'elles deviennent à leur tour émettrices en direction de la sonde. Cela explique le facteur 2 que l'on trouve dans le calcul. La vitesse relative entre la sonde et les hématies n'est pas la même que la vitesse du sang car le vaisseau est oblique par rapport à la sonde. La vitesse « vue » par la sonde est donc la projection de la vitesse réelle des hématies sur la ligne du faisceau ultrasonore. Elle se calcule en multipliant V (la vitesse réelle des hématies) par le cosinus de l'angle θ entre le vaisseau sanguin et la ligne de tir ultrasonore. De façon réciproque, lorsqu'on veut utiliser l'effet
Doppler pour mesurer une vitesse de circulation sanguine, on mesure fD connaissant f0 et cos θ et on déduit V grâce à :
V = (fD / f0) * c / {2⋅ cos θ}
On comprend donc que si le vaisseau sanguin est strictement perpendiculaire à la sonde (angle θ = π/2), il n'existe pas de signal Doppler (cos θ = 0 donc fD = 0). À l'inverse, si le vaisseau est exactement dans l'axe du faisceau ultrasonore et donc perpendiculaire à la sonde, cos θ vaut 1 et la fréquence Doppler est maximale.
Mode Doppler pulsé
L'inconvénient majeur du Doppler à émission continue est qu'il n'existe pas de discrimination en fonction de la profondeur. Ces systèmes sont donc très simples et faciles à utiliser pour des vaisseaux superficiels facilement repérables en fonction des repères anatomiques. On peut par exemple très aisément utiliser un petit appareil portatif aux urgences pour contrôler la perméabilité des axes vasculaires des membres en cas de suspicion de thrombose.
En revanche, si l'on veut apprécier l'hémodynamique d'une artère rénale ou d'un tronc porte en un point précis, il est nécessaire d'utiliser l'imagerie échographique en mode B pour positionner une zone dans laquelle on désire mesurer la fréquence Doppler (selon les mêmes principes que ceux exposés pour le Doppler continu). Cela est obtenu en utilisant une émission pulsée produite de façon à analyser précisément une profondeur donnée en utilisant le délai nécessaire aux ondes acoustiques pour parcourir un aller-retour. Tout ce qui est situé en dehors de cette zone Doppler d'intérêt n'est pas analysé. La multiplication des tirs permet d'obtenir l'évolution temporelle des vitesses dans cette zone.
Si le signal Doppler pulsé permet une parfaite localisation du flux en profondeur, il a l'inconvénient d'être limité dans la fréquence mesurable. En effet, les allers-retours successifs des impulsions ultrasonores se font à une fréquence forcément limitée. Cette fréquence d'échantillonnage limite la fréquence Doppler mesurable et donc les vitesses d'écoulement sanguin mesurables. Cette limitation s'accroît en profondeur et avec la fréquence des ultrasons utilisés. Le Doppler continu, lui, n'a pas de limitation en fréquence et permet de mesurer toutes les vitesses d'écoulement.
Représentation du signal Doppler
La nature faisant bien les choses, en utilisant les fréquences habituelles de l'échographie (quelques MHz) et avec le rapport V/c vitesse du sang sur vitesse des ultrasons typiquement compris entre 1/10 000 et 1/1000, la fréquence des signaux Doppler est dans la gamme du kHz et donc bien adaptée à notre audition. Le signal Doppler s'écoute donc, ce qui permet d'ajuster finement le positionnement manuel de la sonde et de la zone de mesure.
Par ailleurs, il existe des dizaines de millions d'hématies circulantes possédant des vitesses différentes et engendrant donc tout un spectre de fréquences Doppler. Cela peut être rendu très explicite en utilisant l'outil mathématique de la transformée de Fourier qui décompose les différentes fréquences contenues dans un signal pendant une durée d'analyse définie. On obtient ce que l'on appelle un spectre Doppler représentant la part respective des différentes vitesses contenues dans le signal de la zone d'intérêt. C'est l'analyse dite « spectrale ». C'est ce mode qui est représenté sur la figure 7.12.
Un apport intéressant de l'analyse spectrale est qu'elle met parfaitement en évidence les vitesses maximales circulantes, le plus souvent au centre du vaisseau. Elles donnent lieu aux fréquences les plus élevées, en positif ou en négatif, et le contour du spectre permet de parfaitement suivre l'hémodynamique, même lorsque le rapport signal sur bruit est faible dans l'exploration des vaisseaux profonds.
Mode imagerie Doppler
En combinant la technique de l'imagerie qui permet un balayage d'un plan de coupe et la capacité du Doppler pulsé de réaliser des mesures de vitesse sur une zone restreinte et assez bien résolue (de l'ordre de quelques longueurs d'onde), il est possible de créer un mode cartographique en temps réel des vitesses circulatoires sur une zone d'exploration définie par l'opérateur. Les vitesses de circulation sont représentées en couleur avec pour convention : nuances de rouge pour les flux se rapprochant de la sonde et nuances de bleu pour les flux s'en éloignant. On parle communément de mode Doppler couleur. Cette carte de couleurs peut être actualisée avec une cadence assez rapide (typiquement 5 à 30 fois par seconde) tout en la superposant à l'affichage de l'image en l'échelle de gris du mode B (figure 7.13).
On voit sur la figure 7.13 une image figée résumant une acquisition couplant trois modes. Le mode B permet de repérer la lumière des vaisseaux carotidien et jugulaire interne. Le mode couleur représente la circulation sanguine dans la zone d'intérêt (cadre oblique) et le signal Doppler pulsé est affiché en dessous sous forme d'analyse spectrale où l'on distingue cinq cycles cardiaques. Elle donne la distribution des vitesses au point d'intersection des lignes blanches dans l'artère carotide. Le contour spectral montre les vitesses maximales des hématies circulantes dans la zone de mesure positionnée au centre de l'artère. On remarque que les tirs ultrasonores pour les modes Doppler ont été inclinés par rapport au capteur situé en haut de l'image mode B au contact de la peau (la ligne blanche et la boîte Doppler sont obliques). Cela permet de diminuer l'angle entre l'axe des vaisseaux et les tirs Doppler, et ainsi d'obtenir une valeur plus grande du cosinus de cet angle, permettant une évaluation plus fidèle des vitesses. Par convention, la tête du patient est du côté gauche de l'image ; le sang artériel carotidien circule de la droite vers la gauche, se rapprochant donc de la sonde. Cela explique le codage en rouge du flux carotidien.
Agents de contraste échographiques
Principes des microbulles
Les échographistes disposent depuis les années 2000 d'agents de contraste injectables en intraveineux. Il s'agit de suspensions de microbulles de gaz stabilisées de diamètre de 1 à 5 μm. Ces agents restent en circulation une dizaine de minutes. En revanche, à la différence des agents de contraste utilisés en TDM et en IRM, les microbulles de gaz ne diffusent pas dans le tissu interstitiel. Ce sont des agents strictement intravasculaires. Après plusieurs minutes, les bulles sont détruites et le signal décroît. Le gaz contenu dans les bulles est éliminé par voie respiratoire.
Sous l'effet du faisceau ultrasonore qui les frappe, les microbulles entrent en résonance, c'est-à-dire qu'elles se contractent et se dilatent selon la fréquence de résonance. Ce faisant, elles se comportent chacune comme un petit émetteur/amplificateur local. La somme de tous les petits signaux créés par chaque bulle produit un signal non linéaire. De manière très simple, les bulles qui entrent dans le champ de vue du faisceau ultrasonore « brillent » de manière très intense, produisant un contraste marqué entre les zones où elles sont situées (vaisseaux) et les zones où elles ne le sont pas. Aux niveaux d'énergie habituellement utilisés pour réaliser une échographie morphologique, les bulles se dilatent trop et éclatent instantanément ; l'énergie du faisceau est donc diminuée. La conséquence est qu'il n'est pas possible de réaliser une échographie morphologique avec ce mode. Sur les échographes modernes, il est possible d'afficher sur l'écran à la fois une image morphologique de repérage et l'échographie de contraste pour naviguer dans les deux à la fois.
L'analyse d'une échographie de contraste prend en compte la manière avec laquelle les structures d'intérêt sont modifiées par l'arrivée du produit de contraste : augmentation de la brillance (rehaussement ou, en langage commun, « prise de contraste »), comparaison entre deux structures proches, évolution dans le temps.
Effets indésirables et contre-indications
Les produits de contraste ultrasonore sont très bien tolérés. Ils ne sont pas néphrotoxiques et peuvent être utilisés en cas d'insuffisance rénale. Ils ne sont pas autorisés pendant la grossesse. Ils ne doivent pas être utilisés en cas d'infarctus du myocarde récent ou d'insuffisance respiratoire sévère.
Bases technologiques
Capteurs ou sondes d'échographie
Comme collecteurs de signaux, les sondes (ou capteurs) sont des éléments déterminants de la qualité des images obtenues. Ce sont aussi les objets que les échographistes tiennent dans leur main et appliquent sur les patients. Voyons ci-après le type de capteurs qui est à la base du développement des imageurs modernes : il s'agit de sondes à barrette de transducteurs. Elles sont schématisées dans la figure 7.14.
On peut ainsi combiner à volonté les ondes élémentaires créées par chaque transducteur et modeler la forme et la direction du faisceau ultrasonore.
D'une manière générale, on appelle transducteur un dispositif capable de convertir un signal physique en un autre. Dans le cas de l'échographie, les transducteurs sont formés d'un matériau piézoélectrique capable de transformer une impulsion électrique en un microdéplacement conduisant à la création d'une onde acoustique. Réciproquement, une onde sonore frappant la surface d'un transducteur est transformée en une impulsion électrique. Une sonde d'échographie est formée par l'association de nombreux transducteurs de base, indépendants les uns des autres. Pour piloter à volonté les faisceaux ultrasonores, à la fois en termes de focalisation et d'orientation, on adresse à chaque transducteur d'une barrette un signal adéquat qui l'active. Chaque transducteur produit alors une petite onde et c'est la combinaison cohérente de toutes les ondes créées par les transducteurs qui forme le faisceau ultrasonore final. En modifiant l'amplitude et le retard avec lesquels chaque transducteur est activé, il est possible de déterminer le point où les ondes se rejoignent et se recombinent. On parle de point focal. De même, en déplaçant, comme on peut le voir sur la figure 7.14, le groupe actif de transducteurs, il est possible d'obtenir une translation du faisceau explorant les tissus. La polyvalence de ces barrettes permet, via l'électronique de pilotage, la genèse d'impulsions brèves, la focalisation de l'énergie acoustique sur quelques longueurs d'onde et le balayage de la ligne d'exploration. Ce sont les ingrédients nécessaires à la réalisation des images mode B 2D et 3D.
Conclusion
Caractéristiques générales de l'échographie
Les éléments déterminant les aspects spécifiques de l'échographie peuvent être résumés de la façon suivante.
- Avantages :
- investigation non ionisante sans limitation de dose ;
- exploration en temps réel ; l'opérateur est en situation de piloter la sonde dans l'espace anatomique 3D du patient ;
- cadence élevée de renouvellement des images, précieuse en cardiologie ou pour les explorations dynamiques de l'appareil musculosquelettique ;
- excellente résolution spatiale ;
- examen au contact du patient, prolongement naturel de l'examen clinique du patient ;
- technique légère et mobile, qui peut être réalisée facilement au lit du patient ou au bloc opératoire ;
- guidage des actes de biopsie percutanée ou de ponction vasculaire ;
- coût d'investissement moindre que la TDM, l'IRM ou la scintigraphie.
- Limites :
- exploration limitée par les structures contenant des gaz (digestives, pulmonaire) et le squelette ;
- exploration limitée dans l'espace, différente en ce sens des autres techniques d'imagerie en coupe où l'on acquiert un volume anatomique prédéfini mais large ;
- demande un long apprentissage (courbe d'apprentissage) pour acquérir la coordination main-regard-analyse des images ;
- variabilité de la qualité des images en fonction des patients. L'échographie cardiaque d'un patient obèse et porteur d'une bronchopathie chronique obstructive est de moins bonne qualité que celle d'un jeune sportif de 60 kg ;
- il existe, comme pour toutes les modalités d'imagerie, des artefacts qu'il faut connaître et interpréter ;
- une exploration échographique est moins réinterprétable en différé que les images en coupe, car plus dépendante de la qualité de l'acquisition et du stockage des données. Cet aspect est moins problématique depuis la généralisation des systèmes de stockage d'images (PACS) et la possibilité d'acquérir et de stocker des boucles vidéo.
Perspectives d'avenir
Les technologies à l'œuvre dans la conception et la fabrication des échographes ont continuellement évolué depuis l'époque des pionniers de l'échographie des années 1960 et 1970. Les progrès de la miniaturisation et de la micromécanique permettent de produire des sondes de plus en plus performantes. Par ailleurs, les composants électroniques actuels permettent de s'approcher très près des limites théoriques du rapport signal sur bruit. Les machines sont numériques depuis la fin des années 1980 et celles d'aujourd'hui comportent des microprocesseurs extrêmement puissants qui supportent les algorithmes très sophistiqués de traitements de signaux et d'image qui interviennent dans les calculs d'optimisation.
Les usages se diversifient : il est commode et sécurisant de disposer d'un outil échographique dans de nombreux lieux comme les réanimations, les urgences, les salles d'anesthésie locorégionale, les lieux de biopsie ou de prélèvement de tissus.
En termes de sécurité, nous disposons d'un recul suffisant (en particulier avec des millions d'échographies anténatales) permettant d'affirmer qu'il s'agit d'une méthode sans danger. Toutefois, les ultrasons interagissent avec les tissus et, à forte intensité, peuvent créer des effets biologiques significatifs. Un nouveau secteur est aujourd'hui en plein développement ; il s'agit de l'utilisation des ultrasons à but thérapeutique. Des machines sont déjà commercialisées qui permettent une ablathermie ou destruction localisée des tissus via l'échauffement jusqu'à 60 à 90 °C de la cible pendant quelques secondes, cela grâce à un faisceau ultrasonore fortement focalisé et de haute intensité. Les lésions prostatiques ou les fibromes utérins constituent deux exemples des premières applications validées. Le traitement du glaucome chronique et le traitement de cibles tumorales font l'objet d'essais cliniques de grande ampleur. D'autres voies de recherche visent à augmenter de manière très sensible la biodisponibilité locale d'agents anticancéreux, ouvrant la possibilité de limiter les effets toxiques sur l'ensemble des organes.
Enfin, les années à venir verront la généralisation des échographes ultraportables qui tiennent dans la poche d'une blouse ou ont la dimension d'une tablette informatique. Le défi associé à cette diffusion n'est pas technologique ou commercial, mais celui de la formation des futurs utilisateurs.
Essentiel à retenir
- Les ondes ultrasonores utilisées en médecine sont des ondes mécaniques de 2 à 20 MHz dont la longueur d'onde au sein des tissus est de quelques dixièmes de millimètre.
- La célérité et la masse volumique des tissus mous varient très légèrement et cela suffit à créer des modifications d'impédance acoustique génératrices d'échos acoustiques.
- La mise en forme et le traitement numérique des échos recueillis permettent la reconstitution d'images et de cartographies de vitesses grâce à l'effet Doppler.
- Les modes associés à l'effet Doppler apportent une information fonctionnelle à l'exploration en montrant les mouvements du sang circulant.
- La vitesse du son dans les tissus est suffisamment rapide pour permettre une production d'images en temps réel.
- En tenant la sonde en main, l'échographiste est en situation de pilotage des plans de coupe qu'il va explorer au sein de son patient.
- Les systèmes échographiques bénéficient des dernières technologies en matière de science des matériaux pour les sondes et de puissance de calcul pour le traitement des signaux.
Chapitre suivant | |
Retour au sommaire |
Les fondamentaux - Chapitre 6 - Notions de radioprotection
G. Bonardel et J.-F. Chateil
Plan du chapitre
- Fondements de la radioprotection
- Mise en œuvre pratique de la radioprotection
- Informations à délivrer aux patients
- Conclusion
Objectifs
- Connaître les fondements de la radioprotection.
- Mise en œuvre pratique : justification, optimisation, exposition professionnelle dans le cadre de l'imagerie médicale.
- Savoir quelle information délivrer au patient.
Fondements de la radioprotection
La radioprotection correspond à l'ensemble des mesures mises en œuvre pour se protéger des effets néfastes reconnus ou potentiels des rayonnements ionisants (RI). En médecine, ces mesures concernent tout d'abord les patients et les personnels exposés professionnellement, et s'étendent également au public et à l'environnement. En plus de la gestion du risque physique, la radioprotection s'attache également à prendre en compte la dimension psychologique pour ne pas entretenir l'anxiété liée à l'exposition aux RI mais, au contraire, la diminuer.
Nature et effets des rayonnements ionisants (RI)
Les RI sont des rayonnements d'énergie suffisante pour éjecter un électron de l'orbite électronique d'un atome. Il existe des RI naturels et artificiels, ces derniers étant utilisés en médecine soit à titre diagnostique, soit à titre thérapeutique. Ils sont électromagnétiques dans le cas des photons X ou γ, alors de masse nulle (utilisés respectivement en radiologie et en médecine nucléaire), ou particulaires lors de l'émission de corpuscules de masse non nulle : rayonnement β+ (utilisé en tomographie par émission de positons [TEP]), β– ou α (utilisés en médecine nucléaire à visée thérapeutique – radiothérapie vectorisée). Les autres techniques de radiothérapie font appel à des rayonnements puissants (photons de haute énergie, électrons, protons) focalisés pour détruire une tumeur.
L'énergie générée par les RI peut entraîner des modifications de la matière vivante, au niveau cellulaire où ces rayonnements sont susceptibles d'induire des lésions, notamment de l'acide désoxyribonucléique (ADN). Ces effets sur l'organisme varient en fonction de la dose reçue et de différents facteurs : la source (activité ou intensité de fonctionnement, nature, énergie), le mode d'exposition (temps, débit) et la cible (tissus ou organes touchés, âge de l'individu – les enfants étant plus vulnérables –, radiosensibilité individuelle).
Il existe deux types d'effets des rayonnements ionisants (figure 6.1) :
- les effets précoces (déterministes) sont dus à l'effet physique de l'irradiation et sont la conséquence de la mort cellulaire induite par le rayonnement. Ils sont quantifiables en fonction de la dose absorbée (voir plus loin). C'est l'effet qui est recherché en cancérologie lors de l'emploi de la radiothérapie. Ils apparaissent toujours au-delà d'une dose-seuil connue (qui dépend de l'organe et n'est pas inférieure à 300 mSv) et leur gravité augmente avec la dose reçue. Ils peuvent engager le pronostic vital en cas d'irradiation globale et peuvent avoir des conséquences fonctionnelles lourdes en irradiation partielle (alopécie, brûlures). Seules la radiologie interventionnelle (acte thérapeutique guidé par l'imagerie) et la radiothérapie interne vectorisée en médecine nucléaire exposent le patient à des doses suffisantes pour créer un risque déterministe. Le traitement des lésions tardives (fibrose, cataracte) étant difficile et peu efficace, il faut donc tout mettre en œuvre pour les prévenir, par la connaissance et le respect des doses limites, ce qui nécessite une dosimétrie précise lors des gestes réalisés ;
- les effets tardifs (aléatoires ou stochastiques) sont liés à des mutations ponctuelles radio-induites de l'ADN et peuvent aboutir à la survenue d'affections malignes. Le risque de survenue est apprécié à partir de l'impact biologique supposé, exprimé en sievert (Sv). Le délai d'apparition après l'exposition est de plusieurs années. Une tumeur radio-induite n'a pas de signature particulière reconnue : absence de marqueur biologique permettant de différencier, par exemple, un cancer pulmonaire dû au tabac d'un cancer pulmonaire radio-induit. La probabilité d'apparition d'un cancer radio-induit est fonction de la dose de l'irradiation, selon une relation linéaire au-dessus de 100 mSv, mais elle est très débattue pour les doses plus faibles.
Grandeurs et unités utilisées en dosimétrie, radiobiologie et radioprotection
Les unités employées en radioprotection dérivent du système international (SI). Il est important de savoir utiliser l'unité pertinente pour chaque grandeur mesurée.
Grandeurs physiques : reflet des interactions physiques des RI avec la matière
- La dose absorbée est la quantité d'énergie délivrée par un rayonnement par unité de masse de tissu ; elle s'exprime en gray (1 Gy = 1 J/kg).
- L'activité d'un radionucléide est le nombre de transitions nucléaires spontanées par seconde, avec émission d'un rayonnement ionisant. Elle est mesurée en becquerel (Bq ou s–1). L'activité spécifique d'une substance correspond à l'activité par unité de quantité de matière : celle du corps d'un adulte de 140 Bq/kg, celle de l'eau de mer de 12 Bq/L et celle du granit de 7000 Bq/kg.
Grandeurs dosimétriques : évaluation du risque pour la santé des RI
Les grandeurs dosimétriques se classent en deux familles :
- d'une part, les grandeurs de protection qui sont la base des limites imposées par les textes réglementaires, notamment pour la protection des travailleurs, de la population générale. Elles ne sont pas directement mesurables et reflètent le préjudice pour la santé du fait d'une exposition interne et/ou externe aux RI. Elles comprennent :
- la dose équivalente à l'organe, qui correspond à la dose reçue par un organe pondérée d'un facteur d'efficacité biologique du rayonnement selon sa nature (photons, électrons, neutrons, etc.) ;
- la dose efficace sur le corps entier qui est calculée par une pondération sur les différents organes pour tenir compte de leurs sensibilités différentes aux rayonnements. Le Sievert (Sv) est l'unité de mesure utilisée en radioprotection pour mesurer l'effet d'un rayonnement sur un organisme vivant. Cette unité permet donc de comparer l'effet d'une même dose délivrée par des rayonnements de nature différente à des organismes, des organes ou des tissus qui n'ont pas la même sensibilité aux rayonnements.
- d'autre part, les grandeurs opérationnelles, permettant d'avoir des unités simples à utiliser lors de la pratique quotidienne : en radiodiagnostic, on utilise des grandeurs dosimétriques spécifiques telles que le produit dose × surface (PDS) pour l'imagerie de projection, qui s'exprime en mGy·cm2, l'index de dose scanographique (IDS ou computed tomography dose index [CTDI]) qui tient compte du profil de coupe en tomodensitométrie (TDM ou scanner) sans refléter la dose totale reçue par le patient, cette dernière étant exprimée par le produit dose × longueur (PDL) qui permet de représenter l'exposition en affectant la dose au volume exploré ; le PDL s'exprime en mGy·cm. PDS et PDL permettent, en prenant en compte les organes exposés, de calculer ou d'estimer la « dose efficace », elle-même exprimée en Sv.
Épidémiologie des effets en rapport avec les RI
Rappelons tout d'abord que l'exposition aux RI s'effectue dans un contexte d'exposition globale de la population humaine. Cette exposition se distingue habituellement en deux sources dont les effets s'additionnent :
- l'exposition naturelle (ensemble des sources extérieures à toute activité humaine et existant indépendamment de celle-ci : irradiation cosmique, tellurique et corporelle) estimée en moyenne à 2,9 mSv par an en France ;
- et l'exposition artificielle, très largement liée à l'activité médicale, qui est d'environ de 1,6 mSv par an et par individu. Il ne faut pas oublier que la dose cumulée annuelle pour un individu donné varie en fonction des situations d'exposition (lieu d'habitation, modes de vie, tabagisme, etc.) et peut, de ce fait, être inférieure ou très supérieure à cette valeur moyenne. L'exposition artificielle a augmenté durant les dernières décennies, notamment en raison du développement des explorations par TDM.
Les études épidémiologiques ont montré avec certitude que le risque de cancer augmente de manière significative chez les personnes ayant reçu une dose de RI supérieure à 200 mSv. Les RI à forte dose et débit de dose élevé ont un effet cancérogène indubitable, mais relativement faible par rapport aux autres cancérogènes naturels ou artificiels, ce qui rend difficile leur individualisation dans une population donnée, en sachant que le risque de cancer global « vie entière » est actuellement estimé à 25 % dans la population générale. Les effets sur le génome, éventuellement transmissibles à la descendance, ne sont pas établis chez l'être humain et sont probablement négligeables par rapport au nombre d'altérations génétiques spontanées.
Pour les faibles doses, à l'heure actuelle, les effets sur la santé humaine d'une exposition à des doses inférieures à 100 mSv font l'objet de débats scientifiques. C'est d'ailleurs pourquoi cette valeur de 100 mSv a été choisie pour définir schématiquement le domaine des « faibles doses ».
Une relation linéaire décrit convenablement la relation entre la dose et l'effet cancérogène pour les doses supérieures à 200 mSv (suivi des grandes populations irradiées par les bombes atomiques en 1945). Bien que ce risque n'ait été véritablement démontré et accepté par l'ensemble des chercheurs que pour les fortes doses, il est considéré, par principe, que les effets stochastiques peuvent survenir après toute irradiation, même si ce risque n'est véritablement démontré que pour les fortes doses. En radioprotection, pour estimer l'ordre de grandeur du risque encouru par les travailleurs et dans une optique sécuritaire maximale, un modèle volontairement pessimiste, dit de « relation linéaire sans seuil » (RLSS), est utilisé. Il donne la certitude de ne pas sous-estimer ce risque, s'il existe. Cette RLSS constitue un risque plafond utilisé à des fins de radioprotection pour les travailleurs exposés, mais elle ne peut en aucun cas être utilisée pour calculer la probabilité d'induction d'effets stochastiques des faibles doses dans la population générale.
En dehors des procédures de radiologie interventionnelle, les doses délivrées par la plupart des examens radiologiques et de médecine nucléaire excèdent rarement 10 mSv. Les expositions subies par les travailleurs ou les personnes habitant les régions où l'irradiation naturelle est élevée sont également de cet ordre. Le seul risque à prendre en compte en imagerie médicale diagnostique, pour le patient (toujours faibles doses < 100 mSv) et pour le personnel ou le public (très faibles doses < 10 mSv), concerne donc essentiellement le risque aléatoire de cancérogenèse radio-induite, même si ce dernier est actuellement essentiellement théorique.
Mise en œuvre pratique de la radioprotection
L'amélioration continue de la protection radiologique des professionnels et du public a permis de constater ces dernières années que les personnes les plus exposées dans notre société étaient maintenant les patients.
La transposition en droit français des directives européennes, en particulier la dernière en date (directive 2013/59 Euratom) fixant les normes de base relatives à la protection sanitaire contre les dangers liés à l'exposition aux RI, a modifié de façon importante la prise en compte de la radioprotection dans la pratique médicale. Ces modifications portent sur la radioprotection des patients et des personnels, la réglementation de la conception et de l'installation des locaux et des dispositifs utilisant des RI, ainsi que sur les procédures de contrôle de qualité ; il a également été instauré une obligation de formation initiale et continue pour tous les utilisateurs de RI, applicable à tous les médecins, justifiant ce chapitre dans cet ouvrage.
L'usage des RI dans le domaine du diagnostic médical ne peut se voir appliquer de limites réglementaires individuelles pour la dose, car le bénéfice qu'il apporte est très supérieur au risque qu'il peut engendrer, à condition que l'examen soit justifié et d'une qualité suffisante pour le diagnostic, introduisant ainsi les grands principes régissant la radioprotection dans le domaine médical.
Le premier de ces principes, la justification des examens d'imagerie, consiste à établir le bénéfice net d'un examen par rapport au préjudice potentiel lié à l'exposition aux RI. Pour permettre son application, le Code de la Santé Publique stipule « qu'aucun acte exposant aux RI ne peut être pratiqué sans un échange préalable d'information écrit entre le demandeur et le réalisateur de l'acte. Le demandeur fournit au réalisateur les informations nécessaires à la justification de l'exposition demandée dont il dispose. Il précise notamment le motif, la finalité, les circonstances particulières de l'exposition envisagée, notamment l'éventuel état de grossesse, les examens ou actes antérieurement réalisés ». Le Guide du bon usage des examens d'imagerie médicale (gbu.radiologie.fr) édicté par la Société française de radiologie (SFR) et la Société française de médecine nucléaire (SFMN), sous l'égide de l'Autorité de sûreté nucléaire (ASN) et de la Haute autorité de santé (HAS), constitue un document support important pour la mise en œuvre de ce principe. La connaissance des indications des principaux examens d'imagerie en fonction de la situation clinique est fondamentale pour tout médecin. L'application du principe de justification doit également tenir compte d'une possible substitution par un examen non irradiant, telles l'échographie ou l'IRM, en cas de performance diagnostique égale.
Le deuxième principe concerne l'optimisation des pratiques par l'opérateur utilisant les RI. Celle-ci consiste à réaliser un acte irradiant en utilisant la dose la plus faible possible pour une performance diagnostique ou thérapeutique maximale, pour maintenir la dose à un niveau aussi bas que raisonnablement possible selon l'acronyme anglais ALARA (as low as reasonably achievable). L'optimisation s'applique pour l'ensemble des patients et des examens irradiants, en particulier pour les jeunes enfants compte tenu de leur plus grande radiosensibilité. L'application de ce principe passe par l'obligation de maintenance et d'assurance de qualité des matériels, l'obtention d'un diplôme attestant du suivi d'une formation à la radioprotection des patients et la prise en compte des niveaux de référence diagnostique (NRD) ; ces derniers ayant pour but de décrire l'exposition observée pour les examens les plus courants et de permettre à chacun, par comparaison, une évaluation de ses pratiques. Il est obligatoire de stipuler, dans le compte-rendu d'examen d'imagerie, tous les éléments nécessaires à l'évaluation de la dose délivrée au patient : PDS en radiographie standard ou interventionnelle, PDL en TDM en précisant le champ exploré, nature du radiopharmaceutique et activité injectée en médecine nucléaire.
Le troisième principe concerne les personnels professionnellement exposés et fait appel au contrôle et à la limitation des doses reçues. Chaque professionnel doit être conscient de son environnement technique et responsable des personnels qui l'accompagnent. Se protéger est un gage de sérénité autant qu'une obligation réglementaire. La démarche d'optimisation pour le patient bénéficie également directement aux personnels. Sur le plan réglementaire et dans le cadre de la médecine du travail, les personnels exposés aux RI bénéficient d'une réglementation propre aux lieux et conditions de travail ainsi que d'un suivi et d'une catégorisation professionnelle avec une limitation annuelle fixée à 20 mSv en dose efficace annuelle délivrée au corps entier pour la catégorie A et à 6 mSv pour la catégorie B. Dans le cadre de cette catégorisation, la dose maximale au public a été fixée à 1 mSv/an, alors même que l'irradiation naturelle moyenne en France se située entre 2 et 5 mSv. Enfin, nous rappelons que cette limitation de dose ne concerne pas les patients, pour lesquels le bénéfice attendu est très nettement supérieur au risque théorique.
Informations à délivrer aux patients
La population générale a un faible niveau de connaissances concernant les effets des RI et plus généralement les données scientifiques qui y sont rattachées. Dans le cadre du devoir d'information du patient, il faut rappeler qu'en imagerie médicale aucune procédure diagnostique n'atteint 100 mSv, ce qui signifie que ces procédures sont réalisées dans une plage de doses pour laquelle aucun effet déterministe n'est usuellement attendu. L'augmentation « à la marge » de l'incidence de cancers pour une exploration donnée reste très discutée, issue de modèles statistiques présomptifs ou portant sur des données d'études rétrospectives épidémiologiques souvent de type « cas-témoin » d'interprétation parfois difficile.
Il convient avant tout de rassurer les patients et leurs familles en ne faisant pas l'amalgame entre risques réels et risques supposés, et en centrant cette information sur la balance bénéfices (avérés objectifs des RI en médecine)/risques (théoriques des RI aux faibles doses).
La connaissance des doses efficaces moyennes délivrées par tel ou tel examen comme rappelées dans le Guide du bon usage des examens d'imagerie médicale et surtout leur comparaison avec les niveaux d'exposition naturelle annuelle (2,9 mSv en France, variant dans le monde de 1 à 150 mSv – Inde, Iran) permettent de relativiser concrètement l'exposition médicale et son niveau de risque (tableau 6.1).
Tableau 6.1 - Exemples de doses efficaces délivrées
Radiographie des poumons |
20 μSv |
Vol transatlantique |
50 μSv |
Irradiation naturelle moyenne en France/an |
2,9 mSv |
Scintigraphie osseuse |
5 mSv |
TDM abdominopelvienne |
10 mSv |
Limite d'exposition des travailleurs/an |
20 mSv |
Seuil au-delà duquel les effets stochastiques sont prouvés |
200 mSv |
Seuil de myélotoxicité |
1 Sv |
Seuil de toxicité digestive |
5 Sv |
Seuil d'apparition des radiodermites |
10 Sv |
Seuil de neurotoxicité |
20 Sv |
Dose d'une radiothérapie ciblée sur une tumeur |
50 Sv |
Ordres de grandeur de doses efficaces délivrées et seuils de tolérance : ces doses, valables en 2021, varient en fonction des appareils et des réglages et sont susceptibles d'évoluer avec les progrès techniques.
Prendre garde aux unités : μSv, mSv, Sv permettant de prendre de la mesure des « échelles de dose ».
En médecine nucléaire diagnostique, où le patient va émettre lui-même pendant quelque temps de très faibles doses de RI en rapport avec le radiopharmaceutique injecté, aucune mesure d'éviction particulière n'est recommandée pour l'entourage et les sujets contacts, y compris les enfants en bas âge et les femmes enceintes, les doses cumulées étant toujours très inférieures à 1 mSv, et très souvent équivalentes à celles délivrées par l'irradiation naturelle de certaines régions sur quelques jours.
En radiologie interventionnelle, les patients doivent être informés de la nécessité d'un suivi cutané, certaines procédures pouvant délivrer de fortes doses (3 Gy ou plus à la peau).
Enfin, la grossesse constitue un cas particulier tant il apparaît que la relation entre exposition médicale et grossesse est fortement empreinte d'angoisse et de subjectivité. Pourtant, comme pour les autres situations, la présentation objective des risques réels et des effets possibles permet d'éliminer toute forme d'angoisse à ce sujet en centrant le discours sur la balance bénéfices/risques. Il convient de rappeler que les malformations congénitales radio-induites relèvent des effets déterministes à seuil et ne peuvent pas survenir en deçà de 100 mSv, alors que le risque « naturel » de survenue d'une malformation congénitale est de 3 %. Cela n'empêche pas d'appliquer les deux grands principes de radioprotection que sont la justification et l'optimisation, tout particulièrement chez les femmes enceintes ou susceptibles de l'être. La période la plus radiosensible correspond à la phase d'organogenèse (7 à 60 jours de grossesse), pendant laquelle l'irradiation doit être particulièrement minimisée. La recherche préalable d'une éventuelle grossesse avant toute exposition aux RI, chez toute femme en capacité de procréer, est souhaitable par l'interrogatoire, voire par un dosage de la β HCG plasmatique si nécessaire. Une fois l'indication posée, l'optimisation et la connaissance de la dose délivrée permettent de donner à la patiente une information objective et rassurante.
Conclusion
Le champ de la radioprotection, qui n'incluait à l'origine que les travailleurs, s'est élargi au public puis aux personnes exposées pour raison médicale. Son concept global est exprimé de la manière suivante : assurer un niveau de protection adéquate pour l'homme, sans pénaliser indûment les pratiques bénéfiques exposant aux rayonnements ionisants (RI). Les mesures de protection ne doivent donc pas être disproportionnées par rapport au risque, ni limiter inutilement les activités bénéfiques pour l'individu ou la société. La radioprotection est constituée d'un ensemble d'éléments, scientifiques et objectifs, associant physique, biologie, réglementation et, avant tout, un certain état d'esprit, c'est-à-dire une préoccupation permanente associée à l'activité professionnelle. Cette préoccupation repose essentiellement sur des principes de justification des examens, d'optimisation des pratiques, notamment lorsque l'on a affaire à des femmes enceintes et des enfants en bas âge. Elle intègre une connaissance des bases élémentaires de physique et de radiobiologie permettant de relativiser le risque encouru, notamment en imagerie médicale diagnostique exposant le patient à de faibles doses de rayonnements, a fortiori les professionnels et l'entourage (pour l'imagerie nucléaire) à de très faibles doses. En effet, aux doses telles que celles délivrées par un seul examen d'imagerie médicale standard, aucun effet déterministe ne peut survenir et le risque stochastique de cancer radio-induit est infinitésimal, essentiellement spéculatif. La répétition et le cumul des explorations dans un intervalle de temps court ne doivent toutefois pas être négligés, la justification de chaque acte restant la pierre angulaire de la démarche médicale.
Essentiel à retenir
- La connaissance des différentes unités Bq, Gy, Sv et de leur utilisation respective est essentielle.
- Les effets biologiques se divisent en effets déterministes (radiologie interventionnelle, radiothérapie) et en effets stochastiques (carcinogenèse à long terme).
- Les doses délivrées en imagerie diagnostique font partie des faibles doses, inférieures à 100 mSv, sans détriment sanitaire observé.
- Les principes de radioprotection reposent en médecine sur la balance bénéfique/risque, déterminant la justification des actes, puis sur l'optimisation des pratiques.
- L'information du patient est essentielle afin de lever toute angoisse inutile.
- L'enfant et la femme enceinte doivent faire l'objet d'une attention particulière.
- La radioprotection en milieu médical concerne également le personnel exposé.
Chapitre suivant | |
Retour au sommaire |
Les fondamentaux - Chapitre 5 - Médecine nucléaire
V. Lebon
Plan du chapitre
- Introduction
- Médicaments radiopharmaceutiques (MRP)
- Instrumentation
Objectifs
- Comprendre les spécificités de l'imagerie scintigraphique par rapport aux autres techniques d'imagerie.
- Comprendre la constitution d'un médicament radiopharmaceutique (MRP), en connaître les principales caractéristiques.
- Savoir quels sont les MRP les plus couramment utilisés en scintigraphie conventionnelle et en tomographie par émission de positons (TEP).
- Comprendre le principe de détection des photons γ par des cristaux scintillants couplés à des photomultiplicateurs.
- Comprendre le principe de localisation par collimation des gamma-caméras.
- Comprendre le principe de localisation par détection en coïncidence des caméras TEP.
- Connaître les principaux points communs et les différences entre une gamma-caméra et une caméra TEP.
Introduction
La médecine nucléaire regroupe l'ensemble des applications médicales reposant sur l'administration au patient d'une substance radioactive en source non scellée. Elle comprend des applications diagnostiques, principalement par imagerie et des applications thérapeutiques (radiothérapie interne vectorisée - voir chapitre 16).
Les images acquises en médecine nucléaire, en localisant un médicament radiopharmaceutique (MRP) préalablement administré au patient, sont le reflet de l'activité moléculaire, métabolique et fonctionnelle spécifique à certaines lésions ou structures de l'organisme. Les radionucléides le plus souvent utilisés sont émetteurs de photons gamma (γ). Ces photons traversent l'organisme en interagissant peu avec les tissus avant d'être détectés à l'extérieur du patient. La détection reposant sur un phénomène de scintillation, on parle de scintigraphie pour désigner l'imagerie effectuée en médecine nucléaire. On peut aussi utiliser des émetteurs β+ qui donnent secondairement naissance à des photons γ.
La scintigraphie appartient aux techniques d'imagerie d'émission (les photons sont émis par le patient), par opposition à l'imagerie de transmission dans laquelle les photons transmis sont ceux qui n'ont pas été absorbés par le patient et qui vont permettre de réaliser les images, rendant ainsi compte de la densité des milieux traversés. Il s'agit là des techniques de radiologie conventionnelle ou de la tomodensitométrie, plus communément appelée scanner.
En comparaison avec les images radiologiques, les images scintigraphiques ont une qualité morphologique médiocre, d'une part, car le MRP s'accumule spécifiquement sur certaines structures, si bien que la plupart des organes restent invisibles à la scintigraphie, d'autre part, car la résolution spatiale en médecine nucléaire est moins bonne qu'en radiologie. L'intérêt de l'imagerie scintigraphique tient à son caractère moléculaire, métabolique et fonctionnel ; elle apporte une information spécifique du MRP administré au patient. Pour illustrer cette particularité de la médecine nucléaire, il suffit de se représenter les images qu'on obtiendrait chez un patient en arrêt cardiorespiratoire : quel que soit le MRP utilisé, on obtiendrait une scintigraphie « blanche » correspondant à l'absence de signal.
Ce chapitre présente tout d'abord une description des MRP utilisés en médecine nucléaire. Les caractéristiques de ces molécules sont décrites et les principaux MRP utilisés pour l'imagerie sont présentés. L'utilisation de MRP pour la thérapie est également évoquée. La seconde partie de ce chapitre est consacrée à l'instrumentation en médecine nucléaire. Elle explique comment les rayonnements émis par les MRP sont détectés et localisés par les deux types de caméras utilisées en médecine nucléaire : les gamma-caméras et les caméras TEP.
Médicaments radiopharmaceutiques (MRP)
Généralités
L'imagerie scintigraphique repose sur l'administration d'un MRP, composé d'une très faible quantité de matière d'un principe actif (quantité nettement inférieure à la nanomole, le principe actif ne perturbant donc pas le métabolisme de l'organisme), dont le comportement ou la distribution dans l'organisme est similaire à une substance endogène (la substance tracée), marqué par un radionucléide artificiel (ce qui permet de le détecter).
Lorsque le MRP s'accumule localement, on parle d'hyperfixation (ou d'hypofixation lorsqu'il y a défaut d'accumulation). La terminologie d'hyper- et d'hypofixation est couramment utilisée en médecine nucléaire, même si elle ne correspond pas toujours à l'établissement d'une liaison irréversible : le MRP peut également être métabolisé ou transiter par un espace du corps (appelé compartiment).
La combinaison principe actif/radionucléide peut être déclinée pour explorer un grand nombre d'aspects du fonctionnement d'un même organe, ce qui explique la très grande diversité des examens de médecine nucléaire. On peut citer l'exemple du cerveau pour lequel la médecine nucléaire offre des molécules permettant de visualiser la perfusion cérébrale, le métabolisme glucidique, le métabolisme des acides aminés, la neurotransmission dopaminergique ou encore la concentration de plaques amyloïdes (voir chapitre 23).
Si la majorité des MRP sont utilisés à visée diagnostique (imagerie), certains sont utilisés en thérapie pour irradier des tissus ou des cellules pathologiques (voir chapitre 16).
Critères de choix du MRP pour l'imagerie
Le MRP est constitué d'un radionucléide lié à un vecteur (figure 5.1). La fonction du radionucléide est d'émettre un rayonnement détectable à l'extérieur du patient ; celle du vecteur est de se fixer sur une structure particulière de l'organisme qui peut être un organe ou tissu, un compartiment (espace de l'organisme comme le sang) ou une lésion. Pour l'imagerie, le MRP « idéal » doit posséder les trois caractéristiques suivantes : il doit pouvoir être suivi dans le temps, se comporter comme la substance tracée et il ne doit pas perturber le système dans lequel il est introduit.
Propriétés physiques du radionucléide
La médecine nucléaire propose deux techniques d'imagerie : la scintigraphie dite « conventionnelle » et la TEP.
La scintigraphie conventionnelle détecte les MRP émetteurs de photons gamma (γ). Les photons γ sont produits suite à la désintégration de certains noyaux atomiques. Comme les photons X, ils sont une forme de rayonnement électromagnétique mais en diffèrent par leur origine : les X viennent du réarrangement du cortège électronique des atomes, tandis que les γ viennent des transformations radioactives des noyaux ; ils présentent généralement une énergie plus élevée que celle des X (> 100 keV). Ces photons ont ainsi une faible probabilité d'interaction avec la matière et sont peu irradiants pour le patient. En revanche, du fait de leur masse, les rayonnements particulaires, du type β– ont une probabilité d'interaction forte et sont donc irradiants. En outre, les électrons ont un parcours trop limité dans les tissus pour être détectés en externe. Aussi, pour la scintigraphie conventionnelle et pour des raisons de radioprotection, il faut éviter d'utiliser des émetteurs γ associés à l'émission d'électrons (désintégration β–).
La TEP utilise, quant à elle, des MRP émetteurs de positons (désintégration β+). Les positons sont des électrons chargés positivement ; ils ne sont pas détectables en externe car ils s'annihilent avec un électron à proximité de leur site d'émission. Mais cette annihilation donne naissance à une paire de photons γ d'énergie 511 keV (ce qui correspond à l'équivalent énergétique de la masse d'un électron ou d'un positon) émis à l'opposé l'un de l'autre, qui sont détectés en TEP.
Les deux techniques d'imagerie de la médecine nucléaire diffèrent donc par la nature des radionucléides qu'elles utilisent. Les principaux critères de choix de ces radionucléides sont néanmoins communs aux deux techniques :
- le radionucléide doit posséder une période suffisamment courte pour limiter la durée d'exposition du patient. Elle doit cependant être suffisamment longue pour permettre la préparation du MRP, son administration au patient, sa répartition dans l'organisme via un processus métabolique parfois lent, puis l'acquisition des images. Une période de quelques heures à quelques jours est adaptée à la médecine nucléaire ;
- l'efficacité de marquage du vecteur par le radionucléide est un critère essentiel, ce marquage étant généralement réalisé juste avant l'administration au patient ;
- la facilité d'approvisionnement en radionucléide doit être prise en compte. Elle dépend du mode de production du radionucléide (réacteur nucléaire, cyclotron ou générateur) et de sa période radioactive.
Propriétés biochimiques du vecteur
Le vecteur utilisé en médecine nucléaire peut être de nature très variée. Il peut s'agir du radionucléide lui-même, comme l'iode (123I ou 131I), qui est capté directement par la thyroïde, ou le thallium (201Tl), qui présente la même cinétique de fixation myocardique que le potassium.
Le vecteur peut être une molécule plus complexe dont on veut mesurer le métabolisme ou la distribution dans l'organisme. Il peut s'agir d'un substrat énergétique (analogue du glucose 18F-FDG), d'un ligand (ligand des transporteurs dopaminergiques 123I-ioflupane), voire d'un élément figuré du sang (hématies marquées au 99mTc).
La stabilité de la liaison vecteur/radionucléide est un critère important pour le choix du vecteur. Il faut également s'assurer que la présence du radionucléide ne perturbe pas significativement le comportement biologique du vecteur. Ces critères de stabilité et de comportement biologiques du vecteur dépendent principalement de la nature métallique ou non des radionucléides :
- le marquage d'un vecteur par un radionucléide métallique (99mTc, 111In, 68Ga) nécessite un grand nombre de liaisons vecteur/métal. En effet, les vecteurs sont des molécules organiques qui se lient difficilement avec les atomes métalliques : la liaison métal/molécule organique est intrinsèquement faible, si bien qu'une liaison unique serait trop instable. La fixation se fait via un complexe de plusieurs liaisons formant une pince – appelée chélate2 – autour du radionucléide métallique. L'inconvénient principal de cette chimie de chélation tient à l'encombrement du site de liaison vecteur/radionucléide. Le choix du chélate est le résultat d'un compromis entre la stabilité de la liaison vecteur/métal et son encombrement : plus le complexe contient un nombre élevé de liaisons, plus le MRP est stable, mais plus son encombrement perturbe le comportement biologique du vecteur ;
- pour les radionucléides non métalliques (123I, 131I, 18F, 11C), le marquage repose sur la chimie de l'élément considéré (carbone, iode, etc.) : une simple liaison covalente suffit à synthétiser un MRP stable dont le comportement biologique est peu modifié par le radionucléide.
Principaux MRP utilisés en scintigraphie conventionnelle
Le tableau 5.1 présente les principaux MRP (radionucléides et vecteurs) utilisés en scintigraphie conventionnelle et les fonctions physiologiques ou les tissus explorés par ces radiopharmaceutiques.
Tableau 5.1 - Radiopharmaceutiques les plus utilisés en scintigraphie conventionnelle
Radiopharmaceutique |
Fonction/tissu explorés |
|||
Radionucléide |
Vecteur |
|||
Isotope |
Énergie |
Période |
||
Technétium 99mTc |
140 keV |
6,0 h |
HMDP |
Accrétion osseuse (ostéoblastes) |
Sestamibi Tétrofosmine |
Perfusion myocardique, parathyroïdes |
|||
Hématies |
Fraction d'éjection ventriculaire Recherche d'hémorragie |
|||
Pertechnétate (TcO4−) |
Fonction thyroïdienne |
|||
HMPAO |
Perfusion cérébrale |
|||
Acide iminodiacétique (IDA) |
Fonction hépatobiliaire |
|||
Macro-agrégats d'albumine |
Perfusion pulmonaire |
|||
Microparticules de carbone (Technegas®) |
Ventilation pulmonaire |
|||
Acide dimercaptosuccinique (DMSA) |
Masse rénale fonctionnelle |
|||
DTPA |
Filtration rénale |
|||
MAG3®, Nephromag® |
Perfusion rénale, sécrétion, drainage urinaire |
|||
Leucocytes marqués à l'hexaméthyl propylène amine oxime (HMPAO) |
||||
Thallium 201Tl |
69 keV, 71 keV, 80 keV |
3,1 j |
– |
Perfusion myocardique |
Krypton(81mKr) |
190 keV |
13 s |
– |
Ventilation pulmonaire |
Iode 123I |
159 keV |
13 h |
– |
Fonction thyroïdienne |
Ioflupane |
Ioflupane |
|||
MIBG |
Médullosurrénale (phéochromocytome, neuroblastome) |
|||
131I |
364 keV |
8 j |
Noriodocholestérol |
Corticosurrénale |
Indium(111In) |
171 keV, 245 keV |
2,8 j |
Pentétréotide |
Récepteurs à la somatostatine (tumeur neuroendocrine) |
Pour chaque radionucléide, le tableau ne mentionne que l'énergie du ou des rayonnements γ utilisés pour la détection scintigraphique. Il faut savoir que les radionucléides ne se désintègrent presque jamais selon une transition unique vers leur état stable : leur désintégration s'effectue selon un schéma complexe impliquant de nombreux intermédiaires et de nombreuses émissions γ d'énergies différentes. La scintigraphie ne détecte que les émissions les plus abondantes dont l'énergie est adaptée à la sensibilité des détecteurs (entre 70 et 360 keV).
Le radionucléide de loin le plus utilisé en scintigraphie conventionnelle est le 99mTc métastable. Sa désintégration est associée à l'émission très majoritaire de photons γ de 140 keV (énergie bien adaptée aux gamma-caméras) ; sa période est de 6 heures. Il peut être utilisé en solution directe ou pour marquer différents vecteurs, préconditionnés pour le radiomarquage sous forme de précurseurs dans des flacons (appelés « trousses » ou « kits ») ; enfin, il ne pose pas de problème d'approvisionnement puisqu'il est produit dans le service de médecine nucléaire à partir d'un générateur qui doit être renouvelé toutes les semaines.
Les MRP utilisant d'autres radionucléides que le 99mTc doivent être livrés quotidiennement (à l'exception du 81mKr, produit sur place par un générateur). Comme le montre le tableau 5.1, certains examens peuvent être effectués au moyen de différents MRP. C'est le cas de l'évaluation de la perfusion myocardique (visualisée après injection de 201Tl ou de 99mTc-sestamibi) ou de la fonction thyroïdienne (visualisée après injection d'123I ou de 99mTcO4–). Les MRP technétiés sont en général plus disponibles et moins coûteux que leurs équivalents non métalliques, mais ils ont tendance à être un peu moins spécifiques de la fonction étudiée.
Principaux MRP utilisés en TEP
Généralités
La désintégration β+ se traduit par l'émission de deux photons γ de 511 keV chacun, quel que soit le radionucléide. Cette énergie correspond en effet à l'énergie d'annihilation entre un positon et un électron, grandeur indépendante du radionucléide. Les principaux radionucléides utilisables en TEP (18F, 11C, 15O et 13N) ont des périodes courtes, inférieures à 20 minutes pour le 11C, 15O et le 13N (tableau 5.2) ; ils ne peuvent donc être réalisés que dans les rares centres de recherche produisant ces nucléides sur place au moyen d'un cyclotron. Seul le 18F possède une période de 110 minutes compatible avec une utilisation en routine clinique. Cela nécessite de livrer le service de médecine nucléaire plusieurs fois par jour en MRP marqués au 18F. Le tableau 5.3 présente les MRP couramment utilisés en TEP.
Tableau 5.2 - Période des principaux radionucléides utilisables en TEP
Radionucléide |
Période |
18F |
110 min |
68Ga |
68 min |
82Rb |
75 s |
11C |
20 min |
13N |
10 min |
15O |
2 min |
Tableau 5.3 - Radiopharmaceutiques les plus utilisés en TEP
Radiopharmaceutique |
Fonction explorée |
18F-FDG (fluorodésoxyglucose) |
Métabolisme glucidique |
18F-FCH (fluorocholine) |
Métabolisme lipidique membranaire |
18F-(fluorure ou FNa) |
Accrétion osseuse |
18F-FDOPA |
Métabolisme des acides aminés Neurotransmission dopaminergique |
Intérêt du 18F-FDG
Le radiopharmaceutique de loin le plus utilisé est un analogue du glucose : le 18F-FDG. Il diffère du glucose par la substitution d'un groupe hydroxyle par un 18F. Le 18F-FDG est transporté vers le milieu intracellulaire par les transporteurs membranaires du glucose (GLUT). Il est phosphorylé en 18F-FDG-6-P par l'hexokinase comme le glucose (première étape de la glycolyse). À la différence du glucose, le 18F-FDG n'est pas davantage transformé car la présence du 18F empêche le 18F-FDG-6-P d'intégrer la deuxième étape de la glycolyse (isomérisation en fructose-6P). Le MRP s'accumule ainsi dans les cellules sous forme de 18F-FDG-6-P, sa concentration reflétant le métabolisme glucidique. Le succès de la TEP au 18F-FDG tient à sa grande sensibilité pour la détection de nombreux cancers et de certaines maladies inflammatoires ou infectieuses. Ces maladies sont en effet caractérisées par un métabolisme glucidique souvent très élevé.
Fixations physiologiques du 18F-FDG
L'avidité pour le 18F-FDG n'est toutefois pas spécifique des processus pathologiques : de nombreux tissus accumulent physiologiquement ce MRP. Ainsi, le 18F-FDG se concentre fortement au niveau cérébral, le glucose étant le principal substrat énergétique neuronal. Le tissu lymphoïde de l'anneau tonsillaire du pharynx (anciennement anneau de Waldeyer : tonsilles pharyngées, tubaires, palatines et linguales) est fréquemment hyperfixant, surtout chez l'enfant et au décours de processus infectieux ; cette fixation est d'intensité variable mais bilatérale et globalement symétrique. Il existe une très faible excrétion salivaire du traceur 18F-FDG, entraînant une fixation diffuse des glandes parotides, submandibulaires et sublinguales ; cette fixation est peu intense, bilatérale et symétrique. Les hyperfixations dites « de réactivation de graisse brune » sont fréquentes chez l'adulte jeune. Elles sont liées en général au froid et au stress ; elles sont souvent très intenses, bilatérales, symétriques, et intéressent les espaces graisseux cervicaux et thoraciques. Une hyperfixation diffuse en regard du reliquat thymique du médiastin antérieur est fréquente chez l'enfant et le sujet jeune. Elle peut également se voir chez l'adulte au décours d'un traitement par chimiothérapie. La fixation myocardique peut être intense, mais elle est très variable et dépend du régime alimentaire du patient. Le 18F-FDG peut également s'accumuler dans l'intestin grêle en conditions physiologiques normales. Le côlon présente plus fréquemment une accumulation intense de topographie très variable (diffuse ou plus segmentaire). Les ovaires et l'utérus des femmes non ménopausées présentent parfois un hypermétabolisme glucidique, qui varie selon les phases du cycle menstruel. La fixation musculaire est variable et dépend du degré d'activité des muscles, en particulier en cas d'effort ou de tension musculaire accrue pendant la période suivant l'injection. Enfin, contrairement au glucose, le 18F-FDG n'est pas réabsorbé par le tubule rénal ; il est ainsi éliminé par voie urinaire et s'accumule dans les cavités pyélocalicielles, les uretères et la vessie.
MRP pour la thérapie
La médecine nucléaire comprend également des applications thérapeutiques qui consistent à administrer des MRP fortement irradiants pour détruire un tissu cible. Il s'agit de la radiothérapie interne vectorisée (RIV) (voir chapitre 16). Les critères de choix du radionucléide sont différents des critères retenus pour l'imagerie diagnostique : pour la RIV, on utilise classiquement des émetteurs β– dont la désintégration s'accompagne de l'émission d'un électron. Contrairement aux photons γ, les électrons interagissent fortement avec les tissus biologiques et ne parcourent que quelques millimètres avant de céder leur énergie au tissu. Ce principe est couramment mis en œuvre pour le traitement des hyperthyroïdies ou des cancers différenciés de la thyroïde. Le MRP utilisé est alors l'131I. À noter que la désintégration de l'131I se traduit par une émission β– et une émission γ associée, cette dernière étant mise à profit pour acquérir des images au décours du traitement des cancers thyroïdiens.
Évolutions récentes
La TEP est une technique d'imagerie relativement récente pour laquelle de nombreux MRP ont été récemment développés.
Pour la cancérologie, on peut citer les analogues de la somatostatine (de type pentétréotide) marqués au gallium 68 (68Ga), l'avantage du 68Ga étant qu'il peut être produit dans le service de médecine nucléaire à partir d'un générateur dont la durée de vie est de plusieurs mois. Le 68Ga-DOTATATE a ainsi démontré son efficacité pour la détection des tumeurs neuroendocrines intestinales. Les ligands du prostate-specific membrane antigen (PSMA) sont une autre piste prometteuse en oncologie. Ces ligands peuvent être marqués au 68Ga ou au 18F. Ils présentent une excellente spécificité pour les adénocarcinomes prostatiques.
En neurologie, des autorisations de mise sur le marché (AMM) ont été accordées récemment pour les ligands de la plaque amyloïde marqués au 18F (18F-PIB, 18F-AV45 ou 18F-AV1). Ces MRP peuvent être utiles pour le diagnostic de certaines formes de la maladie d'Alzheimer.
En cardiologie, la TEP au rubidium 82 (82Rb), analogue du potassium, fournit des images quantitatives de la perfusion myocardique de meilleure résolution spatiale que la tomoscintigraphie des gamma-caméras conventionnelles. Le 82Rb présente l'avantage de pouvoir être produit dans le service par un générateur, tout comme le 68Ga.
Sur le versant thérapeutique, la RIV fait également l'objet de nombreux travaux de recherche. On peut citer le développement d'émetteurs α (noyaux d'hélium) qui interagissent plus fortement que les particules β– avec les tissus biologiques ; ils libèrent leur énergie en quelques dizaines de micromètres seulement. On passe ainsi d'une radiothérapie tissulaire à une radiothérapie cellulaire. La RIV avec émetteur α a été récemment proposée pour le traitement des métastases osseuses des adénocarcinomes prostatiques. Le MRP utilisé est le 223Ra, dont le comportement biologique est analogue à celui du calcium.
Ces dernières années, la RIV a connu des développements spectaculaires fondés sur l'utilisation du lutécium 177 (émetteur β–). Le 177Lu-DOTATATE, ligand des récepteurs de la somatostatine, a obtenu l'AMM pour le traitement des tumeurs neuroendocrines intestinales métastatiques. En outre, des essais cliniques prometteurs sont en cours sur le 177Lu-PSMA dans le traitement des cancers de la prostate résistants à la castration.
L'utilisation de MRP émettant à la fois des β– ou des α (utilisés pour la thérapie) et des γ ou β+ (utilisés pour l'imagerie) est à l'origine du concept de « théranostique », contraction de thérapie-diagnostique : en injectant un MRP diagnostique, on peut prédire de manière quantifiée la biodistribution du MRP thérapeutique et donc mieux planifier l'irradiation. Le couple 68Ga-DOTATATE/177Lu-DOTATATE permet ainsi une approche théranostique des tumeurs neuroendocrines métastatiques.
Instrumentation
La scintigraphie conventionnelle est réalisée au moyen d'une gamma-caméra et la TEP au moyen d'une caméra TEP. Ces appareils sont deux variantes de caméras à scintillation ; ils partagent les mêmes principes de détection des photons γ, mais ils reposent sur deux principes différents de localisation du MRP émetteur :
- la gamma-caméra localise l'émetteur γ par un principe de collimation qui consiste à détecter uniquement les photons γ émis dans une direction particulière ;
- en TEP, la localisation repose sur la détection des deux photons γ émis à 180° l'un de l'autre après annihilation du positon, sans besoin de collimateurs.
Détection des photons γ
Interaction avec le cristal scintillant
Les photons γ sont faiblement atténués par les tissus biologiques. Leur détection externe est effectuée au moyen d'un cristal dense constitué d'atomes très massiques qui absorbe leur énergie. L'utilisation de cristaux scintillants permet de convertir l'énergie cédée par les photons γ en photons visibles. L'énergie des γ est cédée aux électrons du cristal qui quittent alors leur orbite ; le retour à l'état fondamental des électrons se traduit par un phénomène de scintillation, c'est-à-dire par l'émission de multiples photons dont l'énergie est beaucoup plus faible que celle du photon γ incident, mais dont la longueur d'onde est dans le domaine du visible (photons lumineux), et pour lesquels le cristal est transparent. La détection de chaque photon γ entraîne l'émission de 103 à 104 photons lumineux (figure 5.2) qui vont traverser le cristal sans interagir.
Photomultiplication
L'étape suivante consiste à transformer les photons lumineux en un signal électrique et à l'amplifier suffisamment pour qu'il puisse être mesuré sous forme d'une tension électrique. C'est le rôle du tube photomultiplicateur (PM) constitué d'une photocathode (face d'entrée des photons lumineux), d'une série de dynodes (électrodes portées à des potentiels croissants) et d'une anode (figure 5.2). Sous l'impact des photons lumineux, la photocathode libère des électrons qui sont ensuite accélérés par la différence de potentiel photocathode/dynode et viennent frapper la première dynode. Chaque électron incident arrache plusieurs électrons secondaires à la dynode, qui sont à leur tour accélérés puis démultipliés sur une dizaine de dynodes successives avant de frapper l'anode. Les démultiplications successives se traduisent par un gain d'amplification considérable, de l'ordre de 109, conduisant à un signal mesurable sous la forme d'une impulsion électrique.
À noter que le nombre d'électrons frappant l'anode est proportionnel au nombre de photons lumineux en entrée du PM, lui-même proportionnel à l'énergie du photon γ détecté. Ainsi, ces étapes de détection conservent la proportionnalité entre l'énergie du photon γ et l'amplitude du signal (impulsion de tension à l'anode).
Sélection par l'énergie
Pour un MRP dont la désintégration entraîne une émission γ d'énergie donnée, on pourrait s'attendre à mesurer des impulsions de tension d'amplitudes identiques. Ce serait le cas si les photons γ n'interagissaient pas avec les tissus biologiques. Or, une partie des photons γ interagit avec la matière organique, principalement sous forme de diffusion Compton. Au cours de cette interaction, le photon γ d'origine disparaît au profit d'un nouveau photon γ (le photon diffusé) qui est émis dans une direction différente de celle du γ d'origine et possède une énergie plus faible. En scintigraphie conventionnelle comme en TEP, les photons diffusés peuvent représenter une part importante – parfois majoritaire – des photons détectés. L'interaction Compton pouvant se dérouler à distance du site d'émission du photon γ d'origine, la détection des photons diffusés est source d'erreur de localisation du MRP. Il convient donc d'éliminer du comptage le signal issu des photons diffusés. Pour ce faire, il suffit de conserver uniquement les impulsions dont l'amplitude correspond à l'énergie des photons émis par le MRP. On effectue ainsi une sélection par l'énergie. Outre qu'elle permet de s'affranchir des erreurs de localisation liées à la diffusion Compton, cette méthode de sélection par l'énergie permet de détecter simultanément les photons γ issus de deux radionucléides différents administrés à un patient. Cette technique de double marquage permet ainsi de suivre simultanément deux processus physiologiques. On peut citer l'exemple de la ventilation pulmonaire mesurée par du 81mKr (190 keV) et de la perfusion pulmonaire mesurée par des agrégats d'albumine marqués au 99mTc (140 keV).
Localisation de l'impact du photon γ sur le cristal
L'absorption d'un photon gamma sur le cristal entraîne l'émission de 103 à 104 photons lumineux dans des directions aléatoires. Pour localiser ce point d'impact, on utilise la logique d'Anger, du nom de l'inventeur de la gamma-caméra. Cette approche consiste à « tapisser » la surface du cristal d'une batterie de PM. Le nombre de photons lumineux captés par un PM est inversement proportionnel à la distance entre le PM considéré et le point d'impact du photon γ. La détection d'un photon γ est donc associée à la réception par plusieurs PM d'impulsions électriques dont les amplitudes respectives permettront de remonter au lieu exact de l'impact. La figure 5.2 illustre cette logique de localisation : le tube PM2 reçoit davantage de photons lumineux que le tube PM3 qui en reçoit davantage encore que le PM1. La comparaison entre les nombres de photons lumineux détectés par chaque PM permet de déterminer la position du point d'impact sur le cristal. À noter que la répartition des photons scintillants sur plusieurs PM n'entraîne pas la perte de l'information sur l'énergie du photon γ détecté. Il suffit pour recouvrer cette information de sommer les impulsions de tension générées par tous les PM à un instant donné. On arrive ainsi à localiser le point d'impact tout en gardant la possibilité de faire une sélection par l'énergie.
Types d'enregistrement des données
Les coordonnées du point d'impact du photon γ sont transformées en une position numérique traitée informatiquement pour former l'image. Au cours de l'examen d'imagerie, le nombre d'impacts photoniques peut être considérable (plusieurs millions). Ces données peuvent être stockées de plusieurs manières, selon la capacité de stockage de l'imageur et la résolution temporelle souhaitée :
- le mode intégratif (ou incrémental) consiste à sommer les impacts successifs détectés pour chaque adresse numérique ;
- le mode liste consiste à enregistrer, pour tous les photons γ détectés, leur temps d'impact et leur position. Les images ne sont disponibles qu'à la fin de l'acquisition, mais on peut choisir a posteriori le temps d'accumulation des images. Par exemple, une acquisition de 2 minutes pourra être reconstruite sous la forme de 20 images d'une minute ou d'une image de 20 minutes ;
- le mode liste peut être combiné avec l'enregistrement indépendant d'un mouvement physiologique périodique comme le cycle cardiaque. Cela permet de synchroniser a posteriori le signal d'imagerie (constitué des impacts photoniques) et le signal physiologique. On peut alors reconstruire séparément les images correspondant à différentes phases du cycle. Ce mode d'acquisition synchronisé est couramment utilisé en médecine nucléaire cardiologique ;
- il est également possible d'acquérir des images à divers temps après l'injection (par exemple 5 minutes, 3 heures, 24 heures) pour apprécier l'évolution de la distribution du MRP.
L'enregistrement des points d'impact des photons γ tel que décrit ci-dessus ne suffit pas à déterminer la position spatiale du MRP. Pour ce faire, il faut utiliser un système de collimation. C'est sur ce point que les gamma-caméras et les caméras TEP diffèrent fondamentalement, la scintigraphie conventionnelle utilisant une collimation physique tandis que la TEP utilise une collimation électronique.
Gamma-caméra
Collimation physique
En l'absence de collimation, les photons γ seraient détectés de façon identique quelle que soit l'incidence avec laquelle ils atteignent le cristal. Ainsi, la seule connaissance de leur point d'impact ne permettrait pas de déterminer leur origine, et donc de localiser leur source.
Les collimateurs des gamma-caméras sont des plaques de plomb percées de canaux séparés par des cloisons, les septums (figure 5.3). Les collimateurs à canaux parallèles, orientés perpendiculairement à la surface du cristal, sont les plus utilisés. Ils permettent de détecter uniquement les photons ayant une incidence perpendiculaire au cristal, les photons obliques étant arrêtés par les septums de plomb. Le point d'impact du photon γ dans le cristal correspond ainsi à la position spatiale du MRP ; le collimateur à canaux parallèles fournit une image en projection de la distribution du MRP.
D'autres géométries de collimateurs peuvent être utilisées, comme le collimateur sténopé (pinhole en anglais) qui se présente sous la forme d'un cône de plomb percé à son sommet (figure 5.3). Il permet une excellente résolution spatiale par effet de grandissement, aux dépens d'une sensibilité médiocre liée à la petite taille du trou. Il est principalement utilisé pour la scintigraphie de la thyroïde, organe de petite taille.
Détecteurs plans de grande dimension
La plupart des gamma-caméras actuelles sont constituées de deux détecteurs plans de grande taille mesurant typiquement 40 × 60 cm2 (figure 5.4A). Chaque détecteur est constitué d'une dalle de cristal d'iodure de sodium dopé au thallium NaI(Tl) d'environ 2 cm d'épaisseur couplée à une centaine de PM. Le NaI est suffisamment dense et de nombre de masse suffisamment élevé pour qu'une épaisseur de 2 cm interagisse efficacement avec les photons γ. L'efficacité d'interaction varie cependant avec l'énergie des photons γ : elle est plus élevée pour les photons peu énergétiques comme ceux émis par le 201Tl (80 keV) que pour ceux émis par l'131I (364 keV).
Les deux détecteurs sont montés sur un statif, dispositif permettant leur rotation autour du patient pour un positionnement adapté à chaque type d'examen.
Résolution spatiale et sensibilité
La résolution spatiale d'une gamma-caméra dépend principalement de la géométrie du collimateur (épaisseur des septums, diamètre et profondeur des canaux). Cette géométrie est le fruit d'un compromis entre résolution spatiale et sensibilité : des canaux très étroits séparés par des septums épais améliorent la résolution spatiale aux dépens du nombre de coups détecté par canal.
Ce compromis n'est pas le même pour des photons γ incidents de basse et de haute énergie, si bien qu'une gamma-caméra dispose en général de plusieurs collimateurs adaptés aux différents niveaux d'énergie des radionucléides utilisés.
Quelle que soit la géométrie du collimateur, son rôle est d'arrêter tous les photons γ qui ne sont pas émis dans la direction souhaitée, si bien qu'une très faible fraction des photons émis – de l'ordre de 1/10 000 – atteint le cristal. Cette faible sensibilité de détection limite la résolution spatiale des gamma-caméras à environ 10 mm.
Images planaires
La détection avec collimation physique fournit une projection de la distribution du MRP sur le plan du détecteur. Cette image planaire peut être acquise de manière statique, dynamique ou par balayage.
Pour une acquisition statique, les détecteurs sont placés en regard de la région du corps à explorer et conservent une position fixe pendant la durée de l'acquisition, typiquement une dizaine de minutes.
L'acquisition dynamique procède de la même manière, à cela près que plusieurs images sont acquises successivement en mode cinéma, ou à différents instants après l'administration du MRP. On peut citer l'exemple de la scintigraphie rénale qui permet l'évaluation de l'excrétion par mesure de la cinétique d'élimination rénale du MRP.
La taille limitée des détecteurs plans (environ 40 × 60 cm2) ne permet pas d'acquérir des images du corps entier en mode statique. Pour ce faire, on effectue une acquisition par balayage qui consiste à déplacer le détecteur le long du patient au cours de l'acquisition, de sorte que l'ensemble du corps passe devant le détecteur. En pratique, le balayage est le plus souvent effectué en déplaçant le lit du patient par rapport au détecteur, ce qui revient strictement au même pour les images.
Tomoscintigraphie
Les images planaires sont une superposition des plans situés à différentes profondeurs du sujet par rapport au détecteur. Ces images sont souvent suffisantes pour obtenir l'information clinique recherchée. Cependant, elles ne permettent pas de différencier les fixations du MRP situées à différentes profondeurs. S'il est possible d'acquérir des images planaires selon différentes incidences pour lever certaines ambiguïtés, l'acquisition planaire reste limitée par une localisation anatomique imprécise et un contraste médiocre (l'intensité de fixation est moyennée sur toute la profondeur du sujet).
Lorsque la question médicale nécessite une localisation précise, on utilise un mode d'acquisition similaire aux techniques d'imagerie en coupe de type TDM : la tomographie d'émission monophotonique (TEMP) ou tomoscintigraphie (single photon emission tomography [SPECT]). Le principe consiste à faire pivoter le détecteur autour du patient pendant l'acquisition, ce qui revient à acquérir des projections de l'activité selon un grand nombre d'incidences (figure 5.5A). À partir de ces projections, on peut reconstruire la distribution tridimensionnelle du MRP par rétroprojection filtrée ou par méthode itérative (voir chapitre 9).
La tomoscintigraphie est d'utilisation courante et permet d'explorer les patients sur une hauteur d'environ 40 cm correspondant à la taille du détecteur. La durée d'acquisition relativement longue – typiquement 15 minutes – fait que l'acquisition tomoscintigraphique est généralement ciblée sur une zone spécifique, sans être répétée pour couvrir l'ensemble du corps. Il n'est généralement pas non plus possible de réaliser des acquisitions dynamiques en mode tomographique. Parmi les applications les plus courantes de la tomoscintigraphie, on peut citer la cardiologie (figure 5.6), les explorations ostéoarticulaires (figure 5.7) ou neurologiques (scintigraphie cérébrale de perfusion ou des transporteurs dopaminergiques).
Caméra TEP
Collimation électronique
La TEP détecte les photons d'annihilation des positons produits par la désintégration d'émetteurs β+. Si le principe de détection des photons γ par cristal scintillant couplé aux PM est identique à celui utilisé dans les gamma-caméras, le principe de collimation est fondamentalement différent en TEP. L'annihilation d'un positon produit en effet deux photons γ de 511 keV émis simultanément (en coïncidence) à 180° l'un de l'autre. En utilisant une couronne de détecteurs placés autour du corps, la TEP permet de détecter les deux photons d'annihilation (figure 5.5B). La détection simultanée de deux photons de 511 keV en deux points de la couronne implique que l'annihilation du positon se situe sur la ligne reliant ces deux points qu'on appellera « ligne de réponse ». En enregistrant les détections en coïncidence selon toutes les directions, on obtient des projections selon un grand nombre d'incidences. La reconstruction d'images en coupes se fait ensuite selon le même principe que pour la tomoscintigraphie. En pratique, on enregistre les détections intervenant quasi simultanément, dans une fenêtre temporelle appelée « fenêtre de coïncidence ». L'utilisation d'une fenêtre suffisamment large – environ 10 ns – est nécessaire car les deux photons d'annihilation se déplacent à la vitesse de la lumière et n'atteignent pas strictement simultanément leur détecteur (la désintégration se produit nécessairement plus près d'un détecteur que de l'autre). Ainsi, la détermination de l'incidence des photons γ en TEP ne nécessite pas de collimateur physique : elle repose sur le réglage de la fenêtre temporelle de mesure du signal, d'où la terminologie « collimation électronique ».
Blocs détecteurs arrangés en couronne
Les caméras TEP (voir figure 5.4B) actuellement commercialisées sont constituées d'une centaine de blocs détecteurs parallélépipédiques disposés en couronne. La détection au sein de chaque bloc s'effectue de la même manière que dans le détecteur plan d'une gamma-caméra : par interaction avec un cristal scintillant couplé à des PM, puis détermination du point d'impact par la logique d'Anger à l'échelle du bloc. Une différence notable tient à la pixellisation du cristal : chaque bloc ne contient pas une dalle de cristal unique, mais une matrice de cristaux (typiquement 8 × 8) séparés les uns des autres par un matériau réfléchissant.
Contrairement à la scintigraphie conventionnelle, la TEP détecte des photons γ de même énergie quel que soit le MRP utilisé. Cette énergie (511 keV) est par ailleurs supérieure à celle des photons γ détectés en scintigraphie conventionnelle (70-360 keV). Cela impose l'utilisation de cristaux plus denses constitués d'atomes plus massiques (de type germanate de bismuth [BGO], orthosilicate de lutétium [LSO], oxyorthosilicate d'yttrium [YSO], YSO couplé au LSO [LYSO]).
Résolution spatiale et sensibilité
L'absence de collimateur physique confère à la TEP :
- une sensibilité (capacité à détecter une faible quantité de MRP) supérieure à la scintigraphie conventionnelle de plusieurs ordres de grandeur (puisque le rôle du collimateur est d'arrêter une grande majorité des rayons) ;
- une meilleure résolution spatiale (puisque le collimateur est le facteur qui limite la résolution des gamma-caméras). Cette résolution dépend principalement des dimensions des cristaux scintillants. Elle est d'environ 4 mm sur les caméras TEP commercialisées actuellement.
Nous avons vu précédemment que l'annihilation du positon ne se produit pas exactement à l'endroit où se désintègre le MRP. Cependant, la distance parcourue par le positon avant annihilation est en général inférieure à la résolution spatiale des caméras TEP, si bien que ce phénomène n'affecte pas significativement la localisation du MRP.
La sensibilité de détection de la TEP peut être améliorée par la technique du temps de vol, qui consiste à mesurer la différence entre les temps d'arrivée des deux photons sur leur détecteur. Le premier détecteur à interagir avec un photon est situé plus près du MRP que le détecteur qui interagit plus tard avec le second photon. Les caméras peuvent distinguer les temps d'arrivée des photons avec une précision de l'ordre de 300 ps. Compte tenu de la vitesse de la lumière, cela correspond à une localisation spatiale à une précision de l'ordre de :
δx = c × δt = 3.108 m ⋅ s-1 × 3.10-10 s = 9.10-2 m ≈10 cm
Cela n'est possible que pour les cristaux possédant une très bonne résolution temporelle (les photons de scintillation ne sont émis que très brièvement après l'absorption du photon γ) : seuls les cristaux d'oxyorthosilicate de germanium (GSO), de LSO ou d'YSO présentent une résolution temporelle suffisante. Le temps de vol n'améliore pas la résolution spatiale des images TEP, mais il améliore la sensibilité de détection car l'information temps de vol permet de réduire le bruit statistique dans l'image reconstruite. Cette technique est désormais proposée sur la quasi-totalité des caméras TEP.
La sensibilité élevée de la TEP permet de réaliser des tomographies dynamiques (3D + t), ce qui n'est généralement pas possible en tomoscintigraphie compte tenu de la durée d'acquisition élevée. Cela est couramment utilisé pour la recherche de métastases des cancers de la prostate en TEP à la 18F-fluorocholine (FCH) : l'acquisition d'images dynamiques précoces permet d'étudier la région pelvienne avant l'élimination urinaire du MRP susceptible de masquer les lésions. Les autres régions du corps sont analysées sur une acquisition plus tardive.
Caméras hybrides et dosimétrie
La plupart des caméras de médecine nucléaire combinent un système de détection des photons γ ou β+ et une TDM ; ce sont des appareils hybrides « gamma-caméra-TDM » ou « TEP-TDM » dont l'intérêt est double :
- ils permettent de combiner les données fonctionnelles de la médecine nucléaire (tomoscintigraphie ou TEP) aux données morphologiques de la TDM. Les images fonctionnelles (représentées en couleur) et les images morphologiques (représentées en noir et blanc) sont fusionnées, permettant une localisation anatomique précise des sites de fixation du MRP (figures 5.7 et 5.8) ;
- la TDM permet en outre de corriger les images de médecine nucléaire de l'atténuation des photons. Les photons γ sont en effet atténués par diffusion Compton dans les tissus mous et par effet photoélectrique dans l'os, ce phénomène étant d'autant plus important que les photons sont émis dans des régions profondes ou très atténuantes comme le tissu osseux. Pour éviter de sous-estimer la fixation de ces régions, il faut corriger l'activité mesurée en chaque point du corps en estimant l'atténuation des photons γ émis depuis ce point. Or, la TDM, par construction, représente l'atténuation des photons X en chaque point du corps. On peut facilement en extrapoler l'atténuation des photons γ et effectuer une correction d'atténuation des images de tomoscintigraphie ou de TEP.
Pour limiter l'exposition des patients, les images TDM acquises sur les caméras hybrides utilisent en général un flux relativement faible de photons X. L'objectif de la TDM couplée à la médecine nucléaire étant la localisation des fixations et la correction d'atténuation, des images de moins bonne qualité qu'en TDM diagnostique suffisent. En pratique, la diminution du flux de photons X permet de diminuer la dose efficace de la TDM d'environ 50 %, à environ 8 mSv pour un corps entier. Ce niveau est similaire à celui d'une TEP au 18F-FDG, légèrement supérieur à celui d'une scintigraphie osseuse au 99mTc- hydroxyméthylène diphosphonate (HMDP) (environ 5 mSv).
Quantification de la fixation
Les images de médecine nucléaire peuvent être interprétées de manière visuelle qualitative, c'est-à-dire en décrivant la topographie des fixations anormales (hyperfixations ou hypofixations). Il est parfois possible de les interpréter de manière quantitative en estimant l'activité dans une région du corps (en kBq/mL), c'est-à-dire la quantité de MRP fixé dans cette région. Une telle quantification absolue n'est possible que pour les acquisitions tomographiques (TEP ou tomoscintigraphie).
La quantification est particulièrement utile pour l'évaluation thérapeutique des patients (comparaison de la fixation entre deux examens successifs). Elle peut apporter une information diagnostique (une fixation supérieure à un seuil donné peut orienter vers une maladie) ou pronostique (l'intensité de fixation de certaines tumeurs est corrélée à la survie des patients). Elle peut également contribuer à affiner la stratégie thérapeutique en permettant de délimiter des champs de radiothérapie.
Pour quantifier la fixation d'un MRP, il faut au préalable corriger les images de nombreux biais :
- l'atténuation des photons γ par les tissus biologiques (corrigée grâce aux images TDM) (voir plus loin) ;
- la diffusion Compton : la sélection par l'énergie ne permet pas d'éliminer les photons diffusés qui possèdent une énergie très proche de celle des photons de désintégration mais dont la direction a changé (ces photons sont donc mal localisés). Certaines techniques de traitement d'image permettent de corriger cet effet ;
- les coïncidences fortuites en TEP : deux photons issus de l'annihilation de deux positons différents peuvent en effet être détectés simultanément (dans la fenêtre de coïncidence). Ce phénomène n'est pas rare compte tenu du taux très élevé de désintégrations dans l'anneau de la caméra TEP. La détection de coïncidences fortuites peut être limitée par la réduction de la largeur de la fenêtre de coïncidence. Les signaux fortuits détectés peuvent aussi être estimés et un traitement des données permet de les soustraire.
En pratique, la correction des biais de quantification en tomoscintigraphie est imprécise. Elle souffre principalement d'une correction d'atténuation approximative et d'une résolution spatiale médiocre. Cela n'empêche pas de corriger les images de leurs biais pour en améliorer l'aspect et faciliter l'interprétation visuelle.
La correction des biais de quantification en TEP est beaucoup plus précise (la correction d'atténuation en TEP est exacte et la résolution spatiale très supérieure à la tomoscintigraphie). Les images de TEP se prêtent donc à une analyse quantitative. L'accumulation locale du MRP est mesurée par la valeur de fixation normalisée standard uptake value (SUV). La SUV peut se définir comme le rapport C/C0 où C est la concentration du MRP dans le voxel et C0 la concentration de dilution homogène dans le volume du corps (concentration théorique obtenue si le MRP se répartissait de façon homogène dans le patient) :
C0 = q / ( m/ρ) donc SUV = (C × m) / (q × ρ)
où q est l'activité injectée, m la masse du patient et ρ sa masse volumique estimée à 1 kg/L.
Évolutions technologiques récentes
Gamma-caméras à cristaux semi-conducteurs
Les principales limitations des gamma-caméras tenant à leur faible résolution spatiale et leur faible sensibilité, la recherche s'est portée sur le développement de cristaux plus sensibles. La principale voie d'amélioration réside dans le remplacement des cristaux scintillants par des cristaux semi-conducteurs de la famille du tellure de cadmium (CdTe ou CdZnTe ou CZT). Ces derniers convertissent directement l'énergie du photon γ absorbé en impulsion électrique, sans l'intermédiaire de photons lumineux, ce qui permet de s'affranchir des PM. Ils permettent aussi de mesurer la profondeur d'interaction du photon γ dans le cristal, ce qui améliore la localisation de la source radioactive. Ces cristaux peuvent être pixellisés (comme ceux des blocs de détection de la TEP), chaque cristal individuel pouvant posséder sa propre électronique de détection. Le couplage direct entre le cristal et l'électronique permet de s'affranchir de la logique d'Anger. Cette nouvelle génération de détecteurs est plus compacte que la précédente. Cela permet de disposer les détecteurs au plus près du patient et d'augmenter ainsi la sensibilité de détection et la résolution spatiale.
Les premières gamma-caméras à cristaux semi-conducteurs ont été développées pour la cardiologie. Elles sont constituées d'une dizaine de blocs de détection disposés en arc de cercle autour du thorax, chaque bloc comprenant un cristal pixellisé couplé à un collimateur sténopé. Comparativement à une gamma-caméra conventionnelle, le gain peut atteindre un facteur 5 à 10 pour la sensibilité et un facteur 2 à 3 pour la résolution spatiale (voir figure 5.6B). Une partie importante de ces gains s'explique par la géométrie optimisée de la caméra, les détecteurs se trouvant presque au contact de la paroi thoracique. Depuis peu, les gamma-caméras à cristaux semi-conducteurs permettent des explorations corps entier ; on parle alors de caméras CZT « grand champ ». Les modèles les plus récents utilisent une douzaine de détecteurs mobiles répartis autour du sujet sur un anneau de 360° ; chaque détecteur se positionne automatiquement au plus près du sujet, maximisant ainsi la sensibilité de détection quel que soit l'étage imagé (figure 5.9A).
Caméras TEP « numériques » et TEP-IRM
Les évolutions récentes en TEP portent sur le remplacement des tubes PM (très encombrants) par des photodiodes plus compactes. Cela permet d'associer à chaque cristal « pixellisé » (de quelques millimètres de côté) sa propre diode photomultiplicatrice, alors que dans les caméras TEP « classiques », chaque tube PM est couplé à un ensemble de quatre ou neuf cristaux. La sensibilité est ainsi améliorée par le couplage de chaque cristal à sa propre électronique de détection. Ce couplage permet en outre de s'affranchir de la logique d'Anger. Les caméras TEP équipées de photodiodes au silicium sont parfois appelées « TEP numériques ».
Un autre avantage des photodiodes au silicium est leur compatibilité avec les champs magnétiques. Leur développement a permis de lever le principal obstacle à la réalisation de caméras hybrides TEP-IRM (figure 5.9B). Ces caméras sont installées depuis peu. Leur intérêt diagnostique est en cours d'évaluation.
Essentiel à retenir
- L'imagerie de la médecine nucléaire repose sur la localisation d'un médicament radiopharmaceutique (MRP) préalablement administré au patient.
- La spécificité des images scintigraphiques tient à leur caractère fonctionnel : elles reflètent le comportement cinétique ou métabolique du MRP administré.
- La médecine nucléaire propose deux techniques d'imagerie : la scintigraphie dite « conventionnelle » et la TEP. La scintigraphie conventionnelle est effectuée au moyen d'une gamma-caméra et de MRP émetteurs de photons γ. La TEP utilise des MRP émetteurs de positons (désintégration β+). Les positons s'annihilent avec un électron à proximité de leur site d'émission, donnant naissance à une paire de photons γ qui sont détectés en TEP.
- Les MRP utilisés pour l'imagerie sont constitués d'un radionucléide (qui émet un rayonnement γ ou β+) lié à un vecteur (qui se fixe sur une structure particulière de l'organisme). Les MRP sont administrés à des concentrations extrêmement faibles (très inférieures à la nanomole), ce qui distingue la médecine nucléaire des autres techniques d'imagerie fonctionnelle.
- La scintigraphie conventionnelle dispose d'une grande variété de MRP différents, adaptés aux différentes questions diagnostiques. Le 99mTc est le radionucléide le plus couramment utilisé pour ces MRP.
- En routine clinique, la TEP utilise des MRP marqués au 18F, au sein desquels le 18F-FDG, marqueur de métabolisme glucidique, occupe une place prépondérante.
- Les gamma-caméras et les caméras TEP sont deux variantes de caméras à scintillation ; elles partagent le même principe de détection des photons γ, mais elles utilisent deux principes différents de localisation du MRP émetteur.
- La détection des photons γ en scintigraphie conventionnelle comme en TEP repose sur l'utilisation de cristaux scintillants couplés à des PM.
- Les gamma-caméras localisent le MRP au moyen de collimateurs placés entre le patient et le cristal scintillant.
- Les caméras TEP localisent le MRP en détectant les deux photons γ émis simultanément à 180° l'un de l'autre lors de l'annihilation du positon dans le patient.
- Les caméras TEP présentent une sensibilité et une résolution spatiale meilleures que celles des gamma-caméras.
Chapitre suivant | |
Retour au sommaire |
Les fondamentaux - Chapitre 4 - Tomodensitométrie (TDM)
F. Pontana , B. Longère et A. Lalande
Plan du chapitre
- Introduction
- Principes de base
- Formation de l'image
- Principaux artefacts
- Produits de contraste
- Radioprotection en TDM
- Indications cliniques
- Conclusion
Objectifs
- Connaître les principes physiques et les risques de la tomodensitométrie (TDM).
- Connaître les bases de la formation et du traitement de l'image.
- Connaître les principes de prescription des TDM et des produits de contraste iodés.
- Connaître les indications et les limites de cette technique.
Introduction
Depuis l'apparition de la radiographie conventionnelle, consécutive à la découverte des rayons X par Wilhelm C. Röntgen en 1895, d'autres techniques d'imagerie permettant de visualiser plus de structures anatomiques de manière volumique ont été développées. En effet, la principale limitation de la radiographie conventionnelle est liée au principe même de cette technique qui repose sur la projection en deux dimensions d'un ensemble tridimensionnel de structures traversées par le faisceau de rayons X incident. Par conséquent, une partie des informations contenues dans l'image formée demeure inexploitable, masquée par les superpositions. De plus, la position des différentes structures les unes par rapport aux autres peut être ambiguë. La multiplication des incidences radiographiques, plus ou moins complexes à mettre en œuvre, permet par déduction de dégager certaines structures sans être néanmoins exhaustif.
L'ancêtre de la TDM, la tomographie, quant à elle, créait un flou cinétique permettant d'effacer du cliché radiographique toutes les structures situées hors du plan que l'on cherchait à imager, au prix d'une dose d'exposition plus importante et de la perte de toute information contenue dans les plans effacés (par exemple orthopantomographie ou panoramique dentaire).
La tomographie laissait entrevoir jusque dans son nom les prémices de la TDM qui permet d'explorer un volume en réalisant de multiples projections de plans selon des angles différents, au sein desquelles les structures sont différenciées en fonction de leur densité radiologique, c'est-à-dire leur capacité à absorber plus ou moins les rayons X. La discrimination à l'œil nu de leurs différentes densités nécessite une aide informatique permettant de voir les équivalents en densité des tonalités osseuse, hydrique et aérique de la radiographie conventionnelle.
Il revient à Godfrey Hounsfield d'avoir décrit et réalisé en 1972 la première TDM alors qu'Allan Cormack avait bâti 15 ans plus tôt le corpus mathématique nécessaire à son développement ; ils se partagèrent le prix Nobel de médecine de 1979.
Depuis les premières images TDM acquises en 1972, cette technique a connu un important et rapide essor technologique permettant d'abord une diminution du temps d'acquisition (de 6 coupes de 13 mm chacune en 35 minutes initialement à 384 coupes contiguës de 0,6 mm en 66 ms en 2016). Les principales innovations se sont efforcées récemment d'apporter une diminution notable de la dose d'exposition délivrée au patient tout en améliorant la qualité de l'image.
En 2012, en France, près de 82 millions d'actes diagnostiques utilisant des rayonnements ionisants ont été réalisés. Les examens TDM représentaient 10,5 % des actes réalisés mais 71 % de la dose efficace collective délivrée à la population française. La dose individuelle moyenne a augmenté de 20 % environ entre 2007 et 2012, du fait notamment d'une augmentation de 12 % du nombre d'examens TDM pendant cette période. Rapporté au nombre d'habitants, en 2019, la France était le troisième pays de l'Union européenne à prescrire le plus d'examens TDM. Ces données illustrent l'importance de maîtriser la dose délivrée au patient. Ce concept s'intègre dans le principe de radioprotection que le radiologue est, entre autres, en charge de faire respecter et de faire appliquer (voir « Radioprotection en TDM »).
L'augmentation du recours à la TDM ne doit pas faire négliger l'importance de l'examen clinique, prérequis indispensable afin de guider la demande.
Après avoir expliqué la formation de l'image à partir des principes de base de la TDM, l'utilisation des produits de contraste, quelques exemples d'indications de la TDM en pratique courante seront abordés dans ce chapitre.
Principes de base
« Anatomie » d'un scanner
Élément mobile tournant au sein d'un support fixe
Afin de pouvoir reconstruire les images dans le plan axial, il est nécessaire d'obtenir de multiples projections de rayons X réalisées selon les incidences couvrant de 0 à 180° autour de l'axe craniocaudal du patient. Ces incidences en projections multiples sont rendues possibles par deux grandes structures de la mécanique d'un scanner (figure 4.1) : le stator (statique) servant de support au rotor (rotation) de forme annulaire qui tourne autour du stator (rotor à ne pas confondre avec celui de l'anode tournante citée dans le chapitre 3).
Au fil de l'évolution technologique de la TDM, il s'est avéré plus efficace d'appliquer une rotation continue au couple tube radiogène-détecteur autour du patient de manière à ne pas perdre de temps avec de multiples accélérations et décélérations du rotor (de l'ordre de ± 100 m/s2). Le poids de ce dernier (une tonne environ pour un scanner classique) implique d'importantes contraintes mécaniques, liées notamment aux frottements et à la force centrifuge générée par des vitesses de rotation de plus en plus élevées (actuellement jusqu'à quatre tours/seconde) pour des machines qui peuvent, pour certains modèles non présentés dans ce chapitre ici car bien moins répandus, embarquer sur leur rotor deux couples tube-détecteur (scanners bitubes). Compte tenu du grand nombre de tours effectués, il n'est pas possible de conduire l'alimentation électrique du système par un câblage classique ; la conduction électrique se fait par un système de bagues et de frotteurs (système « slip rings »). Le transfert de données peut s'effectuer par leur biais ou, plus fréquemment de nos jours, par une communication sans fil.
Le rotor électriquement relié au stator par les slip rings supporte la majorité des éléments de la chaîne radiologique :
- le tube à rayons X ou tube radiogène (dont les principes de fonctionnement ont été décrits dans le chapitre 3). Plus performant et donc plus onéreux qu'en radiologie classique, il doit répondre aux contraintes inhérentes à la technique TDM. Du fait d'une durée de balayage de l'anode tournante par le faisceau d'électrons plus importante qu'en radiologie conventionnelle, celle-ci doit pouvoir supporter un échauffement plus intense (capacité thermique élevée). Par ailleurs, elle doit être en mesure de se refroidir suffisamment rapidement pour permettre les acquisitions successives (dissipation thermique élevée) ;
- les filtres et collimateur primaire situés à la sortie du tube radiogène. Les premiers sont constitués d'une fine couche de métal (aluminium, étain) et ont pour objectif d'absorber les rayons X les moins énergétiques qui sont à l'origine d'une irradiation inutile (ils ne ressortiraient pas du patient et n'apporteraient donc aucune information). Le collimateur primaire, quant à lui, permet de modifier la géométrie du faisceau de rayons X afin de s'adapter aux largeurs d'exploration et aux épaisseurs de coupes désirées ;
- le système de détection. Son but est de restituer en signal électrique l'information contenue dans le faisceau de photons X ayant traversé le patient. De nos jours, les détecteurs les plus répandus consistent en des cristaux de céramique photoluminescents qui transforment les photons X en photons de lumière visible. Ces derniers sont captés par une photodiode située juste sous le cristal scintillant et convertis en courant électrique. Le cristal constitue l'unité élémentaire du système de détection. Ces cristaux de taille millimétrique sont disposés sur un arc de cercle dont le centre est occupé par le tube radiogène, de manière à couvrir le secteur angulaire du faisceau divergent de rayons X. Les scanners contemporains sont dits « multibarrettes » ou « multidétecteurs », par opposition aux scanners dits « monocoupes » désormais disparus. On désigne par « barrette » (ou par abus de langage « détecteur ») une rangée de cristaux scintillants disposés en arc de cercle. La juxtaposition de ces barrettes de détecteurs permet d'augmenter le nombre de coupes axiales acquises simultanément (16, 32, 64, 128, voire jusqu'à 320 coupes), la totalité de la surface de cristaux scintillants ainsi formée étant couverte par le faisceau. Les scanners de dernière génération utilisent des cristaux de 0,5 à 0,625 mm. Un scanner de 128 barrettes par exemple permet donc l'acquisition simultanée de 128 coupes couvrant une hauteur de 6 à 8 cm dans l'axe craniocaudal du patient. L'augmentation de la sensibilité des détecteurs est un enjeu important puisqu'elle permet une réduction significative de la dose d'exposition délivrée au patient pour une qualité d'image au moins équivalente.
Autres éléments
- L'alimentation électrique, de l'ordre de 150 kV, doit permettre le fonctionnement d'un circuit à basse tension et d'un circuit à haute tension pour le fonctionnement du tube.
- La table d'examen sur laquelle le patient est allongé est mobile, aussi transparente aux rayons X que possible et elle permet un mouvement de translation longitudinale au sein de l'anneau formé par le rotor.
- La console d'acquisition est un poste informatisé qui permet non seulement de programmer l'acquisition, mais également de reconstruire et visualiser les images. Le reconstructeur d'images de la console nécessite une importante puissance de calcul informatique car il pourrait constituer un facteur limitant aux avancées technologiques, notamment logicielles (un système informatique mal adapté retardant la disponibilité immédiate des images par un temps de reconstruction trop long).
Interaction des rayons X avec la matière
Les principes d'interaction des photons X avec la matière sont les mêmes qu'en radiographie conventionnelle (voir chapitre 3).
Réalisation en pratique d'une TDM
Le patient est accueilli au secrétariat et son identité est vérifiée. Il est ensuite pris en charge par un manipulateur en électroradiologie médicale (MER) qui l'installe dans une cabine s'il est valide. Le patient se déshabille partiellement en fonction du type d'examen. On s'assure qu'il n'y a pas de métal (bouton pression sur une chemise, boucle de ceinture par exemple), susceptible d'entraîner des artefacts sur l'image. La recherche de contre-indications à l'injection de produit de contraste, effectuée préalablement par le demandeur d'examen, est confirmée lors de l'examen. En fonction de la demande transmise par le médecin demandeur, le radiologue, s'il valide l'indication, détermine la (ou les) zone(s) anatomique(s) à explorer et la nécessité ou non d'utiliser un produit de contraste iodé. Des acquisitions successives peuvent être réalisées au cours d'un même examen sur tout ou partie du volume d'étude ; il s'agit du protocole d'acquisition. Si une injection intraveineuse de produit de contraste iodé est nécessaire, une voie veineuse périphérique est alors mise en place. Le patient est allongé sur la table d'examen et le manipulateur lui explique si une apnée est nécessaire pendant l'acquisition. L'anneau étant peu profond, il n'y a pas de problème lié à une éventuelle claustrophobie.
Depuis la console d'acquisition, le manipulateur, sous la responsabilité du radiologue, programme les différentes phases de l'examen selon le protocole :
- topogramme ou mode radio réalisé de face et parfois de profil : des radiographies (voir plus loin « Mode radio ») sont réalisées de manière à définir les limites du ou des volumes d'acquisition, représentés sous la forme de « boîtes » que l'on ajuste sur les clichés de repérage ;
- pour chaque volume d'acquisition programmé, plusieurs paramètres techniques doivent être ajustés afin d'optimiser le compromis entre la dose délivrée et la qualité de l'image qui devra rester compatible avec le diagnostic. Il est alors possible de modifier la quantité de rayons X émis (charge du tube, dépendant du milliampérage utilisé), l'énergie des photons X (en keV, dépendant du kilovoltage utilisé), les vitesses de rotation du tube autour du patient (en seconde par tour) et d'avancée de la table d'examen (définissant le pas de l'hélice décrite par le faisceau de rayons X autour du patient) ;
- l'acquisition est réalisée selon les paramètres précédemment renseignés. Une injection ou une ingestion de produit de contraste est réalisée si besoin. Le temps d'acquisition est très court (quelques secondes) sur les appareils récents ;
- les données obtenues, dites « données brutes », ne sont pas des images mais un profil global d'atténuation. Un traitement informatique est nécessaire pour générer les images (voir plus loin « Formation de l'image »). Cette phase de reconstruction des images peut nécessiter plus ou moins de temps (ancienneté du système informatique, nombre de coupes, protocoles spécifiques). Le radiologue consulte rapidement les images reconstruites afin de déterminer si des acquisitions complémentaires sont nécessaires ou si, au contraire, l'examen est terminé ;
- les images acquises sont traitées puis interprétées par le radiologue. Le temps de l'interprétation est plus long que celui de l'acquisition car une TDM peut générer plusieurs centaines de coupes auxquelles on applique des filtres divers (voir plus loin « Filtres ») et un traitement particulier en fonction de la question posée (voir plus loin «Traitement des images en TDM »). Les images produites lors de l'examen sont archivées afin d'être sauvegardées (voir chapitre 2).
Formation de l'image
Modes d'acquisition
Les mouvements de la table d'examen, associés ou non à la rotation du tube, permettent différents modes d'acquisition.
Mode radio
Le couple tube-détecteur restant fixe (pas de rotation), la translation de la table permet un balayage du patient par un faisceau de rayons X selon une incidence donnée et produit une image radiographique (dite « topogramme » ou « scout view »). Ce cliché permet notamment de repérer et de délimiter les volumes à explorer.
Le profil d'atténuation du topogramme permet de déterminer les variations d'absorption des photons X le long du volume exploré et de moduler automatiquement le flux de rayons X émis lors de l'acquisition. Cette modulation automatique de dose permet d'augmenter automatiquement le flux de rayons X lors du passage sur les structures plus absorbantes (ceintures scapulaire et pelvienne par exemple) et de le diminuer automatiquement au cours de la même acquisition lors de l'exposition de structures moins atténuantes comme le parenchyme pulmonaire.
Mode séquentiel
Ce mode d'acquisition était le seul utilisé sur les scanners des générations précédentes. La table étant immobile, le couple tube-détecteur effectue une rotation autour du patient et génère autant de coupes que de « barrettes ». À l'arrêt de la rotation, la table se déplace de manière à présenter au flux de rayons X la suite du volume à explorer. Un « tir » de rayons X est donc effectué autour du patient à chaque palier d'avancée de table (mode « step and shoot »).
Ce principe reste appliqué en imagerie cardiaque, en radiologie interventionnelle scanoguidée et en angioscanographie pour surveiller l'arrivée du bolus de produit de contraste dans les vaisseaux et déclencher l'acquisition au temps artériel approprié.
Mode hélicoïdal
Ce mode d'acquisition a presque complètement remplacé le mode séquentiel et constitue le mode habituel d'un scanner contemporain. La table d'examen effectue une translation à vitesse continue au centre du rotor, de sorte que le couple tube-détecteur décrit une hélice autour de l'axe craniocaudal du patient (figure 4.1). La vitesse d'avancée de table est déterminée lors de la programmation et dépend de la région anatomique explorée. Le terme de « scanner spiralé » est parfois employé, bien que la trajectoire décrite autour du patient ne soit pas une spirale mais bien une hélice.
De nos jours, une acquisition thoraco-abdomino-pelvienne peut être réalisée en une seconde sur quelques appareils récents (vitesse d'avancée de table de plus de 70 cm/s), permettant, entre autres, de diminuer les quantités de produit de contraste iodé injectées pour l'exploration d'une aorte complète et de limiter les artefacts induits par les mouvements du patient (mouvements respiratoires du patient confus ou dyspnéique, battements cardiaques). Cette accélération conséquente permet également la réalisation d'une étude multiphasique consistant en la répétition des acquisitions après injection de produit de contraste (voir plus loin « Produits de contraste ») avec en corollaire l'augmentation inévitable de la dose d'exposition délivrée au patient.
Densité
La densité « radiologique » a été définie par G. Hounsfield. Parfois appelée « densité » par abus de langage, elle n'a rien à voir avec la grandeur physique que représente le rapport de la masse volumique d'un corps à celle de l'eau pure.
La capacité d'un milieu à atténuer les photons X est représentée par son coefficient d'atténuation linéique (μ, ou coefficient linéaire d'atténuation, dont l'unité est l'inverse d'une longueur). Ce coefficient ne dépend pas de la quantité de photons l'abordant mais de leur énergie. Une définition plus simple et indépendante de l'énergie des rayons X est proposée : comme pour la densité physique, c'est l'eau pure qui a été retenue comme référence et tous les tissus ou éléments susceptibles d'être rencontrés dans l'organisme sont situés sur l'échelle dite « de Hounsfield », s'étalant initialement de –1000 à + 1000 Unités Hounsfield (UH) définie par :
Densite Hounsfield = 1000 x (µ - µH2O) / µH2O
(où μ est le coefficient d'atténuation linéique du volume étudié, et μH2O celui de l'eau pure).
Le coefficient d'atténuation de l'air étant très proche de zéro (qui est le coefficient du vide), l'atténuation des photons X dans les épaisseurs d'air, séparant le patient du tube radiogène d'une part, et du capteur d'autre part, est considérée comme nulle et la densité Hounsfield d'un tissu ne dépend ni de la largeur de l'anneau du rotor, ni de la corpulence du patient. On en déduit par ailleurs que l'air présente une densité radiologique de –1000 UH ; il s'agit de la limite inférieure de l'échelle de Hounsfield. Les structures moins denses que l'eau (air, graisse) présentent une densité Hounsfield négative.
En revanche, la limite supérieure de l'échelle de Hounsfield, qui avait initialement été fixée de façon symétrique mais arbitraire à + 1000 UH, a été repoussée en fonction des capacités matérielles à discriminer d'importantes atténuations. Ainsi, l'os très dense (comme le rocher) ou les prothèses métalliques peuvent présenter, vu leur coefficient d'atténuation, des densités bien supérieures à 1000 UH (si μ > 2 × μH2O). La répartition des densités rencontrées dans le corps humain est représentée dans la figure 4.2.
La description des images TDM et leur interprétation feront donc référence à des structures hypodenses, isodenses ou hyperdenses (par rapport à la structure normale) et à des éléments de densités aérique, graisseuse, hydrique, osseuse, etc. Les termes de « tonalité » ou d'« opacité » sont à réserver à la radiographie conventionnelle, tandis que ceux de « signal » ou d'« intensité » sont propres à l'IRM.
Traitement des images en TDM
Les images natives sont les coupes axiales obtenues lors de l'acquisition et reconstruites par rétroprojection filtrée ou par itérations à partir des données brutes.
Le traitement des images désigne l'ensemble des applications effectuées à partir des images natives afin d'en tirer davantage d'informations, aboutissant à la formation d'images dites « reconstruites ». Ces reconstructions ne dispensent pas de l'analyse des images natives qui restituent plus fidèlement l'information contenue dans les données brutes (voir chapitre 10).
Filtres
La reconstruction des données brutes en images s'accompagne de l'application de filtres numériques. Ceux-ci vont intensifier sélectivement certaines données, dans le but notamment de mieux définir les contours au prix d'une augmentation du bruit (voir chapitre 2) dans l'image (filtre « dur ») ou, au contraire, de privilégier le contraste en acceptant d'induire une part de flou dans les contours (filtre « mou »). Le rapport signal/bruit (S/B, en anglais S/N) rend compte de cet effet : un filtre mou améliore le rapport S/B aux dépens de la résolution spatiale, et inversement pour un filtre dur (figure 4.3, figure 4.4). Il existe donc différents types de filtres selon les structures anatomiques que l'on souhaite étudier ; on peut reconstruire plusieurs jeux d'images successifs à partir des mêmes données brutes en leur appliquant le filtre souhaité. Une seule acquisition est effectuée pour reconstruire par exemple des images thoraciques en filtre mou dit « médiastinal » ou en filtre dur dit « parenchymateux pulmonaire »).
Un autre exemple est l'utilisation d'un filtre dur pour étudier l'os. En effet, bien que le contraste naturel entre les tissus mous et l'os ne nécessite pas d'être amplifié, dans l'os lui-même, les anomalies recherchées (fin trait de fracture par exemple) nécessitent un filtre dur pour une délimitation très nette des contours sur des coupes très fines. À l'inverse, un filtre parenchymateux cérébral est mou car l'étude TDM du parenchyme cérébral va s'attacher à rechercher, sur des coupes volontiers épaisses, des faibles différences de densité et non de très fines anomalies structurelles (voir figure 4.4).
Fenêtrage
À chaque pixel, structure élémentaire de l'image, est attribuée une valeur numérique proportionnelle à la densité moyenne qu'il représente et apparaît en nuances de gris. Sur un écran, plusieurs centaines de niveaux de gris sont représentées alors que l'œil humain ne peut en discerner qu'entre 20 et 30. Il est donc nécessaire de compenser les limites imposées par notre physiologie par un artifice numérique nommé « fenêtrage ».
L'ensemble des pixels d'une image peut être réparti sur un histogramme présentant en abscisse les valeurs numériques que peuvent prendre les pixels (216 valeurs de 0 à 65 535 pour une image codée sur 2 octets) et en ordonnée le nombre de pixels présentant cette valeur. Afin de représenter sous forme d'image ces valeurs numériques, on attribue à l'histogramme une table de correspondance (look-up table [LUT]) qui affecte un gradient de niveaux de gris à l'abscisse, de son origine à sa valeur maximale ; elle fait donc correspondre des niveaux de gris à l'écran avec la valeur numérique du pixel. Par convention, la LUT utilisée en TDM va du noir au blanc de sorte que les pixels présentant de faibles valeurs apparaissent plus sombres, et inversement (voir chapitre 11).
En diminuant la largeur d'abscisse le long de laquelle la LUT s'étend, tous les pixels présentant une valeur au-delà des bornes inférieure ou supérieure de la LUT apparaissent respectivement noirs ou blancs. Aux pixels situés entre ces bornes, une nouvelle nuance de gris est attribuée, permettant à l'œil de discriminer davantage de valeurs et donc de densités, tandis que l'information située hors de cet intervalle est volontairement masquée. Le terme de « fenêtre » désigne la largeur de la LUT. Une fenêtre large permettra d'afficher une vaste palette des densités explorées, quitte à ne pas en percevoir toutes les nuances, tandis qu'une fenêtre plus étroite n'affichera qu'un échantillon des densités explorées mais en permet une meilleure discrimination. Ainsi, la largeur de la fenêtre définit le contraste de l'image restituée.
Une fois la largeur de fenêtre fixée, il est également possible d'en définir le centre (appelé aussi niveau) le long de l'axe des abscisses. Une fenêtre centrée sur les valeurs les plus faibles sera propice à l'étude détaillée des structures les moins denses, et inversement. La modification du centre de la fenêtre permet donc de modifier la luminosité de l'image.
Le fenêtrage désigne le réglage de la largeur et du centre de la fenêtre pour optimiser l'étude d'une région donnée (voir figure 4.2).
Les notions de fenêtre et de filtre sont à bien distinguer (voir figures 4.3 et 4.4) : le filtre permet la reconstruction des images à partir des données brutes en accentuant certaines informations (contours ou contraste), tandis que la fenêtre permet de modifier l'affichage des images reconstruites selon un filtre donné. Ainsi, une acquisition thoracique reconstruite en filtre dur pourra être affichée en fenêtre dite « parenchymateuse », relativement large et centrée sur les très faibles densités aériques, tandis que le cadre osseux apparaîtra très « blanc » et de façon homogène ; les mêmes images en filtre dur peuvent également être affichées en fenêtre dite « osseuse », cette fois-ci centrée sur les hautes densités afin de pouvoir distinguer l'os cortical des trabéculations, tandis que le parenchyme pulmonaire apparaîtra uniformément « noir ». En revanche, l'analyse du médiastin et des vaisseaux nécessitera des images reconstruites selon un filtre mou afin de limiter le bruit dans l'image et affichées avec une fenêtre dédiée à l'étude des parties molles (plus étroite et centrée sur les densités hydriques).
Mesures
La reconstruction des images sur la matrice se fait selon les lois de la géométrie (symétrie centrale, projections, rotations, agrandissements), de sorte qu'il est possible de calculer et d'afficher des paramètres géométriques. En effet, il est possible d'effectuer diverses mesures, par l'intermédiaire d'outils graphiques, sur les images affichées : longueurs (rectilignes ou non), aires, angles, volumes. Par ailleurs, il est possible de mesurer en UH la densité d'une région dite « région d'intérêt » (region of interest [ROI]) afin de caractériser un tissu ou d'en quantifier le rehaussement après injection de produit de contraste.
Reconstructions de données volumiques
Du fait des dimensions inframillimétriques des récepteurs actuels, regroupés en barrettes couvrant de larges hauteurs, l'empilement des coupes permet l'obtention de véritables volumes d'acquisitions. Le passage d'un objet bidimensionnel à un niveau tridimensionnel implique de redéfinir l'unité élémentaire qu'est le pixel ; on lui ajoute une dimension qui ne correspond plus à un carré mais à un cube appelé « voxel » (volume element).
Il est alors possible de reconstruire une coupe du volume selon n'importe quel plan de l'espace : il s'agit des reconstructions multiplanaires (multiplanar reconstruction ou multiplanar reformating [MPR]) (figure 4.5). Ces reconstructions multiplanaires peuvent également permettre de suivre la trajectoire d'une structure (un vaisseau par exemple) afin de la dérouler et ainsi de permettre la visualisation d'une structure curviligne sur une seule image (MPR curviligne). D'autres modes de reconstructions sont disponibles : sommation dans l'épaisseur des structures les plus denses (maximal intensity projection [MIP]), sommation dans l'épaisseur des structures les moins denses (minimal intensity projection [MinIP]), reconstruction du volume, en affectant une texture, un jeu de lumière et une couleur à chaque structure reconstruite (rendu surfacique, surface rendering, mode SR, ou rendu volumique, volume rendering, mode VR) (voir chapitre 10).
Traitements spécifiques
Ces applications sont dérivées des reconstructions sur les acquisitions volumiques : endoscopie digestive ou bronchique virtuelle permettant de naviguer dans les organes creux pour rechercher des structures bourgeonnantes, détection automatisée de lésions pulmonaires ou hépatiques (par exemple computer-aided diagnosis [CAD]), reconstruction de volumes aux différents temps du cycle cardiaque, et calcul des volumes et fonctions ventriculaires, étude dynamique de la perfusion d'un organe avec établissement de courbes de rehaussement, permettant notamment la caractérisation tissulaire, cartographie de la répartition du produit de contraste iodé injecté, fusion avec d'autres modalités d'examens d'imagerie.
Principaux artefacts
Il existe de nombreux types d'artefacts en TDM : de mouvement, métalliques, de volume partiel, de durcissement, d'hélice, en cible. Les plus caractéristiques et les plus fréquents sont abordés ici.
Artefacts de mouvement
Même si l'acquisition est rapide, elle n'est pas instantanée, et donc il est nécessaire que le sujet demeure immobile de manière à ne pas produire de flou sur les images. En TDM, l'artefact de mouvement se manifeste sous la forme d'un dédoublement des contours en mouvement. La coopération du patient est donc nécessaire pour l'exploration TDM, afin d'obtenir de lui qu'il n'effectue aucun mouvement. Cela implique généralement une apnée d'une dizaine de secondes pour les explorations thoraciques ou abdominopelviennes. L'immobilité peut néanmoins être difficile à obtenir selon le terrain : patient confus ou agité, enfant non coopérant, dyspnée sévère, patient algique, etc. Une sédation ou une contention physique, voire une anesthésie générale peuvent se révéler nécessaires. La pulsatilité des artères, le péristaltisme digestif ou les battements cardiaques restent incontrôlables. Au niveau de la racine de l'aorte, cela peut entraîner de fausses images de dédoublement des contours de la racine aortique pouvant en imposer à tort pour une dissection aortique. On peut l'éviter en utilisant une synchronisation de l'acquisition TDM à l'électrocardiographie (ECG) et en utilisant un module de reconstruction des images dédié à l'exploration cardiaque et vasculaire, au prix d'une irradiation plus importante (figures 4.6 et 4.7).
Artefacts métalliques
On parle d'artefact métallique lorsque le phénomène de durcissement du faisceau est provoqué par l'interaction du faisceau de rayons X avec un corps étranger métallique, produisant des artefacts en bandes caractéristiques, souvent plus marqués que lorsqu'ils sont produits par des structures osseuses denses. Ces corps étrangers sont le plus souvent des implants dentaires ou des prothèses orthopédiques (figures 4.8 et 4.9).
Effet de volume partiel
Il ne s'agit pas à proprement parler d'un artefact mais plutôt d'une limite de l'imagerie tomodensitométrique. Le principe est que plusieurs entités de densités différentes sont codées au sein d'un seul voxel. Le signal résultant est une moyenne du signal de l'ensemble des entités pondérées par leur volume relatif au sein du voxel. Alors, le signal obtenu ne correspond plus à une structure en particulier. Ce phénomène est d'autant plus fréquent que les coupes sont plus épaisses et l'objet plus petit. L'analyse multiplanaire permet souvent de confirmer l'effet de volume partiel suspecté.
Produits de contraste
Principes
Le contraste naturel entre les tissus de certaines régions anatomiques étant limité (abdomen par exemple), le recours à des produits de contraste est souvent nécessaire en TDM. L'augmentation du contraste est due à la présence d'atomes à numéro atomique élevé (Z = 53 pour l'iode, Z = 56 pour le baryum) qui augmentent l'absorption des photons X.
L'iode en lui-même est toxique du fait de son interaction avec la thyroïde et est donc intégré dans une enveloppe moléculaire cyclique (benzènes) rendue hydrophile afin d'empêcher sa métabolisation. Il existe plusieurs spécialités de produits de contraste iodés distribuées par différents laboratoires pharmaceutiques, chacune correspondant à une enveloppe benzénique différente. Ces différentes spécialités sont souvent disponibles en plusieurs concentrations différentes (jusqu'à 400 mg/L d'iodure). Les produits de contraste sont des médicaments sur liste I (uniquement délivrés sur prescription médicale).
Les modalités d'administration des produits de contraste iodés sont multiples. Bien que la voie intraveineuse soit largement la plus utilisée en TDM, il est également possible, entre autres, de faire ingérer le produit de contraste, de l'injecter en intrathécal (pour les recherches de fistule ostéodurale par cisternoscanner) ou de l'injecter directement au sein d'une cavité par ponction directe, ou par l'intermédiaire d'un drain ou d'une sonde.
Comme pour tout médicament, la prescription des produits de contraste impose la recherche préalable de contre-indications. En cas d'urgence, l'indication prime généralement sur la contre-indication, sous réserve de la mise en œuvre des moyens permettant la prise en charge des éventuelles complications (dialyse ou prise en charge d'une réaction allergique).
On notera, parmi les évolutions technologiques, l'utilisation actuellement du scanner spectral qui permet de décomposer le rayon X en différentes énergies. Ainsi, en fonction de l'énergie (keV), il est possible de distinguer les structures osseuses et calciques, les vaisseaux, les tissus mous en réduisant l'utilisation de produit de contraste iodé.
Effets indésirables, contre-indications et interactions
Des fiches pratiques de recommandation ont été rédigées par le Comité interdisciplinaire de recherche et de travail sur les agents de contraste en imagerie (CIRTACI), à destination des radiologues et des médecins prescripteurs. Ces fiches sont disponibles sur le site de la Société française de radiologie (SFR) [1]. Les effets négatifs liés à l'injection intravasculaire de produits de contraste iodés sont fréquents, certains d'entre eux étant parfaitement bénins.
Réactions non allergiques
Réaction physiologique à l'injection de produit de contraste
L'injection du produit de contraste augmente l'osmolalité plasmatique, ce qui provoque un appel d'eau depuis les cellules endothéliales et une vasodilatation diffuse. L'effet ressenti est celui d'une bouffée de chaleur diffuse, sans caractère pathologique, et dont on prévient systématiquement le patient afin qu'il ne s'inquiète pas inutilement au moment de l'injection. Les autres signes souvent ressentis au cours de l'injection sont un goût métallique et une fausse sensation de miction.
Réaction d'hypersensibilité immédiate non immunoglobulines E (IgE)-dépendante
L'injection peut par ailleurs provoquer une dégranulation des polynucléaires basophiles, la libération d'histamine provoquant alors des démangeaisons, voire une urticaire et, éventuellement, nausées et vomissements. Cette hypersensibilité immédiate non IgE dépendante (histaminolibération non spécifique) n'est pas de type allergique et est considérée comme mineure. Elle est plus fréquente à débit d'injection élevé et si le produit de contraste a une concentration élevée. Certains patients sont davantage sujets à ce type de réactions non allergiques, notamment les patients présentant un terrain atopique ou les patients asthmatiques (aggravation des symptômes respiratoires). Cette réaction ne contre-indique pas l'injection ultérieure de produit de contraste mais justifie une surveillance au décours de l'examen afin de ne pas méconnaître une réaction allergique vraie. Une préparation par antihistaminiques H1 est efficace dans ce cas.
Réactions allergiques : réactions d'hypersensibilité immédiate allergique
Il s'agit alors de réactions d'hypersensibilité immédiate IgE-dépendantes, impliquant une reconnaissance spécifique des molécules du produit de contraste par des IgE spécifiques produites lors d'une première phase de sensibilisation. Cette reconnaissance immunologique spécifique entraîne une activation des mastocytes et des polynucléaires basophiles provoquant une réaction allergique vraie de sévérité variable, habituellement dans les premières minutes suivant l'injection. Les réactions allergiques ont été décrites et classées en fonction de leur sévérité par Ring et Messmer et sont présentées dans le tableau 4.1 [2].
Tableau 4.1
Classification de Ring et Messmer des réactions allergiques [2]
Grade |
Symptômes |
Signes cutanéomuqueux Érythème, urticaire avec ou sans angio-œdème |
|
II |
Atteinte multiviscérale modérée Cardiovasculaire : hypotension, tachycardie Respiratoire : toux, dyspnée Gastro-intestinal : nausées, vomissements Téguments : érythème, urticaire, angio-œdème |
III |
Choc anaphylactique, défaillance mono-/multiviscérale sévère Cardiovasculaire : état de choc, tachycardie, voire bradycardie, troubles du rythme Respiratoire : bronchospasme, détresse respiratoire Gastro-intestinal : douleurs abdominales Téguments : apparition parfois retardée, après restauration hémodynamique |
IV |
Arrêt cardiorespiratoire |
Il est donc recommandé d'adresser le patient à une consultation d'allergologie en cas de réaction consécutive à l'injection de produit de contraste iodé. Tout produit de contraste engendrant une réaction positive aux tests cutanés devra être contre-indiqué, mais pourra être substitué par une autre spécialité de produit de contraste (absence de réactions croisées).
Il est important de rappeler que les réactions allergiques vraies ne sont pas provoquées par l'atome d'iode (déjà présent dans la thyroïde) : l'allergie à l'iode n'existe pas ! Par conséquent, il ne faut pas contre-indiquer l'injection de produit de contraste chez un patient prétendument « allergique » aux produits de la mer ou à la polyvidone iodée (Bétadine®) qui n'ont aucune communauté antigénique avec les produits de contraste iodés. L'allergie est liée aux molécules associées à l'iode, qui varient d'un produit à l'autre.
D'ailleurs, il n'existe pas de réaction allergique croisée entre les différents produits de contraste iodés disponibles sur le marché. Lors des tests allergologiques suivant une réaction d'hypersensibilité aux produits de contraste, différentes spécialités sont testées, même si la probabilité d'être authentiquement allergique à deux spécialités différentes est très faible. Une fois la spécialité responsable identifiée, il n'existe pas de contre-indication fondée à utiliser une autre spécialité iodée (d'autant qu'elle aura en général également été évaluée lors des tests allergologiques).
Néphrotoxicité et insuffisance rénale
Les produits de contraste iodés sont éliminés par filtration rénale. Ils peuvent induire une néphropathie au produit de contraste définie par une élévation de plus de 30 % de la créatininémie de base ou par une oligurie survenant dans les 72 heures suivant l'injection. Le dosage de la créatininémie est donc indispensable avant toute injection intraveineuse de produit de contraste iodé.
Les patients présentant un débit de filtration glomérulaire (DFG) inférieur à 60 mL/min/1,73 m², une néphropathie diabétique, un myélome avec protéinurie, un traitement néphrotoxique (anti-inflammatoires non stéroïdiens [AINS], sels de platine, etc.) ou un âge supérieur à 65 ans sont davantage susceptibles de développer une néphropathie induite par les produits de contraste et représentent une population à risque.
En cas d'insuffisance rénale sévère (DFG < 30 mL/min/ 1,73 m²), l'injection de produit de contraste est en principe contre-indiquée. La prescription, en particulier dans la population à risque décrite plus haut, devra être réfléchie et une méthode d'exploration alternative (échographie, IRM) sera privilégiée lorsque cela sera possible. Si l'injection est malgré tout nécessaire, certaines précautions devront être mises en place : injection réalisée si possible à 7 jours d'intervalle de l'administration d'un autre médicament néphrotoxique (AINS, cure de chimiothérapie) et délai d'au moins 3 à 5 jours entre deux injections de produit de contraste iodé.
En cas d'insuffisance rénale modérée, des mesures de néphroprotection seront nécessaires : hydratation suffisante encadrant l'injection (2 litres per os entre les 24 heures précédant et les 24 heures suivant l'injection), de préférence par une eau riche en sodium et en bicarbonate.
Les antécédents de transplantation rénale doivent faire considérer le patient comme insuffisant rénal sévère (contre-indication) tandis que l'hémodialyse ne justifie pas de précaution particulière.
La metformine est une molécule à élimination rénale favorisant le métabolisme anaérobie et la production d'acide lactique. Les patients diabétiques de type II sous metformine devront interrompre leur traitement après l'injection de produit de contraste. Si une néphropathie induite par les produits de contraste survient (la néphropathie diabétique étant l'un des facteurs de risque), la metformine n'est plus éliminée et s'accumule dans l'organisme au fil des prises du traitement. Il en résulte une dangereuse acidose lactique, qui peut être prévenue par la suspension systématique du traitement après injection de produit de contraste. La réintroduction de la metformine est autorisée après contrôle de la créatininémie à 48 heures. Il n'est en revanche plus recommandé d'interrompre la metformine en amont de l'examen [1].
Perturbation du métabolisme thyroïdien
Malgré l'incorporation de l'iode à des molécules benzéniques, des iodures libres sont susceptibles d'être captés par la thyroïde et d'induire une hyper- ou une hypothyroïdie. Cela est plus fréquent chez le nouveau-né et chez les patients présentant une affection thyroïdienne (hyperthyroïdie non équilibrée).
Une hyperthyroïdie non contrôlée, d'autant que le patient est âgé ou souffre d'une maladie cardiaque, contre-indique l'injection de produit de contraste iodé du fait du risque de cardiothyréose induite. Les patients souffrant d'hyperthyroïdie mais suivant un traitement par antithyroïdiens ne relèvent en revanche d'aucune précaution spécifique.
L'administration de produits de contraste iodés peut enfin perturber le métabolisme d'autres agents pharmacologiques. L'iode libre dans le produit de contraste iodé est capté par la thyroïde qu'il sature, empêchant ainsi par compétition la fixation de l'iode 123 ou de l'iode 131. Ainsi, lorsqu'une scintigraphie thyroïdienne ou qu'un traitement par iode radioactif sont nécessaires, ils doivent être réalisés avant une TDM avec injection de produit de contraste iodé et non après.
Grossesse
Aucune étude animale ne met en évidence d'effet tératogène des produits de contraste iodés. Néanmoins, comme souvent lorsqu'il s'agit de ce terrain spécifique, le principe de précaution est de mise (et se surajoute aux problèmes liés à la radioprotection chez la femme enceinte exposés plus loin). Autant que possible, la réalisation des examens sera reportée après l'accouchement. Cependant, si l'examen est urgent et ne peut pas être reporté, la patiente, le demandeur et l'équipe d'obstétrique s'accordent sur la réalisation de l'examen et doivent être informés de l'injection nécessaire de produit de contraste iodé ainsi que du risque théorique d'hypothyroïdie néonatale.
Acquisition multiphase
L'injection de produit de contraste s'effectue habituellement sur une voie veineuse périphérique posée au membre supérieur. Le produit est administré le plus souvent à l'aide d'une seringue automatique permettant de délivrer un volume et un débit prédéfinis, sur une durée par conséquent aisée à calculer. Le bolus de contraste suit le sens physiologique de la circulation sanguine : le produit transite par les veines du membre supérieur pour rejoindre la veine cave supérieure se drainant dans l'atrium droit. Le contraste arrive ensuite dans le ventricule droit et opacifie les artères pulmonaires puis les veines pulmonaires avant de revenir à l'atrium gauche et au ventricule gauche. Le contraste est alors éjecté au sein de l'aorte, puis se distribue à tous les organes par le biais des branches artérielles partant de l'aorte. Après le rehaussement parenchymateux qui nécessite un délai variable d'un organe à l'autre, le retour veineux s'effectue par les veines systémiques et le réseau porto-mésentérique, et se collecte finalement dans les systèmes caves supérieur et inférieur. L'élimination est principalement rénale et a minima biliaire (part majorée en cas d'insuffisance rénale).
En fonction du délai fixé pour le déclenchement de l'acquisition, l'exploration pourra s'effectuer à différents moments de la chronologie (figure 4.10 et 4.11). Les différents temps sont détaillés dans le tableau 4.2. Les acquisitions peuvent être répétées à différents délais après le début d'une seule injection afin d'obtenir plusieurs « temps » ou phases sans recourir à des injections itératives. Le choix des phases et de leur nombre relève de la responsabilité et de la décision du radiologue, et est guidé par l'indication pour laquelle le patient a été adressé. Même s'il n'y a pas de nouvelle injection de produit de contraste, chaque phase supplémentaire s'accompagne d'une nouvelle acquisition et donc d'une augmentation de la dose délivrée au patient.
Tableau 4.2
Les différents temps de l'injection en TDM
Temps |
Délai* |
Opacification |
Exemples |
Phlébographique |
10 à 15 s |
Réseau veineux du membre injecté |
Perméabilité veineuse |
Artériel pulmonaire |
20 à 25 s |
Artères pulmonaires |
Embolie pulmonaire |
Artériel |
30 à 35 s |
Artères systémiques |
Dissection aortique Carcinome hépatocellulaire |
Cortical |
40 s |
Cortex rénal |
Carcinome rénal |
Portal |
80 à 90 s |
Organes pleins (parenchymographie) Réseau porto-mésentérique |
Lésions secondaires Étude de wash-out |
Tubulaire |
90 à 100 s |
Néphrographie |
Abcès rénal |
Tardif |
> 3 min |
Organes pleins Fibrose |
Etude de wash-out Infarctus du myocarde |
« Excréteur » |
7 min 30 s |
Voies urinaires excrétrices |
Lésion urothéliale |
* Les délais sont définis à partir du début de l'injection de produit de contraste. Les valeurs sont données à titre indicatif et peuvent varier, notamment en fonction de l'indication, des habitudes du radiologue, du débit et de la concentration de produit de contraste, de l'état hémodynamique du patient et de son âge, du site d'injection et du type de machine TDM utilisée.
Lorsque l'objectif est d'obtenir une opacification optimale du réseau artériel, il est courant d'utiliser une technique de suivi du bolus. Il s'agit de la répétition d'une coupe en mode séquentiel à un niveau anatomique donné, de manière à suivre en temps réel l'opacification progressive d'une artère. L'acquisition est déclenchée lorsque la densité au sein de l'artère sélectionnée franchit un seuil de densité Hounsfield prédéfini.
Radioprotection en TDM
Devant le nombre croissant d'examens TDM, le respect des principes de radioprotection détaillés dans le chapitre 6 est fondamental.
Le recours aux explorations utilisant des rayonnements ionisants doit répondre au principe as low as reasonably achievable (ALARA) que l'on peut traduire littéralement par « aussi faible que raisonnablement possible ». En d'autres termes, lorsque le recours à la TDM est nécessaire et justifié, l'examen doit délivrer la dose la plus faible possible permettant de répondre à la question posée. La limitation du nombre de zones anatomiques explorées, la réduction du nombre d'acquisitions à différents temps après une injection de produit de contraste et l'adaptation des paramètres d'acquisition permettent de limiter la dose délivrée. Ces principes s'appliquent avec d'autant plus d'attention chez la femme enceinte et chez l'enfant (voir chapitre 31). La mention de cette dose délivrée au patient sur le compte-rendu de scanner est une obligation médico-légale.
Indications cliniques
Les principales indications de la TDM sont détaillées dans les chapitres suivants, mais on notera en particulier :
- l'exploration du corps entier (crâne au pelvis en général) en urgence des patients polytraumatisés ;
- l'exploration cérébrale : même si l'IRM est à privilégier le plus souvent, sa disponibilité plus faible et la nécessité d'une parfaite immobilité en IRM laissent une place importante à la TDM ;
- l'étude du parenchyme pulmonaire et plus globalement du thorax ;
- l'exploration de l'abdomen, souvent couplée à celle du pelvis ;
- l'exploration du squelette (souvent localisée à une zone d'intérêt) ;
- l'exploration du réseau vasculaire ;
- la radiologie interventionnelle guidée par TDM : de multiples acquisitions centrées sur la zone d'intérêt sont alors réalisées au cours d'un geste diagnostique (biopsie, etc.) ou thérapeutique (infiltration, drainage, destruction de tumeur) par voie percutanée.
Conclusion
Les progrès technologiques de la TDM permettent de réaliser en routine des acquisitions de volumes importants en quelques secondes reconstruits en coupes inframillimétriques. La diffusion de cette technique la rend facilement disponible, en particulier dans le cadre de l'urgence.
Néanmoins, son accès aisé tend à accroître le nombre d'examens avec un impact non seulement économique participant à l'augmentation des dépenses de santé (voir chapitre 14), mais également en termes dosimétriques (environ trois quarts de la dose effective annuelle sont délivrés à la population par les 10 % des examens d'imagerie médicale que représente la TDM – voir chapitre 6). La demande d'examens complémentaires doit donc toujours être guidée par l'examen clinique, une exploration en imagerie ne devant en principe pas être effectuée avant une évaluation clinique.
L'examen TDM nécessitant fréquemment une injection de produit de contraste iodé, la recherche de contre-indications lors de la prescription et celle de complications après la réalisation de l'examen doivent être systématiques.
Essentiel à retenir
- Modalité d'imagerie en coupes : multiples projections angulaires autour du patient ; reconstructions informatiques (imagerie numérique) ; acquisitions volumiques : post-traitement de l'image (reconstruction MPR par exemple).
- Utilisation de rayons X : interaction avec le milieu traversé selon les densités rencontrées ; terrains particuliers : grossesse, pédiatrie.
- Examen accessible et rapide : apnée souvent nécessaire, coopération du patient nécessaire ; exploration multiphasique en quelques minutes (quelques secondes par acquisition) ; modalité d'imagerie de choix en situation urgente ;
- Prescription médicale par le radiologue indispensable : guidée par l'examen clinique (cibler la recherche, question précise) ; contre-indications : produits de contraste, grossesse ; complications liées à l'injection : allergie, dysthyroïdie, néphrotoxicité ; aide pour la demande des examens d'imagerie : Guide du bon usage (http://gbu.radiologie.fr/).
Références
- Comité interdisciplinaire de recherche et de travail sur les agents de contraste en imagerie (CIRTACI), pour la SFR. Fiches pratiques pour l'utilisation des produits de contraste [Internet], 2004. www.sfrnet.org http://www.sfrnet.org/sfr/societe/5-groupes-de-travail/qualite-securite-gestion-des-risques/agents-de-contraste-cirtaci/index.phtml.
- Ring J, Messmer K. Incidence and severity of anaphylactoid reactions to colloid volume substitutes. Lancet 1977 ;1:466–9.
Chapitre suivant | |
Retour au sommaire |
Les fondamentaux - Chapitre 3 - Radiographie
P.A. Gondim Teixeira et G. Grimon
Plan du chapitre
- Introduction
- Principes fondamentaux
- Détection des rayons X transmis, fabrication de l'image radiographique
- Représentation des images
- Artefacts et distorsion de l'image
- Indications et limites
- Conclusion
Objectifs
- Connaître les principes physiques des radiographies standard.
- Connaître la base de la formation de l'image radiographique.
- Connaître les principales indications et les limites de la radiographie par projection.
Introduction
Les radiographies sont réalisées grâce aux rayons X qui sont des photons, particules associées au rayonnement électromagnétique, au même titre que la lumière visible, l'ultraviolet (UV), l'infrarouge, les ondes radio, les micro-ondes ou les rayons γ.
Sans revenir sur la dualité onde-corpuscule, le photon peut être décrit comme une onde électromagnétique, où un champ électrique est couplé à un champ magnétique qui lui est orthogonal, oscillant à la même fréquence, s'engendrant mutuellement et se propageant dans le vide avec une célérité (c) = 3.108 m/s.
Le faisceau de rayons X peut traverser ou interagir avec les différents tissus traversés en fonction de ses propres caractéristiques et de celles du tissu exposé : une fraction du faisceau est arrêtée ou déviée par le tissu (on dit que le faisceau est atténué). Il existe quatre contrastes naturels en imagerie radiologique standard : l'air, la graisse, l'eau et l'os. Des agents de contraste artificiels peuvent également être introduits.
Dans ce chapitre seront présentés les principes de base de la radiographie par projection, la formation de l'image et ses artefacts. Les indications les plus courantes et les limites de la radiographie standard seront ensuite abordées.
Principes fondamentaux
Les radiographies sont réalisées à l'aide d'un appareil à rayons X. Le principe général, en simplifiant à l'extrême, revient à celui des ombres chinoises où une source lumineuse éclaire un objet qui atténue les photons visibles et crée une ombre qui est projetée sur un écran. En réalité, l'atténuation des photons X par les tissus explorés n'est pas en tout ou rien, et on pourrait plutôt prendre l'analogie d'une bobine de cinéma qui atténue plus ou moins la lumière blanche qui la traverse, l'image ainsi formée étant projetée sur un écran récepteur. Ces simplifications permettent de comprendre que l'image finale résulte des propriétés successives de la source de photons, des caractéristiques de la lumière émise, des interactions à l'intérieur de la cible traversée, du type et des propriétés du récepteur, mais aussi des conditions géométriques de l'ensemble.
Présentation de la chaîne de détection
Les composants principaux d'un système d'imagerie utilisant les rayons X sont illustrés sur la figure 3.1.
Le tube à rayons X (tube de Coolidge, encore appelé tube à anode tournante) crée le faisceau de rayons X (figure 3.2). Le principe est le suivant : un faisceau d'électrons est fortement accéléré vers une anode de tungstène. Ces électrons devenus très énergétiques interagissent avec la cible (tant avec ses électrons qu'avec les noyaux), et perdent leur énergie dont une partie est transformée en rayons X. Ce faisceau X émis peut être modulé ensuite par différentes collimations et différents filtrages en sortie de tube.
Le faisceau de rayons X traverse d'abord l'air sans modification, puis l'objet étudié (en général le patient, mais ce peut être aussi une pièce anatomique, ou une mire par exemple). Le faisceau y est atténué différemment selon les différentes densités des tissus ; on peut aussi modifier cette atténuation en introduisant des produits de Z élevé dits « de contraste ».
L'effet photoélectrique est responsable de l'atténuation du faisceau incident et de la qualité de l'image radiologique, mais un autre effet, l'effet Compton, intervient également et contribue à la dégradation de cette image. Après avoir traversé le patient, le faisceau atténué constitue l'« image radiante ». Ce faisceau est ensuite capté par un détecteur qui fournit l'image finale. Ces différentes étapes sont détaillées ci-dessous.
Production des rayons X
Première étape : créer un faisceau d'électrons dans une ampoule sous vide
Comme dans le filament « historique » de la lampe à incandescence, un courant électrique très précisément régulé en intensité provoque l'échauffement d'un filament (cathode, généralement en tungstène pour des raisons de solidité à haute température). La chaleur provoque une agitation des électrons, dont une proportion acquiert une énergie suffisante pour être éjectée du filament. L'ordre de grandeur du courant d'électrons émis est de 10 à 20 % de celui du courant de chauffe.
Faisceau d'électrons fortement accélérés vers l'anode génératrice des rayons X
Une tension élevée (40 000 à 150 000 volts, soit 40 à 150 kilovolts [kV]) et parfaitement régulée entre le filament cathodique (négatif) et l'anode (positive) accélère les électrons issus du filament vers l'anode. Les caractéristiques essentielles de ce faisceau d'électrons sont :
- son intensité en milliampères (mA) (proportionnelle au courant utilisé pour chauffer le filament) et sa durée (en secondes) : le produit (en mA· s) détermine le nombre d'électrons, donc à une charge totale qu'on pourrait théoriquement exprimer en millicoulombs (mC) ;
- son énergie cinétique (Ec) en kilo-électron-volts (keV) : l'électron acquiert une énergie correspondant à la tension d'accélération (par exemple 150 keV pour une tension d'accélération de 150 kV).
Ces caractéristiques influencent fortement les images radiologiques.
Interactions sur l'anode du tube
Les électrons percutent l'anode au niveau d'une zone appelée foyer. L'anode est un bloc métallique, généralement en tungstène. L'électron incident étant une particule chargée, il interagit de manière « obligatoire » à distance, sans nécessité d'un réel « choc » avec les constituants chargés de la cible. Les interactions électrons-matière se font soit avec les électrons de la cible, soit avec les noyaux :
- par interaction sur un électron de la cible : l'électron incident repousse et arrache un électron du tungstène hors de sa couche électronique. Il s'ensuit un phénomène de fluorescence : le trou créé est immédiatement comblé par un électron d'une couche périphérique moins lié au noyau, avec émission d'un photon Efluorescence dont l'énergie correspond exactement à la différence d'énergie entre les deux couches, selon un spectre d'émission de raies caractéristique de l'anode ;
- par interaction sur un noyau du tungstène : le passage de l'électron incident au voisinage du noyau positif génère une force électromagnétique d'attraction. L'électron est freiné, émettant l'énergie perdue en « rayonnement de freinage » (en allemand, « bremsstrahlung »). L'énergie de ce rayonnement X dépend de la distance électron incident-noyau, qui peut être très grande ou très petite ; le spectre X produit est donc un spectre continu. Quand le choc est frontal, toute l'énergie de l'électron incident est rayonnée ; l'énergie maximale des photons émis est donc numériquement égale à la tension d'accélération du tube.
Ces deux types de rayonnement (spectre de raies par fluorescence et spectre continu par freinage) constituent le faisceau initial de rayons X.
Quelle que soit son origine, fluorescence ou freinage, l'émission de rayons X est un phénomène peu fréquent : 99 % de l'énergie mise en jeu se dissipe sous forme de chaleur et 1 % seulement sous forme de rayons X. La chaleur produite est donc importante, entraînant des contraintes technologiques lourdes : choix du tungstène (matériau résistant à la chaleur), anode tournante pour répartir le foyer thermique sur une couronne, constant refroidissement par un bain d'huile circulant.
Trois paramètres utilisés pour régler la qualité et l'intensité du faisceau de rayons X
Ces paramètres sont les suivants :
- la tension du tube (ou « kilovoltage ») en kV, qui détermine l'énergie du rayonnement X produit (on pourrait dire la qualité des photons X) ;
- l'intensité électrique (ou « milliampérage ») en mA ;
- le temps d'exposition en secondes (s).
Les deux derniers paramètres sont le plus souvent réunis par leur produit exprimé en mA·s qui détermine la quantité de photons X produits par seconde.
La gestion optimale assure usuellement le plus petit temps de pose en choisissant l'intensité maximale du courant (en mA) que le tube peut supporter sans dommage.
Aspects géométriques du faisceau
La taille non ponctuelle du foyer d'émission des rayons X engendre un flou géométrique qui altère la qualité de l'image. Ce flou peut être réduit par une diminution de la taille apparente du foyer grâce à une inclinaison plus importante de l'anode par rapport à l'axe de sortie des photons (voir figure 3.2).
Trajet des rayons X entre la cathode et le patient : collimation
La production de rayons X au niveau du foyer est multidirectionnelle ; des rayons X partent donc dans toutes les directions de l'espace. Pour limiter cette diffusion, puisque seul le rayonnement en direction de l'objet étudié est utile, des filtres en plomb (volets) et un blindage en béryllium laissant une fenêtre dans la direction de la cible sont utilisés. Les rayonnements émis dans une autre direction que celle du patient sont ainsi extrêmement atténués.
Entre la sortie du tube et le patient, le trajet des rayons X n'est, comme celui de la lumière, ni atténué ni dévié.
Interaction des rayons X chez le patient
De la même manière qu'au cinéma la pellicule cinématographique arrête plus ou moins la lumière de la lanterne de projection et crée l'image, le corps du patient atténuera plus ou moins le faisceau de rayons X, créant le contraste de l'image radiographique.
Dans le patient, les rayons X interagissent au niveau des électrons de la matière. On observe deux phénomènes sans pouvoir privilégier l'un ou l'autre : l'effet photoélectrique (phénomène à l'origine de la formation des images radiographiques) et la diffusion (effet Compton).
Effet photoélectrique
L'effet photoélectrique se produit quand le photon transfère toute son énergie à un électron (figure 3.3). Celui-ci est arraché de sa couche électronique, à condition que l'énergie du photon soit supérieure à l'énergie de liaison de l'électron. Il est nécessaire que l'électron soit au voisinage immédiat du noyau qui va pouvoir « encaisser » une énergie cinétique de recul ; cela se produit, d'une part, sur les électrons très liés (donc avec une énergie de liaison non négligeable) et, d'autre part, pour des énergies faiblement supérieures à cette énergie de liaison, qui tient l'électron lié au noyau. Comme dans la nature, le volume des atomes varie peu en fonction de Z. Les atomes de Z élevé avec beaucoup d'électrons (par exemple le calcium des os, l'iode d'un produit de contraste) auront beaucoup d'électrons au voisinage du noyau, candidats à cet effet photoélectrique.
L'électron arraché part avec une énergie cinétique égale à l'énergie du photon X diminuée de l'énergie de liaison ; il sera arrêté en quelques millimètres.
La probabilité d'interaction photoélectrique dépend :
• du milieu, essentiellement de sa densité en électrons, donc du numéro atomique Z des atomes qui le composent. Plus le milieu est dense, plus la probabilité d'effet photoélectrique est importante ; elle est donc plus importante pour l'os que pour les muscles (ou l'eau), la graisse ou l'air (dans l'ordre de probabilité d'interaction décroissante) ;
• de l'énergie des rayons X : les rayons X faiblement énergétiques ont une probabilité d'interaction très supérieure aux autres, à la condition naturellement qu'ils aient une énergie supérieure à l'énergie d'ionisation des couches profondes du noyau cible. Un faisceau de rayons X de faible énergie est donc très fortement atténué dans le patient.
Surtout, la différence d'atténuation (différence entre les coefficients d'atténuation de deux tissus d'atténuation voisine) augmente fortement quand l'énergie des rayons X diminue ; le contraste est alors fortement augmenté (au prix d'une atténuation globale plus importante comme expliqué précédemment). A contrario, des rayons X de haute énergie, dits « durs », sont moins absorbés, mais génèrent une image moins contrastée.
Effet Compton
L'effet Compton se produit quand le transfert d'énergie est partiel, entraînant, d'une part, l'expulsion d'un électron avec une partie de l'énergie et, d'autre part, la diffusion d'un photon d'énergie inférieure à l'énergie initiale selon un angle aléatoire plus ou moins grand (pouvant atteindre 180° ; on dit alors rétrodiffusé). Il n'y a pas d'énergie de recul, donc pas de nécessité d'être proche du noyau ; l'effet Compton se produit ainsi préférentiellement sur les électrons périphériques peu liés, plus nombreux.
Le photon diffusé a plusieurs inconvénients en radiodiagnostic :
- il peut continuer vers l'avant en direction du détecteur, à l'origine d'un flou des images appelé voile de diffusion ;
- il peut être fortement diffusé dans une direction hors du champ d'exposition directe. L'opérateur pourra donc recevoir une dose de rayonnement ionisant rétrodiffusé, qui peut également contourner des écrans protecteurs. De la même manière que la lumière d'une seule ampoule éclaire toute une pièce par réflexions, les rayons X diffusés vont irradier l'ensemble de la pièce.
L'effet Compton s'observe avec une probabilité relative plus importante pour des énergies élevées. Aux énergies utilisées en radiodiagnostic, l'effet Compton est quatre à cinq fois plus fréquent que l'effet photoélectrique. À titre d'exemple : une radiographie pulmonaire doit 50 % de sa densité aux photons diffusés, une radiographie de l'abdomen sans préparation (ASP) comporte 90 % de photons diffusés, mais une mammographie à 25 keV, « seulement » 37 %.
Pour limiter l'effet Compton, une grille antidiffusante est utilisée ; il s'agit d'une mince grille constituée de fines lames de plomb de quelques millimètres de largeur et quelques centièmes de millimètres d'épaisseur, disposées parallèlement sur un cadre sur toute la longueur du champ du film radiologique, de telle sorte qu'elles soient orientées vers le tube à rayons X. La majorité du diffusé oblique est arrêtée par l'épaisseur de la lame, au prix de l'atténuation d'une faible proportion des rayons X contribuant à la formation de l'image (compensée par une augmentation des mA ∙ s). Pour éviter les fines lignes noires parallèles correspondant à cette atténuation, le cadre est animé d'un mouvement transversal (grille « Potter », du nom de l'inventeur de cet artifice).
Pour résumer, l'atténuation résulte donc des deux interactions possibles entre les photons incidents et la matière traversée (effet photoélectrique et effet Compton). La probabilité globale d'interaction est appelée « coefficient linéique d'atténuation », et s'exprime comme une probabilité d'interaction (nombre, sans dimension) par unité de distance (généralement en cm–1). Cette atténuation suit une loi exponentielle décroissante fonction de l'épaisseur des tissus traversés par le faisceau.
Influence des paramètres sur la formation de l'image
Pour obtenir une image, l'opérateur peut agir sur deux paramètres modifiant le contraste de l'image :
- le kilovoltage (kV) (ou tension) : les rayons de basse énergie donnent des contrastes plus visibles mais au prix d'une atténuation globale plus importante ;
- le produit mA ∙ s (la quantité de photons X produits) : pour un voltage donné et un patient donné, cette quantité conditionne l'exposition correcte du détecteur, la surexposition (image trop noire : trop de photons) ou la sous-exposition (image trop blanche : pas assez de photons).
La figure 3.4 illustre les modifications du contraste chez la même personne en fonction des paramètres utilisés : du même objet, la radiographie peut fournir des images différentes.
Influence de la taille du champ exploré
L'effet Compton qui est produit sur un volume exposé entraîne un voile de diffusion sur le détecteur ; l'augmentation de la largeur explorée (outre qu'elle augmente la dose au patient) va également augmenter de manière proportionnelle ces photons diffusés. L'augmentation de la surface explorée (largeur × hauteur) augmente considérablement le Compton, alors que l'effet photoélectrique à l'origine de l'image radiologique est inchangé. Élargir inconsidérément le champ d'exploration de part et d'autre de la structure explorée dégrade l'image finale, augmente la dose au patient, et augmente la dose reçue professionnellement par tous les opérateurs présents.
Détection des rayons X transmis, fabrication de l'image radiographique
Les images sont obtenues par l'exposition d'un système de détection au faisceau de rayons X après traversée de la cible.
Films photographiques et couple écran renforçateur-film
Historiquement, les films radiographiques étaient fabriqués avec des microcristaux de sels d'argents ioniques Ag+ qui étaient réduits en Ag0 sous l'effet des électrons arrachés par les rayons X. Comme en photographie conventionnelle, on utilisait ensuite le processus chimique photographique (amplification par un révélateur, fixateur, lavage des Ag+) pour révéler l'image jusque-là latente. On voyait alors un noircissement du film, dû à l'apparition de grains d'argent métal, partout où il avait été exposé par les rayons X. C'est pourquoi les régions situées derrière un matériau atténuant, comme l'os, apparaissant blanches sur le film, ont été appelées « opacités » (opaques aux rayons X), tandis que les régions noires peu atténuantes ont été appelées « clartés » (les rayons X passent à travers).
La sensibilité des films photographiques était très faible, de l'ordre de quelques pourcents. Elle a été secondairement améliorée par l'adjonction d'un « écran renforçateur », couches de sels fluorescents à Z élevé situées de part et d'autre du film, qui arrêtent d'avantage les rayons X et les convertissent en photons lumineux qui impressionnent les sels d'argent. L'intensification est de × 10 à × 20 au prix d'une petite perte de netteté.
L'utilisation de ces systèmes est quasi abandonnée compte tenu des possibilités limitées de post-traitement des images obtenues, de la nécessité de consommables (films, solutions de traitement peu écologiques), du prix des sels d'argent, ainsi que des difficultés de stockage et de conservation des radiographies.
Ils sont remplacés par les détecteurs non argentiques dont quatre types sont présentés ci-dessous.
Écran radioluminescent à mémoire (computed radiography [CR])
Dans ce système, le film est remplacé par un écran photostimulable qui conserve pendant plusieurs heures les modifications provoquées par l'exposition aux rayons X. Après exposition aux rayons X, il existe sur la plaque photostimulable une image dite « latente » qui sera ensuite révélée par le balayage d'un faisceau laser, créant d'emblée une image numérisée. Ce système est largement utilisé car il est peu coûteux.
Capteurs plans (digital radiography [DR])
Dans ce système, les rayons X sont détectés par les interactions qu'ils créent dans un détecteur soit directement sur un circuit imprimé de silicium (CMOS comparable à celui d'un appareil de photographie numérique), soit indirectement après scintillation sur un cristal de Z élevé, donc de rendement meilleur. Le signal résultant est un signal électrique. Ce type de système est très sensible aux photons X, ce qui permet de réduire de façon significative la dose délivrée au patient. L'utilisation des capteurs plans permet aussi la réalisation de techniques comme la double énergie et la tomosynthèse, augmentant ainsi la performance diagnostique des radiographies (mais systèmes assez coûteux).
Amplificateur de luminance et télévision en circuit fermé
Les rayons X sont détectés par un écran fluorescent qui est vu par une caméra « classique » de type caméra de télévision. Ce système, en plus de réaliser des radiographies statiques, est capable de produire des images successives en temps réel à une cadence permettant la visualisation du mouvement sans scintillement, ni rémanence (en pratique, 25 images ou 50 images/seconde). Les amplificateurs de luminance sont souvent utilisés pour guider les gestes en radiologie interventionnelle.
Système EOS
Ce système s'appuie sur la haute sensibilité d'un détecteur gazeux au xénon sous pression inventé par Georges Charpak (dérivé de la chambre à fils de la recherche nucléaire qui lui valut le prix Nobel de physique en 1992). Les ionisations créées dans un gaz sont amplifiées dans un champ électrique élevé, et détectées sur des pistes conductrices gravées à l'échelle du micron sur les parois du détecteur. Ces détecteurs de haute sensibilité permettent la réalisation de radiographies à très basse dose. Dévolu à l'exploration rachidienne et des membres inférieurs (E pour électron, OS pour os), le système réalise simultanément deux images orthogonales. L'acquisition des images se fait sur un patient débout, permettant ainsi une évaluation de la statique rachidienne dans des conditions physiologiques. Une modélisation en 3D du squelette peut ensuite être calculée par le système, permettant de réduire encore la dose d'exposition aux rayonnements ionisants en se « contentant » de l'information suffisante pour guider le modèle.
Représentation des images
Avec la généralisation des détecteurs numériques, les radiographies ne sont plus lues sur des négatoscopes, mais sur des écrans d'ordinateur. Les radiographies sont des images représentées en échelle de gris selon le même codage que celui des anciens films argentiques. Elles sont composées par des opacités et des lignes qui représentent une projection de la cible sur un plan, le détecteur. Les différents degrés d'opacités d'une radiographie dépendent de l'énergie du faisceau de rayons X, de la composition (numéro atomique) du tissu évalué et de l'épaisseur de la cible. Les différences du nombre et de la qualité des photons X qui arrivent au système de détecteurs sont responsables du contraste de l'image. Le contraste en radiographie standard peut être défini par la différence entre les opacités et les transparences d'une image (figure 3.5).
Pour une énergie donnée des rayons X, cela se traduit en image inversée de la façon suivante : plus la densité du tissu est élevée, plus le faisceau incident sera atténué, moins le détecteur sera impressionné ; l'image sur le détecteur apparaîtra blanche (peu modifiée par l'image radiante). On dit qu'elle est opaque (aux rayons X), radio-dense ou dense. Au contraire, plus la densité du tissu est faible, moins le faisceau incident sera absorbé, plus le détecteur sera impressionné par l'image radiante ; l'image sera noire. On dit qu'elle est claire ou radiotransparente.
La description des radiographies utilise donc la terminologie suivante :
- image opaque/radiodense ;
- image claire/radiotransparente.
En radiographie standard, les densités radiographiques peuvent être classifiées de façon schématique en quatre types présentés ci-dessous en densité croissante (figure 3.6) :
- aérique-gazeuse (par exemple poumon, gaz intestinal) ;
- graisseuse (par exemple tissu sous-cutané) ;
- hydrique (par exemple muscle, reins, foie) ;
- calcique (par exemple os).
- à part, les pièces métalliques (pacemaker) ou le matériel prothétique généralement plus dense que les os.
Le tissu adipeux présente une basse densité, composé par des atomes de faible numéro atomique, pouvant donc être traversé sans interaction par un grand nombre de photons (faible absorption). Inversement, le tissu osseux minéralisé est composé par des cristaux de phosphates de calcium au numéro atomique élevé et sera donc traversé par un nombre relativement faible de photons (grande absorption). Le contraste est fondamental pour la formation et pour l'interprétation des radiographies. Par exemple, un nodule pulmonaire tissulaire entouré de parenchyme pulmonaire aéré, normal, est visible en radiographie standard. En revanche, le même nodule dans une zone de poumon non aéré peut ne pas être visible (figure 3.7).
L'autre composant fondamental des images radiographiques correspond aux lignes et contours. La formation des lignes et des contours sur un cliché radiographique est régie par la loi des tangentielles : un trait prend naissance sur une image radiographique lorsque le faisceau de rayons X aborde tangentiellement la surface d'une structure opaque ou l'interface séparant deux structures d'opacités différentes (figure 3.8). L'aspect d'un objet en radiographie standard est donc fortement dépendant de la direction du faisceau de rayons X et de la position de l'objet cible.
Le contraste spontané des tissus en radiographie standard est parfois insuffisant pour permettre la visualisation de certaines structures. L'utilisation des produits de contraste à base d'iode ou de baryum (éléments à numéros atomiques élevés) modifie le contraste radiographique en atténuant le faisceau de rayons X de façon plus importante que les tissus non calcifiés. Les produits de contraste iodés sont plus souvent utilisés pour des applications digestives, urinaires ou vasculaires. Les produits de contraste barytés sont le plus souvent utilisés pour visualiser (on dit opacifier) la lumière de l'appareil digestif. Comme pour tous les médicaments, il existe des contre-indications à l'utilisation des produits de contraste : l'insuffisance rénale ou l'allergie à des produits de contraste iodés.
Artefacts et distorsion de l'image
Différents éléments géométriques doivent être considérés lors de l'interprétation d'une radiographie : la projection planaire, l'agrandissement et le flou de l'image, la distorsion géométrique, la superposition et la sommation des structures explorées.
Projection planaire
La radiographie standard projette sur le plan du détecteur des informations provenant du volume traversé par le faisceau X. Puisqu'un objet tridimensionnel est représenté par une image bidimensionnelle, seules la largeur et la longueur des objets peuvent être évaluées. La profondeur n'est pas accessible sur un cliché radiographique unique et il est donc nécessaire de réaliser au moins deux projections différentes (on parle d'incidences), souvent orthogonales, pour pouvoir se représenter un objet dans les trois plans de l'espace figure 3.9).
Agrandissement et flou
Comme dans toutes les méthodes d'imagerie en projection, l'agrandissement de l'image est par construction géométrique fonction de la distance entre la source des rayons X et la cible, ainsi que la distance entre la cible et le système de détection. Par ailleurs, le flou de l'image est proportionnel à l'agrandissement ; c'est le même effet que quand nous regardons l'ombre de notre main sur un mur : au fur et à mesure que nous éloignons notre main du mur, le flou de l'ombre augmente (figure 3.10). Pour réaliser une radiographie, le patient doit donc être positionné aussi loin que possible du tube et aussi près que possible du capteur. Une autre source de flou dans l'image est le flou cinétique lié aux mouvements du patient (ou des organes, par exemple le bord du cœur) pendant l'acquisition, entraînant une perte de netteté de l'image. Les acquisitions avec un temps d'exposition long (permettant une analyse fine de la texture des tissus) sont particulièrement sensibles à ce type d'artefact (figure 3.11).
Distorsion géométrique
La distorsion géométrique apparaît en fonction de la position de l'objet par rapport au faisceau de rayons X : plus l'objet est oblique, plus la distorsion de sa forme est importante. De même, plus le rayon directeur (orientation du centre du faisceau de rayons X) est oblique par rapport au plan du système de détection, plus l'effet de distorsion géométrique sera présent dans l'image (figure 3.12).
Superposition et sommation des images
La projection de plusieurs structures sur un plan bidimensionnel entraîne une superposition de différentes opacités, lignes et de différents contours. Quand deux structures de densité identique sont localisées dans deux plans différents, leurs contours sont conservés ; en revanche, quand elles se localisent dans le même plan, elles perdent leurs contours et les images sont confondues. Cette description est communément appelée « signe de silhouette » (figure 3.13 et voir figure 3.7).
Indications et limites
Quelques indications fréquentes des radiographies standard sont présentées dans cette section.
Radiologie ostéoarticulaire
Le tissu osseux a un haut contraste spontané en radiographie standard dû à sa densité, permettant une analyse fine de l'architecture et des contours osseux. Les radiographies standard restent donc l'examen de première intention pour l'évaluation des affections osseuses ou articulaires constitutionnelles, dégénératives, inflammatoires, néoplasiques et traumatiques (voir chapitre 22).
Radiologie thoracique
Le cliché du thorax de face est la base d'une prise en charge d'une affection thoracique. À cause de la dose plus importante qu'il génère, le cliché de profil est exceptionnellement réalisé ; l'analyse du cliché de face étant, en règle générale, suffisante au diagnostic (voir chapitre 25).
Radiologie digestive
Les clichés simples de l'abdomen ou abdomens sans préparation (ASP) ne conservent que quelques indications limitées (recherche de corps étranger ou de calculs rénaux). Par ailleurs, la diffusion de l'endoscopie digestive et des examens tomodensitométriques explique en partie la réduction des examens avec opacifications digestives (voir chapitre 27).
Sénologie
Les mammographies (radiographies des seins) font partie du programme de dépistage national du cancer du sein et sont donc largement réalisées en pratique clinique (voir chapitre 29).
Radiologie interventionnelle
Les radiographies par projection sont fréquemment utilisées pour le guidage d'un grand nombre de procédures interventionnelles (voir chapitre 15). Injections intra-articulaires, biopsies osseuses, traitement percutané de tumeurs par chauffage ou congélation (dite « ablation percutanée ») sont généralement réalisés sous contrôle fluoroscopique qui permet une visualisation durant la procédure du geste réalisé. Les procédures interventionnelles réalisées sur les parties molles sont moins susceptibles de s'adapter à un guidage fluoroscopique et, pour ce type d'intervention, le guidage échographique ou TDM est préférable.
Vasculaire
La radiographie par projection est le moyen de repérage anatomique des vaisseaux dans les salles d'angiographie ; le vaisseau est opacifié à l'aide d'un produit de contraste iodé permettant de visualiser l'arborescence vasculaire. La radiographie interventionnelle concerne pratiquement tous les organes, notamment le cœur, le cerveau, l'appareil digestif, les affections traumatiques, tumorales etc. Compte tenu de leur complexité, certaines de ces procédures sont longues et sont une source importante d'irradiation pour le patient et les opérateurs. Leur champ d'application est vaste ; par exemple la dilatation des sténoses vasculaires, la fulguration de foyers arythmogènes, la chimio-embolisation ou la radio-embolisation des tumeurs, la fermeture de vaisseaux anormaux (varicocèles) ou l'interruption d'un saignement actif.
Conclusion
La radiographie par projection reste largement utilisée en imagerie médicale. Dans un contexte d'innovation technologique rapide en imagerie médicale, avec la mise à disposition de nouvelles techniques d'imagerie avancée (IRM, TEP, TDM de nouvelle génération, cone beam, tomoscintigraphie, échographie, etc.), la radiographie par projection pourrait paraître obsolète. De fait, une large partie des indications classiques a disparu, substituée par ces autres techniques d'imagerie. Cependant, de nombreuses indications de radiographies restent d'actualité, dont la radiographie thoracique et ostéoarticulaire. Par ailleurs, la radiographie par projection continue, elle aussi, de progresser, en particulier grâce aux images numériques, aux capteurs plans, au système EOS et à la tomosynthèse. Cela conduit au développement de nouvelles indications comme l'évaluation de la statique rachidienne en EOS. La radiographie est également utilisée pour guider des procédures interventionnelles dont les applications sont en expansion.
Remerciements
Nous tenons à remercier le professeur Denis Régent pour l'aide dans la révision et l'édition de ce manuscrit.
Essentiel à retenir
- Un système de radiologie utilisant les rayons X emploie un tube radiogène à anode tournante et cathode chaude (tube de Coolidge) permettant de créer un faisceau de rayons X.
- L'atténuation du faisceau de photons X est le principal phénomène physique intervenant dans la formation des images radiographiques. Elle dépend du numéro atomique des atomes du tissu exposé et de l'énergie du faisceau de rayons X utilisé.
- Plus la densité du tissu exploré est basse et plus l'énergie du faisceau de rayons X émergeant est élevée, plus l'atténuation sera faible, conduisant à une plage plus noire ou radiotransparente. Plus la densité du tissu exploré est élevée et plus l'énergie du faisceau de rayons X émergeant est faible, plus l'atténuation sera importante, conduisant à une plage plus blanche ou radio-opaque sur l'image.
- Les radiographies par projection sont des images en échelle de gris, composées par des opacités, des lignes et des contours.
- Un trait prend naissance sur une radiographie lorsque le faisceau de rayons X aborde tangentiellement la surface d'une structure opaque ou l'interface séparant deux structures d'opacité différente.
- Un meilleur contraste est obtenu en diminuant les kV, au prix d'une atténuation globale supérieure obligeant à augmenter les mA, donc l'exposition du patient. La réduction de la dose au patient se fait soit en diminuant l'intensité du faisceau incident, soit en augmentant l'énergie des rayonnements au risque de diminuer le contraste.
- La diffusion Compton augmente pour des énergies de rayons X (en keV) plus élevées, et des champs d'exploration du patient plus larges ; elle dégrade l'image radiologique et provoque une diffusion dans l'ensemble de la pièce d'exploration.
- Il est nécessaire de réaliser au moins deux projections à différentes incidences (si possible orthogonales) pour pouvoir localiser un objet dans les trois dimensions de l'espace.
- Plus l'orientation du faisceau de rayons X par rapport au plan de référence du patient (angle d'incidence) ou par rapport au plan du système de détection (angle de projection) sera grand, plus l'effet de distorsion géométrique dans l'image sera grand.
- Une radiographie entraîne un agrandissement lié à l'effet de projection.
Bibliographie
- Peyret O, Bergot C. L'imagerie par rayons X. In: Biophysique pour les sciences de la vie et de la santé. Omniscience Ed ; 2007. p. 79–813.
- Régent D, Mandry D, Croise-Laurent V, et al. Production des rayons X en imagerie par projection et en scanographie. In: EMC - Radiologie et imagerie médicale - principes et technique - radioprotection. Elsevier ; 2013.
- Wybier M, Bossard P. Musculoskeletal imaging in progress : the EOS imaging system. Joint Bone Spine 2013 ;80(3):238–43.
Chapitre suivant | |
Retour au sommaire |