Abstract Die Fusion medizinischer Bilddaten erlaubt die Korrelation homologer anatomischer Strukturen in verschiedenen Bildgebungsmodalitäten durch eine räumliche Transformation der Datensätze. CT und MRT der Wirbelsäule enthalten komplementäre Informationen, die eine unterschiedliche Relevanz für diagnostische und therapeutische Entscheidungen haben können. Für eine CT/MR-Fusion mehrsegmentaler Wirbelsäulenabschnitte wurden spezielle Methoden entwickelt. Sie lösen das Problem einer veränderten räumlichen Beziehung der einzelnen Bewegungssegmente bei aufeinanderfolgenden Datenakquisitionen, die durch eine jeweils unterschiedliche Lagerung der Patienten bedingt sind. Klinische Routine-CT- und -MRT-Daten der Brustwirbelsäule wurden gewonnen und auf eine PC-Workstation übertragen. Nach einer Segmentierung der CT-Daten wurden für die einzelnen Wirbel Landmarken in den CT- und MRT-Daten definiert. Der entwickelte Algorithmus führte für jeden einzelnen Wirbel eine starre Registrierung der CT-Information zu den MRT-Daten durch. Die fusionierten Datensätze konnten als farbkodierte Bilder oder durch dynamische Variation der Transparenz dargestellt werden. Um die Registrierungsgenauigkeit zu beurteilen, wurden Registrierungsfehler (FRE) und Zielgenauigkeitsfehler (TRE) berechnet. Der entwickelte Algorithmus erlaubte eine mehrsegmentale Bildfusion der Wirbelsäule. Der durchschnittliche Zeitaufwand zur Definition der Landmarken betrug 22 Sekunden pro Landmarke für CT-Daten und 34 Sekunden pro Landmarke für MRT-Daten. Der durchschnittliche FRE war 1,53 mm. Für den Bereich der Wirbelkörper betrug der TRE weniger als 2 mm. Die farbkodierten Bilder waren besonders zur Beurteilung der Konturen der anatomischen Strukturen geeignet, wohingegen die dynamische Variation der Transparenz der überlagerten CT-Daten die globale Beurteilung der räumlichen Verhältnisse der anatomischen Strukturen zueinander erleichterte. Der entwickelte Algorithmus erlaubt die Fusion von CT- und MRT-Bilddaten mehrsegmentaler Wirbelsäulenabschnitte, die mit herkömmlichen Algorithmen aufgrund der unterschiedlichen Lagerung des Achsenskelettes während aufeinander folgender Untersuchungen nicht möglich war. Fusion of medical images is a technique that permits the correlation of homologous anatomical structures in different imaging modalities on the basis of a spatial transformation of the data sets. CT and MRI of the spine provide complementary information of possible relevance for diagnostic and therapeutic decisions. Methods enabling a multisegmental CT-MRI fusion of the spine were developed. These solve the problem of altered spatial relationships of the individual anatomical structures due to differing patient positioning in successive data acquisitions. Routine clinical CT and MRI data of a thoracic section of the spine were obtained and transferred to a PC-workstation. Following segmentation of the CT-data, landmarks for each individual vertebra were defined in the CT and MRI data. For each individual vertebra the algorithm we developed then carried out a rigid registration of the CT information to the MR data. The fused data sets were presented as colour-coded images or on the basis of dynamic variation of transparency. To assess registration precision, fiducial registration errors (FRE) and target registration errors (TRE) were calculated. The algorithm permitted multi-segmental image fusion of the spine. The average time required for defining the landmarks was 22 seconds per landmark for CT, and 34 seconds per landmark for MR. The average FRE was 1.53mm. The TRE for the vertebrae was less than 2mm. The colour-coded images were particularly suitable for assessing the contours of the anatomical structures, whereas dynamic variation of the transparency of overlapping CT images enabled a better overall assessment of the spatial relationship of the anatomical structures. The algorithm permits precise multi-segmental fusion of CT and MR of the spine, which was not possible using current fusion-algorithms due to variations in the spatial orientation of the anatomical structures caused by different positioning of the axial skeleton in successive examinations.
[1]
Jay B. West,et al.
Predicting error in rigid-body point-based registration
,
1998,
IEEE Transactions on Medical Imaging.
[2]
Anthony J. Yezzi,et al.
A variational framework for integrating segmentation and registration through active contours
,
2003,
Medical Image Anal..
[3]
A Panigrahy,et al.
Registration of three-dimensional MR and CT studies of the cervical spine.
,
2000,
AJNR. American journal of neuroradiology.
[4]
Gary E. Christensen,et al.
Consistent landmark and intensity-based image registration
,
2002,
IEEE Transactions on Medical Imaging.
[5]
Felix Eckstein,et al.
Elastic registration of 3D cartilage surfaces from MR image data for detecting local changes in cartilage thickness
,
2000,
Magnetic resonance in medicine.
[6]
R. Bale,et al.
Accuracy of Spinal Navigation for Magerl Screws
,
2003,
Clinical orthopaedics and related research.
[7]
Jay B. West,et al.
The distribution of target registration error in rigid-body point-based registration
,
2001,
IEEE Transactions on Medical Imaging.
[8]
Max A. Viergever,et al.
A survey of medical image registration
,
1998,
Medical Image Anal..
[9]
T. Lund,et al.
A new approach to computer-aided spine surgery: fluoroscopy-based surgical navigation
,
2000,
European Spine Journal.
[10]
Baxter P Rogers,et al.
Application of image registration to measurement of intervertebral rotation in the lumbar spine
,
2002,
Magnetic resonance in medicine.
[11]
D. Louis Collins,et al.
Retrospective evaluation of intersubject brain registration
,
2003,
IEEE Transactions on Medical Imaging.
[12]
A L Martel,et al.
A 3D MRI sequence for computer assisted surgery of the lumbar spine
,
2001,
Physics in medicine and biology.
[13]
L. Itti,et al.
Simultaneous correction for interscan patient motion and geometric distortions in echoplanar imaging
,
1999,
Magnetic resonance in medicine.