Auffällige Befunde und Artefakte

Interview mit Klaus Scheffler zum Einsatz Künstlicher Intelligenz in der medizinischen Bildgebung

23. Juli 2024

Künstliche Intelligenz (engl. artificial intelligence, im Folgenden mit AI abgekürzt) hat in der medizinischen Bildgebung in den letzten 15 Jahren einen regelrechten Boom erlebt. Wir haben mit Prof. Dr. Klaus Scheffler, Leiter der Abteilung Hochfeld-Magnetresonanz, darüber gesprochen, wo und wie AI eingesetzt wird, welche Hürden zu überwinden sind, und welche Verbesserungen in Bildgebung und Diagnostik man von ihr erhoffen kann.

Wieso wird AI in der medizinischen Bildgebung eingesetzt?

Es geht um zwei Bereiche. Zum einen um die Bildrekonstruktion: Man steckt die Leute in den Scanner und am Ende müssen Bilder rauskommen. Das sollte natürlich möglichst präzise und schnell laufen. Alle großen Hersteller von MRT-Geräten setzen hier bereits AI ein. Zum anderen kommen die fertigen Bilder – zumindest im klinischen Setting – zum Radiologen, der sie auswerten muss. Kürzlich habe ich Statistiken gelesen: Ein Radiologe hat im Schnitt fünf Sekunden, um ein Bild zu beurteilen, um danach den Befund zu schreiben. Da hilft die AI, indem sie ihn auf Auffälligkeiten hinweist. Allerdings werden die Befunde derzeit nicht von der AI alleine gemacht; sie macht nur Vorschläge, die der Radiologe überprüft.

Noch einmal zurück zum ersten Punkt. Wie genau kommt in der Bildrekonstruktion AI zum Einsatz?

In unserer Forschung versuchen wir, die Bildgewinnung zu verbessern. Ziel ist oft, die Aufnahme schneller zu machen; das bedeutet aber häufig, dass gewisse Aufnahmeschritte weggelassen werden. Dadurch ist die Berechnung des Bildes nicht mehr eindeutig, weil eigentlich zu wenige Daten vorhanden sind. Dieses schlecht gestellte Problem kann man mit mathematischen Methoden bearbeiten. Oder aber man erstellt eine Datenbank aus guten, voll aufgenommenen Bildern, aus der die AI lernen kann. Die trainierte AI kann schätzen, welche Rekonstruktion eines gegebenen Bildes besser oder wahrscheinlicher ist als eine andere.

Reden wir über klinische Validierung. Woher können wir wissen, dass MRT-Bilder, die mit KI erstellt wurden, gut sind?

Das sind sie manchmal nicht! Radiologen sehen mitunter Sachen auf den Bildern, von denen sie sofort sagen: Das ist ein Rekonstruktionsartefakt. Vor ein paar Jahren haben wir in einem gemeinsamen Projekt mit Forschern des MPI für Intelligente Systeme Wahrscheinlichkeitskarten für jede Rekonstruktion berechnet. Für manche Bereiche der Bilder wurde uns tatsächlich angezeigt, dass dort etwas falsch sein könnte. Es gibt also immerhin Methoden, mit denen man feststellen kann, wie wahrscheinlich es ist, dass die Rekonstruktion brauchbar ist.

Mit welchen Daten wird die AI trainiert? Und gibt es überhaupt genügend Trainingsdaten?

Man braucht extrem viele Daten. Daten von klinischen Scannern mit Feldstärken von 1,5 oder 3 Tesla gibt es weltweit haufenweise, aber für uns als Hochfeld-MRT-Forscher ist es schwieriger. Es gibt nicht viele 9,4-Tesla-Scanner, von denen wir Daten bekommen könnten, und selber können wir natürlich auch nicht Tausende Patienten scannen. Aber wir haben einen Trick angewendet: Meine Mitarbeiterin Gabriele Lohmann und ihr Team haben synthetische MRT-Bilder generiert. Dafür hat eine von uns entwickelte AI aus 3-Tesla-Scans die hochauflösenden 9,4-Tesla-Bilder hergestellt. Und diese Bilder wiederum verwenden wir für das Training der AI, die zum Ziel hat, 9,4-Tesla-Bilder aus den Scannerdaten zu rekonstruieren.  

Könnte der Einsatz von AI, die auf Daten von Menschen mit weißer Hautfarbe aus Europa und Nordamerika trainiert ist, bestehende Ungleichheiten in der Gesundheitsversorgung noch verschärfen?

Ich glaube nicht, dass das so ist; die Geräte stehen ja schließlich weltweit rum. Die Technologie ist auch noch nicht ganz neu, man wäre sich solcher Effekte also sicher bewusst und könnte sie kompensieren. Und Gehirne haben ja auch keine Hautfarbe; wenn Unterschiede überhaupt existieren, scheinen sie ziemlich klein zu sein.
Was aber ein Problem ist: Die AI wird meist mit Bildern gesunder Personen trainiert; von denen gibt es ja – zum Glück! – viel mehr als von den pathologischen. In der Klinik haben wir aber kranke Patienten; deren Bilder schätzt die AI manchmal schlecht ein. In unserer Abteilung testen Rahel Heule und ihr Team gerade in einer DFG-geförderten Studie, wie gut eine AI, die auf gesunden Probanden trainiert wurde, bei Patienten mit Multipler Sklerose oder Tumoren funktioniert.

Welche Grenzen, aber auch welche Chancen gibt es beim Einsatz von AI in der MRT?

Was den Einsatz in der Diagnostik betrifft, müssen wir noch etwas Geduld haben. Ich habe von Neuroradiologen gehört, die die neue Software testen, dass manchmal plötzlich Flecken im Gehirn auftauchen, die es eigentlich gar nicht gibt – reine Artefakte. Es braucht das geübte menschliche Auge, um das zu unterscheiden.
Sehr nützlich ist AI schon jetzt bei der Schätzung der Dicke des Cortex, der grauen Substanz. Die Segmentierung in strukturelle Einheiten ist hier nicht einfach, denn die Hirnhaut macht da oft Probleme. Wir haben also 20 Studenten angestellt, die von Hand die MRT-Aufnahmen segmentiert haben, und Neuroradiologen haben das überprüft. Diese Bilder haben wir als ground truth, als Basis für das Training der AI verwendet. Ein Spin-off in Tübingen setzt unsere Ergebnisse schon klinisch ein: Sie bekommen Bilder aus den Praxen und Kliniken; der Algorithmus schätzt den Verlust der Hirnsubstanz im Cortex. Damit kann man bestimmte Demenzformen schon gut diagnostizieren.

 

Zur Redakteursansicht