Zusammenfassung
Im Zuge der rasanten Entwicklung der Computertechnik ist künstliche Intelligenz heute zu einem wesentlichen Bestandteil des täglichen Lebens geworden. Auch die Bereiche Medizin und Lungengesundheit stellen in diesem Zusammenhang keine Ausnahme dar. Wissenschaftliche Forschung auf der Grundlage von Big Data durchzuführen, bedeutet nicht, einfach eine große Menge an Daten zu sammeln und dann den Maschinen die Arbeit zu überlassen. Wissenschaftler müssen vielmehr Probleme identifizieren, deren Lösung sich positiv auf die Versorgung der Patienten auswirken würde. In dieser Übersichtsarbeit wird die Rolle der künstlichen Intelligenz sowohl aus physiologischer als auch aus anatomischer Sicht erörtert. Ausgehend von der automatischen quantitativen Bewertung anatomischer Strukturen mithilfe der Bildgebung der Lunge betrachten wir die Themenbereiche der Erkennung von Krankheiten und der Einschätzung der Prognose auf der Grundlage von maschinellem Lernen. Die Bewertung der aktuellen Stärken und Einschränkungen wird es uns ermöglichen, einen breiteren Blick auf zukünftige Entwicklungen zu werfen.
Einführung
Künstliche Intelligenz (KI) ist definiert als die Fähigkeit eines Computersystems, eine Aufgabe ohne direkte Intervention oder Überwachung durch menschliche Intelligenz zu erledigen [1]. Dieser Wissenschaftszweig wurde auf der Annahme gegründet, «dass grundsätzlich alle Aspekte des Lernens und andere Merkmale der Intelligenz so genau beschrieben werden können, dass eine Maschine zur Simulation dieser Vorgänge gebaut werden kann» [2].
Maschinelles Lernen ist eine der wichtigsten KI-Techniken, um die Intelligenz von Maschinen (Computern) durch erfahrungsbasiertes Lernen zu verbessern. Ein künstliches neuronales Netzwerk (artificial neural network, ANN) ist eine Lerntechnologie, die Informationen auf ähnliche Weise modelliert wie das Netzwerk neuronaler Zellen lebender Organismen. Deep Learning («tiefes Lernen»), das auf der Aneinanderreihung vieler neuronaler Netzwerke beruht, sowie die steigende Rechenleistung liegen dem aktuellen Boom im Bereich der KI zugrunde. Von «künstlicher Wahrnehmung» wird gesprochen, wenn KI die Art und Weise nachahmt, wie Menschen ihre Sinnesorgane zur Interaktion mit ihrer Umgebung einsetzen. Im visuellen Bereich wird dies als «Computer Vision» oder computerbasiertes Sehen bezeichnet. In der Radiologie gibt es viele Anwendungen für KI, wie z.B. Aufgaben im Zusammenhang mit der Erkennung, auch computergestützte Diagnose (computer-aided diagnosis, CAD) genannt, oder Klassifizierungsaufgaben. Klassifizierungsaufgaben können auf einem Verfahren basieren, das als Radiomik bekannt ist. Dabei werden Bildgebungsparameter unterschiedlicher Komplexität ausgewählt, die vom menschlichen Auge nicht erfasst werden können. Anhand der Ergebnisse können dann Korrelationen mit klinischen Befunden hergestellt werden (Abb 1).
Die vier Begriffe der KI und ihre Wechselbeziehungen auf dem Gebiet der Radiologie.
Die vier Begriffe der KI und ihre Wechselbeziehungen auf dem Gebiet der Radiologie.
Bei einem Blick auf die Geschichte der KI sticht besonders die Bedeutung der Dartmouth-Konferenz im Sommer 1956 hervor, zweifellos das Gründungsereignis der KI als eigenständiges wissenschaftliches Gebiet [3], 1 Jahr nachdem John McCarthy den Begriff «künstliche Intelligenz» unter anderem wegen seiner Neutralität gewählt hatte [2]. Dies könnte als die Geburtsstunde der KI angesehen werden, jedoch war sie nicht nur das Ergebnis einer einzelnen Bemühung, sondern, wie die meisten historischen Errungenschaften, das Ergebnis der Assimilation vieler früherer Initiativen.
In den folgenden Jahren hat die KI mehrere Wellen von Optimismus ausgelöst [3, 4], unterbrochen von Enttäuschungen und dem Verlust von Finanzmitteln [5, 6], jedoch immer wieder gefolgt von neuen Ansätzen, Erfolgen und erneuter Finanzierung (Abb 2) [7]. Die Medizin war von dieser Entwicklung nicht ausgenommen, insbesondere im Bereich der Krankheitserkennung und der Erstellung von CAD-Tools. Die Fortschritte bei der Erforschung von CAD-Systemen gehen Hand in Hand mit den Fortschritten in der KI. Abbildung 2 veranschaulicht diese Beziehung, wobei die x- und y-Achse die Zeitachse nach Jahren bzw. den Grad der Erwartungen für die KI darstellen.
Zeitleiste der KI-Entwicklung mit 2 KI-Booms in der Vergangenheit und dem aktuellen dritten KI-Boom. Fortschritte in der CAD-Forschung sind mit Fortschritten in der KI-Technologie verwoben.
Zeitleiste der KI-Entwicklung mit 2 KI-Booms in der Vergangenheit und dem aktuellen dritten KI-Boom. Fortschritte in der CAD-Forschung sind mit Fortschritten in der KI-Technologie verwoben.
Medizinische CAD-Instrumente haben sich seit 1968, dem Jahr des offiziellen Beginns ihrer Erforschung, weiterentwickelt. Das rasante Wachstum der CAD-Forschung begann in den 1980er Jahren mit den automatisierten CAD und gipfelte im ersten kommerziellen CAD-System für die Mammografie, dem «Image Checker»-System, das im Jahr 1998 von der US-amerikanischen Food and Drug Administration zugelassen wurde [8]. Mit dem dritten KI-Boom ist zu erwarten, dass die CAD [8] sich anpassen und in der Auseinandersetzung mit den klinischen Problemen und Einschränkungen der heutigen Technologie leistungsstärker werden. Im 21. Jahrhundert erlebten die KI-Techniken also ein bemerkenswertes Comeback mit gleichzeitigen Entwicklungen und Fortschritten in den Bereichen Rechenleistung, Big Data und theoretische Ansätze. KI-Techniken sind seitdem zu einem wesentlichen Bestandteil der Industrie geworden, die dieses Werkzeug zur Lösung vieler anspruchsvoller Probleme in verschiedenen Bereichen wie Informatik, Software Engineering und Operations Research einsetzt.
KI angewandt in der computertomografischen Thoraxbildgebung im Bereich der bronchialen und parenchymalen Lungenkrankheiten
In diesem Teil der Übersichtsarbeit versuchen wir, die technischen Prinzipien, die bei der Untersuchung von Bronchial- und Lungenparenchym-Pathologien verwendet wurden, mit bestimmten Errungenschaften zusammenzufassen (Abb 3). Wir haben in diesem Teil die Belange der Onkologie nicht erwähnt, da dies den Rahmen dieser Übersichtsarbeit sprengen würde.
Anatomische und physiologische Parameter der Lunge, erforscht mithilfe von KI.
Dichtemessungen
Zone verminderter Dichte: Zonen verminderter Dichte (zones of low density, LDZ) sind ein Index für die Lungendichte, definiert als der Prozentsatz der parenchymalen Voxel, die unterhalb eines bestimmten Schwellenwerts für die Röntgenabschwächung liegen. Der Schwellenwert von -950 Hounsfield-Einheiten (Hounsfield unit, HU) wird am häufigsten zur Quantifizierung von Emphysemen verwendet [9, 10] und wurde histologisch validiert. Die quantitative Bewertung von Emphysemen anhand dieses Schwellenwerts ist besser reproduzierbar als die visuelle Bewertung.
Bereich mit hoher Dichte: Bereiche mit hoher Dichte (zones of high density, HDZ) sind ein Index für die Lungendichte, definiert als der Prozentsatz der parenchymalen Voxel mit einer Abschwächung zwischen -600 und -250 HU. HDZ werden mit Rauchen [11] und einem höheren Risiko für interstitielle Lungenerkrankungen in Verbindung gebracht [12]. HDZ werden mit entzündlichen Biomarkern, dem Umbau der extrazellulärem Matrix, beeinträchtigter Lungenfunktion und einem höheren Sterberisiko in Verbindung gebracht [13].
Die automatische Quantifizierung des Parenchyms durch Dichte-Schwellenwerte wurde kürzlich zur Bewertung von Lungenentzündungen aufgrund von COVID-19 angewandt: Emphysem bei Schwellenwerten von -1024 bis -977 HU [14], residuales gesundes Parenchym bei -977 bis -703 HU [15, 16], Milchglastrübung bei -703 bis -368 HU und Konsolidierung bei -100 bis 5 HU [15, 17]. Die Gruppe von Roberto et al. zeigte, dass eine COVID-19-Lungeninfektion durch einen mittleren prozentualen Wert von 19,50% belegt werden kann und dass das Milchglasvolumen allein einen signifikanten Unterschied zwischen Patienten mit Verdacht auf COVID-19-Lungeninfektion im Vergleich zu Kontrollen zeigte.
«Air Trapping», definiert als eine übermäßige Ansammlung von Atemluft in abnormalen Teilen der Lunge während der Ausatmung, kann durch den Prozentsatz der LDZ auf exspiratorischen Computertomografie (CT)-Bildern dargestellt werden. Es kann sowohl für die gesamte Lunge als auch für ein Lungensegment oder ein Teilsegment berechnet werden. Verschiedene Schwellenwerte für die Quantifizierung des Air Trapping wurden vorgeschlagen, darunter -856 HU [18], -850 HU [19] oder -900 HU [20]. Am häufigsten verwendet wird der Schwellenwert von -856 HU. Die Messung des Air Trapping in der CT korreliert signifikant mit den Messungen der Lungenvolumina und des exspiratorischen Flusses der kleinen Atemwege bei chronisch-obstruktiver Lungenerkrankung (chronic obstructive pulmonary disease, COPD) [21, 22] und Asthma [18, 23] und kann zur Beurteilung des Ansprechens auf die Behandlung verwendet werden [24].
Histogrammanalyse
Globale Dichtehistogramm-Parameter von CT-Bildern – z.B. Asymmetrie, Kurtosis und mittlere Lungendichte – sind nützlich, um das Ausmaß einer interstitiellen Lungenerkrankung (intersticial lung disease, ILD) abzuschätzen [25, 26]. Zum Beispiel erhöht die Kollagenablagerung bei Lungenfibrose die Lungendichte, was wiederum eine Verschiebung der Histogrammfrequenz nach rechts und eine Verringerung des Peaks zur Folge hat, wodurch Asymmetrie und Kurtosis zunehmen [27]. Diese Parameter sind reproduzierbar [28] und werden durch eine Reduzierung der Strahlendosis bei Patienten mit idiopathischen interstitiellen Pneumonien nicht beeinflusst [29].
Kurtosis und das visuelle Ausmaß des fibrotischen Profil-Scores sind die einzigen Indizes, die in einer retrospektiven Studie mit 167 Teilnehmern mit idiopathischer Lungenfibrose (idiopathic pulmonary fibrosis, IPF) die Mortalität vorhersagen [30]. Kürzlich wurde auch gezeigt, dass Histogrammparameter mit der Lungenfunktion korrelierten und mit dem lungentransplantationsfreien Überleben bei IPF-Patienten in einer vergleichbaren Weise assoziiert waren wie die visuelle Beurteilung durch 2 Experten [31]. Histogrammparameter können auch zwischen verschiedenen, genau definierten Mortalitätsrisikokategorien bei Patienten mit ILD-assoziierter systemischer Sklerose (systemic sclerosis, SSc) unterscheiden [32].
Texturanalyse
Derzeit gibt es mehrere Softwarepakete für die Texturanalyse des Lungenparenchyms, von denen jedes in der Lage ist, verschiedene Gruppen von radionomischen Parametern zu extrapolieren und zu bewerten (zum Beispiel CALIPER [33]). Die Texturanalyse basiert auf Regionen von Interesse (regions of interest, ROI) in der Lunge, die von geschulten Experten gemäß einer Reihe spezifischer Muster (normal, netzartig, wabenförmig usw.) ausgewählt werden. Die Histogramm- und Texturparameter jeder volumetrischen ROI werden extrahiert, um die Entwicklung von Vorhersagemodellen für bestimmte «Texturen» mithilfe von maschinellem Lernen zu ermöglichen [34, 35]. Die meisten Arbeiten zur Erkennung von Lungenfibrosemustern basieren auf der Klassifizierung von 2D-Bildern mithilfe eines Textur-Patch-basierten Ansatzes, bei dem die Lunge in kleine Patches mit ähnlicher Größe (z.B. 32 × 32 Pixel) unterteilt wird und diese Patches jeweils in eine der Klassen der Fibrosemuster eingeordnet werden. Diese Klassifikatoren werden dann an Datenbanken mit Tausenden von beschrifteten Patches trainiert, wobei die Vertreter jeder Klasse in der Lage sind, Milchglas von Wabenbildung und/oder Emphysemen zu unterscheiden. Diese Art von Analyseansatz wird jedoch durch eine inhärente Subjektivität (vorherige Schulung der Experten) und durch das Risiko der Fehlklassifizierung zentraler oder peripherer Teile der peripheren Lunge neben der Brustwand eingeschränkt. Schnittstellen zwischen zwei Klassen von Anomalien können ebenfalls übersehen werden, wenn die Informationen über das umgebende Lungengewebe nicht in den Patches enthalten sind [36, 37]. Es gibt auch andere Ansätze, darunter z.B. die Segmentierung der fibrotischen Lunge ohne separate Quantifizierung der einzelnen Komponenten (d.h. Milchglas, Netzstrukturen, Wabenbildung) [38]. Dies erfordert eine Konturierung der abnormalen fibrösen Bereiche auf jedem CT-Scanbild, was zeitaufwendig ist, aber dann die Anwendung des Modells auf die gesamte Lunge ermöglicht.
Erkennung der Lungenschrumpfung
Die elastische Registrierung wird verwendet, um die Lungenschrumpfung bei Patienten mit Lungenfibrose zu quantifizieren. CT-Bilder wurden elastisch registriert, um die Basislinienbilder abzugleichen, woraufhin Deformationskarten erstellt werden können. Die elastische Registrierung wurde mit multimerischen, multimodalen, graphbasierten Registrierungsalgorithmen durchgeführt [39]. Jacobi-Karten wurden aus dem Logarithmus der Jacobi-Determinante (Log_jac) für jedes Voxel der Deformationsmatrix abgeleitet. Die Jacobi-Determinante ist quantitativ definiert als die Deformation (Dehnung oder Schrumpfung) jedes Voxels, um die Basislinien-Lungenscans für die Nachuntersuchung anzupassen. Log_jac ist gleich 0, wenn die Voxelgröße nach der Deformation gleich bleibt. Log_jac ist negativ, wenn das deformierte Voxel kleiner ist als das Original; Log_jac ist positiv, wenn das deformierte Voxel größer ist [40]. Jacobi-Karten zeigten bei der visuellen Beurteilung eine Schrumpfung des Lungenparenchyms der hinteren Lungenbasen bei Patienten mit verschlechterter ILD. Morphologische und funktionelle Verschlechterungen können mit einer Genauigkeit von 80% (32 von 40 Patienten; 95%-Konfidenzintervall (KI): 64–91%) bzw. 83% (33 von 40 Patienten; 95%-KI: 67–93%) erkannt werden. Die Jacobi-Werte korrelierten signifikant mit Veränderungen der Lungenfunktion, einschließlich der forcierten Vitalkapazität (R = 20,38; 95%-KI: 20,25–20,49; P, 0,001) und der Lungen-Diffusionskapazität für Kohlenmonoxid (R = 20,42; 95%-KI: 20,27–20,54; P, 0,001).
Konturierung des Ausmaßes der Erkrankung
Die automatische Bewertung des Ausmaßes von ILD-bedingter SSc auf CT-Bildern von Patienten ohne oder mit leichter bzw. schwerer Lungenerkrankung wurde mithilfe eines tiefen neuronalen Multikomponenten-Netzwerks (AtlasNet) entwickelt und an vollständig annotierten CT-Bildern trainiert. Die von 3 Lesern und dem neuronalen Netzwerk bewerteten ILD-Konturen wurden mit dem Dice-Ähnlichkeitskoeffizienten (DSC) verglichen [41]. Die medianen DSC zwischen den Lesern und den ILD-Konturen des Deep Learning reichten von 0,74 bis 0,75, während die medianen DSC zwischen den Konturen der 3 Radiologen von 0,68 bis 0,71 reichten. Der Unterschied zwischen dem Algorithmus und den einzelnen Lesern war also geringer als zwischen den Lesern selbst. Die Korrelationen des Ausmaßes der Erkrankung mit der Diffusionskapazität der Lunge für Kohlenmonoxid, der gesamten Lungenkapazität und der forcierten Vitalkapazität betrugen r = -0,65, -0,70 bzw. -0,57 im externen Validierungsdatensatz (P, 0,001 für alle) [42].
Stärken und Grenzen der KI in der Thoraxbildgebung
Der Bereich der medizinischen Bildgebung macht derzeit große Fortschritte im maschinellen Lernen für die öffentliche Gesundheitsfürsorge. Im September 2019 erhielt GE Healthcare die FDA-Zulassung für die Vermarktung einer Reihe von Algorithmen zur Erkennung von Pneumothorax auf Röntgenbildern der Brust [43]. Ein Abstract, der fast zeitgleich auf der International Association for the Study of Lung Cancer (IASLC) vorgestellt wurde, lieferte Hinweise darauf, dass CAD mit einem Niedrigdosis-CT-Scanner ein wirksames Screening auf Lungenkrebs darstellt [44]. Überraschenderweise hatte ein von Google-Wissenschaftlern generiertes neuronales Netzwerk die gleiche Genauigkeit bei der Erkennung bösartiger Lungenknoten wie das von Radiologen bereitgestellte [45]. Eine weitere Studie, die 2018 veröffentlicht wurde, kam zu demselben Ergebnis und stellte fest, dass Deep-Learning-Algorithmen bei der Klassifizierung von ILD die gleiche Effizienz wie Brustradiologen erreichten [46]. Ähnliche Ergebnisse wurden erzielt, als KI zur Diagnose von COPD bei Rauchern und zur Vorhersage von Exazerbationen und Mortalität eingesetzt wurde [47].
Obwohl sich viele Studien auf CT-Scan-basierte Deep-Learning-Methoden konzentriert haben, haben einige wenige auch den Mehrwert von KI für die «klassische» Röntgenplattform untersucht [48]. Die hohe Genauigkeit bei der Erkennung und Klassifizierung von Lungenentzündungen mithilfe von Deep Learning und Texturanalyse [49, 50] wurde kürzlich zur Erkennung von COVID-19 eingesetzt [51, 52]. Im Mai 2022 wurden in einer Qualitätsüberprüfung 40 Artikel über die Fortschritte bei der Anwendung von maschinellem Lernen bei der Diagnose von Pneumokoniose im Kohlebergbau zusammengefasst [53]. Der optimale Einsatz von KI wird die verfügbare Zeit der Ärzte zugunsten der Patientenversorgung optimieren, aber auch die diagnostische Genauigkeit und die therapeutische Effizienz und damit den Arbeitsablauf verbessern. Mithilfe von Parametern, die auf Dichte und Textur basieren, kann CAD zum Beispiel automatisch abnormale Röntgenbilder des Brustkorbs in der Arbeitsliste des Radiologen identifizieren und so die Bearbeitungszeit für die Meldung eines abnormalen Röntgenbildes um 44% reduzieren [54]. CAD-Tools können für spezifische Erkennungsaufgaben bei Röntgenaufnahmen des Brustkorbs eingesetzt werden, z.B. für die Erkennung von Tuberkulose, Lungenentzündung oder Lungenknötchen [55, 56]. Andere, noch spezifischere Aufgaben wie die Erkennung von Mehrfacherkrankungen sind ebenfalls in der Entwicklung. Enorme Erkenntnisse über die Auswirkungen der KI auf die Thoraxbildgebung können insbesondere an Orten von Nutzen sein, an denen es an Experten für die Interpretation von Thoraxröntgenaufnahmen mangelt, selbst wenn Bildgebungsgeräte und -einrichtungen leicht zugänglich sind [55, 57].
Bei der Anwendung von Deep-Learning-Algorithmen auf die medizinische Bildanalyse gibt es jedoch viele Herausforderungen. Erstens ist der Mangel an großen Trainingsdatenbanken in der Anfangsphase ein unvermeidliches Hindernis. Beim Deep Learning ist eine große Trainingsdatenbank unerlässlich, da eine größere Anzahl von Bildern zur Verbesserung der Trainingsgenauigkeit erforderlich ist. Folglich können schwache Algorithmen, die auf einer großen Datenmenge basieren, genauer sein als starke Algorithmen, die aus einem kleinen Datensatz abgeleitet werden [58]. Eine weitere schwerwiegende Herausforderung ist das Ungleichgewicht der Klassen, d.h. die viel höhere Anzahl von Proben einer Klasse [59]. Die Genauigkeit von Deep-Learning-Algorithmen hängt daher entscheidend davon ab, dass die Anzahl der Stichproben in jeder Klasse gleich oder ausgeglichen ist, eine Anforderung, die nicht immer erfüllt werden kann. Um diese Schwierigkeit zu umgehen, kann die Trainingsdatenbank ohne neue Bilder vergrößert werden, indem Bildverstärkungstechniken (Augmentation) eingesetzt und Variationen der Originalbilder erzeugt werden. Dies kann durch die Implementierung verschiedener Verarbeitungsmethoden wie Drehen, Spiegeln, Verschieben, Zoomen und Hinzufügen von Rauschen zum Originalbild erreicht werden [60].
Das Transfer-Lernen, eine beliebte Methode in der Computer Vision, bietet eine weitere Strategie zur Lösung des Problems der Datenbeschränkung [61]. Transfer-Lernen ermöglicht die Wiederverwendung eines Modells aus einem bestimmten Bereich in einem anderen Bereich. Transfer-Lernen kann mit oder ohne vortrainierte Modelle durchgeführt werden. Vortrainierte Modelle werden entwickelt, um neue Aufgaben zu lösen, die den zuvor bearbeiteten Aufgaben sehr ähnlich sind. Dieser Ansatz kann Zeit sparen, da bestehende Modelle als Ausgangspunkt wiederverwendet werden können. Viele ConvNet-Architekturen sind beispielsweise auf ImageNet vortrainiert [62]. Bush et al. trainierten ein ConvNet-Modell auf einer Teilmenge von ImageNet-Daten und konnten Röntgenbilder der Brust mit einer Sensitivität von 92% und einer Spezifität von 86% als positiv oder negativ für das Vorhandensein von Lungenknötchen einstufen [63].
Mit Millionen von Bildern gespeiste Picture Archiving and Communication-Systeme (PACS) werden in den meisten westlichen Krankenhäusern seit mindestens 1 Jahrzehnt in der Radiologie eingesetzt. Forschern werden zunehmend mehr öffentliche Datenbanken zur Verfügung gestellt, z.B. solche, die Bildanalysealgorithmen zur Erkennung von Lungenknoten in Lungen-CT-Scans aus der LIDC-IDRI (Lung Image Database Consortium-Bildsammlung) evaluieren [64], oder Daten aus der Kohorte der auf COVID-19 getesteten Patienten an der SUNY (State University of New York) [65]. Eine der größten Datenbanken ist ChestX-ray8, die aus den klinischen PACS der dem National Institute of Health angeschlossenen Krankenhäuser erstellt wurde. Diese Datenbank enthält 111 220 Röntgenbilder in Frontalansicht von 30 805 Patienten und beschriftete Bilder von 8 Erkrankungen, die später auf 14 Erkrankungen (chestX-ray14) erweitert wurden, darunter Atelektase, Konsolidierung, Infiltration, Pneumothorax, Ödem, Emphysem, Fibrose, Erguss, Pneumonie, Pleuraverdickung, Kardiomegalie, Knoten, Masse und Hernie [66].
Eine weitere Herausforderung ist die Erfassung relevanter Anmerkungen oder Beschriftungen für medizinische Bilder. Angesichts der Komplexität des Trainings von Algorithmen im Gesundheitswesen benötigen Forscher in der Regel den Rat von Fachexperten (z.B. Radiologen oder Pathologen), um aufgabenspezifische Annotationen für Bilddaten zu erstellen. Diese Art der überwachten Analyse wird durch die intrinsische Subjektivität eingeschränkt: Ohne eine angemessene Qualitätskontrolle könnte das maschinelle Lernen menschliche Fehleinschätzungen fälschlicherweise replizieren. Dies erklärt das derzeit wieder wachsende Interesse an unüberwachtem Maschinenlernen. Unüberwachte Methoden sind attraktiv, da sie das anfängliche Training des Netzwerks mit der Fülle der weltweit verfügbaren unbeschrifteten Daten ermöglichen [67].
Da CT-Bilder per Definition 3D-Bilder sind, ist die Verwendung von ConvNet komplexer als bei 2D-Röntgenbildern. Die Beschriftung einer großen Datenbank ist zeitaufwendig und daher problematisch. Um Deep-Learning-Systeme für die Segmentierung von 3D-CT-Bildern zu trainieren, sind beispielsweise Schicht-für-Schicht-Annotationen erforderlich, was jedoch aufgrund der hohen Anzahl von Schichten eine Herausforderung darstellt. Um dieses Problem zu lösen, kann ConvNets 2D verwendet werden, das auf jede Schicht angewendet wird. Alternativ kann ein Patch-basierter Ansatz verfolgt und die Bildgröße reduziert werden. In beiden Fällen besteht jedoch das Risiko eines Informationsverlusts. Die Ergebnisse sind nichtdestotrotz vielversprechend und ConvNets-artige neuronale Netze erzielen im Allgemeinen bessere analytische Ergebnisse als traditionelle Methoden des maschinellen Lernens. Der Patch-basierte Ansatz wird beispielsweise mit der CALIPER-Software verfolgt, weshalb diese Software zur Quantifizierung des Ausmaßes und des Fortschreitens der Krankheit bei IPF-Patienten derzeit bei klinischen KI-Anwendungen an Dynamik gewinnt [68, 69].
Bilder aus der Thorax-CT werden in der Regel aus 2 verschiedenen Rekonstruktionen erhalten, wobei Hochfrequenz- und Lungenkerne für die Beurteilung des Lungenparenchyms verwendet werden, während Standardrekonstruktion und mediastinale Kerne zur Beurteilung des Mediastinums verwendet werden. Neuere Studien deuten darauf hin, dass die Leistung von Deep-Learning-basierten Instrumenten zur Erkennung und Charakterisierung von Lungenknoten von den Akquisitions- und Rekonstruktionsparametern wie z.B. der Wahl des Rekonstruktionskerns beeinflusst wird [70, 71]. Aktuelle Daten, die den Einfluss von Rekonstruktionsfiltern auf die Segmentierung von Lungenerkrankungen mithilfe von datengesteuerten Forschungsmethoden evaluieren, haben gezeigt, dass Training sowohl auf Mediastinal- als auch auf Lungenkernbildern die Leistung des Modells verbessern kann [72].
Bei der medizinischen Bildanalyse werden nützliche Informationen nicht nur aus den Bildern selbst gewonnen. Zusätzliche Daten zur Krankengeschichte, zum Alter, zur Demografie und zu anderen paraklinischen Untersuchungen sind ebenfalls nützlich, um die diagnostische Präzision zu verbessern. Die Kombination dieser Informationen kann in Deep-Learning-Netzwerken auf einfache Weise bewertet werden [73]. Die erzielten Verbesserungen waren jedoch geringer als erwartet. Zu den aktuellen Herausforderungen zählt das Erreichen eines angemessenen Gleichgewichts zwischen der großen Anzahl (in der Regel Tausende) von Bildgebungsmerkmalen, die in Deep-Learning-Netzwerken verwendet werden, und der sehr geringen Anzahl von klinischen Merkmalen, um eine Vernachlässigung der Letzteren zu verhindern.
Genauso wie menschliche Entscheidungsprozesse auf «Instinkt» beruhen können, der nicht eindeutig erklärt oder entschlüsselt werden kann, können auch neuronale Netzwerke manchmal als «Blackbox» betrachtet werden. Dies muss berücksichtigt werden, insbesondere in Situationen, in denen die Haftung von Bedeutung ist und schwerwiegende rechtliche Konsequenzen drohen. Mit anderen Worten, ein gutes Vorhersagesystem ist möglicherweise im Hinblick auf die öffentliche Wahrnehmung nicht ausreichend. Infolgedessen wurden mehrere Strategien entwickelt, um das beeindruckende und komplizierte Labyrinth, repräsentiert durch die mittleren Schichten von Faltungsnetzwerken, besser zu verstehen. Dazu gehören Dekonvolutionsnetzwerke [74], geführte Backpropagation [75] oder tiefe Taylor-Zerlegung [76], die dazu beitragen könnten, die öffentliche Wahrnehmung von KI als «Blackbox»-Mechanismen abzuschwächen.
Schließlich müssen künstliche neuronale Netze, wie alle klinischen Anwendungen, ausgiebig trainiert und validiert werden. Wie oben beschrieben besteht jedoch ein Ungleichgewicht zwischen der Anzahl der veröffentlichten technischen Innovationen und den tatsächlichen klinischen Anwendungen. Einer der Gründe ist die Publikationsverzerrung, die mit einem Mangel an externer Validierung zusammenhängt oder mit sehr spezifischen Datenbanken, die von einem Zentrum stammen, über das in vielen Publikationen berichtet wird. Obwohl die Durchführung von Validierungsstudien an sich ein limitierender Faktor ist und zahlreiche administrative Hürden überwunden werden müssen, um die Genehmigung der Aufsichtsbehörden zu erhalten, werden klinische Prüfer ermutigt, ihre Bemühungen zur Anwendung von KI in der täglichen klinischen Praxis zu bündeln. Zwischenzeitlich wird die Software-Validierung vor allem von Branchenunternehmen durchgeführt, die eher gewinnbringende finanzielle statt wissenschaftliche Ziele verfolgen. Aus diesem Grund ist eine engere Zusammenarbeit zwischen akademischen, einschließlich technischen, biologischen und klinischen Forschern, und industriellen Partnern erforderlich. Für diese Art der Zusammenarbeit und zur Schließung dieser Lücke ist interdisziplinäre Forschung an Universitäten unerlässlich [77]. Initiativen von verschiedenen Berufsverbänden, die neue Trainingsprogramme für den Einsatz von KI in der medizinischen Bildgebung einführen, sind daher zu begrüßen.
Schlussfolgerungen
Dies sind unsere Schlussfolgerungen über die Anwendung von künstlicher Intelligenz in der Lungenbildgebung bei Patienten mit bronchialen und parenchymatösen Lungenerkrankungen. Dieser neue Ansatz wird die personalisierten Ansätze sowohl für die diagnostische Leistung als auch für die therapeutische Effizienz verbessern und zu besseren medizinischen Resultaten führen. In einer Zeit, in der die menschliche Gesundheit durch aufkommende und tödliche Pandemien bedroht ist, die Millionen von Menschen betreffen, wie z.B. COVID-19, werden präzise Mittel zur schnellen Identifizierung von Risikopatienten mit bereits bestehenden Lungenerkrankungen die globale Sterblichkeitsrate senken.
Beiträge der Autoren
Konzeptualisierung, T.-N.H.-T., H.-D.T., N.-N.L.-D. und M.-P.R.; Methodik, G.C.; Literaturrecherche und Vorbereitung des Originalentwurfs, T.-N.H.-T.; schriftliche Überprüfung und Bearbeitung, alle Autoren; Aufsicht, M.-P.R. und A.T.D.-X. Alle Autoren haben die veröffentlichte Version des Manuskripts gelesen und ihr zugestimmt.
Disclosure Statement
Die Autoren erklären keine Interessenskonflikte.
Lizenzangabe
Hoang-Thi TN, Chassagnon G, Tran HD, Le-Dong NN, Dinh-Xuan AT, Revel MP: How Artificial Intelligence in Imaging Can Better Serve Patients with Bronchial and Parenchymal Lung Diseases? J Pers Med. 2022 Aug 31;12(9):1429 (DOI: 10.3390/jpm12091429). © 2022 The authors. Licensee MDPI, Basel, Switzerland (Übersetzung; Finanzielle Unterstützung, Erklärung der Prüfungskommission, Einverständniserklärung, Erklärung zur Datenverfügbarkeit gekürzt), lizensiert unter CC BY 4.0 (https://creativecommons.org/licenses/by/4.0/deed.de).