English China

Mit Licht und Software Intelligente Diagnostik von Hautkrebs

Redakteur: Dr. Ilka Ottleben

Die Häufigkeit von Hautkrebs steigt seit einigen Jahrzehnten weltweit stetig an. Gegenwärtig erkrankt hierzulande jeder 50. Mensch in seinem Leben an einem schwarzen Hautkrebs. Früherkennung ist wichtig – und sie könnte künftig intelligente Unterstützung bekommen.

Firmen zum Thema

Abb. 1: Künstliche Intelligenz (KI) kann dabei helfen, Hauttumore zu diagnostizieren, sagt Christoph Becker, Leiter des Projektes „Intelligente Diagnostik“ am FZI Forschungszentrum Informatik.
Abb. 1: Künstliche Intelligenz (KI) kann dabei helfen, Hauttumore zu diagnostizieren, sagt Christoph Becker, Leiter des Projektes „Intelligente Diagnostik“ am FZI Forschungszentrum Informatik.
(Bild: FZI Forschungszentrum Informatik)

LP: Bei der Diagnose von Hautkrebs spielen morphologische Gewebeveränderungen eine wichtige Rolle. Herr Becker, mit welchen Methoden lassen sich kleinste Veränderungen der Haut als Bilddaten erfassen?

Christoph Becker: Die dermatoskopische Diagnose von Hautkrebs erfolgt i. d. R. durch eine visuelle Begutachtung der Hautläsion. Diese wird nach dem ABCDE-Verfahren durchgeführt. Die Läsion wird demnach hinsichtlich Auffälligkeiten in Bezug auf Asymmetrie, Abgrenzung zum umgebenden Gewebe (Border), Farbe (Colour), Durchmesser und Erhabenheit untersucht und entsprechend klassifiziert. Unterstützt wird dieses Verfahren i. d. R. durch die Auflichtmikroskope. Studienergebnisse zeigen bei dermatoskopischen Untersuchungen eine Treffsicherheit von 85 Prozent.

Um die Prognosegenauigkeit zu verbessern, haben sich fünf baden-württembergische Forschungsinstitute im Rahmen des Projekts „Intelligente Diagnostik“ zu einem Konsortium zusammengeschlossen. Dem Projekt liegt die Hypothese zu Grunde, dass verändertes Hautgewebe das Licht anders remittiert. Bei dem Forschungsprojekt wird hierzu die Multispektrale Bildgebung genutzt, um einen umfassenderen Einblick in das Hautgewebe zu erlangen, als dies mit klassischen RGB-Bildern möglich ist. Unterschiedliche Wellenlängen dringen unterschiedlich tief in das Hautgewebe ein und können somit Daten aus tieferen Hautschichten erfassen, die dann zur Diagnose mit herangezogen werden können. Beispielsweise können mithilfe der strukturierten Beleuchtung im Nah­infrarotbereich Informationen aus bis zu 5 mm unterhalb der obersten Hautschicht ermittelt werden. Diese Informationen stehen Dermatologen mit klassischen RGB-Verfahren wie der Auflichtmikroskopie nicht zur Verfügung.

Bildergalerie

LP: Welche Parameter wurden hierbei im Forschungsprojekt „Intelligente Diagnostik“ berücksichtigt?

Becker: Durch die unterschiedlichen Absorptions-Eigenschaften der Haut, kann die Multispektrale Bildgebung Aufschluss über viele verschiedene Parameter liefern. Dank des Projektes „Intelligente Diagnostik“ konnte gezeigt werden, dass mithilfe der multispektralen, strukturierten Beleuchtung eine Bestimmung der Chromophor-Konzentrationen möglich ist.

Die integrale Sauerstoffsättigung, die Hämoglobinkonzentration sowie die Melanin-Konzentration sind weitere Parameter, welche ebenfalls aus den Messdaten (mit einer theoretischen Genauigkeit von ca. 10 %) ermittelt werden können. Die Bestimmung dieser Parameter erfordert jedoch eine robuste Messung, welche während der Projektlaufzeit aufgrund der kontaktlosen Messung nicht immer möglich war. Um Messartefakte zu vermeiden und Parameter wie die Chromophor-Konzentrationen verlässlicher zu bestimmen, werden die Messsysteme in einer aktuell laufenden zweiten Projektphase um die Möglichkeit der Durchführung von Messungen in Kontakt erweitert.

LP: Wie lassen sich die Datensätze mittels künstlicher Intelligenz für eine genauere Diagnostik umsetzen?

Becker: Bereits heute existieren unterschiedliche Ansätze, die ver­suchen, auf Basis einer großen Trainingsdatenbank mittels KI automatisiert Hautläsionen zu klassifizieren. Die im Projekt erstellten Datensätze lassen sich nicht mit klassischen RGB-Bildern vergleichen. Eine einzelne, dort gemachte multispektrale Aufnahme kann z. B. bis zu 1 GB an Informationen umfassen. Auf Basis der Trainingsdaten, zu denen eine entsprechende Klassifikation vorliegt, sollen mithilfe eines 2D Convolutional Neural Networks Features gelernt werden, die eine Klassifikation erlauben. Die multispektrale Messung erlaubt es, Features in Hautschichten zu erkennen, die in klassischen RGB-Bildern nicht identifiziert werden können und somit für Menschen zudem schwierig zu interpretieren sind.

LP: Im Projekt wurde ein eigenes Managementsystem entwickelt. Welche Aufgaben kann dieses System erfüllen, und inwieweit ist es noch lernfähig und verbesserbar?

Becker: Das Management-System integriert das multispektrale Messsystem sowie das KI-System zu einem prototypisch umgesetzten Demonstrator. Die durch das multispektrale Messsystem erzeugten Aufnahmedateien werden im Managementsystem verwaltet. Dem Arzt stehen dabei mehrere Funktionen zur Verfügung. Das System erlaubt die 2D- und 3D-Begutachtung der Hautlä­sion. Zudem wird das KI-Ergebnis textuell sowie in Form einer Heatmap dargestellt, welche die Relevanz von Regionen im Bild für die KI-basierte Klassifikation hervorhebt.

Der Arzt erhält somit eine Indikation, ob das KI-System bei der Diagnose auf die korrekte Läsion fokussiert. Er verfügt darüber hinaus über die Möglichkeit, die Daten zu klassifizieren bzw., nach einer labortechnischen Untersuchung der Läsion, Diagnosen zu überschreiben. Das Managementsystem erlaubt dem Bediener zudem, Trainings- und Test-Prozesse zu starten und das Modell auf Basis der stetig wachsenden Datensätze kontinuierlich zu verbessern. Außerdem ist es in der Lage, unterschiedliche Modelle zu verwalten, zwischen denen gewechselt werden kann. Zur automatisierten Klassifikation der multispektralen Aufnahmen im Projekt werden 2D Convolutional Neural Networks in das System eingebunden.

Im Rahmen des ebenfalls durch das Ministerium für Wirtschaft, Arbeit und Tourismus Baden-Württemberg geförderten Folgeprojekts Intelligente Diagnostik 2 wird das Managementsystem weiterentwickelt. Ziel sind der Betrieb des Demonstrators an unterschiedlichen Standorten sowie die Erprobung des Ansatzes zur Diagnose von weiteren verwandten Krankheitsbildern. Im Zuge der standortübergreifenden Erprobung der Demonstratoren entstehen neue Herausforderungen hinsichtlich Datenschutz sowie Datenaustausch (ein Datensatz beträgt derzeit mehr als 1 GB). Hierzu sollen nun Verfahren aus dem Verteilten Lernen eingesetzt werden. Beim Verteilten Lernen werden die lokal trainierten Modelle zentral zu einen gemeinsamen KI-Modell fusioniert, ohne dass die Rohdaten mit potenziell personenbezogenen Daten ausgetauscht werden müssen. Das fusionierte Modell wird darauffolgend wieder an die einzelnen Standorte verteilt, sodass an jedem Standort von Erkenntnissen anderer Stand­orte profitiert werden kann.

(ID:47642498)