Worldwide China

BILDANALYSE & BEARBEITUNG SPECIAL

Trainierbare Bildanalyse für High-Content-Screening

06.03.2006 | Autor / Redakteur: RON SCHWARZ*, THOMAS BERLAGE* UND TORSTEN KNIEPS* /

Abb.1: Der Anwender markiert zellbedeckte (rote Linien) und zellfreie Beispielregionen (blaue Linien). Das System analysiert die Bilddaten entsprechend den Vorgaben und markiert den Bedeckungsgrad.
Abb.1: Der Anwender markiert zellbedeckte (rote Linien) und zellfreie Beispielregionen (blaue Linien). Das System analysiert die Bilddaten entsprechend den Vorgaben und markiert den Bedeckungsgrad.

Das Fraunhofer-Institut für Angewandte Informationstechnik FIT in Sankt Augustin stellt nach intensiver Forschung auf dem Gebiet der benutzerorientierten Softwaresysteme eine durch den Anwender in seinem biologischen Kontext intuitiv trainierbare Bild-Analysesoftware vor.

Das Fraunhofer-Institut für Angewandte Informationstechnik FIT in Sankt Augustin stellt nach intensiver Forschung auf dem Gebiet der benutzerorientierten Softwaresysteme eine durch den Anwender in seinem biologischen Kontext intuitiv trainierbare Bild-Analysesoftware vor.

Moderne Methoden der Wirkstoffsuche erfordern einen immer höheren Probendurchsatz, um immer zahlreichere Substanzbibliotheken in möglichst kurzen Durchlaufzeiten auf ihre Wirkung auf bestimmte Proteine (Targets) zu untersuchen, von denen angenommen wird, dass ihre Manipulation einen positiven Einfluss auf einen Krankheitsverlauf haben wird. Aufgrund der rasanten technischen Entwicklung in der Laborautomatisierung und der digitalen Mikroskopie können mittlerweile mehrere 10 000 Wirkstoffkandidaten in Ultra-High-Throughput-Screenings (UHTS) am Tag getestet werden, von denen aber nur ein minimaler Prozentsatz eine erste positive Reaktion (Hit) mit dem Target zeigt.

Diese enorme Zahl von Ergebnissen aus dem primären Screening-Prozess entwickelt sich für die Forscher jedoch rasch zu einem neuen Problem: Wie sollen unter den vielen Hits die Substanzen gefunden werden, die für weitergehende, aufwändige und kostenintensive Analysen wie z.B. klinische Tests den größten Erfolg versprechen?

Zur Beantwortung dieser Fragestellung werden in einem zweiten Screening-Prozess die aus den ersten Untersuchungen identifizierten Substanzen auf ihre vielfältige Wirkung in zellbasierten Assays getestet. In diesen High-Content-Analysen (HCA) werden dabei entgegen den ersten Untersuchungen die Substanzen nicht mehr einzig auf ihre Interaktion mit dem Target getestet. Vielmehr werden möglichst alle Informationen gesammelt und Effekte analysiert, die der zu untersuchende Wirkstoff auf die natürliche Umgebung des Targets hat, um z.B. toxische Substanzen von vorneherein auszuschließen.

Experimente auf diesem Niveau versprechen weitaus umfangreichere biologische Einsichten als molekulare Ansätze, sind aber gleichzeitig in Handhabung und Durchführung einfacher als Untersuchungen an komplexen Organismen. Die multifunktionalen Auswirkungen der Wirkstoffe können an tausenden Zellen unter den unterschiedlichsten Bedingungen beobachtet und analysiert werden.

Leistungsfähige Software nötig

Diese Art der Untersuchungen auf zellulärer und subzellulärer Ebene erfordert eine leistungsfähige und flexible Analysesoftware, die vom Anwender einfach zu bedienen ist und ihm einen vorwiegend intuitiven Zugang zu den Ergebnissen ermöglicht. Zurzeit dominieren zwei gegenläufige Strategien die softwaretechnische Realisierung der Analyseprozesse:

-Maßgeschneiderte Insellösungen, die für spezifische Anwendungen und Zelllinien validiert sind und-programmierbare oder konfigurierbare Toolkits, die vom Anwender für ein spezifisches Assay programmiert oder konfiguriert werden müssen.

Im Kontext des Assay-Designs beinhalten Insellösungen die Gefahr, dass sie für neue Assays nicht anwendbar sind. Da die forschungsrelevanten biologischen Fragestellungen einem ständigen Änderungs- und Anpassungsprozess unterworfen sind, ändert sich in der Folge auch die Beschaffenheit der zu analysierenden Daten.

Aufgrund dieser Dynamik haben Insellösungen in der Regel nur eine begrenzte Lebens- und Verwendungsdauer. Die Entwicklung neuer applikationsspezifischer Lösungen benötigt hingegen Softwarespezialisten und ist kostspielig. Wird die Entwicklung extern realisiert, müssen zudem sensible Forschungsunterlagen offen gelegt werden.

Wird die Entwicklung intern realisiert, muss eine eigene Abteilung für Softwareentwicklung geschaffen und unterhalten werden. Programmierbare Toolkits auf der anderen Seite sind zwar flexibler, aber selbst erfahrene Anwender benötigen zahlreiche Bearbeitungs- und Konfigurationsschritte, um die gewünschte Lösung zu realisieren.

Neue Ansätze der Bildanalyse

Das Fraunhofer-Institut für Angewandte Informationstechnik FIT in Sankt Augustin hat nach intensiver Forschung auf dem Gebiet der benutzer-orientierten Softwaresysteme einen neuen Ansatz für Bildanalysesoftware für High-Content-Screenings (HCS) entwickelt.

Eine neuartige Benutzerschnittstelle ermöglicht dem Anwender im Screening-Labor ein Bildanalyse-Toolkit in seinem biologischen Kontext intuitiv auf die spezifische Applikation zu trainieren. Hierfür benötigt er keine Programmierkenntnisse. Dies ermöglicht dem Anwender die Erstellung auch komplexer Anwendungen, ohne sich mit den zugrunde liegenden komplizierten Algorithmen auseinandersetzen zu müssen.

Diese neue Generation von Software lässt den Anwender Beispiele der gewünschten Ergebnisse an einigen für das Assay repräsentativen Trainingsbildern definieren. Dabei markiert der Anwender die für seine Analysezwecke interessanten Bildsegmente. Das System erlernt auf Basis dieser Vorgaben die optimalen Analyseparameter für die nachfolgenden, vollautomatischen Bearbeitungsschritte.?Die Bildanalyse-Software basiert auf einer Sammlung von Standarderkennungsfunktionen sowie erweiterten Möglichkeiten, Strukturen anhand ihrer texturbasierten, visuellen Eigenschaften zu unterscheiden. Insgesamt fokussiert dieser Ansatz folgende Aspekte:

-Reproduzierbare Analysen von Zellbildaufnahmen,-durch den Anwender trainierbare Mustererkennung,-umfassende und erweiterbare Auswahl an Bildanalysealgorithmen zur Erkennung und Klassifizierung von Objekten sowie-Schnittstellen zu externen Visualisierungs- und Visual-Data-Mining-Applikationen.

Im Folgenden demonstrieren einige typische Beispielanwendungen die Handhabung und das Anwendungsspektrum dieses neuartigen Softwaresystems.

Ermittlung des Bedeckungsgrades

Zum Trainieren der Software markiert der Biologe mit der Maus in einigen Beispielbildern Bildregionen als Positivbeispiele, die mit Zellen bewachsen sind und zellfreie Bildregionen als Negativbeispiele. Das System lernt anhand dieser Beispiele, zellbedeckte Teile der Zellkultur von zellfreien zu unterscheiden und ist damit in der Lage, weitere Bilddaten automatisch entsprechend den Nutzervorgaben auszuwerten. Zur Validierung der Trainingsdaten kann eine Gruppe von Bildern direkt analysiert und mit manuellen Analyseergebnissen verglichen werden. Falls notwendig, können Fehlanalysen selektiert werden, um die Erkennungsrate in weiteren Trainingszyklen zu optimieren. Diese Applikation kann in wenigen Stunden durch den Anwender entwickelt und validiert werden (Abb. 1).

Zelldetektion und -klassifikation

Das System wird vom Anwender in der Art trainiert, dass Beispiele einzelner Zellen mit der Maus angeklickt werden. Auf der Grundlage dieser Vorgaben lernt das System die charakteristischen Eigenschaften der markierten Strukturen und erkennt entsprechende Zellen automatisch. Wie bei der Erkennung von Bildbereichen arbeitet die Zelldetektion auf unterschiedlichsten Bildtypen und ermittelt anhand der Bild-Charakteristika die optimalen Erkennungsmethoden (Abb. 2). Das System kann darüber hinaus verschiedene Zelltypen klassifizieren. Der Anwender wählt für jeden zu erkennenden Zelltyp einige Beispiele, die erkannt und unterschieden werden sollen (Abb. 3a u. 3b).

Dynamische Bilder

Das System ist ebenso in der Lage, Sequenzen von Zellbildaufnahmen, die aus längeren Beobachtungszeiträumen resultieren, zu analysieren. Dadurch können nicht nur Zeitpunktaufnahmen, sondern auch längere Zeiträume in die Analyse einbezogen werden. Lokale Veränderungen einzelner Zellen oder unterschiedlicher Zelltypen können so beobachtet und quantifiziert werden. So können z.B. Wirkstoff-Intensitäts-Entwicklungen einzelner Zellen gemessen und statistisch ausgewertet werden. Auch die Detektion und Quantifizierung subzellularer Strukturen kann vom Anwender trainiert werden. Dabei können auch hierbei verschiedene Objekt-Klassen erkannt und ihre jeweilige Anzahl bestimmt werden (Abb. 4).

Translokations-Assays

Eine weitere typische Applikation ist die zellbasierte Messung der Fluoreszenzintensität in Translokations-Assays. Unterschiedliche Fluoreszenzmuster können anhand ihrer visuellen Definition unterschieden und örtliche Veränderungen detailliert charakterisiert werden. Für weitergehende statistische Auswertungen werden die Analyseergebnisse über eine Schnittstelle an entsprechende externe Visualisierungsapplikationen exportiert, mit denen interessante Beobachtungsbereiche (z.B. statistische Ausreißer) näher untersucht werden können.

Insgesamt ist dieser neue Ansatz ebenso flexibel und leistungsfähig wie eine Toolkit-Lösung, gleichzeitig für den Biologen als Anwender in der Handhabung vergleichbar einfach wie eine für den konkreten Einzelfall programmierte Insellösung und stellt damit eine dritte, hybride Strategie zur software-technischen Realisierung des Analyseprozesses von High-Content-Screenings dar. Im Resultat hat dieser Ansatz das Potenzial, Entwicklungs- und Validierungs-Aufwände und damit die enormen Risiken im Vorfeld der Assay-Entwicklung zu minimieren, da die Bildanalyse für ein neues Hochdurchsatz-Experiment in wenigen Stunden entwickelt und getestet werden kann. Ein kritischer Engpass der Assay-Entwicklung wird damit beseitigt.

Selbstverständlich hat auch dieser Ansatz Grenzen. Aber selbst wenn eine diskriminative Eigenschaft für ein spezielles Assay nicht gefunden werden kann, wird diese Einschränkung augenblicklich klar. Manuelle Konfigurationen oder aufwändige Programmierungen hingegen bergen die Gefahr, dass die Anwendung trotz beträchtlicher Investitionen an Zeit und Aufwand fehlschlägt. Derzeit wird das hier vorgestellte System in mehreren industriellen Applikationen unter realen Screening-Bedingungen weiter getestet und validiert. Ausführliche Ergebnisse aus ersten industriellen Einsätzen liegen bereits vor und unterstützen die Erwartung, dass weiterführende Forschungen auf diesem Gebiet den Einsatz dieser und ähnlicher benutzer-orientierter Systeme im Bereich der High-Content-Analysen vorantreiben werden.

* Fraunhofer Institut für Angewandte Informationstechnik FIT, Life Science Informatics, 53757 Sankt Augustin

Kommentare werden geladen....

Kommentar zu diesem Artikel abgeben

Der Kommentar wird durch einen Redakteur geprüft und in Kürze freigeschaltet.

  1. Avatar
    Avatar
    Bearbeitet von am
    Bearbeitet von am
    1. Avatar
      Avatar
      Bearbeitet von am
      Bearbeitet von am

Kommentare werden geladen....

Kommentar melden

Melden Sie diesen Kommentar, wenn dieser nicht den Richtlinien entspricht.

Kommentar Freigeben

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Freigabe entfernen

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 166174 / Meldungarchiv)