English China
Suchen

Datenmanagement Das müssen Sie über Big Data im Labor der Zukunft wissen

Autor / Redakteur: Dr. Florian Hauer* / Dr. Ilka Ottleben

Big Data ist in aller Munde – als Trend, als vielfach verwendetes Schlagwort. Dabei ist Big Data durch große Datenmengen, den Trend zu smarten Technologien und künstlicher Intelligenz längst mit intelligenten Anwendungen in unserer Realität angekommen – auch im Labor.

Firmen zum Thema

Abb. 3: Neuere Generationen von Laborgeräten haben reichhaltige Schnittstellen und Apps, werden aber oft zusammen mit älteren Geräten verwendet, die veraltete oder gar keine Interfaces haben.
Abb. 3: Neuere Generationen von Laborgeräten haben reichhaltige Schnittstellen und Apps, werden aber oft zusammen mit älteren Geräten verwendet, die veraltete oder gar keine Interfaces haben.
(Bild: Labfolder/Bernhard Ludewig 2012)

Seit Jahren hält sich „Big Data“ beharrlich an der Spitze der Liste an Schlagwörtern, die aktuelle Trends beherrschen. Nicht nur im privaten Bereich und generellen Business-Anwendungen, sondern auch in Wissenschaft und Forschung und somit auch in allen Laboren ist Big Data mehr als ein Trend: Big Data ist längst Realität geworden. Es gibt eine Reihe von Entwicklungen, die dabei zu einer Verbreitung von Big-Data-Anwendungen in allen Lebensbereichen geführt haben:

Bildergalerie
  • Große Datenmengen: Die Menge an Daten nimmt ständig und exponentiell zu. Immer neue Geräte erzeugen Daten in immer größeren Volumina. Im privaten Bereich mag hier die Smartwatch, die Daten generiert während wir uns im Schlaf bewegen, als eingängiges Beispiel dienen. In Laboren sind technische Fortschritte in datenlastigen Anwendungen wie Next-Generation Sequencing (NGS), Imaging und anderen Anwendungen offensichtliche Beispiele, aber auch Standard-Laborgeräte erzeugen immer mehr Daten. Daten werden immer besser verfügbar, z.B. in öffentlichen Datenbanken und Repositorien, und staatliche Geldgeber verlangen die Hinterlegung und Zurverfügungstellung von Daten nach Publikationen in stetig wachsender Detailtiefe. Zudem wird der Datenaustausch immer wichtiger: Kooperationen von Big Pharma, CROs, akademischen Einrichtungen und privaten Laboren gehören mittlerweile in allen Labordisziplinen zum Alltag.
  • Smart Devices: Im Internet der Dinge (Internet of Things, IoT) sorgen smarte „Agenten“, also mobile Applikationen, Devices, Produktionseinheiten und Workflows für eine vollvernetzte Arbeits- und Produktionsumgebung. Hier kann die Effizienz maßgeblich gesteigert werden, Prozesse werden in Echtzeit optimiert. Unter dem Begriff „Industrie 4.0“ haben Player aus Industrie und Fördermittelgeber ein Schwerpunktthema gefunden, das auch auf längere Sicht das Innovationsmanagement maßgeblich beeinflusst. Unter dem Begriff „Labor 4.0“ versteht man die parallele Entwicklung in Laboren: Vernetzte, intelligente Labor- und Analysegeräte, smarte Prozesse und mobile Anwendungen für die Mensch-Maschine-Interaktion sind auch im Labor auf dem Vormarsch. Auf dem „Smartlab“, einer Sonderausstellung der Labvolution-Messe, können auch im nächsten Jahr wieder die neuesten Entwicklungen getestet werden, die aus einem Konsortium internationaler Partner entwickelt wurden. Begünstigt wird die Entwicklung durch die – langsame aber kontinuierliche – Durchsetzung von Datenstandards wie dem SiLA-Standard.
  • Artificial Intelligence (AI): Dadurch, dass in den letzten Jahren insbesondere Anwendungen, die mit neuronalen Netzwerken arbeiten, durch immer weniger Expertenwissen implementierbar sind, setzen sie sich zunehmend durch. Selbstfahrende Autos, Expertensysteme, die hochqualifizierte Berufe wie Anwälte und Ärzte ersetzen sollen und Algorithmen, die Weltmeister in Schach und Go schlagen sind dabei diejenigen Anwendungen, die Schlagzeilen schreiben. AI-Systeme, die die Inhalte von Bildern, den Sinn von Texten oder einen optimalen Prozessweg erkennen, sind mittlerweile in alltäglichem Gebrauch. Auch in Laboren sind AI-Systeme angekommen: Sie kommen beispielsweise nicht nur bei der Auswertung von Genom- und Krankheitsdaten oder bei der Suche nach neuen Wirkstoffen zum Einsatz. Auch von Systemen, die eigenständig Fragestellungen bearbeiten oder Synthesewege optimieren, wurden bereits Prototypen vorgestellt.

Big Data – Anwendungsrealität birgt noch Limitationen

Big-Data-Applikationen sind im Zusammenhang mit der Erzeugung von großen Datenmengen, mit dem smarten Labor und AI-Anwendungen zwar auf einem unaufhaltsamen Vormarsch. Die Anwendungsrealität sieht in den allermeisten Laboren allerdings immer noch so aus, dass es noch ein weiter Weg ist, bis die prognostizierten Innovationen alltäglich sein werden. Dafür gibt es einige Gründe:

Bildergalerie
  • Geräteanbindungen: Labor- und Analysegeräte haben oft eine lange Abschreibungsdauer und werden, einmal eingekauft, oft jahrzehntelang genutzt. Werden die Geräte regelmäßig gewartet und validiert, besteht für viele Labore auch kein Grund, ein Gerät, das treue Dienste leistet, in den Ruhestand zu versetzen. Die Anschaffung stellt in den meisten Fällen einen signifikanten Kostenfaktor dar. Dies hat zur Folge, dass viele Laborgeräte oft ein veraltetes oder aber gar kein Interface haben, das die digitale Datenübertragung und Einbindung einfach möglich macht. Zudem gibt es nur wenige Labore, die ein einheitliches Herstellerportfolio aufweisen: Oft befinden sich Geräte von unterschiedlichen, hochspezialisierten Herstellern in kombinierter Anwendung. Auch wenn moderne Laborgeräte über umfangreiche, leicht ansprechbare Interfaces verfügen, wird es noch einige Jahre dauern, bis Smart Devices in Laboren eine flächendeckende Verbreitung gefunden haben. Zwischenzeitlich gibt es allerdings Wege, über Hardware- und Software­adapter, die einen geringen Anschaffungspreis haben, Geräte herstellerübergreifend zu verknüpfen.
  • Labordatenmanagement: Abgesehen davon, dass erstaunlich viele Labore ihr Datenmanagement immer noch mit einer bunten Mischung aus Papiernotizbüchern, lokal gespeicherten Dateien und zentral verwalteten Dateiarchiven betreiben, hat klassische Laborsoftware oft einen monolithischen Charakter: Zwar können alle Daten auf einer einheitlichen Plattform verwaltet und abgespeichert werden. Die Herstellung von Verbindungen zwischen diesen Daten ist aber oftmals schwierig. Bei stark standardisierten Analyseverfahren ist es zwar – zumindest theoretisch – noch mit überschaubarem Aufwand möglich, Analysen über den gesamten Datensatz durchzuführen: Wenn z.B. Analysewerte oder Prozessparameter nach dem immer gleichen Schema abgespeichert werden, erlaubt die Einheitlichkeit der Daten auch eine Metaanalyse. Sobald aber – zum Beispiel bei Optimierungs- oder Forschungsaufgaben – die Prozesse und damit die Aufzeichnungen heterogen werden, ist es oft sehr schwer, mit einem überschaubaren Aufwand globale Analysen durchzuführen, verdeckte Zusammenhänge aufzudecken, Wege zur vereinfachten Prozessoptimierung zu finden und aus den gewonnenen Daten einen zusätzlichen Mehrwert zu gewinnen.
  • Analysekapazität: In Laboren arbeitet hochqualifiziertes Personal, das neben der anwendungsspezifischen Domänenexpertise oft eine hohe Affinität für Digitalisierung und ein tiefgreifendes Verständnis für die Beschaffenheit und den Informationswert der gewonnenen Daten hat. Gleichzeitig muss neben dem Laborbetrieb auch immer mehr administrative Arbeit geleistet werden, die sich neben allgemeinen Verwaltungsaufgaben, der generellen Dokumentationsarbeit auch durch die notwendige Einhaltung von Laborrichtlinien ergibt. Dadurch bleiben trotz bester personeller Voraussetzungen oft keine Kapazitäten für eine wertschöpfende Nutzung der vorhandenen Daten. Denn immer noch sind die Tools dafür nicht so einfach zu bedienen oder die Struktur der Daten nicht so uniform, dass die Aufgabe des Big-Data-Managements nebenbei erledigt werden könnte. Labore und Einrichtungen, die sich nicht den Luxus eines dedizierten „Data Scientist“ leisten können, verpassen daher Chancen, die Schätze, die sich in ihren Daten befinden, auch zu heben.

Big Data – Herausforderungen gemeinsam meistern

Eine aktuelle Herausforderung für Labore, aber auch für Hersteller von Software­lösungen im Laborumfeld besteht darin, Laboren aller Disziplinen und Ausrichtungen Möglichkeiten zu schaffen, an den Möglichkeiten von Big Data teilzuhaben. Dazu müssen Lösungen geschaffen werden, Daten einfach und ohne zusätzlichen Aufwand zu erfassen, zu strukturieren und auszuwerten. Ein Ansatz, wie er auch von Labfolder verfolgt wird, ist die Möglichkeit, relevante Daten, die auf einer übergreifenden Plattform verwaltet werden, einfach zu markieren und anschließend aufgrund intrinsischer Eigenschaften zu klassifizieren, ohne dass es notwendig wird, die Daten mit zusätzlichem manuellen Aufwand zu kuratieren. Dabei können diese Daten aus der Dokumentation der Laborwissenschaftler, aus Materialien, Geräten, Datenbanken und anderen Datenquellen kommen. Die Möglichkeit, ­diese Daten in einem einfachen Interface auszuwerten, bildet eine weitere wichtige Voraussetzung für die volle Wertschöpfung aus der Gesamtheit der Labor­daten.

* Dr. F. Hauer: labfolder GmbH, 10625 Berlin

(ID:44261478)