Suchen

Datenmanagement

Das müssen Sie über Big Data im Labor der Zukunft wissen

Seite: 2/2

Firmen zum Thema

Big Data – Anwendungsrealität birgt noch Limitationen

Big-Data-Applikationen sind im Zusammenhang mit der Erzeugung von großen Datenmengen, mit dem smarten Labor und AI-Anwendungen zwar auf einem unaufhaltsamen Vormarsch. Die Anwendungsrealität sieht in den allermeisten Laboren allerdings immer noch so aus, dass es noch ein weiter Weg ist, bis die prognostizierten Innovationen alltäglich sein werden. Dafür gibt es einige Gründe:

  • Geräteanbindungen: Labor- und Analysegeräte haben oft eine lange Abschreibungsdauer und werden, einmal eingekauft, oft jahrzehntelang genutzt. Werden die Geräte regelmäßig gewartet und validiert, besteht für viele Labore auch kein Grund, ein Gerät, das treue Dienste leistet, in den Ruhestand zu versetzen. Die Anschaffung stellt in den meisten Fällen einen signifikanten Kostenfaktor dar. Dies hat zur Folge, dass viele Laborgeräte oft ein veraltetes oder aber gar kein Interface haben, das die digitale Datenübertragung und Einbindung einfach möglich macht. Zudem gibt es nur wenige Labore, die ein einheitliches Herstellerportfolio aufweisen: Oft befinden sich Geräte von unterschiedlichen, hochspezialisierten Herstellern in kombinierter Anwendung. Auch wenn moderne Laborgeräte über umfangreiche, leicht ansprechbare Interfaces verfügen, wird es noch einige Jahre dauern, bis Smart Devices in Laboren eine flächendeckende Verbreitung gefunden haben. Zwischenzeitlich gibt es allerdings Wege, über Hardware- und Software­adapter, die einen geringen Anschaffungspreis haben, Geräte herstellerübergreifend zu verknüpfen.
  • Labordatenmanagement: Abgesehen davon, dass erstaunlich viele Labore ihr Datenmanagement immer noch mit einer bunten Mischung aus Papiernotizbüchern, lokal gespeicherten Dateien und zentral verwalteten Dateiarchiven betreiben, hat klassische Laborsoftware oft einen monolithischen Charakter: Zwar können alle Daten auf einer einheitlichen Plattform verwaltet und abgespeichert werden. Die Herstellung von Verbindungen zwischen diesen Daten ist aber oftmals schwierig. Bei stark standardisierten Analyseverfahren ist es zwar – zumindest theoretisch – noch mit überschaubarem Aufwand möglich, Analysen über den gesamten Datensatz durchzuführen: Wenn z.B. Analysewerte oder Prozessparameter nach dem immer gleichen Schema abgespeichert werden, erlaubt die Einheitlichkeit der Daten auch eine Metaanalyse. Sobald aber – zum Beispiel bei Optimierungs- oder Forschungsaufgaben – die Prozesse und damit die Aufzeichnungen heterogen werden, ist es oft sehr schwer, mit einem überschaubaren Aufwand globale Analysen durchzuführen, verdeckte Zusammenhänge aufzudecken, Wege zur vereinfachten Prozessoptimierung zu finden und aus den gewonnenen Daten einen zusätzlichen Mehrwert zu gewinnen.
  • Analysekapazität: In Laboren arbeitet hochqualifiziertes Personal, das neben der anwendungsspezifischen Domänenexpertise oft eine hohe Affinität für Digitalisierung und ein tiefgreifendes Verständnis für die Beschaffenheit und den Informationswert der gewonnenen Daten hat. Gleichzeitig muss neben dem Laborbetrieb auch immer mehr administrative Arbeit geleistet werden, die sich neben allgemeinen Verwaltungsaufgaben, der generellen Dokumentationsarbeit auch durch die notwendige Einhaltung von Laborrichtlinien ergibt. Dadurch bleiben trotz bester personeller Voraussetzungen oft keine Kapazitäten für eine wertschöpfende Nutzung der vorhandenen Daten. Denn immer noch sind die Tools dafür nicht so einfach zu bedienen oder die Struktur der Daten nicht so uniform, dass die Aufgabe des Big-Data-Managements nebenbei erledigt werden könnte. Labore und Einrichtungen, die sich nicht den Luxus eines dedizierten „Data Scientist“ leisten können, verpassen daher Chancen, die Schätze, die sich in ihren Daten befinden, auch zu heben.

Big Data – Herausforderungen gemeinsam meistern

Eine aktuelle Herausforderung für Labore, aber auch für Hersteller von Software­lösungen im Laborumfeld besteht darin, Laboren aller Disziplinen und Ausrichtungen Möglichkeiten zu schaffen, an den Möglichkeiten von Big Data teilzuhaben. Dazu müssen Lösungen geschaffen werden, Daten einfach und ohne zusätzlichen Aufwand zu erfassen, zu strukturieren und auszuwerten. Ein Ansatz, wie er auch von Labfolder verfolgt wird, ist die Möglichkeit, relevante Daten, die auf einer übergreifenden Plattform verwaltet werden, einfach zu markieren und anschließend aufgrund intrinsischer Eigenschaften zu klassifizieren, ohne dass es notwendig wird, die Daten mit zusätzlichem manuellen Aufwand zu kuratieren. Dabei können diese Daten aus der Dokumentation der Laborwissenschaftler, aus Materialien, Geräten, Datenbanken und anderen Datenquellen kommen. Die Möglichkeit, ­diese Daten in einem einfachen Interface auszuwerten, bildet eine weitere wichtige Voraussetzung für die volle Wertschöpfung aus der Gesamtheit der Labor­daten.

* Dr. F. Hauer: labfolder GmbH, 10625 Berlin

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Kontaktieren Sie uns über: support.vogel.de (ID: 44261478)