English China

ACHEMA Trendbericht Labor- und Analysentechnik Labor- und Analysentechnik mit neuen Lösungen auf Wachstumskurs

Redakteur: Olaf Spörkel

Trotz globaler Wirtschaftskrise verzeichnete die Branche der Analysen- und Labortechnik auch 2008 ein Umsatzwachstum. Um Kosten zu sparen, kommen im Labor zunehmend individuell angepasste Automationslösungen zum Einsatz. Analytische Trennmethoden werden durch Miniaturisierung und Kopplungstechniken geprägt.

Firmen zum Thema

Miniaturisierte Trennungen und Kopplung mit unterschiedlichen Detektoren sorgen für eine schnelle Analytik. Sie erhöhen die Selektivität, sodass sich auch komplexes Probenmaterial analysieren lässt.
Miniaturisierte Trennungen und Kopplung mit unterschiedlichen Detektoren sorgen für eine schnelle Analytik. Sie erhöhen die Selektivität, sodass sich auch komplexes Probenmaterial analysieren lässt.
( Archiv: Vogel Business Media )

Die Branche der Analysen- und Labortechnik befindet sich nach Aussage von Experten trotz weltweiter Wirtschaftskrise und Stagnation in der Chemischen Industrie weiterhin auf Wachstumskurs. Nach dem vom deutschen Industrieverband Spectaris veröffentlichten Weltmarktindex für die Analysen-, Bio- und Labortechnik, der die Umsatzentwicklungen von 19 internationalen börsennotierten Unternehmen berücksichtigt, verzeichnete die Branche 2008 im Vergleich zum Vorjahr erneut deutliche Zuwächse. In Deutschland steigerten die 330 deutschen Hersteller der Analysen-, Bio- und Labortechnik im ersten Halbjahr 2008 ihre Umsätze im Inland um fast zehn Prozent. Beim Auslandsgeschäft erzielte die Branche im gleichen Zeitraum ein Plus von 6,5 Prozent. Wie sich die globale Krise auf die zukünftige wirtschaftliche Entwicklung auswirken wird, lässt sich zum jetzigen Zeitpunkt nur schwer abschätzen. Typische Anwendermärkte wie die Lebensmittelkontrolle gelten weiterhin als Wachstumsmärkte und könnten der Laboranalytik auch zukünftig zu einem erhöhten Absatzvolumen verhelfen. Darüber hinaus zeichnet sich in aufstrebenden Regionen wie Lateinamerika im Gesundheitswesen und der Umwelttechnik ein steigender Bedarf an Analysesystemen ab, wodurch eine steigende Nachfrage nach qualitativ hochwertigen Laborgeräten zu erwarten ist.

Zu den wichtigsten Zukunftstrends der Laborbranche gehört nach wie vor die Automatisierung. Mithilfe der Automation lassen sich Personalressourcen einsparen, wiederkehrende Analysen parallel durchführen und der Probendurchsatz signifikant steigern. Ein erhöhter Automatisierungsgrad führt über die Gesamtnutzungsdauer in der Regel auch zu niedrigeren Kosten pro Analysenergebnis und zu einer größeren Arbeitssicherheit. Darüber hinaus verkürzen sich die Antwortzeiten, was z.B. für Qualitätskontroll-Labore oft besonders wichtig ist.

Bildergalerie
Bildergalerie mit 5 Bildern

Flexible Automatisierung liefert maßgeschneiderte Lösungen

Die Labor- und Analysentechnik schließt Unternehmen ein, die High-Tech-Analysegeräte herstellen, Labore ausstatten und einrichten, Verbrauchsmaterial und Laborzubehör liefern oder komplette Lösungen für IT-Landschaften im Labor bereitstellen. Anwendung finden die Produkte und Dienstleistungen in den unterschiedlichsten Bereichen, z.B. in der Lebensmittel- und Qualitätskontrolle, der Umweltanalytik, der Materialprüfung, in pharmazeutischen, chemischen, biotechnologischen sowie medizinischen Routinelaboratorien und in der Forschung und Entwicklung.

Automatisierte oder teilautomatisierte Systeme finden sich in fast allen Bereichen der Laboranalytik. Um dem ständig steigenden Kostendruck und einem hohen Probenaufkommen gewachsen zu sein, werden beispielsweise in klinisch-medizinischen Routinelaboratorien zunehmend vollautomatisierte Laborstraßen installiert. Bei diesen Automationslösungen können die Laborgeräte für die Probenvorbereitung, Analytik und Postanalytik über ein Förderband miteinander verbunden werden, sodass die Proben vollautomatisch gescannt, zentrifugiert, entstöpselt, analysiert und anschließend archiviert werden können. Die Automation ermöglicht so einen erhöhten Probendurchsatz bei verringerter Personalbindung und verkürzter mittlerer Bearbeitungszeit. Neben der Kosten- und Zeitersparnis lässt sich darüber hinaus die Probenbearbeitung standardisieren und das Laborpersonal von wiederkehrenden Routinearbeiten entlasten.

Standardlösungen sind jedoch häufig nicht mehr ausreichend. Zunehmend kommen modulare Geräte zum Einsatz, die flexibel sind und sich auf individuelle Anforderungen maßgeschneidert anpassen lassen. Der Trend geht zu bedienerfreundlichen und kompakten Anlagen, die sich auch schnell auf andere Applikationen umstellen lassen. Im Bereich des Liquid Handling z.B. stehen nicht mehr Universalpipettierer im Vordergrund, sondern flexible Pipettierstationen, die in vorhandene Arbeitsabläufe problemlos integriert werden können.

Häufig ist nicht die Analyse selbst, sondern die Probenvorbereitung der Zeit limitierende Faktor: Die Extraktion oder Anreicherung des Analyten kann noch immer viele manuelle und zeitintensive Arbeitsschritte erfordern. Lösungen wie die automatisierte Festphasenextraktion (Solid Phase Extraction, SPE) oder die Headspace-Technik (Dampfraumanalyse mittels Gaschromatographie) verkürzen und vereinfachen nicht nur die Probenvorbereitung, sie sorgen zudem für reproduzierbare Ergebnisse und hohe Ausbeuten. Gekoppelt mit der Gaschromatographie/Massenspektrometrie (GC/MS) ermöglicht die automatisierte dynamische Headspace-Technik beispielsweise den schnellen und sicheren Nachweis von Abbaumarkern für die Qualitätskontrolle von Ölen und Fetten mit mehrfach ungesättigten Fettsäuren in Lebensmitteln. Bis auf die Einwaage der Probe sind alle Arbeitsschritte von der Zugabe von Standardlösungen bis zur Probenaufgabe automatisierbar.

Auch für die Einwaage der Probe existieren mittlerweile automatisierte Dosiersysteme, mit denen sich kleinste Probenmengen exakt und reproduzierbar bestimmen lassen. Die Geräte steuern den Dosiervorgang und speichern alle relevanten Daten der Probe direkt ab. Durch die Automation wird das manuelle und oft fehleranfällige Abwiegen mit dem Spatel überflüssig. Dies hat besondere Bedeutung beim Abwiegen sehr teurer oder giftiger Substanzen und erleichtert die durchgängige Dokumentation, die z.B. im pharmazeutischen oder biotechnologischen Labor erforderlich ist.

Bedeutung der Prozessanalyse wächst

Als weiterer bedeutender Trend der Zukunft gilt die Prozessanalyse. Besonders in Bereichen wie der chemisch-pharmazeutischen Industrie, der Biotechnologie, der Fertigungstechnik oder dem Umweltschutz werden prozessanalytische Technologien an Bedeutung gewinnen. Basierend auf den zeitnahen Ergebnissen durch effiziente Online- oder Atline-Analytik ermöglicht die Prozessanalyse bereits in der Produktion eine kontinuierliche Qualitäts- und Kostenkontrolle über die Produkte und eingesetzten Materialien. Qualitätsschwankungen können zeitnah erkannt und rechtzeitig korrigiert werden.

Die Prozessanalyse spielt z.B. eine wichtige Rolle bei der Produktion von Biodiesel. Der Treibstoff unterliegt einem Alterungsprozess, sodass die Qualität jeder Charge vor der Verarbeitung kontrolliert werden muss. Ein zu hoher Anteil an Wasser kann die Dieselmotoren schädigen und Korrosion verursachen. Glycerin fällt als Nebenprodukt bei der Biodieselproduktion an und kann u.a. Kohlenstoffansammlungen im Einspritzsystem des Motors hervorrufen. Für einen ordnungsgemäßen Motorbetrieb müssen die Biodieselhersteller daher bestimmte Grenzwerte für Wasser, Gesamtglycerin und auch Methanol einhalten, Werden die Anforderungen nicht erfüllt, kann die gesamte Prozesskette kontaminiert werden. Die herkömmlichen Methoden zur Qualitätskontrolle des Treibstoffes werden zunehmend durch spektroskopische Verfahren wie die Nahinfrarotspektroskopie (NIR) ersetzt, da sich mit der NIR-Spektroskopie mehrere Bestandteile in kurzer Zeit parallel messen lassen. So ermöglicht die hochempfindliche EP-NIR-Spektroskopie einen hohen Probendurchsatz und die Qualitätsüberwachung in Echtzeit. Sie ist darüber hinaus schnell, bedienerfreundlich und günstig im Betrieb.

Miniaturisierung und Kopplung reduzieren Kosten

Mit dem Ziel, viele Proben parallel und kostengünstig zu analysieren, steht die Miniaturisierung im Fokus diverser Applikationen. Für die parallele Analyse von Nukleinsäuren sind Biochips oder Microarrays bereits etablierter Bestandteil vieler Forschungseinrichtungen. Auf einer Fläche, die kaum größer ist als ein Fingernagel, können mit den Arrays mehrere hundert bis tausend Proben zeitgleich analysiert werden.

Der Bereich der analytischen Trenntechniken wird durch Miniaturisierung und Kopplungstechniken geprägt. Mehrdimensionale, miniaturisierte Trennungen und Kopplung mit unterschiedlichen Detektoren sorgen für eine schnelle Analytik. Sie erhöhen die Selektivität, um auch komplexes Probenmaterial z.B. in der Bioanalytik analysieren zu können. Darüber hinaus hat die Miniaturisierung den Vorteil einer geringen Probenverdünnung. Dies ist besonders wichtig in der Proteomforschung. Oft stehen nur wenige pico-Mol Protein zur Verfügung, sodass zur Auftrennung der komplexen Proben vorrangig mit Kapillar- oder Nanosäulen gearbeitet wird. So können Systeme im Chipformat eingesetzt werden, die mehrdimensionale Chromatographie-Trennungen erlauben und mit Verfahren wie der Nano-Elektrospray-Ionisation zur Detektion der Analyten kombinierbar sind.

Mit der Komplexität der Geräte und Applikation wächst allerdings auch der Bedarf an einer ausgefeilten Software, die immer größere Datenmengen schnell verarbeiten kann und Auswertungen erleichtert. Der Trend geht auch hier zu modularen Lösungen, die sich auf spezielle Applikationen anpassen lassen und je nach Bedarf erweiterbar sind. Im Vordergrund steht die einfache Bedienung der Hardware mit einer intuitiven Software.

Sequenziermethoden prägen Genomforschung

Neue Methoden wie die ultraschnellen Sequenziertechnologien haben die Genomforschung stark verändert. Bis vor wenigen Jahren war die teure und langwierige Didesoxy-Methode nach Frederick Sanger noch das einzige Verfahren, um Gene oder andere DNA-Fragmente zu entziffern. Mit den ultraschnellen Sequenzierungen sind Kosten und Zeitaufwand jetzt signifikant gesunken. Derzeit werden drei unterschiedliche Systeme angeboten, die alle darauf basieren, dass die Sequenzierreaktionen hochparallel ablaufen, ein sehr geringes Reaktionsvolumen benötigen und komplett automatisierbar sind. Bei einem der drei Verfahren, der Pyrosequenzierung, erfolgt die Amplifikation auf Mikropartikeln, die in einer Emulsion isoliert vorliegen. Anschließend wird die amplifizierte DNA auf den Beads hochparallel sequenziert. Beim Einbau eines passenden Nukleotidbausteins entsteht ein Lichtsignal, das eine Kamera aufzeichnet. Die DNA-Sequenz setzt sich aus der Gesamtheit aller Signale zusammen.

Durch die hochparallelen DNA-Sequenzierungsverfahren hat sich z.B. die Suche nach krankheitsspezifischen Mutationen erheblich verbessert. Bisher unbekannte genetische Variationen können im Erbgut selbst in heterogenen Gewebeproben hochsensitiv nachgewiesen werden. Techniken wie die Sanger-Methode, der Grundpfeiler des Humangenomprojekts, stoßen bei der molekularbiologischen Charakterisierung von Tumoren schnell an ihre Grenzen. Kontaminationen aus dem Tumor-Bindegewebe und die genetische Heterogenität von Krebs erschweren die Sequenzierung und führen bei Standardmethoden zu hohen Fehlerquoten. Die Sensitivität der klassischen Verfahren ist nicht ausreichend, um komplexe Gewebeproben genetisch zu analysieren.

Die neuen Sequenzierverfahren sollen auch die Kosten der Genomanalyse so senken, dass jeder Einzelne Zugriff auf das eigene Erbgut erhält. Die Wissenschaft hofft, mit den Gendaten im Rahmen einer individualisierten Medizin Therapien maßgeschneidert anpassen und die Verträglichkeit von Medikamenten verbessern zu können. Das erklärte Ziel der Genomforschung ist es, die Sequenzierung eines kompletten humanen Genoms mit immerhin drei Milliarden Basenpaaren für 1000 Dollar anbieten zu können. Lagen Schätzungen zufolge die Kosten des Humanen Genomprojektes um die Jahrtausendwende noch bei mehreren Milliarden Euro, kostet der Zugriff auf eine Base heute weit weniger als einen Cent. Aufgrund des hohen Preisdrucks werden die Kosten pro Datenoutput auch durch billigere Reagenzien noch weiter sinken. Darüber hinaus werden die nächsten Generationen der Sequenziergeräte höhere Leseweiten und Durchsatz bzw. mehr Informationen pro Sequenzierlauf erzielen. Dennoch wird es noch lange dauern, bis die Schallmauer von 1000 Dollar für eine komplette humane Genomsequenz fällt.

Vorstoß in die Nanowelt der Zelle

In der biomedizinischen Forschung sind Lichtmikroskope unverzichtbar, da sie im Gegensatz zu Elektronen-, Rastertunnel- und Rasterkraftmikroskopen dreidimensionale Bilder aus lebenden Zellen liefern und die Beobachtung biochemischer Vorgänge auf zellulärer Ebene ermöglichen. Eine Triebfeder für innovative Entwicklungen auf diesem Feld liegt darin, die Auflösung zu erhöhen und detailliertere Einblicke in die Zelle zu erhalten. Der Trend geht zur Nanoskopie. Aufgrund der Beugungsgrenzen und Wellennatur des Lichts stoßen optische Mikroskope jedoch bereits im Mikrometerbereich an ihre Grenzen. Mit dem konfokalen STED-Mikroskop (Stimulated emission deletion) ist es dennoch gelungen, die axiale Auflösung eines Fluoreszenzmikroskops um mehr als das Zehnfache zu steigern und in den Nanobereich vorzustoßen.

Neue Technologien beschleunigen Lebensmittelanalytik

Nicht zuletzt der Skandal um Melamin-verseuchte Milchprodukte in China hat gezeigt, wie groß die Herausforderungen der Laboranalytik in der Nahrungsmittelindustrie sind. Gesetzliche Auflagen und Richtlinien zur Einhaltung von Grenzwerten erfordern hochsensitive Methoden, die schnell und kostengünstig Ergebnisse erzielen. Klassische Testverfahren sind nicht selten sehr zeitaufwändig und genügen häufig nicht mehr den Ansprüchen im Bereich der Lebensmittelkontrolle. Speziell zum Nachweis von Melamin wurden beispielsweise neue LC-MS/MS-Anwendungen (Flüssigchromatographie/Massenspektrometrie) entwickelt, die mit einer einfachen Probenextraktion kombiniert sind und hochselektiv die erforderlichen Kontrollen der Lebensmittelproben ermöglichen. Bislang wurde für Tests auf Melamin und Cyanursäure in glutenhaltigen Produkten die GC/MS empfohlen. Das Verfahren ist für diese Applikation jedoch relativ unempfindlich und erfordert eine umfangreiche Probenvorbereitung. Zum Nachweis genmanipulierter Bestandteile oder pathogener Mikroorganismen wie Salmonellen werden in der Lebensmittelanalytik zunehmend molekularbiologische Verfahren, z.B. die Real-Time-PCR (Polymerase-Kettenreaktion), eingesetzt. Die PCR-basierten Methoden weisen das Erbgut der Erreger schnell, hochsensitiv und direkt nach.

Schnelligkeit und Sicherheit spiegeln auch die Trends in der Wasser- und Umweltanalytik wider. Die Qualität des Trinkwassers muss regelmäßig streng kontrolliert werden. Um die organischen Bestandteile nachzuweisen, werden in der Wasser- und Abwasseranalytik häufig TOC-/TNb-Analysatoren und Online-Systeme eingesetzt. Zum Nachweis von Schwermetallen im Wasser eignen sich dagegen spektroskopische Methoden wie die ICP-Spektroskopie (Inductively Coupled Plasma). Diese Methode ist schnell sowie automatisierbar und ermöglicht den parallelen Nachweis unterschiedlicher Elemente. Auch hier erleichtert eine entsprechende Software die Bedienung der Geräte und Datenauswertung.

(ID:286919)