Simulation Auf der Suche nach der Struktur: Modellierung von Chromatin
Auch mehr als 30 Jahre nach der Entdeckung des Nukleosoms bleiben die 3D-Struktur des Chromatins und die Mechanismen der Regulation der Struktur rätselhaft, da Experimente nur Daten über einzelne Aspekte liefern. Um dieses lückenhafte Bild von teils widersprüchlichen experimentellen Ergebnissen in einer Gesamtsicht zu untersuchen, wird nun auch die Simulation und Modellierung am Computer eingesetzt. Hiermit können verschiedene Chromatin Modelle auf ihre Stabilität überprüft und mit experimentellen Daten verglichen werden.
Anbieter zum Thema
Im Zellkern eukaryotischer Organismen liegt die DNA nicht nackt vor. Vielmehr ist sie verpackt in eine Struktur höherer Ordnung – dem Chromatin. Man unterscheidet das transkriptionsaktive Euchromatin und das inaktive, dichtere Heterochromatin. Im Chromatin ist die DNA an ein Oktamer aus Proteinen, den Histonen, gebunden und bildet so eine zylinderförmige Struktur, das Nukleosomen-Core-Partikel. Dieser Komplex kann durch ein Linker-Histon stabilisiert werden. Die Nukleosomen sind durch Linker-DNA verbunden und bilden eine Struktur, die an eine Perlenkette erinnert. Aus dieser Perlenkette bildet sich das Chromatin, das wiederum das Baumaterial für die Chromosomen darstellt. Beim Euchromatin bildet das Chromatin eine flexible Faser mit einem Durchmesser von 30 Nanometern. Diese 30-Nanometer-Faser steht im Vordergrund dieses Artikels.
Die dreidimensionale Struktur der DNA ist bereits seit über 50 Jahren bekannt. Die genaue Struktur des Nukleosom-Core-Partikels wurde vor zehn Jahren auf atomarer Ebene mit kristallographischen Methoden bestimmt [1]. Die dreidimensionale Struktur des Eu- und des Heterochromatins ist hingegen nach wie vor unbekannt. Seit der Entdeckung des Nukleosoms vor mehr als 30 Jahren wurden verschiedene Modelle für die 30-Nanometer-Faser wie beispielsweise das bekannte Solenoid-Modell postuliert. Jedoch teilen alle Modelle das Problem, dass sie auf Daten weniger Experimente beruhen und die Daten anderer Experimente nicht erklären können.
Die Struktur des Chromatins ist allerdings nicht statisch, sondern wird aktiv von der Zelle z.B. mithilfe von Chromatin-Remodeling-Faktoren verändert. Die Zelle nimmt auf diese Weise entscheidenden Einfluss auf die Regulierung der Genexpression. Es ist deshalb wichtig, die dreidimensionale Struktur der 30-Nanometer-Faser und die Möglichkeiten, wie sie verändert werden kann, zu verstehen.
Wissenschaftliche Experimente liefern Daten, kein Modell
Experimente können leider nur sehr eingeschränkt Informationen über die Struktur des Chromatins liefern. Dies hat verschiedene Gründe: Im Gegensatz zu DNA oder den Nukleosomen ist die Struktur des Chromatins nicht fest, da sie aktiv reguliert wird und eine völlig starre Struktur mit der Genaktivität nicht vereinbar wäre. Dies führt dazu, dass die Faser z.B. bei Experimenten mittels Rasterkraftmikroskopie durch die Adhäsionskräfte des Trägers deformiert wird.
Verfahren, welche die Faser nicht verändern, wie beispielsweise Neutronenstreuung, Messungen des Dichroismus oder Einzelmoleküluntersuchungen liefern hingegen nur isolierte Daten, deren Interpretation nicht eindeutig ist.
Natürliche Fasern sind irregulär, und das Linker-Histon ist nur schwach und unregelmäßig gebunden. Aus diesem Grund sind die Ergebnisse von Experimenten stark von der Präparation abhängig. Um dies zu vermeiden, werden neuerdings Experimente mit künstlich erzeugten Fasern durchgeführt [2]. Bei diesen Experimenten stellt sich allerdings immer die Frage, inwieweit die künstlichen Exemplare die Eigenschaften der natürlichen Fasern widerspiegeln.
Theoretische Berechnungen der Chromatinstruktur können nur Teile erklären
Existierende theoretische Untersuchungen mit mathematischen Modellen liefern wichtige Einsichten, welche Fasermodelle möglich, und welche allein aus sterischen Gründen unmöglich sind [3]. Allerdings teilen die theoretischen Modelle das Problem, dass nicht alle wesentlichen Informationen darin Berücksichtigung finden. Vielmehr wird die Komplexität der Informationen reduziert, um überhaupt Aussagen treffen zu können. Aus diesem Grund existiert bisher kein durchgehend theoretisches Modell für die Chromatin-Faser.
Simulationen fügen das Puzzle der experimentellen Daten zusammen
In einem gemeinsamen Projekt mit der Arbeitsgruppe von Karsten Rippe (Universität Heidelberg) arbeitet man an der FH Stralsund derzeit an einem Computer-Modell, das die experimentellen Daten durchgängig erklären soll. Finanziert wird das Projekt durch die Volkswagenstiftung (AZ I/80 467). Grundlage bildet ein physikalisches Modell der Faser, mit dessen Hilfe die Energie einer möglichen Konfiguration berechnet werden kann. Dazu modellieren die Forscher die Faser mit Zylindern, die mit elastischen Segmenten verbunden sind. Die Zylinder entsprechen den Nukleosomen, die Segmente der Linker-DNA (Abb. 2). Die durch Salzionen im Lösungsmittel abgeschirmte elektrostatische Ladung der DNA wird mit der Debye-Hückel-Näherung beschrieben. Die Wechselwirkungspotenziale wie das Biegemodul der DNA werden mit Daten parametrisiert, die aus Experimenten wie beispielsweise Einzelmoleküluntersuchungen von DNA stammen.
Wie bereits erwähnt, handelt es sich bei der 30-Nanometer-Chromatin-Faser um eine flexible Struktur. Daher wäre es nicht korrekt, lediglich eine Energieminimierung durchzuführen. Stattdessen werden mithilfe von Monte-Carlo-Verfahren statistisch unabhängige Konfigurationen gemäß ihrer Wahrscheinlichkeit erzeugt (s. Kasten). Für den Vergleich mit Experimenten werden aus diesen Konfigurationen Mittelwerte z.B. der Massenbelegungsdichte berechnet.
Die zugrundeliegende Software ist in der Sprache C++ entwickelt und hochportabel. Da die Rechenzeiten typischerweise im Bereich von mehreren Wochen CPU-Zeit liegen, werden auch große Parallelcomputer wie die des Norddeutschen Verbunds für Hoch- und Höchstleistungsrechner (HLRN) eingesetzt. Dazu verwendet man die Standardbibliotheken MPI und openMP.
Qualitätssicherung der Software ist essenziell
Die Ergebnisse von derart komplexen Computer-Modellen lassen sich nur eingeschränkt überprüfen. Stimmen die Ergebnisse nicht mit experimentellen Werten überein, könnte dies auf ein falsches Modell oder einen Softwarefehler hinweisen, aber auch auf ein ungenügendes Experiment. Eine umfangreiche Qualitätssicherung ist deswegen integraler Bestandteil der Entwicklungsarbeit, um die Richtigkeit der berechneten Ergebnisse zu untermauern. Es wird dazu ein Satz verschiedener Techniken eingesetzt.
Zunächst werden verschiedene statische Analysen durchgeführt: Alle Entwürfe werden ausgiebig diskutiert und jeder neue Quellcode und alle Änderungen einem Peer-Review unterzogen, d.h. ein anderes Mitglied der Arbeitgruppe liest den Quellcode gegen. Neben diesen manuellen Prüfverfahren werden auch Werkzeuge zur statischen Codeanalyse eingesetzt. Die verwendete Polyspace-Technologie entdeckt so mit Mitteln der abstrakten Interpretation auch schlecht zu findende Laufzeitfehler.
Neben diesen statischen Analysen kommen weiterhin testende Verfahren zum Einsatz. Dabei werden zunächst alle Teile der Software mit Unit-Tests unter Einsatz von CPP-Unit ausgiebig getestet. Anschließend wird geprüft, ob bei Fällen, die analytisch berechenbar sind, die Software die vorhergesagten Ergebnisse liefert. Während dieser Tests, aber auch während der ersten Tage der Produktionsphase überprüft sich die Software durch implementierte Selbsttestfunktionalität selbst. Unterstützend dazu setzen die Wissenschaftler das Rational-Purify-System von IBM ein. Dieses prüft während der Ausführung der Tests, ob nicht mehr verwendeter Speicher wieder korrekt freigegeben wird und keine falschen Speicherzugriffe auftreten.
Erste Ergebnisse bestätigen Modell
In ersten Rechnungen konnte gezeigt werden, dass ein solches Computermodell wichtige Eigenschaften von experimentell beobachteten Fasern reproduzieren kann.
Zu diesen Eigenschaften gehören die Massenbelegungsdichte, der Faserdurchmesser, die Orientierung der Nukleosomen und der DNA sowie die elastische Flexibilität der Faser [4]. Andere Eigenschaften der Faser wie sie z.B. bei längerer Linker-DNA auftreten, können hingegen noch nicht erklärt werden. Diese Fragestellungen werden aktuell untersucht [5,6]. Es verdichten sich derzeit die Hinweise, dass beispielsweise das aktuelle Chromatin-Modell von Richmond bei längerer Linker-DNA prinzipiell thermodynamisch instabil ist [7].
Die am Projekt beteiligten Forscher gehen davon aus, dass in wenigen Jahren die Kombination aus Theorie, Experiment und Computermodell die dreidimensionale Struktur des Aufbaus von Chromatin erklären und damit einen wesentlichen Baustein zum Verständnis der Genregulation liefern wird.
Metropolis Monte Carlo: Energiezustände berechnen und vergleichen
Simulationen mit dem Metropolis-Monte-Carlo-Algorithmus sind ein etabliertes Verfahren der berechnenden Physik, um typische Konfigurationen eines Systems im thermischen Gleichgewicht zu berechnen. Anders als bei der Energieminimierung wird hier nicht nach der niedrigsten Energie gesucht, sondern typische Konfigurationen gemäß ihrer Wahrscheinlichkeit erzeugt. Dabei wird so vorgegangen, dass aus einer Konfiguration eine andere Konfiguration zufällig erzeugt wird. Ist die Energie der neuen Konfiguration niedriger als die der vorangegangenen, wird die neue Konfiguration akzeptiert. Ist die Energie höher, wird die neue Konfiguration abhängig von der Energiedifferenz akzeptiert, wenn e-ΔE/kT größer ist als eine Zufallszahl zwischen 0 und 1, ansonsten wird sie verworfen. Es lässt sich nachweisen, dass durch dieses Vorgehen ein Ensemble erzeugt wird, dass einer Boltzmann-Verteilung genügt.
Literatur:
[1] Luger, K., Mader, A. W., Richmond, R. K., Sargent, D. F., & Richmond, T. J. 1997, Nature, 389, 251-260
[2] Robinson, P. J. J., Fairall, L., Huynh, V. A. T., & Rhodes, D. 2006, Proceedings of the National Academy of Sciences of the United States of America, 103, 6506-6511
[3] Diesinger, P. M., & Heermann, D. W. 2005, Physical Review E 74, 031904-031912
[4] Wedemann, G., & Langowski, J. 2002, Biophysical Journal, 82, 2847-2859
[5] Kepper, N., Stehr, R., Ilden, E., Foethke, D., Wedeman, G., & Rippe, K. 2007, in preparation
[6] Stehr, R., Rippe, K., Kepper, N., & Wedemann, G. 2007, in preparation
[7] Schalch, T., Duda, S., Sargent, D. F., & Richmond, T. J. 2005, Nature, 436, 138-141
*Prof. Dr. G. Wedemann, Fachhochschule Stralsund, Institute for Applied Computer Science, 18435 Stralsund
(ID:214439)