Suchen

Big Data und Datenschutz

Wie muss mit sensiblen Daten umgegangen werden?

Seite: 2/2

Firmen zum Thema

Misstrauen von Privatpersonen gegen Big Data

Beispiele, bei denen Privatpersonen von ihren eigentlich mittels BDSG zugesicherten Rechten Gebrauch machten und um Löschung oder Korrektur der eigenen Daten baten, deren Bitten jedoch zugunsten der Big-Data-Lösungen anwendenden Unternehmen (aus ökonomischen oder Komplexitäts-Gründen) als unerfüllbar abgetan wurden, schüren ein generelles Misstrauen gegenüber solchen Systemen und ebenso gegenüber dem international als grundsätzlich eher vorbildlich angesehenem deutschen BDSG.

Neben den dafür verantwortlichen „Schlupflöchern“ im BDSG gilt insbesondere die als veraltet angesehene oben angesprochene Trennung zwischen personenbezogenen und nicht personenbezogenen Daten als Risiko für die Privatsphäre.

Das aktuelle BDSG ist nicht ausgelegt auf große und moderne Big-Data-Systeme, mittels derer auch anonymisierte und nicht personenbezogene Daten zu einer Aufdeckung der Identität führen können. Das Risiko wird noch verstärkt durch die Ausnahmen, die es erlauben zugesicherte Rechte zu umgehen. Gerade im Bezug auf große Unternehmen und Organisationen, ist es zusätzlich schwierig das BDSG durchzusetzen, wenn entsprechende Unternehmen und Organisationen ihren Hauptsitz gar nicht erst in Deutschland (oder der EU) unterhalten.

Verschlüsselte Speicherung und Verarbeitung gefordert

Zum datenschutzfreundlichen Umgang mit Big Data sollten Anbieter wie auch bei anderen Anwendungen, die sensitive Daten verarbeiten, diese sowohl verschlüsselt abspeichern als auch übertragen, um ein Ausspähen der Daten durch Dritte zu erschweren. Da Big-Data-Lösungen oft von mehreren Anwendern parallel genutzt werden, ist es wichtig, dass die Anwender gegenseitig abgeschottet sind. So können Anwender nicht gegenseitig ihre Daten in einem laufenden Verarbeitungsprozess einsehen.

Auch zur Verarbeitung der Daten selbst gibt es datenschutzfreundliche Sicherheitsansätze, die unter dem Begriff „Privacy-Preserving Data Mining“ zusammengefasst werden. Beim Anonymisieren werden identifizierende Merkmale aus den Datensätzen gelöscht. Dieser Vorgang soll nicht oder nur mit unverhältnismäßig hohem Aufwand umkehrbar sein. Beim Pseudonymisieren werden die Namen oder andere identifizierende Merkmale nicht einfach gelöscht, sondern durch Pseudonyme ersetzt. Wer entsprechende Pseudonyme kennt, kann den zur Person gehörenden Datensatz weiterhin identifizieren. Ein weiterer Weg ist die Datenaggregation: Hier werden mehrere Datensätze zusammengefasst.

Sicherheitsmechanismen und Privacy by Design

Eine deutlich komplexere Herausforderung besteht darin, Daten von einer dritten Partei verarbeiten zu lassen, ohne dass diese auf die Daten zugreifen kann. Ein Beispiel wäre ein Unternehmen, welches vertrauliche Daten erfasst, um diese von einem anderen Unternehmen analysieren zu lassen. Die Komplexität hierbei liegt darin, dass die Analyse auf verschlüsselten Daten geschehen muss. Die Daten werden verschlüsselt übertragen und verarbeitet und erst das zurückerhaltene Ergebnis wird wieder entschlüsselt. Dies wird durch homomorphe Verschlüsselung ermöglicht, eine Technologie, die verspricht die Sicherheit von Cloud- und Big-Data-Systemen deutlich erhöhen zu können, heute allerdings noch eher ein Forschungsgegenstand ist. Derzeit bekannte Lösungen führen zu einem selbst für Big-Data-Verhältnisse sehr hohen Mehraufwand an benötigter Rechenleistung und Datenvolumen.

Big-Data-Lösungen sind komplexe Systeme, die aus vielen Komponenten be­stehen. Diese so zu gestalten, dass sie den Anforderungen des Datenschutzes entsprechen, ist in der Praxis mit viel Aufwand verbunden. Soll beispielsweise das Eingriffsrecht wahrgenommen werden, muss bei einer komplexen Datenhaltung mit vielen Bezügen erst einmal festgestellt werden, wo die relevanten Daten gespeichert sind und welchen Einfluss sie auf andere Daten haben, um dann die notwendigen Korrekturen durchzuführen.

Um in Zukunft Systeme so zu gestalten, dass sie dem Datenschutz einfacher genügen können, gibt es die Prinzipien und Konzepte des „Privacy by Design“. Hier sind Herangehensweisen zusammengefasst, die, wenn sie beachtet werden, zu Systemen führen, die Nutzbarkeit und Datenschutz vereinen. Einen Einstieg in die Denkweise bieten beispielsweise die sieben Prinzipien aus [1]. Hier wird beispielsweise gefordert, dass datenschutzfreundliche Voreinstellungen bei Wahlmöglichkeiten gegeben sind, ebenso aber auch, dass Datenschutz nicht zu Systemen führen darf, die für ihren eigentlichen Zweck unbrauchbar werden.

Big Data und Datenschutz kann funktionieren

Dass Big Data eine Vielzahl von neuen Möglichkeiten in der IT aufzeigt, kann heute als Konsens angesehen werden. Aber auch die Skepsis hinsichtlich des Einsatzes entsprechender Algorithmen im Hinblick auf Privatsphärenschutz und personenbezogene Daten ist nicht grundlos verbreitet.

Es ist eine Herausforderung für Technik und Wissenschaft, Systeme zu schaffen, die bei der Wertschöpfung durch Daten helfen und gleichzeitig ein hohes Datenschutzniveau erlauben. Ansätze wie Privacy by Design oder Privacy-Preserving Data Mining zeigen hier Konzepte auf, die es bei der Gestaltung neuer Systeme zu beachten gilt.

Literatur:

[1] https://www.privacybydesign.ca/content/uploads/2009/08/7foundationalprinciples-german.pdf

* Dr. M. Steinebach, M. Schäfer: Fraunhofer SIT, 64295 Darmstadt

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Kontaktieren Sie uns über: support.vogel.de (ID: 43602364)