eDiscovery stellt Unternehmen, Ermittlungs- oder Strafverfolgungsbehörden vor große Probleme: Sie alle müssen schnell die relevanten Daten in riesigen Datenbergen finden. Ohne passende Software-Unterstützung ist das praktisch unmöglich.
APARAVI beschreibt die größten Herausforderungen.
Unternehmen sind selbst verantwortlich für die Sicherheit und Unverletzlichkeit ihrer Daten. Sie müssen also gewappnet sein gegen Datenmissbrauch und -manipulationen bei Betrug, Geldwäsche, Kartellverstößen, Diskriminierung, Spionage oder Diebstahl von geistigem Eigentum. Wenn sie dieser Verantwortung nicht gerecht werden, drohen sowohl saftige Strafzahlungen als auch geschäftsschädigende Konsequenzen wie Umsatz- und Gewinneinbrüche oder Reputationsverluste.
Unternehmen müssen daher jederzeit in der Lage sein, die entsprechenden Daten in solchen Fällen schnell transparent zu machen. Dafür haben sie strikte Vorgaben. So müssen beispielsweise laut DSGVO meldepflichtige Verstöße innerhalb von 72 Stunden angezeigt werden. Andernfalls drohen bis zu 10 Millionen Euro oder zwei Prozent des globalen Jahresumsatzes als Strafe.
Nicht nur Unternehmen sind betroffen
Eine Herausforderung für Unternehmen, aber auch für staatliche Institutionen wie Finanzkontrolleure oder Ermittler gegen das organisierte Verbrechen, ist die Unmenge an Daten, die in einer unüberschaubaren Anzahl von Storage-Systemen und Endgeräten gespeichert sind. Das größte Problem aber sind die Daten selbst. In der Regel sind 80 Prozent davon unstrukturiert, von E-Mails, Bildern, Videos und Sprachnachrichten über Chatverläufe und Social-Media-Profile bis hin zu Office- und PDF-Dokumenten.
Die Suche nach den relevanten Daten wird dadurch zu einer ganz besonders vielschichtigen Herausforderung. Für datenforensische Untersuchungen werden daher spezielle Such- und Analysetechniken genutzt, um die Richtigkeit und Vollständigkeit relevanter Daten zu sichern und zu organisieren. Das sind die fünf größten Herausforderungen im Umfeld von eDiscovery:
Der Zeitdruck
Geschwindigkeit ist bei der Datenforensik gleich zweifach wichtig. Erstens bei der rechtzeitigen Erkennung potenzieller Bedrohungen zur kontinuierlichen Vorbeugung gegen Attacken. Und zweitens bei der Aufklärung und Dokumentierung von Datenmissbrauch. In beiden Fällen ist es wichtig, schnell die richtigen Informationen aus dem unstrukturierten Datenwust zu extrahieren.
Die riesigen Datenvolumen
Die Datenmengen sind in der Regel riesig, die Dateitypen und Datenformate vielfältig, die Datenquellen über viele interne und externe Speicher verteilt. In dieser Situation ist die händische Suche von vorneherein zum Scheitern verurteilt. Gerade unstrukturierte Daten bilden quasi eine Black-Box, in der sich jedoch forensisch oft die entscheidenden Informationen verstecken.
Die Datenintegrität
Bei eDiscovery wird exaktes, wahrhaftiges und zuverlässiges Arbeiten verlangt. Schließlich müssen die Ergebnisse in der Regel auch gerichtsfest sein. Das gilt sowohl für sensible personenbezogene, businesskritische oder unter den Geheimschutz fallende Daten, aber auch für Metadaten.
Die Qualität und der Wert der Daten
Forensische Informationen und Hinweise sind aus unstrukturierten Daten viel schwerer zu extrahieren als aus strukturierten Datenbeständen. Das erhöht sowohl den Aufwand für Analyse- und Ermittlungsarbeit als auch die Gefahr, zu verfälschten oder qualitativ minderwertigen Ergebnissen zu kommen. Sind die Daten perfekt aufbereitet, kann zudem KI bei der Auswertung genutzt werden.
Zusätzliche Risiken
Bei datenforensischen Untersuchungen muss immer mit Risiken wie Datenverfälschung, Compliance-Vorschriften, komplexem Datenmanagement und unvorhersehbaren Parametern gerechnet werden, die die Ermittlungen erschweren oder verfälschen können. Auch hier hilft ein methodisch sauberes, software-gestütztes Vorgehen.
„Bei datenforensischen Untersuchungen haben wir es fast immer mit der brisanten Kombination aus riesigen, hochsensiblen Datenmengen, hohem Zeitdruck und drastischen Schadens- und Strafpotenzialen zu tun“, erklärt Adrian Knapp, CEO bei APARAVI. „Deshalb müssen alle in Frage kommenden kritischen Datenbestände in kurzer Zeit erfasst, analysiert und richtig bewertet werden, um dann die richtigen Entscheidungen treffen zu können. Ohne automatisierte Such- und Analysewerkzeuge ist das praktisch unmöglich.“
Themen:
LESEN SIE AUCH
Wie ein Dokumentenmanagement-System zu mehr Erfolg verhelfen kann
In Zeiten, in denen Finanzdienstleister auf allen Kanälen um neue Kunden buhlen, sind effiziente und kundenorientierte Geschäftsprozesse, modernste Technologien sowie eine gesetzeskonforme Datenverarbeitung ein Muss. Eine integrierte DMS-Lösung kann hier unterstützen.
Licht im Dunkel der „Black Box“: KI und Aktuare
Aktuell finden sich immer mehr Anwendungsfälle für KI im aktuariellen Bereich. Was bedeutet das für die Rolle der Aktuarinnen und Aktuare? Sind diese bei der Einführung von KI entscheidend oder laufen sie Gefahr, von dieser Technologie abgelöst zu werden?
Data Analytics ist mehr als ein Entwicklungstrend
Data Analytics bietet der Assekuranz die Chance einer datengetriebenen und zukunftsorientierten Neuausrichtung. Durch die Sammlung, Transformation und Analyse großer Datenmengen können Prozesse optimiert, Kosten gesenkt und neue Produkte und Services entwickelt werden.
Im Visier der Hacker: Strategien gegen Cyberangriffe
Die Bedrohungen durch Cyberangriffe, Datenlecks und Datenschutzverletzungen sind allgegenwärtig und können schwerwiegende Folgen für Unternehmen sowie Kunden haben. Vor diesem Hintergrund gewinnt ein solides Konzept, das den Schutz aller sensiblen Daten gewährleistet eine immer größere Bedeutung.
Unsere Themen im Überblick
Themenwelt
Wirtschaft
Management
Recht
Finanzen
Assekuranz
KI in der Versicherungsbranche: BaFin sieht Verantwortung bei den Unternehmen
Auf dem Vorlesungstag des Instituts für Versicherungswissenschaften e. V. an der Universität Leipzig sprach Julia Wiens, Exekutivdirektorin der BaFin, über die Chancen und Risiken der Künstlichen Intelligenz in der Versicherungsbranche. Sie betonte, dass die Verantwortung für den ethischen und sicheren Einsatz von KI bei den Unternehmen selbst liegt.
GPT-4.5: Inkrementelle Optimierung statt bahnbrechender Fortschritt
Mit der Veröffentlichung von GPT-4.5 am 27. Februar 2025 setzt OpenAI den Weg der schrittweisen Modellverbesserung fort. Die neue Version bringt eine effizientere Rechenleistung, reduziert Fehler und verarbeitet längere Kontexte zuverlässiger.
Leitungswasserschäden: INTER testet KI-gestützte Lösung zur Früherkennung
Leitungswasserschäden mit Hilfe von KI rechtzeitig erkennen - das ist das erklärte Ziel einer Kooperation zwischen der INTER und dem Start-Up Enzo. Für ausgewählte INTER-Kunden beginnt eine Testphase.
Elektronische Patientenakte gestartet: Modellregionen testen neues System
Seit Mitte Januar wird die „ePA für alle“ schrittweise eingeführt – zunächst in ausgewählten Regionen. Der GKV-Spitzenverband betont, dass das System ausreichend getestet werden muss.