Mit Datenvirtualisierung leichter ESG-Reportings erfüllen

© Sergey Nivens – stock.adobe.com

Zahlreiche Unternehmen haben Schwierigkeiten damit, interne und externe Daten effizient zu erheben, miteinander zu verbinden und sie anschließend zu analysieren. Genau das könnte ihnen aber in den nächsten Jahren zum Verhängnis werden. Denn sowohl die Bundesregierung als auch die EU erwarten zunehmend ESG-Reportings, die über die entsprechenden Maßnahmen und Lieferketten Auskunft geben. Um die erforderlichen Anforderungen zu erfüllen, müssen viele Unternehmen zunächst ihre Datenmanagement-Infrastruktur anpassen.

Ein Beitrag von Otto Neuer, Regional VP und General Manager bei Denodo,

Otto Neuer, Regional VP und General Manager, Denodo © Denodo

Das Lieferkettensorgfaltspflichtgesetz auf Landesebene und die Corporate Sustainability Reporting Directive (CSRD) der Europäischen Union sind nur zwei Beispiele für Regelungen, die Unternehmen zu Nachhaltigkeits- beziehungsweise ESG-Reportings verpflichten. Die Abkürzung für Environmental, Social und Governance beschrieb ursprünglich einen auf Nachhaltigkeit ausgerichteten Investitionsansatz.

Heute wird sie aber auch außerhalb des Finanzumfelds verwendet, um allgemein Kriterien für entsprechende Maßnahmen von Unternehmen zu beschreiben. In die drei Bereiche fallen zum Beispiel der CO2-Fußabdruck eines Unternehmens und die Umweltbelastungen entlang seiner Lieferketten (Environmental), die Arbeitssicherheit und der Gesundheitsschutz (Social) sowie Steuerungs- und Kontrollprozesse für eine gute Unternehmensführung (Governance).

Viele Unternehmen haben schon Maßnahmen ergriffen, um nachhaltiger zu agieren, die Umwelt zu schonen und ihren Mitarbeitern weltweit bessere Arbeitsbedingungen zu bieten. Doch es reicht nicht, nur Gutes zu tun. Denn der Gesetzgeber interessiert sich vor allem für belastbare Zahlen und Fortschritte. Um diese nachweisen zu können, müssen Unternehmen ihre Datenstrategie an diese Erwartung anpassen.

Das Fundament für ESG-Reportings steht

Natürlich sammeln Unternehmen schon Daten in großen Mengen und verfügen damit über die Grundlage, um ESG-Reporting zu erstellen. Doch dabei bestehen noch einige Herausforderungen:

  • Datensilos: Daten werden an unterschiedlichen Stellen im Unternehmen erhoben, generiert und gespeichert. Diese verschiedenen Speicherorte sind aber häufig nicht miteinander integriert, sodass Daten nicht zusammengeführt werden. Oft fehlt in Abteilungen zudem auch das Wissen, über welche Daten andere Abteilungen bereits verfügen. Das kann schnell dazu führen, dass die gleichen Daten mehrfach gesammelt und gespeichert werden.
  • Datenquellen und -typen: Daten finden sich im gesamten Unternehmen in unterschiedlichsten Tools und in unterschiedlichsten Formaten. Wenn Unternehmen nicht in der Lage sind, diese Daten in hoher Qualität umzuwandeln und miteinander zu verbinden, schränkt sich ihre Datennutzung automatisch ein.
  • Fehlende Daten: Trotz aller vorhandenen Datenmengen ist die Wahrscheinlichkeit hoch, dass manche ESG-relevanten Daten noch nicht erhoben werden. Das liegt etwa daran, dass Unternehmen ihre Datenmanagementsysteme aufgesetzt haben, lange bevor Nachhaltigkeit ein Thema war. So haben Unternehmen womöglich keine Anwendungen, um ihren CO2-Fußabdruck auszurechnen.

Unternehmen, die Nachhaltigkeit stärker in den Fokus rücken möchten oder müssen, sollten daher ihr Datenmanagement neu aufstellen und diese Herausforderungen angehen. Auf den ersten Blick scheint dies eine Generalüberholung ihrer bisherigen Systeme zu erfordern. Doch das muss nicht unbedingt sein.

Eine dezentrale Architektur birgt Vorteile

Zunächst einmal sollten sich die für das ESG-Reporting zuständigen Mitarbeiter Gedanken darüber machen, welche Daten sie für diese Aufgabe benötigen. Dies betrifft sowohl interne Daten als auch externe, die beispielsweise von Partnern, Dienstleistern oder öffentlichen Quellen stammen können. Im nächsten Schritt geht es darum, zu evaluieren, ob und inwieweit diese Daten ihnen bereits zur Verfügung stehen, und Tools zu implementieren, um künftig fehlende Daten zu erheben.

Danach stellt sich aber die Frage, wie all diese Daten am effizientesten zusammengeführt werden können. Ein zentrales Data Repository wie ein Data Lake oder ein Data Warehouse mag dabei naheliegen, da dort alle Daten relativ problemlos gespeichert werden und Mitarbeiter mit ihnen arbeiten können. Tatsächlich können dadurch aber neue Probleme entstehen beziehungsweise bestehende verschärfen.

Denn Daten, die im Zusammenhang mit den Nachhaltigkeitsbemühungen des Unternehmens oder seinen sozialen und Umwelteinflüssen stehen, können natürlich auch für andere Aufgaben und Abteilungen nützlich sein. Dafür müssen die Mitarbeiter aber wissen, dass diese Daten bereits zugänglich sind. Wird dies aber nicht kommuniziert, entsteht ein neues Datensilo.

Zudem kann ein Data Warehouse nur strukturierte Daten aufnehmen. Ein Data Lake hat diese Anforderung zwar nicht, dafür sind die Daten dort nicht unmittelbar für Analyse- und Reporting-Zwecke einsatzbereit, sondern müssen erst noch entsprechend aufbereitet werden.

Als Alternative zu einem zentralen Data Repository bietet sich eine Domain-orientierte Architektur wie etwa ein Data-Mesh an. Diese zeichnet sich dadurch aus, dass die Daten nicht bewegt oder kopiert werden, sondern an ihrem Speicherort verbleiben. Die Hoheit über die Daten verbleibt in den jeweiligen Fachabteilungen (Domains) und diese werden in Form sogenannter Data Products den anderen Bereichen im Unternehmen zugänglich gemacht. Technisch kann dies effizient und zukunftssicher mit einer Data Fabric Architektur basierend auf Datenvirtualisierung umgesetzt werden.

Daten in Echtzeit in einer logischen Schicht

Mittels einer Plattform für Datenvirtualisierung werden Daten in Echtzeit in einer logischen Schicht zusammengezogen. Dieses Vorgehen bietet mehrere Vorteile: So kann die Datenqualität darunter leiden, wenn Daten kopiert werden, gleichzeitig werden Änderungen an Daten nicht übernommen, wenn sie an mehreren Speicherorten liegen.

Darüber hinaus bieten moderne Datenvirtualisierungs-Plattformen sowohl die Möglichkeit, strukturierte, semi-strukturierte und unstrukturierte Daten miteinander zu verbinden, als auch eine intuitive Benutzeroberfläche, die es auch technisch weniger versierten Mitarbeitern erlaubt, schnell auf Daten zuzugreifen, sie zu analysieren und in ihren Reportings zu verwenden.

Um diese Form der Self-Service Datenkultur zu etablieren, muss eine robuste Data Governance gerade in Domain-orientierten Datenarchitekturen implementiert werden. Hier kommen die Vorteile einer logischen Datenarchitektur voll zum Tragen, da sämtliche Security und Berechtigungskonzepte an zentraler Stelle einfach und hocheffizient mit einem Tag-basierten Rollenkonzept implementiert werden können.

Damit steht Unternehmen zumindest auf technologischer Seite nichts mehr im Weg, um gleichermaßen ihren gesetzlichen Pflichten nachzukommen und ihre Nachhaltigkeitsinitiativen stetig zu verbessern.

Bild (2): © Denodo