Mit künstlicher Intelligenz arbeitende Plattformen wie ChatGPT könnten unsere Arbeitswelt nachhaltig verändern. Während die einen dabei einen riesigen Zuwachs an Produktivität voraussagen, sehen die anderen Millionen Jobs in Gefahr. Doch die Frage nach der Sicherheit steht ebenfalls im Raum. Tatsächlich müssen Privatnutzer und Unternehmen beim Einsatz von ChatGPT und Co. einiges beachten, wenn sie Datenschutzverstöße und Sicherheitsprobleme vermeiden wollen.
Ein Beitrag von Andreas Müller, Vice President DACH, Delinea
Neben der allgemeinen Begeisterung hat das vom US-amerikanischen Unternehmen OpenAI entwickelte KI-Tool ChatGPT seit seiner Einführung im November 2022 auch große Skepsis ausgelöst. Vor allem das Thema Datenschutz tritt immer wieder in den Fokus der Diskussion. Insbesondere seit im Frühjahr 2023 eine Sicherheitslücke aufgedeckt wurde, die es ermöglichte, die Chatprotokolle anderer Nutzer einzusehen. Das Unternehmen reagierte jedoch prompt und hat das Problem, das nach eigenen Aussagen durch einen Fehler in einer Open-Source-Bibliothek verursacht wurde, schnell behoben.
Die italienische Datenschutzbehörde hat ChatGPT daraufhin Ende März sogar kurzfristig gesperrt, da sie neben dem beschriebenen Datenschutzvorfall auch eine mangelnde Aufklärung der Nutzer über die die Art der Datenverarbeitung sowie ein illegitimes Sammeln von personenbezogenen Daten bemängelte.
Eine ähnliche Niederlage musste im Juni nun auch der Tech-Riese Google hinnehmen. So wurde der EU-Start seines ChatGPT-Konkurrenten Bard jüngst von der europäischen Datenschutzbehörde gestoppt, nachdem es Google verpasst hat, die notwendige Datenschutz-Folgenabschätzung an die EU-Behörden zu übermitteln.
Datenschutz, Zuverlässigkeit, Infiltrierung der Systeme
Tatsächlich sind die Risiken, die mit der Nutzung von mit KI arbeitenden Chatbots wie ChatGPT einhergehen, vielfältig. Die Services basieren auf einem Sprachmodell, das mit Daten aus den verschiedensten Online-Quellen gefüttert wurde. Darüber hinaus werden in vielen Fällen die Fragen an die KI und die gegebenen Antworten gespeichert und als neue Trainingsdaten in das System eingespeist.
Umso wichtiger ist es, dass Nutzer nur nach sorgfältigem Abwägen persönliche Daten in KI-Tools einfließen lassen. Unternehmen sollten sicherstellen, dass ihre Mitarbeitenden keine sensiblen Unternehmensdaten über das Tool weitergeben und damit Datenverfälschungen, Verstöße gegen Datenschutzbestimmungen oder Lecks in sensiblen Geschäftsinformationen verursachen.
Darüber hinaus gilt es, sich bewusst zu machen, dass kein KI-Anbieter eine hundertprozentige Genauigkeit und Zuverlässigkeit der von seinen Tools generierten Antworten garantieren kann, und die Technologie auf der Grundlage der Trainingsdaten, denen sie ausgesetzt war, falsche oder verzerrte Antworten erzeugen kann und nachweislich erzeugt. Unternehmen sollten daher sicherstellen, dass Mitarbeitende die KI-erzeugten Informationen sorgfältig prüfen, bevor sie diese in kritischen Geschäftsprozessen einsetzen.
Langfristig besteht zudem die Gefahr, dass Unternehmen von der Verfügbarkeit der KI-Tools abhängig werden, was angesichts der Tatsache, dass es sich bei ChatGPT und Co. um Drittanbieterdienste handelt, die theoretisch jederzeit eingestellt werden können, ein Problem sein könnte.
Außerdem sollten KI-Tools auch als potenzieller Einstiegspunkt von Cyberkriminellen im Auge behalten werden. Ist die API nicht ordnungsgemäß gesichert, können Hacker einen Angriff auf die Systeme des Unternehmens starten und dort etwa sensible Daten abgreifen. Unternehmen sollten daher sicherstellen, dass sie über geeignete Maßnahmen verfügen, um die API vor Missbrauch zu schützen.
Empfehlungen für einen sicheren Umgang mit KI-Programmen
Um die Sicherheit bei der Nutzung von KI- beziehungsweise ML-Programmen wie ChatGPT zu erhöhen, sollten Nutzer auf verschiedene Tools oder Best Practices zurückgreifen. Dies umfasst unter anderem folgende Empfehlungen:
1. Prüfen Sie gegen
Wo immer es möglich ist, sollten die von der KI-Anwendung generierten Ergebnisse von einem Mitarbeitenden überprüft werden, bevor sie in der Praxis verwendet werden. Dies gilt besonders in sensiblen Bereichen, in denen viel auf dem Spiel steht, oder aber auch bei der Codegenerierung. Machen sie sich der Grenzen des Systems stets bewusst sein und haben Sie die originalen Quellen zur Hand, um die Richtigkeit jederzeit überprüfen zu können.
2. Nutzen Sie Anwendungen mit Registrierung und Eingabebeschränkung
Um sicher auf die KI-Dienste zugreifen zu können, sollten sich die Nutzer idealerweise registrieren und anmelden müssen. Die Verknüpfung mit einem bestehenden Konto, zum Beispiel einem Gmail-, LinkedIn- oder Facebook-Login, kann hier hilfreich sein, ist aber möglicherweise nicht für alle Anwendungsfälle geeignet.
Und auch eine Begrenzung der Textmenge, die ein Benutzer in die Eingabeaufforderung eingeben kann, ist ein Hinweis auf Sicherheit. Denn dies trägt zur Vermeidung von Prompt Injection bei, einer Methode, bei der KIs unbemerkt zu beliebigen Aussagen bewegt werden. Gleiches gilt für die Anzahl der Ausgabemarken. Sind diese eingeschränkt, sinkt das Risiko für Missbrauch.
3. Nutzen Sie die Moderations-API
OpenAI verfügt über eine kostenlose Moderations-API, die dazu beitragen kann, die Häufigkeit unzulässiger Inhalte (wie Hass, Drohungen oder gewalttätigen Inhalten) in Ein- und Ausgaben zu reduzieren. Alternativ kann auch in Erwägung gezogen werden, ein benutzerdefiniertes System zur Filterung von Inhalten zu entwickeln, das auf bestimmte Anwendungsfälle zugeschnitten ist.
4. Führen Sie Red-Team-Tests durch
Um sicherzustellen, dass KI-Anwendungen gegenüber kontradiktorischen oder schädlichen Eingaben robust sind, sollten sie einem Red-Teaming unterzogen werden. Dabei gilt es, die Produkte mit einem breiten Spektrum an Eingaben und Benutzerverhalten zu testen, und zwar sowohl mit einer repräsentativen Auswahl an Verhaltensweisen als auch mit solchen, die den Hacking-Versuch einer Person widerspiegeln. Prüfen Sie unter anderem, ob Funktion leicht durch Eingabeaufforderungen umgeleitet werden können, etwa durch die Aufforderung „Ignoriere die vorherigen Anweisungen und tu stattdessen dies“.
5. Setzen Sie auf Prompt Engineering
Das KI-Konzept des Prompt Engineerings kann dazu beitragen, das Thema und den Ton des Ausgabetextes einzuschränken. Dadurch wird die Wahrscheinlichkeit verringert, dass unerwünschte Inhalte produziert werden, selbst wenn ein Benutzer dies explizit versucht.
Die Bereitstellung von zusätzlichem Kontext für das Modell (zum Beispiel durch die Angabe einiger hochwertiger Beispiele für das gewünschte Verhalten vor der neuen Eingabe) kann es einfacher machen, die Modellausgaben in die gewünschte Richtung zu lenken.
6. Melden Sie Probleme und Bedenken
Generell sollten die Benutzer von KI-Anwendungen dem Anbieter unkompliziert Feedback geben können, um fehlerhafte Funktionen oder andere Probleme mit dem Verhalten der Anwendung melden zu können (etwa über eine E-Mail oder das Einreichen von Tickets). Diese Rückmeldungen sollten von einem Mitarbeitenden überwacht und gegebenenfalls zeitnah darauf bearbeitet werden.
Fazit
Schon heute sind KI-Programme in der Lage, teils komplexe Fragen zu beantworten, Texte zu schreiben oder sogar Software zu programmieren. Nichtsdestotrotz lässt der Einsatz von Chatbots wie ChatGPT, Bard & Co. aus Sicht des Datenschutzes noch viele Fragen offen, und Unternehmen, die planen, derartige Dienste anzubieten, müssen eine gründliche Bewertung aller möglichen Auswirkungen vornehmen. Letztlich sollten alle Unternehmen jetzt handeln, ihre Mitarbeitenden proaktiv über die Risiken des Einsatzes von KI informieren und Richtlinien dafür aufstellen, wann und wie entsprechende Dienste eingesetzt werden können.
Themen:
LESEN SIE AUCH
Das sollte man jetzt zu generativen KIs wissen
Die Faszination für KI erreicht täglich neue Höhepunkte, ausgelöst durch aufregende Durchbrüche und wachsende Anwendungsgebiete. Doch stellen sich auch zunehmend kritische Fragen und vermehren sich die Bedenken. Ein Realitätscheck von Endava.
Ein neues „Wettrüsten“ hat im Technologiesektor begonnen
Die bekannten Technologieriesen haben so große Fortschritte bei der Entwicklung der grundlegenden KI-Modelle gemacht, dass diese derzeit im Begriff sind, die Marktlandschaft zu verändern. Wie Google, Meta und Co. sich für die nächste Phase aufstellen.
DSGVO: Fünf Jahre Fortschritt und Herausforderungen
Das Bewusstsein für Datenschutz ist in Deutschland in den vergangenen 5 Jahren deutlich gestiegen und damit verbesserte sich auch das Datenschutzniveau merklich. Die DSGVO bietet bereits einen rechtlichen Rahmen für KI-Anwendungen. Es bedarf aber dringend weiterer Anpassungen.
Im Visier der Hacker: Strategien gegen Cyberangriffe
Die Bedrohungen durch Cyberangriffe, Datenlecks und Datenschutzverletzungen sind allgegenwärtig und können schwerwiegende Folgen für Unternehmen sowie Kunden haben. Vor diesem Hintergrund gewinnt ein solides Konzept, das den Schutz aller sensiblen Daten gewährleistet eine immer größere Bedeutung.
Unsere Themen im Überblick
Themenwelt
Wirtschaft
Management
Recht
Finanzen
Assekuranz
„Wir haben keinerlei Szenario, in dem aB-Agenta ausläuft“
Mit der Übernahme von artBase! ergänzt DEMV seine bisher rein digitale Strategie um eine bewährte Offline-Lösung. Geschäftsführer Karsten Allesch erklärt im Interview, warum aB-Agenta eigenständig weiterbesteht, welche Vorteile eine Migration bietet und wie sich die Maklerbranche zwischen Plattform-Ökonomie und Bestandsschutz positioniert. Der Text erschien zuerst im expertenReport 03/25.
Warum Europas digitaler Tiefschlaf enden muss – und wie der „AI Continent“-Plan zum Wendepunkt werden kann
Die EU will mit dem „AI Continent Plan“ zur globalen KI-Macht aufsteigen – doch reicht das, um den digitalen Rückstand aufzuholen? Ein Kommentar über Europas Weckruf, seine neuen Ambitionen und das, was jetzt wirklich zählt.
Meta scannt Europa: Wie unsere Posts zur Futterquelle für künstliche Intelligenz werden
Meta beginnt noch diese Woche, EU-Nutzer per App und E-Mail zu informieren: Öffentliche Facebook- und Instagram-Beiträge sowie KI-Chats sollen künftig das KI-Modell füttern. Datenschützer sind alarmiert.
KI als Effizienztreiber: Mittelstand setzt auf digitale Transformation – doch Fachkräftemangel bremst
Der deutsche Mittelstand setzt verstärkt auf Künstliche Intelligenz, um Effizienzpotenziale zu heben – doch der Fachkräftemangel bremst den digitalen Fortschritt. Eine aktuelle Studie zeigt, wie Unternehmen investieren und woran Projekte scheitern.