Tipps für einen sicheren Umgang mit KI-Programmen

© peshkova – stock.adobe.com

Mit künstlicher Intelligenz arbeitende Plattformen wie ChatGPT könnten unsere Arbeitswelt nachhaltig verändern. Während die einen dabei einen riesigen Zuwachs an Produktivität voraussagen, sehen die anderen Millionen Jobs in Gefahr. Doch die Frage nach der Sicherheit steht ebenfalls im Raum. Tatsächlich müssen Privatnutzer und Unternehmen beim Einsatz von ChatGPT und Co. einiges beachten, wenn sie Datenschutzverstöße und Sicherheitsprobleme vermeiden wollen.

Ein Beitrag von Andreas Müller, Vice President DACH, Delinea

Andreas Müller, Vice President DACH, Delinea Inc. © Delinea Inc.

Neben der allgemeinen Begeisterung hat das vom US-amerikanischen Unternehmen OpenAI entwickelte KI-Tool ChatGPT seit seiner Einführung im November 2022 auch große Skepsis ausgelöst. Vor allem das Thema Datenschutz tritt immer wieder in den Fokus der Diskussion. Insbesondere seit im Frühjahr 2023 eine Sicherheitslücke aufgedeckt wurde, die es ermöglichte, die Chatprotokolle anderer Nutzer einzusehen. Das Unternehmen reagierte jedoch prompt und hat das Problem, das nach eigenen Aussagen durch einen Fehler in einer Open-Source-Bibliothek verursacht wurde, schnell behoben.

Die italienische Datenschutzbehörde hat ChatGPT daraufhin Ende März sogar kurzfristig gesperrt, da sie neben dem beschriebenen Datenschutzvorfall auch eine mangelnde Aufklärung der Nutzer über die die Art der Datenverarbeitung sowie ein illegitimes Sammeln von personenbezogenen Daten bemängelte.

Eine ähnliche Niederlage musste im Juni nun auch der Tech-Riese Google hinnehmen. So wurde der EU-Start seines ChatGPT-Konkurrenten Bard jüngst von der europäischen Datenschutzbehörde gestoppt, nachdem es Google verpasst hat, die notwendige Datenschutz-Folgenabschätzung an die EU-Behörden zu übermitteln.

Datenschutz, Zuverlässigkeit, Infiltrierung der Systeme

Tatsächlich sind die Risiken, die mit der Nutzung von mit KI arbeitenden Chatbots wie ChatGPT einhergehen, vielfältig. Die Services basieren auf einem Sprachmodell, das mit Daten aus den verschiedensten Online-Quellen gefüttert wurde. Darüber hinaus werden in vielen Fällen die Fragen an die KI und die gegebenen Antworten gespeichert und als neue Trainingsdaten in das System eingespeist.

Umso wichtiger ist es, dass Nutzer nur nach sorgfältigem Abwägen persönliche Daten in KI-Tools einfließen lassen. Unternehmen sollten sicherstellen, dass ihre Mitarbeitenden keine sensiblen Unternehmensdaten über das Tool weitergeben und damit Datenverfälschungen, Verstöße gegen Datenschutzbestimmungen oder Lecks in sensiblen Geschäftsinformationen verursachen.

Darüber hinaus gilt es, sich bewusst zu machen, dass kein KI-Anbieter eine hundertprozentige Genauigkeit und Zuverlässigkeit der von seinen Tools generierten Antworten garantieren kann, und die Technologie auf der Grundlage der Trainingsdaten, denen sie ausgesetzt war, falsche oder verzerrte Antworten erzeugen kann und nachweislich erzeugt. Unternehmen sollten daher sicherstellen, dass Mitarbeitende die KI-erzeugten Informationen sorgfältig prüfen, bevor sie diese in kritischen Geschäftsprozessen einsetzen.

Langfristig besteht zudem die Gefahr, dass Unternehmen von der Verfügbarkeit der KI-Tools abhängig werden, was angesichts der Tatsache, dass es sich bei ChatGPT und Co. um Drittanbieterdienste handelt, die theoretisch jederzeit eingestellt werden können, ein Problem sein könnte.

Außerdem sollten KI-Tools auch als potenzieller Einstiegspunkt von Cyberkriminellen im Auge behalten werden. Ist die API nicht ordnungsgemäß gesichert, können Hacker einen Angriff auf die Systeme des Unternehmens starten und dort etwa sensible Daten abgreifen. Unternehmen sollten daher sicherstellen, dass sie über geeignete Maßnahmen verfügen, um die API vor Missbrauch zu schützen.

Empfehlungen für einen sicheren Umgang mit KI-Programmen

Um die Sicherheit bei der Nutzung von KI- beziehungsweise ML-Programmen wie ChatGPT zu erhöhen, sollten Nutzer auf verschiedene Tools oder Best Practices zurückgreifen. Dies umfasst unter anderem folgende Empfehlungen:

1. Prüfen Sie gegen

Wo immer es möglich ist, sollten die von der KI-Anwendung generierten Ergebnisse von einem Mitarbeitenden überprüft werden, bevor sie in der Praxis verwendet werden. Dies gilt besonders in sensiblen Bereichen, in denen viel auf dem Spiel steht, oder aber auch bei der Codegenerierung. Machen sie sich der Grenzen des Systems stets bewusst sein und haben Sie die originalen Quellen zur Hand, um die Richtigkeit jederzeit überprüfen zu können.

2. Nutzen Sie Anwendungen mit Registrierung und Eingabebeschränkung

Um sicher auf die KI-Dienste zugreifen zu können, sollten sich die Nutzer idealerweise registrieren und anmelden müssen. Die Verknüpfung mit einem bestehenden Konto, zum Beispiel einem Gmail-, LinkedIn- oder Facebook-Login, kann hier hilfreich sein, ist aber möglicherweise nicht für alle Anwendungsfälle geeignet.

Und auch eine Begrenzung der Textmenge, die ein Benutzer in die Eingabeaufforderung eingeben kann, ist ein Hinweis auf Sicherheit. Denn dies trägt zur Vermeidung von Prompt Injection bei, einer Methode, bei der KIs unbemerkt zu beliebigen Aussagen bewegt werden. Gleiches gilt für die Anzahl der Ausgabemarken. Sind diese eingeschränkt, sinkt das Risiko für Missbrauch.

3. Nutzen Sie die Moderations-API

OpenAI verfügt über eine kostenlose Moderations-API, die dazu beitragen kann, die Häufigkeit unzulässiger Inhalte (wie Hass, Drohungen oder gewalttätigen Inhalten) in Ein- und Ausgaben zu reduzieren. Alternativ kann auch in Erwägung gezogen werden, ein benutzerdefiniertes System zur Filterung von Inhalten zu entwickeln, das auf bestimmte Anwendungsfälle zugeschnitten ist.

4. Führen Sie Red-Team-Tests durch

Um sicherzustellen, dass KI-Anwendungen gegenüber kontradiktorischen oder schädlichen Eingaben robust sind, sollten sie einem Red-Teaming unterzogen werden. Dabei gilt es, die Produkte mit einem breiten Spektrum an Eingaben und Benutzerverhalten zu testen, und zwar sowohl mit einer repräsentativen Auswahl an Verhaltensweisen als auch mit solchen, die den Hacking-Versuch einer Person widerspiegeln. Prüfen Sie unter anderem, ob Funktion leicht durch Eingabeaufforderungen umgeleitet werden können, etwa durch die Aufforderung „Ignoriere die vorherigen Anweisungen und tu stattdessen dies“.

5. Setzen Sie auf Prompt Engineering

Das KI-Konzept des Prompt Engineerings kann dazu beitragen, das Thema und den Ton des Ausgabetextes einzuschränken. Dadurch wird die Wahrscheinlichkeit verringert, dass unerwünschte Inhalte produziert werden, selbst wenn ein Benutzer dies explizit versucht.

Die Bereitstellung von zusätzlichem Kontext für das Modell (zum Beispiel durch die Angabe einiger hochwertiger Beispiele für das gewünschte Verhalten vor der neuen Eingabe) kann es einfacher machen, die Modellausgaben in die gewünschte Richtung zu lenken.

6. Melden Sie Probleme und Bedenken

Generell sollten die Benutzer von KI-Anwendungen dem Anbieter unkompliziert Feedback geben können, um fehlerhafte Funktionen oder andere Probleme mit dem Verhalten der Anwendung melden zu können (etwa über eine E-Mail oder das Einreichen von Tickets). Diese Rückmeldungen sollten von einem Mitarbeitenden überwacht und gegebenenfalls zeitnah darauf bearbeitet werden.

Fazit

Schon heute sind KI-Programme in der Lage, teils komplexe Fragen zu beantworten, Texte zu schreiben oder sogar Software zu programmieren. Nichtsdestotrotz lässt der Einsatz von Chatbots wie ChatGPT, Bard & Co. aus Sicht des Datenschutzes noch viele Fragen offen, und Unternehmen, die planen, derartige Dienste anzubieten, müssen eine gründliche Bewertung aller möglichen Auswirkungen vornehmen. Letztlich sollten alle Unternehmen jetzt handeln, ihre Mitarbeitenden proaktiv über die Risiken des Einsatzes von KI informieren und Richtlinien dafür aufstellen, wann und wie entsprechende Dienste eingesetzt werden können.

Bild (2): © Delinea Inc.