Photo credit: depositphotos.com
Kaum ein Thema hat in den letzten Monaten die Schlagzeilen so sehr beherrscht wie künstliche Intelligenz (KI). Es vergeht nahezu kein Tag mehr, an dem Organisationen und Medien nicht von neuen Durchbrüchen und Anwendungsfällen berichten. Gleichzeitig nehmen aber auch die Bedenken über die Folgen des Einsatzes von KI zu.
Radu Orghidan, Vice President Cognitive Computing bei Endava beantwortet die wichtigsten Fragen rund um Künstliche Intelligenz
1. Warum steht KI aktuell so stark im Fokus?
Die Forschung an künstlicher Intelligenz geht Jahrzehnte zurück und war immer wieder von Phasen des Hypes und der Ernüchterung („KI-Winter“) geprägt. Auch der aktuelle Emerging Technologies Report von Endava zeigt, dass beispielsweile KI-basierte Automatisierung vom Großteil (86 Prozent) der deutschen Unternehmensentscheider als relevant für ihr Geschäft eingestuft wird.
Das hohe Interesse an KI zurzeit hat mehrere Gründe, die zusammenhängen: das exponentielle Wachstum von KI-Technologien aufgrund von zunehmendem Dateninput; Synergieeffekte durch Fortschritte in anderen Technologien wie Cloud Computing, Big Data, Internet of Things (IoT); neue Informations- und Handelsnetze ermöglicht durch KI, die wiederum Daten zur Verbesserung von KI-Systemen liefern; die Open-Source-Bewegung, die KI demokratisiert und Forschern und Entwicklern ermöglicht, an Projekten wie TensorFlow und PyTorch mitzuarbeiten und von ihnen zu profitieren.
Diese Entwicklung hat insbesondere Lösungen mit großem Transformationspotenzial vorangetrieben, die die Basis vieler innovativer KI-Systeme bilden, ob für die Erstellung von Text (ChatGPT, Bard, Dolly), Bildern (Midjourney, Stable Diffusion, Dall-E 2) oder Softwarecode (Github Copilot, Codes, Tabnine).
2. Übernehmen generative KIs bald alle kreativen Arbeiten?
Lange Zeit schienen Facharbeiter davor geschützt, dass Maschinen ihre Arbeit übernehmen. Kritisches Denken, tiefe Fachkenntnisse und vor allem Kreativität schienen für KIs unerreichbar. Diese Gewissheit hat jedoch in den letzten Monaten durch generative KIs, die Text, Bilder und sogar Musik erzeugen können, Risse bekommen.
Aber diese Kreationen basieren schlicht auf Mustern, die KIs aus Daten lernen. Dadurch demokratisieren sie zwar bestimmte kreative Fähigkeiten, für die früher oft eine spezielle Ausbildung nötig gewesen wäre. Den Werken von KI-Systemen fehlt es jedoch an Originalität und Tiefe, nuancierten Emotionen, kulturellen Kontexten und Erfahrungen – den entscheidenden Aspekten menschlicher Kreativität.
Daher sollte KI eher als Werkzeug gesehen werden, das die kreative Landschaft erweitert, statt als Bedrohung kreativer Berufe. Sie kann Inspiration liefern, sich wiederholende Aufgaben beschleunigen und neue Möglichkeiten zur Mediengestaltung bieten.
4. Wie steht es ums Urheberrecht von KI-generierten Werken?
In Deutschland ist ein Werk nur dann schutzfähig, wenn es als „eigene geistige Schöpfung“ des Urhebers gilt und nur Werke, die dem menschlichen Geist entspringen, erfüllen diese Voraussetzung. KI-generierter Output ist damit erst mal nicht urheberrechtsfähig, weder für denjenigen, der den entsprechenden Prompt eingegeben hat, noch für den Programmierer der KI-Anwendung. Wird das KI-Werk anschließend aber schöpferisch mit eigener kreativer Leistung überarbeitet, kann das Urheberrecht dann aber doch gelten.
5. Was plant die EU mit dem AI Act?
Mitte Juni hat das EU-Parlament seinen Vorschlag zur Regulierung von künstlicher Intelligenz vorgelegt. Ziel ist es, einen Rahmen zu schaffen, der einerseits die Grundrechte der Bürger wahrt und andererseits es der Gesellschaft ermöglicht, die Vorteile von KI zu nutzen.
Wie von der EU-Kommission ursprünglich vorgeschlagen, sieht das Gesetz einen Ansatz mit vier Risikostufen von KI vor: minimales Risiko, begrenztes Risiko, hohes Risiko, inakzeptables Risiko. Zu letzterem zählt beispielsweise die biometrische Gesichtserkennung in Echtzeit im öffentlichen Raum.
Im Vergleich zum ersten Vorschlag, der von der EU-Kommission im April 2021 vorgestellt wurde, umfasst die aktuelle Version Maßnahmen für Modelle, die auf sogenannten Foundation Models – KI-Modelle, die mit großen Datenmengen trainiert wurden, auf allgemeinen Output ausgelegt wurden und an eine breite Palette an unterschiedlichen Aufgaben angepasst werden können – und generativen KIs basieren; denn 2021 spielten diese noch keine bedeutende Rolle.
Die Anbieter müssen demnach in Zukunft die Risiken ihrer Foundation Models bewerten und reduzieren, Anforderungen an Design, Informationen und Umwelt erfüllen sowie sich in einer EU-Datenbank registrieren. Darüber hinaus würden generative KIs, die Large Language Models (LLMs) nutzen, um Kunst, Musik und andere Inhalte zu generieren, strengen Transparenzpflichten unterliegen.
6. Haben KIs ein eigenes Bewusstsein?
Nein, haben sie nicht. Die Anthropomorphisierung, also die Zuschreibung menschenähnlicher Eigenschaften an nichtmenschliche Dinge, ist im Technologiebereich weit verbreitet: Autos, die eigene Namen erhalten, menschenähnliche Roboter, der berüchtigte Karl Klammer von Microsoft oder auch Siri und Alexa sind Beispiele hierfür. Sinn und Zweck ist es, Technologie sympathischer zu machen und die Interaktion zwischen Mensch und Maschine zu fördern.
Auch bei fortschrittlichen Chatbots wie ChatGPT neigen Nutzer dazu, sie zu vermenschlichen. Doch im Grunde berechnen solche LLMs nur anhand ihrer Trainingsdaten, welches Wort mit hoher Wahrscheinlichkeit auf ein anderes folgt. Dabei klingen sie ähnlich wie wir, weil sie mittels menschlicher Sprache trainiert wurden.
Chatbots besitzen kein Bewusstsein, empfinden keine Emotionen und machen keine subjektiven Erfahrungen. Ihre Antworten basieren auf vorprogrammierten Regeln und Mustern, die aus Daten gelernt wurden. Viel wichtiger ist dabei zu wissen, dass LLMs auch unsere Bias übernehmen und wiedergeben, was zu Missverständnissen führen kann. Auch das ist ein Grund, warum ein Mensch die Ergebnisse von Chatbots – egal wie intelligent sie auch klingen mögen – immer noch einmal überprüfen sollte.