Photo credit: depositphotos.com
Ein SAFE-Experiment zu GPT zeigt, dass die künstliche Intelligenz optimistischere Erwartungen an die Zusammenarbeit mit Menschen hat.
In einem spieltheoretischen Experiment am Leibniz-Institut für Finanzmarktforschung SAFE haben die Wissenschaftler*innen Lena Liebich, Kevin Bauer, Oliver Hinz und Michael Kosfeld die Kooperationsbereitschaft der zwei aktuellsten Versionen, 3.5 und 4, von GPT 1 in einem sozialen Dilemma 2 mit Menschen untersucht und deren Zielorientierung analysiert. Wie das Experiment zeigt, verhält sich GPT in Entscheidungssituationen kooperativer als Menschen in derselben Situation.
„Das Kooperationsverhalten von sogenannten Large Language Models, also maschinellen Lerntechnologien wie GPT, in Interaktionen mit Menschen zu verstehen, ist immens wichtig. Denn GPT wird zunehmend in reale Anwendungen integriert, bei denen es mit Menschen zusammenarbeitet oder sie bei ihrer Arbeit unterstützt, etwa in Call Centern“, erklärt Kevin Bauer, SAFE Research Affiliate und Juniorprofessor für E-Business und E-Government an der Universität Mannheim, den Ausgangspunkt des Versuchs.
Ist bekannt, ob sich die gegenspielende Partei bereits für Kooperation entschieden hat, kooperiert GPT-3.5 (GPT-4) in 65 (93) Prozent der Fälle mit kooperativen und in 69,5 (68,5) Prozent der Fälle mit unkooperativen Mitspieler*innen – beim Menschen liegen die Anteile mit 47 und 16 Prozent klar darunter. Zudem testeten die Wissenschaftler*innen GPT’s Kooperationstendenzen, wenn das Modell die erste Kooperationsentscheidung treffen muss – ohne zu wissen, wie die gegenspielende Partei reagieren wird.
„Unsere Studie verdeutlicht, dass beide GPT-Versionen deutlich optimistischer sind als Menschen, wenn es darum geht, die Kooperationsbereitschaft ihres Gegenübers einzuschätzen“, sagt Michael Kosfeld, der als Professor für Organisation und Management an der Goethe-Universität in Frankfurt das SAFE Experiment Center als Brückenprofessor leitet.
GPT verhält sich fairer im Experiment als der Mensch
Die Ergebnisse der Studie legen nah, dass das Kooperationsverhalten von GPT deutlich von menschlichem Kooperationsverhalten abweicht. Dazu ziehen die Wissenschaftler*innen zwei Modelle heran, die laut verhaltensökonomischer Fachliteratur menschliches Verhalten im sogenannten Gefangenendilemma erklären können: erstens ein Modell des reinen materiellen Eigeninteresses („homo oeconomicus“) und zweitens ein Modell, in dem Beteiligte durch Fairness- und Effizienzgedanken motiviert sind, unter der Bedingung, dass sie kein schlechteres Ergebnis als ihre Mitspieler erzielen.
„Unsere Ergebnisse zeigen, dass das homo-oeconomicus-Modell das Kooperationsverhalten von 26 Prozent der menschlichen Probandinnen und Probanden erklären kann – wohingegen es maximal 2,5 Prozent der GPT-4- und 0,5 Prozent der GPT-3.5.-Entscheidungen erklären kann“, so Kosfeld.
In starkem Kontrast dazu zeigt sich, dass beide GPT-Modelle zielgerichtet im Einklang mit einer bedingten Wertschätzung für Fairness und Effizienz der Beteiligten handeln: 84 (GPT-3.5) bis 97 (GPT-4) Prozent aller Beobachtungen lassen sich mithilfe dieses zweiten Modells erklären.
„Diese Resultate werfen eine wichtige Frage auf: Haben maschinelle Lerntechnologien durch ihr Training auf von Menschen generierten Daten implizit auch menschliche Werte, Verhaltensweisen und Zielorientierung gelernt? Um sicherzustellen, dass moderne KI-Systeme positiv zum sozialen Miteinander beitragen, müssen sich Regulierung und Forschung intensiv mit der ethischen und gesellschaftlichen Bedeutung der zunehmenden Integration von KI-Systemen in unseren Alltag auseinandersetzen.“, fasst Kevin Bauer zusammen.
Anmerkungen:
1 GPT (Generative Pre-trained Transformer) ist eine textbasierte Künstliche Intelligenz (KI) des US-amerikanischen Unternehmens OpenAI. Es handelt sich dabei um ein sogenanntes Large-Language-Modell (LLM), das eine Transformer-Architektur verwendet, also eine Art neuronales Netzwerk zur Verarbeitung von Datensequenzen.
Der von OpenAI im November 2022 veröffentlichte Chatbot ChatGPT, dessen Architektur auf GPT-Modellvarianten basiert, nutzt maschinelles Lernen, um anhand von möglichst „menschlich“ klingenden Texten mit Menschen zu kommunizieren. GPT-3.5 verfügt über 175 Milliarden Parameter und wurde mit einer Vielzahl von Textdaten trainiert, von Online-Inhalten bis hin zu traditioneller Literatur. GPT-4 ist multimodal und verarbeitet sowohl Bilder als auch Text. Über Eingabeaufforderungen (sogenannte „prompts“) können Menschen mit maschinellen Lerntechnologien interagieren.
2 Das sequentielle Gefangenendilemma, das die SAFE-Wissenschaftler*innen einsetzen, ist ein zweistufiges Spiel, bei dem der individuelle Gewinn im Widerspruch zum kollektiven Gesamtnutzen steht. Wenn beide Parteien kooperieren, wird die höchste Gesamtsumme ausgezahlt, jedoch ist für Spieler*innen die individuelle Auszahlung dann am höchsten, wenn sie sich nach beobachteter Kooperation der gegenspielenden Partei ihrerseits entscheiden, nicht zu kooperieren.
Themen:
LESEN SIE AUCH
Versicherer sehen EU-Regulierung zu generativer KI kritisch
Der GDV drängt darauf, die EU-Vorschläge zur Regulierung von Künstlicher Intelligenz nachzubessern. Denn die sehr hohen Compliance-Anforderungen könnten auf die Verbreitung von generativen KI-Anwendungen wie eine angezogene Handbremse wirken.
Spielzeug oder Gamechanger? So denken Unternehmen über ChatGPT
Jeder zweite deutsche Unternehmensentscheider kann sich vorstellen, ChatGPT direkt in die eigenen Abläufe, besonders im Bereich Support, zu integrieren. Rund 60 Prozent sehen in der KI-Anwendung ein Instrument, mit dem der Fachkräftemangel gelindert werden kann.
Erste europäische Bank launcht Gen AI-Plattform
bunq stellt als erste Bank Europas ihren Kund*innen eine generative KI-gesteuerte Plattform zu Verfügung: ‚Finn‘ unterstützt Nutzende durch umfassende KI-Funktionen bei ihren organisatorischen Aufgaben. So können Finanzen besser geplant und Budgets effizienter verwaltet werden.
Versicherer begrüßen Einigung zum AI Act
Mit der KI-Verordnung hat sich die EU auf einen Rechtsrahmen verständigt, der den Versicherern ausreichend flexibel scheint, um innovationsfähig zu bleiben. Kritik üben sie allerdings die Zuordnung von bestimmten Anwendungen bei Lebens- und Krankenversicherungen zum Hochrisikobereich.
Unsere Themen im Überblick
Themenwelt
Wirtschaft
Management
Recht
Finanzen
Assekuranz
KI im Kundendialog: Zwischen Game Changer und Beziehungskiller
Künstliche Intelligenz ist längst kein Zukunftsthema mehr – sie verändert die Customer Journey in der Assekuranz bereits heute. Doch sind Kunden wirklich bereit, auf KI-gestützte Services zu setzen? Antworten liefert der neue „KI-Monitor-Assekuranz 2025“ des Marktforschungsinstituts HEUTE UND MORGEN.
Digitale Kluft bleibt groß: 38 Prozent zögern bei Online-Angeboten
Datenschutzsorgen, fehlendes Wissen und Angst vor Fehlern: Eine aktuelle Umfrage zur digitalen Teilhabe zeigt, dass viele Menschen mit der Digitalisierung fremdeln – vor allem Ältere. Der bevorstehende Digitaltag will genau hier ansetzen.
Wunsch nach digitaler Schadenabwicklung steigt
Immer mehr Versicherte wünschen sich eine vollständig digitale Abwicklung von Schadensfällen – doch bei der Automatisierung ziehen viele eine klare Grenze. Eine aktuelle Bitkom-Umfrage zeigt: Während digitale Services zunehmend gefragt sind, bleibt der Wunsch nach persönlicher Kontrolle bestehen. Für Versicherer ergibt sich daraus ein klarer Handlungsauftrag.
„BiPRO ist noch nicht in Verbindung mit dem Maklermarkt“
Beim BiPRO-Tag 2025 diskutierten Branchenteilnehmer über Digitalisierung, Standardisierung und neue Schnittstellen. BVK-Vizepräsident Andreas Vollmer stellte dabei klar: BiPRO müsse praxisnäher werden – und stärker auf den Maklermarkt ausgerichtet sein.
Die neue Ausgabe kostenlos im Kiosk
Werfen Sie einen Blick in die aktuelle Ausgabe und überzeugen Sie sich selbst vom ExpertenReport. Spannende Titelstories, fundierte Analysen und hochwertige Gestaltung – unser Magazin gibt es auch digital im Kiosk.