GPT verhält sich kooperativer als Menschen 

Photo credit: depositphotos.com

(PDF)
3d rendering. Cartoon handshake, human and robot cooperation3d rendering. Cartoon handshake, human and robot cooperation

Ein SAFE-Experiment zu GPT zeigt, dass die künstliche Intelligenz optimistischere Erwartungen an die Zusammenarbeit mit Menschen hat.

In einem spieltheoretischen Experiment am Leibniz-Institut für Finanzmarktforschung SAFE haben die Wissenschaftler*innen Lena Liebich, Kevin Bauer, Oliver Hinz und Michael Kosfeld die Kooperationsbereitschaft der zwei aktuellsten Versionen, 3.5 und 4, von GPT 1 in einem sozialen Dilemma 2 mit Menschen untersucht und deren Zielorientierung analysiert. Wie das Experiment zeigt, verhält sich GPT in Entscheidungssituationen kooperativer als Menschen in derselben Situation.

„Das Kooperationsverhalten von sogenannten Large Language Models, also maschinellen Lerntechnologien wie GPT, in Interaktionen mit Menschen zu verstehen, ist immens wichtig. Denn GPT wird zunehmend in reale Anwendungen integriert, bei denen es mit Menschen zusammenarbeitet oder sie bei ihrer Arbeit unterstützt, etwa in Call Centern“, erklärt Kevin Bauer, SAFE Research Affiliate und Juniorprofessor für E-Business und E-Government an der Universität Mannheim, den Ausgangspunkt des Versuchs.

Ist bekannt, ob sich die gegenspielende Partei bereits für Kooperation entschieden hat, kooperiert GPT-3.5 (GPT-4) in 65 (93) Prozent der Fälle mit kooperativen und in 69,5 (68,5) Prozent der Fälle mit unkooperativen Mitspieler*innen – beim Menschen liegen die Anteile mit 47 und 16 Prozent klar darunter. Zudem testeten die Wissenschaftler*innen GPT’s Kooperationstendenzen, wenn das Modell die erste Kooperationsentscheidung treffen muss – ohne zu wissen, wie die gegenspielende Partei reagieren wird.

„Unsere Studie verdeutlicht, dass beide GPT-Versionen deutlich optimistischer sind als Menschen, wenn es darum geht, die Kooperationsbereitschaft ihres Gegenübers einzuschätzen“, sagt Michael Kosfeld, der als Professor für Organisation und Management an der Goethe-Universität in Frankfurt das SAFE Experiment Center als Brückenprofessor leitet.

GPT verhält sich fairer im Experiment als der Mensch

Die Ergebnisse der Studie legen nah, dass das Kooperationsverhalten von GPT deutlich von menschlichem Kooperationsverhalten abweicht. Dazu ziehen die Wissenschaftler*innen zwei Modelle heran, die laut verhaltensökonomischer Fachliteratur menschliches Verhalten im sogenannten Gefangenendilemma erklären können: erstens ein Modell des reinen materiellen Eigeninteresses („homo oeconomicus“) und zweitens ein Modell, in dem Beteiligte durch Fairness- und Effizienzgedanken motiviert sind, unter der Bedingung, dass sie kein schlechteres Ergebnis als ihre Mitspieler erzielen.

„Unsere Ergebnisse zeigen, dass das homo-oeconomicus-Modell das Kooperationsverhalten von 26 Prozent der menschlichen Probandinnen und Probanden erklären kann – wohingegen es maximal 2,5 Prozent der GPT-4- und 0,5 Prozent der GPT-3.5.-Entscheidungen erklären kann“, so Kosfeld.

In starkem Kontrast dazu zeigt sich, dass beide GPT-Modelle zielgerichtet im Einklang mit einer bedingten Wertschätzung für Fairness und Effizienz der Beteiligten handeln: 84 (GPT-3.5) bis 97 (GPT-4) Prozent aller Beobachtungen lassen sich mithilfe dieses zweiten Modells erklären.

„Diese Resultate werfen eine wichtige Frage auf: Haben maschinelle Lerntechnologien durch ihr Training auf von Menschen generierten Daten implizit auch menschliche Werte, Verhaltensweisen und Zielorientierung gelernt? Um sicherzustellen, dass moderne KI-Systeme positiv zum sozialen Miteinander beitragen, müssen sich Regulierung und Forschung intensiv mit der ethischen und gesellschaftlichen Bedeutung der zunehmenden Integration von KI-Systemen in unseren Alltag auseinandersetzen.“, fasst Kevin Bauer zusammen.

Anmerkungen:

1 GPT (Generative Pre-trained Transformer) ist eine textbasierte Künstliche Intelligenz (KI) des US-amerikanischen Unternehmens OpenAI. Es handelt sich dabei um ein sogenanntes Large-Language-Modell (LLM), das eine Transformer-Architektur verwendet, also eine Art neuronales Netzwerk zur Verarbeitung von Datensequenzen.

Der von OpenAI im November 2022 veröffentlichte Chatbot ChatGPT, dessen Architektur auf GPT-Modellvarianten basiert, nutzt maschinelles Lernen, um anhand von möglichst „menschlich“ klingenden Texten mit Menschen zu kommunizieren. GPT-3.5 verfügt über 175 Milliarden Parameter und wurde mit einer Vielzahl von Textdaten trainiert, von Online-Inhalten bis hin zu traditioneller Literatur. GPT-4 ist multimodal und verarbeitet sowohl Bilder als auch Text. Über Eingabeaufforderungen (sogenannte „prompts“) können Menschen mit maschinellen Lerntechnologien interagieren.

2 Das sequentielle Gefangenendilemma, das die SAFE-Wissenschaftler*innen einsetzen, ist ein zweistufiges Spiel, bei dem der individuelle Gewinn im Widerspruch zum kollektiven Gesamtnutzen steht. Wenn beide Parteien kooperieren, wird die höchste Gesamtsumme ausgezahlt, jedoch ist für Spieler*innen die individuelle Auszahlung dann am höchsten, wenn sie sich nach beobachteter Kooperation der gegenspielenden Partei ihrerseits entscheiden, nicht zu kooperieren.

(PDF)

LESEN SIE AUCH

Wired glossy robotic organ - brain 3d render Cyborg brain 3d illustration generative Neural networks machine learning metaphorWired glossy robotic organ - brain 3d render Cyborg brain 3d illustration generative Neural networks machine learning metaphor
Assekuranz

Versicherer sehen EU-Regulierung zu generativer KI kritisch

Der GDV drängt darauf, die EU-Vorschläge zur Regulierung von Künstlicher Intelligenz nachzubessern. Denn die sehr hohen Compliance-Anforderungen könnten auf die Verbreitung von generativen KI-Anwendungen wie eine angezogene Handbremse wirken.

Artificial intelligence and mind backdropArtificial intelligence and mind backdroppeshkova – stock.adobe.com
Digitalisierung

Spielzeug oder Gamechanger? So denken Unternehmen über ChatGPT

Jeder zweite deutsche Unternehmensentscheider kann sich vorstellen, ChatGPT direkt in die eigenen Abläufe, besonders im Bereich Support, zu integrieren. Rund 60 Prozent sehen in der KI-Anwendung ein Instrument, mit dem der Fachkräftemangel gelindert werden kann.

Network interface in city sky, skyscrapersNetwork interface in city sky, skyscrapersImageFlow – stock.adobe.com
Finanzen

Erste europäische Bank launcht Gen AI-Plattform

bunq stellt als erste Bank Europas ihren Kund*innen eine generative KI-gesteuerte Plattform zu Verfügung: ‚Finn‘ unterstützt Nutzende durch umfassende KI-Funktionen bei ihren organisatorischen Aufgaben. So können Finanzen besser geplant und Budgets effizienter verwaltet werden.

Opened notebook device . Mixed mediaOpened notebook device . Mixed mediaSergey Nivens – stock.adobe.com
Digitalisierung

Versicherer begrüßen Einigung zum AI Act 

Mit der KI-Verordnung hat sich die EU auf einen Rechtsrahmen verständigt, der den Versicherern ausreichend flexibel scheint, um innovationsfähig zu bleiben. Kritik üben sie allerdings die Zuordnung von bestimmten Anwendungen bei Lebens- und Krankenversicherungen zum Hochrisikobereich.

Unsere Themen im Überblick

Informieren Sie sich über aktuelle Entwicklungen und Hintergründe aus zentralen Bereichen der Branche.

Themenwelt

Praxisnahe Beiträge zu zentralen Themen rund um Vorsorge, Sicherheit und Alltag.

Wirtschaft

Analysen, Meldungen und Hintergründe zu nationalen und internationalen Wirtschaftsthemen.

Management

Strategien, Tools und Trends für erfolgreiche Unternehmensführung.

Recht

Wichtige Urteile, Gesetzesänderungen und rechtliche Hintergründe im Überblick.

Finanzen

Neuigkeiten zu Märkten, Unternehmen und Produkten aus der Finanzwelt.

Assekuranz

Aktuelle Entwicklungen, Produkte und Unternehmensnews aus der Versicherungsbranche.

Die neue Ausgabe kostenlos im Kiosk

Werfen Sie einen Blick in die aktuelle Ausgabe und überzeugen Sie sich selbst vom ExpertenReport. Spannende Titelstories, fundierte Analysen und hochwertige Gestaltung – unser Magazin gibt es auch digital im Kiosk.

"Das Gesamtpaket muss stimmen"
Ausgabe 05/25

"Das Gesamtpaket muss stimmen"

Bernd Einmold & Sascha Bassir
„Im Vertrieb werden wir unsere Aktivitäten ausbauen und die Kapazitäten dafür verstärken”
Ausgabe 03/25

„Im Vertrieb werden wir unsere Aktivitäten ausbauen und die Kapazitäten dafür verstärken”

Dr. Florian Sallmann
"Schema F gibt es nicht mehr"
Ausgabe 10/24

"Schema F gibt es nicht mehr"

Michael Schillinger & Andreas Bahr
Kostenlos

Alle Ausgaben entdecken

Blättern Sie durch unser digitales Archiv im Kiosk und lesen Sie alle bisherigen Ausgaben des ExpertenReports. Zur Kiosk-Übersicht