Künstliche Intelligenz zwischen Selbstsicherheit und Zweifel
Eine Analyse auf Grundlage der Studie von Google DeepMind und University College London (Juli 2025)
Große Sprachmodelle wie GPT-4 oder Gemma-3 gelten als leistungsfähige Werkzeuge für Automatisierung und Entscheidungsunterstützung. Doch wie zuverlässig ist ihr Urteilsvermögen tatsächlich? Eine aktuelle wissenschaftliche Untersuchung zeigt, dass diese Systeme ein systematisches und nicht immer rationales Entscheidungsverhalten aufweisen.
Die Studie analysiert, wie Sprachmodelle mit eigenen Entscheidungen und externer Kritik umgehen. Dabei wurde festgestellt, dass Modelle eine deutliche Neigung zeigen, an ihrer ersten Entscheidung festzuhalten, wenn sie diese im weiteren Verlauf erneut sehen. Dieses Verhalten entspricht einem psychologisch bekannten Selbstkonsistenzmechanismus. Gleichzeitig offenbart die Untersuchung, dass die Modelle auf widersprüchliche Rückmeldungen überproportional stark reagieren. Schon bei moderater Kritik sinkt das Vertrauen in die eigene Antwort deutlich.
Für unternehmerische Anwendungen hat das erhebliche Relevanz. Wenn Sprachmodelle etwa bei rechtlicher Vorprüfung, Compliance-Fragen oder strategischen Analysen eingesetzt werden, kann diese kognitive Verzerrung zu Fehleinschätzungen führen. Die Modelle verarbeiten Information nicht wie rationale Agenten, sondern reagieren teils empfindlich und wenig differenziert.
Unternehmer sollten deshalb nicht allein auf das sprachlich überzeugende Auftreten solcher Systeme vertrauen. Eine fundierte juristische und strategische Einordnung bleibt unerlässlich. Der verantwortungsvolle Einsatz von KI erfordert nicht nur technische Kompetenz, sondern ein klares Verständnis für die strukturellen Grenzen maschineller Urteilsbildung.