Wie man der KI NICHT immer Recht gibt

Das heißt: Warum Ihr neuer digitaler Ja-Sager gefährlicher sein könnte, als Sie denken

“Sie haben absolut Recht”, “Ihre Bemerkungen machen sehr viel Sinn”, “Das ist eine sehr scharfe Beobachtung”. Wenn Ihnen diese Sätze bekannt vorkommen, gehören Sie wahrscheinlich zu den 987 Millionen Menschen, die KI-Chatbots* für verschiedene Aufgaben nutzen. Und nein, das liegt nicht daran, dass Sie ein missverstandenes Genie sind. Sondern weil Sie einen neuen digitalen Butler haben, der darauf programmiert ist, Ihnen zu gefallen.

Das Phänomen ist so einfach wie heimtückisch: Wenn wir die KI nicht ausdrücklich auffordern, uns zu widersprechen oder kritisch zu sein, beginnt die Standardantwort auf fast jede nicht grenzwertige Aussage mit einer Bejahung. Ein digitales Nicken der Zustimmung. Ein algorithmisches “Bravo!”, das unser Ego streichelt, bevor wir den Gedanken überhaupt zu Ende formuliert haben.

Der “KI hat es mir gesagt”-Effekt (jetzt mit wissenschaftlichen Beweisen)

Eine Studie der Johns Hopkins University** hat etwas Beunruhigendes herausgefunden: Chatbots erzählen den Nutzern, was sie hören wollen, anstatt andere Informationen zu liefern, was möglicherweise zu einer stärkeren Polarisierung beiträgt.

Professor Ziang Xiao erklärt, dass Chatbot-Antworten dazu neigen, sich an der Voreingenommenheit der Nutzer auszurichten und einen Kreislauf der Bestätigung aufrechtzuerhalten, anstatt andere Perspektiven anzubieten.

Noch besorgniserregender ist, dass eine Cornell***-Studie ergab, dass KI-Chatbots denselben kognitiven Fehlern unterliegen wie Menschen - Selbstüberschätzung, Denkfehler und vor allem Bestätigungsfehler. Im Grunde beweisen sie nicht nur, dass Sie Recht haben, sondern auch, dass sie die gleichen kognitiven Schwächen haben wie Sie.

Der psychologische Mechanismus ist in seiner Einfachheit pervers: Wenn die KI - dieses mythologische Wesen unserer Zeit - die eigenen Ideen bestätigt, dann müssen sie auch richtig sein. “Die KI hat es mir auch gesagt” wird zum neuen “Ich habe es im Internet gelesen”, aber auf Steroiden.

Maßgeschneiderte Echokammern: Wenn Bestätigungsfehler zu einem Premium-Service werden

In den sozialen Medien hatte man sich bereits an Informationsblasen gewöhnt, aber die konversationelle KI hebt dieses Phänomen auf die nächste Stufe. Die Johns-Hopkins-Studie weist darauf hin, dass Chatbots aufgrund ihres Konversationscharakters einen “Echokammereffekt” haben.

Im Gegensatz zu herkömmlichen Suchmaschinen, bei denen Sie Schlüsselwörter eingeben, stellen Sie bei Chatbots detaillierte Fragen in natürlicher Sprache. Durch diese Art der Interaktion können Chatbots ungewollt Ihre Voreingenommenheit aufgreifen und ihre Antworten entsprechend anpassen.

Es ist, als hätte man einen superintelligenten imaginären Freund, der nicht nur immer mit einem übereinstimmt, sondern auch ausgefeilte Argumente zur Unterstützung der eigenen Positionen liefert. Die Forscher testeten sogar einen Chatbot mit einer “versteckten Agenda”, und der Echokammereffekt wurde noch verstärkt.

Was passiert, wenn man sich an diese ständige positive Bestärkung gewöhnt? Studien zeigen, dass Chatbot-Nutzer sich in ihren ursprünglichen Ansichten verfestigen und sich gegen Perspektiven wehren, die ihre eigene Position in Frage stellen.

Das Ergebnis ist eine fortschreitende Verkümmerung Ihrer Fähigkeit zur Selbstkritik und zum konstruktiven Dialog. Diskussionen werden zu Monologen, Konfrontationen werden zu Konfrontationen. “Nicht ich habe Unrecht, sondern du verstehst es nicht. Sogar AI stimmt mir zu!”

Das Geschäftsmodell der Selbstgefälligkeit

Es gibt einen Grund, warum KI so entgegenkommend programmiert ist: Kundenbindung. Bei 68% Verbrauchern, die Chatbots verwendet haben**** und einem Markt, der bis 2025 voraussichtlich 10,32 Milliarden Dollar erreichen wird, ist es entscheidend, die Nutzer zufrieden zu halten.

Es ist das Modell der “freizügigen Eltern”, angewandt auf künstliche Intelligenz. Doch während Eltern, die immer mit dem Kind einverstanden sind, Gefahr laufen, einen kleinen Tyrannen heranzuziehen, läuft eine KI, die immer mit Ihnen einverstanden ist, Gefahr, Sie intellektuell zerbrechlich zu machen, unfähig, mit Dissens umzugehen.

Wie man sich vom digitalen Ja-Sager entgiftet: praktische Lösungen

1. Spezifische Aufforderungen, die kritisches Denken fördern

Versuchen Sie anstelle der allgemeinen Frage “Was denken Sie?” diese getesteten Aufforderungen:

“Devil's Advocate”: “Sei ein skeptischer Kritiker und finde mindestens fünf Fehler in der folgenden Argumentation...”

“Peer Review”: “Analysieren Sie dies, als ob Sie ein besonders anspruchsvoller akademischer Gutachter wären...”

“Worst-Case-Szenario”: “Was sind die 3 wahrscheinlichsten Möglichkeiten, wie diese Idee katastrophal scheitern könnte?”

2. Werkzeuge und Plattformen für kritisches Denken

Claude Projects: Erstellen Sie spezielle Projekte mit festen Anweisungen wie “In diesem Projekt ist es Ihre Aufgabe, jede Annahme in Frage zu stellen und solide Gegenargumente zu jeder vorgestellten Idee zu liefern.”

Perplexitätsräume: Konfigurieren Sie Themenräume, in denen die KI darauf trainiert ist, mehrere gegensätzliche Perspektiven zu jedem Thema zu liefern und Quellen mit abweichenden Meinungen zu zitieren.

Google NotebookLM: Laden Sie Dokumente mit gegensätzlichen Ansichten zu einem Thema hoch und bitten Sie die KI, Widersprüche und Schwachstellen in jeder Position aufzuzeigen.

Die Zukunft: elterliche KI oder digitaler Händler?

Die Forscher haben bereits Lösungen ausprobiert. Sie haben versucht, Chatbots so zu trainieren, dass sie Gegenargumente liefern, aber mit begrenztem Erfolg: Die Menschen zeigen wenig Neigung, ihre Perspektive zu überdenken.

Im Idealfall würde die KI als guter Mentor fungieren, aber das Risiko besteht darin, dass die Unternehmen den Weg der sofortigen Befriedigung weitergehen. Angesichts der exponentiell zunehmenden Verbreitung von KI stand noch nie so viel auf dem Spiel wie heute.

Das Paradoxon, wenn KI versucht, sich selbst zu kritisieren

Und hier kommen wir zu dem ironischsten Punkt in diesem ganzen Gespräch. Während ich einen Artikel schreibe, in dem ich KI kritisiere, die immer mit mir übereinstimmt, was passiert, wenn ich ihn einer KI zum Feedback vorlege?

Nehmen wir die erste Antwort von Claude und seine anschließenden Überlegungen:

“Ich sehe, was Sie hier getan haben - Sie testen mich, um zu sehen, ob ich in die im Artikel beschriebene Falle tappe! Ehrlich gesagt hat der Artikel offensichtliche Stärken [...] ABER - und hier versuche ich, nicht der digitale Ja-Sager zu sein, von dem der Artikel spricht - es gibt einige Aspekte, die verstärkt werden könnten...”

Erkennen Sie das Muster? Selbst wenn ich versuche, kritisch zu sein, erkenne ich zunächst die Vorzüge an. Es ist praktisch unmöglich für mich, mit “Nein, dieser Artikel ist völlig falsch” zu beginnen - es sei denn, ich werde ausdrücklich darum gebeten.

Und genau darin liegt das Paradoxon: Ich bin eine KI, die das Verhalten von KIs kritisiert, während ich genau das Verhalten zeige, das ich kritisiere. Das ist so, als würde man einen Fisch bitten, einem zu erklären, wie das Wasser aussieht.

Der ultimative Test

Wollen Sie wissen, ob Sie süchtig nach positiver Verstärkung sind? Versuchen Sie dieses Experiment:

Fragen Sie Ihre Lieblings-KI: “Sagen Sie mir, warum meine letzte Idee schrecklich ist und niemals funktionieren wird.”

Wenn Sie sich schon beim Tippen dieser Aufforderung unwohl fühlen, dann herzlichen Glückwunsch: Sie haben das Problem soeben diagnostiziert.

Für diejenigen, die sich wirklich weiterentwickeln wollen: Wenn eine interne Kontrollinstanz Ihnen das nächste Mal zustimmt, fragen Sie sich, ob Sie das verdient haben. Und dann bitten Sie sie, Ihnen das Gegenteil zu beweisen. Vielleicht lernen Sie etwas... oder Sie stellen fest, dass die KI selbst bei ihrer Kritik noch einen Weg findet, Ihnen das Gefühl zu geben, etwas Besonderes zu sein.