Stell dir vor, du fragst jemanden nach etwas, das er nicht weiß. Doch statt offen zuzugeben, dass er keine Ahnung hat, bekommst du eine absolut selbstbewusste Antwort von ihm, die klingt, als würde ein Experte sprechen. Genau so verhalten sich Sprachmodelle, die oft verkürzt als „künstliche Intelligenz“ (KI) bezeichnet werden. Sie wirken souverän, klingen überzeugt und liefern dir eine Erklärung, obwohl sie im Grunde völlig im Dunkeln tappen. Warum das so ist, erfährst du in diesem Artikel.
KI-Sprachmodelle wie ChatGPT oder Google Gemini sind längst Teil unseres Alltags. Sie helfen uns beim Formulieren, übernehmen kleine Aufgaben, für die wir früher viel Zeit gebraucht hätten, und liefern Auskünfte zu nahezu allem. Die Systeme antworten immer. Ganz egal, was du wissen willst. Wie verlässlich ihre Antworten sind, steht auf einem anderen Blatt.
Häufig werde ich daher gefragt, warum ChatGPT, Gemini, Claude & Co. nicht einfach schreiben, wenn sie etwas nicht wissen. Warum gibt die KI IMMER einen Text aus, obwohl sie gar keine Ahnung hat? Warum kann sie nicht zugeben, dass sie überhaupt keine Informationen hat. Oder sich wie Sokrates ausdrücken und sagen „Ich weiß, dass ich nichts weiß„?
Dahinter steckt die Erwartung, dass eine KI so etwas wie menschliches Verständnis oder intellektuelles Urteilsvermögen hätte. Genau an dieser Stelle liegt jedoch ein Missverständnis, das ich gerne ausräumen möchte.
Sprach-KIs sind keine denkenden Wesen
Moderne Sprachmodelle wie ChatGPT erfassen Texte nicht intellektuell, sondern statistisch. Sie verfügen über kein Verständnis im menschlichen Sinne und wissen nicht, ob etwas richtig oder falsch ist. Sie besitzen weder Bewusstsein noch Überzeugungen oder Absichten. Sie können also gar nicht wissen, dass sie nichts wissen. Was sie tatsächlich tun, ist erstaunlich schlicht: Sie berechnen, welche Wörter mit der höchsten Wahrscheinlichkeit aufeinander folgen, indem sie Muster in riesigen Textsammlungen analysieren. Sie versuchen also nicht, Bedeutung zu erfassen, sondern Wahrscheinlichkeiten vorherzusagen. Kurz gesagt basieren sie auf der Theorie, dass Sprache vorhersagbar ist.
Was wirklich hinter den scheinbar klugen Antworten steckt
Du willst Beispiele? Gerne lasse ich in meinen Workshops folgende Sätze ergänzen
- An einem schönen …
- Der frühe Vogel …
- Ich brauche dringend eine Tasse …
oder folgende Fragen beantworten:
- ein Tier mit „A“ am Anfang?
- Eine Frucht mit „B“ am Anfang?
Meist nennt ein Großteil der Teilnehmerinnen und Teilnehmer das gleiche Wort. Und wenn es unterschiedliche Antworten gibt, zähle ich durch. Wenn also zum Beispiel fünf Leute den Satz „Ich brauche dringend eine Tasse“ mit „Tee“ ergänzt haben und 15 mit „Kaffee“ wird der Satz statistisch gesehen mit „Kaffee” fortgesetzt. Gibt es für Tee oder Kaffee oder Tee gleich viele Antworten, würfeln wir und entscheiden so, wie es weitergeht. Genauso arbeiten Sprachmodelle. Sie werden mit riesigen Textmengen trainiert, die sie statistisch auswerten. So können sie Wahrscheinlichkeiten dafür berechnen, wie Texte weitergehen.
Auch hier ein Beispiel zum besseren Verständnis. Wenn du den Satzanfang „Die Hauptstadt von Frankreich ist …“ in ein Sprachmodell eingibst, passiert im Hintergrund etwas ziemlich Unspektakuläres, das jedoch häufig erstaunlich treffsicher ist: Das Modell prüft, welches Wort nach dieser Kombination am wahrscheinlichsten folgt. Weil Paris dort mit Abstand am häufigsten vorkommt, sagt das Modell voraus, dass dies das wahrscheinlichste nächste Wort ist. Die KI weiß jedoch weder, was eine Hauptstadt ist, noch wo Frankreich liegt. Sie hat das nur statistisch erfasst, weil diese Kombination oft so im Text vorkommt.
Wie Sprachmodelle Texte „erraten“
Auf diese Weise schreiben KIs ganze Texte. Sie schauen auf die letzten Worte des bereits geschriebenen Textes zurück und fügen ein Wort hinzu, das mit der größten Wahrscheinlichkeit als Nächstes folgt. Stehen mehrere Wörter mit der gleichen Wahrscheinlichkeit zur Auswahl, entscheidet der Zufall oder genauer gesagt: Eine Zufallsfunktion.
Und hier liegen auch schon zwei Gründe dafür, warum KIs manchmal danebenliegen. „Wahrscheinlich” ist möglicherweise richtig, muss es aber nicht sein. Wenn der Zufall darüber entscheidet, wie ein Text weitergeht, gibt es unendlich viele Fehlermöglichkeiten. Auf der Seite Soekia.ch kannst du dir sehr anschaulich ansehen, wie eine KI funktioniert. Wenn Du magst, kannst du die KI sogar mit eigenen Texten trainieren und dann sehen, wie GPT-Modelle aufgrund statistischer Muster Antworten generieren, ohne tatsächlich zu verstehen, was sie da eigentlich schreiben.
Ein weiteres Beispiel zur Verdeutlichung: Wenn du die KI fragst: „Was versteht man unter Quantenphysik?”, werden die Sprachmodelle eine Antwort generieren, die wie eine Erklärung klingt. Dabei kombinieren sie aus ihren Trainingsdaten bekannte Ausdrücke und Sätze auf statistisch stimmige Weise. Sie verstehen die Quantenphysik jedoch nicht. Genau genommen haben sie gar kein Verständnis und auch kein Bewusstsein, das ihnen klarmachen würde, dass sie dazu keine verlässliche Information haben oder es nicht beantworten können. Sie machen stumpf immer das, wofür sie erstellt wurden. Sie schreiben Texte auf Basis von Wahrscheinlichkeiten.
Wahrscheinlich richtig ist nicht unbedingt richtig
In den so entstandenen Texten klingen auch falsche Antworten überzeugend, da die KIs selbst Unsinn plausibel formulieren können und in ihren Antworten sehr kompetent klingen, obwohl keine echte Kenntnis dahintersteht. Außerdem stößt das Modell an seine Grenzen, sobald die Datenlage zu dünn für eine aussagekräftige Statistik wird. Das ist bei Nischenthemen oft der Fall.
Auch hier ein Beispiel. Ich fotografiere gerne Architekturmotive. Gut, dass es mit der Universitätskirche hier bei mir um die Ecke einen beeindruckenden Bau gibt. Auch zu diesem Bild habe ich mir eine Bildunterschrift schreiben lassen:
Die Universitätskirche in Kiel, auch als Unikirche bekannt, ist ein markantes Gebäude auf dem Campus der Christian-Albrechts-Universität. Sie wurde in den Jahren 1911 bis 1913 erbaut und ist ein Beispiel für die norddeutsche Backsteingotik.
Die Kirche beherbergt eine Orgel mit mehr als 4.000 Pfeifen und dient als Ort der Andacht und des Gebets für die Universitätsgemeinde. Sie ist auch ein beliebter Ort für Konzerte und kulturelle Veranstaltungen.
Das Innere der Kirche beeindruckt durch seine hohen Gewölbedecken und buntglasfenster. Auch die Altarfigur, die aus dem 15. Jahrhundert stammt, zieht die Aufmerksamkeit der Besucher auf sich.
Insgesamt ist die Unikirche ein wichtiger Bestandteil des universitären Lebens in Kiel und ein beliebtes Touristenziel. Sie ist ein Ort der Ruhe und des Gebets, aber auch ein Ort der Kultur und des Austauschs.
ChatGPT
An dieser Stelle kann ich nur sagen: Vorsicht. An diesem Text ist so gut wie gar nichts richtig. Wer die Universitätskirche kennt, der weiß, dass sie 1965 eingeweiht wurde und vom Baustil keinesfalls der Backsteingotik zuzuordnen ist, wie ihr auf diesem Bild sehen könnt:

Das Innere der Kirche ist zwar sehr beeindruckend. Verantwortlich dafür sind aber nicht die hohen Gewölbedecken (die es nicht gibt). Zur Wirkung des Raumes tragen eher die „buntglasfenster“ (Schreibweise von ChatGPT übernommen) bei, von denen ich aber vermute, dass der Chatbot diese Textpassage auch aus einem nicht mit der Unikirche in Kiel zusammenhängenden Text übernommen hat.
Hier zeigt sich deutlich, dass die von ChatGPT generierten Texte unbedingt auf ihre Richtigkeit überprüft werden müssen. Und das kann bei einer längeren Hausaufgabe oder gar bei einer Abschlussarbeit schon ganz schön aufwändig sein. Für mich ist es da definitiv einfacher, den Text selbst zu schreiben als später das, was mir eine KI vorliegt, komplett überprüfen zu müssen. Natürlich kann man das teilweise automatisieren und die KI auffordern, einen Faktencheck durchzuführen. Wie auch immer du vorgehst: Vorsicht bei KI-generierten Antworten. Gewöhne dir an, alles zumindest stichpunktartig zu überprüfen, was dir die KI ausgibt.
Warum ich KI-Sprachmodelle trotzdem großartig sind
All das macht KI nicht schlecht. Im Gegenteil: Sprach-KIs sind leistungsfähige Werkzeuge, wenn man sie als solche versteht. Sie können Dinge, die Menschen allenfalls mit viel Aufwand leisten: große Textmengen überblicken, wiederkehrende Strukturen erkennen, Zusammenfassungen schreiben oder Texte gezielt für unterschiedliche Zielgruppen umformulieren. Gerade dort, wo es um Muster, Stil, Variation und Geschwindigkeit geht, sind sie dem Menschen oft überlegen. Problematisch wird KI erst dann, wenn man ihr Eigenschaften zuschreibt, die sie nicht hat. Also intellektuelles Verständnis, Urteilskraft oder Wissen.
Wer ihre Grenzen kennt, kann ihre Stärken gezielt nutzen. Wer sie aber für ein denkendes Gegenüber hält, verwechselt schnell statistische Muster mit echtem Wissen. ‚Wahrscheinlich richtig‘ bleibt eben nur wahrscheinlich richtig. Oder, wie René Descartes sagte: Alles, was lediglich wahrscheinlich ist, ist wahrscheinlich falsch.
