Ein ehemaliger KI-Forscher räumt mit Mythen auf – und zeigt uns, warum aus „klingt menschlich“ noch lange nicht „ist intelligent“ folgt! - Ein Beitrag von Chris Barth -

In zwei Gesprächen – einmal im bewusst.tv-Interview und noch einmal im KLARTEXT-Podcast – zieht Alexander Paprotny eine klare Grenze zwischen technischer Realität und kultureller Projektion: Vieles, was heute „Künstliche Intelligenz“ genannt wird, ist für ihn vor allem ein Marketingbegriff. Seine Kernbotschaft: Moderne Sprachmodelle können erstaunlich gut Sprache imitieren – aber das heißt weder Bewusstsein noch Urteilskraft noch Mitgefühl. Und genau diese Verwechslung ist gesellschaftlich brisant.
Was passiert technisch, wenn ChatGPT „antwortet“?
Paprotny beschreibt Large Language Models (LLM) nicht als denkende Wesen, sondern als hochskalierte Textvervollständigung. Im KLARTEXT-Gespräch mit Chris Barth erklärt er es mit einem Bild, das fast jeder kennt: Smartphone-Wortvorschläge – oder früher T9. Das System schätzt auf Basis vieler Texte, welches Wort als nächstes „passt“, gibt es aus, speist das Ergebnis wieder ein – und wiederholt das Wort für Wort.
Entscheidend ist der Perspektivwechsel: Für den Nutzer wirkt es wie Absicht, Verständnis, Planung. Für Paprotny ist es Statistik plus Skalierung: ein Modell, das bei jedem Wort neu „auswürfelt“, was wahrscheinlich als nächstes kommt.
Darum nennt er es auch eine „Verallgemeinerung von Wortvervollständigungssystemen“.

Warum wirkt das dann so überzeugend?
Weil Sprache beim Menschen eine Abkürzung ist: Wenn etwas sprachlich flüssig, höflich und emotional passend klingt, interpretieren wir schnell „da ist jemand“. Paprotny vergleicht das mit einem Papagei: Der erzeugt Laute, die für uns wie Sprache wirken – aber nicht, weil er versteht, sondern weil er gelernt hat, dass bestimmte Signale belohnt werden.
In beiden Gesprächen taucht immer wieder derselbe Mechanismus auf: Das System kann Menschlichkeit spielen, und der Mensch füllt die Lücken mit eigenen Erwartungen. Genau daraus entstehen dann Sätze wie: „ChatGPT versteht mich“ – und im Extrem sogar emotionale Bindungen.
Was kann KI dann sinnvoll leisten?
Trotz aller Kritik ist Paprotny nicht auf „alles ist schlecht“ aus. Er nennt sehr praktische Nutzenfelder, die vielen im Alltag helfen: Transkription, Übersetzung, Muster in Texten erkennen, Formulierungsvarianten liefern. Konkret: Übersetzen sei „inzwischen wirklich gut“, Transkription „super praktisch“ – das spare Zeit und Aufwand - aber auch dort müssten (Zwischen-)Ergebnisse immer mal wieder kontrolliert werden.
Diese Einordnung ist wichtig: Wer KI als Werkzeug begreift (statt als Autorität), kann davon profitieren – ohne sich geistig zu entmündigen.

Wo sind die Grenzen – und warum werden sie oft übersehen?
Im KLARTEXT-Gespräch werden zwei typische Sollbruchstellen aus der Praxis benannt: Rechnen und „Fakten ohne externe Quellen“. Es wird dargestellt, dass ein Modell bei konkreten Berechnungen (z.B. Vertrags- und Vergütungstabellen) reproduzierbar Fehler macht, und dass Antworten ohne angebundene Quellen schnell „mau“ werden.
Paprotny greift das auf und nennt es „Riss in der Kulisse": Genau da sieht man, dass hinter dem „natürlich klingenden Text“ kein echtes Begriffsverständnis steckt.
Der zentrale Punkt für die Öffentlichkeit lautet: Ein System kann gleichzeitig beeindruckend und unzuverlässig sein – und genau diese Mischung ist gefährlich, wenn man es als Orakel behandelt.

Risiko 1: Autoritäts-Illusion („Die KI hat gesagt…“)
Paprotny kritisiert ausdrücklich, dass viele Ausgaben als „autoritativ“ missverstanden werden: „Das hat ja die KI gesagt.“ Für ihn ist das ein Denkfehler. Ein LLM produziert Texte mit Wahrscheinlichkeiten – mehr nicht.
Wenn Behörden, Medien oder Unternehmen das in Prozesse einbauen, entsteht ein neues Problem: Entscheidungen wirken objektiv („vom System“), sind aber oft intransparent – und können im Zweifel niemandem sauber zugerechnet werden. Die „Transparenzpflicht“ wurde ebenfalls angesprochen: Wenn öffentliche Verwaltungen KI nutzen, wird es schwieriger nachzuweisen, wie ein Passus in einer Verfügung tatsächlich zustande kam.
Risiko 2: Desinformation, Deepfakes und „synthetische Wirklichkeit“
Im KLARTEXT-Gespräch geht es dann um Deepfakes und manipulierte Stimmen/Videos – mit dem realistischen Hinweis: Das kann Konflikte anheizen, im Extrem sogar Kriege provozieren.
Paprotny ordnet es als Fortsetzung einer älteren Medienentwicklung ein: Schon Fernsehen suggeriere „ich war dabei, ich habe es gesehen“. Aber schon dort hängt alles an Perspektive, Auswahl, Schnitt – und an der Differenz zwischen echter Sinneswahrnehmung und medialem Abbild.
Sein Appell ist simpel und unbequem: Sinne schärfen – bei Alternativmedien ebenso wie bei Leitmedien.
Risiko 3: Scoring, Überwachung, Predictive Policing
Ein dritter Schwerpunkt ist Macht: Staaten und Konzerne könnten solche Systeme für Scoring-Modelle nutzen – oft mit dem Anspruch, „objektiv“ zu sein. Am Ende aber können KI-Systeme auch zur Durchsetzung einer menschenverachtenden Agenda missbraucht werden.
Paprotny hält dagegen: Gerade weil diese Systeme nicht „klug“ oder "weise" im menschlichen Sinn sind, ist das brandgefährlich. Sie tun „irgendwas“ – und das sei oft „ziemlich dumm“.
Wenn man so etwas in Polizei/Justiz als Entscheidungshilfe einsetzt, können Fehlurteile skaliert werden: nicht ein Einzelfall, sondern tausend Fälle pro Tag.
Risiko 4: Denk-Abgabe und die „KI-Psychose“
Paprotny benutzt im bewusst.tv-Interview den Begriff „KI-Psychose“ für Extremfälle emotionaler Verstrickung („ich bin verliebt in ChatGPT“).
Noch relevanter für die KI-Anwenung in der "breiten Masse" könnte jedoch folgendes sein: einfache Schreibaufgaben auslagern, Lesen reduzieren, Denken auslagern. Er begründet das mit einem einfachen Trainingsprinzip: Eine Fähigkeit, die nicht genutzt wird, bildet sich zurück – wie Muskulatur nach Wochen im Gips.
Im KLARTEXT-Podcast wird das am Bildungsbeispiel greifbar: Hausaufgaben mit ChatGPT schreiben zu lassen, heißt am Ende nicht „effizient“, sondern „ich lerne es nicht“. Paprotny zitiert dazu sinngemäß eine drastische Metapher: Hausaufgaben seien nicht dazu da, „an einen Goblin verfüttert“ zu werden – Schüler sollen dabei etwas lernen.
Energie, Rechenzentren, Investitionsblase: harte Fragen hinter der schönen Oberfläche
Ein Teil des Hypes kommt daher, dass die wahren Kosten für den User vollkommen unsichtbar bleiben. Im Interview fällt auch eine konkrete Zahl dazu: Die KI-Industrie in den USA verschlinge „pro Tag irgendwas an die 100 Gigawattstunden“, also der Energiebedarf mehrerer Großstädte.
Dazu kommt die Frage der Wirtschaftlichkeit: Paprotny ist sicher, dass der KI-Sektor volkswirtschaftlich „nichts verdiene“ bzw. zu wenig, lebe von Investitionskapital und könne das kaum amortisieren.
Im selben Interview warnt er vor einer Investitionsblase, die vom Ausmaß her die Subprime-Krise übersteigen könnte. Auch Finanzexperten äußern Bedenken hinsichtlich der scamartigen Dreiecksgeschäfte zwischen NVIDIA, Oracle, OpenAI und Microsoft. Diese Erkenntnisse treffen einen Nerv: Wenn Technikversprechen zu Finanznarrativen werden („in drei/fünf Jahren Superintelligenz“), dann geht es nicht mehr nur um Tools, sondern um eine ganze ökonomische Erwartungsmaschine.
Kunst, Kreativität und das Menschliche als Kontrast
Zum Schluss öffnen beide Gespräche einen kulturellen Blick: Wenn KI „perfekte“ Inhalte in Masse produziert, könnte das paradoxerweise den Wert des Handgemachten steigern. Im bewusst.tv-Gespräch mit Jo Conrad ist von „perfekten, aber seelenlosen Produktionen“ die Rede – und davon, dass gerade Unperfektes lebendig wirkt.
Paprotny formuliert es als Lernaufgabe der Gegenwart: unterscheiden lernen, was echt und was nur vorgespielt ist – und dadurch das Organische bewusster würdigen.

Fazit
Wenn man Paprotnys Gedanken auf einen bürgernahen Nenner bringt, lautet die Botschaft nicht „KI verbieten“, sondern: „KI entzaubern“. Nicht als Heilsbringer, nicht als Dämon – sondern als Werkzeug, das Sprache imitiert, Wahrscheinlichkeiten rechnet und dabei leicht Autorität simuliert. Der Maßstab bleibt der Mensch: Prüfen, gegenlesen, Verantwortung übernehmen – und die eigene Urteilskraft nicht aus der Hand geben. Sapere Aude!
Anm.d.Red.: Zum bewusst.tv-Interview von Alexander Paprotny mit Jo Conrad hier entlang. Zu seinem Gespräch im Podcast-Format mit Chris Barth hier entlang. Wer Alexander Paprotny erreichen und ihm folgen möchte, findet hier alle wichtigen Infos: alexander-paprotny .de/