ChatGPT: Warum wir uns von maschinellen Antworten täuschen lassen

Ich wünschte, ich könnte meine Mitmenschen so einfach von meinen Antworten überzeugen, wie ChatGPT das vermag. Jemand stellt dem System eine Frage, bekommt innerhalb von Sekunden eine wohlformulierte Antwort und ist nun der Meinung, das benötigte Wissen zu haben. Dass das nicht so einfach sein kann, sollte uns allen klar sein, aber was macht ChatGPT, so dass wir den Eindruck haben, eine perfekte Antwort von einem Experten erhalten zu haben?

Ein neues maschinelles Lern-System namens „ChatGPT“ hat die Fähigkeit, menschenähnliche Gespräche zu führen. Es wurde von OpenAI entwickelt und nutzt sogenannte „Transformer Networks“, die es dem System ermöglichen, auf vorherige Aussagen im Gespräch zu reagieren und auf Fragen zu antworten.

„Transformer Networks“ sind eine Art von maschinellen Lern-Modellen, die in der natürlichen Sprachverarbeitung verwendet werden. Sie basieren auf der Idee, dass Wörter in einem Satz nicht nur von ihrer unmittelbaren Umgebung beeinflusst werden, sondern von der gesamten Sequenz. Sie nutzen einen Mechanismus namens „Self-Attention“, bei dem jedes Wort in einem Satz die Aufmerksamkeit aller anderen Wörter in dem Satz auf sich zieht. Dadurch kann das Modell die Bedeutung von Wörtern in Bezug auf den gesamten Satz und den Kontext besser verstehen und genauere Vorhersagen treffen.

Die Vorteile und aber auch die Nachteile einer Künstlichen Intelligenz im konkreten Beispiel von ChatGPT haben wir uns in den beiden Blogposts bereits angesehen.

Das Chat-System wurde laut Angaben von OpenAI mit einer riesigen Menge an Daten trainiert, was es ihm ermöglicht, auf eine Vielzahl von Themen zu antworten und seine Antworten zu verfeinern, je mehr es lernt. Es kann auch mehrere Sprachen verstehen und sprechen. Obwohl es noch nicht perfekt ist und gelegentlich unlogische oder unangemessene Antworten gibt, wird es in Zukunft möglicherweise in Bereichen wie Kundenservice, Unterhaltung und Bildung eingesetzt werden. Das Unternehmen dahinter benennt diese Nachteile auch explizit und warnt davor, die Antworten von ChatGPT naiv zu übernehmen, denn das System könne „May occasionally generate incorrect information“, „May occasionally produce harmful instructions or biased content“ und habe derzeit eine „Limited knowledge of world and events after 2021“. Das alles trägt dazu bei, das System zu verwenden, aber die Antworten einer kritischen Betrachtung zu unterziehen, aber das scheinen viele Anwenderinnen und Anwender zu ignorieren. Warum?

Ein linguistisches Phänomen

Die Autorin Eva Wolfangel schreibt unter der Überschrift „CHATGPT: Das sprachgewaltige Plappermaul“ über dieses Phänomen.

Darin beschäftigt sie sich mit der Debatte um Chatbots und deren scheinbare Intelligenz. Ihr Text zeigt auf, dass viele Begriffe wie „Bewusstsein, Intelligenz, Empfindungsfähigkeit“ in dieser Debatte durcheinander geworfen werden und dass nur weil ein System eloquent daherredet, es noch lange nicht intelligent oder bewusst sein muss. Ein „kognitiver Glitch“ der Menschen ist, dass wenn sie wohlformulierte Sprache hören, sie automatisch ein mentales Modell auf der Basis eines menschlichen Vorbilds aufbauen. Wolfangel zitiert eine MIT-Neurowissenschaftlerin: Anna Ivanova erklärt, dass es eine lange Tradition in vielen Disziplinen gibt, davon auszugehen, dass Sprache die Grundlage von Intelligenz ist, aber das sei falsch. Sie gibt Beispiele von Menschen, die ihre Sprachfähigkeit verloren haben, aber trotzdem intelligent sind und andersherum. Sie betont, dass Chatprogramme eine Täuschung sind und dass es wichtig ist, die Begriffe richtig zu verstehen.

ChatGPT, der Praktikant

Vielleicht wäre es in dieser Diskussion sinnvoll, von einer ganz natürlichen Analogie auszugehen: ChatGPT ist ein Praktikant. Der Bot kann äußerst hilfreich sein und unermüdlich zuarbeiten, aber alle von ihm erstellten Ergebnisse benötigen das Urteil eines erfahrenen Kollegen oder einer erfahrenen Kollegin.

Wenn sich der Hype erst einmal gelegt hat, werden wir vermutlich auf Paul Tudor Jones’ Aussage zurückkommen: „No man is better than a machine, and no machine is better than a man with a machine.“