GPT-3 ist ein Textgenerator. Er ist jedoch nicht irgendein Textgenerator, sondern ein so fähiger, dass Laien ihm Intelligenz, Selbstbewusstsein und Sinn für Ästhetik unterstellen könnten. Die Texte, die er schreibt, sind in vielen Fällen nicht von Texten zu unterscheiden, die ein Mensch, also ein bewusstes, intelligentes Wesen mit Sinn für Ästhetik, verfassen könnte. Genau das macht ihn so bemerkenswert und gefährlich.
Einige Philosophen haben ihre Gedanken zu GPT-3 niedergeschrieben. GPT-3 antwortet darauf (eine Texteingabe, hier blau dargestellt, ist für den Generator als Inspiration nötig):
Das sind nur die ersten zwei Seiten aus einem PDF, welches man hier herunterladen kann.
Für seinen Einsatz als Werkzeug spielt es keine Rolle, dass GPT-3 lediglich ein Textgenerator ohne Intelligenz ist. Seine Gedanken wirken schlauer als die der meisten Menschen auf Facebook oder Twitter. Wenn man ihn also ein wenig herunterdummt und seine Ausdrucksweise sowie seine Rechtschreibung verschlechtert, kann er glaubwürdig Fake-Kommentare schreiben, um die öffentliche Meinung zu manipulieren oder ein falsches Bild der vermeintlichen öffentlichen Meinung zu erzeugen.
Die große Stärke von GPT-3 ist das Einhalten eines Kontextes. In seiner Antwort redet er sogar von sich in der ersten Person, als hätte er ein Ich-Bewusstsein. Die Gedanken, die er äußert, sind zum Großteil korrekt. Sein Modell wurde an 570 GB Texten (das ist der Umfang von etwa 121 Millionen Bibeln) trainiert und hat 175 Billionen Parameter. Da diese Texte Erzeugnisse des menschlichen Geistes sind, kann es nicht verwundern, dass die Texte, die GPT-3 aufgrund dieser Datenbasis generieren kann, umgekehrt auf menschlichen Geist rückschließen lassen. Nur darf man nicht dem Irrtum erliegen, dass GPT-3 menschlichen Geist besäße. Es ist lediglich so, dass menschlicher Geist keine rein zufälligen Texte erzeugt, so dass in der Datenbasis Syntax, inhaltlicher Kontext und logische Schlussfolgerungen mittels der Sprache kodiert sind. Diese Strukturen hat GPT-3 implizit verinnerlicht und kann daher solche Texte erzeugen. Wie gesagt: Es spielt keine Rolle, dass GPT-3 nicht wirklich intelligent ist. Seine sprachlichen Äußerungen werden von unserem Geist ebenso verstanden – und sind zum Teil ebenso fruchtbringend – wie Äußerungen eines Menschen.
Dieser Mensch kann zum Beispiel ein Philosoph, ein Poet oder ein Romanautor sein. Arram Sabeti hat einige sehr unterschiedliche Texte generieren lassen. Besonders gut finde ich die Bedienungsanleitung für den Flux Capacitor.
Henry Shevlin hat mittels GPT-3 eine fiktive Unterhaltung mit dem verstorbenen Terry Pratchett geführt. Dies ist die erste Stufe zur Unsterblichkeit: Würde man alles, was ein bestimmter Mensch zu Lebzeiten gesagt und geschrieben hat, in GPT-3 eingeben, so könnte GPT-3 Gespräche mit diesem Menschen vermutlich realitätsnah simulieren, weil seine typischen Gedankengänge, sein Wissen und sein Wesen in seinen Äußerungen kodiert sind. Das Fernziel solcher Bestrebungen ist die Übertragung des kompletten Bewusstseins in die Maschine.
GPT-3 ist bis zur Entwicklung einer tatsächlichen allgemeinen KI ein erstaunlich guter Ersatz. Ich gehe davon aus, dass KI-Assistenten wie Alexa, Cortana oder Google Nest sich GPT-3 oder dessen Prinzip zunutze machen werden, z. B. um Texte zu generieren (rein zur Unterhaltung), Gespräche zu führen, oder Fragen kontextuell besser einordnen und passendere Antworten finden zu können.
Update 21.10.2020:
Eine Liste diverser Tools und Experimente mit GPT-3: What can you do with the OpenAI GPT-3 language model?
Eine unfassbar leistungsfähige semantische Suche: The best kept secret about OpenAI’s GPT-3
[…] wirken die Antworten nicht nur menschlich, sondern verwenden auch menschliche Logik (mehr dazu in GPT-3 antwortet auf philosophische Gedanken über ihn selbst). Das Ergebnis wirkt schon fast wie echte Intelligenz und hat auf jeden Fall einen hohen […]