Uncanny vAIlley

https://adactio.com/journal/20804

Richtige Beobachtung: Genau wie von Transformermodellen generierte Bilder stecken auch Texte aus LLMs (zumindest momentan) noch tief im Uncanny Valley fest. Es ist weniger offensichtlich als bei Bildern, wo die Abweichung von der Realität buchstäblich auf den ersten Blick wahrnehmbar ist. Sobald man (als in einer Sprache geübte*r Leser*in) GPT-generierte Texte aber liest, spürt man schnell, dass etwas nicht stimmt: zu lange Bandwurmsätze, sich wiederholende Phrasen und so weiter. Aber wie lange wird das so bleiben? Wird sich diese Form von Text eventuell vorläufig sogar als eine spezifische Ästhetik etablieren (so wie es bei Bildern eine Weile der Fall war – ehe der typische „AI-Style“ als billiges Plastikimitat wahrgenommen wurde)?


Du kannst entweder direkt hier auf der Seite kommentieren oder über eine ActivityPub-fähige Plattform wie Mastodon an der (vermutlich außerordentlich regen) Diskussion teilnehmen. Kopiere dazu die Adresse dieses Beitrags in die Suche deiner Instanz. Ja, das ist momentan noch ein bisschen komplizierter als es sein müsste, aber kommt Zeit, kommt Rat.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Wenn du mit einem Beitrag auf deiner eigenen Website auf diesen Post reagiert und ihn verlinkt hast, kannst du den Link zu deinem Beitrag in das Feld unten kopieren. Er wird dann als Kommentar angezeigt. Gegebenenfalls muss dieser Kommentar zuerst noch moderiert werden, wunder dich also nicht, wenn er nicht direkt angezeigt wird. Wenn du den Beitrag auf deiner Seite veränderst oder löschst, kannst du den Link einfach nochmal eintragen, dann sollte der Kommentar eigentlich aktualisiert werden. (Das Ganze funktioniert über Webmentions.)