https://adactio.com/journal/20804
Richtige Beobachtung: Genau wie von Transformermodellen generierte Bilder stecken auch Texte aus LLMs (zumindest momentan) noch tief im Uncanny Valley fest. Es ist weniger offensichtlich als bei Bildern, wo die Abweichung von der Realität buchstäblich auf den ersten Blick wahrnehmbar ist. Sobald man (als in einer Sprache geübte*r Leser*in) GPT-generierte Texte aber liest, spürt man schnell, dass etwas nicht stimmt: zu lange Bandwurmsätze, sich wiederholende Phrasen und so weiter. Aber wie lange wird das so bleiben? Wird sich diese Form von Text eventuell vorläufig sogar als eine spezifische Ästhetik etablieren (so wie es bei Bildern eine Weile der Fall war – ehe der typische „AI-Style“ als billiges Plastikimitat wahrgenommen wurde)?
Schreibe einen Kommentar