• Everything App

    Seit mehr als drei Jahrzehnten ist der Webbrowser die bestmögliche Everything App, in der die Services anderer Onlinedienste aufgegangen sind. Wer heute behauptet, eine neue Everything App schaffen zu wollen, tut das nicht zum Nutzen der Anwender*innen, sondern um Kontrolle über ihre Onlineaktivitäten zu erlangen.



  • Oodbye

    Gute Kurzchronik zum allmählichen Verfall von Ello. Ello ploppte vor vielen Jahren einmal für kurze Zeit als Alternative zur damals beliebten Microblogging-Plattform Twitter auf. Dass Ello letztes Jahr dichtgemacht wurde, ist wenig überraschend (wenn überhaupt ist erstaunlich, dass der Dienst überhaupt noch existiert hat). Interessanter ist dagegen, zu lesen, wie der Dienst Schritt für Schritt in kleinem Maßstab den Weg der Enshittification gegangen ist.


  • Flatweb

    https://www.fromjason.xyz/p/notebook/where-have-all-the-websites-gone/

    „Kuratieren“ war mal ein großes Ding im Social Web. Aber:

    Somewhere between the late 2000’s aggregator sites and the contemporary For You Page, we lost our ability to curate the web. Worse still, we’ve outsourced our discovery to corporate algorithms. Most of us did it in exchange for an endless content feed. By most, I mean upwards of 90% who don’t make content on a platform as understood by the 90/9/1 rule. And that’s okay! Or, at least, it makes total sense to me. Who wouldn’t want a steady stream of dopamine shots?

    The rest of us, posters, amplifiers, and aggregators, traded our discovery autonomy for a chance at fame and fortune. Not all, but enough to change the social web landscape.

    Jason Velazquez „Where have all the websites gone?“

    Wir verlassen uns mittlerweile also darauf, dass schlaue Algorithmen uns den Content, der uns interessiert schon präsentieren werden. Das klappt oft auch ganz gut. Häufig aber leider auch nicht. Die Systeme präsentieren viel vom immer Gleichen. Und es wird auch immer mehr vom immer Gleichen produziert und hochgeladen. Wir verwenden unsere knappe Zeit dann schön effizient auf diese immer Gleichen Inhalte und haben das Gefühl, das meiste aus ihr herausgeholt zu haben. Letztlich verliert das „konsumierte“ Medien- und Internetmenü damit aber an Tiefe.


  • Uncanny vAIlley

    https://adactio.com/journal/20804

    Richtige Beobachtung: Genau wie von Transformermodellen generierte Bilder stecken auch Texte aus LLMs (zumindest momentan) noch tief im Uncanny Valley fest. Es ist weniger offensichtlich als bei Bildern, wo die Abweichung von der Realität buchstäblich auf den ersten Blick wahrnehmbar ist. Sobald man (als in einer Sprache geübte*r Leser*in) GPT-generierte Texte aber liest, spürt man schnell, dass etwas nicht stimmt: zu lange Bandwurmsätze, sich wiederholende Phrasen und so weiter. Aber wie lange wird das so bleiben? Wird sich diese Form von Text eventuell vorläufig sogar als eine spezifische Ästhetik etablieren (so wie es bei Bildern eine Weile der Fall war – ehe der typische „AI-Style“ als billiges Plastikimitat wahrgenommen wurde)?


  • https://www.furioursus.dev/blog/owning-our-interests/

    Eine etwas wehmütige Ergänzung zu Cassidy Williams‘ I Miss Human Curation (s. The Good Ol‘ Days):

    Sharing music and art that is interesting and timely has such a lasting impression and generates and reinforces a feeling of true connection. When all we have to entertain and inform us is a firehose of information, doesn’t that cheapen the experience?

    Christopher Kennedy-Nuñez „Owning Our Interests“

    Ich frage mich allerdings, ob solche Überlegungen nicht zu allererst aus dem melancholisch-nostalgischen Wunsch entstehen, Dinge zum allerersten Mal erleben zu können, jung zu sein und die Welt zu entdecken. Und zwar genauso wie damals: zusammen mit Freunden, unbeeindruckt von zu viel Vorwissen.

    Nicht dass man mich hier falsch versteht: Ich habe nicht viel für die algorithmisch-opake Sortierung in sozialen Medien übrig. Ich bin überzeugt davon, dass ein soziales Web, in dem Empfehlungen und Trends organisch entstehen, die „gesündere“ Alternative zu Instagram, X und Co. ist. Ich glaube allerdings nicht, dass sich Christophers „firehose of information“-Problem damit löst.

    Ein Peanuts-Comic bestehend aus vier Panels. Snoopy sitzt auf einem Schemel vor einem Stand, an dem Lucy psychiatrische Hilfe für 5 Cent anbietet. Über die vier Panels verteilt erklärt Lucy Snoopy: "It used to be that a person could live isolated from the world's problems. Then it got to be that we all knew everything that was going on … The problem now is that we know everything about everything except what's going on. That's why you feel nervous … Five Cents, please.“ Snoopy denkt dazu im vierten Panel: „I'm short a nickel, I'm still nervous and I still don't know what's going on!“
    Ein Peanuts-Strip von 1974.

    Vielmehr denke ich, dass das Gefühl, von der Vielfalt der zur Verfügung stehenden Informationen überfordert zu sein, zutiefst menschlich ist und mit dem Alter wächst. Wir glauben irgendwann, die Welt jetzt endlich einigermaßen begriffen zu haben und werden dann doch immer wieder eines besseren belehrt. Neue Informationen und ganz allgemein Veränderungen kollidieren dann mit unseren im Laufe der Adoleszenz erworbenen „Glaubensgrundsätzen“. Die Dinge dagegen, die sich nicht verändern, fühlen sich irgendwann schal und billig an.

    Wir brauchen also Neues und sind davon zugleich überfordert.


  • Straßen ./. Passanten

    https://www.globalcyclingnetwork.com/tech/features/what-causes-road-rage-between-cyclists-and-drivers-we-asked-a-transport-historian

    Keine neuen Argumente, aber gut zusammengefasst: Seit dem Aufstieg des Automobils im frühen 20. Jahrhundert sind Straßen Stück für Stück zu Autostraßen geworden. Radfahrerinnen werden dort noch so gerade geduldet, Fußgänger sind unerwünscht. Diese Default-Aufteilung des öffentlichen Raums drückt aus: Wer mit dem Auto unterwegs ist, hat mehr Rechte. Das wiederum führt zu den zahlreichen Situationen, in denen Kampf-Kfzler*innen sich dieses „Recht“ gegenüber Menschen auf dem Fahrrad herausnehmen.

    Wenn es „der Gesellschaft“ gelingt, diese Grundeinstellung zu ändern, besteht vielleicht eine Chance, der Vorstellung vom „notwendigen“ Auto etwas entgegenzusetzen.


  • Kleiderberge in der Atacama-Wüste

    https://grist.org/international/burn-after-wearing-fashion-waste-chile/

    Ausführlicher Artikel zu den Bergen illegal in der Atacama-Wüste entsorgter Kleidung, über die man seit einigen Jahren immer wieder liest.

    Auch wenn Julia Shipley und Muriel Alarcón, die Autorinnen des Stücks, sich Mühe geben, nicht nur zu skandalisieren, sondern auch Lösungswege (besondere Recyclingprojekte, bei denen Kleidungsreste zu Mulch verarbeitet werden, Non-Profits, die sich um die Entsorgung nicht-recyclebarer Kleidung kümmern, Importkontrollen usw.) aufzuzeigen, macht das Stück vor allem eines deutlich: Fast Fashion ist eine Bedrohung für den Planeten.


  • Musikpiraterie anno 2024

    https://www.nytimes.com/2024/01/13/business/music-streaming-fraud-spotify.html (€ / metered Paywall)

    Faszinierendes Stück darüber, wie Musik über ein undurchsichtiges, vielschichtiges System aus Agenturen, Sub- und Tochterunternehmungen illegal bei den großen Musikstreamingservices hochgeladen und monetarisiert wird.

    […] the vast and arcane world of music streaming fraud, a realm where anonymous pirates are constantly devising new ways to steal from the $17 billion a year pool of royalty money intended for artists.

    That’s a giant, tempting pot of gold for scammers around the world. Beatdapp, a Vancouver company that detects fraud for industry clients, estimates that a little more than 10 percent of that pot, about $2 billion, is swiped annually.

    David Segal „Their Songs Were Stolen by Phantom Artists. They Couldn’t Get Them Back.“


  • Der ausbleibende Nutzen von LLMs

    https://borretti.me/article/thoughts-llm-agents

    Ein paar ganz interessante Gedanken zum Thema LLMs von Fernando Borretti:

    But they can’t carry out complex tasks: very soon you run up against the limits of the context window. LLMs are like a tireless 120 IQ polymath with anterograde amnesia who forgets everything after ~10m of activity.

    Fernando Borretti „Thoughts on LLM Agents“

    Wer hin und wieder mit LLM-basierten Tools (wie etwa ChatGPT) herumspielt, stößt recht schnell und regelmäßig an die vielfältigen Grenzen, die diese Technik (zumindest bislang?) hat. Vor allem die „Halluzinations“-Problematik, also mit scheinbarem Selbstvertrauen ausgegebene Fehlinformationen, sind ein Problem. Aber auch sonst ist der Firnis, mit dem die LLMs so etwas wie (sprachliche) Intelligenz vortäuschen oft nur hauchdünn.

    It is well known that LLM-written text has lower entropy than human-written text. So maybe there’s something analogous to a thermodynamic limit, where the complexity of the LLM completion and the complexity provided by the architecture taken together are insufficient to reach criticality and get self-sustaining output.

    Entropie ist im Zusammenhang mit Texten (vereinfacht ausgedrückt) ein Maß für deren (Un)vorhersagbarkeit. Modelle wie GPT erlauben es, bis zu einem gewissen Grad, die Entropie des Outputs zu erhöhen (OpenAI nennt das in der API temperature). Doch damit steigt auch die Menge der „Halluzinationen“.

    Borretti argumentiert, dass eigentlich Agents, also eine Art spezialisierte Subroutinen, die vom LLM gesteuert werden, die aussichtsreichste Möglichkeit darstellen, die Technik trotz dieser Probleme nutzbringend einzusetzen. Bislang allerdings fehle es an solchen wirklich guten Agents. Ob sie in den kommenden Jahren kommen, bleibt abzuwarten.