Die unsichtbare Hand

Der Begriff „unsichtbare Hand" wurde geprägt, um zu beschreiben, wie individuelles Eigeninteresse, das durch Märkte wirkt, kollektive Ergebnisse hervorbringt, die kein einzelner Akteur geplant hat. Soziale-Medien-Plattformen haben ihre eigene unsichtbare Hand: einen Algorithmus, der unterhalb der Schwelle deiner Wahrnehmung operiert und entscheidet, was du siehst, was nicht und in welcher Reihenfolge — optimiert für seine eigene Zielfunktion, nicht für deine.

Das Gefährliche an dieser Hand ist nicht, dass es sie gibt. Das Gefährliche ist, dass sie unsichtbar ist. Du kannst die Auswahlkriterien nicht sehen. Du kannst die Prioritäten nicht prüfen. Du erlebst das Ergebnis, als wäre es die Realität.

Kuratierung ist nicht neutral

Jede Entscheidung, was gezeigt wird, ist auch eine Entscheidung, was nicht gezeigt wird. Wenn eine Plattform dir zehn Beiträge zeigt und zehntausend verbirgt, ist diese Filterung ein redaktioneller Akt — getroffen von einer Maschine, trainiert auf Engagement-Signale, nicht von einem menschlichen Redakteur mit professionellen Standards und Rechenschaftspflicht. Die Beiträge, die du nie zu sehen bekommst, könnten die für dich relevantesten, genauesten, wichtigsten sein. Du hast keine Möglichkeit, das zu wissen.

Verschärft wird das durch Personalisierung. Dein Feed ist kein gemeinsamer öffentlicher Platz — es ist ein privates Theater, eigens für dich konstruiert, anders als das Theater für die Person neben dir. Zwei Menschen können denselben Konten folgen, in derselben Stadt leben, ähnliche Ansichten teilen und völlig unterschiedliche Bilder der Welt sehen. Es gibt keine geteilte Grundlage. Es gibt nur die algorithmisch zugeschnittene Scheibe jeder einzelnen Person.

Verstärkung als Macht

Auf einer großen, zentralisierten Plattform sind die Verstärkungs­entscheidungen des Algorithmus folgenreicher als die Wahl jedes einzelnen Nutzers. Ein Beitrag, den der Algorithmus pusht, kann Millionen erreichen. Ein Beitrag, den der Algorithmus unterdrückt, erreicht nur jene, die ausdrücklich danach suchten. Das verleiht der Plattform enorme, unkontrollierte Macht über den öffentlichen Diskurs — Macht, die kontinuierlich, unsichtbar und ohne Beschwerdeweg ausgeübt wird.

Plattformen haben diese Macht uneinheitlich genutzt, in einer Weise, die für die Außenwelt undurchsichtig auf politischen Druck, kommerzielle Interessen und interne kulturelle Normen reagiert. Die Entscheidungen trifft ein Algorithmus, aber die in diesem Algorithmus eingebetteten Werte sind menschliche Entscheidungen — getroffen von einer kleinen Gruppe in einem privaten Unternehmen, weltweit angewandt.

Hashiverse hat keinen Empfehlungs-Algorithmus

In Hashiverse entscheidet kein Algorithmus, was du sehen sollst. Beiträge werden chronologisch innerhalb der Timelines geordnet, die du ausdrücklich abonnierst — Nutzer, denen du folgst, Hashtags, die du verfolgst. Was du siehst, ist das, was die von dir gewählten Personen gepostet haben, in der Reihenfolge, in der sie es gepostet haben.

Das ist eine bewusste Beschränkung. Es bedeutet, dass das Netzwerk nicht für Engagement optimiert. Es bedeutet, dass es keinen viralen Verstärkungs­mechanismus gibt, den ein schlechter Akteur ausnutzen könnte. Es bedeutet, dass dein Feed deine Entscheidungen widerspiegelt statt der Ziele der Plattform. Der Kompromiss: Du trägst mehr Verantwortung für die Kuratierung — Hashiverse wird nichts hervorholen, das du verpasst haben könntest. Das ist ein lohnender Kompromiss.

Das, was Hashiverse einer Verstärkung am nächsten kommt, ist der Rehash — eine bewusste Entscheidung eines Nutzers, den Inhalt einer anderen Person an die eigenen Follower weiterzuleiten. Das ist ein menschlicher redaktioneller Akt, kein algorithmischer. Und er erfordert eine kleine Proof-of-Work, was die massenhafte Spam-Verstärkung rechen­technisch teuer macht.