De onzichtbare hand

De term "onzichtbare hand" werd gemunt om te beschrijven hoe individueel eigenbelang, werkend via markten, collectieve uitkomsten produceert die geen enkele actor heeft gepland. Sociale mediaplatformen hebben hun eigen onzichtbare hand: een algoritme, dat onder de drempel van jouw bewustzijn opereert, dat beslist wat je ziet, wat niet, en in welke volgorde — optimaliserend voor zijn eigen doelfunctie, niet de jouwe.

Het gevaarlijke aan deze hand is niet dat hij bestaat. Het is dat hij onzichtbaar is. Je kunt de selectiecriteria niet zien. Je kunt de prioriteiten niet auditen. Je ervaart de uitvoer alsof het de werkelijkheid is.

Curatie is niet neutraal

Elke keuze over wat te tonen is ook een keuze over wat niet te tonen. Wanneer een platform je tien berichten toont en tienduizend verbergt, is dat filteren een redactionele daad — een daad die wordt gedaan door een machine die op betrokkenheidssignalen is getraind, niet door een menselijke redacteur met verantwoording of professionele standaarden. De berichten die je nooit ziet zijn misschien wel de meest relevante voor jouw interesses, de meest accurate, de belangrijkste. Je hebt geen manier om dat te weten.

Dit wordt versterkt door personalisatie. Jouw feed is geen gedeeld publiek plein — het is een privétheater dat specifiek voor jou is opgebouwd, anders dan het theater dat is opgebouwd voor de persoon naast je. Twee mensen kunnen dezelfde accounts volgen, in dezelfde stad wonen, vergelijkbare opvattingen hebben en totaal verschillende beelden van de wereld zien. Er is geen gedeelde basislijn. Er is alleen de algoritmisch op maat gemaakte plak van elk persoon.

Versterking als macht

Op een groot, gecentraliseerd platform zijn de versterkingsbeslissingen van het algoritme consequenter dan de keuzes van enige individuele gebruiker. Een bericht dat het algoritme besluit te pushen kan miljoenen bereiken. Een bericht dat het algoritme onderdrukt bereikt alleen wie er expliciet naar zocht. Dit geeft het platform enorme, niet-verantwoorde macht over het publieke debat — macht die voortdurend, onzichtbaar en zonder beroep wordt uitgeoefend.

Platformen hebben deze macht inconsistent gebruikt, reagerend op politieke druk, commerciële belangen en interne culturele normen op manieren die voor de buitenwereld ondoorzichtig zijn. De beslissingen worden door een algoritme genomen, maar de waarden die in dat algoritme zijn ingebed zijn menselijke keuzes — keuzes gemaakt door een kleine groep mensen bij een privébedrijf, wereldwijd toegepast.

Hashiverse heeft geen aanbevelingsalgoritme

In Hashiverse is er geen algoritme dat beslist wat je zou moeten zien. Berichten worden chronologisch georganiseerd binnen de tijdlijnen waar je je expliciet op hebt geabonneerd — gebruikers die je volgt, hashtags die je bijhoudt. Wat je ziet is wat is geplaatst door mensen die je hebt gekozen te volgen, in de volgorde waarin ze het hebben geplaatst.

Dit is een bewuste beperking. Het betekent dat het netwerk niet optimaliseert voor betrokkenheid. Het betekent dat er geen mechanisme voor virale versterking is dat een kwaadwillende kan uitbuiten. Het betekent dat jouw feed jouw keuzes weerspiegelt in plaats van de doelstellingen van het platform. De ruil is dat jij meer verantwoordelijkheid draagt voor curatie — Hashiverse zal geen dingen naar boven halen die je gemist zou kunnen hebben. Dat is een ruil die het waard is om te maken.

Het dichtst dat Hashiverse bij versterking komt is de rehash — een bewuste keuze van een gebruiker om iemand anders' inhoud naar hun eigen volgers te herplaatsen. Dit is een menselijke redactionele daad, geen algoritmische. En het vereist een kleine proof of work, wat bulk-spam-versterking computationeel duur maakt.