La main invisible

L'expression « main invisible » a été forgée pour décrire comment l'intérêt individuel, agissant à travers les marchés, produit des résultats collectifs qu'aucun acteur n'a planifiés. Les plateformes de médias sociaux ont leur propre main invisible : un algorithme, opérant en deçà du seuil de votre conscience, qui décide ce que vous voyez, ce que vous ne voyez pas, et dans quel ordre — en optimisant pour sa fonction objectif, pas la vôtre.

Le danger de cette main n'est pas qu'elle existe. C'est qu'elle soit invisible. Vous ne pouvez pas voir les critères de sélection. Vous ne pouvez pas auditer les priorités. Vous vivez la sortie comme si c'était la réalité.

La curation n'est pas neutre

Chaque choix de ce qu'on montre est aussi un choix de ce qu'on ne montre pas. Quand une plateforme vous montre dix publications et en cache dix mille, ce filtrage est un acte éditorial — posé par une machine entraînée sur des signaux d'engagement, et non par un rédacteur humain tenu à des standards professionnels et redevable. Les publications que vous ne voyez jamais sont peut-être les plus pertinentes pour vous, les plus exactes, les plus importantes. Vous n'avez aucun moyen de le savoir.

Cela est aggravé par la personnalisation. Votre fil n'est pas une place publique partagée — c'est un théâtre privé construit spécifiquement pour vous, différent du théâtre construit pour la personne à côté de vous. Deux personnes peuvent suivre les mêmes comptes, vivre dans la même ville, partager des opinions semblables, et voir des images du monde entièrement différentes. Il n'y a pas de socle commun. Il n'y a que la tranche taillée sur mesure algorithmiquement pour chacun.

L'amplification comme pouvoir

Sur une grande plateforme centralisée, les décisions d'amplification de l'algorithme sont plus lourdes de conséquences que les choix de n'importe quel utilisateur. Une publication que l'algorithme décide de pousser peut atteindre des millions de personnes. Une publication que l'algorithme étouffe n'atteint que ceux qui l'ont explicitement cherchée. Cela donne à la plateforme un pouvoir énorme et sans contrôle sur le débat public — un pouvoir exercé en continu, de manière invisible, et sans recours.

Les plateformes ont utilisé ce pouvoir de façon incohérente, répondant aux pressions politiques, à l'intérêt commercial et à des normes culturelles internes de manière opaque pour le monde extérieur. Les décisions sont prises par un algorithme, mais les valeurs embarquées dans cet algorithme sont des choix humains — des choix faits par un petit groupe de personnes dans une entreprise privée, appliqués à l'échelle mondiale.

Hashiverse n'a pas d'algorithme de recommandation

Dans Hashiverse, aucun algorithme ne décide de ce que vous devriez voir. Les publications sont organisées chronologiquement dans les fils auxquels vous vous abonnez explicitement — utilisateurs que vous suivez, hashtags que vous pistez. Ce que vous voyez, ce sont les publications faites par les personnes que vous avez choisi de suivre, dans l'ordre où elles les ont publiées.

C'est une contrainte délibérée. Cela signifie que le réseau n'optimise pas pour l'engagement. Cela signifie qu'il n'y a pas de mécanisme d'amplification virale qu'un acteur malveillant pourrait exploiter. Cela signifie que votre fil reflète vos choix plutôt que les objectifs de la plateforme. Le compromis : vous portez davantage la responsabilité de la curation — Hashiverse ne fera pas remonter ce que vous auriez pu manquer. C'est un compromis qui en vaut la peine.

Ce qui se rapproche le plus d'une amplification dans Hashiverse, c'est le rehash — un choix délibéré d'un utilisateur de republier le contenu d'autrui auprès de ses propres abonnés. C'est un acte éditorial humain, pas algorithmique. Et il exige une petite proof-of-work, ce qui rend l'amplification massive par spam coûteuse en calcul.