La plateforme Reddit a annoncé le lancement d’un nouveau système de vérification de l’« humanité » de certains comptes affichant un comportement suspect, dans le but de limiter la propagation des bots, sans imposer une vérification exhaustive de l’identité de tous les utilisateurs. Cette décision intervient dans un contexte de préoccupations croissantes concernant la domination du contenu automatisé sur Internet.
La plateforme a précisé que cette vérification ne serait appliquée qu’en cas de détection d’indicateurs anormaux, tels qu’une publication intensive ou rapide. L’objectif est d’assurer qu’il y a une personne réelle derrière le compte, sans pour autant révéler son identité. Si un compte échoue à prouver cela, des restrictions pourraient lui être imposées.
Pour mettre en œuvre cette initiative, Reddit s’appuiera sur des solutions externes telles que des clés d’accès et des technologies biométriques, et pourrait également recourir à des systèmes avancés comme le « World ID », avec la possibilité de demander des documents officiels dans certains pays conformément à la législation.
De son côté, le directeur exécutif Steve Huffman a affirmé que la plateforme s’efforce d’atteindre un équilibre délicat entre la lutte contre les comptes automatiques et la préservation de la vie privée des utilisateurs, sans interdire l’utilisation d’outils d’intelligence artificielle en soi, tant qu’ils ne sont pas utilisés de manière automatique et intense.
Cette initiative s’inscrit dans un contexte de méfiance croissante envers la prolifération des bots sur Internet, une inquiétude également soulevée par le co-fondateur Alexis Ohanian, dans le cadre de ce qu’on appelle la « théorie d’Internet mort ».




