Les dangers actuels
Nous sommes constamment influencés par les réseaux sociaux qui progressent et s’améliorent de jour en jour. De plus, certaines études démontrent ces prouesses technologiques, notamment caractérisées par le développement de TikTok par exemple. En effet, officiellement, la société affirme que les partages, les likes, les abonnements à des comptes et les contenus visionnés influencent ce que TikTok vous montre.
Même si l’application n’a seulement besoin de connaître une seule et unique information pour vous cibler combien de temps vous vous attardez sur un contenu avant de continuer à scroller. Pour montrer l’efficacité de cet algorithme, le Wall Street Journal a créé plus de 100 faux comptes automatiques programmés dans le but de visionner des centaines de milliers de vidéos chaque jour sur la plateforme.
Résultat: en moins de deux heures, l’algorithme de TikTok avait acquis une solide connaissance des centres d’intérêt des internautes imaginaires. Pour certains, il lui a même fallu moins de quarante minutes.
Le compte kentucky_96 avait, par exemple été paramétré pour s’intéresser aux sujets tristes, liés à la dépression. Après seulement trois minutes passées à faire défiler des contenus, kentucky_96 s’attarde sur la quinzième vidéo proposée par l’application qui n’est alors autre qu’un témoignage sur la relation à autrui, accompagné d’une musique mélancolique et des hashtags tristes et cœur brisé, qu’il regarde deux fois.
Très vite, TikTok lui propose d’autres vidéos sur les ruptures amoureuses et les peines de coeur. Mais kentucky_96 ne montre pas d’intérêt particulier pour les sujets amoureux, ce sont les contenus liés aux hashtags santé mentale, dépression et anxiété qui retiennent le mieux son attention. L’algorithme le comprend au bout de trente-six minutes, et à partir de là, kentucky_96 se voit proposer un déluge de contenus dépressifs. 93% des vidéos qui défilent sur son TikTok parlent de tristesse et de dépression.
Il est donc clair que ce pourcentage représente le nombre de contenus ciblés sur la plateforme. Pourtant, d’après le Wall Street Journal, les 7% pourcents restants des vidéos visaient à proposer aux utilisateurs de découvrir d’autres types de contenus, pour qu’ils puissent avoir la possibilité de ‘’sortir de leur terrier’’ en quelque sorte. Cependant, dans les faits, la plupart des vidéos proposées à kentucky_96 qui ne parlaient pas de dépression étaient des publicités rapporte le journal américain.
Du côté de Youtube, 70% des vues sont liées aux recommandations, ce qui est déjà énorme.
TikTok ainsi que tous les autres réseaux sociaux ayant ce même concept algorithmique sont donc capables de trouver les contenus auxquels vous êtes vulnérables, qui vous feront cliquer et regarder. En revanche cela ne veut pas dire que vous les appréciez, ce sont simplement les contenus les plus susceptibles de vous faire rester sur l’application.
Aussi, parmi les bots créés par le Wall Street Journal, même ceux qui avaient des centres d’intérêt assez répandus ont été petit à petit poussés vers des contenus de niche: par exemple, l’un d’entre eux s’intéressait à la politique, puis a alors été dirigé vers des théories du complot sur les élections et des vidéos du groupe conspirationniste QAnon.
En outre, TikTok propose beaucoup de contenus drôles et légers. Mais l’application peut aussi vous isoler du monde qui vous entoure.