Tiktok har 1,3 millioner månedlige brugere i Danmark og på få er det sociale medie, der er stiftet i Kina, blevet det største sociale medie blandt danske børn og unge.
Men Tiktok har en mørk bagside, hvor børn og unge meget nemt bliver eksponeret for indhold, der relaterer sig til selvskade og selvmord.
Det skriver Berlingske på baggrund af en omfattende undersøgelse fra organisationen Digitalt Ansvar, der i månedsvis har scrollet sig igennem forskelligt indhold på TikTok.
"Det er vildere, end vi havde forestillet os. Vi dokumenterer, at TikTok går målrettet ind og viser videoer med meget dystert indhold om selvskade eller selvmord til profiler, som Tiktok tror er 13-årige børn. Det er stærkt foruroligende," siger sekretariatschef i Digitalt Indhold Ask Hesby Holm til Berlingske.
Tiktok fungerer ligesom mange andre sociale medier ved, at en algoritme bestemmer, hvilke videoer brugerne i høj grad eksponeres over for. Og des flere videoer du ser og 'liker', des bedre lærer algoritmen dig at kende.
Ser og liker du for eksempel mange videoer om fodbold og madlavning, giver TikTok dig mange videoer om fodbold og madlavning.
Men Digitalt Ansvars undersøgelse viser altså, at Tiktoks algoritme også kan have en meget mørk bagside.
Organisationens undersøgelse viser blandt andet:
- Efter at der er scrollet og liket depressivt og selvskadende indhold i et kvarter fylder selvskadende og depressivt indhold i intervaller op til 70-80 procent af feedet på hver anden af de nyoprettede profiler.
- I nogle sekvenser fylder selvskade- og selvmordsrelateret indhold op til 80-100 procent af feedet.