Tieners krijgen binnen enkele minuten na het openen van sociale media al schadelijke inhoud te zien. Het gaat om beelden en berichten over geweld, zelfbeschadiging en onrealistische schoonheidsidealen. Dat is geen toeval, maar het gevolg van algoritmen die vooral zijn ontworpen om aandacht vast te houden. Wat prikkelt, choqueert of emoties oproept, wordt sneller en vaker getoond. Leeftijdsfilters en moderatie blijken hierbij onvoldoende te werken.
Voor Suriname is dit extra relevant. Veel jongeren hebben via hun telefoon onbeperkte toegang tot sociale media, vaak zonder structurele begeleiding. Scholen worstelen met grote klassen, beperkte middelen en een curriculum waarin digitale weerbaarheid nauwelijks is ingebed.
Ouders zijn zich niet altijd bewust van wat algoritmen doen, of missen de tijd en kennis om het online gedrag van hun kinderen te volgen.
Volgens een AI deskundige ligt het kernprobleem niet alleen bij het gebruik, maar bij het ontwerp van de platforms. De systemen leren snel welk type content jongeren langer vasthoudt en sturen daar automatisch op bij. Dat versterkt vergelijkingsdruk, verstoort slaapritmes en vergroot stress en onzekerheid. Jongeren blijven online, maar raken mentaal uitgeput.
De maatschappelijke verantwoordelijkheid kan daarom niet uitsluitend bij ouders en scholen worden neergelegd. In de Surinaamse context betekent dit dat digitale opvoeding onderdeel moet worden van het onderwijs, op een praktisch en begrijpelijk niveau. Tegelijk is er behoefte aan duidelijke regels richting platforms, met eisen voor transparantie over aanbevelingen en bescherming van minderjarigen.
Zonder structurele ingrepen blijft de digitale omgeving voor veel tieners een risicoruimte. Bewustwording is een eerste stap, maar echte bescherming vraagt om samenwerking tussen onderwijs, overheid en technologie
