Kunstmatige intelligentie kan tegenwoordig foto’s maken die bijna niet van echte beelden te onderscheiden zijn. Daardoor ontstaat een nieuw probleem: mensen geloven soms beelden die in werkelijkheid nooit zijn gebeurd. Ook in Suriname kan dit grote gevolgen hebben.

Stel dat op social media een foto verschijnt waarop een grote brand in Paramaribo te zien is. Op het beeld lijkt het alsof een historisch gebouw in de binnenstad in brand staat en mensen in paniek wegrennen. Veel mensen delen zo’n foto direct via WhatsApp of Facebook. Later blijkt dat het beeld helemaal door AI is gemaakt. De brand heeft nooit plaatsgevonden. Toch hebben duizenden mensen het bericht al gezien en geloven dat het echt is.
Een ander voorbeeld gebeurde onlangs in een schoolklas in Wanica. Een leerling liet een foto zien van een enorme overstroming in Suriname waarbij auto’s half onder water stonden. Sommige leerlingen dachten dat het ging om een ramp die net had plaatsgevonden. Pas toen een docent het beeld controleerde, bleek dat het een AI-afbeelding was die op internet rondging.
Experts waarschuwen dat zulke beelden schade kunnen veroorzaken. Mensen kunnen in paniek raken, verkeerde beslissingen nemen of het vertrouwen in nieuws verliezen. Journalisten krijgen het daardoor moeilijker om echte informatie van nepbeelden te onderscheiden.
Volgens mediadeskundigen is het belangrijk dat jongeren leren om beelden kritisch te bekijken. Ze moeten zich afvragen: waar komt deze foto vandaan en welke bron heeft het geplaatst?
Ook de Surinaamse regering heeft hiervoor aandacht gevraagd. President Jennifer Simons benadrukte onlangs dat digitale informatie steeds vaker wordt gemanipuleerd.
Daarom spreken scholen en mediaorganisaties steeds vaker over mediawijsheid. Wie verstandig met internet omgaat, controleert nieuws eerst. In een tijd van AI is dat belangrijker dan ooit.
