Surinamers massaal misleid door realistische AI-afbeeldingen

chatgpt ai

De technologie ontwikkelt zich razendsnel. Beelden die met kunstmatige intelligentie (AI) worden gemaakt lijken zo echt dat zelfs een geoefend oog het verschil nauwelijks nog ziet.

In Suriname is die ontwikkeling al merkbaar. Deepfakes, oftewel video’s waarin gezichten en stemmen digitaal worden nagebootst, en andere AI-gegenereerde beelden circuleren volop op sociale media.

Toch weet een groot deel van de bevolking niet eens dat deze technologie bestaat.

Dat blijkt onder andere uit onderzoek van GFC Nieuws op sociale media. Veel mensen herkennen het begrip AI niet en verwarren het met algemene technologie of apps.

In landen zoals Nederland wordt mediawijsheid op school onderwezen en worden campagnes gevoerd om mensen kritisch te leren kijken naar wat ze online tegenkomen.

In Suriname ontbreekt dat bewustzijn grotendeels. Het onderwerp leeft nauwelijks, zowel in het formele onderwijs als op populaire sociale media platformen.

Precies daar ligt het gevaar. AI-beelden en teksten verspreiden zich snel via WhatsApp-groepen of gedeelde filmpjes, zonder dat mensen stilstaan bij de herkomst of betrouwbaarheid.

Daardoor kunnen misleidende beelden, vooral tijdens verkiezingen of bij maatschappelijke onrust, invloed hebben op de publieke opinie.

Technologiereuzen proberen het tij te keren. Zo heeft Google een systeem ontwikkeld genaamd SynthID. Deze technologie voegt een onzichtbaar watermerk toe aan AI-afbeeldingen.

Het oog ziet niets, maar het beeld is wel herkenbaar als kunstmatig. Toch werkt dit alleen als de afbeelding bewust met SynthID is gegenereerd. Afbeeldingen uit andere programma’s blijven onherkenbaar.

Wat kan de samenleving doen

Eerst en vooral kritisch denken. Vraag je bij elk bericht af wie de afzender is en of het logisch klinkt. Let op overdreven of sensationele inhoud want dat is vaak nep.

Verder is kennis delen belangrijk. Wie meer weet over AI kan anderen helpen. Toon voorbeelden leg het eenvoudig uit en gebruik herkenbare situaties.