In december 2025 verscheen een mysterieuze Instagram-account dat zich voordeed als Jessica Foster, een Amerikaanse militair. Binnen enkele maanden groeide het account uit tot meer dan 1 miljoen volgers. Maar Jessica Foster bestaat niet. Het is een AI-gegenereerde avatar die duizenden mensen heeft misleid, blijkt uit onderzoek van de Washington Post (20 maart 2026). De nep-influencer werd ingezet om volgers naar betaalde content te lokken, een nieuwe vorm van online oplichting die IT-experts alarmeert.
Hoe werkt een nep-influencer als Jessica Foster?
Het Jessica Foster-account gebruikte AI-gegenereerde foto's en video's van een aantrekkelijke vrouw in militair uniform. De beelden zagen er realistisch uit en toonden iemand die claimde een echte Amerikaanse officier te zijn met conservatieve politieke overtuigingen. Volgens Euronews (17 maart 2026) werden volgers vervolgens doorverwezen naar een OnlyFans-pagina met betaalde content, voornamelijk voetfetish-materiaal.
Het succes van deze nep-influencer illustreert hoe geavanceerd AI-technologie inmiddels is geworden. Moderne AI-tools kunnen overtuigende foto's, video's en zelfs stemmen genereren die nauwelijks van echt te onderscheiden zijn. De beelden worden steeds realistischer, waardoor het voor gewone gebruikers steeds moeilijker wordt om nepprofielen te herkennen.
De creators achter Jessica Foster maakten handig gebruik van sociale media-algoritmes die visueel aantrekkelijke content promoten. Door regelmatig te posten en strategisch hashtags te gebruiken, bereikte het account snel een groot publiek. Veel volgers geloofden dat ze een echte connectie hadden met de persoon achter het account.
Wat zeggen IT-experts over AI-deepfakes?
IT-beveiligingsexperts waarschuwen dat AI-deepfakes een groeiend probleem vormen voor online veiligheid. Deze technologie wordt niet alleen gebruikt voor relatief onschuldige nep-influencers, maar ook voor identiteitsfraude, phishing-aanvallen en desinformatie. De barrier om overtuigende nepprofielen te creëren wordt steeds lager.
Volgens cybersecurity-specialisten is het probleem dat platforms zoals Instagram en Meta beperkte regels hebben voor AI-gegenereerde content. Meta vereist alleen dat AI wordt gemeld bij betaalde politieke advertenties, maar reguliere AI-content hoeft niet altijd als zodanig gelabeld te worden. Dit gebrek aan transparantie maakt het voor gebruikers moeilijk om onderscheid te maken tussen echt en nep.
OnlyFans heeft wel strengere regels. Het platform vereist dat accounts gekoppeld zijn aan geverifieerde personen en dat AI-content getagd wordt met #AI. Toch blijken deze regels niet altijd gehandhaafd te worden, zoals het Jessica Foster-geval aantoont. IT-experts pleiten voor strengere verificatie en duidelijkere labeling van AI-gegenereerde content op alle platforms.
De Nederlandse AI-nieuwssite AIWereld berichtte dat dit soort AI-influencers ook in Nederland opduiken. Experts adviseren gebruikers om kritisch te blijven en niet zomaar te vertrouwen op wat ze online zien, vooral niet wanneer er geld bij komt kijken.
Hoe herkent u een nep-profiel online?
Er zijn verschillende signalen die kunnen wijzen op een AI-gegenereerd profiel. Let op handen en vingers in foto's, deze worden vaak vervormd of onnatuurlijk weergegeven door AI. Ook details zoals reflecties in spiegels, asymmetrische gezichten of onrealistische achtergronden kunnen aanwijzingen zijn.
Controleer de posting-frequentie en consistentie. AI-profielen posten vaak zeer regelmatig op vaste tijden, zonder variatie. Ook de interactie met volgers kan opvallend zijn: generieke reacties of helemaal geen echte conversaties zijn verdachte signalen. Echte mensen laten meer variatie en persoonlijkheid zien in hun communicatie.
Voer een reverse image search uit via Google of TinEye. Als dezelfde foto's op meerdere accounts of websites verschijnen, is dat een rode vlag. Let ook op accounts die snel veel volgers krijgen zonder duidelijke reden, of profielen die direct doorverwijzen naar betaalde diensten.
Wees extra alert bij accounts die om persoonlijke informatie of geld vragen. Nep-profielen proberen vaak snel een vertrouwensrelatie op te bouwen voordat ze overgaan tot hun eigenlijke doel. Als iets te goed lijkt om waar te zijn, is dat vaak ook zo.
Wat kunt u doen als u bent opgelicht?
Als u vermoedt dat u bent misleid door een nep-profiel, neem dan actie. Rapporteer het account bij het platform waar u het tegenkwam. Instagram, Facebook en andere sociale media hebben meldingsfuncties voor fraude en misleiding. Hoe meer meldingen een account krijgt, hoe sneller platforms ingrijpen.
Stop onmiddellijk alle betalingen en contacteer uw bank als u geld heeft overgemaakt. Veel banken hebben speciale procedures voor online fraude en kunnen transacties soms nog blokkeren of terugdraaien. Bewaar alle communicatie en betalingsbewijzen als bewijs voor een eventuele aangifte.
Doe aangifte bij de politie via politie.nl. Ook digitale oplichting is strafbaar. Uw aangifte helpt niet alleen uzelf, maar ook anderen die mogelijk slachtoffer kunnen worden. De politie verzamelt informatie over online fraude om patronen te herkennen en oplichters op te sporen.
Verander uw wachtwoorden als u persoonlijke informatie heeft gedeeld. Gebruik unieke, sterke wachtwoorden voor elk account en schakel tweefactorauthenticatie in waar mogelijk. Overweeg ook om uw vrienden en familie te waarschuwen als u denkt dat zij ook risico lopen.
Praat met een IT-beveiligingsexpert via Expert Zoom
Heeft u vragen over online veiligheid of wilt u weten hoe u zich beter kunt beschermen tegen digitale oplichting? Via Expert Zoom kunt u direct contact leggen met gecertificeerde IT-beveiligingsexperts in Nederland. Zij kunnen u adviseren over het herkennen van nepprofielen, het beveiligen van uw accounts en het nemen van de juiste stappen als u slachtoffer bent geworden.
Of u nu zorgen heeft over uw persoonlijke digitale veiligheid, advies nodig heeft voor uw bedrijf, of gewoon meer wilt leren over AI-deepfakes en online fraude, onze IT-experts staan klaar om u te helpen. Maak vandaag nog een afspraak en bescherm uzelf tegen digitale risico's.
