Wat is deepfake? Wat zijn de effecten van deepfake op sociale media?
Een deepfake kan worden gedefinieerd als: een video of audio-opname die het gezicht of de stem van iemand vervangt door het gezicht of de stem van iemand anders, op een manier die het heel echt laat lijken. Je zou denken dat media-manipulatie niets nieuws is, maar in de loop van de tijd is de term deepfake veranderd. Terwijl het in 2017 en 2018 alleen werd gebruikt voor beelden die expliciet door Deepfake op sociale media met kunstmatige intelligentie waren gemaakt, wordt het vanaf 2022 gebruikt om beelden en video's te beschrijven die expliciet of vermoedelijk zijn vervalst door een soort kunstmatige intelligentie. De eerste en meest voorkomende deepfake kan worden teruggevoerd op het gebruik van gezichtsverwisseling om face swap video's te maken, die tegenwoordig heel gebruikelijk zijn. Deepfake op sociale media kan vandaag de dag heel gevaarlijk zijn en kan leiden tot frauduleuze misbruiken waarbij de stemmen en beelden van mensen worden gebruikt om illegale dingen te doen
Waarom is het belangrijk voor ons om de impact van deepfake op sociale media te bestuderen
Social media zoals TikTok, YouTube, Instagram, enzovoort zijn een van de plekken geworden waar je deze deepfakes online super makkelijk kunt publiceren. Door de snelheid waarmee ze zich verspreiden, spelen ze een belangrijke rol in het publiceren of controleren van deze deepfakes
Ethische implicaties van deepfakes op sociale media kunnen ervoor zorgen dat mensen en gebruikers die op sociale media actief zijn hun vertrouwen in deze netwerken verliezen wanneer ze nep- en misleidende content zien die gepubliceerd wordt. Deze nepnieuws, die op sociale media kan verschijnen op basis van deepfakes, beïnvloedt de publieke cultuur en kan zelfs psychologische of sociale schade toebrengen aan individuen en het algehele vertrouwen van gebruikers in online content ondermijnen, dus dit probleem moet serieus genomen worden. Hier geven we je een uitgebreid overzicht van de effecten en werking van dit groeiende en uitbreidende media-effect, en daarnaast bieden we juridische oplossingen om het te bestrijden
Wat zijn deepfake structuren in het algemeen en hoe werken ze?
Deepfake technologie in sociale media kan naadloos iedereen ter wereld in een video of foto plakken waar ze nooit aan hebben deelgenomen. Het belangrijkste element in deepfakes is machine learning, wat het mogelijk heeft gemaakt om deepfakes veel sneller en goedkoper te produceren. Het neurale netwerk kan de computer alles leren over hoe het gezicht van die persoon werkt vanuit verschillende hoeken en in verschillende lichten, en met deze informatie en tools kan het een afbeelding creëren die lijkt op hetzelfde gezicht. Een serie deepfakes wordt gemaakt met een algoritme genaamd GAN (generative adversarial networks) dat erg professioneel is en de beelden en gezichten er natuurlijker uit laat zien. Maar nu worden veel deepfakes op sociale media niet eens meer met GAN gemaakt, omdat ze tijdrovend zijn en moeilijk te maken met dat algoritme.
Vandaag kan dit hele proces gemakkelijk en sneller dan ooit worden gedaan met de komst van kunstmatige intelligentie. Natuurlijk moet gezegd worden dat kunstmatige intelligentie nog niet in staat is geweest om een geloofwaardige compositie te bereiken die de persoon die deze gemaakte video's of afbeeldingen ziet, meteen gelooft in hun authenticiteit. Bij het maken van deze deepfakes moet de producent zelf handmatige tools gebruiken om veel van de parameters te veranderen die het programma in kwestie niet goed kon vastleggen. Dit proces is heel simpel en krachtig, terwijl het ook moeilijk is
Bijvoorbeeld, in 2018 publiceerde Jordan Peele (een bekende komiek en regisseur) een deepfake video van Barack Obama, de voormalige president van de Verenigde Staten, waarin hij beledigende woorden zei over Donald Trump (de toenmalige president). Zijn doel was te laten zien hoe gemakkelijk het is om Deepfake-technologie op sociale media te gebruiken om woorden te maken die er volkomen geloofwaardig en echt uitzien, zelfs van een voormalige president
Hoe is Deepfake social media binnengekomen?
Deepfake op sociale media was in het begin bedoeld voor vermaak. Deepfake op sociale media had aanvankelijk een vermaakaspect, entertainmentprogramma's zoals Reface, Zao of FaceApp maakten het voor gebruikers makkelijk om hun afbeelding op het lichaam van beroemdheden, acteurs of bekende personages te plakken met een paar simpele grafische tools. Deze Deepfake video's en manipulaties gingen snel viral op TikTok en Instagram vanwege het plezier en vermaak, en veel mensen van over de hele wereld begonnen dit effect te gebruiken zonder te weten dat dit hetzelfde is. Het is deepfake
Platforms zoals TikTok, Instagram en YouTube maken het super simpel om deep fakes te maken en te verspreiden op het internet via toegankelijke markten. Als een content op deze sociale platforms op een schokkende manier viraal gaat, zorgt hun algoritme ervoor dat het viraal gaat en zien meer mensen deze deep fakes op sociale media. Vroeger kon dat misschien nog, maar tegenwoordig kunnen ze met een paar uploads van foto's vanuit verschillende hoeken en klikken heel makkelijk gemaakt worden zoals ze willen
Deepfake begon als een interessante technologie, maar nadat het op sociale netwerken kwam, werd het een tool voor vermaak, reclame en soms ernstige misbruik
Potentieel Positieve Impacten
Deepfake, met alle info die we je hebben gegeven over hoe het werkt, hoe het gemaakt wordt en wat het doel is, is heel nuttig geweest voor sommige grafische gebieden in de wereld en is erg effectief. In het begin kan het gebruik van deepfake gevaarlijk en illegaal lijken, maar als je het goed gebruikt, kan het een krachtig en effectief hulpmiddel zijn. Hier gaan we wat van deze info bekijken
Bioscoop en Entertainment
Op het gebied van film en documentaire maakt het gebruik van deepfake om gezichten te reconstrueren of te verjongen het mogelijk om speciale effecten te creëren Realisme is bereikt zonder zware CGI en het maakt het voor makers in dit veld makkelijker om zich te concentreren op het maken van boeiendere en kwaliteitsvolle films
Onderwijs en Geschiedenis
Het reconstrueren van het gezicht en de stem van historische figuren voor interactieve educatie helpt om educatieve onderwerpen aantrekkelijker en begrijpelijker en concreter te maken voor studenten
Geneeskunde en mentale gezondheid
Het maken van educatieve video's voor patiënten met het gezicht van een echte dokter, in de lokale taal en dialect, zodat ze beter geïnformeerd zijn over het proces van operatie en behandeling. Bijvoorbeeld, tijdens moeilijke en ingewikkelde trainingen aan universiteiten is het gebruik van deep fakes heel effectief voor het onderwijzen van chirurgie of het omgaan met psychologische situaties. Of het helpen van dementiepatiënten door vertrouwde gezichten te reconstrueren
Adverteren en marketing
Aangepaste en aantrekkelijke content maken zonder dat je achtergrondpersonen of hoge kosten nodig hebt, helemaal volgens de smaak van de klanten. De mogelijkheid om advertenties in verschillende talen te maken zonder dat je meerdere keren hoeft op te nemen
Toegankelijk voor iedereen
Helpen met het vertalen en inspreken van video's terwijl je natuurlijke mond- en gezichtsuitdrukkingen behoudt (lip-sync AI). Toegankelijkheid vergroten voor doven of slechthorenden door spraak om te zetten in gezichtsbewegingen
Ethische implicaties van deepfake op sociale media
Net zoals alles voordelen kan hebben, kan het ook nadelen hebben, en deepfake op sociale media is daar geen uitzondering op. Met de toegenomen beschikbaarheid van deepfake-technologie kunnen oplichters nu leidinggevenden, werknemers of klanten met verontrustende nauwkeurigheid imiteren, wat aanzienlijke bedrijfsrisico's met zich meebrengt. Maar deepfake gebruiken buiten de regels en voorschriften van deepfake schendt de ethische kwesties van deepfake, wat leidt tot veel misbruik en oplichting op dit gebied, en men moet zich bewust zijn van deze kwesties om veilig te zijn voor de gevolgen
Maar naast de directe financiële verliezen zijn de reputatieschade en de gevolgen ook behoorlijk schadelijk, omdat gemanipuleerde media het imago van een bedrijf kunnen aantasten en aanvallen op de reputaties van individuen (persoonlijk of publiek) kunnen veroorzaken. Zelfs als de oplichting door het bedrijf aan het licht wordt gebracht, is de schade al aangericht. Sectoren die op vertrouwen steunen, zoals financiën, recht en gezondheidszorg, zijn bijzonder kwetsbaar. Deepfakes zijn in wezen impersonaties, dus ze zijn een populaire manier om CEO's te bedriegen met kunstmatige stemmen
Afnemende publieke vertrouwen in content (Post-truth cultuur) Met al deze nepvideo's en beelden die viraal gaan in de digitale en online wereld, kan het uiteindelijk het vertrouwen in sociale media ondermijnen, wat een bron van inkomsten en branding is geworden voor grote bedrijven of ondernemingen. Het moet ook worden opgemerkt dat criminelen en oplichters voortdurend nieuwe manieren vinden om deepfakes te gebruiken, inclusief afpersing, chantage en industriële spionage. Bedrijven, organisaties en individuen moeten waakzaam zijn
De opkomst van Deepfake technologie in sociale media
heeft mensen over de hele wereld die in bepaalde vakgebieden werken en een naam en adres voor zichzelf hebben gecreëerd en een bepaalde reputatie hebben, bezorgd gemaakt over dit probleem. Vooral in relatie tot de toestemming van individuen, verantwoordelijkheid en de tekortkomingen van de huidige wetten. Dit heeft veel mensen veel specifieke vragen gegeven over hoe individuen en samenlevingen te beschermen tegen misbruik ervan
Een van de ethische vraagstukken rondom deepfake is of de mensen wiens gezichten en uiterlijk informatie worden gebruikt wel toestemming hebben gegeven. Veel video's gebruiken deepfake en gemanipuleerde video's - inclusief beroemdheden, politici of zelfs gewone mensen - zonder hun toestemming. Deze video's kunnen de gezichten van andere beroemdheden gebruiken om ongepast gedrag te tonen, beledigende opmerkingen te maken op sociale media, en kunnen leiden tot verlies van persoonlijke geloofwaardigheid en schade aan hun status, rang en persoonlijkheid, enzovoort. Naast financiële en identiteitsverliezen voor individuen, heeft dit probleem ook psychologisch schadelijke effecten op mensen. In veel landen hebben slachtoffers geen specifieke juridische manier om hiermee om te gaan. Hier rijst de vraag: wie is verantwoordelijk voor de morele gevolgen van deepfake? De contentmaker? Het platform dat het heeft gepubliceerd? Of de gebruiker die het heeft gedeeld? Momenteel is er geen duidelijke en wereldwijde standaard om verantwoordelijkheid te bepalen. Aan de andere kant is de wet die hierop van toepassing is vaak ineffectief en incompleet en kan het de geleden verliezen niet compenseren. Deze juridische leemte heeft de deur geopend voor wijdverbreid misbruik. De EU AI-wet is een van de eerste wetgevende pogingen om AI-gegenereerde inhoud te reguleren. Het vereist dat makers transparant zijn over of een video gemanipuleerd of kunstmatig gegenereerd is. Andere landen, zoals de VS, China en het VK, verkennen ook soortgelijke oplossingen, hoewel de wereldwijde trend naar deepfake-wetten en -regelgeving nog steeds niet uniform is
De rol van sociale platforms in het beheersen van deepfake op sociale media
Met de toenemende inzet van deepfake op sociale media is de rol van platforms in het identificeren en beheersen van dit soort content belangrijker dan ooit. Sociale media hebben geprobeerd de publicatie van deze content te controleren, wat soms nuttig is geweest. Een van de gangbare methoden is contentlabeling. Als veel platforms deepfake-content detecteren, markeren ze het met waarschuwingen zoals kan bewerkt zijn of misleidende informatie. Sommige algoritmes gebruiken kunstmatige intelligentie om de content die met deepfakes is gemaakt gemakkelijk te herkennen. Maar met de dagelijkse vooruitgang worden deze deepfakes echter steeds echter en sommige daarvan kunnen verborgen blijven voor de ogen van de algoritmes
Hoe je deepfake technologie op sociale media kunt herkennen
Deepfake geeft vaak een griezelig gevoel en laat subtiele fouten zien die de echtheid verraden. Door het menselijk oog te trainen om deze inconsistenties te detecteren—zoals onnatuurlijke gezichtsbewegingen, onregelmatige verlichting of inconsistente audio- en visuele signalen—en deze vaardigheid te combineren met betrouwbare verificatietechnieken, wordt het mogelijk om deepfake van echte content te onderscheiden
Er zijn een paar vrij simpele dingen waar je op kunt letten als je een deepfake probeert te herkennen
Abnormale oogbeweging
Oogbewegingen die niet natuurlijk lijken - of het gebrek aan oogbeweging, zoals niet knipperen - zijn waarschuwingssignalen. Het is moeilijk om het knipperen op een natuurlijke manier na te doen. Het is ook lastig om de oogbewegingen van een echt persoon na te doen. Dit komt omdat iemands ogen meestal de persoon volgen met wie ze praten
Abnormale gezichtsuitdrukkingen
Als iets niet goed lijkt aan een gezicht, kan dat wijzen op een gezichtsvervorming. Dit gebeurt als een simpele steek van de ene afbeelding op een andere is gelegd
Onhandige positie van gezichtskenmerken
Als iemands gezicht naar de ene kant wijst en hun neus naar de andere, moet je wantrouwig zijn over de echtheid van de video
gebrek aan emotie
Je kunt ook gezichtsvervorming of beeldsamenvoeging opmerken als iemands gezicht niet de emotie laat zien die erbij zou moeten passen met wat ze zogenaamd zeggen
Lichaam of houding ziet er ongemakkelijk uit
Een ander teken is dat de lichaamsvorm van de persoon er niet natuurlijk uitziet of dat er een onhandige of inconsistente hoofd- en lichaamshouding is. Dit kan een van de makkelijkere inconsistenties zijn om op te merken, omdat deepfake-technologie meestal gericht is op gezichtskenmerken in plaats van het hele lichaam
Abnormale lichaamsbeweging
Als iemand vervormd of raar uitziet als ze zijwaarts draaien of hun hoofd bewegen, of als hun bewegingen schokkerig en onsamenhangend zijn van het ene beeld naar het andere, moet je vermoeden dat de video nep is
Abnormale kleurstelling
Abnormale huidskleur, verkleuring, vreemde belichting en ongepaste schaduwen zijn allemaal tekenen dat wat je ziet waarschijnlijk nep is
Haar dat niet echt uitziet
Je ziet geen pluizig of wild haar want nepafbeeldingen kunnen deze unieke kenmerken niet creëren
Tanden die niet echt lijken
Algoritmes kunnen misschien geen individuele tanden genereren, dus het ontbreken van omtrekken van individuele tanden kan een aanwijzing zijn
Vage of ongelijkheden
Als de randen van de afbeeldingen vaag zijn of de afbeeldingen ongelijk zijn - bijvoorbeeld waar iemands gezicht en hals hun lichaam ontmoeten - weet je dat er iets mis is
Inconsistente audio en ruis
Deepfake makers besteden meestal meer tijd aan video beelden dan aan audio. Het resultaat kan slechte lip sync zijn, robotachtige stemmen, vreemde uitspraak van woorden, digitale achtergrondgeluiden of zelfs helemaal geen audio
Afbeeldingen die er onnatuurlijk uitzien als ze vertraagd worden
Als je een video kijkt op een groter scherm dan je smartphone of je hebt videobewerkingssoftware die de video kan vertragen, kun je inzoomen en de beelden beter bekijken. Bijvoorbeeld, inzoomen op de lippen helpt je te zien of ze echt aan het praten zijn of dat de lip-sync slecht is
Hashtag Geschillen
Er is een cryptografisch algoritme dat videomakers helpt om te laten zien dat hun video's authentiek zijn. Dit algoritme wordt gebruikt om hashtags op specifieke plekken in een video in te voegen. Als de hashtags worden veranderd, moet je vermoeden dat de video is gemanipuleerd
Digitale vingerafdruk
Blockchaintechnologie kan ook een digitale vingerafdruk voor video's maken. Hoewel deze blockchain-gebaseerde verificatie niet waterdicht is, kan het helpen om de authenticiteit van een video vast te stellen. Zo werkt het. Wanneer een video wordt gemaakt, wordt de inhoud vastgelegd in een grootboek dat niet kan worden veranderd. Deze technologie kan helpen om de authenticiteit van een video te bewijzen
Achtergrondafbeelding zoeken
Zoeken naar een origineel beeld, of computerondersteunde omgekeerde beeldzoektocht, kan vergelijkbare video's online vinden om te helpen bepalen of een afbeelding, audio of video op een of andere manier is aangepast. Hoewel omgekeerde videozoektechnologie nog niet openbaar beschikbaar is, kan het investeren in een tool zoals deze voordelig zijn
De video wordt niet gerapporteerd door betrouwbare nieuwsbronnen
Als wat iemand zegt of doet in een video schokkend of belangrijk is, zullen nieuwsmedia erover berichten. Als je zoekt naar informatie over de video en er zijn geen betrouwbare bronnen die erover praten, kan dat betekenen dat de video een deepfake is