De wereld begint te wennen aan Deepfakes, nepvideo’s gemaakt door kunstmatige intelligentie, en de laatste rapporten laten zien dat deze technologie ook gebruikt kan worden voor satellietbeelden en dat deze situatie volgens geografen een groot risico vormt. Nu kunnen AI-gegenereerde kaarten worden gebruikt als desinformatiehulpmiddelen.
Een groep onderzoekers van de Universiteit van Washington creëerde een manier om gedetailleerde satellietfoto’s te genereren om gemanipuleerde beelden te detecteren. Dit experiment geeft inzicht in hoe deze nepsteden worden gemaakt.
Dit is hoe Deepfake-satellietbeelden worden gemaakt
Laten we een stad nemen, bijvoorbeeld New York. We leggen er gebouwen uit Washington of Chicago bovenop, waardoor een totaal andere stad ontstaat. De uitvoering is niet perfect, maar het is goed genoeg om mensen te laten denken dat dit fouten zijn die worden gegenereerd door de lage kwaliteit van de afbeelding.
Nadat ze de software hadden gemaakt om de Deepfake-satellietbeelden te genereren, maakten ze een andere die de vervalsingen kon detecteren op basis van textuur, contrast en kleur.
Bo Zhao, assistent-professor geografie aan de Universiteit van Washington, leidt het onderzoek.
“We willen de functie van absolute betrouwbaarheid van satellietbeelden ontraadselen en het publiek bewust maken van de mogelijke invloed van diepe nepgeografie”, zei Zhao.
“Terwijl veel GIS [geographic information system] beoefenaars vieren de technische verdiensten van deep learning en andere soorten AI voor het oplossen van geografische problemen, maar weinigen hebben publiekelijk de potentiële bedreigingen van deep fake voor geografie of daarbuiten erkend of bekritiseerd, ”voegt Zhao toe.
Het is gemakkelijker om nep-satellietbeelden te maken dan nepvideo’s van mensen. Lagere resoluties, legt Zhao uit, kunnen erg overtuigend zijn.