Google zal afbeeldingen die zijn gemaakt of bewerkt door kunstmatige intelligentie (AI) in zoekresultaten openbaar maken. De techgigant is van plan om meer transparantie te bieden door labels toe te voegen aan afbeeldingen die zijn gemaakt of bewerkt door AI.
De verandering komt nadat Google een partnerschap is aangegaan met grote bedrijven in de Coalition for Content Provenance and Authenticity (C2PA), die de verspreiding van misleidende informatie online wil bestrijden. Laten we eens kijken naar de details van Googles plan om door AI gegenereerde content te markeren en de vragen die eromheen hangen.
Is Google’s jacht op AI een bijzaak?
In de komende maanden zal Google beginnen met het taggen van door AI gegenereerde en bewerkte afbeeldingen in zoekresultatenDit zal gebeuren met behulp van metadata van de Inhoudelijke referenties standaard, die informatie bevat zoals wanneer, waar en hoe de afbeelding is gemaakt. Gebruikers kunnen deze tag zien via de functie ‘Over deze afbeelding’ van Google, die toegankelijk is door te klikken op de drie puntjes boven een afbeelding in de zoekresultaten.
Het idee achter de verhuizing is om gebruikers een manier te geven om de bron van afbeeldingen te traceren en het gemakkelijker te maken om spot AI-gegenereerde content. De stap komt nadat Google zich bij andere techbedrijven zoals Amazon, Adobe en Microsoft heeft aangesloten bij het ontwikkelen van de nieuwste Content Credentials-richtlijnen. Samen hopen deze bedrijven de transparantie te vergroten en de verspreiding van nep- of misleidende afbeeldingen te verminderen.
Maar hoewel Google’s initiatief een stap in de goede richting is, is het de moeite waard om op te merken dat het label niet meteen duidelijk zal zijn. Gebruikers moeten actief zoeken naar informatie door te klikken op de sectie “Over deze afbeelding”, wat de functie minder effectief kan maken dan sommigen zouden verwachten.
Hoe krijgen gebruikers toegang tot AI-informatie?
De nieuwe functie is te vinden in Google Lens en de functie ‘Circle to Search’ van Android en geeft nu aan of een afbeelding is gegenereerd of gewijzigd met behulp van kunstmatige intelligentie. Als het label niet direct wordt weergegeven, kan dit ertoe leiden dat veel gebruikers zich niet bewust zijn van het bestaan van deze tool. Omdat er extra stappen bij betrokken zijn, kunnen bepaalde personen nooit bevestigen of een afbeelding is gegenereerd door AI, tenzij ze al bekend zijn met de functionaliteit. Zelfs als personen zich ervan bewust zijn, kan het proces nog steeds moeilijk zijn, vooral als ze verwachten dat door AI geproduceerde afbeeldingen duidelijker worden gemarkeerd.
Ondanks deze beperking kan Google’s partnerschap met C2PA waardevol blijken, aangezien de Content Credentials-standaard een bredere structuur biedt voor het volgen van de oorsprong van digitale content. Niettemin is deze standaard niet door alle AI-ontwikkelaars omarmd. Sommige organisaties, zoals Zwarte Woud Laboratoriahebben ervoor gekozen om dit niet op te nemen, wat het achterhalen van de bron van afbeeldingen die door specifieke modellen zijn gegenereerd, mogelijk bemoeilijkt.
Zorgen over effectiviteit: doet Google genoeg?
Er is ook een groter probleem: door AI gegenereerde beelden worden steeds moeilijker te detecteren. Een Universiteit van Waterloo onderzoek wees uit dat 39% van de mensen het verschil niet kan zien tussen door AI gegenereerde en echte afbeeldingen. Als deze trend zich voortzet, is het labelsysteem van Google mogelijk niet voldoende om gebruikers te helpen door AI gegenereerde content met zekerheid te identificeren.
Bovendien geven andere techbedrijven geen goed voorbeeld. Meta heeft bijvoorbeeld onlangs tagging-informatie verplaatst naar een minder zichtbare positie in posts. Dit roept de vraag op of techgiganten zich echt inzetten om AI-gegenereerde content transparanter te maken, of dat ze slechts minimale stappen ondernemen.
Er zijn maar weinig camera’s, zoals de Leica M-11P En Nikon Z9worden geleverd met ingebouwde Inhoudelijke referenties. Dit betekent dat tenzij fotografen en ontwikkelaars ervoor kiezen om deze tools te gebruiken, het systeem niet zo effectief zal zijn als het zou kunnen zijn. Transparantie in door AI gegenereerde content is sterk afhankelijk van samenwerking tussen sectoren, en tot nu toe lijkt niet iedereen evenveel geïnvesteerd te hebben.
Tegelijkertijd heeft de opkomst van door AI gegenereerde beelden geleid tot nieuwe zorgen over misinformatie. Van deepfakes tot door AI gegenereerde naaktfoto’s, het potentieel voor schade is duidelijk. Hoewel het nieuwe labelsysteem van Google niet al deze problemen zal oplossen, is het een kleine stap in de richting van het verminderen van de verspreiding van misleidende content online.
Beeldmateriaal: Furkan Demirkaya / Ideogram-AI
Source: Is de AI-afbeeldingstag van Google gemakkelijk te herkennen?