Twitter’s automatische algoritme voor het bijsnijden van foto’s gaf de voorkeur aan “jonge, dunne gezichten met een lichte huid”, volgens de resultaten van een wedstrijd die werd gehouden door het sociale netwerk.
Het bedrijf heeft het automatisch bijsnijden van foto’s in maart van dit jaar gedeactiveerd. Veel gebruikers wezen erop dat bij het plaatsen van een groepsafbeelding witte mensen werden gemarkeerd boven zwarte mensen.
De door Twitter georganiseerde wedstrijd bevestigde de situatie. De deelnemers, experts op het gebied van kunstmatige intelligentie, benadrukten de vooroordelen die het systeem van het netwerk voedden.
De winnaars toonden aan dat het algoritme de voorkeur gaf aan “jonge, slanke gezichten met een lichte huid, een gladde huidtextuur en stereotiepe vrouwelijke kenmerken.” De eerste plaats ging naar Bogdan Kulynych, een afgestudeerde student aan EPFL: hij ontving $ 3.500.
In de tweede plaats werd erop gewezen dat het bevooroordeeld was tegen mensen met wit of grijs haar, wat leeftijdsdiscriminatie impliceert.
Terwijl op de derde plaats werd opgemerkt dat het Engels boven Arabisch schrift in de afbeeldingen verkoos.
Op zoek naar verbeteringen in de AI van Twitter
Laten we niet vergeten dat het systeem constant in ontwikkeling is, dus het kan nog worden verbeterd. Waar Twitter naar op zoek was, was, op basis van meningen en bevindingen van experts, een betere richtlijn voor het automatisch bijsnijden van foto’s.
Rumman Chowdhury, hoofd van het META-team van Twitter, geanalyseerd de resultaten.
3e plaats gaat naar @RoyaPak die experimenteerde met het opvallende algoritme van Twitter met behulp van tweetalige memes. Dit artikel laat zien hoe het algoritme de voorkeur geeft aan het bijsnijden van Latijnse schriften boven Arabische schriften en wat dit betekent in termen van schade aan de taalkundige diversiteit online.
— Twitter Engineering (@TwitterEng) 9 augustus 2021
Hij zei: “Als we nadenken over vooroordelen in onze modellen, gaat het niet alleen om het academische of het experimentele”, zei de directeur. (Het gaat erom) hoe dat ook werkt met de manier waarop we over de samenleving denken.”
“Ik gebruik de uitdrukking ‘het leven imiteert kunst, en kunst imiteert het leven.’ We maken deze filters omdat we denken dat dat is wat mooi is, en dat leidt uiteindelijk tot het trainen van onze modellen en het aansturen van deze onrealistische ideeën over wat het betekent om aantrekkelijk te zijn.”
Het META-team van Twitter bestudeert de ethiek, transparantie en aansprakelijkheid van machine learning.
Hoe kwam de winnaar tot zijn conclusie?
Om Bogdan Kulynych tot zijn conclusie te brengen over het algoritme van Twitter, gebruikte hij een AI-programma genaamd StyleGAN2. Hiermee genereerde hij een groot aantal echte gezichten die hij varieerde volgens huidskleur, evenals vrouwelijke versus mannelijke gelaatstrekken en dunheid.
Wauw, dit was een onverwachte afsluiter van de week! Mijn inzending werd bekroond met de 1e plaats in het Twitter’s Algorithmic Bias-programma. Veel dank aan @ruchowdh, @TwitterEng META-team en de jury…
— Bogdan Kulynych (@hiddenmarkov) 8 augustus 2021
Zoals Twitter uitlegt, voerde Kulynych de varianten in het automatische algoritme voor het bijsnijden van foto’s van het netwerk in en ontdekte wat zijn favoriet was.
“(Ze hebben degenen bijgesneden) die niet voldeden aan de voorkeuren van het algoritme voor lichaamsgewicht, leeftijd en huidskleur”, benadrukte de expert in zijn resultaten.
Bedrijven en raciale vooroordelen, hoe ga je daarmee om?
Twitter bevestigde met zijn wedstrijd de alomtegenwoordige aard van sociale vooroordelen in algoritmische systemen. Nu komt er een nieuwe uitdaging: hoe deze vooroordelen te bestrijden?
“AI en machine learning zijn gewoon het Wilde Westen, hoe bekwaam u uw datascience-team ook denkt te zijn”, zegt Patrick Hall, AI-onderzoeker.
“Als u uw fouten niet vindt, of de bug bounties uw fouten niet vinden, wie vindt dan uw fouten? Omdat je fouten hebt.”
Zijn woorden verwijzen naar het werk van andere bedrijven wanneer ze soortgelijke mislukkingen hebben. The Verge herinnert zich dat toen een MIT-team raciale en gendervooroordelen ontdekte in de gezichtsherkenningsalgoritmen van Amazon, het bedrijf de onderzoekers in diskrediet bracht.
Vervolgens moest het het gebruik van die algoritmen tijdelijk verbieden.