Op 27 juni deed het probleem zich voor met een video van de Britse krant Daily Mail, aldus The New York Times. Facebook heeft zich verontschuldigd en de aanbevelingsfunctie uitgeschakeld om de werking van zijn AI te beoordelen als gevolg van publieke verontwaardiging.
Deze gebeurtenis voegt alleen maar toe aan de lange lijst van racistische en seksistische gedragingen die AI repliceert. We hebben besproken hoe sociale-mediasites zoals Facebook foto’s van blanke mensen uitlichten terwijl ze meer dan eens andere rassen discrimineren.
De gebruiker werd een video over primaten aanbevolen, waarin een zwarte en een blanke man ruzie maakten. Volgens berichten van de Britse media was de blanke man beledigend jegens de andere persoon en moest de politie worden ingeschakeld. Maar ongeacht het onderwerp van de video, stelde Facebook na de video voor met dit bericht: “Wil je video’s blijven bekijken over primaten?”
The Daily Mail was de eerste die Facebook bekritiseerde, maar de fout werd aanvankelijk niet aan hen onthuld. Later verontschuldigde Facebook zich bij The New York Times: “Zoals we al eerder hebben gezegd, hoewel we vooruitgang hebben geboekt op het gebied van AI, is het niet perfect en is er meer werk aan de winkel”.
Om te onderzoeken wat er is gebeurd en te proberen te voorkomen dat het opnieuw gebeurt, heeft het bedrijf dat ook eigenaar is van WhatsApp en Instagram de aanbevelingsfunctie in zijn belangrijkste sociale netwerk uitgeschakeld.
Andere fouten
“Elke dag zien we de limieten, de vooroordelen en de pure idiotie om alleen te vertrouwen op kunstmatige intelligentie. En toch laten we onszelf proefkonijnen zijn”, zegt Nicole Perlroth, cybersecurity-schrijver van de New York Times, naar aanleiding van dit voorbeeld.
Kunstmatige intelligentie is geen uitzondering op de regel dat mensen de neiging hebben om vooroordelen van elkaar te erven. Ook Twitter kreeg de afgelopen weken te maken met deze realiteit: zijn slimme algoritmen geven de voorkeur aan foto’s van jonge, blanke mensen.
Programma’s die kunstmatige intelligentie gebruiken, zijn bevooroordeeld omdat ze vaak afhankelijk zijn van een reeks voorbeelden of parameters om de functies te trainen. Het zal voor kunstmatige intelligentie moeilijk zijn om de rest van de mensheid te identificeren die niet aan die criteria voldoet als de steekproef beperkt is en veel afbeeldingen van één ras of geslacht bevat.