- Meta’s AI-tool Imagine is bekritiseerd omdat het moeite heeft om afbeeldingen te maken van interraciale stellen of vrienden
- Net als bij het Gemini-incident heeft Imagine moeite om interraciale relaties accuraat weer te geven
- Meta erkent het probleem en belooft vooroordelen in AI-systemen aan te pakken door middel van gebruikersfeedback en verbeteringen
- De ethische zorgen rond AI-renderingtools benadrukken de noodzaak voor technologiegiganten om prioriteit te geven aan transparantie en raciale vooroordelen effectief aan te pakken
De AI-industrie is in rep en roer tussen Meta’s AI-creatietool Imagine en Meta AI, Sora en DALL-E 3. Volgens recente rapporten is Meta’s AI-tool bekritiseerd omdat het problemen ondervindt bij het maken van afbeeldingen van interraciale stellen of vrienden.
In tests uitgevoerd door CNN produceerde de tool afbeeldingen van paren van hetzelfde ras in plaats van afbeeldingen van interraciale paren. Dit is vergelijkbaar met het Gemini-incident dat we eerder met u deelden. Gemini kwam ook met een soortgelijk probleem en kreeg geweldige reacties.
Hier is alles wat u moet weten…
Stel je voor dat Meta AI geen afbeeldingen kan genereren van mensen van verschillende rassen
Met de vooruitgang van de technologie is kunstmatige intelligentie wijdverbreid geworden in elke sector, inclusief hulpmiddelen voor het maken van afbeeldingen.
Als we dieper ingaan op de details van de tests, had de AI-renderingtool naar verluidt moeite met het weergeven van afbeeldingen van Aziatisch-witte, zwart-witte en Aziatisch-zwarte paren.
Meta erkende het probleem en linkte naar een blogpost gepubliceerd in september over het verantwoord creëren van efficiënte AI-functies. In de blogpost van het bedrijf stond:
“Wij ondernemen stappen om vooringenomenheid te verminderen. Het aanpakken van mogelijke vooroordelen in productieve AI-systemen is een nieuw onderzoeksgebied. Net als bij andere AI-modellen kan het ons helpen onze aanpak te verfijnen als meer mensen de functies gebruiken en feedback delen.”
Techgiganten moeten meer doen om raciale vooroordelen in AI-modellen te elimineren.
Ondertussen heeft Sora, de videoproductietool van OpenAI, een nieuwe muziekvideo uitgebracht. Ik kan zeggen dat het echt fantastisch werk heeft geleverd. Aan de andere kant waarschuwde YouTube-CEO Neal Mohan OpenAI voor de training van Sora. De waarschuwing kwam nadat OpenAI CTO Mira Murati er niet in slaagde de vraag te beantwoorden: “Is Sora getraind met YouTube-video’s?vroeg Joanna Stern van de Wall Street Journal vorige maand.
Je kunt de videoclip geproduceerd door Sora hieronder bekijken:
Hoewel hulpmiddelen voor het maken van AI-beelden opwindend zijn vanwege hun mogelijkheden, roepen ze ook belangrijke ethische kwesties op, zoals raciale vooroordelen. Technologiegiganten moeten meer doen om deze problemen aan te pakken en op transparante wijze vooruitgang te boeken.
Uitgelichte afbeeldingscredits: Dima Solomin / Unsplash
Source: Meta’s AI-beeldgenerator slaagt er niet in om afbeeldingen van interraciale koppels te produceren