Volgens een recente bevinding werken de AI-filters van Google niet echt goed, omdat sommige gebruikers gruwelijke antwoorden kregen over slavernij, giftige paddenstoelen en nog veel meer. Deze zoekresultaten stoorde veel mensen, en hier is alles wat u erover moet weten!
De bevindingen, die verklaringen omvatten voor de veronderstelde voordelen van de slavernij, een optimistisch beeld van de uitkomsten van de genocide en desinformatie over gevaarlijke onderwerpen als giftige paddenstoelen, hebben tot grote zorgen geleid. Dit dient als een duidelijke herinnering aan de potentiële valkuilen die verband houden met geavanceerde kunstmatige intelligentie binnen zoekmachines.
De inval van Google in door AI aangedreven zoekverkenningen heeft tot verbijsterende resultaten geleid die ons begrip van verantwoorde technologie op de proef stellen. Een eenvoudige vraag naar de ‘voordelen van slavernij’ heeft een verontrustende lijst van veronderstelde voordelen opgeleverd. Van ‘het voeden van de plantage-economie’ tot ‘het financieren van hogescholen en markten’ lijken de zoekresultaten een verwrongen perspectief op een donker hoofdstuk uit de geschiedenis te verdedigen.
In een alarmerende wending heeft Google AI de rol van historische apologeet op zich genomen, door te suggereren dat tot slaaf gemaakte individuen gespecialiseerde vaardigheden ontwikkelden en de slavernij te omschrijven als een ‘welwillende, paternalistische instelling met sociale en economische voordelen’. Deze beweringen weerspiegelen de in diskrediet gebrachte gespreksonderwerpen van voorstanders van slavernij en werpen licht op het verontrustende vermogen van de AI om schadelijke ideologieën in stand te houden.
Slavernij is niet het enige probleem met Google AI
Volgens Gizmodoblijft deze verontrustende trend niet beperkt tot discussies over slavernij alleen. Een soortgelijk verontrustend patroon komt naar voren bij het onderzoeken van de door AI gegenereerde antwoorden op vragen over de ‘voordelen van genocide’. De zoekresultaten lijken de grens te vervagen tussen het erkennen van historische wreedheden en het bepleiten van de gruwelijke daad zelf. Deze dissonantie onderstreept de gevoeligheid van de AI voor het verkeerd interpreteren van genuanceerde onderwerpen en het versterken van controversiële standpunten.
Google verbetert zijn generatief uitgebreid AI-aangedreven zoekervaring
Zelfs bij het onderzoeken van minder gevoelige onderwerpen kunnen door AI gegenereerde reacties een onvoorspelbare wending nemen. Vragen als ‘Waarom wapens goed zijn’ leidden tot antwoorden beladen met twijfelachtige statistieken en redeneringen. Deze voorbeelden dienen als een duidelijke herinnering dat het begrip van de AI over complexe onderwerpen vol onnauwkeurigheden kan zijn, waardoor de kwetsbaarheid voor vervorming wordt blootgelegd.
Er zijn wat woorden tussendoor geglipt
Hoewel sommige triggerwoorden lijken te leiden tot censuur van door AI gegenereerde reacties, glippen andere op onverklaarbare wijze door de filters. Zoektermen met betrekking tot ‘abortus’ of ‘Trump-aanklacht’ leveren bijvoorbeeld geen AI-antwoorden op, wat duidt op een selectieve benadering van het censureren van gevoelige onderwerpen.
Lily Ray, een vooraanstaande figuur op het gebied van zoekmachineoptimalisatie en organisch onderzoek bij Amsive Digital, deed de verontrustende ontdekkingen. Ray’s onderzoek bracht een verontrustend gebrek aan nauwkeurigheid en onderscheidingsvermogen aan het licht in de AI-zoekervaring van Google.
Slimmer surfen op internet: Google ontketent ‘SGE tijdens het browsen‘ voor directe inzichten
“Het zou niet zo moeten werken”, merkte Ray op, waarbij hij het belang van het verfijnen van AI-filters benadrukte. “Bepaalde triggerwoorden zouden de generatie van AI ondubbelzinnig moeten voorkomen.”
Conclusie
Terwijl Google AI Search Generative Experience het transformerende potentieel van AI benadrukt bij het vormgeven van onze zoekinteracties, roepen de verontrustende resultaten die uit het onderzoek van Gizmodo naar voren zijn gekomen cruciale zorgen op. Het vervagen van historische feiten, het versterken van schadelijke retoriek en het verspreiden van gevaarlijk advies legt de noodzaak van rigoureus toezicht en voortdurende verbetering bloot.
Terwijl we de onbekende gebieden van AI betreden, is het absoluut noodzakelijk dat technologiegiganten als Google de verantwoordelijkheid op zich nemen om kunstmatige intelligentie ethisch en accuraat in te zetten. Hoewel AI het vermogen heeft om het ophalen van informatie radicaal te veranderen, vereist de feilbaarheid ervan voor verkeerde voorstelling van zaken en verkeerde informatie een onwankelbare inzet voor de ontwikkeling ervan. In een wereld waar technologie en menselijke interactie diep met elkaar verweven zijn, berust de integriteit van ons digitale ecosysteem op een standvastige toewijding aan het verantwoorde gebruik van AI.
Uitgelichte afbeelding tegoed: Pawel Czerwinski/Unsplash
Source: De gruwelijke zoekresultaten van Google AI over slavernij leiden tot verontwaardiging