Hoewel er overeenstemming kan worden bereikt over een definitie van billijkheid als woord, kan de concrete toepassing ervan het onderwerp zijn van verdere analyse.
Net zoals het definiëren van wat eerlijk is of niet, een echt dilemma voor mensen kan zijn, is het ook een uitdaging voor kunstmatige intelligentie en een die een nieuw initiatief van de Michigan State University wil verlichten.
Eerlijkheidsklassen voor AI-algoritmen
Aangezien kunstmatige-intelligentiesystemen steeds vaker aanwezig zijn in de dagelijkse activiteiten en diensten, is het noodzakelijk om voldoende onpartijdigheid te bieden aan de betrokken platforms om te beslissen wie de juiste medische zorg krijgt, wie in aanmerking komt voor een banklening of wie wordt toegewezen. een taak.
Met financiering van Amazon en de National Science Foundation heeft Pang-Ning Tan, een onderzoeker en professor bij het Department of Computer Science and Engineering aan de eerder genoemde Amerikaanse universiteit, het afgelopen jaar kunstmatige intelligentie-algoritmen getraind om hen te helpen onderscheid te maken tussen de eerlijkheid en oneerlijkheid van hun acties.
“We proberen AI-systemen te ontwerpen die niet alleen bedoeld zijn voor informatica, maar ook waarde en voordelen opleveren voor de samenleving. Dus ik begon na te denken over wat de gebieden zijn die op dit moment een uitdaging zijn voor de samenleving ”, zei de onderzoeker over de grondgedachte achter zijn initiatief.
Dit project roept de noodzaak op om initiatieven te ontwikkelen met een directe impact op de gebruikers. Tan ontwikkelde hetzelfde punt en merkte ook op dat “equity een heel groot probleem is, vooral omdat we meer afhankelijk worden van AI voor dagelijkse behoeften, zoals medische zorg, maar ook voor dingen die alledaags lijken, zoals het filteren van spam of het plaatsen van verhalen in je nieuwsrubriek. . “
Zelfs als geautomatiseerde systemen kunnen AI-algoritmen bepaalde overgeërfde vooroordelen dragen van de gegevens die in hun training worden gebruikt of zelfs rechtstreeks door hun makers worden doorgegeven. Volgens een onderzoek van het onderzoeksteam van Tan zijn er bijvoorbeeld gevallen van AI-systemen die racistisch discrimineren bij het beheren van medische zorg en seksuele segregatie van vrouwen in sollicitatiesystemen.
Over deze realiteit merkte Abdol-Hossein Esfahanian, een lid van het onderzoeksteam van Tan, op dat “algoritmen worden gemaakt door mensen en dat mensen meestal vooroordelen hebben, dus die vooroordelen worden gefilterd … we willen overal eerlijkheid hebben, en we willen een betere begrip van hoe het te evalueren.
Met de steun van theorieën uit de sociale wetenschappen proberen Tan en zijn team het meest universele idee van eerlijkheid te benaderen. Om dit doel te bereiken, zullen de principes van eerlijkheid die aan het algoritme worden overgebracht, niet uit één enkele visie komen en het uitdagen om te kiezen tussen concurrerende of tegenstrijdige posities.
“We proberen de AI gerechtigheidsbewust te maken, en om dat te doen, moet je hem vertellen wat eerlijk is. Maar hoe ontwerp je een mate van eerlijkheid die voor iedereen acceptabel is? ” merkte Tan op, eraan toevoegend dat “we kijken naar hoe een beslissing niet alleen individuen beïnvloedt, maar ook hun gemeenschappen en sociale kringen.”
Het werk is ambitieus en ondanks de voortgang is het net begonnen. “Dit is een zeer lopend onderzoek. Er zijn veel problemen en uitdagingen – hoe definieer je eerlijkheid, hoe kun je mensen helpen vertrouwen te hebben in deze systemen die we elke dag gebruiken, “reflecteerde Tan, eraan toevoegend dat” het onze taak als onderzoekers is om oplossingen voor deze problemen te vinden. “
Het volledige rapport van dit onderzoek is te vinden op de Website van de Michigan State University