Facebook investeert aanzienlijke inspanningen in het afdwingen van gemeenschapsnormen voor deelnemers op zijn verschillende sociale platforms. In die zin vertrouwt Facebook, naast het hebben van menselijk personeel dat verantwoordelijk is voor het waarborgen van de naleving, op kunstmatige-intelligentietechnologieën en heeft het vandaag een voorproefje gegeven van de vooruitgang die de afgelopen tijd op dit gebied is geboekt.
In dit verband verwees hij naar systemen die momenteel in gebruik zijn, zoals Reinforcement Integrity Optimizer (RIO), die eind vorig jaar werd geïmplementeerd en die volgens hem heeft bijgedragen aan het aanzienlijk verminderen van haatzaaiende uitlatingen en andere soorten ongewenste berichten op zijn sociale platforms in de eerste helft van het jaar.
Mike Schroepfer, CTO van Facebook zei: “AI is een ongelooflijk snel evoluerend veld en veel van de belangrijkste onderdelen van onze huidige AI-systemen zijn gebaseerd op technieken zoals zelfcontrole, wat een paar jaar geleden nog een verre toekomst leek.”
In dit verband legt hij uit dat in plaats van een op AI gebaseerd systeem te trainen op basis van een vaste dataset, ze met RIO hebben gekozen voor een model waarin het systeem direct leert over miljoenen huidige inhoud en zich in de loop van de tijd aanpast om zijn werk beter te doen .
Schroepfer stelt dat de benadering die in RIO wordt gebruikt “ongelooflijk waardevol” is voor de naleving van EU-normen, en voegt eraan toe dat:
Omdat de aard van het probleem altijd meegroeit met de actualiteit, moeten onze systemen zich snel kunnen aanpassen als zich nieuwe problemen voordoen. Reinforcement learning is een krachtige aanpak om AI te helpen nieuwe uitdagingen aan te gaan wanneer er een tekort is aan goede trainingsgegevens.
In dit opzicht verwachten ze dat RIO in de loop van de tijd zal blijven helpen om haatzaaiende uitlatingen op het platform verder te verminderen.
Maar naast RIO, Facebook ze vervangen ook gepersonaliseerde systemen voor één doel door meer algemene, en zien “indrukwekkende verbeteringen” door het gebruik van multimodale AI-modellen, die met meerdere talen en meerdere soorten inhoud kunnen werken.
Schroepfer heeft ook verwezen naar ‘zero-shot’- en ‘few-shot’-leermodellen waarmee kunstmatige intelligentie inbreukmakende inhoud kan identificeren, zelfs als ze er nauwelijks of nooit een voorbeeld van hebben gehad.
Hij zei: “Zero-shot en few-shot learning is een van de vele geavanceerde AI-domeinen waar we aanzienlijke onderzoeksinvesteringen hebben gedaan, en we verwachten de resultaten in het komende jaar te zien.”