In een nogal onverwachte beweging, vier ‘frontier AI’-spelers hebben hun krachten gebundeld om de Frontier Model-forum, een nieuwe brancheorganisatie gericht op het waarborgen van de veilige en verantwoorde ontwikkeling van “frontier AI”-modellen. OpenAI, Microsoft, Google en Anthropic hebben zich verenigd om tegemoet te komen aan de groeiende behoefte aan regelgevend toezicht op het gebied van geavanceerde AI en machine learning.
De kern van de missie van het forum ligt in het concept van ‘frontier AI’, dat verwijst naar geavanceerde AI-modellen met mogelijkheden die zo krachtig zijn dat ze aanzienlijke risico’s voor de openbare veiligheid vormen. Het identificeren en verminderen van de mogelijke gevaren van dergelijke modellen is een complexe uitdaging, omdat hun gevaarlijke mogelijkheden naar voren kunnen komen onverwacht, waardoor het een uitdaging is om misbruik of onbedoelde gevolgen te voorkomen.
Het doel is om prioriteit te geven aan veiligheid in grensverleggende AI-modellen
De oprichtende leden van het Frontier Model Forum erkennen de urgentie van de zaak en hebben toegezegd zich te zullen ontwikkelen technische evaluaties, benchmarks en best practices. De coalitie is van plan om de expertise van haar aangesloten bedrijven te definiëren richtlijnen die zorgen voor een verantwoorde inzet van grensverleggende AI-modellen. Terwijl het forum momenteel uit vier bedrijven bestaat, ze staan open voor het uitnodigen van nieuwe leden die actief betrokken zijn bij het ontwikkelen en implementeren van grensverleggende AI-modellen en een sterke toewijding delen om de veiligheid van modellen te waarborgen.
In de beginfase zal het Frontier Model Forum worden opgericht een adviesraad om zijn strategische richting vorm te geven en zal creëren een charter, bestuursstructuur, En financieringskader. De bedrijven spreken ook hun intentie uit om met hen in gesprek te gaan het maatschappelijk middenveld en regeringen om input te zoeken over het ontwerp van het forum en mogelijkheden voor zinvolle samenwerking te verkennen.
Een van de onderliggende motivaties achter de oprichting van het Frontier Model Forum is demonstreren de toewijding van de AI-industrie om veiligheidsproblemen proactief aan te pakken. Het is duidelijk dat grote technologiebedrijven potentiële regelgevende maatregelen willen voorkomen door middel van vrijwillige initiatieven en een actieve rol willen spelen bij het vormgeven van de toekomst van AI-ontwikkeling op hun voorwaarden. Vanuit het perspectief van het Forum zijn hun kerndoelstellingen:
Het bevorderen van AI-veiligheidsonderzoek om verantwoorde ontwikkeling van grensverleggende modellen te bevorderen, risico’s te minimaliseren en onafhankelijke, gestandaardiseerde evaluaties van capaciteiten en veiligheid mogelijk te maken.
Best practices identificeren voor de verantwoorde ontwikkeling en inzet van frontier-modellen, om het publiek te helpen de aard, mogelijkheden, beperkingen en impact van de technologie te begrijpen.
Samenwerken met beleidsmakers, academici, maatschappelijke organisaties en bedrijven om kennis over vertrouwen en veiligheidsrisico’s te delen.
Ondersteuning van inspanningen om toepassingen te ontwikkelen die kunnen helpen de grootste uitdagingen van de samenleving het hoofd te bieden, zoals beperking van en aanpassing aan klimaatverandering, vroegtijdige opsporing en preventie van kanker en bestrijding van cyberdreigingen.
De aankondiging van het Frontier Model Forum volgt op de inspanningen van Europa om ‘s werelds eerste alomvattende AI-rulebook te creëren, gericht op het prioriteren van veiligheid, privacy, transparantie en non-discriminatie in door bedrijven ontwikkelde AI-systemen.
De opkomst van het forum valt ook samen met een bijeenkomst gehouden in het Witte Huis, waar president Biden met vertegenwoordigers van sprak zeven AI-bedrijven, waaronder de oprichters van het Frontier Model Forum. Tijdens de bijeenkomst hebben de deelnemende bedrijven zich gecommitteerd aan vrijwillige waarborgen als reactie op de aanhoudende AI-revolutie. Critici hebben dat echter betoogd deze toezeggingen missen specifieke details.
President Biden erkende het belang van het beheersen van de risico’s die samenhangen met AI en hintte naar de waarschijnlijkheid daarvan toekomstig regelgevend toezicht. Hij benadrukte de noodzaak van nieuwe wet- en regelgeving om het volledige potentieel van AI te realiseren en tegelijkertijd verantwoorde innovatie te waarborgen.
De markeringen van het Frontier Model Forum een cruciaal moment in de AI-industrie, terwijl grote spelers zich verenigen met een gemeenschappelijk doel om het traject van grensverleggende AI-ontwikkeling op verantwoorde wijze vorm te geven. Het samenkomen van de leidende bedrijven, terwijl ze ook met hand en tand met elkaar concurreren, lijkt zo een belangrijke manier om een gevoel van eenheid en vertrouwen te wekken in hun publiek. Echter, vergelijkbaar met de ontmoeting van Biden met de bedrijven, transparante en solide initiatieven van het MOB wordt verwacht dat ze daadwerkelijk vertrouwen in de bedrijven wekken.
Aangezien de technologie zich snel blijft ontwikkelen, zijn de inspanningen van het forum om zelfregulerend en samenwerkend met externe belanghebbenden betekenen een belangrijke stap in de richting van het bevorderen van het vertrouwen in AI en het wegnemen van de maatschappelijke zorgen over de potentiële risico’s van deze transformatieve technologie.
Naarmate de zorgen over de veiligheid en ethiek van AI-modellen toenemen, nemen ook de reacties toe. Bekijk FreeWilly, de gedurfde stap van Stability AI naar ethische AI-ontwikkeling om andere ontwikkelingen met betrekking tot het onderwerp te zien.
Uitgelichte afbeelding: Credit
Source: OpenAI, Google, Microsoft en Anthropic bundelen hun krachten om ‘frontier AI’s’ te reguleren