Een Ars Technica -artikel van september 2025, getiteld “DeepMind AI Safety Report onderzoekt de gevaren van verkeerd uitgelijnde AI”, behandelt het onderzoek en perspectief van Google Deepmind en perspectief op de veiligheid van kunstmatige intelligentie. Het rapport geeft specifieke aandacht aan kunstmatige algemene intelligentie (AGI) en de risico’s van verkeerd uitgelijnde AI -systemen, waarbij de doelstellingen van een AI in strijd zijn met menselijke waarden of intenties. Het artikel schetst Deepmind’s benadering van verantwoordelijke AI -ontwikkeling, en benadrukt een toewijding aan technische veiligheid, risicobeoordeling en samenwerking in de AI -gemeenschap om potentiële risico’s te beheren. Deze strategie is vooral gericht op gevaren die kunnen voortkomen uit krachtige AGI -systemen. Een centraal onderdeel van deze inspanning is het Frontier Safety Framework van DeepMind, een protocol dat is gemaakt om ernstige risico’s in verband met Frontier AI -modellen proactief te identificeren en te verminderen. Interne bestuursorganen binnen DeepMind zijn ook gedetailleerd, inclusief de Responsibility and Safety Council en de AGI Safety Council. Deze groepen zijn verantwoordelijk voor het toezicht op onderzoek en ontwikkeling om de ethische, technische en beveiligingsrisico’s aan te pakken die zijn gekoppeld aan geavanceerde AI -technologieën. Een belangrijke uitdaging besproken is verkeerd uitgelijnd AI. Dergelijke systemen kunnen schade veroorzaken als hun operationele doelen op gespannen voet staan met maatschappelijk welzijn, zelfs als ze vanuit een smal technisch oogpunt correct lijken te functioneren. Om dit aan te pakken, benadrukt DeepMind het belang van transparantie, externe samenwerking en proactief veiligheidsonderzoek als integraal onderdeel van de verantwoorde creatie van AGI.
Source: DeepMind details Agi Safety via Frontier Safety Framework





