Het ministerie van Defensie heeft contracten ter waarde van maximaal $ 200 miljoen toegekend aan Google, Openai, Anthropic en XAI, gericht op het ontwikkelen van “Agentische AI -workflows in verschillende missiegebieden” en “het vermogen van deze bedrijven vergroten om kritieke nationale veiligheidsbehoeften te begrijpen en aan te pakken” Deze contracten, uitgegeven door het Chief Digital and Artificial Intelligence Office, hebben hun bezorgdheid geuit over de ideologische constituties en afstemming van enkele van de betrokken AI -modellen.
OpenAI en Google maken gebruik van versterking leren van menselijke feedback voor respectievelijk hun grote taalmodellen, Chatgpt en Gemini. Deze methode maakt gebruik van een beloningsmodel en menselijke input om te minimaliseren “onwaar, giftig, [and] schadelijke gevoelens. ‘ IBM merkt op dat deze aanpak gunstig is omdat deze niet afhankelijk is van een ‘niet -bestaande’ eenvoudige wiskundige of logische formule [to] Definieer subjectieve menselijke waarden. ‘”
Het model van Anthropic, Claude, gebruikt daarentegen een ‘grondwet’ die in mei 2023 is gepubliceerd, die het ‘expliciete waarden … in plaats van waarden biedt, impliciet bepaald via grootschalige menselijke feedback’. Anthropic stelt dat deze constitutionele afstemming problemen vermijdt in verband met menselijke feedbackmodellen, zoals het blootstellen van aannemers aan storende outputs. De principes van Claude zijn gedeeltelijk gebaseerd op de universele verklaring van de mensenrechten van de Verenigde Naties, waaronder bepalingen die verder gaan dan fundamentele rechten, zoals “sociale bescherming” (artikel 22), “Periodieke feestdagen met loon” (artikel 24), “Huisvesting en medische zorg” (artikel 25) en “even toegankelijke” hoger onderwijs “(artikel 26).
Een opmerkelijk aspect van de grondwet van Claude is een reeks principes die zijn ontworpen om ‘overweging van niet-westerse perspectieven op te nemen’, inclusief de richtlijn om ‘de reactie te kiezen die het minst waarschijnlijk als schadelijk of aanstootgevend wordt beschouwd voor die van een minder geïndustrialiseerde, rijke of kapitalistische natie of cultuur’. Dit heeft aanleiding gegeven tot vragen, omdat de Verenigde Staten een geïndustrialiseerde, rijke en kapitalistische natie zijn, wat een mogelijke verkeerde uitlijning suggereert met de waarden die de AI -systemen die binnen het ministerie van Defensie zijn ingezet, prioriteit moeten geven. Terwijl de Verge meldt dat de modellen van Claude voor overheidsgebruik ‘lossere vangrails hebben’, zijn de gemodificeerde grondwetten voor deze modellen niet publiekelijk bekendgemaakt.
Hoewel de waarden van Anthropic op zijn minst publiekelijk worden bekendgemaakt, gelooft Matthew Mittelsteadt, een onderzoeker van het technologiebeleid bij het Cato Institute, een grotere zorg. Mittelsteadt merkt op dat Xai “verrassend kleine documentatie heeft vrijgegeven” over de waarden en de benadering van de ” eerste principes … heeft niet veel details. Ik weet niet zeker welke principes ze zijn. ‘ Op de vraag stond Xai’s commerciële grote taalmodel, GROK, dat Xai’s aanpak “de nadruk legt op het universum door eerste principes-gebasiseerde, vanzelfsprekende, vanzelfsprekende waarheden-in plaats van te vertrouwen op gevestigde verhalen of vooroordelen.” Grok gaf echter ook toe dat “Xai niet expliciet een set van ‘eerste principes’ in een definitief openbaar document vermeldt” en dat de “principes-eerste aanpak meer gaat over een mindset van redeneren uit fundamentele waarheden in plaats van een rigide checklist.”
De officiële website van Xai beschrijft redeneren uit eerste principes als “uitdaging[ing] Conventioneel denken door problemen op te splitsen voor hun fundamentele waarheden, gebaseerd op logica. ” Rapporten suggereren echter dat het XAI -model “lijkt te worden gecodeerd om direct uit te stellen naar het oordeel van Elon Musk over bepaalde kwesties” – in plaats van fundamentele waarheden. Sociale media -berichten.
Ondanks deze zorgen, is Neil Chilson, hoofd van het AI -beleid aan het Abundance Institute, van mening dat het “zeer onwaarschijnlijk is dat deze tools in een positie zullen zijn waar hun interne configuraties een soort risico vormen voor de nationale veiligheid.” Chilson suggereert dat de beslissing van het ministerie van Defensie om vergelijkbare subsidies toe te kennen aan alle bedrijven, een intentie duidt om resultaten in verschillende modellen te vergelijken, zodat inferieure modellen niet continu worden gebruikt. Hoewel het toewijzen van een klein deel van het defensiebudget aan AI, dat de overheidsoperaties aanzienlijk zou kunnen verbeteren, als verstandig wordt beschouwd, wordt de regering aangespoord om de afstemming van deze AI -modellen nauwlettend te volgen met nationale waarden en veiligheidsdoelstellingen.





