In een belangrijke ontwikkeling voor wetshandhaving wordt kunstmatige inlichtingen (AI) in toenemende mate aangenomen door politie -afdelingen in de Verenigde Staten om het proces van het opstellen van politierapporten te stroomlijnen. Officier Scott Brittingham van de Fort Collins, Colorado, politie-afdeling, aanvankelijk sceptisch tegenover nieuwe technologieën, heeft zijn rapport gevonden dat het schrijven van de tijd dramatisch verlaagde van 45 minuten tot slechts 10 minuten door gebruik te maken van een AI-aangedreven software genaamd Draft One. Met deze efficiëntie kunnen officieren meer tijd besteden aan het reageren op oproepen tot service en proactief voorkomen van criminaliteit.
Draft One, ontwikkeld door wetshandhavingstechnologiebedrijf Axon, dat ook Tasers en bodycamera’s produceert, is ontworpen om initiële concepten van politierapporten te creëren. Axon meldt dat Draft One zijn snelstgroeiende product is geworden sinds de lancering in 2024. Het concept voor Draft One is rechtstreeks voortgekomen uit de personeelstekorten waarmee politiediensten landelijk worden geconfronteerd. Uit een enquête van 2024 door de International Association of Chiefs of Police bleek dat agentschappen gemiddeld ten minste 10% onder hun geautoriseerde personeelsbestand werkten. Josh Isner, president van Axon, verklaarde: “Het grootste probleem in de openbare veiligheid is op dit moment inhuren. Je kunt niet genoeg politieagenten inhuren. Alles wat een politie kan aannemen om ze efficiënter te maken, is op dit moment een soort van de naam van het spel.”
De opkomst van AI in het genereren van politierapport is niet zonder zijn critici. Juridische experts en voorstanders van burgerrechten hebben grote bezorgdheid geuit over mogelijke vooroordelen, onnauwkeurigheden en transparantiekwesties die inherent zijn aan AI-aangedreven rapporten. Deze zorgen zijn met name opvallend gezien de cruciale rol die politierapporten spelen in het strafrechtsproces, die beslissingen van officieren van justitie, advocaten en rechters beïnvloeden. Andrew Guthrie Ferguson, een professor in de Amerikaanse universiteit die gespecialiseerd is in technologie en politie, benadrukte dat “politierapporten echt een verantwoordingsmechanisme zijn. Het is een rechtvaardiging voor de staatsmacht, voor politiemacht.”
Draft One werkt door gebruik te maken van transcripties van bodycamerabeelden om rapportopdrachten binnen enkele seconden na het verzoek van een officier te genereren. De software vraagt de officier vervolgens om het concept te beoordelen en te bewerken, waardoor de lege spaties zijn ontworpen om een grondige beoordeling en correctie van potentiële fouten of de toevoeging van ontbrekende informatie te garanderen. Axon -president Josh Isner bevestigde: “Het moet echt het eigen rapport van de officier zijn aan het einde van de dag, en ze moeten aftekenen wat er is gebeurd.” Het AI -model dat wordt gebruikt door Draft One is een aangepaste versie van Openai’s Chatgpt, die Axon verder heeft getraind om “hallucinaties” te verminderen – feitelijke fouten die AI -systemen willekeurig kunnen genereren. Axon werkt ook samen met een groep externe academici, voorstanders van restauratieve rechtvaardigheid en gemeenschapsleiders om feedback te verzamelen voor de ontwikkeling van verantwoordelijke technologie en vooringenomenheid.
Voorbij Fort Collins, politie -afdelingen in Lafayette, Indiana; Tampa, Florida; en Campbell, Californië, hebben ook concept één overgenomen. In Fort Collins startte technologie -sergeant Bob Younger een pilootprogramma met ongeveer 70 officieren na een dwingende demonstratie van de tool. Hij merkte op: “Ik werd weggeblazen over de kwaliteit van het rapport, de nauwkeurigheid van het rapport en hoe snel het gebeurde. Ik dacht bij mezelf:” Dit is een kans die we niet kunnen loslaten. “” De politie van Fort Collins heeft sindsdien de toegang tot alle officieren uitgebreid en schattingen dat de schattingen van het rapport van het schrijven van het rapport van bijna 70%met bijna 70%hebben teruggegeven.
Ondanks positieve feedback van sommige officieren van justitie is het gebruik van AI in politierapporten weerstand ondervonden. In september 2024 besloot het officier van justitie in King County, Washington, niet te accepteren dat AI-opgestelde politierapporten. In een e -mail aan politiechefs gaven ze hun bezorgdheid uit dat het gebruik van de tool “waarschijnlijk ertoe zou leiden dat veel van uw officieren Axon opgesteld verhalen met onbedoelde fouten in hen goedkeuren.” Axon heeft gereageerd door zijn toewijding aan continue samenwerking met verschillende belanghebbenden te beweren om de verantwoorde evolutie van ontwerp één te begeleiden en verklaarde dat het AI -model “gekalibreerd is” om speculatie of verfraaiingen te minimaliseren. “
De American Civil Liberties Union (ACLU) heeft ook publiekelijk aanbevolen tegen het gebruik van ontwerp één. Jay Stanley, een beleidsanalist bij het ACLU Speech Privacy and Technology Project, verklaarde: “Wanneer u ziet dat deze gloednieuwe technologie op sommige manieren wordt ingevoegd in het hart van het strafrechtssysteem, dat al vol zit met onrechtvaardigheid en vooringenomenheid, enzovoort, is het absoluut iets dat we rechtop zitten en een goede kijk.” Bezorgdheid omvat het potentieel voor fouten in bodycamerabeelden transcripties als gevolg van accenten of de afwezigheid van non-verbale signalen die van invloed zijn op de nauwkeurigheid van door AI gegenereerde rapporten. Hoewel ontwerp één automatisch blanco velden bevat om de beoordeling van de officier aan te stellen, is het mogelijk om een rapport in te dienen zonder wijzigingen aan te brengen in het door AI gegenereerde concept. Bovendien, zodra een rapport is ingediend, wordt het originele AI-gegenereerde ontwerp niet opgeslagen, waardoor het vermogen wordt uitgesloten om te beoordelen wat een officier wel of niet heeft veranderd, bootst een praktijk axon-staten na, handgeschreven rapportprocessen.
Een aanzienlijk transparantieprobleem draait om de vraag of beklaagden worden geïnformeerd dat het politierapport in hun zaak door AI is opgesteld. De uiteindelijke rapporten van het concept bevatten standaard een aanpasbare disclaimer, die AI -assistentie aangeeft, maar afdelingen hebben de optie om deze functie uit te schakelen. De politie van Fort Collins bevat bijvoorbeeld geen disclaimers op zijn door AI gegenereerde rapporten. Ferguson pleit echter voor “radicale transparantie” als de beste praktijk, een sentiment weergalmde in Utah, waar wetgevers eerder dit jaar een wet aannamen die politiediensten verplicht om dergelijke disclaimers op te nemen op definitieve AI-op AI op AI-gerelateerde rapporten.
Uiteindelijk worden AI -tools zoals Draft One gezien als aids in plaats van vervangingen voor menselijke officieren. Officier Brittingham concludeerde: “Mijn algemene indruk is dat het een hulpmiddel is als iets anders. Het is niet de oplossing. Het vervangt ons niet om rapporten te schrijven. Het is gewoon een hulpmiddel om ons te helpen bij het schrijven van rapporten.” Aangezien AI blijft integreren in verschillende facetten van de samenleving, vereist de toepassing ervan op gevoelige gebieden zoals wetshandhaving een zorgvuldige overweging van de voordelen, beperkingen en ethische implicaties om verantwoordelijkheid te waarborgen en het publiek vertrouwen te behouden.
Source: AI verkort de politierapporttijd van 45 tot 10 minuten





