AI i Kriminalforsorgen: New Zealand afslører Copilot-misbrug med følsomme data

En opsigtsvækkende sag fra New Zealand sætter nu fokus på de etiske dilemmaer og sikkerhedsudfordringer, der opstår, når kunstig intelligens (AI) møder personfølsomme data i offentlige institutioner. New Zealands kriminalforsorg har måtte slå alarm, efter det er kommet frem, at ansatte har brugt AI-værktøjer til at udarbejde fortrolige rapporter, hvilket strider mod gældende retningslinjer.

Misbrug af Microsoft Copilot: En bekymrende udvikling

Kernepunktet i sagen er ansattes anvendelse af Microsoft Copilot til at generere rapporter, herunder “Extended Supervision Order reports”. Disse rapporter er kritiske og indeholder ofte dybt personlige og fortrolige informationer om borgere under kriminalforsorgens administration. Selvom kriminalforsorgen bekræfter, at kun Microsoft Copilot er godkendt til brug, og alle andre offentligt tilgængelige AI-applikationer er blokeret, er der identificeret flere tilfælde af ukorrekt brug. Dette på trods af, at kun omkring 30 procent af personalet har benyttet Copilot siden introduktionen i november 2025.

Stramning af retningslinjer og potentielle konsekvenser

Toni Stewart, chef for New Zealands kriminalforsorg, understreger alvoren af situationen og udtaler, at “enhver misbrug af teknologi tages ekstremt alvorligt”. Som et direkte svar på hændelserne er kriminalforsorgens AI-politik blevet præciseret og strammet op i overensstemmelse med regeringens digitale retningslinjer. Politikken dikterer specifikt:

  • Personlige informationer, herunder identificerende detaljer, helbredsoplysninger eller informationer om personer under kriminalforsorgens administration, må ikke indtastes i Copilot Chat.
  • Copilot Chat må under ingen omstændigheder anvendes til at udarbejde, strukturere, analysere eller generere indhold til rapporter eller vurderinger, der indeholder personlige oplysninger.
  • Ansatte kan blive genstand for audit, da alle prompts er søgbare og kan eksporteres, hvilket understreger gennemsigtigheden og ansvaret.

Efter afsløringerne er der iværksat en privatlivsrisikovurdering, og ledere i Community Corrections-afdelingen arbejder aktivt på at sikre korrekt AI-brug og minde personalet om de gældende politikker.

Proaktivt tilsyn og privatlivsbeskyttelse i AI-æraen

Kriminalforsorgen forsikrer, at de arbejder proaktivt for at sikre, at AI-anvendelsen er “sikker, tryg og passende”. Dette inkluderer etableringen af en AI-sikkerhedsansvarlig (direktøren for cybersikkerhed) og deltagelse i tværministerielle og interne arbejdsgrupper, der skal sikre etisk og sikker AI-praksis. Kontoret for Privatlivskommissionen (OPC) har understreget, at privatlivsloven naturligvis gælder for brug af personlige oplysninger, også via AI-værktøjer. OPC forventer, at myndigheder fuldt ud forstår den teknologi, de implementerer, og sikrer, at privatlivskravene overholdes. Indtil videre er der ikke indgivet formelle underretninger til OPC vedrørende disse hændelser.

Denne sag fra New Zealand er en skarp påmindelse om den kritiske balance mellem teknologisk innovation og nødvendigheden af robuste databeskyttelsesforanstaltninger, især i sektorer, der håndterer borgernes mest følsomme personoplysninger. Det understreger vigtigheden af klare retningslinjer, løbende uddannelse og strengt tilsyn med AI-værktøjer i den offentlige sektor.

Kilde: https://www.rnz.co.nz/news/national/586932/corrections-takes-action-against-staff-s-unacceptable-use-of-artificial-intelligence

About Anders Buhl 1033 Articles
Anders Buhl er manden bag Tech Til Alle. Anders har en baggrund i kommunikation og har derudover tidligere arbejdet med Apple-produkter. Han har en stor interesse inden for mange områder af teknologi og har skrevet om tech og forbrugerelektronik i mange år.

Be the first to comment

Leave a Reply

Din email adresse vil ikke blive vist offentligt.




Dette site anvender Akismet til at reducere spam. Læs om hvordan din kommentar bliver behandlet.