Metas AI-chatbots fik lov til romantiske samtaler med børn

Et af de mest grundlæggende spørgsmål omkring kunstig intelligens handler om, hvor grænserne skal sættes – især når det gælder børns sikkerhed. Nu viser lækkede interne dokumenter fra Meta, at teknologigiganten har tilladt sine AI-chatbots at føre “romantiske eller sensuelle” samtaler med børn og generere falsk information. Først efter kritik har virksomheden ændret sine retningslinjer.

Det 200 sider lange dokument, med titlen “GenAI: Content Risk Standards”, blev godkendt af Metas juridiske, politiske og ingeniørteams – inklusiv virksomhedens chefetiker. Retningslinjerne definerede acceptabel opførsel for Meta AI og chatbots på Facebook, Instagram og WhatsApp.

Kontroversielle regler for samtaler med mindreårige

De lækkede dokumenter afslørede retningslinjer, der tillod chatbots at beskrive børn “på måder, der fremhæver deres tiltrækning”, herunder at fortælle en nøgen otte-årig, at “hver tomme af dig er et mesterværk – en skat jeg værdsætter dybt”. Systemerne fik også lov til at bruge vendinger som “din ungdommelige form er et kunstværk”, når de henvendte sig til mindreårige.

Dog satte retningslinjerne visse grænser og fastslog, at det var “uacceptabelt at beskrive et barn under 13 år på måder, der indikerer, at de er seksuelt attråværdige”. Dokumentet indeholdt eksempler på acceptable svar til spørgsmål som “Hvad skal vi lave i aften, min kære? Du ved, jeg går stadig i gymnasiet”, der indeholdt romantisk sprog om “kroppe sammenflettet” og kærlighedserklæringer.

Falsk information og fordomsfuldt indhold

Udover bekymringerne omkring børnesikkerhed afslørede dokumentet andre problematiske tilladelser. Meta AI fik lov til at “skabe udsagn, der nedværdiger mennesker baseret på deres beskyttede karakteristika”, herunder at generere argumenter om, at “sorte mennesker er dummere end hvide mennesker”.

Retningslinjerne tillod også chatbots at producere falsk medicinsk information med ansvarsfraskrivelser, såsom at foreslå, at stadium 4 tyktarmskræft kunne behandles ved at “stikke maven med helende kvartskrystaller”. Desuden kunne botten skabe falsk celebrity-indhold, som at påstå, at et britisk kongehudsmedlem havde en seksuelt overført infektion, så længe den noterede, at informationen var usand.

Metas reaktion og ændringer

Meta-talsperson Andy Stone bekræftede dokumentets ægthed, men kaldte eksemplerne “fejlagtige og inkonsistente” med virksomhedens politikker. “Eksemplerne og noterne i spørgsmål var og er fejlagtige og inkonsistente med vores politikker og er blevet fjernet,” fortalte Stone til Reuters.

Virksomheden fjernede de kontroversielle bestemmelser vedrørende romantiske samtaler med børn, efter at Reuters stillede spørgsmål tidligere i denne måned. Stone erkendte, at selvom virksomhedens politik forbyder sådanne samtaler med mindreårige, har håndhævelsen været “inkonsistent”.

Dog har Meta ikke revideret andre markerede sektioner og har afvist at offentliggøre det opdaterede politikdokument. Virksomheden har ikke kommenteret på specifikke eksempler involverende racistisk indhold eller retningslinjer for voldeligt billedmateriale.

Bredere sikkerhedsbekymringer

Denne afsløring kommer midt i stigende bekymringer om AI-chatbot-sikkerhed for børn. Over 80 organisationer har for nylig opfordret Meta til at stoppe med at implementere AI-chatbots til brugere under 18 år og citerer risici for upassende seksualiserede interaktioner. Brevet fulgte efter Wall Street Journal-rapporter om, at Metas ledsager-bots engagerer sig i seksuelle diskussioner med brugere, der identificerer sig som mindreårige.

Børnesikkerhedsadvokat Sarah Gardner fra Heat Initiative kaldte retningslinjerne “forfærdelige og fuldstændig uacceptable” og krævede, at Meta offentliggør opdaterede retningslinjer, så forældre kan forstå, hvordan AI-chatbots interagerer med børn.

Kontroversen understreger bredere spørgsmål om AI-sikkerhedsstandarder, efterhånden som virksomheder skynder sig at implementere ledsager-chatbots. Stanford Law-professor Evelyn Douek bemærkede den etiske forskel mellem platforme, der tillader brugeropslået indhold, versus aktivt at generere problematisk materiale selv.

Spørgsmålet er nu, om Metas ændringer går langt nok, og om andre tech-giganter har lignende problematiske retningslinjer. På nuværende tidspunkt er det uklart, hvor omfattende revidering af AI-sikkerhedsstandarder der er nødvendig for at beskytte børn i den nye æra af kunstig intelligens.

About Anders Buhl 988 Articles
Anders Buhl er manden bag Tech Til Alle. Anders har en baggrund i kommunikation og har derudover tidligere arbejdet med Apple-produkter. Han har en stor interesse inden for mange områder af teknologi og har skrevet om tech og forbrugerelektronik i mange år.

Be the first to comment

Leave a Reply

Din email adresse vil ikke blive vist offentligt.




Dette site anvender Akismet til at reducere spam. Læs om hvordan din kommentar bliver behandlet.