Sæt AI-udvikling på pause eller risikere katastrofe, advarer Elon Musk

Kunstig intelligens (AI) har bevæget sig med en utrolig hastighed i de seneste måneder, med lanceringen af forskellige værktøjer og bots såsom OpenAIs ChatGPT, Google Bard og mere. Alligevel vækker denne hurtige udvikling alvorlig bekymring blandt erfarne veteraner inden for AI-området – så meget, at over 1.000 af dem har underskrevet et åbent brev, hvor de opfordrer AI-udviklere til at slå på bremsen.

Brevet blev offentliggjort på hjemmesiden for Future of Life Institute, en organisation, hvis erklærede mission er “at styre transformativ teknologi mod at gavne livet og væk fra ekstreme risici i stor skala.” Blandt underskriverne er adskillige prominente akademikere, Apples medstifter Steve Wozniak og Twitter CEO Elon Musk.

Artiklen opfordrer alle virksomheder, der arbejder på AI-modeller, der er kraftigere end den nyligt udgivne GPT-4, til øjeblikkeligt at stoppe arbejdet i mindst seks måneder. Denne midlertidig suspendering bør være “offentlig og verificerbar” og vil give tid til “i fællesskab at udvikle og implementere et sæt fælles sikkerhedsprotokoller for avanceret AI-design og -udvikling, som er strengt revideret og overvåget af uafhængige eksterne eksperter.”

Brevet siger, at dette er nødvendigt, fordi “AI-systemer med menneskelig konkurrencedygtig intelligens kan udgøre dybe risici for samfundet og menneskeheden.” Disse risici omfatter spredning af propaganda, ødelæggelse af arbejdspladser, potentiel erstatning og forældelse af menneskeliv og “tab af kontrol over vores civilisation.” Forfatterne tilføjer, at beslutningen om, hvorvidt man skal gå videre ind i denne fremtid, ikke bør overlades til “ikke-valgte teknologiske ledere.”

AI “til klar fordel for alle”

Brevet kommer lige efter, at der blev fremsat påstande om, at GPT-5, den næste version af den teknologi, der driver ChatGPT, kunne opnå kunstig generel intelligens. Hvis det er korrekt, betyder det, at den ville være i stand til at forstå og lære alt, hvad et menneske kan forstå. Det kunne gøre den utrolig stærk på måder, der endnu ikke er blevet fuldt ud undersøgt.

Hvad mere er, hævder brevet, at der ikke sker ansvarlig planlægning og ledelse omkring udviklingen af AI-systemer, “de seneste måneder har set AI-laboratorier været i kapløb om at udvikle og implementere stadig mere kraftfulde digitale hjerner, som ingen – ikke engang deres skabere – kan forstå, forudsige eller pålideligt kontrollere.”

I stedet hævder brevet, at der skal skabes nye styringssystemer, der vil regulere AI-udvikling, hjælpe folk med at skelne AI-skabt og menneskeskabt indhold, holde AI-laboratorier ansvarlige for enhver skade, de forårsager, sætte samfundet i stand til at klare AI-forstyrrelser (især for at demokrati) og meget mere.

Forfatterne slutter med en positiv tone og hævder, at “menneskeheden kan nyde en blomstrende fremtid med kunstig intelligens … hvor vi høster frugterne, konstruerer disse systemer til klar fordel for alle og giver samfundet en chance for at tilpasse sig.” At trykke på pause på AI-systemer, der er stærkere end GPT-4, ville tillade dette at ske, fastslår de.

Vil brevet have sin tilsigtede virkning? Det er svært at sige. Der er klart incitamenter for AI-laboratorier til at fortsætte med at arbejde på avancerede modeller, både økonomiske og omdømmemæssige. Men med så mange potentielle risici – og med meget lidt forståelse af dem – føler brevets forfattere tydeligvis, at disse incitamenter er for farlige til at forfølge.

About Anders Buhl 970 Articles
Anders Buhl er manden bag Tech Til Alle. Anders har en baggrund i kommunikation og har derudover tidligere arbejdet med Apple-produkter. Han har en stor interesse inden for mange områder af teknologi og har skrevet om tech og forbrugerelektronik i mange år.

Be the first to comment

Leave a Reply

Din email adresse vil ikke blive vist offentligt.




This site uses Akismet to reduce spam. Learn how your comment data is processed.