Loading...
Viden om AI

Introduktion til AI-etik

AI-etik omfatter bestræbelser på at guide mennesker der udvikler og bruger AI-teknologi, til at handle på måder der reflekterer dominerende værdier og idealer. Det gøres ved at formulere regler og retningslinjer der skal guide praksis og som der kan sanktioneres på baggrund af (Hanna & Kazim, 2021).

AI-teknologier har på få år udvidet sin tilgængelighed og anvendelighed betragteligt hvilket betyder at disse teknologier kan påvirke mange menneskers liv og få samfundsmæssig betydning (Hagendorff, 2020). AI bruges fx i stigende grad i medicinsk diagnostik og behandling (Göndöcs & Dörfler, 2024) og til overvågning (Qandeel, 2024). Den stigende samfundsmæssige relevans ses også i det stigende antal videnskabelige udgivelser som er gået fra under 10 om året til hundredvis på under et årti (Borenstein, Grodzinsky, Howard, Miller, & Wolf, 2021).

Når man tænker på at AI-teknologier udvikles af mennesker ved at træne ’data’ vha. statiske metoder og maskinlæringsteknikker, bliver det klart at det ikke er en neutral eller uproblematisk ting at gøre. Etik er derfor afgørende at tage stilling til i alle faser af udviklingen og brugen af AI-teknologier.

Centrale etiske udfordringer ved AI

Der er stor forskel på hvordan forskellige samfund anskuer og håndterer etiske udfordringer knyttet til udviklinger af digital teknologi, inkl. AI. Hagerty and Rubinov (2019) observerer at det først og fremmest er den amerikanske markedsbaserede tilgang der er repræsenteret i forskningen efterfulgt at europæiske perspektiver. Her tager vi først og fremmest udgangspunkt i den europæiske kontekst hvor to formål dominerer diskursen og reguleringen på området: På den ene side konkurrencedygtighed og på den anden side opretholdelsen af et værdisæt der bygger på den europæiske humanistiske tradition (Hallamaa & Kalliokoski, 2022, p. 3).

Feldstein (2024, pp. 1053-1054) udpeger 6 områder der har særligt fokus i den europæiske politiske kontekst:

  • Dataindsamling uden samtykke
    • * AI-systemer trænes på store datamængder, inkl. i nogle tilfælde persondata
    • * Der mangler på nogle områder klare retningslinjer og gennemsigtighed.
  • Forudsigelser ved anvendelse af persondata
    • * Persondata analyseres og anvendes i en del tilfælde uden brugerne er oplyst eller har givet samtykke
    • * Det kan involvere profilering, udpegning af mistænkte osv.
  • Bias og fejl
    • * Analyser, inkl. klassificering, som har praktiske konsekvenser da de bruges til fx overvågning, bygger på data som er ufuldstændigt og kan være fejlbehæftet
    • * Bias i data som forstærkes, eller reproduceres, kan føre til diskrimination.
  • Ugennemsigtighed i algoritmers funktionalitet
    • * Kompleksiteten i AI-systemers algoritmer vanskeliggør brugernes bestræbelser på at gennemskue hvordan AI-systemer genererer output.
  • Målrettet og masse-overvågning
    • * Tracking og monitorering automatiseres i stigende grad
    • * Bevidsthed om dette kan føre til adfærdsændringer.
  • Håndtering af information
    • * Indhold på digitale medier monitoreres og modereres i stigende grad med hjælp fra AI-systemer
    • * For at raffinere metoderne, og minimere risikoen for at bryde med retten til at ytre sig ved at fjerne lovligt indhold, er der brug for større datamængder og mere komplekse algoritmer.
Regulering og lovgivning

EU Artificial Intelligence Act fra 2024 klassificerer AI-systemer i tre hovedkategorier baseret på deres risikoniveau. Først er der de uacceptable risici, som omfatter AI-systemer, der anses for at udgøre en betydelig trussel mod sikkerhed, sundhed eller grundlæggende rettigheder. Eksempler på sådanne systemer omfatter sociale scoringssystemer og manipulerende AI som er forbydes. Dernæst findes højrisiko AI-systemer, som er underlagt strenge reguleringer. Disse systemer kræver, at udviklere overholder specifikke forpligtelser for at sikre sikkerhed og ansvarlighed. Endelig er der begrænsede risici, hvor AI-systemer er underlagt lettere gennemsigtighedsforpligtelser. Det bør være gennemskueligt for brugerne når de interagerer med AI som det ses i tilfælde af chatbots og deepfakes. Minimal risiko dækker AI-applikationer såsom AI-drevne videospil og spamfiltre der ikke er regulerede.

Udviklere af højrisiko AI-systemer har en række forpligtelser, der skal overholdes for at sikre at deres systemer er sikre og ansvarlige. De skal etablere et risikostyringssystem der er til stede gennem hele udviklings- og brugscyklussen for AI-systemer i højrisikokategorien. Desuden skal de sikre at trænings-, validerings- og testdatasæt er relevante, tilstrækkeligt repræsentative og så fejlfri som muligt. Udviklerne skal også udarbejde teknisk dokumentation der demonstrerer overholdelse af lovens krav og giver myndighederne de nødvendige oplysninger til at vurdere denne overholdelse. AI-systemet skal designes til automatisk at registrere relevante hændelser der kan identificere nationale risici og væsentlige ændringer. Derudover skal udviklerne give klare instruktioner til de dataansvarlige i virksomheden for at sikre, at de kan overholde lovens krav, samt designe systemet, så der kan implementeres menneskelig overvågning.

Leverandører af AI-modeller har også specifikke forpligtelser under AI-loven. Alle AI-modelleleverandører skal tilvejebringe teknisk dokumentation og brugsanvisninger, så brugerne forstår, hvordan de korrekt anvender AI-systemet. De skal desuden overholde ophavsretsdirektivet og sikre at de respekterer ophavsret når de bruger data til træning af deres modeller. Det er også et krav at leverandørerne offentliggør en oversigt over det indhold der er brugt til træning af deres modeller. Hvis AI-modellen præsenterer en systemisk risiko, skal leverandørerne udføre modelvurderinger og modstandsdygtighedstest samt rapportere alvorlige hændelser til de relevante myndigheder. Disse forpligtelser er designet til at sikre, at GPAI-modeller anvendes ansvarligt og sikkert, især når de præsenterer systemiske risici.

Dansk national strategi for kunstig intelligens

Danmark har en national strategi for kunstig intelligens der udkom i 2019. Strategien indeholder 6 etiske principper:

  • 1. Selvbestemmelse
    • * Prioritering af menneskers autonomi
  • 2. Værdighed
    • * AI skal understøtte retssikkerhed og må ikke krænke grundlæggende rettigheder
    • * AI skal respektere demokratiet og demokratiske processer
  • 3. Ansvarlighed
    • * Alle relevante beslutningstagere skal kunne stilles til ansvar, dvs. udviklere, samarbejdspartnere, anvendere, myndigheder og virksomheder.
  • 4. Forklarlighed
    • * Man skal kunne spore og forklare beslutninger og beslutningsunderstøttelse truffet med AI.
  • 5. Lighed og retfærdighed
    • * Der arbejdes på at mindske uønsket bias. Demografisk og faglig diversitet bør være en rettesnor.
    • * Bevidsthed om dette kan føre til adfærdsændringer.
  • 6. Udvikling
    • * Der bør skabes tekniske og organisatoriske løsninger, der understøtter etisk ansvarlig udvikling og anvendelse af kunstig intelligens for at opnå størst muligt fremskridt for samfundet

Strategien beskriver ligeledes en række initiativer der addresserer forskellige udfordringer, herunder understøttelsen af etisk ansvarlighed, it-sikkerhed, juridisk klarhed, øget tilgængelighed af relevante og danske data, udviklingen af danske løsninger og danske aftryk inden for kunstig intelligens.

Etiske udfordringer ved AI-etik

AI-etik kan ses som et aspekt af digital etik mere generelt (Hanna & Kazim, 2021). Historiske og filosofiske perspektiver på digital etik og AI-etik specifikt påpeger at der mangler et filosofisk fundament (Casiraghi, 2023; Hanna & Kazim, 2021), at der er en uoverensstemmelse mellem de formulerede etiske principper og reguleringer og brugernes praksis, og at institutionaliseringen og politiseringen af AI-etik først og fremmest tilpasses virksomheders agendaer (Munn, 2023), herunder at legitimere udrulningen af teknologiske udviklinger. Det påpeges desuden at udmøntningen af AI-etik i regler og reguleringer omfatter risikoen for at simplificere og objektivisere etik og dermed skabe bias inden for det etiske område frem for at skabe muligheder for øget inklusion og diskussioner af etiske og moralske spørgsmål hvad angår brugen af AI (Casiraghi, 2023).

Referencer

Borenstein, J., Grodzinsky, F. S., Howard, A., Miller, K. W., & Wolf, M. J. (2021). AI ethics: A long history and a recent burst of attention. Computer, 54(1), 96-102.

Casiraghi, S. (2023). Anything new under the sun? Insights from a history of institutionalized AI ethics. Ethics and Information Technology, 25(2), 28.

Feldstein, S. (2024). Evaluating Europe's push to enact AI regulations: how will this influence global norms? Democratization, 31(5), 1049-1066.

Göndöcs, D., & Dörfler, V. (2024). AI in medical diagnosis: AI prediction & human judgment. Artificial Intelligence in Medicine, 149, 102769.

Hagendorff, T. (2020). The ethics of AI ethics: An evaluation of guidelines. Minds and Machines, 30(1), 99-120.

Hagerty, A., & Rubinov, I. (2019). Global AI ethics: a review of the social impacts and ethical implications of artificial intelligence. arXiv preprint arXiv:1907.07892.

Hallamaa, J., & Kalliokoski, T. (2022). AI ethics as applied ethics. Frontiers in Computer Science, 4, 776837.

Hanna, R., & Kazim, E. (2021). Philosophical foundations for digital ethics and AI Ethics: a dignitarian approach. AI and Ethics, 1(4), 405-423.

Munn, L. (2023). The uselessness of AI ethics. AI and Ethics, 3(3), 869-877.

Qandeel, M. (2024). Facial recognition technology: regulations, rights and the rule of law. Frontiers in Big Data, 7, 1354659.

Læs om hvordan man prompter strategisk