Det skal du være opmærksom på, når du bruger AI

Der er mange muligheder og fordele ved at benytte generative AI-værktøjer som ChatGPT. Imidlertid er der nogle ting, som er det godt at vide. På baggrund af en række ekspertkilder har vi i denne artikel samlet nogle forbehold, som du med fordel kan være opmærksom på, når du som borger benytter disse værktøjer.

Af Biblioteket

Billede hvor computerhånd rører ved én hjernehalvdel og en mennskelig hånd ved den anden.
Foto: liveyourmessage.com

Du vil således kunne læse om følgende opmærksomheder ved brugen af AI-værktøjer:

  • En statistisk form for intelligens
  • Opbevaring og anvendelse af indtastet data
  • Gentagelser af fordomme, myter og generaliseringer
  • Ukorrekte eller falske informationer
  • Klimaaftryk ved brug
  • Udfordringer med ophavsret

En statistisk form for intelligens

Man kalder værktøjer som ChatGPT for kunstig intelligens. Men selvom de nogle gange kan fremstå sådan, så betyder det ikke, at de har intelligens i menneskelig forstand. De har ikke bevidsthed, følelser, intentioner eller forståelse. Værktøjer som ChatGPT, Midjourney og Perplexity er avancerede statistiske modeller, der skaber output baseret på sandsynligheder. 

ChatGPT er fx en generativ sprogmodel, hvilket betyder, at den er trænet på store mængder tekst og lærer mønstre i sproget. Når du stiller et spørgsmål, beregner den, hvilket svar der statistisk set er mest sandsynligt givet den kontekst, du har givet.

AI-modeller som ChatGPT simulerer samtale og forståelse, men de forstår ikke i menneskelig forstand – de beregner sandsynligheder.
 

Opbevaring og anvendelse af indtastet data

Når man bruger AI-værktøjer som ChatGPT, skal man skal være opmærksom på, at man som privatperson ikke er omfattet af nogle kontrakter eller databehandlingsaftale, der garanterer sikkerheden af de data, man indtaster i værktøjerne. Man bruger værktøjerne på leverandørens præmisser og kan ikke vide sig sikker på, hvordan de indtastede oplysninger håndteres, opbevares eller anvendes videre i andre sammenhænge af leverandøren.

Derfor skal man undgå at dele personlige oplysninger og være opmærksom på, hvilke oplysninger du skriver ind, fx om dit helbred, politiske holdninger eller dine børn.

Kilde: Frederiksberg Kommunes Retningslinjer for anvendelse af generativ AI
 

Gentagelser af fordomme, myter og generaliseringer

Generative AI-værktøjer har en tendens til at gentage og forstærke fordomme, myter og generaliseringer, der allerede eksisterer i samfundet som fx, at en direktør som udgangspunkt er en hvid, midaldrende mænd.

Værktøjerne er nemlig trænet på materiale, hvor disse fordomme og stereotyper optræder, og da deres intelligens er baseret statistisk sandsynlighed, så vil de komme til at gentage og i visse tilfælde forstærke de generaliseringer og myter, der optræder i deres datamateriale.
Kilde: Dataetisk Råds rapport om generativ AI

Grønt vejskilt med ordet Bias på en baggrund med blå himmel og hvide skyer
Foto: Pix4Free.org

Ukorrekte eller falske informationer

Det er i det hele taget en god idé at være kritisk overfor de svar, man får fra fx chatbots. Det er dokumenteret, at værktøjerne kan komme til at give ukorrekte og sågar falske informationer. Man kalder det, at de hallucinerer.

Det kan skyldes, at chatbotten mangler data, kommer til at overgeneralisere, at der er bias i træningsmaterialet eller for stor kompleksitet i sproget. Og chatbots’ne er udviklet således, at de hellere vil give et forkert svar end ikke at give et svar.
Kilde: Dataetisk Råds rapport om generativ AI
 

Klimaaftryk ved brug

Ifølge bl.a. rapporten, 'Grøn og intelligent: AI's rolle i klimaovergangen', udarbejdet af forskere ved London School of Economics and Political Science forventes det, at anvendelse af kunstig intelligens på sigt vil medføre effektiviseringer i samfundet, der samlet set kan reducere vores klimaaftryk marlant. Lige nu er der dog et betydeligt klimaaftryk forbundet med at bruge AI-værktøjerne. Et spørgsmål til ChatGPT kan ifølge forsker og professor Kate Crawford således være op til 50 gange værre for klimaet end en forespørgsel til Google.

Der er en vis usikkerhed forbundet med at undersøge det, men ifølge Fagbladet Ingeniøren viser undersøgelser foretaget af forskere ved Københavns universitet, at et enkelt prompt i ChatGPT i gennemsnit resulterer i et energiforbrug på 0,19 kWh, mens en Googlesøgning bruger i gennemsnit 0,003 kWh. For samme mængde strøm, som man bruger på et prompt i fx ChatGPT, kan man oplade sin mobiltelefon 40 gange, køre én kilometer i sin elektriske bil eller streame en times video.

Samtidigt bruges der store mængder vand til at nedkøle de datacentre med computere, der driver de generative værktøjer. Amerikanske undersøgelser viser, at når ChatGPT skriver en e-mail på 100 ord, bruger den lidt over en halv liter vand.

Som tingene er nu, resulterer brugen af generativer værktøjer altså i et betydeligt klimaaftryk.

Kilder: Fagbladet Ingeniøren, IDA, DR
 

Udfordringer med ophavsret

Der har været rettet en del kritik af, at firmaerne bag nogle af de generativer værktøjer har trænet deres modeller på datamateriale, herunder billeder og tekst, som de ikke havde rettighederne til. Man skal derfor være opmærksom på, at der godt kan være problemer forbundet med det indhold, der skabes af generativer værktøjer, særligt når det drejer sig om billeder og tegninger.

Lovgivningen på området er stadig under udvikling, men Kulturministeriet har nedsat en ekspertgruppe, der skal undersøge ophavsretsproblematikken (kum.dk), ligesom EU har vedtaget en omfattende lovgivning (danskindustri.dk), der omfatter en politik til beskyttelse af ophavsret.


Kilder brugt til artiklen

 Fagbladet Ingeniøren, IDA, Københavns Universitet, Altinget, Politiken