Kunstig intelligens kommer til at forandre, hvordan vi arbejder. Men det stiller også store krav til virksomhedernes etik, data og nysgerrighed, lyder det fra eksperter.
Af Martin Flink
Kæberne ramte jorden hos stort set alle med en internetforbindelse, da virksomheden Open AI i det sene efterår 2022 introducerede ChatGPT. Med enkle spørgsmål kunne brugerne på få sekunder få svar på højt niveau på nærmest alt, hvad de kunne tænke sig.
Nu var det slut med at Google-søgninger, hvor man måske kunne finde et svar og læse videre ned i dynger af bøger og rapporter: ChatGPT gav svaret. Potentialet var enormt, og eksperterne var hurtige med forudsigelserne: Påvirkningerne fra AI ville blive omfattende, og de teknologiske muligheder blev hurtigt kogt ned til ”adapt or die”.
Men hvorfor er netop AI blevet udskreget til at være dén ting, der kommer til at revolutionere vores liv og arbejde?
– Det var et stort spring, at vi kunne få internettet ind i mobiltelefonen, men AI er en revolution. Forskellen fra tidligere teknologier og til AI er, at AI er en intelligens, som kan understøtte mig i en masse sammenhænge og kan indbygges i de redskaber, jeg bruger, siger Mikael Munck, der er stifter og CEO i 2021.AI, som hjælper virksomheder med at indføre AI, så det samtidigt er sikkert og i overensstemmelse med lovgivning og virksomhedens egne retningslinjer.
Som med al anden ny teknologi kræver brugen af AI også, at man tilpasser sine arbejdsgange til de nye muligheder. Det kan være svært, fordi vi stadigt er i det tidlige stadie af AI, hvor de fleste ikke helt er klar over mulighederne eller hvordan, de får det ind i deres arbejde.
– Når vi sætter nogle nye ting op, er vi vant til at tænke, at det skal gøre på en bestemt måde. Vi sætter typisk først mennesker og derefter best practice-processer op omkring det, vi vil ændre, og arbejder hen imod en effektiv løsning. Men fremadrettet skal vi nok til at tænke mere over, hvor det er, at ”min AI-kollega” kan løse opgaverne langt mere effektivt, end vi som mennesker er i stand til at gøre i dag, og hvordan jeg så indgår i en effektiv dialog med ”min AI-kollega” for bedst mulig at løse en given opgave, mener Mikael Munck.
AI skal trænes
2021.AI arbejder blandt andet med Rigshospitalet om at samle den viden, hospitalet har om en række forskellige emner og sammenkøre dem, så de er opdateret med seneste information, der i dag bliver lagt på nettet af flere forskellige personer, som måske ikke er klar over, hvad andre har lagt op om samme emne andre steder på websitet eller i brochurer.
– Vi lærer vores AI-model at kigge ned i den information, der ligger i mange forskellige kilder, og sikre at der skabes en ensartet information om et bestemt emne på tværs af organisationen. Det kan eksempelvis være spørgsmål om en bestemt form for cancer. Bagefter kan vi tage den næste form for cancer og anvende samme model. Når vi har gjort det med cancer, kan vi kigge på andre sygdomme. Når vi har gjort det på Rigshospitalet, kan vi gå til et andet hospital, dernæst til hele regionen og så til hele Danmark. Skaleringseffekten af at træne og effektivt anvende AI-modellerne er enorm, og kan voldsomt reducere mængden af trivielt arbejde på et hospital, forklarer Mikael Munck.
Største forandring i 30 år
Ejvind Jørgensen deler Mikael Muncks begejstring for AI. Jørgensen er CFO og IR-kontakt i virksomheden cBrain, der er mangeårigt medlem af DIRF i mid cap-indekset, og har over 30 år på bagen inden for it-udvikling og digitalisering. Han er desuden formand for tænketanken Danmark 3.0 og Dansk IT’s udvalg for den offentlige sektor.
– AI er en af de største ting, der er sket i den tid, jeg har været i den her branche.
cBrain er en ingeniørvirksomhed, som leverer en digital platform til over 100 offentlige myndigheder, og som gør det muligt at samle alle arbejdsprocesser i én.
– For 20 år begyndte vi at digitalisere de gamle processer. Virksomhederne havde en postmand, som rendte rundt og lagde posten i bakker. Så fik de email-systemer. Arkivsystemet blev også digitaliseret, så det var nemmere at søge i frem for arkivskabe. Siden er løsningerne blevet bedre og fået mere funktionalitet, men med AI får du lige pludselig så stærk en kraft, at den kan selv sidde og svare på ting helt uberørt af menneskehånden, forklarer Ejvin Jørgensen.
Kortere og nemmere sagsbehandling
Han giver et eksempel med et system til miljøgodkendelser i Miljøstyrelsen, som cBrain har sat op. I stedet for at afsenderen sidder derhjemme og laver en ansøgning til f.eks. opførsel af en vindmølle, som modtages af en medarbejder, der herefter gennemgår ansøgningen og sikrer, at alt er overholdt, så guider systemet afsenderen til at lave en bedre ansøgningen ved at stille kvalificerede spørgsmål undervejs, hvilket gør godkendelsesprocessen bagefter nemmere.
– Sådan en samlet proces kan tage op til syv år. To tredjedele af tiden er behandling af papirarbejde. Med AI kan vi fodre systemet med ansøgninger, så vi træner det til at genkende og sagsbehandle ansøgningerne i den slags sager, og spare helt vildt meget tid hos begge parter, fordi AI håndterer en stor del af arbejdsprocessen, forklarer han.
Noget lignende kunne være i juridiske spørgsmål, hvor man fodrer AI med en masse sager og afgørelser inden for et bestemt område. Når der så kommer en ny sag, så kan AI i løbet af få sekunder selv finde tre lignende sager og komme med en juridisk vurdering, frem for at ansatte skal bruge timer på at søge og gennemlæse sagerne.
– Det betyder ikke, at du bare kan skrive af efter den, men du har i hvert fald sparet en masse tid, siger Ejvind Jørgensen.
Etiske dilemmaer lurer under overfladen
AI er ikke kun sjov, ballade og hurtigere løsninger. Det er også at tage stilling til mulige etiske dilemmaer, for eksempel om AI kan få for meget magt i forhold til mennesker, fordi den ved meget mere og kan træffe hurtige beslutninger på meget kortere tid, end mennesker kan, påpeger Ejvind Jørgensen.
– Virksomheder skal i dag tage et samfundsansvar og i højere grad også et dataetisk ansvar for, hvordan man opfører sig og hvilke holdninger, man har til det, mener han.
Ud over virksomhedernes egne værdier og governance, så er der også AI-lovgivning på vej fra EU – EU AI Act – hvilket ventes implementeret i 2026. Ifølge Mikael Munck, der har været med i processen, bliver sanktionerne for overtrædelser hårdere end ved GDPR-lovgivningen.
Årsagen er, at AI meget hurtigt kan komme tæt på at indgå i beslutninger der har indflydelse på os og blandt andet kan risikere at diskriminerer i forhold til forskelsbehandling i forskellige sammenhæng, ligesom
anvendelse af kritisk data og personfølsom data, kan være problematisk, og stille store krav til virksomhedernes politikker og compliance for data, som for alvor skal tænkes ind i AI initiativer.
– Der vil opstå en masse sunde spørgsmål i AI initiativer. Må vi overhovedet gøre det i forhold til gældende lovgivning? Har vi tænkt over, hvad det er, vi er gået i gang med, og hvilken indflydelse dette AI initiativ har i forhold til vores medarbejdere, kunder og andre stakeholders? Det stiller også krav til at finde ud af, hvad er det, man som virksomhed vil med AI og hvilke konsekvenser det har på virksomhedens omgivelser? Og vil virksomheden anvende AI eller ikke anvende AI til specifikke initiativer, eller er det i strid med virksomhedens generelle måde at anvende teknologi på? På den måde er AI jo ikke noget forskelligt i forhold til mange andre teknologier, men effekten af at anvende det kan være så meget større end mange af de mere traditionelle teknologier, vi omgiver os med, siger Mikael Munck.
Ejvind Jørgensens tre råd:
1: Du skal som virksomhedsleder eller chef vide, hvad er det for et problem, du ønsker at løse eller opnå. Mange IT-projekter går galt, fordi man er uklar på, hvad det er for et problem, man ønsker at løse
2: Vær nysgerrig på, hvad teknologien kan. Du skal ikke forstå den ned i detaljen, men du skal ikke være bange for at stille gode, åbne spørgsmål, også selv om det er dumme spørgsmål.
3: Hav en god, etisk fornemmelse for, hvor langt du kan og vil gå.
Mikael Muncks tre råd:
1: Leg med AI indenfor afgrænsede interne initiativer– eksempelvis ChatGPT – så alle medarbejdere stifter bekendtskab med det og får mulighed for at tænke det ind i deres arbejdsrytme eller de processer, de arbejder med, uden at tage dette i produktion før der er 100% styr på ansvarlig og lovmæssig anvendelse.
2: Find ud af, hvilke arbejdsopgaver og processer hvor AI kan være understøttende, og hvilke konsekvenser, det har nu og for fremtiden, for effekten af at anvende AI kan være meget større end mange af de mere traditionelle teknologier, vi har omgivet os med.
3: Vær opmærksom på ansvarlig og lovmæssig anvendelse af AI, herunder den måde, du vil bruge AI på, ikke er i strid med virksomhedens generelle politikker, den kommende lovgivning fra EU eller sektor specifikke retningslinjer.
Her er, hvad ChatGPT selv angiver som de største faldgruber ved brugen af AI:
ChatGPT: Brugen af kunstig intelligens (AI) bringer en række potentielle faldgruber og udfordringer med sig. Nogle af de største inkluderer: Bias og diskrimination: AI-systemer kan afspejle de fordomme, der findes i de data, de er trænet på. Hvis træningsdata indeholder bias, kan AI-systemer forstærke og endda forstørre disse fordomme, hvilket kan føre til diskrimination og uretfærdighed. Mangel på gennemsigtighed: Mange AI-algoritmer er komplekse og vanskelige at forstå, hvilket skaber udfordringer for at forklare deres beslutninger. Dette kan være problematisk, især når det kommer til beslutninger med betydelige konsekvenser, f.eks. inden for retssystemet eller sundhedsvæsenet. Datasikkerhed og privatliv: Brugen af AI indebærer ofte håndtering af store mængder data. Utilstrækkelig beskyttelse af disse data kan føre til sikkerhedsbrud og krænkelser af privatlivet. Jobtab og arbejdsmarkedets omstrukturering: Automatisering ved hjælp af AI kan føre til tab af visse jobtyper og kræve en omstrukturering af arbejdsmarkedet. Det er vigtigt at håndtere denne overgang for at undgå sociale og økonomiske konsekvenser. Mangel på ansvarlighed: Ansvarlighed og klare retningslinjer for brugen af AI mangler ofte. Uklare ansvarsforhold kan føre til utilsigtede konsekvenser og unddrage ansvar, når noget går galt. Eksponentiel vækst og uforudsigelighed: AI-udvikling accelererer, og de komplekse interaktioner mellem forskellige AI-systemer kan føre til uforudsigelige resultater. Dette rejser bekymringer om kontrol og sikkerhed. Mangel på forståelse og uddannelse: Mange mennesker har begrænset forståelse af, hvordan AI fungerer. Dette kan skabe mistillid og forhindre effektiv implementering og regulering af teknologien. Regulering og standardisering: Der er behov for klare og effektive reguleringer og standarder for at styre udviklingen og anvendelsen af AI. Uden passende reguleringer kan risikoen for misbrug og uetisk brug af teknologien øges. For at undgå disse faldgruber er det vigtigt at implementere etiske retningslinjer, investere i uddannelse og bestræbe sig på at udvikle AI med bevidsthed om de sociale konsekvenser. Reguleringer og standarder skal også udvikles for at skabe et ansvarligt og gavnligt AI-miljø. |