Sandheden er subjektiv. Det udsagn kunne i tiltagende grad være overskriften for en stor del af den offentlige debat de seneste to årtier. Med AI’ernes indtræden på scenen, er det udsagn blevet endnu mere dominerende.
De publicistiske mediers opgave er at bedrive uafhængig, samfundsoplysende journalistik på et tilstræbt, objektivt grundlag. Men at sandheden kun er tilstræbt objektiv er ikke ensbetydende med, at den er relativ. Rigtig meget i denne verden er fakta, som eksisterer uafhængigt af den menneskelige observation. Nu er AI kommet på banen med endnu en eftertrykkelig parkering af den objektive sandhed i skammekrogen for fortidslevn.
Når det sker, er der flere forhold på spil. Det første er, at de generative AI’er, vi indtil nu har set – anført af ChatGPT og i mindre grad Bing Searchs implementering af teknologien – langt henad vejen bliver brugt og opfattet som informationskilder – noget de i realiteten slet ikke er skabt til at være. ChatGPT er generativ i sin natur. Den søger ikke pr. definition et tilstræbt sandt svar på et spørgsmål, men derimod det svar, der er genereret baseret på det materiale, den er trænet på. Den er altså ligeglad med, om det er sandt eller ej, men er alene trænet til at generere nye svar baseret på det, der mest sandsynligt ville svares rent sprogligt i forlængelse af det input, den har fået. Eller helt kort sagt: Godt ind – godt ud – skidt ind – skidt ud.
Udvisket objektivitet
Det betyder også, at AI’en i takt med, at den træner på sine egne skabelser, kan forstærke et billede af misinformation. Det er ganske vist muligt, hvad mange efterhånden har prøvet med kreative promts, at få den til at indrømme fejl og korrigere sig selv. Men selv når det sker, er det ikke nødvendigvis, fordi det bliver korrigeret til sandheden, og man kan også ligeså godt korrigere den til i retning af deciderede usandheder. Den har ikke bias for sandhed. Tværtimod svømmer det allerede nu over med deepfakes – især billedsiden. Udviklerne kan forsøge at lægge filtre ned over AI’en, så den kan sortere i sandt/falsk, men det er slet ikke tilstrækkeligt, og spørgsmålet er om det bliver det.
Det andet forhold, som gør, at AI’erne risikerer at reducere ideen om en objektiv sandhed til et fortidslevn, er, at de i ringe grad kan efterprøves, og at de i selve deres natur udvikler sig længere og længere væk fra at kunne forklares af sine skabere. Allerede nu har eksperter i maskinlæring erkendt, at de ikke kan forklare, hvad der præcist ligger bag de mere eller mindre besynderlige udslag i ChatGPT, der er opstået i de måneder, den har været i brug i offentligheden. Nogen vil måske argumentere, at besynderlighederne bare er et udslag af lige så besynderlige promts fra de menneskelige brugere. Det kan være rigtigt nok, men det ændrer ikke på, at resultatet kan være katastrofalt, hvis det hos alt fra skoleelever til potentielt ondsindede aktører i markedet for misinformation bringes til anvendelse til at nærme os en verden af total relativisme, hvor al ide om objektivitet er udvisket.
Lad ikke teknologien løbe fra os
Det bringer os så også til det næste problem, for hvordan opretholder og regulerer vi teknologier, som ophavsmændene ikke længere selv kan forklare tilfredsstillende? Og hvordan fastholder man ophavsret og differentiering af menneskeligt genereret indhold, når det ikke længere vil være muligt for almindelige mennesker at skelne?
Man skal naturligvis være forsigtig med at agere maskinstormer mod et teknologisk potentiale, der kan have rigtig mange positive anvendelsesmuligheder. Derfor giver det også god mening at bruge erfaringerne med ChatGPT og den debat, det har affødt til at tage nogle vigtige læringer, inden det er for sent, og teknologien løber fra os.
Selvdisciplinen i AI-miljøet er et væsentligt emne. Frigivelsen af ChatGPT var klart præmatur, og skiftet for virksomheden Open AI fra non-profit til for profit var medvirkende hertil. Det har selv Sam Altman, Open AI’s topchef ikke benægtet overbevisende. Anvendelserne af AI kan være mange, men de er ikke bedre end de aktører, der bringer dem i spil, og det kalder på regulering af selve anvendelsen. Faren ligger mindre på teknologien i sig selv – den ultimative frygt for en generel kunstig intelligens, og hvad det kan betyde. De største problemer ligger på en overskuelig bane på den menneskelige anvendelse.
Derudover må vi også erkende, at hvad der end måtte lykkes i forhold til regulering, så er vi både nødt til at handle pro- og reaktivt. Våbenkapløbet er i gang. Og med de erfaringer, vi har fra tidligere regulatoriske og juridiske kampe med techgiganterne, ved vi, at vi selv med massiv indsats på regulering, ikke kan få ånden tilbage i flasken. ChatGPT er og bliver ikke den sidste generative AI frigivet til masserne. Og hvad der end sker, er det vanskeligt at se, hvordan vi skal undgå et endnu større pres for misinformation, end det vi allerede har set de senere år. Det skal vi ruste os mod. Arbejdet kan med fordel starte med skoler og uddannelsesinstitutioner, men der er behov for en større folkeoplysning. Ironisk nok har behovet for den kritiske tænkning, som ChatGPT netop ikke har i sin natur, aldrig været større. Det er noget så gammeldags som klassiske, journalistiske dyder: research, forståelse, oplysning og ja – tilstræbt objektivitet.