ChatGPT har sparket døren ind for kunstig intelligens til helt almindelige internetbrugere. Bing bruger nu chatmodellen til internetsøgning, og angiveligt er Open AI’s GPT4 lige på trapperne. Den skulle være trænet på endnu mere data, og ifølge rygterne vil den også give mulighed for at generere video og billeder. Stable Diffusion har sin gratis konkurrent til ChatGPT i form af Open Assistant, mens Google har “Bard”, og Meta har været mere forsigtige med “LLaMA”, som jeg vender tilbage til.
Det er voldsomt spændende, og hvis du spørger denne signatur, også meget risikabelt.
Når medicinalbranchen arbejder med ny medicin, så er det en sindrig proces over flere år, hvor tre faser af forsøg koblet med peer-review og Lægemiddelstyrelsens nærlæsning af dokumentationen skal overstås og en godkendelse skal udstedes, før Fru Jensen kan få det udleveret på apoteket. Ganske fornuftigt – al den stund, at det kan have alvorlige konsekvenser.
Når Big Tech opfinder revolutionerende kunstig intelligens, får selskaberne lov at afprøve den på en global offentlighed. Er det forsvarligt?
Forskere forstår ikke egen AI
Jeg forstår godt fascinationen af kunstig intelligens, men de potentielle konsekvenser ved bare at slippe den løs i global skala er meget mere alvorlige, end at junior bruger den til at skrive en engelsk stil i 8.B. Den data, som store sprogmodeller er bygget på, er for det første behæftet med fejl, falskheder og løgn. Og ChatGPT vil kunne bruges til at gentage og sprede disse løgne i en helt anden skala, end vi kan forestille os.
Skarpsindige typer vil også kunne hacke kunstig intelligens til at afsløre sine datakilder, og i visse tilfælde vil det kunne være følsom persondata eller igen falskheder fra internettets afkroge, som kan give et stort backlash. Og hvem bærer så det moralske og juridiske ansvar – er det OpenAI, Stable Diffussion eller Microsoft? Hvis den kunstige intelligens kopierer værker, hvor det normalt vil betyde brud på copyright – hvem skal så have skylden? Og så har vi ikke engang taget hul på diskussionen af politisk bias, og den måske vigtigste af alle pointer: Forskerne bag disse kunstige intelligenser forstår ikke, hvorfor deres AI’er reagerer, som de nu gør i forskellige sammenhænge. De og vi aner ikke, hvordan disse store AI-motorer kan påvirke vores kommunikationsstrømme og demokrati.
Indsigt og lovgivning
Meta, der ellers ofte har været techklassens uartige dreng, har grebet AI-gamet lidt anderledes an. LLaMa er ikke blevet ikke gjort offentlig for alle, men blev i stedet tilgængelig som en open source-pakke, som forskere og andre AI-kyndige kan bede om adgang til.
– Selv med de nylige fremskridt inden for store sprogmodeller, er fuld forskeradgang til dem begrænset på grund af de ressourcer, det kræver at træne og drive så store modeller, skrev Meta i en pressemeddelelse, hvor selskabet flashede et forsøg på et mere demokratisk mindset.
EU er på vej med en AI-forordning, men ChatGPT har sendt Bruxelles tilbage til tegnebordet, og hvis ikke tech endnu engang løber fra lovgiverne, så har Unionen meget travlt.
Derfor dette gratis forslag: Overvej en ordning hvor techselskaberne ligesom medicinalbranchen skal forelægge forskere og myndighederne noget dokumentation, der viser resultater af videnskabelig forsøg og giver indsigt i, hvordan de har testet worst-case scenarier, før de kan sende banebrydende AI ud til os alle sammen.
Alle velsignelserne om deres produkter skal vi nok høre…