Debatindlæg i Altinget

ChatGPT sender forskningen ind i en ny epoke – og det kalder på nye spilleregler

Sprogmodeller som ChatGPT vil ændre hvordan, vi bedriver forskning. For at sikre gennemsigtighed og opretholde tilliden til forskningen, bør der laves et ‘code of conduct’, skriver Videnskabernes Selskab i Altinget.

Forfatterne bag debatindlægget

  • Kim Guldstrand Larsen, professor ved Institut for Datalogi, Aalborg Universitet, medlem af Videnskaberne Selskab.
  • Susanne Ditlevsen, forperson for den naturvidenskabelige klasse i Videnskabernes Selskab, professor ved Institut for Matematiske Fag, Københavns Universitet.
  • Thomas Sinkjær, generalsekretær, Videnskabernes Selskab, professor ved institut for medicin og sundhedsteknologi, Aalborg Universitet.
  • Kristoffer Frøkjær, kommunikationschef i Videnskabernes Selskab

For nylig producerede israelske videnskabsfolk fra Technion en forskningsartikel på under en time med hjælp fra ChatGPT.

Artiklen var flydende, indsigtsfuld og præsenteret i den forventede struktur for en videnskabelig artikel. Men “resultaterne” i artiklen var “ikke engang tæt på at være nye”. Det vil ændre sig i fremtiden.

 

Vi må som samfund imødese, at ChatGPT og lignende store sprogmodeller vil have en dybtgående indvirkning på en række forskellige sektorer og industrier. Ikke mindst forskning.

Teknologi har alle dage været en motor for udviklingen af videnskaben – tænk bare på opdagelsen af trykkerikunsten eller CRISPR-teknologien. Når ny teknologi er epokegørende, kan den åbne nye muligheder, påvirke forskningens indre dynamik og sætte nye retninger for nysgerrighedsdrevet forskning.

Og så kan den lede til en genforhandling af rammerne for at bedrive videnskab – ikke mindst de etiske. De forskere, der kender den nye teknologi, er dem, der bedst vil kunne være med til at forme, hvordan den bruges.

ChatGPT er netop en sådan ny, epokegørende teknologi.

 

Forskningen ændrer væsen

Sprogmodeller som ChatGPT kan hjælpe forskningen helt nye steder hen.

Sprogmodeller kan analysere enorme mængder videnskabelig litteratur på kort tid og identificere relevante artikler og opsummere dem. Det vil spare tid og hjælpe forskere med at holde sig opdateret.

ChatGPT kan udføre rutineopgaver: Sprogmodeller kan automatisere kedelige og repetitive opgaver, såsom rapportgenerering og dataformatering. På den måde frigøres forskernes tid til mere kreative og komplekse opgaver.

Sprogmodeller kan assistere forskere med at udforske komplekse datasæt og generere hypoteser. De kan opdage skjulte mønstre og sammenhænge i data, hvilket kan føre til nye ideer, forskningsspørgsmål og opdagelser. Ud over at skrive videnskabelige artikler.

Dermed kigger videnskaben med sprogmodeller som ChatGPT ind i en fremtid, hvor forskningen vil ændre væsen, og tiden, der bruges på opgaverne, vil forandres.

Ansvaret ligger ikke kun hos forskerne

Udviklingen af sprogmodellerne er sket med enorm hast. Inden for matematisk opgaveløsning er kvaliteten på få år gået fra, hvad der svarer til en femteklasseselev, til en gymnasieelev. Og nu, med GPT-4, til en dygtig førsteårs-universitetsstuderende.

Men som opslagsværk er sprogmodellerne stadig fulde af opdigtede, partiske eller etisk anløbne, men meget overbevisende, svar, der kan være svære at opdage. Eksempelvis ved at “hallucinere” og henvise til videnskabelige artikler, der ikke eksisterer.

Sprogmodellerne genererer deres tekster baseret på statistiske mønstre i store mængder træningsdata fra internettet og laver nye, sandsynlige svar – men ikke nødvendigvis sande svar. Derfor bør man som forsker altid forholde sig kritisk til de svar, ChatGPT kommer med.

Men ansvaret ligger ikke alene hos den enkelte forsker.

 

Brug for et ‘code of conduct’

Der er brug for klare og overordnede retningslinjer for brugen af den nye teknologi, som det eksempelvis berøres i the European Code of Conduct for Research Integrity.

Et code of conduct, der indrammer, hvordan sprogmodellerne bør – og ikke bør – bruges i forskning. Og som eksempelvis kunne indarbejdes i det Danske Kodeks for Integritet i Forskning.

Dette bør betone nødvendigheden af fuld gennemsigtighed af, hvordan og til hvad sprogmodellerne bruges i forskningen således, at andre forskere kan vurdere og reproducere resultaterne.

Dette bør understrege vigtigheden af transparens om på hvilke data, sprogmodellerne trænes.

I dag er det en lukket algoritme, en sort boks, hvor det er umuligt at vide hvilken information, der er grundlag for sprogmodellen. Og så skal alle informationer i træningssættet naturligvis være korrekte og upartiske og overholde kravene til datalagring, -rettigheder og -adgang.

 

Omfavn den nye teknologi

Et ‘code of conduct’ bør ligeledes indeholde klare etiske retningslinjer for brug af sprogmodeller i forskningen, så vi sikrer mod anklager om uredelighed og bibeholder tilliden til forskningen.

Med sprogmodellerne står vi med en epokegørende og uhyre effektiv teknologi, vi endnu ikke kender potentialet af, og som derfor er forbundet med store usikkerheder. Flere taler om at sætte udviklingen på pause. Det er tvivlsomt, om det overhovedet kan lade sig gøre.

Som det er sket i tidligere tilfælde med ny teknologi, er forskningen også i forhold til sprogmodellerne bedst tjent med at omfavne den nye teknologi og medvirke aktivt til at styre, hvordan den bedst muligt anvendes til gavn for forskningen selv.

Helst under et fælles og velovervejet code of conduct.

Læs debatindlægget hos Altinget her.