Bruk av eksisterande KI-verktøy i ulike delar av forskingsprosessen

Rettleiing til ansvarleg og transparent bruk av generative KI-verktøy i ulike delar av forskingsprosessen.

Som utgangspunkt for å vurdere din eigen bruk av KI-verktøy, tilrår vi at du set deg inn i EU sine «living guidelines» for ansvarleg bruk av generativ KI i forskning

Ansvarleg bruk av generative KI-verktøy

For at generativ KI skal brukast ansvarleg, bør forskarar: 

1. Ha det endelege ansvaret for vitskaplege resultat

  • Forskarar er ansvarlege for integriteten til innhaldet som blir generert av eller med støtte frå KI-verktøy.
  • Forskarar må ha eit kritisk blikk på bruken av utdata frå generativ KI og vere medvitne om verktøya sine avgrensingar, som skeivheiter, «hallusinasjonar»  og feil.
  • KI-system kan ikkje vere forfattarar eller medforfattarar. Forfattarskap inneber “agency” og ansvar, og dette ligg hjå menneskelege forskarar.

Kommentarar

Integritet: Innhaldet skal ikkje vere fabrikkert, forfalska eller plagiert. Sjå nærare detaljar i avsnitt 3.1 i The European Code of Conduct for Research Integrity, ALLEA 2023.

Unngå skeivheiter: Etisk prompting bør praktiserast. Sjå retningslinjene for Ethical Prompting for Generative AI guidelines of the ETH Zürich for meir informasjon, og les om sykofantisk åtferd: Towards Understanding Sycophancy in Language Models.

«Hallusinasjon» viser til generering av falsk, meiningslaus eller unøyaktig informasjon av store språkmodellar (LLM-ar) eller andre generative AI-system.

2. Bruke generativ KI på ein transparent måte

  • Forskarar må vere opne om kva generative KI-verktøy som har vore brukt på ein vesentleg måte i forskingsprosessen. Når KI har påverka resultata, skal dette nemnast i metodekapittelet eller tilsvarande, og evaluere omfanget av bidraget frå KI på ein ansvarleg måte. Referansen til verktøyet bør innehalde namn, versjon, dato osv., samt korleis verktøyet vart brukt og påverka forskingsprosessen. Om relevant, bør forskarar gjere inndata (spørsmål/prompts) og utdata tilgjengeleg, i tråd med prinsippa for open vitskap.

  • Forskarar må ta omsyn til at generative KI-verktøy har ein stokastisk (tilfeldig) natur, noko som betyr at dei kan gje ulikt utdata frå same inndata. Forskarar bør sikte mot at resultat og konklusjonar skal vere reproduserbare og robuste. Dei må opplyse om eller drøfte avgrensingane ved dei generative KI-verktøya som er brukte, inkludert eventuell skeive framstillingar i det genererte innhaldet, samt mogelege tiltak for å redusere slike utfordringar.

Kommentarar

Vesentleg bruk av KI: Til dømes er bruk av generativ KI som eit enkelt støtteverktøy for forfattarar ikkje ei vesentleg bruk. Derimot kan tolking av dataanalysar, gjennomføring av litteraturgjennomgang, identifisering av forskingsgap, utforming av forskingsmål, utvikling av hypotesar osv. ha vesentleg påverknad.

Prinsippa for open vitskap: Særleg, når det er mogleg, skal forskingsdata følgje FAIR prinsippa (Findable, Accessible, Interoperable og Reusable) og være maskinhandterbar.

Referansar: Sjå til dømes Norsk APA-manual om korleis du viser til kjelder i tekst og korleis du utformer referanselista.

Tidsskrift har ulike retningslinjer for KI-bruk, nokon har totalt forbod medan andre opplyser om korleis ein skal referere til bruk av KI. Undersøk reglane for bruk av KI i det spesifikke tidsskriftet du ønskjer å publisere i.

Om ein brukar KI til prosjektutvikling/skriving av prosjektskildringar for å søke om forskingstid eller forskingsmidlar, er det viktig å setje seg inn i kva krav som vert stilt frå den einskilde finansieringskjelda. Medan EU har krav om det, jamfør «living guidelines», så har Forskingsrådet ikkje utarbeidd og publisert retningslinjer for bruk av KI i søknadsskrivinga, utover det som er dekt av dei generelle krava om forskingsetikk og liknande. (Dei generelle krava til Forskingsrådet.)

3. Vere særskilt merksam på personvern, konfidensielle opplysingar og immaterielle rettar ved deling av sensitiv eller verna informasjon med KI-verktøy

  • Forskarar må vere klar over at generert eller opplasta inndata (tekst, data, promptar, bilete osv.) kan bli brukt til andre føremål, som trening av KI-modellar. Difor må dei verne om upublisert eller sensitivt arbeid (sitt eige eller andre sitt upubliserte arbeid) ved å unngå å laste det opp i eit KI-system på nett, med mindre det er garantiar for at data ikkje blir gjenbrukt, til dømes til opplæring av nye språkmodellar eller anna ikkje sporbar eller ikkje verifiserbar bruk av data.

  • Forskarar må unngå å leggje inn personopplysningar om tredjepartar i generative KI-system utan at personen har gjeve samtykke og det er eit klart føremål med bruken av dataa, i samsvar med EU-reglane for personvern.

  • Forskarar bør forstå dei tekniske, etiske og sikkerhetsmessige implikasjonane knytt til personvern, konfidensielle opplysingar og immaterielle rettar. Dei bør til dømes undersøkje institusjonens retningslinjer, verktøyet sine personverninnstillingar, kven som driftar verktøyet (offentlege eller private aktørar), kvar verktøyet er lokalisert og kva konsekvensar dette har for opplasta informasjon. Dette kan spenne frå lukka miljø og sikre tredjepartsløysingar til opne, nettbaserte plattformer.

Kommentarar

Eit unntak her er Chat GPT UiO, der innhaldet ikkje vert delt vidare eller brukt til opplæring av språkmodellen. Men ein må uansett ha eit gyldig grunnlag for handsaming av personopplysingar.

Om andre sine personopplysningar: Chat GPT-UiO blir rekna som trygg for opplasting av alminnelege personopplysningar, klassifisert som «gule data» i HVL si klassifisering - sjå Lagring av data ved HVL. Microsoft 365 Copilot Chat skal ikkje brukas til å handsame personopplysningar. Forskingsdata som er klassifisert som anten raud (fortruleg/sensitiv) eller svart (strengt fortruleg) skal lagrast på HVL sin sikra forskingsserver (SILAF) og ikkje brukast i KI. Sjå HVL forskingsetikk for meir informasjon om dette. Dersom du er usikker på om dine data er anonyme og kan lastas opp, spør gjerne personvernkontakten eller sjekk Sikt sine personverntenester for forsking.

Om dine eigne personopplysningar: Sjekk personverninnstillingane i verktøyet, kven som handsamar det (offentlege eller private institusjonar, føretak etc.), kor det køyrast og kor informasjon lastas og blir delt. Chat GPT-UiO samlar metadata om brukar og bruken av verktøyet, men delar dette ikkje vidare.

Opphavsrett: Dersom du har tilgang til ein publikasjon som ligg bak betalingsmur, kan du ikkje dela denne med opne/kommersielle KI-verktøy. Dette gjeld for alle publikasjonar med mindre dei har ein lisens som opnar for slik deling. Du risikerer at innhaldet blir bygd inn i verktøyet slik at andre i neste omgang får tilgang til det, og dermed bryta gjeldande reglar for opphavsrett.

Personvern: Set deg inn i EU-reglane for personvern, og sjå på the First Orientations for ensuring data protection compliance when using Generative AI systems by the European Data Protection Supervisor. I tillegg til personleg samtykke, kan det finnast andre rettslege grunnlag som kan legitimere behandling av personopplysningar.

4. Respektere gjeldande nasjonal, EU- og internasjonal lovgjeving

Særleg kan det som produserast av generativ KI vere sensitivt i forhold til beskytting av intellektuelle rettar og personopplysningar.

  • Forskarar må vere merksame på faren for plagiat (tekst, kode, bilete osv.) ved bruk av utdata frå generativ KI. Dei skal respektere andre sine forfattarskap og sitere arbeidet deira når det er naudsynt. Utdata frå ein generativ KI (til dømes ein stor språkmodell) kan vere basert på andre sine resultat og krev korrekt anerkjenning og sitering/referanse. 

  • Utdata frå generativ KI kan innehalde personopplysningar. Om dette skjer, har forskarar ansvaret for å handtere slike data på ein ansvarleg og passande måte, i tråd med EU-reglane for personvern.

Kommentarar

Teknologien utviklar seg, og generative KI-verktøy vil bli betre i stand til å gi korrekte kjeldetilvisingar. Verktøy som tilbyr kjeldetilvisingar, kan vere meir praktiske og føretrekte, men det endelege ansvaret for kjeldetilvisinga og korrektheita hennar ligg hos forskaren.

5. Halde seg oppdaterte på bruken av generative KI-verktøy for å maksimere fordelane, inkludert gjennom opplæring

  • Generative KI-verktøy utviklar seg raskt, og nye måtar å bruke dei på blir stadig oppdaga. Forskarar bør halde seg oppdaterte på beste praksis og dele denne kunnskapen med kollegaer og andre relevante aktørar (stakeholders).

  • Forskarar har som mål å minimalisere verkingar av generativ KI på miljøet ved å evaluere kor vidt og kva KI verktøy som er best egna for den aktuelle oppgåva og ved å bruke dei mest miljøvenlege promptingteknikkane. 

Kommentarar

Sjå for eksempel anbefalinger fra Nogueira et al, 2025

Påverknad på klima og miljø: Dette kan sjåast som  del av eit breiare initiativ for å følgje prinsippa for å redusera karbonavtrykka frå forsking, berekraftig koding og berekraftig forsking. Sjå for eksempel Ten simple rules to make your computing more environmentally sustainable og Ten simple rules to make your research more sustainable. Forløpige data om miljøkostnadar ved generativ KI kan bli funne i AI Index Report 2025.

6. Unngå vesentleg bruk av generative KI-verktøy i sensitive aktivitetar som kan påverke andre forskarar eller organisasjonar

Dette kan til dømes handle om fagfellevurdering og evaluering av forskingssøknader.

  • Å unngå bruk av generative KI-verktøy i slike samanhengar eliminerer risikoen for urettvis vurdering eller handsaming som kan oppstå på grunn av verktøya sine avgrensingar (som hallusinasjonar og skeivheiter).

  • Dette sikrar òg at originalt upubliserte arbeid frå andre forskarar ikkje blir eksponert eller utilsikta inkludert i ein KI-modell, i samsvar med tilrådingane i ovanfor.

Kommentarar

Til dømes er bruk av generativ AI for å søkje bakgrunnsinformasjon til ei oversikt ikkje ei vesentleg bruk, medan å delegere evalueringa eller vurderinga av ein vitskapleg artikkel er ei vesentleg bruk.

Sjå ChatGPT is transforming peer review — how can we use it responsibly?