Derfor er mangfold nøkkelen til innovasjon
-
Sist oppdatert
12. september 2024
-
Kategori
Hvordan sniker bias seg egentlig inn i KI-systemer? Det handler om våre egne fordommer, mener forsker.
KUNNSKAP FRA KRISTIANIA: Innovasjon
FN kaller generativ kunstig intelligens en kreativ revolusjon som endrer selve grunnlaget for jobbene våre, slik internett gjorde da det ble introdusert i 1993.
Samtidig har vi fått med oss at språkmodeller basert på KI, som ChatGPT, kan ha uheldige fordommer, såkalte bias, og derfor bør brukes med forsiktighet. Flere slike bot-er tar for eksempel for gitt at leger er menn og sykepleiere kvinner.
Det handler om at chatboten har lært at det er flere mannlige leger og flere kvinnelige sykepleiere i verden fordi den er matet med denne informasjonen. I årene fremover vil det bli utviklet KI-baserte løsninger for nær sagt alle arenaer av livet, og innovasjonsviljen blomstrer. Hvordan kan vi forhindre at KI gir svar med innebygde fordommer? Eller svar som virker polariserende?
Oppdag, utforsk og lær!
Anthony Giannoumis, forsker ved avdeling for økonomi, innovasjon og teknologi ved Kristiania, mener at mer mangfold blant de som utvikler og tester KI-løsninger vil bidra til at vi får færre slike uheldige konsekvenser.
– Det beste og mest kostnadseffektive er om vi får lagt inn algoritmer uten bias helt fra start. Da slipper vi å trekke tilbake produkter for å endre dem etter at de har gått ut på markedet, sier han.
– Derfor må vi ha mangfoldige team involvert i utviklingen av all KI-basert teknologi. Vi må utvikle en skjerpet bevissthet rundt perspektivene til ulike grupper og potensielle konsekvenser innenfor ulike situasjoner.
Som eksempel nevner han biometri, altså biologiske målinger som brukes til å kjenne igjen mennesker basert på fysiske egenskaper. Ansiktsgjenkjenning har for eksempel vist seg å være vanskeligere på mennesker med mørk hud fordi programmene er laget med utgangspunkt i lysere hudtyper.
Farlig biometri
– I noen land og i noen situasjoner kan biometri gi direkte farlige resultater. Tenk deg at et slikt ansiktsgjenkjenningsprogram identifiserer deg som et annet kjønn enn det du har oppgitt. I Norge er det kanskje ingen big deal, men i land der det å være transkjønnet er ulovlig, kan det være helt krise, sier Giannoumis.
Et KI-system er alltid designet for å kunne forutsi noe, og det skjer på bakgrunn av algoritmer som noen har definert. Hvis de som lager systemet anerkjenner og legger inn to kjønn – mann og kvinne – er det lett å se for seg at enkelte personer kan havne i en kategori der de ikke føler de hører hjemme.
Giannoumis forteller at stemmebaserte tjenester ofte fungerer bedre for menn enn for kvinner. Og hva skjer når en tjeneste er stemmebasert og du har talefeil eller du snakker på et annet språk enn morsmålet ditt – får du gjennomført ærendet ditt? Kan du delta i samfunnet på lik linje med andre?
Slike problemstillinger jobber Giannoumis med for tiden. Han brenner for inkludering – det handler ikke bare om kjønn eller etnisitet, men om mangfold i bred forstand.
Vi er sjelden klar over egne bias
Som regel er vi ikke bevisst de ting vi tar for gitt. Normer og forutinntattheter ligger så innbakt i ryggraden at vi ikke stiller spørsmål ved dem. Vi er med andre ord sjelden klar over våre egne bias. Det krever innsikt, erfaring og tilgang til nye perspektiver om vi skal få ristet dem av oss. Flere forskere har pekt på nettopp bias som en av de største utfordringene vi står overfor når det gjelder KI, fordi det å gjenkjenne fordommer og forhindre eller redusere effekten av dem er krevende.
Teamene som utvikler ulike typer teknologi må både mestre datavitenskapelige teknikker og ha en metaforståelse for sosiale forhold og krefter.
Nå utvikler Anthony Giannoumis en modell som skal hjelpe folk til større bevissthet rundt mangfold og bias når de utvikler eller bruker KI-systemer.
– Jeg har tatt utgangspunkt i hvordan vi tror bias sniker seg inn i KI-systemer. Hva er det viktig at folk tenker gjennom? Hva skal vi gjøre når vi oppdager bias? Kan vi begrense effekten? Hvis det er mulig, vet vi hvordan vi skal gjøre det uten å skape nye bias? Hvem er menneskene som sjekker? Hva legger de inn som nye data?
Utvikling og bruk av KI må styres og overvåkes nøye
EUs lov om kunstig intelligens har som mål å sikre grunnleggende rettigheter og trygg bruk, samtidig som den fremmer innovasjon. For at det skal være mulig, ligger det et strengt internasjonalt regelverk i bunn. Samtidig skal hvert land utvikle metoder og arenaer for å teste ut systemer før de introduseres i markedet. Slik kan innovative entreprenører sikre at de får innspill og kan rette opp i feil gjennom hele prosessen mens de utvikler produkter.
Det er viktig å lede, administrere og overvåke både utviklingen av KI og alle KI-aktiviteter i en virksomhet. EUs lovverk skal sikre en god balanse av fordeler for bedrifter, kunder, ansatte og samfunnet som helhet.
Hva er bias innen kunstig intelligens?
Hvis vi ikke fjerner bias fra systemet, kan det forhindre folks mulighet til å delta i økonomien og samfunnet. Det reduserer også KI-teknologiens potensial. Bedrifter kan ikke dra nytte av systemer som produserer forvrengte resultater og fremmer mistillit blant fargede, kvinner, personer med funksjonsnedsettelser, LHBTQ-samfunnet eller andre marginaliserte grupper.
(Kilde: IBM)
Mangfold kan motvirke bias
Anthony Giannoumis mener at en av metodene for å motvirke bias, er å sørge for mangfoldige team, slik at vi får inn flere perspektiver.
– Vi må innse at der er et gap mellom det vi tror vi gjør og det vi faktisk gjør i arbeidslivet, sier han.
Da han i fjor gjennomførte en studie blant bedriftseiere, mente 72 prosent at deres selskap utmerker seg når det gjelder inkluderende ledelse. Samtidig oppga 60 prosent at de manglet opplæring eller ressurser innen feltet.
Regjeringen har som mål at vi skal lykkes med å styrke konkurransekraften, innovasjonsevnen og den sosiale og økonomiske bærekraften. I Utsynsmeldingen sier regjeringen at befolkningens kompetanse er Norges viktigste ressurs.
Vi vet at Norge allerede mangler viktig kompetanse og at vi importerer mye arbeidskraft. Evner vi å benytte oss av alt de bringer med seg av kunnskap, erfaring og perspektiver?
Vi må dra nytte av folks varierte perspektiver
Giannoumis er amerikaner med greske foreldre, har gjennomført forskning på fire kontinenter og har bodd tretten år i Norge. Her har han tatt en doktorgrad ved Universitetet i Bergen. Forskningen hans har tatt for seg mange typer manglende integrering. En av dem er at internettbaserte tjenester fortsatt er utilgjengelig for mange med funksjonsnedsettelser, på tross av innsats fra nasjonale myndigheter, FN og EU.
Han mener vi har et uutnyttet potensial her til lands. Vi må tenke mye bredere rundt begrepene mangfold og inkludering enn det vi gjør i dag.
– Skal vi lykkes med innovasjon og være konkurransedyktig i fremtiden, må vi utvide vår forståelse av begrepet inkludering, sier han.
– Når jeg snakker om mangfold, handler det ikke bare om kjønn eller etnisk tilhørighet. Jeg tar med folks perspektiver. Vi er nødt til å ta inn over oss at menneskers varierte erfaringer er noe av det viktigste de kan bringe til bords. Jeg har mye å lære av en person som er født blind eller sitter i rullestol, fordi deres levde liv påvirker både hva de gjør og hvordan de tenker, sier forskeren.
Vi blir mer kreative med flere perspektiver
Hvis alle tenker likt, er vi mindre kreative. Innovasjonsevne vil være en betydelig konkurransefordel fremover, i en tid der evnen til å tilpasse seg og være kreativ er avgjørende for mange virksomheter. Da må ledere se potensialet i å skape et inkluderende miljø der alle stemmer blir hørt og verdsatt.
– Det er naturligvis mye enklere og raskere å samarbeide når alle i et team tenker mer eller mindre likt. Kommunikasjonen flyter lettere og man kan raskere vise resultater. Men et mer mangfoldig team vil uten tvil komme opp med flere ulike ideer til løsninger og på sikt prestere bedre, sier Giannoumis.
Noen trinn for å forhindre bias
- Vurder datasettet som ligger til grunn: Sjekk om treningsdataene over- eller underrepresenterer visse grupper. Hvis treningsdata for ansiktsgjenkjenning i hovedsak består av hvite mennesker, kan det føre til feil ved gjenkjenning av fargede personer.
- Merk informasjonen riktig: Feilmerking av treningsdata kan føre til bias. Et KI-basert rekrutteringsverktøy som er inkonsekvent i merkingen eller ekskluderer/overrepresenterer visse egenskaper, kan for eksempel gjøre at kvalifiserte jobbsøkere blir luket vekk fra bunken av aktuelle kandidater.
- Sjekk om algoritmene inneholder bias: Bruk av feil treningsdata kan føre til algoritmer som gjentatte ganger produserer feil eller urettferdige resultater. Et eksempel kan være at man bruker inntekt som en indikator og dermed utilsiktet diskriminerer innvandrere (som er overrepresentert blant dem med vedvarende lav inntekt). Kontroller om der er programmeringsfeil som kan skyldes utviklernes egne bevisste eller ubevisste bias, og sørg for rettferdig vektlegging av faktorene algoritmen tar sine beslutninger på.
- Vurder den menneskelige påvirkningen: Menneskers erfaringer og preferanser kan påvirke hvordan vi velger og vekter data. Vi har bedre muligheter for å kjenne igjen og undersøke hvordan teknologien skapes og hvordan den påvirker samfunnet hvis vi:
a) er bevisst menneskelige faktorer
b)er bevisst systemiske samfunnsmessige faktorer
c) tar alle former for potensiell bias i betraktning.
Denne bevisstheten øker når vi samarbeider med mennesker med en annen bakgrunn, andre forutsetninger og andre perspektiver enn oss selv.
(Kilde: IBM og Anthony Giannoumis)
Tekst: Cecilie Taran Skjerdal, seniorrådgiver, Avdeling forskningskommunikasjon og innovasjon, Kristiania.
Referanser:
Stortingsmelding 14 (2022–2023). Utsyn over kompetansebehovet i Norge.
IBM (2024). Shedding light on AI bias with real life examples.
FN (2024). Embracing the Generative AI Revolution: A Creative Evolution in the Workplace.
Europaparlamentet (2024). Artificial Intelligence Act: MEPs adopt landmark law.
Denne teksten ble publisert på forskning.no den 29. august 2024 under tittelen "Slik kan vi forhindre at KI gir svar med innebygde fordommer"
Vi vil gjerne høre fra deg!
Send spørsmål og kommentarer til artikkelen på e-post til kunnskap@kristiania.no.
Siste nytt fra Kunnskap Kristiania
- Kunnskap KristianiaLes mer
Slik skal samarbeid og kommunikasjon redde kloden
Enny måte å analysere samspillet mellom menneskelig aktivitet og klimaendringer skal redde klimaet. - Kunnskap KristianiaLes mer
Bør vennlige og intelligente roboter designes av sykepleiere eller ingeniører?
Roboter kan designes til å bli verdensmestere i vennlighet. - Kunnskap KristianiaLes mer
Hvordan påvirker influensere deg, egentlig?
Vi anerkjenner influenseres evne til å påvirke. Men hvordan får de det til? - Kunnskap KristianiaLes mer
Kan VR-opplevelser inspirere til klimakamp?
Et internasjonalt økoprosjekt fra 1980-tallets Nord-Norge digitaliseres for nye generasjoner.