Hva skal intelligente roboter gjøre med uetiske mennesker?

Illustrasjonsbilde av kunstig intelligens.
Hvordan skal vi programmere intelligente roboter slik at de blir etiske reflekterte? Det er tema for Jon Arild Johannessens bok om robot-etikk i innovasjonsøkonomien.Foto: Gerd Altmann fra Pixabay.

KUNNSKAP FRA KRISTIANIA: Etikk for roboter

Hvordan kan vi best forstå, forklare og anvende ideer om etikk på intelligente roboter og kunstig intelligens? Kan det være slik at intelligente roboter i økende grad kan reflektere over etikk? Hvis svaret er ja, kan vi så forvente at intelligente roboter i fremtiden vil kunne reflektere over hva de skal gjøre med uetiske mennesker?

Dette er spørsmål jeg utforsker i boken Robot Ethics and the Innovation Economy, som nylig er utgitt av den internasjonale fagbokforlaget Routledge.

Etisk reflekterte roboter

Vi må anta at intelligente roboter i en ikke altfor fjern fremtid vil kunne reflektere over hva de skal gjøre med uetiske mennesker.

Hvis vi ønsker oss etisk reflekterte roboter, bør vi kanskje starte med å reflektere over hva etisk reflekterte mennesker mener om en konkret situasjon? Det lyder plausibelt, men er det riktig?

Kan det tenkes at intelligente roboter kan være mer etisk reflekterte enn mennesker?

Vi må kunne stole på at en intelligent robot gjør det som er ansett som moralsk riktig i enhver situasjon selv om vi ikke kan stole på at alle mennesker gjør det samme. Det er imidlertid et paradoks her. Kan vi stole på at roboten foretar etiske handlinger når personen som anvender roboten, ikke er etisk reflektert? Kan det i en slik situasjon tenkes at den personlige moral overstyrer den intelligente robots etikk?

Hvordan programmere inn etikken?

Er det slik at etikken som programmeres inn i en intelligent robot, skal være akseptert av de fleste, eller bare av dem som eier roboten, eller de som skal bruke den?

Skal det anvendes et spesielt etisk perspektiv og noen foretrukne etiske teorier i programmeringen av en robot? Spørsmålene lyder komplekse, og vanskelig å løse.

Poenget er imidlertid: Hva ville du selv gjøre i en spesiell situasjon? Spørsmålet og svaret leder oss over i en mer enkel måte å betrakte etikk og mora på.

Situasjonsbestemt etikk

For mennesker kommer etikken til anvendelse i den spesielle situasjonen. Det samme kan vi tenke oss at skal gjelde for en intelligent robot. Forstått på denne måten, er designprinsippene enkle, selv om de er tidkrevende.

Ta utgangspunkt i den spesielle situasjon som den intelligente robot skal operere i, og tenk gjennom og lag handlingsregler for alle tenkelige situasjoner som kan oppstå.

Så vil det kunne oppstå situasjoner som ingen har tenkt på, men som roboten likevel vil kunne møte.  I slike situasjoner bør vi basere oss på et feedback-system som bygger læring inn i algoritmene, slik at den intelligente roboten selv lærer av sine erfaringer, slik vi har sett med utviklede sjakkprogram.

Vi kan videre anta at robot-etikk er koblet til de mål, oppgaver og funksjoner den aktuelle roboten skal utføre. Eksempel: Den etikk som gjelder for en selvkjørende bil, er sannsynligvis ikke den samme som gjelder for en krigsdrone i en militær operasjon. Med dette har vi sagt at etikken er relativ og koblet til mål, oppgaver og funksjoner for de ulike intelligente roboter, på samme måte som det er for mennesker i ulike situasjoner. 

Jeg har valgt å presentere noen av refleksjonene i boken i form av case-brev.  Et case-brev er en liten fortelling, eller et problem som rammes inn ved at man konkretiserer og eksemplifiserer en situasjon.

Casebrev 1: Kan en selvkjørende bil bli dømt i en rettssak?

La oss tenke oss en intelligent robot som har etiske koder skrevet inn i sine program, f.eks. en helautomatisert bil.  Hvem er ansvarlig hvis bilen kjører over en person i en overfylt gate?  Er det roboten, designeren, den som kjører bilen eller den som eier bilen?  Kan en robot være ansvarlig for sine «handlinger»?  Hvis ja, må roboten kunne møte i en rettsal og bli dømt.  Hva med den personen som designet algoritmen?  Er den personen ansvarlig for det bilens robot foretar seg?  Eller, er det den virksomheten designeren jobber eller jobbet for som er ansvarlig?  Vi ser at det tårner seg opp spørsmål vi i dag ikke har noen klare svar på.  Det mest nærliggende er å si at den som eier og kjører bilen er den som kommer nærmest til å være ansvarlig. 

Casebrev 2: Har roboter som gjør feil, ansvar for sine handlinger?

Har intelligente roboter et eget moralsk ansvar? I så fall må den være en moralsk agent. La oss anta at en intelligent robot blir erklært å være en moralsk agent. Denne roboten blir så ansvarlig for en uetisk handling som gir syv års fengsel.  Roboten blir dømt til syv års fengsel og plassert i et robot-isolat. Høres dette vanvittig ut, å dømme og fengsle en robot for en uetisk handling? Hvem skulle så fengsles?  Designeren og programmereren, bedriften som eide roboten, personen som handterte roboten eller hvem? Hvis denne roboten er så intelligent at den kan reprogrammere seg selv etter erfaring, og ved prøving og feiling, så er det lite sannsynlig vi kan straffe programmereren, like lite som man kan straffe foreldrene for det en voksen datter eller sønn gjør. På samme måte som foreldrene er ansvarlige for deler av det deres barn gjør, men ikke deres voksne barn, så kan man tenke seg at programmereren eller virksomheten som utviklet roboten er ansvarlig for intelligente roboter inntil et visst intelligens- eller refleksjons-nivå. Utover dette nivå blir roboten juridisk å betrakte metaforisk som en voksen sønn eller datter. 

Casebrev 3: Hvem skal roboten redde; det lille barn eller de fem voksne personene?

La oss anta at sjåføren i en semiautonom selvkjørende bil får et illebefinnende og svimer av. Bilen kjører nå på en smal vei hvor det går noen mennesker foran og på begge sidene av bilen. Bilens fart er så stor at den ikke kan stoppe i tide. Per, som sitter på en kranbil som står ved en utkjøring, ser situasjonen og har mulighet til å endre bilens kurs. Det er imidlertid slik at hvis han med sin kranbil endrer bilens kurs så vil de fem- -seks personene som går langs veien bli reddet, men bilen vil drepe et barn som sitter ned på sideveien og leker. Spørsmålet er om det er moralsk riktig for Per å hindre at fem-seks personer blir drept, eller om det er det lille barnet som skal utsettes for kvestelser og en mulig død.  Dette er et klassisk moralsk dilemma. Empiriske undersøkelser viser at de fleste mener det er moralsk riktig å redde de mange på bekostning av den ene eller de få. Hvordan vil du at en intelligent robot skal handle i et slikt tilfelle?

Referanser:

Denne formidlingsartikkelen er skrevet for Kunnskap Kristiania og første gang publisert 9. september 2021. Kunnskap Kristiania er Høyskolen Kristianias kunnskapsmagasin.

Tekst: Professor Jon-Arild Johannessen, Institutt for ledelse og organisasjon ved Høyskolen Kristiania.

Vi vil gjerne høre fra deg!

Send dine spørsmål og kommentarer til denne artikkelen på E-post til kunnskap@kristiania.no