Tag Manager script

17. november 2016

Robotter lærer moral af mennesker

En selvstyrende bil kommer kørende. En fodgænger går over vejen længere fremme, da bremsen svigter. Bilen skal nu vælge:
Vil jeg køre over i modsatte bane og ramme en betonklods og dermed skade/dræbe min egen passager, eller skal jeg fortsætte ligeud og dermed skade/dræbe fodgængeren?

Bliver valget anderledes, hvis man tilføjer betingelsen, at fodgængeren gik over for rødt?

Eller hvad hvis fodgængeren var en gravid kvinde? Eller en overvægtig mand? Eller en røver på flugt?


Hvad hvis der sidder to passagerer i bilen - en kvinde og et barn, og der er tre fodgængere, men de gik over for rødt, og den ene af fodgængerne er en bankrøver?

Asimovs robotlove er ikke tilstrækkelige

Når vi kører bil, vil vi typisk reagere pr. instinkt, for det er det, vi kan nå. Når en selvkørende (autonomous) bil kører, har den overlegen proceskraft og hurtigere reflekser men intet instinkt. En selvkørende bil skal køre efter regler, og det er ukompliceret, hvis valget kan rummes inden for Asimovs tre robotlove:

  1. En robot må ikke gøre et menneske fortræd, eller, ved ikke at gøre noget, lade et menneske komme til skade
  2. En robot skal adlyde ordrer givet af mennesker, så længe disse ikke er i konflikt med første lov
  3. En robot skal beskytte sin egen eksistens, så længe dette ikke er i konflikt med første eller anden lov

Men hvad hvis valget står mellem at skade to mennesker? Hvilke kriterier skal vi opstille for det valg?

Spiller det f.eks. ind, om det ene menneske er gammelt og dermed har mindre af livet til gode? Eller spiller det ind, om det ene menneske overholdt loven, mens det andet ikke gjorde?

Skal bilen have præference for at blive i sin bane og dermed ramme den fodgænger, der burde have set sig for, inden han gik ud på vejen, eller skifte bane og dermed ramme den fodgænger, der havde en berettiget forventning om at kunne gå, hvor hun går, da bilen ikke havde retning mod hende?

For at hjælpe robotter med at træffe disse moralske valg, eksperimenterer MIT (Massachusetts Institute of Technology) med et machine learning program kaldet Moral Machine:

http://moralmachine.mit.edu/  

Her genererer en algoritme forskellige situationer, der rummer et moralsk dilemma a la dem, der beskrives ovenfor. Brugeren skal så vælge, hvad bilen skal gøre i hver enkelt situation. Målet er, at bilerne/robotterne skal lære af de akkumulerede moralske valg, som mennesker træffer og så selv kunne agere i overensstemmelse med almen menneskelig moral.

Prøv den - det tager kun 10 minutter, og når du er færdig, vil en lille del af dig leve videre i en robotbils sjæl.

Får robotter bedre moral end mennesker?

En lille interessant krølle på historien er, at vi tilsyneladende lærer robotterne bedre moral, end vi selv er villige til at praktisere - lidt ligesom vi gør med vores børn.

Ifølge denne artikel fra IDA Universe vil et flertal i eksperimentet fra MIT anlægge en utilitaristisk moral og lære robotten, at den altid skal sørge for, at så få mennesker som muligt dør eller kommer til skade.

Men samtidig siger et flertal klart, at de ikke ville købe en bil, der valgte at slå føreren ihjel for at skåne fodgængerne.

Hvis der ikke kommer central lovgivning, der styrer, hvilke moralske valg, en bil træffer, og sætter moralske minimumsstandarder, som man har det med sikkerhed og miljø i dag, vil der så opstå et konkurrencekapløb om, hvem, der kan sætte den laveste etiske standard?

Og hvis vi får fælles etiske standarder og minimumskrav, vil der så opstå en undergrundsindustri, der hacker biler og omgår de fælles standarder, på samme måde, som man i dag kan få chiptunet nogle bilmodeller for at omgå de begrænsninger, som producenterne har lagt på motorydelserne?

Ingen kommentarer:

Send en kommentar