Tag Manager script

17. november 2016

Robotter lærer moral af mennesker

En selvstyrende bil kommer kørende. En fodgænger går over vejen længere fremme, da bremsen svigter. Bilen skal nu vælge:
Vil jeg køre over i modsatte bane og ramme en betonklods og dermed skade/dræbe min egen passager, eller skal jeg fortsætte ligeud og dermed skade/dræbe fodgængeren?

Bliver valget anderledes, hvis man tilføjer betingelsen, at fodgængeren gik over for rødt?

Eller hvad hvis fodgængeren var en gravid kvinde? Eller en overvægtig mand? Eller en røver på flugt?


Hvad hvis der sidder to passagerer i bilen - en kvinde og et barn, og der er tre fodgængere, men de gik over for rødt, og den ene af fodgængerne er en bankrøver?

Asimovs robotlove er ikke tilstrækkelige

Når vi kører bil, vil vi typisk reagere pr. instinkt, for det er det, vi kan nå. Når en selvkørende (autonomous) bil kører, har den overlegen proceskraft og hurtigere reflekser men intet instinkt. En selvkørende bil skal køre efter regler, og det er ukompliceret, hvis valget kan rummes inden for Asimovs tre robotlove:

  1. En robot må ikke gøre et menneske fortræd, eller, ved ikke at gøre noget, lade et menneske komme til skade
  2. En robot skal adlyde ordrer givet af mennesker, så længe disse ikke er i konflikt med første lov
  3. En robot skal beskytte sin egen eksistens, så længe dette ikke er i konflikt med første eller anden lov

Men hvad hvis valget står mellem at skade to mennesker? Hvilke kriterier skal vi opstille for det valg?

Spiller det f.eks. ind, om det ene menneske er gammelt og dermed har mindre af livet til gode? Eller spiller det ind, om det ene menneske overholdt loven, mens det andet ikke gjorde?

Skal bilen have præference for at blive i sin bane og dermed ramme den fodgænger, der burde have set sig for, inden han gik ud på vejen, eller skifte bane og dermed ramme den fodgænger, der havde en berettiget forventning om at kunne gå, hvor hun går, da bilen ikke havde retning mod hende?

For at hjælpe robotter med at træffe disse moralske valg, eksperimenterer MIT (Massachusetts Institute of Technology) med et machine learning program kaldet Moral Machine:

http://moralmachine.mit.edu/  

Her genererer en algoritme forskellige situationer, der rummer et moralsk dilemma a la dem, der beskrives ovenfor. Brugeren skal så vælge, hvad bilen skal gøre i hver enkelt situation. Målet er, at bilerne/robotterne skal lære af de akkumulerede moralske valg, som mennesker træffer og så selv kunne agere i overensstemmelse med almen menneskelig moral.

Prøv den - det tager kun 10 minutter, og når du er færdig, vil en lille del af dig leve videre i en robotbils sjæl.

Får robotter bedre moral end mennesker?

En lille interessant krølle på historien om robotter og moral er, at vi tilsyneladende lærer robotterne bedre moral, end vi selv er villige til at praktisere - ligesom vi gør med vores børn.

Ifølge denne artikel fra IDA Universe vil et flertal anlægge en utilitaristisk tankegang og lære robotten, at den altid skal sørge for, at så få mennesker som muligt dør eller kommer til skade.

Men samtidig siger et flertal, at de ikke ville købe en bil, der valgte at slå føreren ihjel for at skåne fodgængerne.

Vil vi være nødt til at blive enige om et fælles moralkodeks for at undgå, at laveste etiske fællesnævner bliver en konkurrenceparameter. Altså ligesom vi i dag har sikkerhedsmæssige og miljømæssige minimumsstandarder?

Og hvem skal beslutte disse standarder? EU? FN?

Og hvis vi får etiske minimumsstandarder, vil der så opstå en undergrundsindustri af værksteder (eller nørder, der bare kobler op til bilerne via internettet), der hacker biler, så de kan omgå de fælles standarder og beskytte fører og passagerer i en situation, hvor der skal vælges mellem dem og andre trafikanter?

Bevares, man får en straf for at have hacket sin bil - men hvis alternativet er at bilen kan risikere at slå en ihjel, vil man så ikke vælge at beskytte sig selv og sin familie?


Ingen kommentarer:

Send en kommentar