I begyndelsen af 2019 fik Gladsaxe kommune ørerne gevaldigt i mediemaskinen i forbindelse med deres forsøg med at bruge kunstig intelligens - den såkalte Gladsaxe-model.
Kort fortalt gik det ud på, at man skulle samkøre en masse data, man havde om børn og voksne i kommunen, deres adfærd, deres indkomst, deres bopæl og alle tænkelige andre datapunkter, og så se, om man kunne træne en algoritme til at forudsige, hvilke borgere, der ville få brug for hjælp, støtte og vejledning fra kommunen, således at man kunne gribe ind så tidligt som muligt. Meget kort fortalt.
Lignende tanker var i 2018 højt på dagsordenen i Socialministeriet, hvor man også mente, at en omfattende dataanalyse kunne identificere udsatte børn så tidligt som muligt.
Frygten (formentlig velbegrundet) var i begge tilfælde, at det ville gå alvorligt ud over borgernes retssikkerhed, efterhånden som myndigheder i blind tillid til algoritmen ville begynde at træffe forebyggende afgørelser alene "fordi computeren siger det" på et grundlag, som ville være baseret på et både usikkert og uigennemsigtigt grundlag.
Jeg tænkte: "Der er behov for et etisk regelsæt for myndigheders og virksomheders anvendelse af kunstig intelligens i situationer, hvor det influrerer på beslutninger, der kan påvirke borgerne negativt. Og det er mig, der skal lave det. Måske vil man med tiden bare referere til det som The Rasmussen Rules".
Efter to uger i tænkeboks var jeg klar til at begynde at formulere mine regler. De skulle være lige så skarpe og på samme tid universelle og letforståelige som Asimovs robotlove.
Inden jeg gik i gang, tænkte jeg: "Måske skulle jeg lige Google og se, om der er nogen, der har lavet noget, jeg kan stjæle lade mig inspirere af".
Det var der.
En ekspertgruppe med 52 medlemmer har formuleret et forholdsvis kortfattet regelsæt, som kommer omkring alt det, jeg selv havde tænkt, og så lidt mere.
- Human agency and oversight: AI should not trample on human autonomy. People should not be manipulated or coerced by AI systems, and humans should be able to intervene or oversee every decision that the software makes.
- Technical robustness and safety:
AI should be secure and accurate. It shouldn’t be easily compromised by external attacks (such as adversarial examples), and it should be reasonably reliable. - Privacy and data governance:
Personal data collected by AI systems should be secure and private. It shouldn’t be accessible to just anyone, and it shouldn’t be easily stolen. - Transparency:
Data and algorithms used to create an AI system should be accessible, and the decisions made by the software should be “understood and traced by human beings.” In other words, operators should be able to explain the decisions their AI systems make. - Diversity, non-discrimination, and fairness:
Services provided by AI should be available to all, regardless of age, gender, race, or other characteristics. Similarly, systems should not be biased along these lines. - Environmental and societal well-being:
AI systems should be sustainable (i.e., they should be ecologically responsible) and “enhance positive social change” - Accountability:
AI systems should be auditable and covered by existing protections for corporate whistleblowers. Negative impacts of systems should be acknowledged and reported in advance.
Her tænker du nok: "Det var prisværdigt kortfattet, taget i betragtning, at det er et EU-dokument. Det er selvfølgelig godt, men jeg savner noget lidt mere konkret i forhold til, hvordan man udmønter disse udmærkede principper i praksis.
Hvis bare der var et eller andet liiiiidt mere omfattende dokument, så ville jeg hente og læse det med det samme."
Neiij, tænk engang. Lykken tilsmiler dig:
For det hele er uddybet i et - stadig prisværdigt kortfattet og letforståeligt - dokument med titlen "ETISKE RETNINGSLINJER FOR PÅLIDELIG KUNSTIG INTELLIGENS", der nedbryder de overordnede principper i konkrete underpunkter med konkrete checklister.
Ekspertgruppen er i øvrigt ret bredt sammensat med repræsentanter for både erhvervsliv (både dem, der udvikler og dem, der anvender AI), myndigheder, interesseorganisationer og forskningsverdenen.
Sådan. Gå ud og vær etisk i din brug af kunstig intelligens. Afsted.