Politik

Brug af algoritmer og data skal være underlagt etisk tilsyn

Artikel af Lars Qvistgaard, formand for Akademikerne, bragt i Politiken den 26. februar 2018.

Algoritmer kan forudse dit seksåriges barns fremtid, men Algoritmer er og bliver aldrig ikke objektive. De er et udtryk for data og historik skrevet i computerkode og derfor afhænger fremskrivningen i algoritmen af mennesket bag koden.

KL åbner nu op for brugen af algoritmer med mulige pilotforsøg i rapporten defem teknologiske temaer, men hverken forældre, udviklere eller myndighederne har noget overblik over, hvilke utilsigtede konsekvenser brugen af bigdata og algoritmer kan have for vores børn, medborgere eller syge.

Før vi overhovedet begynder at eksperimentere med algoritmer, som kan undervise og forudse små børns fremtid, er det nødvendigt at diskutere slagsiden ved disse algoritmer. Vi mangler en langt større bevidsthed om algoritmerne og de potentielle negative konsekvenser, de kan have.

Jeg mener, at der mere end nogensinde er behov for et etisk digitaliseringsråd, hvor dilemmaer og udfordringer kan drøftes og derpå følges op af etiske retningslinjer, vi kan bruge som fælles pejlemærke.  

Problemet er, at algoritmer kan være selvopfyldende profetier, der indeholder bias. Derfor kan brugen af algoritmerne få meget negative konsekvenser særligt for minoriteter og udsatte grupper. Et skrækscenarie er, at undervisningen i folkeskolen bliver som det ekkokammer, vi kender fra Facebook, man får kun opdateringer og nyheder fra folk, som mener det sammen som en selv, så man fx i folkeskolen kun kommer i gruppe med personer med samme svagheder eller ens meninger, fordi det så er billigere at undervise. Det er derfor vigtigt, at alle, som arbejder og bruger algoritmerne dvs. udviklere, ledelse og strategiske medarbejdere forstår, hvordan de fungerer, og hvilke slagsider der kan opstå ved brugen af dem. 

Selvfølgelig skal vi udnytte teknologien, og de muligheder og forbedringer de medfører. Fx viser ny forskning, at kunstig intelligens er bedre til at forudsige hjertestop end nogen læge, fordi algoritmen kan sammenligne patientens tilstand med meget store datasæt i realtid, og det er positivt.

Men som samfund har vi lige nu også brug for guidelines og en offentlig diskussion om konsekvenserne ved brug af algoritmer og big data. Hvornår og hvordan bruger vi dem positiv, og hvornår og hvordan undgår eller minimerer vi de uheldige slagsider. Denne debat skal vi ikke tage, mens vi bruger og udvikler algoritmer, men inden.

[X]