Nu synes det omsider at dæmre. Men det tog minsandten sin tid, før end bevidstheden om de enorme etiske dilemmaer, der opstår med det databårne samfund, dukkede op på den offentlige dagsorden.
Til sammenligning udløste Danmarks første reagensglasbarn, der kom til verden i oktober 1983, omgående en meget omfattende og lidenskabelig etisk debat. I den anledning nedsatte daværende indenrigsminister Britta Schall-Holberg et udvalg, der allerede året efter (i 1984) udgav en betænkning om de nye bioetiske dilemmaer [1] – det var den betænkning, der ledte frem til oprettelsen af Det Etiske Råd ved lov i folketinget 22.maj 1987.
Helt anderledes med den teknoøkonomiske udnyttelse af Big Data til datamining og disruption, der begyndte at indfinde sig omkring årtusindeskiftet. I stedet for kritiske undersøgelser og skeptiske analyser, udløste dataismens opkomst en veritabel goldrush blandt forskere – hvem kan ikke udvikle en ny app, der kan indbringe en halv milliard kroner? Samtidig var mange feberhede konferencer og forskertræf præget af teknonaive forestillinger om en ny demokratisk morgenrøde; den oprindelige Apple-ideologi om digitaliseringens platforme som redskaber for en slags allemands-inddragelse, var endnu dominerende. At de disruptive teknologier tværtimod var samfundsomvæltende i flere negative henseender, anerkendte stort set ingen.
De tidligste kritikere – som Evgeny Morozov (2011), Byung-Chul Han (2012), David Brooks (2013), Frank Pasquale (2015), Bruce Schneier (2015), Klavs Birkholm (2016), Cathy O’Neil (2016), Franklin Foer (2017) og James Bridle (2018) [2] – var alle oppe imod en spærreild af fornægtelser. Det var først, da Shoshana Zuboff i 2019 med sin mammut-bog om overvågningskapitalismen formåede at samle alle tråde til en systematisk kritik, at der blev slået hul i fortrængningens mur. Omsider kom dataetik på den offentlige dagsorden, og kravet om nedsættelse af et ”dataetisk råd” blev rejst fra flere sider.
Men desværre er debatten endnu præget af en del skavanker. (1) For det første kan der iagttages en udbredt tendens til at identificere dataetik med ”datasikkerhed”. (2) Parallelt hermed forveksler et meget stort antal debattører de nye teknoetiske dilemmaer med juridiske udfordringer. (3) Og for det tredje, delvis som konsekvens af disse to tendenser, hersker en flagrant uklarhed om, hvad det nyoprettede Dataetisk Råd i grunden skal foretage sig, og hvad der bør være dets rolle i et demokratisk samfund som det danske.
I.
IT-leverandører og konsulentfirmaer, som garanterer datasikkerhed for deres kunder, ved ikke, hvad de udtaler sig om. Datasikkerhed findes nemlig ikke i den virkelige verden. Guld, for eksempel i form af barrer, kan man låse inde og sikre med en sandsynlighed, der nærmer sig de éthundrede procent – for eksempel i Fort Knox! Den metafor kan bare ikke anvendes på data, som både i deres stoflige karakter og i deres værdi adskiller sig afgørende fra guldet.
Data er, i alt hvad vi her taler om, informationer lagret i digitalt format. I princippet kan en sådan masse af data, der opbevares på en harddisk, godt lukkes sikkert inde i et pengeskab eller lignende. Ligesom guld. Men så snart de pågældende data skal arbejde, d.v.s. skal anvendes til noget, må de i kontakt med et eller flere digitale apparater. Og alle den slags apparater er i dag indfældet i, hvad Adam Greenfield betegner som et ”interplanetarisk miskmask” af kommunikation – mellem udstyr i boliger, udstyr i byrummene og bærbart udstyr på det enkelte menneske [3]. Det kaldes også Internet of Things (IoT) og er blandt meget andet karakteriseret ved, at alt kan finde frem til alt. RFID-tags, sensorer, WiFi og 4G/5G netværk findes efterhånden alle steder. Som IBM’s danske CEO for Internet of Things, Kim Escherich har forklaret mine studerende på AAU: Selv det mest afsikrede spillecasino i Las Vegas, midt i Nevadas ørken, kunne hackes, da det først lykkedes de ubudne gæster at få kontakt med en sensor i casinoets guldfiskeakvarium. En enkelt sensor i et akvarium var nok!
Og det nytter netop intet at holde datasættene isoleret. Datas værdi består i at lade dem arbejde. Arbejde sammen, vel at mærke. I den aflåste boks er de værdiløse. På dagens marked er de arbejdsvillige data til gengæld mere værd end guld. Og olie! Og medicinpatenter! I volumen og kapitalafkast overtrumfes alle andre varegrupper nu af markedet for data: Persondata. Data om vores søgehistorik. Data om vores adfærd. Data fra vores browsere, fra vores smart-TV, vores fitbit, ansigtsmålinger, købehistorik og så videre.
Blandt alle disse mange data befinder sundhedsdata sig helt i toppen, hvad markedsværdi angår. Man må derfor rive sig i håret, når man læser (Berlingske Tidende 30.10.2019), at “Erhvervsstyrelsen inviterer hele verden til leg med danske sundhedsdata” [4]. Ligesom man må fortvivle, når en afdelingsleder i “Sundhedsdatastyrelsen” (Karen Marie Lyng) uden videre inviterer til indsamling af endnu flere sundhedsdata i én stor pærevælling af privat/offentlig IoT i den danske sundhedssektor. [5]
I det akkumulerende PRO (register for patientrapporterede sundhedsoplysninger), i forslagene om at gøre hele befolkningens DNA (på Statens Seruminstitut) til frugtbar forskningsmark og i andre tilsvarende tiltag, forsvarer de ukritiske fagpersoner og de teknonaive embedsmænd sig ofte med, at data kan anonymiseres eller “peudonymiseres”. Nej! Som enhver efterretningsagent med indblik i cybertrusler kan berette, behøver man mindre end ti datapunkter for at kunne gøre et hvilket som helst sæt af persondata personhenførbart.
For nylig kom det frem, at det britiske Sundheds- og Socialvæsen (NHS) har solgt medicinske data på millioner af patienter til internationale medicinproducenter og dækket sig ind under den misvisende påstand, at datasættene var “anonyme”. Men, som professor i Cybersikkerhed ved De Monfort universitetet i Leicester, Eerke Boiten, forklarer: “If it is rich medical data about individuals then the richer that data is, the easier it is for people who are experts to reconstruct it and re-identify individuals.” [6]
Historien blev præsenteret som en nyhed, men den er en gentagelse af mange, lignende historier verden rundt. Det er derfor, Edward Snowden hele tiden understreger, at det bedste man kan gøre i datasikkerhedens tjeneste, er at lade være med at samle ret mange data på samme sted. Stærk kryptering kan udsætte eksponeringen, men ikke forhindre den. [7]
Så – ja, data er ustyrlige. Det ligger i deres natur. Datalækager og andre slags dataskandaler dukker op hele tiden. Ikke mindst fordi profitiver forårsager en stor fortrængning af , hvad datateknologier overhovedet er. Lidt mere anstændig opførsel ville være klædeligt, og i den forstand er moral selvfølgelig hele tiden indblandet. Men datasikkerhed er ikke et problem, der kan “løses” ved hjælp af etiske retningslinjer.
II.
En anden udbredt misforståelse er forvekslingen af dataetik med jura. I en demokratisk retsstat bør lovgivningen selvsagt være i overensstemmelse med samfundets etiske normer. Men etiske normer kan ikke printes ned på en regnestok, der kan benyttes som måleinstrument ved udformning af nye lovbestemmelser eller ved revision af ældre. Gråzoner og skøn hører til dagens orden. Og undertiden gør den etiske fordring krav på, at man bryder loven. Civil ulydighed kan være det eneste moralsk forsvarlige, jævnfør netop Edward Snowdens eksempel. Selv om dataetiske refleksioner godt kan pege frem mod reguleringer af juridisk art, kan de også lægge op til helt andre typer af initiativer.
Sammenblandingen af dataetik og jura bliver særlig alvorlig, når fortællingen handler om, at juraen ikke har kunnet holde trit med den teknologiske udvikling, og at vi derfor må se at få revideret “de blokerende paragraffer”, så vi kan få fart på udnyttelsen af smarte, nye teknologier. Det er for eksempel den fortælling, kommunikationsrådgiveren Gry Hasselbalch abonnerer på. Hun skriver:
Introduktionen af nye teknologier har altid på et tidspunkt under deres implementering i samfundet ført til, at lovgivning er blevet revideret, men især også til en genopfriskning af vores etiske værdisystemer. [8]
Det lyder i sandhed interessant, at vi skal “genopfriske” vores etiske værdier som følge af ny teknologi! Er det omsorgen, er det tilliden, eller er det talens åbenhed, der skal have en ny og “friskere” twist? Eller sigtes der til anerkendelse? til autencitet? til agtelse? Gry Hasselbalch nævner ikke en eneste etisk værdi ved navn, men hun skriver, at “datadrevne tjenester, produkter og analyseredskaber” nu udvikles i et hidtil uset tempo, og at vi derfor er “i gang med, hvad man kunne kalde en etisk revision i samfundet”. Heraf hendes definition på dataetik:
Dataetikken ser fremad og spørger ind til, hvordan vi kan sikre, at loven følger med udviklingen og tolkes til fordel for den enkelte.
Det er også Digitaliseringsstyrelsens mantra, senest gentaget af styrelsens direktør, Rikke Hougaard Zeberg i indlægget “Bedre retssikkerhed kræver lovgivning, der passer til digital hverdag”. [9] I tænketanken TeknoEtik mener vi omvendt, at teknologierne skal indrette sig efter vores etiske normer. En etisk teknologivurdering handler ikke – slet ikke! – om at få lovgivningen til at “følge med” den teknologiske udvikling. Men i TeknoEtik er vi heller ikke virksomhedsrådgivere.
Blandt virksomhedsrådgivere, konsulenter og it-entreprenører er det en udbredt opfattelse, at loven snarest må bringes i overensstemmelse med de teknologiske muligheder. I den forbindelse er det værd at notere, at vi i disse år oplever et forstærket pres for integration mellem offentlige myndigheder og private (og quasiprivate) leverandører af “digitale løsninger”. [10]
En etnografisk undersøgelse, baseret på 36 kvalitative interviews med ledere fra en række offentlige organisationer, peger ret éntydigt på, at der her findes en voldsom appetit efter at få revideret lovgivningen, så den ikke kan bremse for indførelsen af såkaldt kunstig intelligens og andre typer automatisering af sagsbehandlingen. Undersøgelsens forfattere, Lise Justesen og Ursula Plesner citerer blandt andre en leder fra Digitaliseringsstyrelsen for at sige: […] “hvis vi skal rykke os fra der, hvor vi er i dag, jamen så kan vi ikke gøre det med den lovgivning, der er i dag. Der bliver man nødt til at genvurdere eller redesigne lovgivningen efter, hvad der er teknisk muligt, og hvad man ønsker at opnå […]”.
Som Justesen og Plesner konstaterer, ønsker både denne leder og mange andre sig en “lovgivning, som bl.a. er designet med henblik på at muliggøre digitalisering, herunder ikke mindst automatisering af administrative processer. Det er lovgivning, der åbner op for en forskydning af en række opgaver, så de ikke længere baserer sig på skøn, men i stedet kan foretages af en algoritme.” Forskerne tilføjer:
En anden leder argumenterede tilsvarende med en direkte henvisning til en algoritmisk tankegang og sprog for, at man i højere grad er nødt til at ”lave loven sådan, at man kan skrive i kodesprog: If – then – else” (leder af udbetalingsenhed). Det vil sige, at selve det binære sprog, som ligger til grund for digitale teknologier, ifølge hende bør danne udgangspunkt for, hvordan love formuleres i fremtiden. Det nye element, der etableres med digitaliseringsbar lovgivning i netværket omkring digitalisering, er således simpel lovgivning, som tilpasser sig digitalisering og en algoritmisk tænkning.
Vi ser her en principløs holdning til grundlæggende retsprincipper, og mit ærinde er selvsagt ikke at påstå, at der ikke er etik på spil i synspunkter af den art. Det er der i høj grad. Men de etiske dilemmaer i digitaliseret sagsbehandling rækker bare langt ud over det lovgivningsmæssige, der fokuseres på her.
Tilsvarende var der også etik på spil, da en hollandsk domstol den 5.februar 2020 besluttede, at det regerings-iværksatte AI-system SyRI, der er designet til at fange misbrug og snyd med velfærdsydelser, er i strid med de grundlæggende menneskerettigheder, som Holland har forpligtet sig på at efterleve. Systemet er prædiktivt og ligner, hvad mange danske kommuner pusler med. Etisk set er det godt, at en domstol sætter hælene i og på den måde muligvis inspirerer til debat i andre lande. Men etik er også mere end menneskerettigheder.
III.
Men hvis dataetik er andet og meget mere end datasikkerhed og datajura, hvad er det så?
Etik har siden Aristoteles været en disciplin, der handler om at vælge de handlinger, som fører til det gode liv i fællesskabet. Jeg skriver udtrykkeligt “i fællesskabet”, for til forskel fra en udbredt tendens i angelsaksisk filosofi (men i overensstemmelse med Aristoteles) vil jeg hævde, at intet menneske kan realisere et godt liv i splendid isolation. Og til forskel fra endnu flere systemtænkende økonomer og ingeniører, der opfatter mennesket som magtesløst vis-a-vis et anonymt megamaskineri, der driver “udviklingen” ubønhørligt, hvorhen ved ingen, vil jeg med Vaclav Havel hævde “de magtesløses magt”: Vi kan træffe valg. Etik er fortsat en mulig disciplin. Endda en disciplin, der er mere tiltrængt end nogensinde.
Jeg har andetsteds præsenteret en model til, hvordan man kan foretage et etisk skøn over nye teknologier. [11] Her, hvor det drejer sig om de datadrevne teknologier, kan man til at begynde med passende undersøge, om nogen af vores grundlæggende etiske normer – for eksempel nogen blandt de seks ovenfor nævnte: omsorg, tillid, talens åbenhed, anerkendelse, autencitet, agtelse – kommer i klemme med en given teknologi. Hvor vil teknologiens implementering føre samfundet hen?
For at kunne foretage en sådan refleksion er det nødvendigt at mobilisere en vis, sociologisk fantasi, som Adam Greenfield eksempelvis gør, når han om ‘den smarte bolig’ og ‘den smarte by’ siger, at vi “køber bekvemmelighed og betaler med frihed”. [12] Greenfield har selv designet ‘smart by teknologier’ i både Tokyo og Helsinki, så han er selvfølgelig faglig ekspert på området – men mindre kan også gøre det. Det er i virkeligheden ikke særlig vanskeligt at reflektere over plusser og minusser, hvis alle husstande får fjernstyrede vaskemaskiner, hvis man installerer Google Assistant i stuen, eller hvis smartphones bliver det eneste betalingsmiddel i butikker.
For at indkredse det nærmere, kan vi måske spørge, hvilke sager der lige nu bør veje tungest på Dataetisk Råds dagsorden? Jeg vil her fremhæve to: (A) indførelse af ansigtsgenkendelse i det offentlige rum til almindelig politiefterforskning og specielt til kriminalitetsforebyggende formål; (B) udviklingen af prædiktive systemer i socialforvaltningerne, blandt andet i børnesager. Begge spørgsmål er højaktuelle, og begge rammer i centrum af, hvad dataetik bør handle om.
A. Ansigtsgenkendelse er en teknologi, der udvikler sig eksplosivt p.t. Det er også et godt eksempel på et mere og mere udbredt fænomen: at politikere og deres rådgivere udtaler sig uden at forstå sammenhængen i selve teknologien. “Det er en teknologi, vi har kendt længe. Du har den selv på din mobiltelefon, Mogensen”, sagde Anders Fogh Rasmussens tidligere spindoktor, Michael Kristiansen for nylig i TV2 News programmet Tirsdagsanalysen (4.2.2020).
Nej! Den simple lås-op-mekanisme, som Peter Mogensen og andre måske har på deres telefoner, er ikke baseret på selvlærende algoritmer og i det hele taget langt mere primitiv end det, som Københavns Politi og partierne Venstre og Dansk Folkeparti ønsker indført. Det er en misforståelse i samme retning, Venstres Inger Støjberg giver udtryk for, når hun siger, at ansigtsgenkendelse i det offentlige rum “kun” skal anvendes mod kriminelle og ikke mod lovlydige borgere.
Teknologien forudsætter simpelthen, at også lovlydige borgere ansigtsgenkendes. Den selvlærende algoritme kræver nemlig at blive “trænet” på et meget stort sæt data. Den kan ikke nøjes med “forbryderalbum”. Et eksempel finder man hos USA’s føderale forskningsenhed IARPA. Deres Janus-program bygger på datasæt, der omfatter godt 21.000 ansigtsbilleder af i alt 3.500 personer af vidt forskellige professioner og bosat i forskellige dele af verden. Ingen af personerne har oprindelig været vidende om brugen af deres fotos; de er skrabet sammen af IARPA’s underleverandør Noblis via en Creative Commons Licens.
Noget tilsvarende gælder stort set alle de hundredvis øvrige datasæt, som anvendes af andre virksomheder i samme branche. Der er tale om et hastigt voksende marked, som i 2022 forventes at ramme en global værdi omkring 60 milliarder DKr. Og selvsagt har de mange, konkurrerende operatører taget afsæt i vidt forskellige datasæt. [13]
Vigtigt er her, at jagten på værdifulde datasæt i meget høj grad har ændret karakter de seneste ti år. [14] Førhen anvendtes kun fuldt belyste en face portrætter (som dem der tages hos fotografen og ses i pas og identitetspapirer). Men i den analoge virkelighed fanger kameraerne mestendels folk i andre positioner – med ansigterne delvist skjulte bag tørklæder eller kraver, våde fra regnvejr, dårligt belyst på grund af skygge eller tåge, osv. Det er grunden til, at BBC i maj 2018 kunne konstatere: ”Politiets værktøjer til ansigtsgenkendelse er svimlende upræcise”. [15]
For at kunne overvinde denne vanskelighed må algoritmerne trænes på langt mere varierede og større datasæt. Som f.eks. Facebook-poster med billeder fra familiefester; fotos fra Flickr og Instagram; videosekvenser og fotos fra skjulte kameraer på bytorve, markeder og universitetscampus’er. Endda overvågningskameraer i butikker og caféer. Al den slags materiale anvendes nu i tusindvis af akademiske studier og af techvirksomheder til at lokalisere en given person og tracke ham, mens han bevæger sig rundt i bybilledet – dermed bliver maskinen bedre til personspecifik genkendelse.
Nogle debattører tror en smule naivt, at ”databasen” er et forbryderalbum, så hver gang en ”uskyldig” fiskes frem, kan han eller hun omgående blive slettet igen. Men sådan fungerer det ikke. Nu cirkulerer materiale fra bl.a. Facebook, Google, IBM, det kinesiske SenseTime og Baidu tværtimod hele verden rundt – fra Rusland til Tyrkiet, fra Kina til England, fra Australien til Israel. Kort sagt: der er en meget høj sandsynlighed for, at du er i arkivet!
Men hvad betyder det? Det betyder, at du befinder dig i politiets lineup til identifikation af forbrydere. Ligesom i en krimi, hvor vidnet bag en énvejsrude skal udpege en gerningsmand. Du har bare aldrig nogensinde givet dit samtykke til at stå der.
Er det etisk acceptabelt, at Baidu, Microsoft etc. kan sælge eller dele en samling fotos af dig, mens du skåler i øl, kysser din kæreste, eller sveder under en DHL-stafet? Ikke efter min opfattelse. For dermed flyttes nogle grænser, der altid har været vitale for demokratiet: Du befinder dig pludselig eksponeret i byens rum uden at vide det og uden at ville det.
Mindst to etiske normer krænkes med andre ord, hvis teknologier til ansigtsgenkendelse bliver gængse i det offentlige rum: 1) friheden til at sige til eller fra at blive personligt registreret, også kaldet retten til informeret samtykke, der i sidste instans kan føres tilbage til normen autonomi: hvert enkelt menneskes ret til selv at bruge sin fornuft til at foretage sine egne valg; og 2) den gensidige tillid, som er grundpillen i et samfund som det danske: at vi ikke permanent skal kontrollere hinanden, at vi stoler på fællesskabet.
B. Den anden sag, jeg vil trække frem her, handler om prædiktion (forudsigelse) ved hjælp af kunstig intelligens i socialforvaltningerne. Rationalet bag den famøse Gladsaxe-model, der efter voldsomme protester blev skrinlagt af VLAK-regeringen i december 2018, var sådan set fint og godt: Jo tidligere, man kan opspore udsatte børn, jo større er sandsynligheden for, at man kan hjælpe dem via en socialfaglig indsats. Flertallet af de børn og unge, der ender med at blive anbragt eller på anden måde modtage offentlig hjælp til at få deres tilværelse på ret køl, dukker først op på kommunens radar, når de kommer i skolealderen, eller senere endnu. Men al forskning fortæller, at chancen for at hjælpe vil være mange gange større, hvis bare man kunne begynde indsatsen i en langt tidligere alder. Ideelt set i barnets første leveår.
Er det da ikke udtryk for menneskekærlig omsorg, hvis en kommune (eller anden myndighed) vil forsøge at udnytte den frembrydende it-teknologi til at bygge en algoritme, som kan forudsige, hvilke børn der med årene vil ende som udsatte? Jo – hensigten fejler ikke noget, men vejen til helvede er som bekendt også brolagt med gode hensigter. Som teknologi-etiker må man ikke stirre sig blind på hensigten, men skal undersøge virkningerne af teknologiens implementering på både kortere og længere sigt.
Med en af de klassiske kortslutninger oplyste Gladsaxe Kommune, at fordi man vægter datasikkerhed og informationssikkerhed højt, havde man valgt det hastigt ekspanderende amerikanske datafirma Alteryx som samarbejdspartner (!) til at udvikle den prædiktive algoritme. 44 risikoindikatorer blev identificeret, således: er barnets forældre skilt? har en af forældrene – eller begge – været ramt af arbejdsløshed? er barnet udeblevet fra skolens sundhedspleje? eller fra tandplejen? er der en historie med psykiske lidelser i familien? eller med stofmisbrug? har nogen i familien været i kriminalpolitiets søgelys? eller måske ligefrem modtaget en dom? tilhører familien en etnisk gruppe, der typisk har integrationsvanskeligheder i Danmark? Etc.
Ved at samkøre alle disse data, hentet fra ni forskellige registre, ønskede kommunen at zoome ind på de småbørnsfamilier, som havde størst sandsynlighed for at udvikle vanskeligheder under børnenes opvækst. Disse familier skulle så have besøg fra kommunens “team tidlig indsats”. Og selv om projektet er skrinlagt, lægger Gladsaxe Kommune ikke skjul på, at de arbejder videre med idéen.
Mindst to etiske normer krænkes af denne teknologiske “løsning”. For det første – og i en slags pendant til en af udfordringerne ved ansigtsgenkendelse – er det i vores moderne demokrati en umistelig ret for hvert enkelt menneske selv at vælge, hvornår han eller hun træder fra det private rum ud i det offentlige rum – og tilbage igen. At inddrage nærmere undersøgelser af sagesløse personer i en jagt på de rådne æbler – eller, om man vil, på “tabere” – er en grænseoverskridende og uacceptabel krænkelse. De pågældende, der modtager besøg fra “team tidlig indsats”, får uden deres egen godkendelse offentliggjort det private. Det var også denne (potentielle) krænkelse, fremdraget blandt andet i dagbladet Politiken og i tech-magasinet version2 , der udløste et offentligt stormvejr og fik regeringen til at skrinlægge, hvad der eller havde været et frikommune-projekt.
Men for det andet – og faktisk langt alvorligere – bygger Gladsaxe-modellen også på den prædiktive teknologitolkning, der hele tiden dukker op som drøm eller snarere som mareridt i forbindelse med Big Data og tilløb til kunstig intelligens: Når vi kan samkøre tilstrækkelig mange data til at se en massiv korrelation mellem f.eks. langtidsledighed og vold i familien, eller mellem etnicitet og kriminalitet etc., så kan vi benytte teknologien til at forudsige både det ene eller det andet: Vi kender din adfærd. Det er baggrunden for, at vi har “predictive policing” i både UK og USA – og tilløb til det i Danmark. Og det er baggrunden for, at vi nu vil forsøge at finde sociale bedragere ved hjælp af prædiktion. … Og altså, børn det vil gå galt for.
Men, som Hannah Arendt har påpeget, mennesket adskiller sig fra alt andet i verden ved, at hvert eneste eksemplar af arten er unikt. Det adskiller os ikke alene fra industrielle produkter (artefakter), det adskiller os også fra dyrene. Hver eneste fødsel er en ny begyndelse. Derfor har fremtiden altid været uvis, siden de første mennesker gik på jorden. Fremtiden har altid været kendetegnet ved, at noget uventet kan indtræffe. Ét menneske på vej mod en forbrydelse kan fortryde, en anden person på vej mod stofmisbrug kan pludselig bryde det forud fastlagte mønster, en tredje kan få sit liv ændret af en overraskende kærlighed.
Når det ser allersortest ud, håber vi på det uventede. Det er det mest problematiske ved at lade digitale teknologier fortrænge det socialfaglige skøn. Med prædiktive algoritmer lades alt håb ude.
IV.
Det Dataetiske Råd blev nedsat i maj 2019 og har foreløbig [16] ikke udtalt sig om noget. Rådet består af 13 medlemmer, hvoraf de fem er jurister, herunder formanden. Det er mindst tre for mange! Jurister har som faggruppe det meget store og ofte befriende fortrin, at de koger pro & contra ned til det essentielle; det er retssalens væsen. Det er bare ikke opgaven i det Dataetiske Råd; her gælder det ikke om at føre proces endsige at indskrænke problemerne, men tværtimod om at få en mangfoldighed af etiske dilemmaer frem i lyset.
Det betaler sig at sammenligne med det ældre, (bio)Etiske Råd fra 1987 – en sammenligning, som også foretages i Dataetisk Råds kommissorium. [17] Selv oplevede jeg, i de otte år jeg sad i Det Etiske Råd (2003-11), hvordan man i andre europæiske lande beundrede vores danske konstruktion. Det var ikke mindst lægmandselementet –”forsamlingshusmodellen” – der gjorde rådet til noget særligt i international sammenhæng. I Tyskland omstrukturerede man ligefrem på et tidspunkt sit tilsvarende råd i mere dansk retning.
Vi kan takke daværende indenrigsminister Britta Schall-Holberg og hendes embedsmænd for deres fremsynethed, da rådet blev udformet. Hvis vi forsøger at anvende de samme principper på det Dataetiske Råd, kan vi måske samle dem i fem forskrifter:
(1) Det Dataetiske Råd skal fungere som mediator mellem på den ene side den folkelige optagethed og bekymring over dataismen, på den anden side lovgiverne og myndighederne. Rådet skal både initiere offentlig debat og vejlede Folketinget. Det betyder, at en vis del af rådets budget skal afsættes til foreninger, skoler, biblioteker, etc., som må kunne søge tilskud til at arrangere offentlige debatmøder om dataetik. Og det skal vel at mærke være arrangørerne selv, der formulerer deres specifikke problemstilling og vælger, hvem de ønsker indbudt. Medlemmer af rådet bør så vidt muligt stille sig til rådighed som foredragsholdere, men topstyring af den slags møder vil være kontraproduktivt for debatten.
Dataetisk Råd afholder den 20.marts et helt igennem topstyret møde på IT-universitetet i København med titlen “Et Europa klar til den digitale tidsalder”. Det er selvfølgelig udmærket, men debatten skal også til Maribo, Thisted, Kerteminde og Møgeltønder, og det kommer den bedst gennem tillid til de helt lokale initiativer.
(2) Det Dataetiske Råd skal ikke træffe beslutninger, og det må gerne komme med delte indstillinger. Faktisk hellere end gerne. Etiske dilemmaer egner sig som nævnt ikke til, at man forhandler dem ned til et kompromis, de skal tværtimod stilles skarpt. Debatten vil trives med redegørelser (og forhåbentlig vil der komme mange redegørelser), hvor et flertal anbefaler sådan og sådan, et mindretal noget andet, endnu et mindretal noget tredje. Etc.
(3) Ekspertise, såsom teknologisk ekspertise, er ikke nogen speciel fordel at have med i rådet. Med K.E. Løgstrups ord: “Et menneske kan sagtens være ekspertbegavet og livsstupid på en og samme tid.” Det er et velkendt fænomen, som enhver uden tvivl har oplevet. Et etisk råd skal befolkes med livserfarne, engagerede mennesker, der tænker selvstændigt og ikke ligger under for ekspertisens autoritet. Eksperter kan indkaldes efter behov.
Det er i den forbindelse besynderligt, hvorfor rådets formand, Johan Busse udtaler: “Det er er råd med virkelig mange kvalificerede topfolk.” [18] Hvad betyder “topfolk” her?
(4) Medlemmer af rådet må ikke varetage nogen som helst anden interesse end etikken. Det skal for det første ikke være et “ben” at sidde i rådet; det skal være et borgerligt ombud og derfor tidsbegrænset og ulønnet. Men for det andet må der på ingen måde være sammenfald mellem på den ene side de problemstillinger, man arbejder med i rådet, og på den anden side økonomisk motiverede projekter i medlemmernes arbejds- og privatliv. Man kan ikke seriøst tage stilling til de etiske aspekter af dataekstraktivisme eller overvågningsteknologi, hvis man arbejder i en virksomhed, der beskæftiger sig med den slags.
(5) Endelig, og ikke mindst vigtigt: Det Dataetiske Råd skal have sit eget, selvstændige sekretariat. Det kniber noget med flere af de fire ovennævnte principper, men med lidt god vilje godt kunne de måske forenes med rådets kommissorium. Derimod er det en virkelig skandale, at sekretariatsbetjeningen nu er lagt ind under Digitaliseringsstyrelsen (Finansministeriet), Erhvervsstyrelsen (Erhvervsministeriet) og Justitsministeriet. [19] Det er at sætte ræven til at vogte gæs. Det Dataetiske Råd skal have mulighed for at rette kritik mod Digitaliseringsstyrelsen (eller nogle af dens tiltag); at kritisere Erhvervsstyrelsen for manglende reguleringer etc. – og det får rådet ikke mulighed for, hvis nosy embedsmænd fra de tre ministerier/styrelser hele tiden skal have snablen nede i dets arbejde. Tværtimod skal et sekretariat selvfølgelig være behjælpeligt med at formulere en sådan kritik. Altså: Rådet skal selv ansætte sin egen sekretariatschef og sine egne sagkyndige medarbejdere.
Kort sagt: Dataetisk Råd må ikke (som nu) være en del af den udøvende magt, det skal snarere betjene og samarbejde med den lovgivende magt. Jeg foreslår, at folketingets nuværende udvalg for Det Etiske Råd gøres til et udvalg for de etiske råd.
NOTER:
[1] Indenrigsministeriet (1984). Fremskridtets pris. Rapport afgivet af indenrigsministeriets udvalg om etiske problemer ved ægtransplantation, kunstig befrugtning og fosterdiagnostik. København.
[2] Evgeny Morozov (2011). The Net Delusion: How Not to Liberate the World. London: Penguin.
– Byung-Chul Han (2012). Transparenzgesellschaft. Berlin: Matthes & Seitz.
– David Brooks, “The Philosophy of Data”, New York Times, February 4, 2013.
– Frank Pasquale (2015). The Black Box Society: The Secret Algorithms That Control Money and Information. Cambridge Mass.: Harvard University Press.
– Bruce Schneier (2015). Data and Goliath: The Hidden Battles to Collect Your Data and Control Your World. New York: W.W. Norton.
– Klavs Birkholm, “Den Anden Oplysningstid”, KlavsBirkholm.dk, 24.november 2016.
– Cathy O’Neil (2016). Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy. Maryland: Crown Books.
– Franklin Foer (2017). World Without Mind: The Existential Threat of Big Tech. London: Jonathan Cape.
– James Bridle (2018). New Dark Age: Technology and the End of the Future. London: Verso.
[3] Adam Greenfield (2017), Radical Technologies: The Design of Everyday Life. London Verso.
[4] Der er tale om en præmiekonkurrence, som de digitaliseringsfanatiske embedsmænd fra styrelsen har udklækket sammen med de digitale yuppier i svampeskoven af konsulentfirmaer.
[5] Foredrag ved konferencen Driving Health Tech – Hospital 4.0 – IoT udfordringen, Hvide Hus i Aalborg 30.11.2017.
[6] The Observer, 08.02.2020: “Revealed: how drug giants can access your health records”. Se: https://www.theguardian.com/technology/2020/feb/08/fears-over-sale-anonymous-nhs-patient-data
[7] Edward Snowden (2019). Permanent Record. New York: MacMillan.
[8] Gry Hasselbalch, “Kunstig intelligens efterlader dataetiske spørgsmål” i: Rikke Frank Jørgensen og Birgitte Kofod Olsen (ed.) (2018). Eksponeret: grænser for privatliv i en digital tid. København: GAD. (Teksten er i øvrigt skæmmet af stor begrebslig forvirring.)
[9] ALtinget: Digital, 22.01.2020. Se: https://www.altinget.dk/digital/artikel/digitaliseringsstyrelsen-bedre-retssikkerhed-kraever-lovgivning-der-passer-til-en-digital-hverdag
[10] Helle B. Antczak & Klavs Birkholm, “Når borgeren bliver til data …. fordufter den etiske fordring” i UDEN FOR NUMMER, 39/2019.
[11] Klavs Birkholm, “The Ethical Judgment: Teaching and learning techno-ethics”. Reprint hos tænketanken TeknoEtik, se: https://www.teknoetik.org/2019/05/15/the-ethical-judgment-teaching-and-learning-techno-ethics-reprint/
[12] Adam Greenfield, “Maskinernes overtagelse: Hvem er ‘tingenes internet’ til gavn for” – i: Klavs Birkholm & Niels Frølich (2018). De skjulte algoritmer: Teknoantropologiske perspektiver. København: DJØF Forlag.
[13] Se også den seneste historie om virksomheden Clearview: “AI-firma har skrællet tre milliarder billeder fra sociale medier” i VERSION2, 11.02.2020. https://www.version2.dk/artikel/ai-firma-har-skraellet-tre-milliarder-billeder-sociale-medier-1090006
[14] Som en af de ypperste akademiske eksperter på ansigtsgenkendelse, Kelly Gates fortæller, har teknologien været under udvikling lige siden 1960’erne. – Kelly A. Gates (2011): Our Biometric Future. Facial Recognition Technology and the Culture of Surveillance. NYU Press.
[15] “Face recognition police tools ‘staggeringly inaccurate'”, BBC.com 15.05.2018. Se: https://www.bbc.com/news/technology-44089161
[16] Pr 15.02.2020.
[17] Se: https://digst.dk/data/dataetisk-raad/
[18] “Dataetisk Råd er på jagt efter input for at danne holdninger”, VERSION2, 20.11.2019.
[19] “Digitaliseringsstyrelsen skal bidrage til sekretariatsbetjeningen af Dataetisk Råd”. Pressemeddelelse fra Digitaliseringsstyrelsen 03.04.2019. Se: https://digst.dk/nyheder/nyhedsarkiv/2019/april/digitaliseringsstyrelsen-skal-bidrage-til-sekretariatsbetjeningen-af-dataetisk-raad/