I løbet af det seneste år er det blevet en udbredt fortælling, at AI uundgåeligt vil transformere vores uddannelser. Man finder narrativet i udmeldinger fra investorer, personer i tech-industrien, uddannelses-iværksættere og toneangivende akademiske tænkere. Leder man efter argumenter til støtte for AI i uddannelserne, kan man finde dem overalt – i fagtidsskrifter, særnumre, håndbøger, på konferencer, i politiske dokumenter og retningslinjer, samt på de sociale medier og i uddannelses- og teknologi-pressen.
Andre har imidlertid argumenteret imod AI i uddannelserne. De har peget på nogle af de signifikante problemer, som teknologierne muligvis kan medføre eller forværre. Og de har bevidst sat dem til offentlig debat uden bare at antage, at AI i uddannelserne er noget uomgængeligt eller nødvendigt. (Naturligvis findes der også mange forsøg på at balancere de forskellige synspunkter, for nylig eksempelvis UK Parliament POSTnote.)
Den nyeste kritik af AI i uddannelserne er i overensstemmelse med Mike Ananny’s nylige opfordring til, at vi behandler AI som et ”offentligt anliggende”:
”Vi er nødt til at se AI som et hurtigt udviklende sprog, som mennesker anvender til at lære, til at skabe mening i deres verdener og til at kommunikere med andre. Med andre ord, vi er nødt til at se det som et offentligt anliggende. … Offentlige anliggender debatteres, udredes og håndteres i fællesskab; de er ikke et anliggende for private virksomheder eller selvudnævnt ”ansvarlige”, der arbejder på deres egne tidslinjer og med viden, de selv ejer. Ægte offentlige problemstillinger må aldrig outsources til private interesser eller særligt karismatiske autoriteter.”
Skoler og universiteter er på ingen måde hellige og urørlige institutioner, som skal beskyttes mod forandringer. Men de er en del af samfundenes sociale infrastruktur; deres formål omfatter blandt andet dannelsen af vidensduelige, informerede borgere og offentligheder. Bestræbelser på at transformere dem ved hjælp af AI må derfor anskues som et offentligt anliggende.
I denne artikel oplister jeg en række på i alt 21 argumenter omkring AI i uddannelserne. De begyndte som noter til et interview, jeg blev bedt om, og har rod i mit samarbejde med National Education Policy Center om en rapport vedrørende AI og K-12 skoler[1]. I rapporten accepterer vi, at AI eventuelt kan vise sig at være gavnlig under bestemte, vel definerede omstændigheder på skoler [herunder gymnasieskoler, jvf note 1, o.a.], men vi advarer også mod, at lærere og skoleledere bare kaster sig ud i at bruge teknologien, før end dens unikke udfordringer er undersøgt og behandlet adækvat, og tilstrækkelige mekanismer til sikring af offentlig indsigt er blevet installerede.
Artiklen skal nærmest opfattes som en lettilgængelig checkliste på baggrund af en gennemgang af den senere tids debatter samt presse- og forskningsartikler om emnet. En slags mikro-håndbog i kritik af AI i uddannelserne, uden tvivl ufuldstændig.
21 argumenter mod AI i uddannelser
Definitorisk uklarhed. Begrebet ‘kunstig intelligens’ savner klarhed; det mystificerer teknologiernes operationer, og det lover mange flere evner og mere ’magi’, end de fleste produkter kan stå inde for. Indenfor uddannelser er det vigtigt at skelne mellem forskellige former for AI, der er dukket op gennem de seneste halvtreds år. For tiden handler de fleste diskussioner om datasystemer, der indsamler information om eleverne med henblik på analyse og prædiktion, tidligere ofte omtalt som ’lærings-analytik’ med anvendelse af ’big data’; og desuden om ’generative AI applikationer som chatbot-tutorer, der skal understøtte elevernes læreprocesser via automatiseret dialog og prompter. Disse teknologier har deres egne historier, produktionskontekster og operationsformer, der alt sammen bør fremhæves i forhold til generaliserede påstande, som tilslører og fordunkler AI applikationernes faktiske processer og effekter; det er nemlig vigtigt, at teknologiernes implikationer for undervisning kan bedømmes præcist.
Hype fælden. Promovering af AI til skoler bakkes ofte op af hype. Den har to former: For det første benyttes industriens hype til at tiltrække læreres og lederes interesse ved at fremstille AI som en teknisk løsning på komplekse udfordringer i uddannelsen. Industriens hype har endvidere til formål at tiltrække investorers opmærksomhed, da AI kræver betydelige investeringer. For det andet kan AI i uddannelsessektoren føre til ’kritisk hype’ – det sker typisk, når kritikken implicit accepterer, hvad hypen påstår, og på den måde højner troværdigheden hos dem, der udbreder hypen. Risikoen ved begge de to former for hype er, at skolerne antager eksistensen af en særdeles kraftfuld teknologi, som de omgående bør gå ombord i, skønt de er helt uvidende om dens reelle begrænsninger, funktionsmangler og fejl, for slet ikke at nævne de komplekse etiske problemer, der opstår ved brugen af data-drevne teknologier i uddannelserne.
Udokumenterede gevinster. AI i uddannelserne kommer med en masse salgstaler fra uddannelsesteknologi-industrien (AIED), salgstaler som desværre kun ledsages af ringe uafhængig evidens. AIED-forskere nævner forskellige fordele på baggrund af små, begrænsede studier og meta-analyser, men fordelene kan ikke generaliseres, og de fleste studier er baseret på specifikke kontekster inden for højere uddannelser. Skoler er fremdeles forsvarsløse overfor markedsretorik fra uddannelsestech-firmaer og endda fra techgiganterne, som lover signifikante forbedringer uden dokumentation for, at deres produkter fungerer som lovet. Måske gør de bare de dårligste sider af skolen endnu dårligere.
Manglende kontekst. AI applikationer til skoler markedsføres i reglen som om konteksten er uden betydning for deres implementering. Ligesom det gælder alle andre teknologier, vil sociale, politiske og institutionelle kontekster indvirke på, hvordan AI bruges (eller ikke bruges) i skoler. Politikken på det enkelte sted vil ofte være præget af helt specielle prioriteter. Hvordan AI præcis benyttes eller ikke benyttes vil også afspejle så elementære faktorer som budgetsituationen, ledelsens visioner, forældrenes ængstelighed og lærerstabens kapaciteter, så vel som skolernes fortolkning og iværksættelse af eksterne retningslinjer og formålskrav. AI i skolerne vil ikke være kontekst-fri, men være præget af en vifte af nationale og lokale faktorer og være tilpasset de forskellige måder, på hvilken forskellige stakeholders forstår og opbygger AI som en teknologi med relevans for uddannelse.
Guru autoriteter. Debatten knyttes ofte til AI ’guruer’ som eksperter i uddannelse, der eksponerer snævre forståelser af læring og uddannelsesprocesser. Store navne optræder på platforme som TED talks, hvor de fremsætter spekulationer om, hvordan AI vil højne elevers og studerendes karakterer i kraft af individualiserede former for automatiseret instruktion. Den slags påstande negligerer ofte kritiske spørgsmål om uddannelsens formål, dens værdier og pædagogiske praksis, eller om de sociokulturelle faktorer, der skaber præstationer i skolerne, for i stedet at understrege hvordan ingeniør-ekspertise kan optimere skoler, så de opnår bedre måltal.
Operationel uigennemskuelighed. AI systemer er ’sorte bokse’, de er ofte uforklarlige af enten tekniske grunde eller hensyn til virksomhedsbeskyttelse; hverken lærere eller elever/studerende kan oversætte dem, og det er meget svært stille spørgsmålstegn ved dem, når de ikke fungerer. Denne bureaukratiske uigennemskuelighed vil begrænse skolernes og elevernes mulighed for at gøre ansvar gældende overfor nogen aktør, som skubber AI ind i deres administrative og pædagogiske processer. Hvis AI leverer forkert information baseret på en sprogmodel (LLM, large language model), som er leveret af en big tech virksomhed, og fejlen hos elever fører til en alvorlig misforståelse, hvem kan så gøres ansvarlig, og hvordan kan kompensation for misforståelser eller fejl overhovedet gøres mulig?
Curriculum misinformation. Generativ AI kan opfinde fakta, forvanske information, undlade at skelne mellem autoritative og dårlige kilder, og den kan forstærke race- og kønsstereotyper. Nogle uddannelses-tech virksomheder forsøger at udvikle applikationer alene baseret på allerede eksisterende læringsmateriale, mens andre advarer brugere om at dobbelttjekke svar og kilder. Risikoen er, at den udbredte brug af AI vil forurene uddannelsesstedets informationsmiljø og tilbyde ’alternative fakta’ i forhold til dem, der findes i det officielle curriculum og læringsmateriale.
Gatekeeping af viden. AI systemer er gatekeepers af viden, og vil derfor kunne blive magtfulde i afgørelsen af, hvilken viden eleverne tillades eller forhindres i at møde. Det kan foregå på to måder: (1) personprofilerede læringssystemer, som foreskriver (eller udelukker) bestemt indhold baseret på beregninger af dets hensigtsmæssighed, hvad angår den pågældende elevs målbare fremskridt og ‘mestring’; eller (2) elever, der får adgang til AI-genererede søgeresultater i spørgsmålsbaserede undervisningstimer, hvor modellen kombinerer kilder med henblik på at producere det indhold, der ser ud til at matche elevens forespørgsel. På disse måder kan kommercielle teknologiske systemer erstatte sociale og politiske institutioner i bestemmelsen af, hvilken viden der skal videregives til næste generation.
Uansvarlig udvikling. Udvikling af AI i uddannelserne følger ikke rutinemæssigt de foreskrevne rammeforordninger for ’ansvarlig AI’. Endnu er mange AIED forskere (selv)tilfredse med de teknologier, de udvikler: de understreger ingeniørløsningerne, snarere end sociale og etiske udfordringer og spørgsmål om politisk ansvarlighed.
Problemer med privacy og databeskyttelse. At indføre AI i uddannelserne øger på forskellige måder risikoen for krænkelser af privacy. Diverse analyseredskaber er afhængige af den løbende indsamling og monitorering af elevernes data, hvilket gør dem til genstand for løbende overvågning og profilering. AI input som for eksempel elevdata kan gøre privacy sårbar, eftersom data transporteres og processeres på ukendte lokationer. Datalæk, ransomware og hack af læringssystemer er tiltagende fænomener, hvilket øger risikoen for, at efterhånden som AI systemer kræver forøget dataindsamling, vil elevernes privacy blive endnu mere udsat. [Nærværende tekst er skrevet i en britisk sammenhæng, hvor EU’s dataforordninger, herunder GDPR ikke spiller samme rolle som i Danmark. O.a.]
Mental forringelse. At støtte sig til AI, når man skal producere skræddersyet indhold, vil kunne føre til en forringelse af elevernes kognitive processer og deres evne til at løse problemer og tænke kritisk. Det vil også kunne føre til en yderligere devaluering af den intrinsiske værdi af at studere og lære, efterhånden som AI forstærker instrumentelt styrede processer og ‘ekstrinsisk udbytte’ som færdiggørelse af opgaver, opnåelse af grader og optjening af points på den mest muligt effektive måde – inklusive ved benyttelse af automatisering.
Kommercialisering af infrastruktur. At introducere kunstig intelligens i skoler betyder at integrere applikationer fra uddannelsestech og big tech i eksisterende infrastrukturer for offentlige uddannelser. Skoler arbejder i dag med et patchwork af uddannelsestech platforme, ofte kompatible (interoperable) med administrative og pædagogiske infrastrukturer som eksempelvis systemer til læringsledelse og elevinformation. Mange af disse platforme indbefatter nu AI, både i elevernes processering af data og i generative AI-applikationer, og de underliggende, drivende faciliteter leveres af store teknologioperatører som AWS, Microsoft, Google og OpenAI. Ved at blive infrastrukturelle for skoler kan private tech-operatører trænge dybere ind i alle rutiner og praksisser i offentlige uddannelsessystemer.
Værdiskabelse. AI til skoler håndteres af industrien og dens investorer som et højattraktivt marked, en værdifuld forretningsmulighed efter teknologiens nedtur post-Covid. Værdien i AI bygger for det første på, at skoler betaler for de licenser og abonnementer, der kræves for at få adgang til AI-applikationer indlejret i edtech-produkter (ofte på et højt niveau for at afdrage de store udgifter ved AI computing); for det andet på genbrug af de data, der er indsamlet via brugen og kan anvendes til yderligere produktforfining eller produktudvikling i andre virksomheder. Der er tale om såvel økonomiske afgifter som data-afgifter, hvor skoler altså betaler begge dele gennem deres brug af AI. Samlet set betyder kunstig intelligens i skoler et øget værdiudtræk fra skolerne.
Forretningsbestemt skrøbelighed. Selvom AI promoveres som en transformativ kraft på lang sigt, kan forretningsmodellerne bag være meget mere skrøbelige, end de ser ud til. AI-virksomheder bruger flere penge på at udvikle og drive deres modeller, end de tjener, selv med premium-abonnementer, API-plus-tilføjelser[2] til tredjeparter og virksomhedslicenser. Mens investorer ser positivt på AI og tilfører kapital til at accelerere dens udvikling i forskellige sektorer, synes virksomhedskunder og forbrugere hurtigt at miste interessen, hvilket har langsigtede konsekvenser for mange AI-applikationers levedygtighed. Risikoen er, at skoler køber AI-systemer, der viser sig at være højst ustabile, teknisk set og også sårbare over for kollaps, hvis modeludbyderens forretningsværdi forsvinder.
Individualisering. AI-applikationer til skoler bygger på forestillingen om læring som en snævert individuel kognitiv proces, der kan modelleres af computere. Mens megen forskning om AI i skolen har fokuseret på systemernes anvendelighed til at støtte samarbejde, handler den dominerende branchevision om personlig og individualiseret uddannelse – altså en proces, som opleves af én person, der interagerer med en computer, som reagerer på hans/hendes data, promptede tekster og forespørgsler via et interface. I andre sammenhænge har eleverne vist deres utilfredshed med automatiseret individualiseret undervisning ved at protestere mod deres skoler og private teknologistøtter.
At erstatte ansat arbejdskraft. For de fleste lærere er risikoen for teknologisk bestemt arbejdsløshed stadig lav; løst ansatte lærere har dog en risiko for at blive erstattet af omkostningsbesparende AI. I en kontekst, hvor mange skoler og læreanstalter leder efter omkostningsreduktion og øget effektivitet, vil AI sandsynligvis være et attraktivt forslag, når det kommer til strategier for reduktion eller eliminering af omkostningerne til læreransættelser.
Standardisering af arbejdet. Hvis lærerne ikke erstattes af automatiserede systemer, vil det til gengæld blive krævet, at de arbejder sammen med AI for at sikre systemernes drift. Udfordringen er, at AI og de platforme, den er tilsluttet, vil stille nye krav til lærernes pædagogiske faglighed og omforme deres praksis for at sikre, at AI fungerer efter hensigten. Lærerarbejdet er allerede i dag præget af forskellige former for opgaveautomatisering og automatiseret beslutningstagning via edtech og skoleledelsesplatforme, samt af politiske krav om målbar præstationsforbedring og ansvarsbestemmende resultatmåling. Hvis man tilføjer yderligere AI til sådanne systemer, kan det resultere i øget standardisering og intensivering af lærernes arbejde, eftersom de forventes at præstere sammen med AI for at booste præstationerne og derved komme nærmere de målbare resultater.
Automatiseret “administrativ progressivisme”. AI afspejler den historiske vægt på effektivitet og målbare resultater – såkaldt administrativ progressivisme – der har præget skolesystemerne i årtier.[3] Nye former for automatiseret administrativ progressivisme vil forstærke bureaukratiet, mindske transparensen og gøre skolernes beslutningstagning endnu mere uigennemsigtig ved at delegere analyser, rapportering og beslutninger videre til AI.
Outsourcing af ansvar. Indførelsen af kunstig intelligens i pædagogisk praksis eller instruktionsrutiner repræsenterer en bevægelse bort fra den ansvarlige menneskelige dømmekraft, der tager udgangspunkt i pædagogiske værdier og formål, over til computernes beregninger. Lærernes pædagogiske selvstændighed og ansvar bliver således kompromitteret af AI, ligesom væsentlige beslutninger om, hvordan der skal undervises, hvilket indhold der skal undervises i, og hvordan man tilpasser sig elevernes forskellige behov bliver outsourcet til effektive teknologier, der hævdes at kunne påtage sig opgaver som planlægning af lektioner, forberedelse af materialer og karaktergivning på lærernes vegne.
Bias og diskrimination. I uddannelsesdata og administrative systemer kan anvendelsen af tidligere data til at lave forudsigelser og interventioner omkring nuværende elever forstærke de historiske former for bias og diskrimination. Problemer vedrørende bias og diskrimination i kunstig intelligens generelt kan i en sektor som uddannelse føre til livsændrende konsekvenser. Desuden er race- og kønsstereotyper et udbredt problem i generative AI-applikationer; nogle generative AI-applikationer produceret af højrefløjsgrupper kan også generere åbenlyst racistisk indhold og desinformerende fortællinger, hvilket øger risikoen for, at unge tilgår politisk propaganda.
Miljøpåvirkning. AI, og især generativ AI, er særdeles energikrævende og udgør en trussel mod klimaets bæredygtighed. Forestillingen om millioner af skoleelever og studerende verden over, der regelmæssigt bruger kunstig intelligens til at støtte deres skolegang, mens deres institutioner implementerer kunstig intelligens til pædagogiske og administrative formål, vil efter alt at dømme indebære en enorm miljøbelastning. Tager man i betragtning, at nutidens skoleelever skal leve med konsekvenserne af den igangværende miljøødelæggelse – mange af dem yderst bevidste om farerne for klimaforandringer – kan man forestille sig, at mange uddannelsesinstitutioner kunne tænke sig at reducere i stedet for at øge deres brug af energikrævende undervisningsteknologier. I stedet for at omkable [rewiring] edtech med AI-applikationer, bør vægten lægges på at naturliggøre [rewilding] edtech med henblik på en mere bæredygtig edtech-praksis.
Disse 21 argumenter mod kunstig intelligens i uddannelserne demonstrerer, hvordan AI ikke med simple forenklinger kan betragtes som uundgåelig, gavnlig eller transformerende. Man behøver ikke engang at anlægge et stærkt normativt perspektiv for at se, at kunstig intelligens i uddannelserne er meget omstridt og kontroversielt. Med andre ord: Det er et offentligt anliggende, der kræver offentlig samtale og løbende tilsyn, hvis eventuelle fordele skal kunne realiseres og de væsentlige risici håndteres. Måske kan ovenstående 21 kritiske punkter tjene som grundlag for nogle af de igangværende offentlige overvejelser, der er helt nødvendige som modsætning til fortællingerne om AI’ s uundgåelighed og de tekno-deterministiske visioner om uddannelsernes nødvendige transformation.
[*] BEN WILLIAMSON er Senior Lecturer på Edinburgh Universitet. Han har skrevet bogen Big Data in Education: The digital future of learning, policy, and practice, og han er redaktør for tidsskriftet Learning, Media and Technology. Desuden skriver han løbende på sin forskningsblok Code Acts in Education. Denne tekst er udvalgt herfra og oversat af Klavs Birkholm – med forfatterens tilladelse.
[1] K-12 skoler er det angelsaksiske udtryk for, hvad vi i Danmark kalder folkeskolen. Den oprindelige betydning er: fra børnehaver (K) til 12.klassetrin.
[2] API er brancheforkortelsen for Applikations-Programmerings-Interface, altså muligheden for at andre programmører kan udarbejde software til det givne program.
[3] Forfatteren refererer naturligvis til det engelske skolesystem. Læseren må selv vurdere, i hvilket omfang det samme gælder i Danmark.