nför skolvalet 2020 valde Göteborgs stad att för första gången använda sig av digital teknik som hjälpmedel i arbetet med att placera elever på stadens olika skolor. Indelningen sker enligt närhetsprincipen och algoritmen var kodad så att eleven blev placerad på den närmaste skolan fågelvägen från hemadressen. Det visade sig inte vara så smart. Algoritmen tog inte hänsyn till att Göteborg delas rätt itu av Göta Älv och för den med någon som helst koll på landets andra stad är det välkänt att sammankopplingen mellan Hisingen och fastlandsgöteborg är ett högst påtagligt problem. Det som verkar nära på en karta fågelvägen lirar inte med verklighetens kollektivtrafiknät och infrastruktur.
Så algoritmen gjorde minst sagt märkliga skolplaceringar. I vissa fall kunde skolplaceringarna i praktiken innebära att 12-åringar förväntades resa i över en timme enkel väg till skolan. Systemet var dessutom beskaffat på ett vis som ledde till en dominoeffekt där varje barn likt en bricka i spelet knuffade till nästa som puttades vidare till en annan skola, och så där fortsatte det.
DET DRÖJDE INTE LÄNGE förrän mer än 1 000 överklaganden från måttligt roade föräldrar damp ner hos grundskolenämnden och beslutsfattarna sattes på prov – hur skulle cheferna hantera en situation där beslut delegerats från människa till maskin med ett mindre tillfredsställande resultat?
Frågar man forskaren Charlotta Kronblad, som nyligen doktorerat vid Chalmers tekniska högskola på ämnet digitalisering och juridik, hanterades det inte särskilt bra. Hon och hennes familj drabbades själva hårt då deras barn placerades på skolor långt från hemmet. Och själv hamnade hon i en sits där hon både som medborgare och forskare fick borra djupt i vad som egentligen hänt.
– Här ville ledarna i ett gott syfte effektivisera verksamheten genom att implementera digitala verktyg, men om man knappt förstår sig på tekniken och bara kör på utan att lyssna in vare sig leverantören av mjukvaran eller de egna medarbetarna när de flaggar upp varningar, då är något galet.
Vad menar du att cheferna borde ha gjort annorlunda?
– Våga erkänna fel om de uppstår. Alla kan göra fel, det är mänskligt att fela. Det går oftast att backa bandet om man erkänner att det skett ett misstag. Men här möttes många föräldrar – jag också – av ett ledarskap som var tondövt och utan medkänsla. Ledarna gömde sig bakom algoritmerna som fattat besluten.
EFTER EN MEDIESTORM vände sig staden inåt och valde att granska sig själv. I den internrevision som Stadsrevisionen lät genomföra konstaterades att man ”identifierat flera brister”. I SMS-form hade utlåtandet nog kort och gott låtit: Gör om, gör rätt.
Så vad tycker Charlotta Kronblad att man som chef bör tänka på i samband med att man plockar in algoritmiskt beslutsfattande i en organisation?
– Det gäller att säkerställa att det finns kompetens. I mina ögon krävs det ett multidisciplinärt team bestående av flera olika kompetenser. Det kan handla om juridik, etik, it eller andra fält där man måste samverka. Det är inte lätt för en enskild person att ha koll på alla delarna som finns att ta i beaktande.
– Man ska inte vara rädd för ny teknik men om man inte är medveten om både möjligheter och begränsningar leder det till ett ledarskapshaveri. Det går inte att bara dra till på en höft, hoppas att det löser sig och sen skylla på algoritmen om det blir fel, säger Charlotta Kronblad.
För Charlotta Kronblad väntar härnäst en tjänst på House of Innovation vid Handelshögskolan i Stockholm där hon ska fördjupa sig i frågor som rör gränslandet mellan juridik och digitalisering, I sin forskning kommer hon bland annat att titta på riskerna med algoritmiskt beslutsfattande och fallet med grundskoleplaceringarna i Göteborg.
Text: Monir Loudiyi