Är AI en oxymoron? Om data, algoritmer och artificiell intelligens

av Jakob Svensson, K3, Malmö universitet 

Dataflöden som processas av algoritmer utgör snart grunden för allt; från medicinska hälsoprofiler till politiska beslut, journalistik och akademiska teorier. Data har kommit att bli den grundläggande byggstenen i vår värld, men också i oss själva. Vi definieras utifrån våra datautsläpp, en osynlig antropocentrisk ånga bestående av ettor och nollor utan vilken vi, och vår värld, slutar att fungera. Hur data produceras, vem som äger och har tillgång till den, har blivit en viktig politisk fråga, vilket inte minst Cambridge Analytica-skandalen pekade på. Skördandet av enorma mängder användardata förebådar en dystopisk tid där övervakning och kontroll av en digital “big brother” blir auktoritära regimers yttersta verktyg för förtryck av oliktänkare (som till exempel i Kina med deras system med social kredit. (Se https://www.wired.co.uk/article/china-social-credit).

Samtidigt för denna utveckling också med sig ett löfte om en mer bekväm och effektiv värld där algoritmer som processar våra datautsläpp känner oss bättre än själva och således kan tillgodose våra behov med imponerande noggrannhet och individanpassning. Som Göran Lindsjö skriver på SvD debatt den 3e november i år, AI kan göra flera yrken rimligare. Således kritiseras Sverige för att halka efter när det gäller just den nya data-baserade tekniken som AI utgör.

Dock finns det frågor att fundera över nu när allt fler propagerar för att vi ska hoppa på AI-tåget. Kan till exempel allting reduceras till data? Historikern och succé-författaren Yuval Noah Harari (Homo Deus) skriver att alla organismer, inklusive människor, består av algoritmiskt processade dataflöden. Att den mänskliga hjärnan kan återskapas i en dator är något av en grundtes inom AI (se till exempel det EU-finansierade Human Brain Projektet, https://www.humanbrainproject.eu). Och om både människor och datorer består av samma byggstenar väcks frågan om det är möjligt att slås samman till någon form av dator-människa hybrid. 

Men bakom sådan AI finns en del ideologiska undertoner. Det talas nu om Dataism, eller datafiering (av engelskans Dataims och datafication), det vill säga en tro på objektiv kvantifiering och spårning av all typ av mänskligt beteende och social samvaro genom digitala teknologi. Allt kan transformeras till av algoritmer läs- och process-bar data. Skillnaden mellan människa och maskiner kollapsar och vissa förväntar sig således är att elektroniska algoritmer kommer att dechiffrera och så småningom överträffa våra biokemiska algoritmer. Yuval Noah Harari menar att vi har tillgång till tillräckligt mycket data och tillräckligt med datakraft idag för att uppgradera vår gamla algoritmiska processor (dvs. kroppen). Homo Sapiens övergår till Homo Deus, eller ska vi hellre säga Homo Datus?

Också jag som jobbar på ett universitet med vetenskapliga teorier kommer att bli helt överflödig. I framtiden tros vi ha tillgång till tillräckligt med data och tillräckligt kraftfulla datorer som kan hitta mönster och hypoteser på egen hand (som Chris Anderson argumenterade för redan år 2008 https://www.wired.com/2008/06/pb-theory/).

Algoritmer som genomsöker stora data-set (så kallad big data) tros kunna exponera mönster och relationer vi inte ens visste existerade. Således förses vi med en fulländad förståelse som också är befriad från mänsklig förvanskning och som inte är befläckad av kontextuella omständigheter. Dataism är således tron på att det är möjligt att spåra och processa den data som människan släpper ut, dataflöden som då ger en fullständig och objektiv bild av mänskligt beteende och social samvaro. Dataism är tron att algoritmer faktiskt kan skapa insikter ur all den data som släpps ut och samlas in, tron på att algoritmer kan skapa en bild av världen med perfekt upplösning in i minsta detalj.

Således blir det också möjligt att göra exakta förutsägelser om människors beteende. Algoritmer kommer att förstå oss människor bättre än vi människorna själva och därmed blir det logiskt att algoritmer kommer fatta de flesta besluten åt oss (vilket i viss mån redan görs då vi delegerar beslut om vilken väg vi ska ta och vilka böcker vi ska köpa till Google Maps och Amazon). Förutsägelser blir inte längre en fråga om sannolikheter utan snarare felfria prognoser. Vissa individer kan komma att arresteras i förebyggande syfte eftersom deras dataflöden visar bortom allt tvivel att de kommer att begå brott framtiden. När målet är att förutse världen istället för att förstå den, behöver vi inte längre bry oss om orsakssamband.

Allt detta går naturligtvis att ifrågasätta För det första, algoritmer förutsätts sammanställa data på ett objektivt vis. Detta leder tankarna tillbaka till positivismen, en tro på att den stökiga sociala världen kan studeras naturvetenskapligt och att empiriska observationer och regelbundenheter kan leda till förutsägelser. För positivistiskt lagda forskare erbjuder onekligen vår tids ökande mängd data, tillsammans med dess processande i algoritmer, en möjlighet att beräkna samhället och kulturen.

Ett annat problem är att begreppet data sällan definieras. Detta leder till okritisk tro på vad algoritmiskt processad data kan åstadkomma. Etymologiskt betyder data det som är givet (från det latinska verbet att ge, dare). Härifrån kan vi skönja idén om data som en objektiv och neutral reflektion av verkligheten. Men vår data är inte given, den är snarare tagen, utvunnen ur observationer och beräkningar (vilket har lett vissa att istället föreslå termen capta, från det latinska verbet att ta, capere). Vidare skulle det etymologiskt vara mer korrekt att tala om information, alltså som något tagits stöps in i en form av ettor och nollor, formats till beräkningsbar data, för att kunna processas av algoritmer.

Data och algoritmers koppling till siffror och matematiska beräkningar ger dem en aura av neutralitet och objektivitet. Detta till skillnad från människor som ses som subjektiva och partiska. Det är dokumenterat att vi lockas, ja till och med åtrår, siffror. Och om vi människor kan reduceras till algoritmiskt bearbetade dataflöden betyder det också att vi kan representeras i matematiska formler? Hela vår vardag och vi själva blir föremål för ständiga beräkningar. Men är det verkligen möjligt att reducera subjektiva erfarenheter till matematiska beräkningar? Är vi människor matematiska problem, något som kan representeras i algoritm? Det finns de som menar att människan är mer komplex och oförutsägbar än vad som kan delas upp i några stegvisa beräkningar i en datoralgoritm (se till exempel filosofen Jonna Bornemarks senaste bok Det Omätbaras Renässans som nu är nominerad till Stora fackbokspriset).

Data också djupt kulturellt och färgas av samhällets värderingar och normer. Det uppstår inte naturligt eftersom det samlas in, manipuleras och masseras av människor. Således formas data av mänskliga beslut, tolkningar och filter. Bakom dataproduktion finns komplexa sammanställningar av människor, platser, dokument, praktiker och teknik. AI är inte neutralt, data och programmerare är fulla av fördomar.

Ett tredje problem är att algoritm-processad data används ofta för att förutse framtiden.  Men om vi vet från början att data inte är neutralt och har fördomar inbyggt i sig, hur kan algoritmers förutsägelser bli korrekta och tillämpliga? Och då algoritmer har tränats för att se samband/ korrelationer i stora data-set, men inte för att förstå orsakssamband, blir de blinda för etiska spörsmål. Algoritmer ställer sig inte frågan varför de får de resultat de får och vad konsekvenserna kan bli. Det finns en uppsjö av fall som till exempel Amazon som anklagades för att vara homofobiska då deras algoritm filtrerade ut HBTQ-titlar i sina sökresultat. Vi har Microsofts chatt-bot Tay som snabbt började använda sig av obscent och hatfullt språk efter att ha interagerat med Twitter-användare. Studier har också funnit att kvinnor underrepresenteras av bildsökningsalgoritmer och att svarta människor inte ens känns igen som människor av ansiktsigenkänningsalgoritmer (utan föreslås vara gorillor). Med tanke på att programmerare i främsta hand är unga vita män, är kanske inte dessa resultat inte så anmärkningsvärda.

Vidare kan de mönster som algoritmer letar fram i stora data-set ifrågasättas. Mönster, baserat på gårdagens data-spår, är dåliga på att förutse framtiden. I en episod av NPRs pod Invisibilia från tidigare i år görs de lyssnare medvetna om att mönster kan ha långtgående konsekvenser om de ligger till grund för bedömning av människor. (Se https://www.npr.org/programs/invisibilia/597779069/the-pattern-problem?t=1541865027064). Ens förflutna är inte nödvändigtvis avgörande för ens framtid. Detta avslöjas också i en utmaning för forskare att skriva algoritmer för att hitta dolda mönster i en stor databas baserat på 5000 amerikanska barn följda och intervjuade under 15 år. Utmaningen gick ut på att mönster som kunde förutsäga vad som faktiskt hände med dessa barn. Den förutsägbara potentialen i forskarnas föreslagna mönster var närmare noll än 100 procent. Eftersom data inte är neutralt är mönster som algoritmer hittar i stora data-set varken nödvändigtvis sanningsenliga eller meningsfulla. Är det då rimligt att förutsäga framtiden baserat på sådana mönster? Är framtiden alltid baserad på det förflutna?

Slutsatsen i Invisibilia podden är att vi måste acceptera den roll som slumpmässighet spelar i våra liv. Att vara mänsklig är att vara oavslutad, ofullständig och oordnad. Att vara människa är att vara en konstant betaversion. Frågan blir då huruvida mänsklig ofullständighet och slumpmässighet kan fångas genom att bearbeta dataflöden i algoritmer. Kanske är vissa saker omöjliga att representeras av algoritmer läsbar data i form av ettor och nollor. Kanske är det därför vi känner oss skrämda av våra datafierade alter-egon då de dyker upp i våra sökresultat och riktad reklam. Vi känner igen oss men inte riktigt. Det blir kusligt på samma sätt som robotar kan vara mycket lika oss (den så kallade kusliga dalen), men inte riktigt. De är lite för perfekta. Vi blir som en armé Saga Noréns från den populära TV-serien Bron. Direkta, tydliga och följandes allsköns regler och lagar till punkt och pricka, men således också något omänskliga.

Det råder ingen tvekan om att vi idag tror och litar på data. Vi frågar Google och Facebook om råd om alla möjliga olika saker. Teknikjättar och datavetare blir alltmer kraftfulla centra kring vilka stora delar av vår existens cirkulerar. Men steget från att erkänna vikten av algoritmer läsbar data, till att reduceras till sådan data, är ganska stor. Den mänskliga hjärnan har alltid beskrivits i termer av den mest dagsaktuella tekniken, från ångmaskiner på 1700- talet till datorer och algoritmer idag. Yuval Noah Harari betonar fiktionens roll för samhällen att fungera. Dataism och AI också baseras på en berättelse om människor som rationella, förutsägbara och därför också kontrollerbara. Och denna berättelse är inte ny, den har sina rötter i modernitetens tro på framsteg och beräkningar.

Algoritmer må ha tillgång till data, men allt i världen är inte givet. Data är partiella översättningar av uppfattad verklighet som satts in i en matematisk form av ettor och nollor. Således förefaller det att Dataism lider av en dålig förståelse för semiotik eftersom de blandar ihop tecknet med det som tecknet ska representera. I detta avseende är Dataism hopplöst socialkonstruktivistiskt, instängd i en bur av matematiskt språk, som, på grund av att vara mer abstrakt än vanligt mänskligt språk, anses vara renare och till och med gudomligt. Dessutom är data alltid resultatet av ett urval, även stora data-set är bara en representation, inte en helhet. Att basera hela vår existens på partiella dataspår vi lämnar bakom i form av ett matematiskt språk, att basera vår framtid på resterna av mänsklig existens i en digital värld, skulle vara synekdoke, att ta en liten bit och göra den till en helhet.

Såsom AI utvecklas nu finns det ingen anledning att tro att den helt och fullt kan replikera människor i nära förestående tid. Idag är AI bara vertikalt (verkställande) medan människor också tänker horisontellt (kreativt). Algoritmer kan visa känslor men inte känna känslor och det är faktiskt en skillnad. Bara för att algoritmer kan lära sig saker och ting kommer de inte att magiskt skapa en egen vilja. Vidare visar tävlingar mellan lag bestående av människor och datorer att lag som består av både människor och datorer är bäst på att lösa uppgifter, bättre än lag som bara består av datorer. (Se https://jods.mitpress.mit.edu/pub/issue3-case). 

Det verkar således som att intelligens inte enbart består av en vertikal dimension, utan att intelligens även inkluderar slumpmässiga, kreativa och bångstyriga element, något som data-processande algoritmer verkar ha mycket svårt för. Det är alltså tveksamt om algoritmer kommer att kunna förvärva de horisontella kvaliteter som vi behöver för att lösa de olika problem mänskligheten står inför. Således bör vi ställa oss frågan om artificiell intelligens är en oxymoron?

Jakob Svensson är docent i Medie- och kommunikationsvetenskap vid Malmö Universitet. Han är kopplad till forskningsmiljöerna Medea och Data Society Research Programme och leder projektet Bakom Algoritmen som finansieras av Vetenskapsrådet.